Naknada Zodijaka
Suppsibility C Slavne Osobe

Saznajte Kompatibilnost Po Znaku Zodijaka

Vandalizam na Wikipediji mogao bi spriječiti otkrivanje prijevara na Googleu, YouTubeu i Facebooku

Provjera Činjenica

Nakratko je Kalifornijska republikanska stranka podržala nacizam. Barem, tako je rekao Google.

To je zato što je netko 31. svibnja vandalizirao stranicu Wikipedije za stranku kako bi naveo 'nacizam' uz ideologije kao što su 'konzervatizam', 'tržišni liberalizam' i 'fiskalni konzervativizam'. Pogreška je uklonjena iz rezultata pretraživanja s Googleom pojašnjavajući za Vice News da tražilica nije uspjela uhvatiti vandalizam u unosu Wikipedije.

Google ima dugo privučena mrežna enciklopedija za dodavanje osnovnih informacija rezultatima pretraživanja. Prema dnevnik uređivanja za stranicu California GOP, netko je dodao 'nacizam' u odjeljak za ideologiju stranke oko 7:40 UTC 31. svibnja. Uređivanje je uklonjeno u roku od minute, ali čini se da je Googleov algoritam ostrugao stranicu baš na vrijeme za lažiranje.

'Ponekad ljudi vandaliziraju javne izvore informacija, poput Wikipedije, što može utjecati na informacije koje se pojavljuju u pretraživanju', rekao je glasnogovornik Googlea Poynteru u e-poruci. 'Imamo uspostavljene sustave koji hvataju vandalizam prije nego što utječu na rezultate pretraživanja, ali povremeno prođu pogreške, a to se ovdje i dogodilo.'

Zaklada Wikimedia, neprofitna organizacija koja upravlja Wikipedijom, također je objavila priopćenje na Twitteru.

Prema Googleu, više od 99,9 posto uređivanja Wikipedije koja se pojavljuju na pločama znanja, koje prikazuju osnovne informacije o pretraživim ključnim riječima na vrhu rezultata, nisu vandalizam. Korisnik koji je autor izvornog uređivanja stranice California GOP-a nije koristio korisnički profil , zbog čega im je teško ući u trag.

to je uobičajena taktika među ljudima koji vandaliziraju stranice Wikipedije, praksa koju ima neprofitna organizacija opširno dokumentiran . Ali s obzirom na količinu uređivanja koja su napravljena na Wikipediji - oko 10 u sekundi , sa 600 novih stranica dnevno – i činjenicom da se Facebook i YouTube sada povlače od njih kako bi pružili više konteksta objavama, potencijal i učinak zlostavljanja su visoki.

'Naravno da je to prilično slab način borbe protiv lažnih vijesti jer Wikipedija nije pouzdan izvor informacija - kao što čak i Wikipedia priznaje', rekao je Magnus Pharao Hansen , postdoktorski istraživač na Sveučilištu u Kopenhagenu, u poruci Poynteru. “Wikipedia je vrlo osjetljiva na prijevare i sadrži sve vrste dezinformacija, tako da nije vrlo ozbiljan način borbe protiv problema izmišljenih vijesti.”

Hansen je uređivao stranice Wikipedije oko 10 godina i rekao je da je vandalizam uobičajena pojava na platformi. Broj urednika se smanjio posljednjih godina, dok su online partizani sve više ciljano na platformu — problem koji došao do glave tijekom kontroverze Gamergatea 2014. To je u biti igra brojeva.

To je daleko od toga gdje je Wikipedia bila 2005 , kada je studija pokazala da je otprilike jednako točna kao Britannica. I to otežava urednicima volonterima borbu protiv vandalizma u razmjerima na Wikipediji, što ne sluti dobro za korištenje u borbi protiv dezinformacija na drugim platformama.

“Svakako ima puno pogrešnih informacija na Wikipediji, a mnoge će i ostati”, rekao je Hansen. “Često netko napiše članak i mogu proći godine prije nego što netko dođe i uredi ga. Ljudi ne provjeravaju činjenice osim ako nešto ne izgleda kao da nije na mjestu.'

Jedan izmišljeni članak na Wikipediji živio je na stranici desetljeće prije nego što je izbrisan 2015.

U isto vrijeme, platforma se pokazala otpornom na vrste prijevara koje redovito postaju viralne Facebook i Cvrkut . Wikimedia procjenjuje da je oko 2,5 posto dnevnih uređivanja vandalizam, a Samantha Lien, komunikacijska menadžerica za Wikimediju, ukazala je na algoritam koji automatski označava upitne izmjene kao ključni uspjeh za njezine napore u pogledu integriteta.

'Članci imaju tendenciju da pružaju uravnotežen prikaz činjenica, a stranica se do sada pokazala otpornom na lažne vijesti i dezinformacije', rekla je Poynteru u e-poruci. “Također smo radili s urednicima dobrovoljcima u posljednjih nekoliko godina kako bismo izgradili i poboljšali alate za moderiranje kako bismo brzo identificirali i riješili vandalizam na Wikipediji.”

Izvan vlastitih ograničenja Wikipedije, vlastiti sustavi tehnoloških platformi često su predmet pogrešaka i kontroverzi - posebno panela znanja.

Također 31. svibnja, potraga za republikanskim senatorom koji podržava Donalda Trumpa u Sjevernoj Karolini pojavila se slika od nje s napisanim 'bigot' na dnu. U siječnju je The Daily Caller otkrio da je Google pogrešno dodavao provjere činjenica svom sadržaju, a ne sadržaju drugih medija. To je navelo tehnološku tvrtku da suspendira značajku dok ne riješi greške.

Google je rekao Poynteru da ne mijenja ručno rezultate pretraživanja kako bi pokazao prednost jednoj strani u odnosu na drugu. Ali njegovi algoritmi se redovito igraju podvale , lažne reklame i trolovi koji žele promijeniti rezultate pretraživanja. A ti bi se problemi mogli proširiti i na druge platforme koje povezuju na Wikipediju.

'Kada više medijskih platformi nekritički koristi sadržaj s Wikipedije, to podiže ulog - i za one koji bi zavaravali ili obmanjivali i za one koji bi širili znanje', rekao je Hansen. “Mislim, osobito s povezivanjem na Wikipediju s YouTube videozapisa o teorijama zavjere, to bi moglo imati učinak privlačenja pogrešne publike.”

U ožujku, objavio je YouTube da će se povezivati ​​izravno na stranice Wikipedije u opisima videozapisa kako bi pružio više konteksta i razotkrio virusne teorije zavjere, što često postaju viralni nakon najnovijih vijesti. Oni 'informacijski znakovi' - koji su uvedeni na platformi bez znanja Wikipedije — sadržavat će kratki redak o izvoru i poveznicu na njegovu stranicu Wikipedije.

Ta značajka još nije uvedena, ali YouTube je u veljači predstavio sličnu koja pruža više konteksta novinskim organizacijama koje primaju novac od vlade SAD-a.

Youtube

(Snimak zaslona s YouTubea)

S obzirom na povećanu vidljivost stranica Wikipedije, moguće je da bi vandali mogli hrliti na platformu kako bi jednim uređivanjem trolili više platformi.

“Hakiranje Wikipedije oduvijek je bio problem, ali to je bio problem koji je utjecao samo na čitatelje Wikipedije. Sada je to još opasnije jer se platforme sve više automatski povlače s Wikipedije”, rekla je Claire Wardle, izvršna direktorica First Drafta, u e-poruci Poynteru. 'Za agente dezinformacija koji žele maksimalno pojačanje, svaka tehnika koja osigurava da će se platforme ili redakcije ponoviti i stoga legitimirati neistinu, pruža nerazmjeran 'povrat ulaganja'.'

Unatoč tome što služi kao izvor za više platformi, Wikipedia nije zabilježila porast vandalizma, rekao je Lien. No, budući da su dodaci zatekli organizaciju nespremnu, neizvjesno je kako će točno utjecati na integritet stranica Wikipedije.

“Trend tehnoloških tvrtki koje koriste Wikipediju za rješavanje problema dezinformacija na vlastitim platformama novi je teritorij za nas i ne znamo kakve će biti potpune implikacije”, rekla je. „Kratkoročno, pomno pratimo kako to utječe na Wikipediju i našu globalnu zajednicu volontera. Do danas nismo vidjeli ništa što bi ukazivalo na šire pitanje vandalizma.”

Ali čak i ako bi došlo do porasta vandalizma na Wikipediji s namjerom da se izmijene rezultati na platformama, Lien je rekao da organizacija ne bi imala načina za to znati.

“Nemamo dostupnih podataka koji bi ukazivali na trendove vandalizma s eksplicitnom namjerom da se manipulira drugim platformama”, rekla je.

Dakle, koliko je vjerojatno da će više dezinformacija doći na druge platforme? Joseph Reagle, izvanredni profesor komunikacija na Sveučilištu Northeastern i stručnjak za Wikipediju, rekao je Poynteru, iako ne postoji način da se zna bez odgovarajućih sustava za praćenje, struktura koja je postavljena može učiniti dezinformacije vidljivijom - čak i kada nije stvorena za igru platforme poput Googlea i Facebooka.

'Da, to je vjerojatno, a mislim da će postati još vjerojatnije jer ove profitne tvrtke nastavljaju skakati na vagonu', rekao je. “U slučaju Googlea, ne mislim da je namjera uređivanja bila zagaditi nizvodne korisnike Wikipedije, ali to je ipak bio učinak. Činjenica da Wikipediju koriste ovi nizvodni agregatori također će učiniti Wikipediju većom metom, što je zabrinjavajuće.”

Ipak, iako se smanjuje, Wikipedia još uvijek ima predanu zajednicu urednika koji je godine iskustva rukovanje člancima o udarnim vijestima. Nathan Matias, postdoktorski znanstveni suradnik na Sveučilištu Princeton, rekao je Poynteru u e-poruci da dezinformacije vjerojatno neće često proći kroz pukotine zbog te zajednice.

Ali na rubovima stranice ta se šansa znatno povećava.

'U slučajevima izvanrednih vijesti, gdje su aktivisti svih vrsta razvili načine da utječu na algoritme platforme brže od brzine novinarstva, očekujem da će Wikipedia biti otpornija na utjecaj', rekao je. “Rizici za Wikipediju i platforme bit će veći na rubu znanja i pažnje, budući da je teže uočiti mali tok ljudi koji pristupa ekstremističkom materijalu niskog profila.”

Unatoč izazovima, neki stručnjaci vide tehnološke platforme koje povezuju na stranice Wikipedije kao korak naprijed u borbi protiv dezinformacija na internetu.

Eni Mustafaraj, docentica informatike na Wellesley Collegeu, rekla je Poynteru u e-poruci da je dodavanje Wikipedije velikim tehnološkim platformama pozitivan potez. Ali dolazi s upozorenjima.

'Oni to moraju činiti dosljedno, a ne samo da bi se borili protiv dezinformacija ili prijevara ili teorija zavjere', rekla je. “U borbi protiv dezinformacija, ne bismo trebali stavljati Facebook i Google na čelo, jer su oni ti koji su pogoršali problem.”

Istodobno, uzimanje informacija s Wikipedije s platforme može inherentno zbuniti čitatelje. Hansen je rekao da viđenje poveznica na stranicu s platformi društvenih medija, čak i ako su dobro označene, neće izazvati istu vrstu skepticizma koja je svojstvena korisnicima Wikipedije.

“Čitatelj ne zna da je ovo s Wikipedije. To uvodi sloj u kojem ne možete biti sigurni u izvor informacija”, rekao je. 'Ljudi su skeptični kada su na Wikipediji - možete vidjeti kada nema izvora ... kada ste na drugoj platformi, niste oprezni na takve stvari.'

Zatim postoji pitanje propusnosti. Kako uredništvo i dalje opada, Wikipedia bi možda željela razmotriti zapošljavanje stalnih zaposlenika čiji je posao pratiti vandalizam i osigurati da se ne proširi na druge platforme. Hansen je rekao kako misli da bi neprofitna organizacija trebala stvoriti internu jedinicu za provjeru činjenica ili pozvati stručne urednike i akademike da procijene neke od nijansiranih stranica.

“Mislim da je to jedini način borbe protiv dezinformacija na Wikipediji”, rekao je.

U najmanju ruku, Lien je sugerirao da tehnološke platforme koje koriste Wikipediju za suzbijanje dezinformacija na neki način uzvrate neprofitnoj organizaciji - što je argumentirala izvršna direktorica Wikimedije Katherine Maher u nedavni članak za Wired . (Facebook i YouTube nisu uključeni među najvećim Wikimedijinim dobročiniteljima.)

“Potičemo tvrtke koje koriste sadržaj Wikipedije da uzvrate u istom duhu održivosti”, rekla je. “Pritom bi se pridružili milijunima pojedinaca koji će se uključiti kako bi Wikipedia bila jaka i uspješna.”

I Matias je pristao.

“Ako se tvrtke očekuju da će se oslanjati na ogromne količine neplaćenog i često psihološki opterećujućeg rada Wikipedijanaca i Zaklade Wikimedia kako bi riješile neke od svojih najtežih problema, moraju pronaći načine da podrže taj rad, istovremeno štiteći intelektualnu neovisnost Wikipedije”, rekao je.