Kan teknik rädda oss från felaktig information om sociala medier?

Om du får dina nyheter från sociala medier, som de flesta amerikaner gör, du är utsatt för en daglig dos hoaxes, rykten, konspirationsteorier och vilseledande nyheter. När det är allt blandat med tillförlitlig information från ärliga källor kan sanningen vara mycket svår att urskilja.

Faktum är att min forskningsteam analyserar data från Columbia University emergent ryktetracker föreslår att detta felinformation är lika sannolikt att gå viral som tillförlitlig information.

Många frågar om detta angrepp av digital missinformation påverkat resultatet av 2016 USA: s val. Sanningen är att vi inte vet, även om det finns skäl att tro att det är helt möjligt, baserat på tidigare analys och konton från andra länder. Varje bit av felinformation bidrar till utformningen av våra åsikter. Sammantaget kan skadan vara väldigt riktig.

Som forskare om spridning av felaktiga uppgifter via sociala medier känner jag till att de begränsande nyhetskonkurrenterna kan sälja annonser, som nyligen meddelats av Google och Facebook, är ett steg i rätt riktning. Men det kommer inte att begränsa missbruk som drivs av politiska motiv.

Utnyttja sociala medier

Omkring 10 år sedan sprang mina kollegor och jag en experimentera där vi lärde oss 72-procent av högskolestudenters betrodda länkar som tycktes härröra från vänner - till och med för att ange personlig inloggningsinformation på phishing-webbplatser. Denna utbredda sårbarhet föreslog en annan form av skadlig manipulation: Människor kan också tro felaktig information de får när de klickar på en länk från en social kontakt.

För att utforska den tanken skapade jag en falsk webbsida med slumpmässiga, datorgenererade skvaller nyheter - saker som "Celebrity X i sängen med Celebrity Y!" Besökare på webbplatsen som letade efter ett namn skulle utlösa manuset att automatiskt skapa en berättelse om personen. Jag inkluderade en ansvarsfriskrivning på webbplatsen och sa att webbplatsen innehöll meningslösa text och färdiga "fakta". Jag placerade också annonser på sidan. I slutet av månaden fick jag en check i posten med inkomster från annonserna. Det var mitt bevis: Fake nyheter kunde tjäna pengar genom att förorena internet med falskhet.


innerself prenumerera grafik


Tyvärr var jag inte den enda med den här idén. Tio år senare har vi en industrin av falska nyheter och digital felinformation. Clickbait-webbplatser tillverkar hoaxes för att tjäna pengar från annonser, medan så kallade hyperpartisanläggningar publicerar och sprider rykten och konspirationsteorierna för att påverka den allmänna opinionen.

Denna bransch stärks av hur lätt det är att skapa sociala bots, falska konton kontrolleras av mjukvara som ser ut som riktiga människor och kan därför få verkligt inflytande. Forskning i min lab avslöjade många exempel på falska gräsrotsskampanjer, även kallade politisk astroturfing.

Som svar har vi utvecklat BotOrNot verktyg för att upptäcka sociala bots. Det är inte perfekt, men noggrann nog att avslöja övertalningskampanjer i Brexit och antivaxrörelserna. Med hjälp av BotOrNot fann våra kollegor att a stor del av onlinechatter om 2016-valet genererades av bots.

Skapa informationsbubblor

Vi människor är sårbara för manipulation genom digital felinformation tack vare en komplex uppsättning sociala, kognitiva, ekonomiska och algoritmiska biaser. Några av dessa har utvecklats av goda skäl: Att lita på signaler från våra sociala kretsar och avvisa information som strider mot vår erfarenhet tjänade oss bra när vår art anpassades för att undvika rovdjur. Men i dagens krympande nätverksnätverk hjälper inte en social nätverksanslutning med en konspirationsteoretiker på andra sidan planeten mina åsikter.

Kopiera våra vänner och följa upp dem med olika åsikter ger oss ekkokamrar så polariserade att forskare kan berätta med hög noggrannhet om du är liberal eller konservativ genom att bara titta på dina vänner. Nätverksstrukturen är så tät att någon felinformation sprids nästan omedelbart inom en grupp och så segregeras att den inte når den andra.

Inuti vår bubbla är vi selektivt utsatta för information i linje med våra övertygelser. Det är ett idealiskt scenario för att maximera engagemang, men en skadlig för att utveckla frisk skepsis. Bekräftelse förspänning leder oss att dela en rubrik utan att läsa artikeln.

Vårt lab fick en personlig lektion i detta när vårt eget forskningsprojekt blev föremål för a ond misinformationskampanj i uppkörningen till 2014 USAs halvtidsval. När vi undersökte vad som hände hittade vi falska nyhetsberättelser om att vår forskning huvudsakligen delas av Twitter-användare inom en partisk ekkokammare, en stor och homogen grupp av politiskt aktiva användare. Dessa människor var snabb att retweeta och ogenomträngliga att debunking information.

Viral oundviklighet

Vår forskning visar att med tanke på strukturen i våra sociala nätverk och vår begränsade uppmärksamhet är det oundviklig att en del memes kommer att gå viral, oberoende av deras kvalitet. Även om individer tenderar att dela med information av högre kvalitet är nätverket som helhet inte effektivt vid diskriminering mellan tillförlitlig och tillverkad information. Detta hjälper till att förklara alla virala hoaxes vi observerar i naturen.

Smakämnen uppmärksamhet ekonomi tar hand om resten: Om vi ​​uppmärksammar ett visst ämne kommer mer information om det ämnet att produceras. Det är billigare att tillverka information och överföra det som faktum än att rapportera den verkliga sanningen. Och tillverkning kan skräddarsys för varje grupp: Konservativa läste att påven godkände Trump, liberaler läste att han godkände Clinton. Han gjorde inte heller.

Beholden till algoritmer

Eftersom vi inte kan uppmärksamma alla inlägg i våra flöden bestämmer algoritmer vad vi ser och vad vi inte gör. Algoritmerna som används av sociala medieplattformar idag är utformade för att prioritera engagemangsposter - de som vi sannolikt kommer att klicka på, reagera på och dela. Men en ny analys fann avsiktligt vilseledande sidor åtminstone lika mycket delning på nätet och reaktion som riktiga nyheter.

Denna algoritmiska bias mot engagemanget över sanning förstärker våra sociala och kognitiva företeelser. Som ett resultat, när vi följer länkar som delas på sociala medier tenderar vi att besöka en mindre, mer homogen uppsättning källor än när vi gör en sökning och besöker de bästa resultaten.

Befintlig forskning visar att att vara i en ekokammare kan göra människor mer ljust om att acceptera obekräftade rykten. Men vi behöver veta mycket mer om hur olika människor svarar på en enda hoax: Vissa delar det genast, andra faktum - kolla först.

Vi är simulera ett socialt nätverk att studera denna tävling mellan delning och faktokontroll. Vi hoppas kunna hjälpa till att avlägsna motstridiga bevis på när faktokontroll hjälper till att stoppa hoaxes från att sprida och när det inte gör det. Våra preliminära resultat tyder på att ju mer segregerade samhället av hoax-troende, desto längre överhuvud överlever. Återigen handlar det inte bara om hoaxet men också om nätverket.

Många människor försöker räkna ut vad ska man göra om allt detta?. Enligt Mark Zuckerbergs senaste meddelande, Facebook-team testar potentiella alternativ. Och en grupp studenter har föreslagit ett sätt att helt enkelt märka delade länkar som "verifierad" eller inte.

Vissa lösningar förblir oåtkomliga, åtminstone för tillfället. Till exempel kan vi ännu inte lära oss artificiella intelligenssystem hur skilja mellan sanning och lögn. Men vi kan berätta rankningsalgoritmer för att ge högre prioritet till mer tillförlitliga källor.

Studier spridningen av falska nyheter

Vi kan göra vår kamp mot falska nyheter effektivare om vi bättre förstår hur dålig information sprider sig. Om till exempel bots är ansvariga för många av de falska, kan vi fokusera uppmärksamhet på att upptäcka dem. Om alternativet är problemet med ekokamrar kanske vi kan utforma rekommendationer som inte utesluter olika åsikter.

För detta ändamål bygger vårt labb en plattform som heter Hoaxy att spåra och visualisera spridningen av overifierade påståenden och motsvarande faktokontroll på sociala medier. Det kommer att ge oss verkliga data, som vi kan informera våra simulerade sociala nätverk. Då kan vi testa möjliga metoder för att bekämpa falska nyheter.

Hoaxy kan också visa hur lätt det är för deras åsikter att bli manipulerad av online-information - och till och med hur sannolikt vissa av oss ska dela luror online. Hoaxy kommer att gå med i en serie verktyg i vår Observatoriet för sociala medier, vilket gör det möjligt för någon att se hur memes sprids på Twitter. Att länka verktyg som dessa till mänskliga fakturor och sociala medier plattformar skulle kunna göra det enklare att minimera dubbelarbete och stödja varandra.

Det är absolut nödvändigt att vi investerar resurser i studien av detta fenomen. Vi behöver alla händer på däck: Datavetenskapare, samhällsvetenskapare, ekonomer, journalister och industripartners måste jobba tillsammans att stå fast mot spridningen av felaktiga uppgifter.

Avlyssningen

Om författaren

Filippo Menczer, professor i datavetenskap och informatik; Direktör för Centrum för komplexa nätverk och systemforskning, Indiana University, Bloomington

Den här artikeln publicerades ursprungligen den Avlyssningen. Läs ursprungliga artikeln.

Relaterade böcker:

at InnerSelf Market och Amazon