Misinformation och biaser Infekterar sociala medier, både avsiktligt och oavsiktligtSkärmdumpar av Fakey-spelet. Mihai Avram och Filippo Menczer

Sociala medier är bland de primära källor till nyheter i USA och över hela världen. Ändå är användarna utsatta för innehåll av tvivelaktighet, inklusive konspirationsteorier, clickbait, hyperpartisiskt innehåll, pseudovetenskap och även fabricerade "falska nyheter" rapporter.

Det är inte förvånande att det finns så mycket disinformation som publiceras: Spam och online bedrägeri är lukrativa för brottslingar, och regering och politisk propagandautbyte både partisan och ekonomiska fördelar. Men det faktum att innehåll med låg trovärdighet sprids så snabbt och enkelt föreslår att människor och algoritmerna bakom sociala medier plattformar är sårbara för manipulation.

Vår forskning har identifierat tre typer av förspänning som gör det sociala mediaekosystemet sårbart för både avsiktlig och oavsiktlig felinformation. Det är därför vår Observatoriet för sociala medier vid Indiana University bygger verktyg för att hjälpa människor att bli medvetna om dessa fördomar och skydda sig mot yttre påverkan avsedda att utnyttja dem.

Förklara verktygen som utvecklats vid Observatoriet för sociala medier:


innerself prenumerera grafik


{youtube}https://youtu.be/BIv9054dBBI{/youtube}

Bias i hjärnan

Kognitiva fördomar härrör från hur hjärnan behandlar den information som varje person möter varje dag. Hjärnan kan hantera endast en begränsad mängd information, och för många inkommande stimuli kan orsaka information overload. Det har i sig allvarliga konsekvenser för kvaliteten på informationen om sociala medier. Vi har funnit att brant konkurrens för användarnas begränsade uppmärksamhet innebär det vissa idéer går virala trots deras låga kvalitet - även när människor föredrar att dela högkvalitativt innehåll.

För att undvika att bli överväldigad använder hjärnan en antal knep. Dessa metoder är vanligtvis effektiva, men kan också bli fördomar när den används i fel sammanhang.

En kognitiv genväg händer när en person bestämmer sig för att dela en historia som visas på deras sociala media-flöde. Människor är mycket påverkad av de emotionella konnotationerna i en rubrik, även om det inte är en bra indikator på en artikelns noggrannhet. Mycket viktigare är vem skrev stycket.

För att motverka denna bias och hjälpa människor att ägna mer uppmärksamhet åt källan till ett krav innan vi delar det utvecklade vi fakey, ett mobilt nyhetskompetensspel (gratis på Android och iOS) simulerar ett typiskt social media-nyhetsflöde, med en blandning av nyhetsartiklar från vanliga och lågtrovärdighetskällor. Spelare får fler poäng för att dela nyheter från tillförlitliga källor och flagga misstänkt innehåll för faktiska kontroller. I processen lär de sig att känna igen signaler om källans trovärdighet, som hyperpartisanspråk och emotionellt laddade rubriker.

Bias i samhället

En annan källa till fördom kommer från samhället. När människor ansluter direkt till sina kamrater kommer de sociala fördomar som styr deras val av vänner att påverka informationen de ser.

Faktum är att vi i vår forskning har funnit att det är möjligt att bestämma de politiska lutningarna av en Twitter-användare genom att bara titta på deras partisans preferenser. Vår analys av strukturen av dessa partisanala kommunikationsnät funna sociala nätverk är särskilt effektiva för att sprida information - exakt eller inte - när De är nära knutna ihop och kopplade från andra delar av samhället.

Tendensen att utvärdera information mer fördelaktigt om den kommer från sina egna sociala kretsar skapar "ekokamrar"Som är mogna för manipulation, antingen medvetet eller oavsiktligt. Detta hjälper till att förklara varför så många onlinekonversationer går in i "Oss mot dem" konfrontationer.

För att studera hur strukturen i sociala nätverk på nätet gör användarna utsatta för disinformation byggde vi Hoaxy, ett system som spårar och visualiserar spridningen av innehåll från lågtrovärdighetskällor och hur det konkurrerar med faktokontrollinnehåll. Vår analys av data som samlats in av Hoaxy under presidentvalet 2016 USA visar att Twitter-konton som delade felaktiga uppgifter var nästan helt avskuren från korrigeringar gjorda av fakturatorn.

När vi borrade ner på de felaktiga spridningskontona fann vi en väldigt tät kärngrupp av konton som nästan alla exkluderade varandra - inklusive flera bots. De enda gånger som faktokontrollorganisationer någonsin citerades eller nämnts av användarna i den missinformerade gruppen var när de ifrågasatte sin legitimitet eller hävdade motsatsen till vad de skrev.

Bias i maskinen

Den tredje gruppen av förspänning uppstår direkt från de algoritmer som används för att bestämma vad folk ser online. Både sociala medier och sökmotorer använder dem. Dessa personaliseringstekniker är utformade för att bara välja det mest engagerande och relevanta innehållet för varje enskild användare. Men i så fall kan det äntligen förstärka användarnas kognitiva och sociala fördomar, vilket gör dem ännu mer utsatta för manipulation.

Till exempel den detaljerade reklamverktyg som är inbyggda i många sociala medier låt disinformation kampanjer utnyttja konfirmeringsbias by skräddarsy meddelanden till människor som redan är benägen att tro på dem.

Om en användare ofta klickar på Facebook-länkar från en viss nyhetskälla, kommer Facebook att tenderar att visa den personen mer av den webbplatsens innehåll. Denna så kallade "filterbubbla"Effekten kan isolera människor från olika perspektiv, stärka bekräftelseskompetensen.

Vår egen forskning visar att sociala medier-plattformar utsätter användare för en mindre mångsidig uppsättning källor än att göra icke-sociala medier som Wikipedia. Eftersom det här ligger på en hel plattforms nivå, inte av en enda användare, kallar vi det här homogenitetsförspänning.

En annan viktig ingrediens i sociala medier är information som trender på plattformen, enligt vad som får flest möjliga klick. Vi kallar detta popularitet bias, eftersom vi har funnit att en algoritm avsedd att främja populärt innehåll kan påverka den övergripande kvaliteten på informationen på plattformen negativt. Detta matar också in i befintlig kognitiv bias, vilket förstärker vad som verkar vara populärt oavsett dess kvalitet.

Alla dessa algoritmiska förspänningar kan manipuleras av sociala bots, dataprogram som interagerar med människor via sociala medier. De flesta sociala bots, som Twitter Big Ben, är ofarliga. Däremot döljer vissa deras verkliga natur och används för onda intentioner, till exempel öka disinformationen eller falskt skapar utseendet av en gräsrotsrörelse, även kallad "astroturfing". Vi hittade bevis på denna typ av manipulation i uppgången till 2010 USAs halvtidsval.

För att studera dessa manipulationsstrategier utvecklade vi ett verktyg för att upptäcka sociala bots som heter Botometer. Botometer använder maskininlärning för att upptäcka botkonton, genom att inspektera tusentals olika funktioner i Twitter-konton, som tiderna för sina inlägg, hur ofta det tweets och kontona som följer och retweets. Det är inte perfekt, men det har avslöjat att så många som 15 procent av Twitter konton visar tecken på att vara robotar.

Med hjälp av Botometer i samband med Hoaxy analyserade vi kärnan i felinformationsnätverket under den amerikanska presidentkampanjen 2016. Vi hittade många bots som utnyttjar både de kognitiva, bekräftelse och popularitetsförlängningarna av deras offer och Twitters algoritmiska förspänningar.

Dessa bots kan konstruera filterbubblor runt sårbara användare, utfodra falska påståenden och felinformation. För det första kan de locka uppmärksamhet hos mänskliga användare som stöder en viss kandidat genom att tweeta den sökandes hashtags eller genom att nämna och retweeting personen. Då kan botsna förstärka falska påståenden som smärter motståndare genom att retweeting artiklar från lågtrovärdighetskällor som matchar vissa sökord. Denna aktivitet gör också algoritmen till andra användare felaktiga berättelser som delas i stor utsträckning.

Förstå komplicerade sårbarheter

Även som vår forskning och andra visar hur enskilda, institutioner och till och med hela samhällen kan manipuleras på sociala medier, finns det många frågor lämnade för att svara. Det är särskilt viktigt att upptäcka hur dessa olika fördomar interagerar med varandra, vilket potentiellt skapar mer komplexa sårbarheter.

AvlyssningenVerktyg som våra erbjuder internetanvändare mer information om disinformation, och därför en viss grad av skydd mot dess skador. Lösningarna kommer inte troligen vara bara tekniskt, men det kommer troligtvis att vara några tekniska aspekter för dem. Men de måste ta hänsyn till de kognitiva och sociala aspekterna av problemet.

Om Författarna

Giovanni Luca Ciampaglia, assistentforskare, Indiana University Network Science Institute, Indiana University och Filippo Menczer, professor i datavetenskap och informatik; Direktör för Centrum för komplexa nätverk och systemforskning, Indiana University

Den här artikeln publicerades ursprungligen den Avlyssningen. Läs ursprungliga artikeln.

relaterade böcker

at

bryta

Tack för besöket InnerSelf.com, där det finns 20,000+ livsförändrande artiklar som främjar "Nya attityder och nya möjligheter." Alla artiklar är översatta till 30+ språk. Prenumerera till InnerSelf Magazine, som publiceras varje vecka, och Marie T Russells Daily Inspiration. InnerSelf Magazine har publicerats sedan 1985.