Facebooks problem är mer komplicerat än falskt nyheter

Facebooks problem är mer komplicerat än falskt nyheter

I kölvattnet av Donald Trumps oväntade seger, många frågor har tagits upp om Facebook: s roll i främjande av felaktiga och mycket partisan information under presidentvalet och om denna falska nyhet påverkar valets resultat.

Några har nedspelat Facebook: s inverkan, inklusive VD Mark Zuckerberg, som sa att det är "Extremt osannolikt" den falska nyheten kunde ha svepit valet. Men frågor om det sociala nätverkets politiska betydelse förtjänar mer än att uppmärksamma.

Gör Facebook filtreringsalgoritmer förklara varför så många liberaler hade felplacerat förtroende för en Clinton-seger (echoing det fel som gjordes av Romney-supportrar i 2012)? Och är Den falska nyheten cirkuleras på Facebook Anledningen till att så många Trump-supportrar har godkänt bevisbara falska påståenden från deras kandidat?

Det populära påståendet att "filterbubblor" är varför falska nyheter trivs på Facebook är nästan säkert fel. Om nätverket uppmuntrar människor att tro på osannor - och det är en stor om - ligger problemet mer sannolikt i hur plattformen interagerar med grundläggande mänskliga sociala tendenser. Det är mycket svårare att förändra.


Få det senaste från InnerSelf


En missinformerad allmänhet

Facebook: s roll i spridningen av politiska nyheter är obestridlig. I maj 2016, 44 procent av amerikanerna sa att de fick nyheter från sociala medierna. Och förekomsten av felinformation sprids via Facebook är obestridlig.

Det är troligt att mängden falska nyheter på en plattform där så många människor får sina nyheter kan hjälpa till att förklara varför så många amerikaner är oriktiga om politiken.

Men det är svårt att säga hur sannolikt detta är. Jag började studera internetens roll för att främja falska övertygelser under 2008-valet, vilket gjorde min uppmärksamhet åt sociala medier i 2012. I pågående forskning har jag funnit lite konsekvent bevis för att social media användning främjar acceptans av falska påståenden om kandidaterna, trots förekomsten av många osannheter. Istället verkar det som om i 2012, som i 2008, e-post fortsatte att vara en unik kraftfull kanal för lögner och konspirationsteorier. Sociala medier hade ingen tillförlitligt påvisbar inverkan på människors övertygelse.

Låt oss dock för ett ögonblick anta att 2016 skiljer sig från 2012 och 2008. (Valet var verkligen unikt i många andra hälsningar.)

Om Facebook marknadsför en plattform där medborgare inte kan skilja sanningen från fiktion, Det skulle utgöra ett allvarligt hot mot den amerikanska demokratin. Men namnet på problemet är inte tillräckligt. För att bekämpa flödet av felinformation via sociala medier är det viktigt att förstå varför det händer.

Skyll inte på filterbubblor

Facebook vill att användarna ska vara förlovade, inte överväldigade, så det använder proprietär programvara som filtrerar användarnas nyhetsflöden och väljer innehållet som kommer att visas. Risken ligger i hur denna skräddarsy görs.

Det finns gott om bevis att människor dras till nyheter som bekräftar deras politiska synvinkel. Facebooks programvara lär sig av användarnas tidigare handlingar; det försöker gissa vilka historier de sannolikt kommer att klicka på eller dela i framtiden. Tagen till dess yttersta, detta ger en filterbubbla, där användare endast utsätts för innehåll som bekräftar deras förevändningar. Risken är då det filterbubblor främjar missuppfattningar genom att gömma sanningen.

Appellen för denna förklaring är uppenbar. Det är lätt att förstå, så det är kanske lätt att fixa. Bli av med personliga nyhetsflöden, och filtrera bubblor är inte mer.

Problemet med filterbubbel metaforen är att det förutsätter att människor är helt isolerade från andra perspektiv. Faktiskt, talrik studier ha visas att individernas mediedietter nästan alltid innehåller information och källor som utmanar sina politiska attityder. Och en studie av Facebook användardata fann att möten med tvärgående information är utbredd. Med andra ord är det osannolikt att falska föreställningar förklaras av folks brist på kontakt med mer exakta nyheter.

Istället är människors tidigare existerande politiska identiteter fördjupa sin tro på djupet. Så även när den står inför samma information, oavsett om det är en nyhetsartikel eller ett faktiska kontroll, personer med olika politiska orienteringar extraherar ofta dramatiskt olika betydelser.

Ett tankeexperiment kan hjälpa till: Om du var Clinton-supporter, var du medveten om att den högt respekterade förutsägningsplatsen FiveThirtyEight gav Clinton bara en 71-procent chans att vinna? Dessa odds är bättre än en myntflip, men långt ifrån en säker sak. Jag misstänker att många demokrater var chockade trots att vi såg detta obekväma bevis. Verkligen, många hade varit kritiska för detta projektion i dagarna före valet.

Om du röstade för Trump har du någonsin stött på bevis som bestrider Trumps påstående om att valsbedrägerier är vanliga i USA? Fact checkers och nyhetsorganisationer har omfattat denna fråga i stor utsträckning och erbjuder starka bevis för att kravet är felaktigt. Men en Trump-supporter kan vara otrolig: I en september 2016 undersökning, 90 procent av Trump-anhängare sa att de inte litade på fakta checkers.

Facebook = arg partisaner?

Om isolation från sanningen verkligen är den viktigaste källan till felaktig information, skulle lösningen vara uppenbar: Gör sanningen mer synlig.

Tyvärr är svaret inte så enkelt. Vilket ger oss tillbaka till frågan om Facebook: Finns det andra aspekter av tjänsten som kan snedvrida användarnas övertygelse?

Det kommer att vara dags innan forskare kan svara frågan med säkerhet, men som någon som har studerat hur de olika sätten som annan internetteknologi kan leda människor att tro på falsk information är jag beredd att erbjuda några utbildade gissningar.

Det finns två saker som vi redan vet om Facebook som kan uppmuntra spridningen av falsk information.

För det första är känslorna smittsamma, och de kan sprida sig på Facebook. En storskalig studie har visat att små förändringar i Facebook-användarnas nyhetsflöden kan forma de känslor de uttrycker i senare inlägg. I den studien var de emotionella förändringarna små, men det var också förändringarna i nyhetsflödet som orsakade dem. Tänk dig hur Facebook-användare svarar på omfattande anklagelser om kandidaternas korruption, kriminella aktiviteter och lögner. Det är inte förvånande att nästan hälften (49 procent) av alla användare beskrev politisk diskussion om sociala medier som "arg".

När det gäller politik är ilska en kraftfull känsla. Det har visat sig göra människor mer villig att acceptera partisanska lögnigheter och mer sannolikt att posta och dela politisk information, förmodligen inklusive falska nyhetsartiklar som förstärker deras övertygelser. Om Facebook-användning gör partisaner arg medan de också utsätts för partisans lögn, kan det inte vara så mycket att säkerställa närvaron av korrekt information. Republikanska eller demokrater, argar de på information som gör att deras sida ser bra ut.

För det andra verkar Facebook förstärka människors politiska identitet - främja en redan stor partisan klyftan. Medan Facebook inte skyddar människor mot information som de inte håller med, det gör det verkligen lättare att hitta likasinnade andra. Våra sociala nätverk tenderar att innehålla många människor som delar våra värderingar och övertygelser. Och det kan vara ett annat sätt att Facebook förstärker politiskt motiverade lögnigheter. Troar tjänar ofta en social funktion, som hjälper människor att definiera vem de är och hur de passar i världen. Ju lättare det är att människor ser sig politiskt sett, desto mer knutna är de till de övertygelser som bekräftar den identiteten.

Dessa två faktorer - hur den ilska kan spridas över Facebooks sociala nätverk, och hur dessa nätverk kan göra individernas politiska identitet mer centrala för vem de är - förklarar troligtvis Facebook-användarnas onekliga övertygelser mer effektivt än den så kallade filterbubblan.

Om detta är sant, har vi en seriös utmaning framför oss. Facebook kommer sannolikt att vara övertygad om att ändra sin filteralgoritm för att prioritera mer exakt information. Google har redan har gjort en liknande strävan. Och nya rapporter tyder på att Facebook kan vara tar problemet mer allvarligt än Zuckerbergs kommentarer tyder på.

Men det här gör inget för att ta itu med de underliggande krafterna som sprider och förstärker falsk information: känslor och människorna i dina sociala nätverk. Det är inte heller uppenbart att dessa egenskaper på Facebook kan eller bör "korrigeras". Ett socialt nätverk som saknar känslor verkar vara en motsägelse, och det är inte något som vårt samhälle ska omfamna polisarbete som individer interagerar med.

Det kan vara att Facebook delar några av skulden för några av lögnerna som cirkulerade detta valår - och att de förändrade valets gång.

Om det är sant kommer utmaningen att ta reda på vad vi kan göra åt det.

Avlyssningen

Om författaren

R. Kelly Garrett, Docent i kommunikation, The Ohio State University

Den här artikeln publicerades ursprungligen den Avlyssningen. Läs ursprungliga artikeln.

relaterade böcker

{amazonWS: searchindex = Böcker; sökord = falska nyheter; maxresultat = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

följ InnerSelf på

facebook-icontwitter-iconrss-icon

Få det senaste via e-post

{Emailcloak = off}