3 sätt Facebook kan minska falska nyheter

Allmänheten får mycket av det nyheter och information från Facebook. En del av det är falskt. Det ger ett problem för webbplatsens användare, och för företaget självt.

Facebook cofounder och ordförande Mark Zuckerberg sa att företaget kommer att hitta sätt att lösa problemet, även om han inte erkände dess svårighetsgrad. Och utan uppenbar ironi gjorde han detta tillkännagivande i en facebook inlägget omgiven - åtminstone för vissa tittare - av falska nyhetsartiklar.

Annan teknik - första företag med liknande makt över hur allmänheten informerar sig, till exempel Google, har jobbat hårt under åren till dämpa information av låg kvalitet i deras sökresultat. Men Facebook har inte gjort liknande steg för att hjälpa användare.

Vad kan Facebook göra för att möta sin sociala skyldighet att sortera fakta från fiktion till 70 procent av internetanvändare vem kommer åt Facebook Om webbplatsen blir alltmer där människor får sina nyheter, vad kan företaget göra utan att ta upp manteln att vara en sista sanningspartner? Mitt arbete som professor i informationsstudier föreslår att det finns minst tre alternativ.

Facebook: s roll

Facebook säger att det är a teknikföretag, inte ett mediebolag. Företagets främsta motiv är vinst, snarare än a högre mål gillar att producera högkvalitativ information för att hjälpa det offentliga medvetet i världen.

Ändå blir inlägg på webbplatsen och de omgivande konversationerna både online och offline alltmer involverad i vår offentliga diskurs och nationens politiska agenda. Som ett resultat har bolaget en social skyldighet att använda sin teknik för att främja det gemensamma bästa.


innerself prenumerera grafik


Att skingra sanning från falskhet kan dock vara skrämmande. Facebook är inte ensam i väcka oro över sin förmåga - och det för andra tekniska företag - att bedöma kvaliteten på nyheterna. Regissören för FactCheck.org, en nonprofit fact-checkgrupp baserad vid University of Pennsylvania, berättade Bloomberg News att många påståenden och berättelser är inte helt falska. Många har sanningens kärnor, även om de är mycket vilseledande formulerade. Så vad kan Facebook verkligen göra?

Alternativ 1: Nudging

Ett alternativ som Facebook kan anta innebär att använda befintliga listor som identifierar prescreened pålitliga och falska nyhetssajter. Webbplatsen kan sedan varna de som vill dela en besvärlig artikel som är källa är ifrågasättande.

En utvecklare har till exempel skapat en förlängning till Chrome-webbläsaren som indikerar när en webbplats du tittar på kan vara falsk. (Han kallar det "BS Detector.") I en 36-timmes hackathon, en grupp college studenter skapade en liknande Chrome-webbläsare som anger om webbplatsen som artikeln kommer ifrån finns på en lista över verifierade pålitliga webbplatser eller i stället är verifierad.

Dessa tillägg presenterar sina varningar medan människor bläddrar genom sina newsfeeds. För närvarande arbetar ingen av dessa direkt som en del av Facebook. Att integrera dem skulle ge en mer sömlös upplevelse och skulle göra tjänsten tillgänglig för alla Facebook-användare, utöver bara de som installerade en av tilläggen på sin egen dator.

Företaget kan också använda den information som förlängningarna genererar - eller deras källmaterial - för att varna användare innan de delar opålitlig information. I världen av mjukvaruutveckling är detta känt som en "knuff. "Varningssystemet övervakar användarbeteendet och meddelar personer eller ger dem lite feedback för att hjälpa till att ändra sina åtgärder när de använder programvaran.

Detta har gjorts tidigare, för andra ändamål. Till exempel kollegor av mig här på Syracuse University byggde en nudging ansökan som övervakar vilka Facebook-användare som skriver i ett nytt inlägg. Det dyker upp en anmälan om innehållet de skriver är något de kan ångra, till exempel ett arg budskap med sväraord.

Nudges skönhet är det skonsamma men effektiva sättet som de påminner människor om beteende för att hjälpa dem att ändra det beteendet. Studier som har testat användningen av nudges till förbättra hälsosamt beteende, till exempel, upptäcka att människor är mer benägna att ändra sin kost och motion baserat på försiktiga påminnelser och rekommendationer. Nudges kan vara effektiva eftersom de ger människor kontroll samtidigt som de ger dem användbar information. I slutändan bestämmer mottagaren av nudgen fortfarande att använda den återkopplade informationen. Nudges känner sig inte tvångsmässiga; i stället kan de potentiellt ge dem.

Alternativ 2: Crowdsourcing

Facebook kan också använda kraften av crowdsourcing för att hjälpa till att utvärdera nyhetskällor och ange när nyheter som delas har utvärderats och bedömts. En viktig utmaning med falska nyheter är att det spelar för hur våra hjärnor är anslutna. Vi har mentala genvägar, kallade kognitiva fördomar, som hjälper oss att fatta beslut när vi inte har tillräckligt med information (vi gör aldrig), eller tillräckligt med tid (vi gör aldrig). Generellt fungerar dessa genvägar bra för oss då vi fattar beslut om allt från vilken väg att köra till jobbet till vilken bil att köpa, men ibland misslyckas de oss. Att falla för falska nyheter är en av dessa fall.

Det kan hända med någon - även jag. Under den primära säsongen följde jag en Twitter-hashtag där den primära kandidaten Donald Trump tweeted. Ett meddelande visade sig att jag hittade en slags chockerande. Jag retweeted det med en kommentar som mocking sin offensiveness. En dag senare insåg jag att tweeten var från ett parodi konto som såg ut identiskt med Trumps Twitter-hanteringsnamn, men hade ett brev ändrat.

Jag missade det för att jag hade fallit för konfirmeringsbias - tendensen att förbise viss information eftersom den strider mot mina förväntningar, förutsägelser eller hunches. I det här fallet hade jag bortse från den lilla röst som berättade för mig att denna speciella tweet var lite för över toppen för Trump, för jag trodde att han kunde producera meddelanden ännu mer olämpligt. Fake nyheter pratar på oss på samma sätt.

Ett annat problem med falska nyheter är att det kan resa mycket längre än någon korrigering som kan komma efteråt. Detta liknar de utmaningar som alltid har mött newsrooms när de har rapporterat felaktiga uppgifter. Även om de publicerar korrigeringar, ser ofta de personer som ursprungligen utsattes för felinformation aldrig uppdateringen och vet därför inte vad de läste tidigare är fel. Dessutom tenderar folk att hålla fast vid den första informationen de stöter på. korrigeringar kan till och med komma tillbaka genom att upprepa fel information och förstärka felet i läsarnas sinnen.

Om människor utvärderade information när de läste den och delade dessa betyg, kunde sanningens poäng, som nudlarna, vara en del av Facebook-programmet. Det kan hjälpa användare att bestämma sig själva om de ska läsa, dela eller helt enkelt ignorera. En utmaning med crowdsourcing är att människor kan spela dessa system för att försöka driva förutbestämda resultat. Men skönheten hos crowdsourcing är att publiken också kan betygsätta räknarna, precis som det händer på Reddit eller med Amazons recensioner, för att minska effekterna och vikten av problematikerna.

Alternativ 3: Algoritmiskt socialt avstånd

Det tredje sättet som Facebook kan hjälpa skulle vara att minska den algoritmiska bias som för närvarande finns i Facebook. Webbplatsen visar främst inlägg från dem som du har engagerat på Facebook. Med andra ord, skapar Facebook-algoritmen vad som har kallat en filterbubbla, ett online-nyheter fenomen som har berörda forskare i årtionden nu. Om du bara utsätts för personer med idéer som är som dina egna leder det till politisk polarisering: Liberaler blir ännu mer extrema i deras liberalism, och konservativa blir mer konservativa.

Filterbubblan skapar en "ekokammare", där liknande idéer studsar oändligt, men ny information har svårt att hitta sin väg in. Detta är ett problem när ekokammaren blockerar korrigerings- eller faktokontrollinformation.

Om Facebook skulle öppna fler nyheter för att komma in i en persons nyhetsflöde från en slumpmässig uppsättning personer i sitt sociala nätverk, skulle det öka risken att ny information, alternativ information och motstridiga uppgifter skulle flöda inom det nätverket. Det genomsnittliga antalet vänner i en Facebook användares nätverk är 338. Även om många av oss har vänner och familj som delar våra värderingar och övertygelser, har vi också bekanta och främlingar som ingår i vårt Facebook-nätverk, som har diametralt motsatta åsikter. Om Facebooks algoritmer förade mer av dessa synpunkter i våra nätverk, skulle filterbubblan vara mer porös.

Alla dessa alternativ är väl inredda hos ingenjörer och forskare på Facebook. De skulle ge användare möjlighet att fatta bättre beslut om den information de väljer att läsa och dela med sina sociala nätverk. Som en ledande plattform för informationsspridning och en generator av social och politisk kultur genom prat och informationsutbyte behöver Facebook inte vara den ultimata arbiteraren av sanningen. Men det kan använda kraften i sina sociala nätverk för att hjälpa användare att mäta värdet av objekt bland strömmen av innehåll de möter.

Avlyssningen

Om författaren

Jennifer Stromer-Galley, professor i informationsstudier, Syracuse University

Den här artikeln publicerades ursprungligen den Avlyssningen. Läs ursprungliga artikeln.

Relaterade böcker:

at InnerSelf Market och Amazon