AI-genererade bilder?

Även om du tror att du är bra på att analysera ansikten, forskning visar många människor kan inte på ett tillförlitligt sätt skilja mellan foton av verkliga ansikten och bilder som har skapats via dator. Detta är särskilt problematiskt nu när datorsystem kan skapa realistiska bilder av människor som inte finns.

Nyligen kom en falsk LinkedIn-profil med en datorgenererad profilbild på nyheterna eftersom det framgångsrikt kopplat till amerikanska tjänstemän och andra inflytelserika individer på nätverksplattformen, till exempel. Kontraspionageexperter säger till och med att spioner rutinmässigt skapar fantomprofiler med sådana bilder till hem in på utländska mål via sociala medier.

Dessa djupa förfalskningar blir utbredda i vardagskulturen, vilket innebär att människor bör vara mer medvetna om hur de används i marknadsföring, reklam och sociala medier. Bilderna används också i illvilliga syften, såsom politisk propaganda, spionage och informationskrigföring.

Att göra dem involverar något som kallas ett djupt neuralt nätverk, ett datorsystem som efterliknar hur hjärnan lär sig. Detta "tränas" genom att exponera det för allt större datamängder av verkliga ansikten.

Faktum är att två djupa neurala nätverk ställs mot varandra och tävlar om att producera de mest realistiska bilderna. Som ett resultat dubbas slutprodukterna GAN-bilder, där GAN står för Generative Adversarial Networks. Processen genererar nya bilder som statistiskt inte går att skilja från träningsbilderna.


innerself prenumerera grafik


I vår studie publicerad i iScience, visade vi att ett misslyckande med att skilja dessa konstgjorda ansikten från den verkliga varan har konsekvenser för vårt onlinebeteende. Vår forskning tyder på att de falska bilderna kan urholka vårt förtroende för andra och djupt förändra vårt sätt att kommunicera online.

Mina kollegor och jag upptäckte att människor uppfattade GAN-ansikten som ännu mer verkliga än äkta bilder av verkliga människors ansikten. Även om det ännu inte är klart varför detta är så gör detta fynd lyfta fram de senaste framstegen inom tekniken används för att skapa konstgjorda bilder.

Och vi hittade också en intressant koppling till attraktivitet: ansikten som bedömdes som mindre attraktiva bedömdes också som mer verkliga. Mindre attraktiva ansikten kan anses vara mer typiska och det typiska ansiktet kan användas som referens mot vilken alla ansikten utvärderas. Därför skulle dessa GAN-ansikten se mer verkliga ut eftersom de liknar mer mentala mallar som människor har byggt från vardagen.

Men att se dessa konstgjorda ansikten som autentiska kan också få konsekvenser för de allmänna nivåerna av förtroende som vi utvidgar till en krets av okända människor - ett begrepp som kallas "socialt förtroende".

Vi läser ofta för mycket i ansiktena vi ser, och de första intryck vi bildar styr våra sociala interaktioner. I ett andra experiment som utgjorde en del av vår senaste studie såg vi att människor var mer benägna att lita på information som förmedlas av ansikten som de tidigare bedömt som verkliga, även om de var artificiellt genererade.

Det är inte förvånande att människor litar mer på ansikten som de tror är verkliga. Men vi fann att förtroendet urholkades när människor informerades om den potentiella förekomsten av konstgjorda ansikten i onlineinteraktioner. De visade sedan lägre nivåer av förtroende, totalt sett - oberoende av om ansiktena var verkliga eller inte.

Detta resultat skulle kunna betraktas som användbart på vissa sätt, eftersom det gjorde människor mer misstänksamma i en miljö där falska användare kan verka. Ur ett annat perspektiv kan det dock gradvis urholka själva naturen i hur vi kommunicerar.

I allmänhet tenderar vi att operera ett standardantagande att andra människor i grunden är sanningsenliga och pålitliga. Tillväxten av falska profiler och annat artificiellt onlineinnehåll väcker frågan om hur mycket deras närvaro och vår kunskap om dem kan förändra detta "sanningsförfall"-tillstånd, och så småningom urholka det sociala förtroendet.

Ändra våra standardinställningar

Övergången till en värld där det som är verkligt inte går att skilja från det som inte är kan också förskjuta kulturlandskapet från att vara i första hand sanningsenligt till att vara i första hand konstlat och bedrägligt.

Om vi ​​regelbundet ifrågasätter sanningshalten i det vi upplever online, kan det kräva att vi omdisponerar vår mentala ansträngning från bearbetningen av själva meddelandena till bearbetningen av budbärarens identitet. Med andra ord kan den utbredda användningen av mycket realistiskt, men konstgjort onlineinnehåll kräva att vi tänker annorlunda – på sätt som vi inte hade förväntat oss.

Inom psykologi använder vi en term som kallas "verklighetsövervakning" för hur vi korrekt identifierar om något kommer från den yttre världen eller inifrån våra hjärnor. Framstegen för teknologier som kan producera falska, men ändå mycket realistiska, ansikten, bilder och videosamtal innebär att verklighetsövervakning måste baseras på annan information än våra egna bedömningar. Det efterlyser också en bredare diskussion om huruvida mänskligheten fortfarande har råd att försumma sanningen.

Det är avgörande för människor att vara mer kritiska när de utvärderar digitala ansikten. Detta kan inkludera att använda omvända bildsökningar för att kontrollera om foton är äkta, att vara försiktig med profiler på sociala medier med lite personlig information eller ett stort antal följare och att vara medveten om potentialen för deepfake-teknik att användas för skändliga syften.

Nästa gräns för detta område bör vara förbättrade algoritmer för att upptäcka falska digitala ansikten. Dessa kan sedan bäddas in i sociala medieplattformar för att hjälpa oss att skilja det verkliga från det falska när det kommer till nya kontakters ansikten.

Om författaren

Manos Tsakiris, professor i psykologi, chef för Centrum för känslors politik, Royal Holloway University of London

Denna artikel publiceras från Avlyssningen under en Creative Commons licens. Läs ursprungliga artikeln.