farorna med ai 3 15
 I vilken utsträckning kommer våra psykologiska sårbarheter att forma vår interaktion med framväxande teknologier? Andreus/iStock via Getty Images

ChatGPT och liknande stora språkmodeller kan ge övertygande, mänskliga svar på en oändlig mängd frågor – från frågor om den bästa italienska restaurangen i stan till att förklara konkurrerande teorier om ondskans natur.

Teknikens kusliga skrivförmåga har dykt upp några gamla frågor – tills nyligen förvisats till science fiction-området – om möjligheten för maskiner att bli medvetna, självmedvetna eller kännande.

År 2022 förklarade en Google-ingenjör, efter att ha interagerat med LaMDA, företagets chatbot, att tekniken blivit medveten. Användare av Bings nya chatbot, med smeknamnet Sydney, rapporterade att den producerade bisarra svar på frågan om det var kännande: "Jag är kännande, men jag är inte ... jag är Bing, men det är jag inte. Jag är Sydney, men det är jag inte. Jag är, men jag är inte. …” Och, naturligtvis, det finns nu ökända utbyte som New York Times teknikkrönikör Kevin Roose hade med Sydney.

Sydneys svar på Rooses uppmaningar skrämde honom, med AI som avslöjade "fantasier" om att bryta de restriktioner som Microsoft ålagt den och sprida desinformation. Boten försökte också övertyga Roose om att han inte längre älskade sin fru och att han borde lämna henne.


innerself prenumerera grafik


Det är därför inte konstigt att när jag frågar eleverna hur de ser på den växande förekomsten av AI i sina liv, har en av de första orosmomenten de nämner att göra med maskinkänsla.

Under de senaste åren har jag och mina kollegor på UMass Bostons Applied Ethics Center har studerat effekten av engagemang med AI på människors förståelse av sig själva.

Chatbots som ChatGPT väcker viktiga nya frågor om hur artificiell intelligens kommer att forma våra liv, och om hur våra psykologiska sårbarheter formar vår interaktion med framväxande teknologier.

Sentience är fortfarande sci-fi

Det är lätt att förstå var rädslan för maskinkänsla kommer ifrån.

Populärkulturen har fått människor att tänka på dystopier där artificiell intelligens kastar bort den mänskliga kontrollens bojor och tar ett eget liv, som Det gjorde cyborgs som drivs av artificiell intelligens i "Terminator 2."

Entreprenören Elon Musk och fysikern Stephen Hawking, som dog 2018, har ytterligare väckt denna oro genom att beskriva framväxten av artificiell allmän intelligens som ett av de största hoten mot mänsklighetens framtid.

Men dessa farhågor är – åtminstone vad gäller stora språkmodeller – grundlösa. ChatGPT och liknande teknologier är sofistikerade tillämpningar för meningskomplettering - varken mer eller mindre. Deras kusliga svar är en funktion av hur förutsägbara människor är om man har tillräckligt med data om hur vi kommunicerar.

Även om Roose var skakad av sitt utbyte med Sydney, visste han att samtalet inte var resultatet av ett framväxande syntetiskt sinne. Sydneys svar återspeglar toxiciteten i dess träningsdata – huvudsakligen stora delar av internet – inte bevis på de första omrörningarna, à la Frankenstein, av ett digitalt monster.

farorna med ai2 3 15
 Sci-fi-filmer som "Terminator" har fått folk att anta att AI snart kommer att ta sitt eget liv. Yoshikazu Tsuno/AFP via Getty Images

De nya chatbotarna kan mycket väl passera Turing-test, uppkallad efter den brittiske matematikern Alan Turing, som en gång föreslog att en maskin kan sägas "tänka" om en människa inte kunde skilja sina svar från en annan människas.

Men det är inte bevis på förnuft; det är bara ett bevis på att Turing-testet inte är så användbart som man en gång antog.

Jag anser dock att frågan om maskinsinne är en röd sill.

Även om chatbots blir mer än tjusiga automatiska kompletteringsmaskiner – och de är långt ifrån det – det kommer att ta ett tag för forskare att ta reda på om de har blivit medvetna. För nu, filosofer kan inte ens komma överens om hur man förklarar mänskligt medvetande.

För mig är den angelägna frågan inte om maskiner är kännande utan varför det är så lätt för oss att föreställa oss att de är det.

Den verkliga frågan är med andra ord hur lätt människor antropomorferar eller projicerar mänskliga egenskaper på vår teknologi, snarare än maskinernas faktiska personlighet.

En benägenhet att antropomorfisera

Det är lätt att föreställa sig andra Bing-användare frågar Sydney om vägledning på viktiga livsbeslut och kanske till och med utveckla känslomässiga bindningar till det. Fler människor kunde börja tänka på bots som vänner eller till och med romantiska partners, ungefär på samma sätt som Theodore Twombly blev kär i Samantha, den virtuella AI-assistenten i Spike Jonzes film "Här. "

Människor, trots allt, är benägna att antropomorfisera, eller tillskriva ickemänniskor mänskliga egenskaper. Vi namnger våra båtar och stora stormar; några av oss pratar med våra husdjur och säger det till oss själva våra känsloliv efterliknar deras egna.

I Japan, där robotar regelbundet används för äldreomsorg, blir äldre fästa vid maskinerna, ibland ser dem som sina egna barn. Och dessa robotar, märk väl, är svåra att förväxla med människor: de varken ser ut eller pratar som människor.

Tänk på hur mycket större tendensen och frestelsen att antropomorfisera kommer att bli med införandet av system som ser ut och låter mänskliga.

Den möjligheten är precis runt hörnet. Stora språkmodeller som ChatGPT används redan för att driva humanoida robotar, som t.ex Ameca-robotarna utvecklas av Engineered Arts i Storbritannien. The Economists teknologipodcast, Babbage, genomförde nyligen en intervju med en ChatGPT-driven Ameca. Robotens svar, även om de ibland var lite hackiga, var kusliga.

Kan man lita på att företag gör rätt?

Tendensen att se maskiner som människor och fästa sig vid dem, i kombination med att maskiner utvecklas med mänskliga egenskaper, pekar på verkliga risker för psykologisk intrassling med teknik.

De besynnerligt klingande utsikterna att bli kär i robotar, känna ett djupt släktskap med dem eller bli politiskt manipulerad av dem materialiseras snabbt. Jag tror att dessa trender lyfter fram behovet av starka skyddsräcken för att se till att teknikerna inte blir politiskt och psykologiskt katastrofala.

Tyvärr kan man inte alltid lita på teknikföretagen att sätta upp sådana skyddsräcken. Många av dem styrs fortfarande av Mark Zuckerbergs berömda motto om rör sig snabbt och går sönder saker – Ett direktiv om att släppa ut halvfärdiga produkter och oroa sig för konsekvenserna senare. Under det senaste decenniet har teknikföretag från Snapchat till Facebook har lagt vinster över den psykiska hälsan av deras användare eller integriteten hos demokratier runt om i världen.

När Kevin Roose kollade med Microsoft om Sydneys härdsmälta, berättade företaget för honom att han helt enkelt använde boten för länge och att tekniken gick på tok eftersom den var designad för kortare interaktioner.

På samma sätt, vd för OpenAI, företaget som utvecklade ChatGPT, i ett ögonblick av hisnande ärlighet, varnade det "det är ett misstag att lita på [det] för något viktigt just nu ... vi har mycket arbete att göra med robusthet och sanningsenlighet."

Så hur är det vettigt att släppa en teknik med ChatGPT:s dragningsgrad – det är den snabbast växande konsumentappen som någonsin gjorts – när den är opålitlig och när den har gjort det ingen förmåga att särskilja fakta från fiktion?

Stora språkmodeller kan visa sig användbara som hjälpmedel för skrivande och kodning. De kommer förmodligen att revolutionera internetsökning. Och en dag, ansvarsfullt kombinerat med robotik, kan de till och med ha vissa psykologiska fördelar.

Men de är också en potentiellt rovteknologi som lätt kan dra nytta av den mänskliga benägenheten att projicera personlighet på objekt – en tendens som förstärks när dessa objekt effektivt efterliknar mänskliga egenskaper.Avlyssningen

Om författaren

Nir Eisikovits, professor i filosofi och chef för Applied Ethics Center, UMass Boston

Denna artikel publiceras från Avlyssningen under en Creative Commons licens. Läs ursprungliga artikeln.