chatGPT
En grupp framstående datavetare och andra notabiliteter inom teknikindustrin kräver en sex månader lång paus med artificiell intelligens-teknik. (Shutterstock)

Ett öppet brev nyligen från datavetare och tekniska industriledare kräver ett sex månaders förbud mot utveckling av artificiell intelligens har fått stor uppmärksamhet på nätet. Till och med Kanadas innovationsminister François-Philippe Champagne har svarat på brevet på Twitter.

Brevet, publicerat av det ideella Future of Life Institute, har bett alla AI-labb att sluta träna AI-system som är kraftfullare än GPT-4, modellen bakom ChatGPT. Brevet hävdar att AI har "låsts i ett out-of-control race för att utveckla och distribuera allt kraftfullare digitala hjärnor som ingen - inte ens deras skapare - kan förstå, förutsäga eller på ett tillförlitligt sätt kontrollera."

Brevet antar att AI håller på att bli, eller kan bli, "kraftfulla digitala sinnen" - en långsiktig tolkning av AI:s utveckling den där ignorerar viktiga debatter om AI idag istället för framtida problem.

Långsiktighet och AI

Långsiktighet är övertygelse om att artificiell intelligens utgör långsiktiga eller existentiella risker för mänsklighetens framtid genom att bli en utomkontrollerad superintelligens.


innerself prenumerera grafik


Oro för superintelligenta AI är vanligtvis science fiction. AI-fantasier är en av många farhågor i Silicon Valley som kan leda till mörka profetior. Men liksom Torment Nexus meme, dessa bekymmer översättas till stora investeringar inte försiktighet. De flesta stora teknikföretag har skära ner sina ansvariga AI-team.

ChatGPT är uppenbarligen inte en väg till superintelligens. Det öppna brevet ser AI-språkteknologi som ChatGPT som ett kognitivt genombrott - något som gör att en AI kan konkurrera med människor i allmänna uppgifter. Men det är bara en åsikt.

Det finns många andra som ser ChatGPT, dess GPT-4-modell och andra språkinlärningsmodeller som "stokastiska papegojor" som bara upprepar vad de lär sig online så att de visas intelligent för människor.

Superintelligensens blinda fläckar

Långsiktighet har direkta politiska konsekvenser som prioriterar superintelligens framför mer angelägna frågor som t.ex AI:s maktobalanser. Några förespråkare för långsiktighet anser till och med att reglering för att stoppa superintelligens är mer brådskande än att ta itu med klimatkrisen.

AI-politiska konsekvenser är omedelbara, inte långt borta. Eftersom GPT-4 är utbildad på hela internet och har uttryckligen kommersiella syften, det väcker frågor om skälig hantering och skälig användning.

Vi vet fortfarande inte om AI-genererade texter och bilder är upphovsrättsskyddade i första hand, eftersom maskiner och djur kan inte inneha upphovsrätten.

Och när det kommer till integritetsfrågor är ChatGPT:s tillvägagångssätt svår att skilja från en annan AI-applikation, clearview AI. Båda AI-modellerna tränades med hjälp av enorma mängder personlig information som samlats in på det öppna internet. Italiens dataskyddsmyndighet har just förbjudit ChatGPT på grund av integritetsproblem.

Dessa omedelbara risker lämnas inte omnämnda i det öppna brevet, som pendlar mellan vild filosofi och tekniska lösningar, och ignorerar de frågor som ligger mitt framför oss.

Dränker pragmatism

Brevet följer en gammal dynamik som jag och min medförfattare identifierar i en kommande peer-reviewed kapitel om AI-styrning. Det finns en tendens att se AI som antingen en existentiell risk eller något vardagligt och tekniskt.

Spänningen mellan dessa två ytterligheter visas i det öppna brevet. Brevet börjar med att hävda "avancerad AI kan representera en djupgående förändring i livets historia på jorden" innan det efterlyser "robust offentlig finansiering för teknisk AI-säkerhetsforskning." Det senare antyder att de sociala skadorna av AI bara är tekniska projekt som ska lösas.

Fokus på dessa två ytterligheter tränger bort viktiga röster som pragmatiskt försöker diskutera de omedelbara riskerna med AI som nämnts ovan samt arbetsmarknadsfrågor med mera.

Uppmärksamheten på det öppna brevet är särskilt problematisk i Kanada eftersom två andra brev, skrivna av konstnärer och medborgarrättsorganisationer, har inte fått lika mycket uppmärksamhet. Dessa brev kräver reformer och en mer robust strategi för AI-styrning för att skydda dem som berörs av det.

En onödig distraktion mot AI-lagstiftning

Regeringens svar på det öppna brevet har betonat att Kanada har lagstiftning — artificiell intelligens och datalagen (AIDA). De långsiktiga riskerna med AI används för att påskynda lagstiftningen nu som AIDA.

AIDA är ett viktigt steg mot en korrekt AI-styrning, men det måste göras bättre rådfråga dem som påverkas av AI innan de implementeras. Det kan inte skyndas att svara på upplevda långsiktiga rädslor.

Brevets uppmaningar att skynda på AI-lagstiftningen kan komma att gynna samma få företag som driver AI-forskning idag. Utan tid att konsultera, förbättra den offentliga läskunnigheten och lyssna på dem som påverkas av AI, riskerar AIDA att föra över AI:s ansvarighet och revision till institutioner som redan är väl positionerade för att dra nytta av tekniken, vilket skapar en marknad för en ny AI-revisionsindustri.

Mänsklighetens öde kanske inte står på spel, men AI:s goda styrelseskick är det verkligen.Avlyssningen

Om författaren

Fenwick McKelvey, docent i informations- och kommunikationsteknikpolitik, Concordia University

Denna artikel publiceras från Avlyssningen under en Creative Commons licens. Läs ursprungliga artikeln.