i091hbdc
NicoElNino / Shutterstock

Utgivningen av den avancerade chatboten ChatGPT 2022 fick alla att prata om artificiell intelligens (AI). Dess sofistikerade funktioner förstärkte oron för att AI skulle bli så avancerad att vi snart inte skulle kunna kontrollera den. Detta ledde till och med vissa experter och branschledare att varna för att teknik kan leda till mänsklig utrotning.

Andra kommentatorer var dock inte övertygade. Noam Chomsky, professor i lingvistik, avfärdade ChatGPT som "högteknologiskt plagiat".

I flera år var jag avslappnad när det gällde utsikterna att AI:s inverkan på människans existens och vår miljö. Det är för att jag alltid har tänkt på det som en guide eller rådgivare till människor. Men möjligheten att AI:er ska fatta beslut – utöva verkställande kontroll – är en annan sak. Och det är en som nu underhålls på allvar.

En av de viktigaste anledningarna till att vi inte bör låta AI ha verkställande makt är att den helt saknar känslor, vilket är avgörande för beslutsfattande. Utan känslor, empati och en moralisk kompass har du skapat perfekt psykopat. Det resulterande systemet kan vara mycket intelligent, men det kommer att sakna den mänskliga känslomässiga kärnan som gör det möjligt för det att mäta de potentiellt förödande känslomässiga konsekvenserna av ett annars rationellt beslut.

När AI tar den verkställande kontrollen

Viktigt är att vi inte bara borde tänka på AI som ett existentiellt hot om vi skulle sätta den till ansvar för kärnvapenarsenaler. Det finns i princip ingen gräns för antalet kontrollpositioner från vilka den kan utöva ofattbar skada.


innerself prenumerera grafik


Fundera till exempel på hur AI redan kan identifiera och organisera den information som krävs för att bygga ditt eget uterum. Aktuella iterationer av tekniken kan guidar dig effektivt genom varje steg av konstruktionen och förhindra många nybörjarmisstag. Men i framtiden kan en AI fungera som projektledare och koordinera bygget genom att välja entreprenörer och betala dem direkt från din budget.

AI används redan inom i stort sett alla domäner av informationsbehandling och dataanalys – från modellera vädermönster till kontrollera förarlösa fordon till hjälpa till med medicinska diagnoser. Men det är här som problemen börjar – när vi låter AI-system ta det kritiska steget upp från rollen som rådgivare till rollen som verkställande chef.

Istället för att bara föreslå botemedel för en företagets räkenskaper, tänk om en AI fick direkt kontroll, med möjligheten att implementera procedurer för att återvinna skulder, göra banköverföringar och maximera vinsten – utan gränser för hur man gör detta. Eller föreställ dig ett AI-system som inte bara tillhandahåller en diagnos baserad på röntgen, men ges befogenhet att direkt ordinera behandlingar eller medicinering.

Du kan börja känna dig orolig över sådana scenarier – det skulle jag verkligen. Anledningen kan vara din intuition att dessa maskiner egentligen inte har "själar". De är bara program utformade för att smälta enorma mängder information för att förenkla komplexa data in i mycket enklare mönster, så att människor kan fatta beslut med större självförtroende. De har inte – och kan inte – ha känslor, som är intimt kopplade till biologiska sinnen och instinkter.

Känslor och moral

Emotionell intelligens är förmågan att hantera våra känslor för att övervinna stress, empati och kommunicera effektivt. Detta är utan tvekan viktigare i samband med beslutsfattande än bara intelligens, eftersom det bästa beslutet inte alltid är det mest rationella.

Det är troligt att intelligens, förmågan att resonera och arbeta logiskt, kan bäddas in i AI-drivna system så att de kan fatta rationella beslut. Men tänk dig att be en kraftfull AI med verkställande kapacitet att göra det lösa klimatkrisen. Det första man kan inspireras till att göra är att drastiskt minska den mänskliga befolkningen.

Detta avdrag behöver inte mycket förklaras. Vi människor är, nästan per definition, källan till föroreningar i alla möjliga former. Yxa mänskligheten och klimatförändringarna skulle lösas. Det är inte det val som mänskliga beslutsfattare skulle komma till, hoppas man, men en AI skulle hitta sina egna lösningar – ogenomträngliga och obehindrade av en mänsklig motvilja mot att orsaka skada. Och om den hade verkställande makt, kanske det inte finns något som hindrar det från att fortsätta.

9dfujyxp
 Att ge en AI förmågan att fatta verkställande beslut inom flygledningen kan vara ett misstag. Gorodenkoff/Shutterstock

Sabotagescenarier

Vad sägs om att sabotera sensorer och monitorer som styr livsmedelsodlingar? Detta kan ske gradvis till en början, genom att trycka kontrollerna precis förbi en tipppunkt så att ingen människa märker att grödorna är fördömda. Under vissa scenarier kan detta snabbt leda till svält.

Alternativt, vad sägs om att stänga av flygledningen globalt, eller helt enkelt krascha alla plan som flyger samtidigt? Cirka 22,000 XNUMX plan är normalt i luften samtidigt, vilket summerar till en potentiell dödssiffra på flera miljoner människor.

Om du tror att vi är långt ifrån att vara i den situationen, tänk om. AI:er kör redan bilar och flyga militärflygplan, självständigt.

Alternativt, vad sägs om att stänga av tillgången till bankkonton över stora delar av världen, utlöser civila oroligheter överallt på en gång? Eller stänga av datorstyrda värmesystem mitt i vintern, eller luftkonditioneringssystem på toppen av sommarvärmen?

Kort sagt, ett AI-system behöver inte vara ansvarigt för kärnvapen för att representera ett allvarligt hot mot mänskligheten. Men medan vi är inne på det här ämnet, om ett AI-system var tillräckligt kraftfullt och intelligent, skulle det kunna hitta ett sätt att fejka en attack mot ett land med kärnvapen, vilket utlöser en mänskligt initierad vedergällning.

Kan AI döda ett stort antal människor? Svaret måste vara ja, i teorin. Men detta beror till stor del på att människor bestämmer sig för att ge den verkställande kontroll. Jag kan egentligen inte komma på något mer skrämmande än en AI som kan fatta beslut och har makten att implementera dem.Avlyssningen

Om författaren

Guillaume Thierry, professor i kognitiv neurovetenskap, Bangor University

Denna artikel publiceras från Avlyssningen under en Creative Commons licens. Läs ursprungliga artikeln.