Hur Förstå Djur kan hjälpa oss att göra det mesta av artificiell intelligensAutonoma bilar är inte smartare än detta. X posid

Varje dag uppstår otaliga rubriker från otaliga källor över hela världen varning för allvarliga konsekvenser och lovande utopiska futures - allt tack vare artificiell intelligens. AI "förvandlar arbetsplatsen," skriver Wall Street JournalMedan Förmögenhet tidningen berättar för oss att vi står inför en "AI-revolution" som kommer att "förändra våra liv". Men vi förstår inte riktigt vad samspelet med AI kommer att vara - eller hur det ska vara. Avlyssningen

Det visar sig dock att vi redan har ett koncept som vi kan använda när vi tänker på AI: Det är hur vi tänker på djur. Som en före detta djurtrenare (om än kortfattat) som nu studerar hur människor använder AI vet jag att djur och djurutbildning kan lära oss ganska mycket om hur vi borde tänka på, närma oss och interagera med artificiell intelligens både nu och i framtida.

Använda animaliska analogier kan hjälpa vanliga människor att förstå många av de komplexa aspekterna av artificiell intelligens. Det kan också hjälpa oss att tänka på hur vi bäst kan lära våra system nya färdigheter och kanske viktigast av allt hur vi kan tänka sig deras begränsningar, även om vi firar AIs nya möjligheter.

Titta på begränsningar

Som AI expert Maggie Boden förklarar, "Artificiell intelligens syftar till att göra datorer gör olika saker som tankar kan göra." AI-forskare arbetar med att undervisa datorer för att motivera, uppfatta, planera, flytta och göra föreningar. AI kan se mönster i stora dataset, förutsäga sannolikheten för att en händelse inträffar, planera en rutt, hantera en persons mötesschema och även spela krigsspelsscenarier.

Många av dessa möjligheter är i sig själv oroande: En robot kan naturligtvis rulla runt ett utrymme och inte kollidera med någonting. Men på något sätt verkar AI mer magisk när datorn börjar sätta samman dessa färdigheter för att utföra uppgifter.


innerself prenumerera grafik


Ta till exempel autonoma bilar. Drivlösa bilens ursprung är i ett 1980s-era Defense Advanced Research Project Agency projekt som heter Autonomt landfordon. Projektets mål var att uppmuntra forskning kring datasyn, uppfattning, planering och robotkontroll. I 2004 blev ALV-ansträngningen den första Grand Challenge för självkörande bilar. Nu, mer än 30 år sedan ansträngningen påbörjades, ligger vi på autonoma eller självkörande bilar på den civila marknaden. Under de första åren trodde få personer att en sådan prestation var omöjlig: Datorer kunde inte köra!

DARPA Grand Challenge dämpade utvecklingen av autonoma fordon.

{youtube}M2AcMnfzpNg{/youtube}

Ändå, som vi har sett, de kan. Autonoma bilar är relativt enkla för oss att förstå. Men vi kämpar för att förstå deras begränsningar. Efter 2015 dödlig Tesla-krasch, där bilens autopilotfunktion misslyckades med att känna en traktor-trailer som korsade sig i körfältet, verkar det fortfarande få fånga graden av hur begränsad Teslas autopilot egentligen är. Medan företaget och dess programvara var rensas av försumlighet av National Highway Traffic Safety Administration, är det oklart om kunderna verkligen förstår vad bilen kan och inte kan göra.

Vad händer om Tesla ägare fick veta att de inte var kör en "beta" -version av en autopilot utan snarare en halvautonomisk bil med mental ekvivalens av en mask? Den så kallade "intelligens" som ger "full självkörningskapacitet"Är verkligen en jätte dator som är ganska bra på att avkänna föremål och undvika dem, känna igen saker i bilder och begränsad planering. Det kan förändra ägarperspektivet om hur mycket bilen verkligen kan göra utan mänsklig inmatning eller övervakning.

Vad är det?

Tekniker försöker ofta förklara AI när det gäller hur det är byggt. Ta till exempel framsteg som gjorts i djupt lärande. Detta är en teknik som använder flera lager nätverk att lära sig hur man gör en uppgift. Nätverken behöver hantera stora mängder information. Men på grund av den mängd data de behöver, komplexiteten i föreningarna och algoritmerna i nätverken är det ofta oklart för människor hur de lär sig vad de gör. Dessa system kan bli mycket bra på en viss uppgift, men vi förstår inte riktigt dem.

Istället för att tänka på AI som något övermänskligt eller främmande, är det lättare att analogisera dem med djur, intelligenta nonhumans vi har erfarenhet av träning.

Till exempel, om jag skulle använda förstärkning lärande att träna en hund att sitta, skulle jag lova hunden och ge honom godis när han sitter på kommando. Med tiden skulle han lära sig att associera kommandot med beteendet med behandla.

Att lära en hund att sitta är mycket som att träna en artificiell intelligens.

{youtube}5-MA-rGbt9k{/youtube}

Träning av ett AI-system kan vara mycket lika. I förstärkning djup lärande, mänskliga designers skapa ett system, föreställa sig vad de vill att den ska lära sig, ge den information, titta på sina handlingar och ge den feedback (som beröm) när de ser vad de vill ha. I huvudsak kan vi behandla AI-systemet som vi behandlar djur vi tränar.

Analysen fungerar också på en djupare nivå. Jag förväntar mig inte sittande hunden att förstå komplexa begrepp som "kärlek" eller "bra". Jag förväntar mig att han ska lära sig ett beteende. Precis som vi kan få hundar att sitta, stanna och rulla över, kan vi få AI-system för att flytta bilar runt allmänna vägar. Men det är för mycket att förvänta sig att bilen ska "lösa"Den etiska problem som kan uppstå vid körning av nödsituationer.

Hjälper forskare också

Att tänka på AI som ett tågbart djur är inte bara användbart för att förklara det för allmänheten. Det är också till hjälp för forskare och ingenjörer som bygger tekniken. Om en AI-forskare försöker att undervisa ett system en ny färdighet kan man tänka på processen från en djurtrenares perspektiv kan identifiera potentiella problem eller komplikationer.

Till exempel, om jag försöker träna min hund att sitta, och varje gång jag säger "sitta" simmaren till ugnen går av, så börjar min hund att associera sittande inte bara med mitt kommando, utan också med ljudet av ugnsensorn. I själva verket blir summeren en annan signal som säger att hunden ska sitta, som kallas en "oavsiktlig förstärkning". Om vi ​​letar efter oavsiktliga förstärkningar eller signaler i AI-system som inte fungerar ordentligt, vet vi bättre inte bara vad som går fel, men också vilken specifik omskolning som är mest effektiv.

Detta kräver att vi förstår vilka meddelanden vi ger under AI-utbildning, liksom vad AI kan observera i omgivningen. Ugnszonen är ett enkelt exempel; i den verkliga världen blir det mycket mer komplicerat.

Innan vi välkomnar våra AI-övertalare och överlämnar våra liv och jobb till robotar, borde vi pausa och tänka på vilka intelligenser vi skapar. De kommer att vara väldigt bra på att göra speciella handlingar eller uppgifter, men de kan inte förstå koncept och vet ingenting. Så när du tänker på shelling ut tusentals för en ny Tesla bil, kom ihåg att autopilotfunktionen är verkligen bara en väldigt snabb och sexig mask. Vill du verkligen ge kontroll över ditt liv och dina käras liv till en mask? Förmodligen inte, så håll händerna på ratten och inte somna.

Om författaren

Heather Roff, seniorforskare, Institutionen för politik och internationella relationer, University of Oxford; Forskare, Global Security Initiative, Arizona State University

Den här artikeln publicerades ursprungligen den Avlyssningen. Läs ursprungliga artikeln.

relaterade böcker

at InnerSelf Market och Amazon