Att hitta förtroende och förståelse i autonoma teknikerFoto av: Norbert Aepli, Schweiz (Användare: Noebu)

I 2016 gick självkörande bilar vanligtvis. Ubers autonoma fordon blev allestädes närvarande i stadsdelar där jag bor i Pittsburgh, och kort i San Francisco. US Department of Transportation utfärdat ny regleringsanvisning för dem. otaliga papper och kolonner diskuterade hur självkörande bilar skall lösa etiska frågeställningar när saker går fel. Och tyvärr såg 2016 också första dödlighet som involverar ett autonomt fordon.

Autonoma teknologier sprider sig snabbt utöver transportsektorn, till hälsovård, avancerad cyberdefense och även autonoma vapen. I 2017 måste vi bestämma om vi kan lita på denna teknik. Det kommer att bli mycket svårare än vad vi kan förvänta oss.

Tillit är komplext och varierat, men också en viktig del av våra liv. Vi litar ofta på teknik baserat på förutsägbarhet: Jag litar på något om jag vet vad det kommer att göra i en viss situation, även om jag inte vet varför. Till exempel litar jag på min dator eftersom jag vet hur den ska fungera, även när det kommer att bryta ner. Jag slutar lita på om det börjar verka annorlunda eller överraskande.

Däremot är mitt förtroende för min fru baserad på förstå hennes tro, värderingar och personlighet. Mer allmänt innebär inte interpersonell förtroende att veta exakt vad den andra personen kommer att göra - min fru surfar verkligen mig ibland! - men snarare varför de agerar som de gör. Och självklart kan vi lita på någon (eller något) på båda sätt, om vi vet både vad de ska göra och varför.

Jag har undersökt möjliga baser för vårt förtroende för självkörande bilar och annan autonom teknik från både etiska och psykologiska perspektiv. Dessa är enheter, så förutsägbarhet kan verka som nyckeln. På grund av sin autonomi måste vi dock överväga betydelsen och värdet - och utmaningen - att lära sig att lita på dem i det sätt vi litar på andra människor.


innerself prenumerera grafik


Autonomi och förutsägbarhet

Vi vill att vår teknik, inklusive självkörande bilar, ska verka på sätt som vi kan förutsäga och förvänta oss. Naturligtvis kan dessa system vara ganska känsliga för sammanhanget, inklusive andra fordon, fotgängare, väderförhållanden och så vidare. I allmänhet kan vi dock förvänta oss att en självkörande bil som upprepas placeras i samma miljö borde förmodligen uppträda på samma sätt varje gång. Men i vilken mening skulle dessa mycket förutsägbara bilar vara autonoma, snarare än bara automatiska?

Det har varit många olika försök till definiera autonomi, men alla har det gemensamt: Autonoma system kan fatta sina egna (materiella) beslut och planer och kan därmed agera annorlunda än förväntat.

Faktum är att en orsak till att använda autonomi (som skiljer sig från automatisering) är just att dessa system kan bedriva oväntade och överraskande, men motiverade, handlingsplaner. Till exempel, DeepMind s AlphaGo vann det andra spelet i sin senaste Go-serie mot Lee Sedol delvis på grund av ett drag som ingen mänsklig spelare någonsin skulle göra, men ändå var rätt drag. Men samma överraskningar gör det svårt att skapa förutsägbarhetsbaserad förtroende. Starkt förtroende baserat uteslutande på förutsägbarhet är möjligen endast möjligt för automatiserade eller automatiska system, just för att de är förutsägbara (förutsatt att systemet fungerar normalt).

Kombinera överraskningar

Naturligtvis överraskar andra människor oss ofta, och ändå kan vi lita på dem i en anmärkningsvärd grad, till och med ge dem liv och död makt över oss själva. Soldater litar på sina kamrater i komplexa, fientliga miljöer; en patient litar på sin kirurg att ta bort en tumör och i en mer vardaglig ån litar min fru på att köra säkert. Denna interpersonella förtroende möjliggör för oss att omfamna överraskningarna, så kanske vi kan utveckla något som interpersonell förtroende för bilar med självkörning?

I allmänhet kräver interpersonell förtroende en förståelse för varför någon agerade på ett visst sätt, även om du inte kan förutsäga det exakta beslutet. Min fru kanske inte vet exakt hur jag ska köra, men hon vet vilka slags resonemang jag använder när jag kör. Och det är faktiskt relativt lätt att förstå varför någon annan gör något, just för att vi alla tänker och motiverar ungefär lika, men med olika "råvaror" - våra övertygelser, önskningar och erfarenheter.

Faktum är att vi hela tiden och omedvetet gör slutsatser om andras övertygelser och önskemål baserade på deras handlingar, i stor utsträckning genom att anta att de tänker, skäl och bestämmer ungefär som vi gör. Alla dessa slutsatser och resonemang baserade på vår gemensamma (mänskliga) kognition gör det möjligt för oss att förstå andras orsaker och därigenom bygga interpersonell förtroende över tiden.

Tänker som människor?

Autonoma tekniker - speciellt självkörande bilar - tycker inte och bestämmer sig som människor. Det har varit ansträngningar, båda Tidigare och senaste, att utveckla datorsystem som tänker och resonerar som människor. Men ett konsekvent tema för maskininlärning under de senaste två decennierna har varit de enorma vinsterna som gjordes exakt genom att inte kräva att våra artificiella intelligenssystem ska fungera på mänskliga sätt. I stället har maskininlärningsalgoritmer och system som AlphaGo ofta kunnat överträffa mänskliga experter genom att fokusera på specifika lokaliserade problem och sedan lösa dem ganska annorlunda än människor gör.

Som ett resultat kan försök att tolka en autonom teknik när det gäller mänskliga tron ​​och önskningar, gå spektakulärt fel. När en människa förare ser en boll i vägen, sänker de flesta av oss automatiskt, för att undvika att slå ett barn som kanske jagar efter det. Om vi ​​rider i en autonom bil och ser en boll rulla in i gatan, förväntar vi oss att bilen känner igen den och att vara beredd att sluta för att springa barn. Bilen kan dock bara se ett hinder som bör undvikas. Om det svävar utan att sakta ner, kan människorna ombord vara oroliga - och ett barn kan vara i fara.

Våra slutsatser om "självbedrivna bilers" tro och önskemål kommer nästan säkert att vara felaktiga på viktiga sätt, just därför att bilen inte har någon mänsklig tro eller önskan. Vi kan inte utveckla interpersonell förtroende för en bil med självkörning helt enkelt genom att titta på den kör, eftersom vi inte på ett korrekt sätt kommer inleda whys bakom sina handlingar.

Självklart kan samhälls- eller marknadsplatskunder insistera mycket på att självkörande bilar har mänskliga (psykologiska) egenskaper, precis så att vi kunde förstå och utveckla interpersonell förtroende för dem. Denna strategi skulle ge en helt ny mening till "människa-centrerad design, "Eftersom systemen skulle utformas specifikt så deras handlingar är tolkbara av människor. Men det skulle också kräva inklusive roman algoritmer och tekniker i den självkörande bilen, som alla skulle utgöra en stor förändring från nuvarande forsknings- och utvecklingsstrategier för självkörande bilar och annan autonom teknik.

Självkörande bilar har potential att radikalt omforma vår transportinfrastruktur på många fördelaktiga sätt, men bara om vi kan lita på dem nog att faktiskt använda dem. Och ironiskt nog är det faktum att bilar med självkörning är värdefulla - deras flexibla, autonoma beslutsfattande i olika situationer - gör det svårt att lita på dem.

Avlyssningen

authirhere

David Danks, professor i filosofi och psykologi, Carnegie Mellon University

Den här artikeln publicerades ursprungligen den Avlyssningen. Läs ursprungliga artikeln.

Relaterade böcker:

at InnerSelf Market och Amazon