När saker går fel i en automatiserad värld, skulle vi fortfarande veta vad som ska göras?

När saker går fel i en automatiserad värld, skulle vi fortfarande veta vad som ska göras?

Vi lever i en värld som är både alltmer komplex och automatiserad. Så precis som vi måste hantera mer komplicerade problem leder automation till en atrofi av mänskliga färdigheter som kan göra oss mer sårbara när vi svarar på oväntade situationer eller när saker går fel. Avlyssningen

Överväga sista minuten av Air France Flight 447, som kraschade i Atlanten i maj 2009 efter att ha lämnat Rio de Janeiro, Brasilien, för Paris, Frankrike.

Dess flygrecorder avslöjade fullständig förvirring i cockpiten. Planet blev lutad uppåt vid 15º med en automatiserad röst som upprepade gånger kallar "stall, stall". Men pilotsna var på väg, en utropade: "[...] vi förstår ingenting".

Det här är inte platsen för att gå in i insatserna för det olyckliga flyget, förutom att notera att ett system som är utformat för att hantera automatiskt med händelser, för det mesta av tiden lämnar en försämrad färdighetsbas för de mindre situationer som konstruktörerna inte kunde Förutse inte.

Tala till FÅFÄNGANS MARKNAD, Nadine Sarter, en industriell ingenjör vid University of Michigan, påminner om en konversation med fem ingenjörer som är inblandade i att bygga ett visst flygplan.

Jag började fråga, "Nå, hur fungerar det eller det där?" Och de kunde inte komma överens om svaren. Så tänkte jag, om dessa fem ingenjörer inte kan hålla med, den stackars pilot, om han någonsin möter den speciella situationen ... ja, lycka till.

I själva verket har komplexiteten hos väldigt flygande högkomplicerade högteknologiska flygplan utgått till en robot med flygingenjörer för alla ändamål borta från cockpits. Endast äldre piloter och ex flygvapenpiloter behåller dessa detaljerade färdigheter.


Få det senaste från InnerSelf


Tillbaka på terra firma, i en autonom kör värld kan det finnas hela kommande generationer utan praktisk erfarenhet alls kör och navigera ett fordon.

Vi ser redan en indikation på vad kan gå fel när människor lämnar kontroll till autonoma system.

En undersökning av dödlig krasch av en Tesla Model S med autopilot noterade att företaget tillhandahöll information om "systembegränsningar" för förare. I så fall är det fortfarande upp till förare att uppmärksamma.

Men vilken chans skulle en person ha att ta över några kontroller om saker skulle börja gå fel i sin framtid helt autonomt fordon. Skulle de ens vet hur man upptäcker de tidiga tecknen på övergående katastrof?

Förlora vårt sätt?

Att driva detta är en teknologisk determinism som tror på alla och alla innovationer är egentligen bra. Medan nya teknologier ännu kan definiera vad det är att vara mänsklig, är utmaningen att erkänna risken och vad man ska göra för att se till att saker inte går fel.

Det blir svårare eftersom vi har lagt till komplexitet, särskilt med autonom körning av förortståg, flyg taxibilar och leveransdronor.

Systemdesigners har byggt upp större och mer sammanflätade system för att dela datorbearbetningsbelastning, även om det här gör deras skapelser till största kandidater för uppdelning. De är med på att när allt är anslutet kan problemen sprida sig lika lätt som lösningar, ibland mer.

Den växande och enorma komplexiteten hos en automatiserad värld medför liknande risker.

Fara poäng

I efterhand behövs det en förmåga att skära ner nätverk när det finns misslyckanden, eller åtminstone att försegla delar av ett enda nätverk när det finns felpunkter någon annanstans inom den.

Denna "islanding" är en funktion av smarta elnät som ger utrymme för att dela nätverket i fragment som kan självuppehålla sin interna krafts efterfrågan. Modellering har visat det färre anslutningar kan leda till ökad säkerhet.

Skulle det kunna finnas en komplexitetsvetenskaplig hjälp för att identifiera var farhågorna ligger i högt sammanlänkade nätverk? Marten Scheffer och kollegor trodde det. Han hade sett likheter mellan uppförandet av (hans) naturliga system och ekonomiska och finansiella system.

Hans tidigare arbete på sjöar, korallrev, hav, skogar och gräsmarker, fann att miljöer som utsätts för gradvisa förändringar som klimat, näringsbelastning och livsmedelsförlust kan nå tipppunkter som slår dem i ett ibland irreversibelt lägre tillstånd.

Kan banker och ekonomer gripa med stabiliteten på finansmarknaderna lära av forskare i ekologi, epidemiologi och klimatologi för att utveckla markörer av närhet till kritiska trösklar och systemnedbrytning?

I februari 2016 kom alla samman i form av ett dokument om komplexitetsteori och finansiell reglering medförfattare av ett brett spektrum av experter, inklusive en ekonom, bankir, fysiker, klimatolog, ekolog, zoolog, veterinär och epidemiolog.

De rekommenderade en onlineintegration av data, metoder och indikatorer, genom att mata in stresstester för globala socioekonomiska och finansiella system i nära realtid. Den förstnämnda liknar vad som har uppnåtts vid hantering av andra komplexa system såsom vädret.

Vi kan börja se hur vårt exempel på en autonom körmarknad går över i frågor om nätverksstabilitet. Föreställ dig ett mycket sammankopplat nätverk av autonoma fordon.

Det finns ett tydligt behov av att veta hur man upptäcker och isolerar eventuella misslyckanden i ett sådant nätverk innan saker går fel med potentiellt tragiska konsekvenser. Det här är mer än att bara skydda förare och passagerare från systemfel i ett enda autonomt fordon.

Det är dags att tänka på hur vi kan använda dessa tvärvetenskapliga framsteg när det gäller att förstå stabiliteten hos sådana storskaliga nätverk för att undvika drastiska konsekvenser.

Om författaren

Peter Fisher, adjungerad professor, globala, stads- och samhällsstudier, RMIT University

Den här artikeln publicerades ursprungligen den Avlyssningen. Läs ursprungliga artikeln.

relaterade böcker

{amazonWS: searchindex = Böcker; sökord = automation gick fel; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

följ InnerSelf på

facebook-icontwitter-iconrss-icon

Få det senaste via e-post

{Emailcloak = off}