Hur Uber och andra digitala plattformar kan lura oss med hjälp av beteendevetenskap Din plats är inte allt det vet. AP Photo / Mary Altaffer

Ubers affärsmodell är oerhört enkel: Det är en plattform som underlättar utbytet mellan människor. Och Uber har varit otroligt framgångsrik på det, nästan eliminerar transaktionskostnaderna of göra affärer i allt från shuttling människor runt staden för att leverera mat.

Om du använder Uber - eller kanske även om du inte gör det - den vet en skattkista av data om dig, inklusive din plats, kön, spenderingshistoria, kontakter, telefonens batterinivå och även oavsett om du är på väg hem från en nattläge. Det kan snart veta oavsett om du är full eller inte.

Medan det är skrämmande, kombinera alla data med Ubers expertis vid analys av det genom linsen av beteendevetenskap och du har en farlig potential att utnyttja användare för vinst.

Uber är knappast ensam. Vår forskning visar De största digitala plattformarna - Airbnb, Facebook, eBay och andra - samlar så mycket data om hur vi lever, att de redan har möjlighet att manipulera sina användare på stor skala. De kan förutsäga beteende och påverka våra beslut om var du ska klicka, dela och spendera.

Medan de flesta plattformar inte använder alla dessa funktioner än, kan manipulering genom beteendemässig psykologiteknik ske tyst och lämna litet spår. Om vi ​​inte etablerar regler på vägen nu, blir det mycket svårare att upptäcka och sluta senare.


innerself prenumerera grafik


"Choice arkitektur"

En plattform kan vara vilket utrymme som helst som underlättar transaktioner mellan köpare och säljare. Traditionella exempel inkluderar loppmarknader och handelsgolv.

En digital plattform tjänar samma syfte men ger ägaren möjlighet att "förmedla" sina användare medan de använder det - och ofta när de inte är det. Med det menar vi att det kan observera och lära oss en otrolig mängd information om användarbeteende för att perfektera vad beteendeforskare kallar "val arkitekturer, "Inkonsekventa designelement som är avsedda att påverka mänskligt beteende genom hur beslut presenteras.

Hur Uber och andra digitala plattformar kan lura oss med hjälp av beteendevetenskap Uber vet när telefonens batteri blir lågt. boyhey / Shutterstock.com

Till exempel, Uber har experimenterat med sina förare att bestämma de mest effektiva strategierna för att hålla dem på vägen så länge som möjligt. Dessa strategier innefattar att spela in i kognitiva företeelser som förlustaversion och överskattning av låga sannolikhetshändelser, även om en förare knappt tjänar tillräckligt med pengar för att göra det värt henne. Drivrutiner hamnar som spelare på ett kasino, uppmanade att spela bara lite längre trots oddsen.

Uber svarade inte omedelbart på en begäran om kommentar.

Airbnb experimenterar också med sina användare. Den har använt beteendevetenskap för att få värdar att sänka sina priser och acceptera bokningar utan att granska gästerna - vilket skapar reella risker för värdar, särskilt när de delar sin egen lägenhet.

Medan dessa exempel verkar relativt godartade visar de hur digitala plattformar tyst kan utforma system för att styra användarnas åtgärder på potentiellt manipulerande sätt.

Och som plattformar växer blir de bara bättre valarkitekter. Med sin IPO enorma tillströmning av investerare pengar för att finansiera mer data och beteendevetenskap, Uber kunde flytta till farligt oetiskt territorium - lätt att föreställa sig med tanke på dess tidigare praxis.

Till exempel, om appen känner igen att du är full eller i ett grannskap som du sällan reser till - och en som visar datahowen är hög i brott - det kan debitera dig en högre skattesats eftersom du vet att du osannolikt inte vägrar.

Juridiska utmaningar

Och det är inte allt spekulation.

I ett försök att lura brottsbekämpning försöker undersöka företaget, Uber faktiskt hittade ett sätt att identifiera statliga tillsynsmyndigheter försöker använda sin app och hindrade dem från att få åkturer.

Det är en anledning till lagstiftare och tillsynsmyndigheter har diskuterat de svåra, inbördes relationerna mellan beteendevetenskap och teknik i åratal. Och några företag, Uber i synnerhet har undersökts för en mängd dåliga affärsmetoder, från diskriminering till missbrukar användardata.

Men det mesta av den manipulation vi har identifierat och oroa oss för är inte uttryckligen olaglig. Och eftersom regulatörer ofta inte kan hålla sig i takt med den ständigt växande användningen av teknik och valarkitektur, kommer det troligen att förbli så.

Med tanke på avsaknaden av väldefinierade och verkställbara rättsskydd kan plattformsföretagens benägenhet att utnyttja beteendevetenskap på användarnas bekostnad i stort sett vara okontrollerad.

En etisk kod

En lösning är enligt vår uppfattning en etisk kod för plattformsföretag att följa. Och om de inte adopterar det villigt, kan investerare, anställda och användare kräva det.

Sedan mitten av 20th century, skrivna koder för etiskt beteende har varit en häftklammer av amerikanska företag. De juridiska och medicinska yrkena har åberopat dem för Millennia. Och forskning föreslår De är effektiva för att uppmuntra etiskt beteende hos företag.

Vi granskade hundratals etiska koder, inklusive de som riktar sig till teknik- och databehandlingsföretag. Baserat på vår forskning uppmanar vi digitala plattformar att anta fem etiska riktlinjer:

  1. All valfri arkitektur som används på en plattform bör vara helt transparent. Plattformar bör avslöja när de använder sig av beteendevetenskapens verktyg för att påverka användarbeteendet

  2. Användare ska kunna göra val på plattformen fritt och enkelt, och valarkitekter bör begränsa beteendemöjligheter till påminnelser eller uppmaningar som är minst skadliga för användarautonomi

  3. Plattformar bör undvika "nudging" -användare på ett sätt som utnyttjar omedvetet och irrationellt beslutsfattande baserat på impuls och känslor. ny forskning visar att transparent val arkitektur kan fungera lika bra

  4. Plattformar bör erkänna den kraft de har och se till att de inte utnyttjar marknaderna de har skapat, bland annat genom att missbruka informationssymmetrier mellan dem själva och användare eller motsätta sig rimliga bestämmelser

  5. Plattformar bör undvika att använda valarkitektur som avskräcker användarna från att agera i sina egna intressen. Som Nobelprisvinnande beteendeekonom Richard Thaler Ställ det, vi borde bara "nudge for good."

Big tech och beteendevetenskap är nu integrerade på sätt som gör företagen väldigt framgångsrika, från surrande tandborstar det gör rengör dina tänder verkar givande till Använda texter för att dämpa fattigare mödrar att använda hälsovård.

Även om resultaten kan förbättra våra liv väsentligt, gör det också lättare än någonsin för företag att manipulera användarna för att förbättra sina bottenlinjer.Avlyssningen

Om Författarna

Abbey Stemler, biträdande professor i företagsrätt och etik, Indiana University; Joshua E. Perry, docent i företagsrätt och etik, Indiana University, och Todd Haugh, biträdande professor i affärsjuridik och etik, Indiana University

Denna artikel publiceras från Avlyssningen under en Creative Commons licens. Läs ursprungliga artikeln.

relaterade böcker

at InnerSelf Market och Amazon