4-sätt Dina Google-sökningar och sociala medier påverkar dina möjligheter i livet

4-sätt Dina Google-sökningar och sociala medier påverkar dina möjligheter i livet
Shutterstock.

Oavsett om du inser eller samtycker till det, kan stora data påverka dig och hur du lever ditt liv. De data vi skapar när vi använder sociala medier, surfar på internet och bärs fitness trackers är alla samlade, kategoriseras och används av företag och staten att skapa profiler av oss. Dessa profiler används sedan för att rikta annonser mot produkter och tjänster till dem som sannolikt kommer att köpa dem eller att informera regeringens beslut.

Stora data aktivera stater och företag att komma åt, kombinera och analysera vår information och bygga upp avslöjande - men Ofullständig och potentiellt felaktig - Profiler av våra liv. De gör det genom att identifiera korrelationer och mönster i data om oss, och personer med liknande profiler för oss, för att göra förutsägelser om vad vi kan göra.

Men bara för att stora dataanalys baseras på algoritmer och statistik, betyder det inte att de är noggrann, neutral eller inneboende mål. Och även om stora data kan ge insikter om gruppbeteende, är det inte nödvändigtvis ett tillförlitligt sätt att bestämma individuellt beteende. Faktum är att dessa metoder kan öppna dörren för diskriminering och hotar människors mänskliga rättigheter - De kan till och med arbeta mot dig. Här är fyra exempel där stor dataanalys kan leda till orättvisor.

1. Beräkning av kreditpoäng

Stora data kan användas för att fatta beslut om kreditberättigande, som påverkar om du får en inteckning eller hur hög din bilförsäkring premier bör vara. Dessa beslut kan informeras av din sociala medier inlägg och data från andra appar, som tas för att indikera din nivå av risk eller tillförlitlighet.

Men data som din utbildning bakgrund eller var du bor kanske inte är relevant eller tillförlitlig för sådana bedömningar. Denna typ av data kan fungera som en proxy för ras eller socioekonomisk status, och att använda den för att fatta beslut om kreditrisk kan leda till diskriminering.

2. Jobbsökningar

Stora data kan användas för att bestämma vem ser ett jobbannons eller får kortlista för en intervju. Jobbannonser kan riktas till särskilda åldersgrupper, till exempel 25 till 36-åringar, som utesluter yngre och äldre arbetstagare från att ens se vissa jobbannonser och utgör en risk för åldersdiskriminering.

Automatisering används också för att effektivisera filtrering, sortering och ranking av kandidater. Men denna screeningprocess kan utesluta människor på grundval av indikatorer som avstånd från deras pendling. Arbetsgivare kan anta att de med längre pendling är mindre benägna att stanna kvar i ett arbete på lång sikt, men det kan faktiskt diskriminera människor som bor längre från stadskärnan på grund av att bostäderna ligger till rimliga priser.

3. Parole- och borgarbeslut

I USA och Storbritannien används stora datariskbedömningsmodeller för att hjälpa tjänstemän att bestämma om personer beviljas parole eller borgen, eller hänvisas till rehabiliteringsprogram. De kan också användas för att bedöma hur mycket av en risk en förövare presenterar för samhället, vilket är en faktor som en domare kan tänka på när man bestämmer längden på en mening.

Det är inte klart exakt vilken data som används för att göra dessa bedömningar, men som ett steg mot digital polis samlar takt, är det allt mer sannolikt att dessa program kommer att innehålla öppen källkod information som social medial aktivitet - om de inte redan har det

Dessa bedömningar får inte bara titta på en persons profil, utan också hur deras jämförelser med andra är ". Vissa polisstyrkor har historiskt överpoliserad vissa minoritetsgrupper, vilket leder till ett oproportionerligt antal rapporterade brottsliga incidenter. Om denna data matas in i en algoritm, kommer den att snedvrida riskbedömningsmodellerna och resultera i diskriminering som direkt påverkar en persons rätt till frihet.

4. Vetting visa ansökningar

Förra året meddelade Förenta staternas Immigration and Customs Enforcement Agency (ICE) att det ville införa en automatiserad "extrem visum vetting" program. Det skulle automatiskt och kontinuerligt skanna sociala medier konton, för att bedöma om sökandena kommer att göra ett "positivt bidrag" till USA, och om några nationella säkerhetsproblem kan uppstå.

Förutom att presentera risker för tankefrihet, yttrande, uttryck och associering var det väsentliga risker för att detta program skulle diskriminera personer med vissa nationaliteter eller religioner. kommentatorer karakteriserade det som ett "muslimskt förbud med algoritm".

Programmet togs nyligen tillbaka, enligt uppgift att "det fanns ingen" out-of-the-box "-programvara som kunde leverera kvaliteten på övervakningen av det begärda organet". Men att inkludera sådana mål i upphandlingsdokument kan skapa dåliga incitament för teknikindustrin att utveckla program som är diskriminerande för design.

AvlyssningenDet är ingen tvekan om att stor dataanalys fungerar på sätt som kan påverka individernas möjligheter i livet. Men bristande insyn om hur stor data samlas in, används och delas gör det svårt för människor att veta vilken information som används, hur och när. Stor dataanalys är helt enkelt för komplicerade för individer att kunna skydda sina data från olämplig användning. I stället måste stater och företag göra och följa regler för att säkerställa att deras användning av stora data inte leder till diskriminering.

Om Författarna

Lorna McGregor, direktör för Mänskliga rättigheter, PI och meddirektör, ESRC: s mänskliga rättigheter, Big Data and Technology Large Grant, University of Essex; Daragh Murray, docent i internationell mänsklig rättighet lag på Essex Law School, University of Essex, och Vivian Ng, seniorforskare för mänskliga rättigheter, University of Essex

Den här artikeln publicerades ursprungligen den Avlyssningen. Läs ursprungliga artikeln.

Böcker av dessa författare:

{amazonWS: searchindex = Böcker; nyckelord = Lorna McGregor; maxresultat = 1}

{amazonWS: searchindex = Böcker; nyckelord = Daragh Murray; maxresultat = 2}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

följ InnerSelf på

facebook-icontwitter-iconrss-icon

Få det senaste via e-post

{Emailcloak = off}