förtroende ai 7 20
 AI chatbots blir mer kraftfulla, men hur vet du om de fungerar i ditt bästa intresse? 

Om du frågar Alexa, Amazons röstassistent AI-system, om Amazon är ett monopol, svarar det med säger att det inte vet. Det krävs inte mycket för att göra det lambaste de andra teknikjättarna, men det är tyst om sina egna företagsförälders missgärningar.

När Alexa svarar på det här sättet är det uppenbart att det sätter sina utvecklares intressen före dina. Vanligtvis är det dock inte så självklart vem ett AI-system betjänar. För att undvika att bli utnyttjad av dessa system måste människor lära sig att närma sig AI skeptiskt. Det innebär att medvetet konstruera den input du ger den och tänka kritiskt på dess output.

Nyare generationer av AI-modeller, med sina mer sofistikerade och mindre rote-svar, gör det svårare att avgöra vem som tjänar på när de pratar. Internetföretagens manipulation av det du ser för att tjäna deras egna intressen är inget nytt. Googles sökresultat och ditt Facebook-flöde är fylld med betalda poster. Facebook, TikTok och andra manipulerar dina flöden för att maximera tiden du spenderar på plattformen, vilket innebär fler annonsvisningar, över ditt välbefinnande.

Det som skiljer AI-system från dessa andra internettjänster är hur interaktiva de är och hur dessa interaktioner i allt högre grad kommer att bli som relationer. Det krävs inte mycket extrapolering från dagens teknik för att föreställa sig AI:er som kommer att planera resor åt dig, förhandla för din räkning eller fungera som terapeuter och livscoacher.


innerself prenumerera grafik


De kommer sannolikt att vara med dig 24/7, känna dig intimt och kunna förutse dina behov. Den här typen av samtalsgränssnitt till det stora nätverket av tjänster och resurser på webben ligger inom kapaciteten hos befintliga generativa AI:er som ChatGPT. De är på väg att bli personliga digitala assistenter.

Som en säkerhetsexpert och datavetare, tror vi att människor som kommer att förlita sig på dessa AI:er måste lita på dem implicit för att navigera i det dagliga livet. Det betyder att de måste vara säkra på att AI:erna inte i hemlighet arbetar för någon annan. Över hela internet arbetar enheter och tjänster som verkar fungera för dig redan i hemlighet mot dig. Smarta TV-apparater spionera på dig. Telefonappar samla in och sälja din data. Många appar och webbplatser manipulera dig genom mörka mönster, designelement som avsiktligt vilseleda, tvinga eller lura webbplatsbesökare. Detta är övervakningskapitalism, och AI håller på att formas för att vara en del av det. AI spelar en roll i övervakningskapitalismen, vilket handlar om att spionera på dig för att tjäna pengar på dig.

I mörkret

Det kan vara mycket värre med AI. För att den digitala AI-assistenten verkligen ska vara användbar måste den verkligen känna dig. Bättre än din telefon känner dig. Bättre än Google-sökning känner dig. Bättre kanske än att dina nära vänner, intima partners och terapeut känner dig.

Du har ingen anledning att lita på dagens ledande generativa AI-verktyg. Lämna åt sidan hallucinationer, de påhittade "fakta" som GPT och andra stora språkmodeller producerar. Vi förväntar oss att de till stor del kommer att rensas upp i takt med att tekniken förbättras under de närmaste åren.

Men du vet inte hur AI:erna är konfigurerade: hur de har tränats, vilken information de har fått och vilka instruktioner de har beordrats att följa. Till exempel forskare avslöjade de hemliga reglerna som styr Microsoft Bing-chatbotens beteende. De är till stor del godartade men kan ändras när som helst.

Tjäna pengar

Många av dessa AI:er skapas och tränas till enorma kostnader av några av de största tekniska monopolen. De erbjuds människor att använda gratis eller till mycket låg kostnad. Dessa företag kommer att behöva tjäna pengar på dem på något sätt. Och, som med resten av internet, kommer det på något sätt sannolikt att innefatta övervakning och manipulation.

Föreställ dig att du ber din chatbot att planera din nästa semester. Valde det ett särskilt flygbolag, hotellkedja eller restaurang för att det var det bästa för dig eller för att dess tillverkare fick en kickback från företagen? Precis som med betalda resultat i Google-sökning, nyhetsflödesannonser på Facebook och betalda placeringar på Amazon-frågor, kommer dessa betalda influenser sannolikt att bli mer smygande med tiden.

Om du ber din chatbot om politisk information, är resultaten skeva av politiken i företaget som äger chatboten? Eller den kandidat som betalade mest pengar? Eller till och med synen på demografin hos de personer vars data användes för att träna modellen? Är din AI-agent i hemlighet en dubbelagent? Just nu finns det inget sätt att veta.

Tillförlitlig enligt lag

Vi tror att folk borde förvänta sig mer av tekniken och att teknikföretag och AI:er kan bli mer pålitliga. Europeiska unionens föreslagna AI-lagen tar några viktiga steg, kräver transparens om de data som används för att träna AI-modeller, begränsning av potentiell fördom, avslöjande av förutsebara risker och rapportering om industristandardtester. Europeiska unionen går vidare med AI-reglering.

De flesta befintliga AI:er misslyckas med att följa med detta framväxande europeiska mandat, och trots den senaste tidens uppmaning från senatens majoritetsledare Chuck Schumer ligger USA långt efter när det gäller sådan reglering.

Framtidens AI:er bör vara pålitliga. Såvida inte och tills regeringen levererar robusta konsumentskydd för AI-produkter, kommer människor att vara på egen hand att gissa sig till de potentiella riskerna och fördomarna med AI, och för att mildra deras värsta effekter på människors upplevelser av dem.

Så när du får en reserekommendation eller politisk information från ett AI-verktyg, närma dig det med samma skeptiska öga som en skyltannons eller en kampanjvolontär. Trots all sin tekniska trolldom kan AI-verktyget vara lite mer än detsamma.Avlyssningen

Om författaren

Bruce Schneier, adjungerad lektor i offentlig politik, Harvard Kennedy School och Nathan Sanders, Affiliate, Berkman Klein Center for Internet & Society, Harvard University

Denna artikel publiceras från Avlyssningen under en Creative Commons licens. Läs ursprungliga artikeln.