tillitsfull ai 7 20
 AI chatbots blir kraftigere, men hvordan vet du om de fungerer i din beste interesse? 

Hvis du spør Alexa, Amazons stemmeassistent AI-system, om Amazon er et monopol, svarer den med sier den ikke vet. Det skal ikke mye til for å lage det lambaste de andre teknologigigantene, men den er taus om sine egne bedriftsforelders ugjerninger.

Når Alexa reagerer på denne måten, er det åpenbart at det setter utviklerens interesser foran dine. Vanligvis er det imidlertid ikke så åpenbart hvem et AI-system betjener. For å unngå å bli utnyttet av disse systemene, må folk lære å nærme seg AI skeptisk. Det betyr å bevisst konstruere innspillet du gir det og tenke kritisk om resultatet.

Nyere generasjoner av AI-modeller, med sine mer sofistikerte og mindre rote-responser, gjør det vanskeligere å si hvem som drar nytte av når de snakker. Internett-selskapers manipulering av det du ser for å tjene deres egne interesser er ikke noe nytt. Googles søkeresultater og Facebook-feeden din er fylt med betalte oppføringer. Facebook , TikTok og andre manipulerer strømmene dine for å maksimere tiden du bruker på plattformen, noe som betyr flere annonsevisninger, over trivselen din.

Det som skiller AI-systemer fra disse andre internettjenestene er hvor interaktive de er, og hvordan disse interaksjonene i økende grad vil bli som relasjoner. Det skal ikke mye ekstrapolering til fra dagens teknologier for å se for seg AI-er som vil planlegge turer for deg, forhandle på dine vegne eller fungere som terapeuter og livscoacher.


innerself abonnere grafikk


De vil sannsynligvis være med deg 24/7, kjenner deg intimt og kan forutse dine behov. Denne typen samtalegrensesnitt til det enorme nettverket av tjenester og ressurser på nettet er innenfor mulighetene til eksisterende generative AI-er som ChatGPT. De er på vei til å bli personlige digitale assistenter.

Som en sikkerhetsekspert og dataforsker, tror vi at folk som kommer til å stole på disse AI-ene, må stole på dem implisitt for å navigere i hverdagen. Det betyr at de må være sikre på at AI-ene ikke i hemmelighet jobber for noen andre. På hele internett jobber enheter og tjenester som ser ut til å fungere for deg allerede i hemmelighet mot deg. Smart-TVer spionere på deg. Telefonapper samle inn og selge dataene dine. Mange apper og nettsteder manipulere deg gjennom mørke mønstre, designelementer som bevisst villede, tvinge eller lure besøkende på nettstedet. Dette er overvåkningskapitalisme, og AI er i ferd med å bli en del av det. AI spiller en rolle i overvåkingskapitalismen, som koker ned til å spionere på deg for å tjene penger på deg.

I mørket

Det kan muligens være mye verre med AI. For at den digitale AI-assistenten skal være virkelig nyttig, må den virkelig kjenne deg. Bedre enn telefonen din kjenner deg. Bedre enn Google-søk kjenner deg. Kanskje bedre enn dine nære venner, intime partnere og terapeut kjenner deg.

Du har ingen grunn til å stole på dagens ledende generative AI-verktøy. La det stå til side hallusinasjoner, de oppdiktede «fakta» som GPT og andre store språkmodeller produserer. Vi forventer at disse i stor grad vil bli ryddet opp ettersom teknologien forbedres i løpet av de neste årene.

Men du vet ikke hvordan AI-ene er konfigurert: hvordan de har blitt trent, hvilken informasjon de har fått, og hvilke instruksjoner de har blitt beordret til å følge. For eksempel forskere avdekket de hemmelige reglene som styrer Microsoft Bing-chatbotens oppførsel. De er stort sett godartede, men kan endres når som helst.

Tjene penger

Mange av disse AI-ene er skapt og trent til enorme kostnader av noen av de største teknologimonopolene. De blir tilbudt folk å bruke gratis, eller til svært lave kostnader. Disse selskapene må tjene penger på dem på en eller annen måte. Og, som med resten av internett, vil det på en eller annen måte sannsynligvis inkludere overvåking og manipulasjon.

Tenk deg å spørre chatboten din om å planlegge din neste ferie. Valgte den et bestemt flyselskap eller hotellkjede eller restaurant fordi det var det beste for deg eller fordi produsenten fikk tilbakeslag fra virksomhetene? Som med betalte resultater i Google-søk, nyhetsfeedannonser på Facebook og betalte plasseringer på Amazon-søk, vil disse betalte påvirkningene sannsynligvis bli mer skjulte over tid.

Hvis du ber chatboten din om politisk informasjon, er resultatene skjev av politikken til selskapet som eier chatboten? Eller kandidaten som betalte mest penger? Eller til og med synspunktene til demografien til personene hvis data ble brukt i opplæringen av modellen? Er AI-agenten din i hemmelighet en dobbeltagent? Akkurat nå er det ingen måte å vite det.

Pålitelig ved lov

Vi mener at folk bør forvente mer av teknologien og at teknologiselskaper og AI-er kan bli mer pålitelige. Den europeiske unions forslag AI-loven tar noen viktige skritt, som krever åpenhet om dataene som brukes til å trene AI-modeller, reduserer potensiell skjevhet, avsløring av forutsigbare risikoer og rapportering om industristandardtester. Den europeiske union presser på med AI-regulering.

De fleste eksisterende AI-er ikke overholder med dette nye europeiske mandatet, og til tross nylig propping fra Senatets majoritetsleder Chuck Schumer, er USA langt bak på slik regulering.

Fremtidens AI-er bør være pålitelige. Med mindre og inntil myndighetene leverer robust forbrukerbeskyttelse for AI-produkter, vil folk være på egenhånd for å gjette på potensielle risikoer og skjevheter ved AI, og for å redusere deres verste virkninger på folks erfaringer med dem.

Så når du får en reiseanbefaling eller politisk informasjon fra et AI-verktøy, nærmer du deg det med samme skeptiske blikk som en reklametavle eller en frivillig kampanje. Til tross for all sin teknologiske trolldom, kan AI-verktøyet være litt mer enn det samme.Den Conversation

Om forfatteren

Bruce Schneier, adjunkt i offentlig politikk, Harvard Kennedy School og Nathan Sanders, Affiliate, Berkman Klein Center for Internet & Society, Harvard University

Denne artikkelen er publisert fra Den Conversation under en Creative Commons-lisens. Les opprinnelige artikkelen.