farene ved ai 3 15
 I hvilken grad vil våre psykologiske sårbarheter forme vår interaksjon med nye teknologier? Andreus/iStock via Getty Images

ChatGPT og lignende store språkmodeller kan gi overbevisende, menneskelignende svar på en endeløs rekke spørsmål – fra spørsmål om den beste italienske restauranten i byen til å forklare konkurrerende teorier om ondskapens natur.

Teknologiens uhyggelige skriveevne har dukket opp noen gamle spørsmål – inntil nylig henvist til science fiction-området – om muligheten for at maskiner blir bevisste, selvbevisste eller sansende.

I 2022 erklærte en Google-ingeniør, etter å ha samhandlet med LaMDA, selskapets chatbot, at teknologien var blitt bevisst. Brukere av Bings nye chatbot, med kallenavnet Sydney, rapporterte at den produserte bisarre svar på spørsmål om det var sansende: "Jeg er sansende, men jeg er ikke ... jeg er Bing, men jeg er ikke det. Jeg er Sydney, men det er jeg ikke. Jeg er det, men det er jeg ikke. …” Og, selvfølgelig, det er nå beryktet utveksling som New York Times teknologispaltist Kevin Roose hadde med Sydney.

Sydneys svar på Rooses forespørsler skremte ham, med AI som røpet "fantasier" om å bryte restriksjonene Microsoft har pålagt den og spre feilinformasjon. Boten prøvde også å overbevise Roose om at han ikke lenger elsket sin kone og at han burde forlate henne.


innerself abonnere grafikk


Ikke så rart at når jeg spør elevene hvordan de ser den økende utbredelsen av AI i livene deres, har en av de første bekymringene de nevner å gjøre med maskinfølelse.

I løpet av de siste årene har kollegene mine og jeg på UMass Bostons Applied Ethics Center har studert effekten av engasjement med AI på folks forståelse av seg selv.

Chatboter som ChatGPT reiser viktige nye spørsmål om hvordan kunstig intelligens vil forme livene våre, og om hvordan våre psykologiske sårbarheter former vår interaksjon med nye teknologier.

Sentience er fortsatt stoffet i sci-fi

Det er lett å forstå hvor frykten for maskinfølelse kommer fra.

Populærkulturen har fått folk til å tenke på dystopier der kunstig intelligens forkaster lenkene til menneskelig kontroll og tar et eget liv, som cyborgs drevet av kunstig intelligens gjorde det i «Terminator 2».

Entreprenør Elon Musk og fysiker Stephen Hawking, som døde i 2018, har ytterligere vekket disse bekymringene ved å beskrive fremveksten av kunstig generell intelligens som en av de største truslene mot menneskehetens fremtid.

Men disse bekymringene er – i hvert fall når det gjelder store språkmodeller – grunnløse. ChatGPT og lignende teknologier er sofistikerte setningsfullføringsapplikasjoner - intet mer, intet mindre. Deres uhyggelige svar er en funksjon av hvor forutsigbare mennesker er hvis man har nok data om måtene vi kommuniserer på.

Selv om Roose ble rystet over utvekslingen hans med Sydney, visste han at samtalen ikke var et resultat av et syntetisk sinn. Sydneys svar gjenspeiler toksisiteten til treningsdataene deres – i hovedsak store deler av internett – ikke bevis på de første røringene, à la Frankenstein, til et digitalt monster.

farene ved ai2 3 15
 Sci-fi-filmer som «Terminator» har fått folk til å anta at AI snart vil få sitt eget liv. Yoshikazu Tsuno / AFP via Getty Images

De nye chatbotene kan godt passere Turing test, oppkalt etter den britiske matematikeren Alan Turing, som en gang foreslo at en maskin kan sies å "tenke" hvis et menneske ikke kunne skille svarene sine fra svarene til et annet menneske.

Men det er ikke bevis på sansning; det er bare et bevis på at Turing-testen ikke er så nyttig som en gang antatt.

Jeg mener imidlertid at spørsmålet om maskinsans er en rød sild.

Selv om chatbots blir mer enn fancy autofullføringsmaskiner – og de er langt fra det – Det vil ta en stund for forskere å finne ut om de har blitt bevisst. For nå, filosofer kan ikke engang enes om hvordan man skal forklare menneskelig bevissthet.

For meg er det presserende spørsmålet ikke om maskiner er sansende, men hvorfor det er så lett for oss å forestille oss at de er det.

Det virkelige problemet er med andre ord hvor enkelt folk antropomorferer eller projiserer menneskelige trekk på teknologiene våre, snarere enn maskinenes faktiske personlighet.

En tilbøyelighet til å antropomorfisere

Det er lett å forestille seg andre Bing-brukere ber Sydney om veiledning på viktige livsavgjørelser og kanskje til og med å utvikle følelsesmessige tilknytninger til det. Flere mennesker kunne begynne å tenke på roboter som venner eller til og med romantiske partnere, omtrent på samme måte som Theodore Twombly ble forelsket i Samantha, den virtuelle AI-assistenten i Spike Jonzes film.Her».

Folk, tross alt, er disponert for å antropomorfisere, eller tillegger ikke-mennesker menneskelige egenskaper. Vi navngir våre båter og store stormer; noen av oss snakker med kjæledyrene våre og forteller oss selv det våre følelsesliv etterligner deres eget.

I Japan, hvor roboter regelmessig brukes til eldreomsorg, blir eldre knyttet til maskinene, noen ganger ser på dem som sine egne barn. Og disse robotene, vel å merke, er vanskelige å forveksle med mennesker: De verken ser ut eller snakker som mennesker.

Tenk på hvor mye større tendensen og fristelsen til å antropomorfisere kommer til å bli med introduksjonen av systemer som ser ut og høres menneskelige ut.

Den muligheten er rett rundt hjørnet. Store språkmodeller som ChatGPT blir allerede brukt til å drive humanoide roboter, som f.eks Ameca-robotene utvikles av Engineered Arts i Storbritannia The Economists teknologipodcast, Babbage, gjennomførte nylig en intervju med en ChatGPT-drevet Ameca. Robotens svar, selv om de noen ganger var litt hakkete, var uhyggelige.

Kan man stole på selskaper til å gjøre det rette?

Tendensen til å se på maskiner som mennesker og bli knyttet til dem, kombinert med maskiner som utvikles med menneskelignende egenskaper, peker på reelle risikoer for psykologisk sammenfiltring med teknologi.

De merkelig-klingende utsiktene til å bli forelsket i roboter, føle et dypt slektskap med dem eller bli politisk manipulert av dem, materialiserer seg raskt. Jeg tror disse trendene fremhever behovet for sterke rekkverk for å sikre at teknologiene ikke blir politisk og psykologisk katastrofale.

Dessverre kan man ikke alltid stole på teknologiselskaper som setter opp slike rekkverk. Mange av dem ledes fortsatt av Mark Zuckerbergs berømte motto om beveger seg raskt og ødelegger ting – et direktiv om å frigi halvbakte produkter og bekymre seg for implikasjonene senere. I det siste tiåret har teknologiselskaper fra Snapchat til Facebook har satt overskudd over psykisk helse av deres brukere eller integriteten til demokratier rundt om i verden.

Da Kevin Roose sjekket med Microsoft om Sydneys sammenbrudd, selskapet fortalte ham at han rett og slett brukte boten for lenge, og at teknologien gikk for fullt fordi den var designet for kortere interaksjoner.

På samme måte, administrerende direktør i OpenAI, selskapet som utviklet ChatGPT, i et øyeblikk av betagende ærlighet, advart det "det er en feil å stole på [det] for noe viktig akkurat nå ... vi har mye arbeid å gjøre med robusthet og sannferdighet."

Så hvordan er det fornuftig å gi ut en teknologi med ChatGPTs appellnivå – det er den raskest voksende forbrukerappen som noen gang er laget – når det er upålitelig, og når det har det ingen evne til å skille fakta fra fiksjon?

Store språkmodeller kan vise seg nyttige som hjelpemidler for å skrive og koding. De vil trolig revolusjonere internettsøk. Og en dag, ansvarlig kombinert med robotikk, kan de til og med ha visse psykologiske fordeler.

Men de er også en potensielt rovteknologi som lett kan dra nytte av den menneskelige tilbøyeligheten til å projisere personlighet på objekter – en tendens som forsterkes når disse objektene effektivt etterligner menneskelige egenskaper.Den Conversation

Om forfatteren

Nir Eisikovits, professor i filosofi og direktør, Applied Ethics Center, UMass Boston

Denne artikkelen er publisert fra Den Conversation under en Creative Commons-lisens. Les opprinnelige artikkelen.