i091hbdc
NicoElNino / Shutterstock

Utgivelsen av den avanserte chatboten ChatGPT i 2022 fikk alle snakket om kunstig intelligens (AI). Dens sofistikerte evner forsterket bekymringene for at AI ble så avansert at vi snart ikke ville være i stand til å kontrollere den. Dette førte til og med noen eksperter og industriledere til å advare om at teknologi kan føre til menneskelig utryddelse.

Andre kommentatorer var imidlertid ikke overbevist. Noam Chomsky, professor i lingvistikk, avfeide ChatGPT som "høyteknologisk plagiat".

I årevis var jeg avslappet med tanke på utsiktene til AIs innvirkning på menneskelig eksistens og miljøet vårt. Det er fordi jeg alltid har tenkt på det som en veileder eller rådgiver for mennesker. Men utsiktene til at AI-er kan ta beslutninger – utøve utøvende kontroll – er en annen sak. Og det er en som nå for alvor blir underholdt.

En av de viktigste grunnene til at vi ikke bør la AI ha utøvende makt er at den helt mangler følelser, noe som er avgjørende for beslutningstaking. Uten følelser, empati og et moralsk kompass har du skapt perfekt psykopat. Det resulterende systemet kan være svært intelligent, men det vil mangle den menneskelige emosjonelle kjernen som gjør det i stand til å måle de potensielt ødeleggende følelsesmessige konsekvensene av en ellers rasjonell beslutning.

Når AI tar utøvende kontroll

Viktigere, vi bør ikke bare tenke på AI som en eksistensiell trussel hvis vi skulle sette den til ansvar for kjernefysiske arsenaler. Det er i hovedsak ingen grense for antall kontrollposisjoner som den kan utøve ufattelig skade fra.


innerself abonnere grafikk


Vurder for eksempel hvordan AI allerede kan identifisere og organisere informasjonen som kreves for å bygge din egen vinterhage. Nåværende iterasjoner av teknologien kan veilede deg effektivt gjennom hvert trinn av bygget og forhindre mange nybegynnerfeil. Men i fremtiden kan en kunstig intelligens fungere som prosjektleder og koordinere byggingen ved å velge entreprenører og betale dem direkte fra budsjettet ditt.

AI blir allerede brukt i stort sett alle domener innen informasjonsbehandling og dataanalyse – fra modellering av værmønstre til kontrollere førerløse kjøretøy til hjelpe til med medisinske diagnoser. Men det er her problemene starter – når vi lar AI-systemer ta det kritiske steget opp fra rollen som rådgiver til rollen som administrerende direktør.

I stedet for bare å foreslå løsninger til en selskapets regnskap, hva om en AI ble gitt direkte kontroll, med muligheten til å implementere prosedyrer for å inndrive gjeld, foreta bankoverføringer og maksimere fortjeneste – uten begrensninger for hvordan dette skal gjøres. Eller forestill deg et AI-system som ikke bare gir en diagnose basert på røntgenbilder, men får makt til å foreskrive behandlinger eller medisiner direkte.

Du kan begynne å føle deg urolig over slike scenarier – det ville jeg absolutt. Årsaken kan være din intuisjon om at disse maskinene egentlig ikke har "sjeler". De er bare programmer laget for å fordøye enorme mengder informasjon for å forenkle komplekse data inn i mye enklere mønstre, slik at mennesker kan ta beslutninger med større selvtillit. De har ikke – og kan ikke – ha følelser, som er nært knyttet til biologiske sanser og instinkter.

Følelser og moral

Emosjonell intelligens er evnen til å håndtere følelsene våre for å overvinne stress, empati og kommunisere effektivt. Dette betyr uten tvil mer i forbindelse med beslutningstaking enn etterretning alene, fordi den beste beslutningen ikke alltid er den mest rasjonelle.

Det er sannsynlig at intelligens, evnen til å resonnere og operere logisk, kan bygges inn i AI-drevne systemer slik at de kan ta rasjonelle beslutninger. Men forestill deg å spørre en kraftig AI med utøvende evner løse klimakrisen. Det første det kan bli inspirert til å gjøre er å redusere den menneskelige befolkningen drastisk.

Dette fradraget trenger ikke mye forklaring. Vi mennesker er, nesten per definisjon, kilden til forurensning i alle mulige former. Øks menneskeheten og klimaendringene ville bli løst. Det er ikke valget menneskelige beslutningstakere ville komme til, håper man, men en AI vil finne sine egne løsninger – ugjennomtrengelig og uhindret av en menneskelig motvilje mot å forårsake skade. Og hvis den hadde utøvende makt, var det kanskje ikke noe som hindrer den i å fortsette.

9dfujyxp
 Det kan være en feil å gi en AI muligheten til å ta eksekutive beslutninger i flykontroll. Gorodenkoff/Shutterstock

Sabotasjescenarier

Hva med å sabotere sensorer og monitorer som kontrollerer matfarmer? Dette kan skje gradvis til å begynne med, ved å skyve kontroller like forbi et vippepunkt slik at ingen mennesker legger merke til at avlingene er fordømt. Under visse scenarier kan dette raskt føre til hungersnød.

Alternativt, hva med å stenge ned lufttrafikkkontrollen globalt, eller bare krasje alle fly som flyr til enhver tid? Rundt 22,000 fly er normalt i luften samtidig, noe som tilsvarer et potensielt dødstall på flere millioner mennesker.

Hvis du tror at vi er langt fra i den situasjonen, tenk om igjen. AIer kjører allerede biler og fly militære fly, autonomt.

Alternativt, hva med å stenge tilgangen til bankkontoer over store deler av verden, utløser sivil uro overalt på en gang? Eller slå av datastyrte varmesystemer midt på vinteren, eller klimaanlegg på toppen av sommervarmen?

Kort sagt, et AI-system trenger ikke å ha ansvaret for atomvåpen for å representere en alvorlig trussel mot menneskeheten. Men mens vi er inne på dette emnet, hvis et AI-system var kraftig og intelligent nok, kunne det finne en måte å forfalske et angrep på et land med atomvåpen, og utløse en menneskeinitiert gjengjeldelse.

Kan AI drepe et stort antall mennesker? Svaret må være ja, i teorien. Men dette avhenger i stor grad av at mennesker bestemmer seg for å gi den utøvende kontroll. Jeg kan egentlig ikke tenke på noe mer skremmende enn en AI som kan ta beslutninger og har makten til å implementere dem.Den Conversation

Om forfatteren

Guillaume Thierry, professor i kognitiv nevrovitenskap, Bangor University

Denne artikkelen er publisert fra Den Conversation under en Creative Commons-lisens. Les opprinnelige artikkelen.