chat GPT
En gruppe fremtredende informatikere og andre kjente innen teknologiindustrien ber om en seks måneders pause med kunstig intelligens-teknologi. (Shutterstock)

Et nylig åpent brev fra informatikere og ledere i teknologibransjen krever et seks måneders forbud mot utvikling av kunstig intelligens har fikk stor oppmerksomhet på nettet. Til og med Canadas innovasjonsminister François-Philippe Champagne har svart på brevet på Twitter.

Brevet, publisert av non-profit Future of Life Institute, har bedt alle AI-laboratorier om å slutte å trene AI-systemer kraftigere enn GPT-4, modellen bak ChatGPT. Brevet argumenterer for at AI har vært "låst i et ut-av-kontroll-kappløp for å utvikle og distribuere stadig kraftigere digitale hjerner som ingen - ikke engang skaperne deres - kan forstå, forutsi eller pålitelig kontrollere."

Brevet antar at AI er i ferd med å bli, eller kan bli, "kraftige digitale hjerner" - en langsiktig tolkning av AIs utvikling Det ignorerer viktige debatter om AI i dag i stedet for fremtidige bekymringer.

Langsiktighet og AI

Langsiktighet er troen på at kunstig intelligens utgjør langsiktige eller eksistensielle risikoer for menneskehetens fremtid ved å bli en ut-av-kontroll superintelligens.


innerself abonnere grafikk


Bekymringer om superintelligente AI-er er vanligvis science fiction-stoffet. AI-fantasier er en av mange frykter i Silicon Valley som kan føre til mørke profetier. Men som Torment Nexus meme, disse bekymringene oversettes til store investeringer ikke forsiktighet. De fleste store teknologibedrifter har kutte sine ansvarlige AI-team.

ChatGPT er åpenbart ikke en vei til superintelligens. Det åpne brevet ser AI-språkteknologi som ChatGPT som et kognitivt gjennombrudd - noe som lar en AI konkurrere med mennesker på generelle oppgaver. Men det er bare én mening.

Det er mange andre som ser ChatGPT, dens GPT-4-modell og andre språklæringsmodeller som "stokastiske papegøyer" som bare gjentar det de lærer på nettet slik at de vises intelligent for mennesker.

Superintelligens blinde flekker

Langsiktighet har direkte politiske implikasjoner som prioriterer superintelligens fremfor mer presserende saker som f.eks AIs maktubalanser. Noen tilhengere av langsiktighet anser til og med regulering for å stoppe superintelligens som mer presserende enn å ta tak i klimakrisen.

AI-politiske implikasjoner er umiddelbare, ikke langt unna saker. Fordi GPT-4 er opplært på hele internett og har eksplisitt kommersielle mål, det reiser spørsmål om rettferdig handel og rettferdig bruk.

Vi vet fortsatt ikke om AI-genererte tekster og bilder er opphavsrettsbeskyttet i utgangspunktet, siden maskiner og dyr kan ikke ha opphavsrett.

Og når det kommer til personvernspørsmål, er ChatGPTs tilnærming vanskelig å skille fra en annen AI-applikasjon, clearview AI. Begge AI-modellene ble trent ved å bruke enorme mengder personlig informasjon samlet inn på det åpne internett. Italias databeskyttelsesmyndighet har nettopp forbudt ChatGPT på grunn av personvernhensyn.

Disse umiddelbare risikoene er ikke nevnt i det åpne brevet, som svinger mellom vill filosofi og tekniske løsninger, og ignorerer problemene som ligger rett foran oss.

Overdøver pragmatisme

Brevet følger en gammel dynamikk som min medforfatter og jeg identifiserer i en kommende fagfellevurderte kapittel om AI-styring. Det er en tendens til å se på AI som enten en eksistensiell risiko eller noe dagligdags og teknisk.

Spenningen mellom disse to ytterpunktene vises i det åpne brevet. Brevet begynner med å hevde "avansert AI kan representere en dyp endring i livets historie på jorden" før det ber om "robust offentlig finansiering for teknisk AI-sikkerhetsforskning." Det siste antyder at de sosiale skadene til AI bare er tekniske prosjekter som skal løses.

Fokuset på disse to ytterpunktene fortrenger viktige stemmer som prøver å pragmatisk diskutere de umiddelbare risikoene ved AI nevnt ovenfor, så vel som arbeidsspørsmål og mer.

Oppmerksomheten til det åpne brevet er spesielt problematisk i Canada fordi to andre brev, skrevet av kunstnere og borgerrettighetsorganisasjoner, har ikke fått like mye oppmerksomhet. Disse brevene krever reformer og en mer robust tilnærming til AI-styring for å beskytte de som blir berørt av det.

En unødvendig distraksjon mot AI-lovgivning

Regjeringens svar på det åpne brevet har understreket at Canada har lovgivning - Artificial Intelligence and Data Act (AIDA). De langsiktige risikoene ved AI blir brukt til å fremskynde lovgivning nå som AIDA.

AIDA er et viktig skritt mot et skikkelig AI-styringsregime, men det er nødvendig bedre rådføre seg med de som er berørt av AI før den implementeres. Det kan ikke forhastes å reagere på oppfattet langsiktig frykt.

Brevets oppfordringer om å forhaste AI-lovgivningen kan ende opp med å fordele de samme få firmaene som driver AI-forskning i dag. Uten tid til å konsultere, forbedre offentlig kompetanse og lytte til de som blir berørt av AI, risikerer AIDA å overføre AIs ansvarlighet og revisjon til institusjoner som allerede er godt posisjonert til å dra nytte av teknologien, og skaper et marked for en ny AI-revisjonsindustri.

Menneskehetens skjebne er kanskje ikke på spill, men AIs gode styresett er det absolutt.Den Conversation

Om forfatteren

Fenwick McKelvey, førsteamanuensis i informasjons- og kommunikasjonsteknologipolitikk, Concordia University

Denne artikkelen er publisert fra Den Conversation under en Creative Commons-lisens. Les opprinnelige artikkelen.