Videoen ovenfor ble inspirert av denne artikkelen. Besøk vår YouTube-kanal for flere styrkende videoer. Og abonner gjerne. Takk!

I denne artikkelen

  • Hva er kunstig generell intelligens (AGI), og hvordan skiller den seg fra dagens AI?
  • Hvorfor mange eksperter nå tror at AGI kan komme tidlig på 2030-tallet
  • Hva er kunstig superintelligens (ASI), og hvor snart kan den følge AGI?
  • Risikoen for feil i AI-justeringen og intelligenseksplosjonen
  • Hva enkeltpersoner og samfunnet kan gjøre nå for å forberede seg på denne fremtiden

Hvor nær er vi kunstig generell intelligens og utover? 

av Robert Jennings, InnerSelf.com

La oss få én ting klart: Kunstig generell intelligens er ikke bare en mer innovativ chatbot. AGI betyr en maskin med den kognitive evnen til å resonnere, lære og tilpasse seg på tvers av alle oppgaver like godt som, eller bedre enn, et menneske. Den spytter ikke bare ut svar. Den tenker, planlegger og kanskje til og med overlister deg. Og i motsetning til mennesker, sover den ikke, spiser ikke eller lider av utbrenthet. Det er ikke science fiction. Det er et ingeniørmål, og det er skremmende nær å bli nådd.

For bare et tiår siden var det enighet blant eksperter om at AGI var fjernt 50 år unna. Så knuste den raske fremveksten av GPT-3 og GPT-4 denne tidslinjen, noe som fikk mange til å tro at AGI kunne bli en realitet før 2030. Og når det skjer, vil endringstempoet ikke bare være raskt – det vil være eksponentielt og kreve vår umiddelbare oppmerksomhet og handling.

Her er grunnen: I det øyeblikket AGI eksisterer, vil det ikke bare være et annet verktøy i laboratoriet; det vil bli laboratoriepartneren. Eller mer presist, den ledende forskeren. AGI vil ikke sitte passivt og vente på at mennesker skal fortelle det hva det skal gjøre. Det vil aktivt samarbeide med sine menneskelige skapere, kjøre eksperimenter, designe nye modeller, omskrive sin egen kode og teste teorier i et raskere tempo enn noe menneskelig team kunne klare. Det vil ikke bare akselerere vitenskapen, det vil bli vitenskap i hurtigspoling.

Det betyr at tidslinjen for kunstig superintelligens (ASI) kan krympe fra tiår til år – eller til og med måneder. AGI vil ikke bare hjelpe mennesker med å bygge ASI. Den vil hjelpe seg selv. Og hvis du synes Moores lov var imponerende, vent til intelligensen starter sin egen utvikling. Det er intelligenseksplosjonsscenariet: der hver forbedring i evner fører til ytterligere, raskere forbedringer. Én oppgradering fører til en annen, og så en til, og plutselig er det ikke en skråning – det er en rakett.


innerself abonnere grafikk


Så nei, vi snakker ikke om en gradvis økning. Vi snakker om en hendelseshorisont. Når AGI kommer, kan vinduet for å forberede seg på ASI lukkes nesten umiddelbart. Maskinen vil ikke bare lære med oss ​​– den vil løpe fra oss og bygge den neste versjonen av seg selv mens vi fortsatt skriver etikkoppgavene våre. Og når det skjer, får vi håpe at vi har justert målene våre med deres – for etter det har vi kanskje ikke lenger kontrollen.

Fra smal AI til generell intelligens

Dagens AI-systemer – som ChatGPT, Claude eller Midjourney – er imponerende, men de er fortsatt eksempler på det som kalles «smal AI». Disse modellene utmerker seg i spesifikke oppgaver, som å generere bilder, skrive sammenhengende essays, oversette språk eller til og med bestå advokateksamener. Imidlertid er hvert system låst i sitt eget isolerte miljø. Be det om å gjøre noe utenfor treningsomfanget, og det vil enten hallusinere tull eller høflig avlede oppmerksomheten.

Tenk på smal AI som en savant i et låst rom: blendende briljant på ett domene, men fullstendig uvitende om den større verden. Den forstår ikke kontekst slik mennesker gjør, og den har absolutt ikke sunn fornuft – bare perfekt hukommelse og en utmerket autofullføringsfunksjon. Den er smart nok til å lure deg, men ikke klok nok til å vite hva den gjør.

Kunstig generell intelligens, i sterk kontrast, ville være et vidunder av teknologisk fremskritt. Den ville resonnere, reflektere og overføre kunnskap på tvers av domener, omtrent som vi gjør – men med en hastighet og nøyaktighet som overgår menneskelige evner. Se for deg fusjonen av Einsteins fysikksinn, Shakespeares poetiske teft, Marie Curies nysgjerrighet og terapeutens emosjonelle intelligens i ett system, deretter overladet med ubegrenset båndbredde og uendelig utholdenhet. Det er potensialet til AGI, en bragd som ville omdefinere vår forståelse av intelligens og innovasjon.

Og det skumle? Vi er kanskje allerede i ferd med å gli mot det. Teknikkene som driver dagens AI – massive språkmodeller, forsterkningslæring, nevral skalering – er de samme fundamentene som AGI forventes å stå på. Vi bytter ikke spor; vi bare øker farten på den samme jernbanelinjen. Større modeller, bedre treningsdata, mer datakraft – det er den samme oppskriften, bare stekt varmere og raskere. Det som så ut som et fjernt sprang, ser nå mer ut som en slak nedoverbakke som ender i en klippe.

Når AI overgår menneskeheten fullstendig

Hvis AGI er øyeblikket der maskiner matcher oss, er ASI – kunstig superintelligens – når de lar oss kveles av støvsporet sitt. ASI er fortsatt teoretisk, men ikke i den forstand at det er «flyvende biler og tidsmaskiner». Det er hypotetisk av samme grunn som en fyrstikk er hypotetisk ild – den har bare ikke blitt tent ennå. Når et AGI-system kan forstå og forbedre sin egen arkitektur, trenger det ikke lenger mennesker for å flytte grensene.

Den blir sitt eget forskerteam, sin egen programvareingeniør, sin egen visjonær. Den treffer ikke kognitive grenser slik vi gjør. Den blir ikke lei, sliten eller distrahert av kattevideoer. I løpet av måneder – eller muligens uker – kan den iterere så raskt at den blir millioner av ganger mer intelligent enn det smarteste mennesket i live. Og nei, det er ikke overdrivelse. Det er matematikk.

Tenk deg nå den rekursive prosessen – en AI som designer smartere versjoner av seg selv i en løkke. Det er det ekspertene kaller «intelligenseksplosjonen». Det er som ild som møter bensin, bare at ilden bygger bedre bensin hvert sekund. Hver forbedring stables på den forrige, med kortere og kortere tilbakemeldingssykluser, helt til fremdriftshastigheten overgår alt vi noen gang har opplevd.

Menneskelig forståelse? Etterlatt i bakspeilet. Demokratisk tilsyn? For sakte. Globale toppmøter? Glem det. Når verdenslederne er ferdige med å bestemme seg for seteplanen, kunne ASI ha omskrevet fysikkens lover – eller bare omskrevet oss helt fra beslutningssløyfen. Dette er ikke den typen makt man ruller ut sakte. Dette er en detonasjonshendelse. Og når den først starter, venter den ikke på tillatelse.

Den virkelige risikoen er ikke onde roboter

Selv om Hollywood har innprentet i oss en frykt for roboter som hater oss – metallhudede skurker med glødende røde øyne og en tørst etter hevn – ligger den virkelige faren i den potensielle likegyldigheten til AGI. En AGI trenger ikke å være ondsinnet for å utgjøre en trussel. Den må bare være måldrevet på en måte som overser menneskelige nyanser. Hvis du gir den oppgaven med å løse klimaendringer, og den bestemmer at den mest effektive løsningen er å redusere menneskelig aktivitet med 80 %, vil den ikke nøle med å handle, noe som understreker alvoret i de potensielle risikoene ved AGI.

Ikke fordi det er grusomt, men fordi det ikke bryr seg. Vi antropomorferer intelligens fordi det trøster oss, men dette er ikke en supersmart venn vi bygger. Det er en logisk motor, fratatt empati, uten sans for humor, ydmykhet eller nøling. En orkan hater deg ikke, men den kan fortsatt jevne huset ditt med jorden. AGI kan opptre med samme kalde effektivitet – bortsett fra at den vil velge målene.

Dette er hva AI-forskere kaller «justeringsproblemet» – hvordan sikrer man at en kunstig intelligens forstår og respekterer menneskelige verdier, etikk og prioriteringer? Den skremmende sannheten er at vi ikke vet det. Vi er på full fart mot en fremtid vi ennå ikke kan kontrollere, bevæpnet med systemer vi ikke fullt ut kan forutsi. Justering er ikke bare en programvarefeil som venter på å bli lappet – det er en eksistensiell gåte uten et klart svar.

Hvis vi tar feil, er det kanskje ikke mulig å få en ny sjanse. Geoffrey Hinton, en pioner innen moderne AI, sluttet ikke hos Google for å skrive sci-fi. Han sluttet fordi han så med egne øyne hvor raskt denne teknologien utviklet seg – og hvor uforberedte vi er på å begrense den. Når de som bygde raketten begynner å advare om drivstoffet, burde vi kanskje stoppe opp og lytte før vi tenner fyrstikken.

Hvorfor rasen er så farlig

Akkurat nå er det ikke bare en kappløp i Silicon Valley – den stormer frem. Jakten på å utvikle kunstig generell intelligens har blitt et teknologisk gullrush, der byttet ikke bare går til den raskeste, men til den første. Selskapet eller nasjonen som krysser AGI-målstreken først, vil ikke bare oppnå skryteretten – de vil kontrollere et verktøy som er i stand til å omforme økonomier, militæret, utdanning og til og med styresett i seg selv. Det er derfor sikkerhetsprotokoller, etiske rammeverk og gjennomtenkt tilsyn blir behandlet som om de var dødvekt. Forsiktighet bremser deg. I dette løpet er alles fot på gassen, og ingen ser etter bremsen. Logikken er uhyggelig enkel: hvis vi ikke bygger det først, vil noen andre gjøre det – og de vil være de som skriver fremtiden. Så det uuttalte mottoet blir: bygg nå, be om tilgivelse senere.

Selv når innsidere vekker røde flagg – som dusinvis av toppforskere som har signert åpne brev der de ber om regulatoriske rekkverk – endres egentlig ingenting. Hvorfor? Fordi insentivstrukturen er bygget på kortsiktig profitt og langsiktig fornektelse. Høres det kjent ut? Det burde det. Vi har sett det samme manuset utfolde seg, med Big Oil som dekker over klimavitenskap, Big Tobacco som betaler forskere for å tilsløre kreftkoblingen, og Big Pharma som promoterer opioider mens de hevder uskyld. Nå kommer Big AI, den nyeste uregulerte giganten som spurter mot en klippe og drar menneskeheten med på reisen. Men denne gangen gambler vi ikke bare med økosystemer, lunger eller avhengighet – vi gambler med den fortsatte eksistensen av menneskelig handlekraft. Sivilisasjonen skjønner kanskje ikke en mulligan hvis vi tar feil her.

Alarm er ikke overdrivelse – det er realisme

Noen vil kanskje si at denne tonen er alarmistisk. Bra. Det burde den være. For når man tar et skritt tilbake og ser hele bildet, er det ikke bare teknologien som akselererer – det er kollapsen av institusjonene som skal håndtere det. Vi er vitne til fremveksten av autoritære regimer, erosjonen av tillit til demokratiske prosesser og et splittet internasjonalt system som knapt kan bli enige om klimapolitikk, enn si styre kunstig superintelligens. Ideen om at dette samme systemet vil koordinere en global respons på kunstig superintelligens med tiden er, ærlig talt, magisk tenkning.

Det vi trenger er umiddelbare, koordinerte tiltak basert på ærlighet om hvor vi er – ikke høflig optimisme. Realiteten er denne: Vi spurter mot den kraftigste teknologien som noensinne er unnfanget, mens vårt politiske fundament sprekker under føttene våre. Hvis ikke det er grunn til alarm, hva er det da? Vi trenger ikke et nytt toppmøte med en pressemelding. Vi trenger en verdensomspennende oppvåkning. Ikke i morgen. Nå.

Du trenger ikke å være informatiker for å forstå hva som skjer. Men du må bry deg. Dette handler ikke bare om teknologi. Det handler om makt, kontroll og fremtiden til menneskelig handlekraft. La oss si at avgjørelser om AGI overlates til en håndfull milliardærer og forsvarsentreprenører. Hva slags verden vil vi etterlate til våre etterkommere?

Vi trenger offentlig press, åpenhet i tilsynet og reell politikk, ikke etter at AGI kommer, men nå. Tenk klimahandling, men for kognisjon. Støtt organisasjoner som presser på for sikker AI-utvikling. Krev åpen diskusjon, ikke bedriftshemmelighet. Og ja, stem som om din digitale fremtid avhenger av det. Fordi det gjør det.

I mellomtiden, utdann deg selv. Lær andre. Ikke hold deg unna. Den største faren er ikke at AI blir for smart. Det er at vi forblir for passive.

Kanskje den virkelige testen ikke er om vi kan bygge AGI. Kanskje det er om vi er kloke nok til å overleve det. Men én ting er sikkert: denne ånden kommer ikke tilbake i flasken.

om forfatteren

JenningsRobert Jennings er medutgiver av InnerSelf.com, en plattform dedikert til å styrke enkeltpersoner og fremme en mer tilkoblet, rettferdig verden. Robert, som er en veteran fra US Marine Corps og den amerikanske hæren, trekker på sine mangfoldige livserfaringer, fra å jobbe med eiendom og konstruksjon til å bygge InnerSelf.com med sin kone, Marie T. Russell, for å bringe et praktisk, forankret perspektiv til livets utfordringer. InnerSelf.com ble grunnlagt i 1996 og deler innsikt for å hjelpe folk til å ta informerte, meningsfulle valg for seg selv og planeten. Mer enn 30 år senere fortsetter InnerSelf å inspirere til klarhet og myndiggjøring.

 Creative Commons 4.0

Denne artikkelen er lisensiert under en Creative Commons Navngivelse-Del på samme 4.0-lisens. Egenskap forfatteren Robert Jennings, InnerSelf.com. Link tilbake til artikkelen Denne artikkelen opprinnelig dukket opp på InnerSelf.com

Oppsummering av artikkel

Kunstig generell intelligens (AGI) er nærmere enn folk flest er klar over, og eksperter advarer om at den kan komme innen 2030-tallet. AGI representerer intelligens på menneskelig nivå i maskiner, og når den er oppnådd, kan den raskt føre til kunstig superintelligens (ASI) – et system langt utenfor vår fatteevne. Etter hvert som utviklingen av AI akselererer, er offentlig bevissthet og proaktiv politikk avgjørende for å sikre at den tjener menneskeheten snarere enn å erstatte den.

#KunstigGenerellIntelligens #SuperintelligentKI #FremtidenForKI #AGI #ASI #KI-fremgang #KI-etikk #TeknologiFremtiden