Daboost / Shutterstock

Med nylig oppsigelse og rask gjenansetting av Sam Altman av OpenAI, er debatter rundt utvikling og bruk av kunstig intelligens (AI) igjen i søkelyset. Det som er mer uvanlig er at et fremtredende tema i medierapportering har vært evnen til AI-systemer for å gjøre matematikk.

Tilsynelatende var noe av dramaet på OpenAI knyttet til selskapets utvikling av en ny AI-algoritme kalt Q*. Systemet har blitt omtalt som et betydelig fremskritt, og en av dets fremtredende funksjoner var evnen til å resonnere matematisk.

Men er ikke matematikk grunnlaget for AI? Hvordan kan et AI-system ha problemer med matematisk resonnement, gitt at datamaskiner og kalkulatorer kan utføre matematiske oppgaver?

AI er ikke en enkelt enhet. Det er et lappeteppe av strategier for å utføre beregninger uten direkte instruksjoner fra mennesker. Som vi skal se, er noen AI-systemer kompetente i matematikk.

En av de viktigste nåværende teknologiene, de store språkmodellene (LLM) bak AI chatbots som ChatGPT, har imidlertid slitt med å etterligne matematisk resonnement. Dette er fordi de er designet for å konsentrere seg om språk.


innerself abonnere grafikk


Hvis selskapets nye Q*-algoritme kan løse usynlige matematiske problemer, kan det godt være det være et betydelig gjennombrudd. Matematikk er en eldgammel form for menneskelig resonnement store språkmodeller (LLMs) har så langt slitt med å etterligne. LLM er teknologien som ligger til grunn for systemer som f.eks OpenAIs ChatGPT.

I skrivende stund er detaljene i Q*-algoritmen og dens muligheter begrenset, men svært spennende. Så det er forskjellige finesser å vurdere før du anser Q* som en suksess.

For eksempel er matematikk et fag som alle engasjerer seg i i ulik grad, og nivået på matematikk Q* er kompetent på er fortsatt uklart. Imidlertid har det blitt publisert akademisk arbeid som bruker alternative former for AI for å fremme matematikk på forskningsnivå (inkludert noen skrevet av meg selv, og en skrevet av et team av matematikere i samarbeid med forskere ved Google DeepMind).

Disse AI-systemene kan beskrives som kompetente i matematikk. Det er imidlertid sannsynlig at Q* ikke brukes til å hjelpe akademikere i arbeidet deres, men er ment for et annet formål.

Likevel, selv om Q* ikke er i stand til å flytte grensene for banebrytende forskning, er det høyst sannsynlig en viss betydning å finne i måten den har blitt bygget på som kan øke fristende muligheter for fremtidig utvikling.

Stadig mer behagelig

Som samfunn er vi stadig mer komfortable med spesialist-AI som brukes til å løse forhåndsbestemte typer problemer. For eksempel, digitale assistenter, ansiktsgjenkjenningog online anbefalingssystemer vil være kjent for de fleste. Det som forblir unnvikende er en såkalt "kunstig generell intelligens" (AGI) som har brede resonneringsevner som kan sammenlignes med et menneskes.

Matematikk er en grunnleggende ferdighet som vi ønsker å lære bort til alle skolebarn, og vil garantert kvalifisere som en grunnleggende milepæl i søket etter AGI. Så hvordan skulle ellers matematisk kompetente AI-systemer være til hjelp for samfunnet?

Den matematiske tankegangen er relevant for en rekke applikasjoner, for eksempel koding og ingeniørkunst, og derfor er matematisk resonnement en viktig overførbar ferdighet for både menneskelig og kunstig intelligens. En ironi er at AI på et grunnleggende nivå er basert på matematikk.

For eksempel koker mange av teknikkene implementert av AI-algoritmer til slutt ned til et matematisk område kjent som matrise algebra. En matrise er ganske enkelt et rutenett av tall, som et digitalt bilde er et kjent eksempel på. Hver piksel er ikke noe mer enn numeriske data.

Store språkmodeller er også i seg selv matematiske. Basert på et stort utvalg av tekst, kan en maskin lære sannsynlighetene for ordene som er mest sannsynlig følger en forespørsel (eller spørsmål) fra brukeren til chatboten. Hvis du vil at en forhåndsutdannet LLM skal spesialisere seg i et bestemt emne, kan den finjusteres på matematisk litteratur eller et hvilket som helst annet læringsdomene. En LLM kan generere tekst som leser som om den forstår matematikk.

Dessverre produserer dette en LLM som er god til å bløffe, men dårlig på detaljer. Problemet er at en matematisk utsagn per definisjon er en som kan tilordnes en entydig boolsk verdi (det vil si sant eller usant). Matematisk resonnement utgjør den logiske deduksjonen av nye matematiske utsagn fra de tidligere etablerte.

djevelens advokat

Naturligvis kommer enhver tilnærming til matematisk resonnement som er avhengig av språklige sannsynligheter til å kjøre utenfor banen. En vei rundt dette kan være å innlemme et eller annet system for formell verifisering i arkitekturen (nøyaktig hvordan LLM er bygget), som kontinuerlig sjekker logikken bak sprangene som den store språkmodellen gjør.

En anelse om at dette har blitt gjort kan være i navnet Q*, som plausibelt kan referere til en algoritme utviklet helt tilbake på 1970-tallet for å hjelpe til med deduktiv resonnement. Alternativt kan Q* referere til Q-læring, der en modell kan forbedres over tid ved å teste for og belønne konklusjoner som er riktige.

Men det er flere utfordringer med å bygge matematisk dyktige AI-er. For eksempel består noe av den mest interessante matematikken av svært usannsynlige hendelser. Det er mange situasjoner der man kan tro at det eksisterer et mønster basert på små tall, men det bryter uventet sammen når man sjekker nok saker. Denne egenskapen er vanskelig å integrere i en maskin.

En annen utfordring kan komme som en overraskelse: matematisk forskning kan være svært kreativ. Det må være, fordi utøvere må finne opp nye konsepter og likevel holde seg innenfor formelle regler for et eldgammelt emne.

Enhver AI-metodikk som kun er trent for å finne mønstre i eksisterende matematikk, kan antagelig aldri skape genuint ny matematikk. Gitt rørledningen mellom matematikk og teknologi, ser dette ut til å utelukke forestillingen om nye teknologiske revolusjoner.

Men la oss spille djevelens advokat et øyeblikk, og forestille oss om AI virkelig kan skape ny matematikk. Det tidligere argumentet mot dette har en feil, ved at det også kan sies at de beste menneskelige matematikerne også ble trent utelukkende på allerede eksisterende matematikk. Store språkmodeller har overrasket oss før, og vil gjøre det igjen.Den Conversation

Tom Oliver, foreleser, informatikk og ingeniørfag, University of Westminster

Denne artikkelen er publisert fra Den Conversation under en Creative Commons-lisens. Les opprinnelige artikkelen.