Hvordan kunstig intelligens kan gjøre oss bedre til å uttrykke oss selv

Hvordan kunstig intelligens kan gjøre oss bedre til å uttrykke oss selv
Shutterstock

Evnen til å argumentere, for å uttrykke vår resonnement mot andre, er en av de definerende egenskapene til hva det er å være menneske.

Argument og debatt danner hjørnesteinene til sivilisert samfunn og intellektuelt liv. Argumenteringsprosesser driver våre regjeringer, strukturerer vitenskapelig innsats og rammer religiøs tro. Så bør vi bekymre oss for at nye fremskritt innen kunstig intelligens tar skritt mot å utstyre datamaskiner med disse ferdighetene?

Som teknologien omdanner våre liv, blir vi alle vant til nye måter å jobbe og nye måter å samhandle på. Millennials har ikke kjent noe annet. Regjeringer og domstoler våkner opp til det potensialet som tilbys av teknologi for å engasjere borgere i demokratiske og juridiske prosesser. Noen politikere, individuelt, er mer foran spillet i å forstå den enorme rollen som sosiale medier spiller i valgprosesser. Men det er dype utfordringer.

Den ene er pent satt ut av Upworthy Konsernsjef Eli Pariser i sin TED-tale. I det forklarer han hvordan vi begynner å leve i "filterbobler": Det du ser når du søker et bestemt uttrykk på Google, er ikke nødvendigvis det samme som det jeg ser når jeg søker på samme term. Medieorganisasjoner fra Fox News til, sist, BBC, tilpasser innhold, med ID og login blir brukt til å velge hvilke historier som er mest fremtredende. Resultatet er at vi risikerer å låse oss selv i ekkokamre av likesinnede personer mens våre argumenter blir mer ensidige, mindre balansert og mindre forståelse av andre synspunkter.


TED / YouTube.

Hvorfor kritisk tenkning er kritisk

En annen bekymring er hvordan nyheter og informasjon, men stadig mer voluminøse, blir stadig mindre pålitelige - anklager og motklager av "falske nyheter"Er nå vanlig.

I møte med slike utfordringer er ferdigheter med kritisk tenkning viktigere nå enn de noen gang har vært - evnen til å dømme og vurdere bevis raskt og effektivt, å gå utenfor ekkokammeret og tenke på ting fra alternative synspunkter, for å integrere Informasjon, ofte i lag, balanserer argumenter på begge sider og når robuste, forsvarlige konklusjoner. Dette er argumentets ferdigheter som har vært gjenstand for faglig forskning i filosofi i mer enn 2,000 år siden Aristoteles.


Få det siste fra InnerSelf


De Senter for Argumentteknologi (ARG-tech) ved Universitetet i Dundee handler om å ta og utvide teorier fra filosofi, lingvistikk og psykologi som forteller oss om hvordan mennesker argumenterer, hvordan de er uenige og hvordan de når konsensus - og gjør disse teoriene et utgangspunkt for å bygge kunstig intelligens verktøy som modell, gjenkjenne, undervise og til og med ta del i menneskelige argumenter.

En av utfordringene for moderne forskning i området har fått nok data. AI teknikker som dyp læring krever store mengder data, nøye gjennomgåtte eksempler som kan bidra til å bygge robuste algoritmer.

Men å få slike data er veldig tøffe: Det tar høyt utdannede analytikere timevis med omhyggelig arbeid å forkaste det måten argumenter har blitt satt sammen fra bare noen få minutter av diskurs.

For mer enn 10 år siden, vendte ARG-tech til BBC Radio 4-programmet, Moral Maze, som et eksempel på "gullstandard" -debatten: Strenge, tett argument på følelsesmessige, aktuelle problemer, med forsiktig og målt moderering. Enorme verdifulle, matte dataene et program med empirisk begrunnet forskning i argumentteknologi.

Teknologien

Å arbeide med slike krevende data har medført at alt fra filosofisk teori til storskala datainfrastruktur er blitt testet. I oktober 2017 dro vi en pilot med BBC Radio Religion & Etikk-avdelingen for å distribuere to typer ny argumentteknologi.

Den første var et sett med "analytics". Vi startet med å bygge et enormt kart over hver Moral Maze-debatt, bestående av tusenvis av individuelle uttalelser og tusenvis flere sammenhenger mellom innholdet i alle disse uttalelsene. Hvert kart ble deretter oversatt til en serie infographics, ved hjelp av algoritmer for å bestemme de mest sentrale temaene (ved hjelp av noe som ligner Googles PageRank algoritme). Vi identifiserte automatisk de mest splittende problemene og hvor deltakerne sto, samt øyeblikkene i debatten da konflikten nådde kokepunkt, hvor godt støttede argumenter var, og så videre.

Resultatet, på bbc.arg.tech i forbindelse med Moral Maze presenterer for første gang en bevisbasert måte å forstå hva som virkelig skjer i en debatt.

Den andre var et verktøy kalt "debattant", Som lar deg ta rollen som stolen i Moral Maze og kjøre din egen versjon. Det tar argumenter som tilbys av hver deltaker, og lar deg navigere dem, følge din egen nese for et godt argument.

Debaterverktøyet lar deltakerne lede en debatt og teste sine ferdigheter. (Hvordan kan jeg gjøre oss bedre til å uttrykke oss selv)
Debaterverktøyet lar deltakerne lede en debatt og teste sine ferdigheter. BBC / Dundee University ARG-tech

Begge aspektene tar sikte på å gi innsikt og oppmuntre til bedre kvalitet, mer reflekterende argumentasjon. Den ene hånden tillater arbeidet sammendrag av hvordan å forbedre argumenteringsevner, drevet av bevis i dataene om hva som faktisk fungerer.

På den andre er muligheten til å undervise disse ferdighetene eksplisitt: a Test ditt argument prototype distribuert på BBC Taster-siden bruker eksempler fra moral labyrinten for å utforske et lite antall argumenteringsevner og lar deg pisse dine wits direkte mot maskinen.

Lag innsats

Til slutt er målet ikke å bygge en maskin som kan slå oss på et argument. Mye mer spennende er potensialet for at AI-programvare skal bidra til menneskelig diskusjon - å anerkjenne typer argumenter, kritisere dem, tilby alternative visninger og sonderende årsaker, er alle ting som nå er innenfor rekkevidde av AI.

Og det er her at den virkelige verdien ligger - å ha lag med argumenter, noen mennesker, noen maskiner, arbeider sammen for å håndtere krevende, komplekse situasjoner fra intelligensanalyse til bedriftsledelse.

Den ConversationSlike samarbeidende, "mixed-initiative" tankegangspersoner skal forandre måten vi tenker på å samhandle med AI - og forhåpentligvis forvandle våre kollektive resonnement evner også.

Om forfatteren

Chris Reed, professor i datavitenskap og filosofi, University of Dundee

Denne artikkelen ble opprinnelig publisert på Den Conversation. Les opprinnelige artikkelen.

Relaterte bøker:

{amazonWS: searchindex = Bøker; søkeord = kunstig intelligens for mennesker; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

følg InnerSelf på

facebook-ikonettwitter-iconrss-ikonet

Få den siste via e-post

{Emailcloak = off}