AI kan forutsi om ditt forhold vil være basert på hvordan du snakker med partneren din

AI kan forutsi om ditt forhold vil være basert på hvordan du snakker med partneren din

Et hvilket som helst barn (eller ektefelle) som har blitt skjørt for sin tonefølge - som å rope eller være sarkastisk - vet at måte du snakker til noen kan være like viktig som ord som du bruker. Stemmekunstnere og skuespillere gjør stor nytte av dette - de er dyktige til å gi mening på måten de snakker, noen ganger mye mer enn ordene alene ville fortjener.

Men hvor mye informasjon blir båret i stemmen vår og samtalemønstre, og hvordan påvirker det våre forhold til andre? Beregningssystemer kan allerede etablere hvem folk er fra deres stemmer, så kan de også fortelle oss noe om vårt kjærlighetsliv? Utrolig, det virker som det.

Ny forskning, nettopp publisert i tidsskriftet PLOS-ONE, har analysert stemmegenskapene til 134 par som gjennomgår behandling. Forskere fra Universitetet i Sør-California brukte datamaskiner til å trekke ut standard taleanalysefunksjoner fra opptak av behandlingsmøter over to år. Funksjonene - inkludert tonehøyde, variasjon i tonehøyde og intonasjon - alt relaterer til stemmeaspekter som tone og intensitet.

En maskinlæringsalgoritme ble deretter trent til å lære et forhold mellom de vokale egenskapene og det endelige resultatet av terapien. Dette var ikke så enkelt som å oppdage rop eller hevet stemme - det inkluderte samspillet av samtale, som snakket når og for hvor lenge og lyden av stemmen. Det viste seg å ignorere hva som ble sagt, og vurderer bare disse mønstrene for å snakke var tilstrekkelig til å forutsi om par ville forbli sammen. Dette var rent data-drevet, så det relaterte ikke utfall til bestemte stemmeattributter.

Hvordan en tone i stemmen kan endre betydningen av noen få ord.

Interessant nok ble de fulle videoopptakene av terapisesjonen gitt til eksperter for å klassifisere. I motsetning til AI, gjorde de sine spådommer ved hjelp av psykologisk vurdering basert på vokale (og andre) attributter - inkludert ordene talte og kroppsspråk. Overraskende var deres prediksjon om det endelige resultatet (de var korrekte i 75.6% av tilfellene) dårligere enn spådommer som ble gjort av AI basert bare på vokale egenskaper (79.3%). Det er tydeligvis elementer kodet på måten vi snakker om at ikke engang eksperter er klar over. Men de beste resultatene kom fra å kombinere den automatiserte vurderingen med eksperternes vurdering (79.6% korrekt).


Få det siste fra InnerSelf


Betydningen av dette handler ikke så mye om å involvere AI i ekteskapsrådgivning eller å få par til å snakke mer pent til hverandre (men verdig det ville være). Betydningen er å avsløre hvor mye informasjon om våre underliggende følelser er kodet i måten vi snakker om - noe av det helt ukjent for oss.

Ord skrevet på en side eller en skjerm har leksikalske betydninger utledet fra ordbokdefinisjonene. Disse endres av konteksten til omgivende ord. Det kan være stor kompleksitet skriftlig. Men når ord leses høyt, er det sant at de tar på seg flere betydninger som blir formidlet av ordspenning, volum, talegrad og tonefølge. I en typisk samtale er det også meningen i hvor lenge hver høyttaler snakker om, og hvor raskt en eller annen kan interjectere.

Tenk på det enkle spørsmålet "Hvem er du?". Prøv å snakke dette med stress på forskjellige ord; "Hvem er du?", "Hvem det har du og "Hvem er du?". Lytt til disse - Den semantiske betydningen kan forandre seg med hvordan vi leser selv når ordene forblir de samme.

Datamaskiner som leser "lekkende sanser"?

Det er ikke overraskende at ordene formidler forskjellige betydninger avhengig av hvordan de blir snakket. Det er også overraskende at datamaskiner kan tolke noe av betydningen bak hvordan vi velger å snakke (kanskje en dag vil de selv kunne forstå ironi).

Men denne undersøkelsen tar saken videre enn bare å se på meningen med en setning. Det ser ut til å avsløre underliggende holdninger og tanker som ligger bak setningene. Dette er et mye dypere forståelsesnivå.

Terapideltakerne leste ikke ord som skuespillere. De snakket bare naturlig - eller så naturlig som de kunne på en terapeutens kontor. Og likevel avslørte analysen informasjon om deres felles følelser at de "lekker" utilsiktet inn i talen deres. Dette kan være en av de første trinnene i å bruke datamaskiner for å bestemme hva vi egentlig tenker eller føler. Tenk deg et øyeblikk å snakke med fremtidige smarttelefoner - vil vi "lekke" informasjon som de kan hente? Hvordan vil de svare?

Kan de gi oss råd om potensielle partnere ved å lytte til oss å snakke sammen? Kan de oppdage tilbøyelighet til antisosial atferd, vold, depresjon eller andre forhold? Det ville ikke være et sprang av fantasi å forestille seg enheter seg selv som fremtidige terapeuter - samhandle med oss ​​på ulike måter for å spore effektiviteten av inngrep som de leverer.

Ikke bekymre deg ennå, fordi vi er år borte fra en slik fremtid, men det øker privatlivs problemer, spesielt når vi samhandler dypere med datamaskiner samtidig som de blir kraftigere når de analyserer verden rundt dem.

Den ConversationNår vi pause også å vurdere de andre menneskelige sansene bortsett fra lyd (tale); kanskje lekker vi også informasjon gjennom synet (som kroppsspråk, rødme), berøring (temperatur og bevegelse) eller til og med lukt (feromoner). Hvis smarte enheter kan lære så mye ved å lytte til hvordan vi snakker, undrer man seg hvor mye mer kan de skille fra de andre sansene.

Om forfatteren

Ian McLoughlin, professor i databehandling, skolens leder (medway), University of Kent

Denne artikkelen ble opprinnelig publisert på Den Conversation. Les opprinnelige artikkelen.

Relaterte bøker:

{amazonWS: searchindex = Bøker; søkeord = vellykkede forhold; maxresultater = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

følg InnerSelf på

facebook-ikonettwitter-iconrss-ikonet

Få den siste via e-post

{Emailcloak = off}