Finne tillit og forståelse i autonome teknologierFoto av: Norbert Aepli, Sveits (Bruker: Noebu)

I 2016 gikk selvkjørende biler til vanlige. Ubers autonome kjøretøy ble allestedsnærværende i nabolag hvor jeg bor i Pittsburgh, og kort i San Francisco. US Department of Transportation utstedt ny regulatorisk veiledning for dem. utal~~POS=TRUNC papirer og kolonner diskutert hvordan selvkjørende biler bør løse etiske dilemmaer når ting går galt Og dessverre så 2016 også Første dødsfall som involverer et autonomt kjøretøy.

Autonome teknologier sprer seg raskt utover transportsektoren, inn i helsehjelp, avansert cyberdefense Til og med autonome våpen. I 2017 må vi avgjøre om vi kan stole på disse teknologiene. Det kommer til å bli mye vanskeligere enn vi kunne forvente.

Tillit er komplekst og variert, men også en viktig del av våre liv. Vi stoler ofte på teknologi basert på forutsigbarhet: Jeg stoler på noe hvis jeg vet hva det vil gjøre i en bestemt situasjon, selv om jeg ikke vet hvorfor. For eksempel stoler jeg på datamaskinen min fordi jeg vet hvordan den vil fungere, inkludert når den vil bryte ned. Jeg slutter å stole på om det begynner å oppføre seg annerledes eller overraskende.

I motsetning til dette er min tillit til min kone basert på forstå hennes tro, verdier og personlighet. Mer generelt betyr ikke mellommenneskelig tillit å vite nøyaktig hva den andre personen vil gjøre - min kone sikkert overrasker meg noen ganger! - men heller hvorfor de oppfører seg som de gjør. Og selvfølgelig kan vi stole på noen (eller noe) på begge måter, hvis vi vet både hva de skal gjøre og hvorfor.

Jeg har undersøkt mulige grunner for vår tillit til selvkjørende biler og annen autonom teknologi fra både etiske og psykologiske perspektiver. Disse er enheter, slik at forutsigbarhet kan virke som nøkkelen. På grunn av deres autonomi må vi imidlertid vurdere viktigheten og verdien - og utfordringen - å lære å stole på dem i den måten vi stoler på andre mennesker.


innerself abonnere grafikk


Autonomi og forutsigbarhet

Vi ønsker at våre teknologier, inkludert selvkjørende biler, skal oppføre oss på måter vi kan forutse og forventer. Selvfølgelig kan disse systemene være ganske følsomme for konteksten, inkludert andre kjøretøy, fotgjengere, værforhold og så videre. Generelt kan vi imidlertid forvente at en selvkjørende bil som gjentatte ganger plasseres i samme miljø, antas å oppføre seg på samme måte hver gang. Men i hvilken grad ville disse svært forutsigbare bilene være autonome, heller enn bare automatiske?

Det har vært mange forskjellig forsøk til definere autonomi, men alle har dette til felles: Autonome systemer kan ta sine egne (substantive) beslutninger og planer, og kan dermed fungere annerledes enn forventet.

Faktisk er en grunn til å benytte autonomi (som forskjellig fra automatisering) nettopp at disse systemene kan forfølge uventede og overraskende, men forsvarlige, handlingsplaner. For eksempel, DeepMind er AlphaGo vant det andre spillet i sin siste Go-serie mot Lee Sedol delvis på grunn av et trekk som ingen menneskelig spiller noensinne ville gjøre, men likevel var det rette trekket. Men de samme overraskelsene gjør det vanskelig å etablere forutsigbarhetsbasert tillit. Sterk tillit basert utelukkende på forutsigbarhet er uten tvil mulig bare for automatiserte eller automatiske systemer, nettopp fordi de er forutsigbare (forutsatt at systemet fungerer normalt).

Fryser overraskelser

Selvfølgelig overrasker andre mennesker oss ofte, og likevel kan vi stole på dem i en bemerkelsesverdig grad, til og med gi dem liv og død makt over oss selv. Soldater stoler på sine kamerater i komplekse, fiendtlige miljøer; en pasient stoler på sin kirurg for å akseptere en svulst; og i en mer verdslig vene, stoler min kone på meg å kjøre trygt. Denne mellommenneskelige tilliten gjør det mulig for oss å omfavne overraskelsene, så kanskje vi kunne utvikle noe som mellommenneskelig tillit til selvkjørende biler?

Generelt krever interpersonell tillit forståelse for hvorfor noen handlet på en bestemt måte, selv om du ikke kan forutsi den nøyaktige avgjørelsen. Min kone vet kanskje ikke nøyaktig hvordan jeg skal kjøre, men hun vet hva slags resonnement jeg bruker når jeg kjører. Og det er faktisk relativt lett å forstå hvorfor noen andre gjør noe, nettopp fordi vi alle tenker og begrunner omtrent samme, men med forskjellige "råvarer" - våre tro, ønsker og erfaringer.

Faktisk gjør vi kontinuerlig og ubevisst avledninger om andres tro og ønsker basert på deres handlinger, i stor grad ved å anta at de tenker, grunner og bestemmer seg omtrent som vi gjør. Alle disse konklusjonene og resonnementene som er basert på vår felles (menneskelige) kognisjon gjør det mulig for oss å forstå andres grunner, og derved bygge mellommenneskelig tillit over tid.

Tenker som folk?

Autonome teknologier - spesielt selvbilkjørte biler, tenker ikke og bestemmer seg som folk. Det har vært innsats, begge deler Past og nylig, å utvikle datasystemer som tenker og grunner som mennesker. Imidlertid har et konsekvent tema for maskinlæring i løpet av de siste to tiårene vært de enorme gevinster som nettopp er gjort ved ikke å kreve at våre kunstige intelligenssystemer opererer på menneskelige måter. I stedet har maskinlæringsalgoritmer og systemer som AlphaGo ofte vært i stand til overgå menneskelige eksperter ved å fokusere på spesifikke, lokaliserte problemer, og deretter løse dem ganske annerledes enn mennesker gjør.

Som et resultat kan forsøk på å tolke en autonom teknologi i form av menneskelig tro og ønsker, gå spektakulært galt. Når en menneskelig sjåfør ser en ball i veien, går de fleste av oss automatisk bremset betydelig, for å unngå å treffe et barn som kanskje jager etter det. Hvis vi kjører i en autonom bil og ser en ball i gaten, forventer vi at bilen skal gjenkjenne den, og være forberedt på å stoppe for å løpe barn. Bilen kan imidlertid bare se et hinder som unngås. Hvis det svirrer uten å bremse, kan menneskene ombord være forstyrret - og et barn kan være i fare.

Våre avledninger om "troen" og "begjærene" til en selvkjørende bil vil nesten sikkert være feil på viktige måter, nettopp fordi bilen ikke har noen menneskelig tro eller ønsker. Vi kan ikke utvikle mellommenneskelig tillit til en selvkjørende bil bare ved å se på den kjører, da vi ikke på riktig måte vil finne hvem bak handlingene sine.

Selvfølgelig kan samfunns- eller markedskunder insistere så mye at selvkjørende biler har menneskelige (psykologiske) egenskaper, akkurat slik at vi kunne forstå og utvikle mellommenneskelig tillit til dem. Denne strategien vil gi en helt ny mening til "menneskelig sentrert design, "Siden systemene ville være utformet spesielt, slik at deres handlinger kan tolkes av mennesker. Men det vil også kreve, inkludert roman algoritmer og teknikker i den selvdrevne bilen, som alle vil utgjøre en massiv forandring fra dagens forskning og utvikling strategier for selvkjørende biler og andre autonome teknologier.

Selvdrevne biler har potensial til radikalt å omforme vår transportinfrastruktur på mange fordelaktige måter, men bare hvis vi kan stole på dem nok til å faktisk bruke dem. Og ironisk nok er selve funksjonen som gjør bilkjørbare biler verdifulle - deres fleksible, autonome beslutningsprosesser på tvers av ulike situasjoner - akkurat det som gjør det vanskelig å stole på dem.

Den Conversation

authirhere

David Danks, professor i filosofi og psykologi, Carnegie Mellon University

Denne artikkelen ble opprinnelig publisert på Den Conversation. Les opprinnelige artikkelen.

Relaterte bøker:

at InnerSelf Market og Amazon