Hvordan Uber og andre digitale plattformer kan lure oss ved hjelp av atferdsvitenskap

Hvordan Uber og andre digitale plattformer kan lure oss ved hjelp av atferdsvitenskap Din plassering er ikke alt den vet. AP Photo / Mary Altaffer

Ubers forretningsmodell er utrolig enkel: Det er en plattform som letter utveksling mellom mennesker. Og uber har vært utrolig vellykket på det, nesten eliminere transaksjonskostnadene of gjør forretninger i alt fra shuttling folk rundt i byen for å levere mat.

Hvis du bruker Uber - eller kanskje selv om du ikke gjør det - den kjenner en skattekiste av data om deg, inkludert din plassering, kjønn, brukerhistorie, kontakter, telefon batterinivå Til og med enten du er på vei hjem fra en nattstand. Det kan snart vite enten du er full eller ikke.

Mens det er skummelt nok, kombinere alle de dataene med Ubers kompetanse ved å analysere det gjennom linsen til atferdsvitenskap og du har et farlig potensial for å utnytte brukere til profitt.

Uber er nesten ikke alene. Vår forskning viser De største digitale plattformene - Airbnb, Facebook, eBay og andre - samler så mye data om hvordan vi lever, at de allerede har muligheten til å manipulere sine brukere i stor skala. De kan forutsi atferd og påvirke våre beslutninger om hvor du skal klikke, dele og bruke.

Mens de fleste plattformer ikke bruker alle disse evnene ennå, kan manipulering gjennom atferdspsykologiteknikker forekomme stille og etterlate lite spor. Hvis vi ikke etablerer regler for veien nå, vil det bli mye vanskeligere å oppdage og stoppe senere.

'Choice arkitektur'

En plattform kan være hvilken som helst plass som letter transaksjoner mellom kjøpere og selgere. Tradisjonelle eksempler inkluderer loppemarkeder og handelsgulv.

En digital plattform tjener samme formål, men gir eieren muligheten til å "formidle" sine brukere mens de bruker det - og ofte når de ikke er det. Dermed mener vi at det kan observere og lære en utrolig mengde informasjon om brukeradferd for å perfeksjonere hvilke atferdsforskere som kaller "valg arkitekturer, "Inkonsekvent designelementer ment å påvirke menneskelig atferd gjennom hvordan beslutninger presenteres.

Hvordan Uber og andre digitale plattformer kan lure oss ved hjelp av atferdsvitenskap Uber vet når telefonens batteri blir lavt. boyhey / Shutterstock.com

For eksempel, Uber har eksperimentert med drivere å bestemme de mest effektive strategiene for å holde dem på veien så lenge som mulig. Disse strategiene inkluderer å spille i kognitive forstyrrelser som tap aversjon og overvurdere lavt sannsynlighet hendelser, selv om en sjåfør knapt tjener nok penger til å gjøre det verdt henne. Drivere ende opp som gamblere på et kasino, oppfordret til å spille bare litt lengre til tross for oddsen.

Uber reagerte ikke umiddelbart på en forespørsel om kommentar.

Airbnb eksperimenterer også med sine brukere. Den har brukt atferdsvitenskap å få verter å senke sine priser og godta bestillinger uten å skille gjester - noe som skaper reelle risici for verter, spesielt når de deler sin egen leilighet.

Mens disse eksemplene virker relativt gunstige, demonstrerer de hvordan digitale plattformer er i stand til å stille systemer for å lede brukeres handlinger på potensielt manipulerende måter.

Og som plattformer vokser, blir de bare bedre valgarkitekter. Med sin IPO er stor innstrømning av investor penger til å finansiere flere data og atferdsvitenskap, Uber kunne bevege seg inn i farlig uetisk territorium - lett å forestille seg gitt sin tidligere praksis.

For eksempel, hvis appen gjenkjenner at du er full eller i et nabolag du sjelden reiser til - og en som viser datahow er høy i kriminalitet - det kan belaste deg med en høyere sats, da du vet at du ikke sannsynlig vil nekte.

Juridiske utfordringer

Og det er ikke all spekulasjon.

I et forsøk på å lure lovhåndhevelse forsøker å undersøke selskapet, uber faktisk funnet en måte å identifisere myndighetsregulatorer på prøver å bruke sin app og forhindret dem i å få rides.

Det er en grunnlag lovgivere og regulatorer har diskutert de vanskelige, sammenhengende roller av atferdsvitenskap og teknologi I mange år. Og noen selskaper, Uber spesielt har blitt undersøkt for en rekke dårlige forretningspraksis, fra diskriminering til misbruker brukerdata.

Men det meste av manipulasjonen vi har identifisert og bekymret for, er ikke uttrykkelig ulovlig. Og fordi regulatorer ofte ikke klarer å holde tritt med den stadig evolusjonerende bruken av teknologi og valgarkitektur, er det sannsynlig å forbli det.

Gitt fraværet av veldefinerte og håndhevbare advarsler, vil plattformsselskapers tilbøyelighet til å utnytte adferdsevitenskap på brukerens bekostning forbli stort sett ukontrollert.

En etisk kode

En løsning, etter vår oppfatning, er å etablere en etisk kode for plattformsbedrifter å følge. Og hvis de ikke godtar det, kan investorer, ansatte og brukere kreve det.

Siden midten av 20th century, skrevne koder for etisk oppførsel har vært en stift av amerikanske selskaper. De juridiske og medisinske yrker har stolt på dem forum årtusener. Og forskning tyder på De er effektive for å oppmuntre til etisk oppførsel hos bedrifter.

Vi har gjennomgått hundrevis av etiske koder, inkludert de som er rettet mot teknologi- og databehandlingsselskaper. Basert på vår forskning, oppfordrer vi digitale plattformer til å vedta fem etiske retningslinjer:

  1. Alt valg arkitektur ansatt på en plattform bør være helt gjennomsiktig. Plattformer bør avsløre når de bruker verktøyene for atferdsvitenskap for å påvirke brukerdrift

  2. Brukere bør kunne foreta valg på plattformen fritt og enkelt, og valgarkitekter bør begrense atferdsintervensjoner til påminnelser eller instruksjoner som er minst skadelige for brukerautonomi

  3. Plattformer bør unngå "nudging" brukere på måter som utnytter ubevisst og irrasjonell beslutningsprosess basert på impuls og følelser. Ny forskning viser at gjennomsiktig valgarkitektur kan fungere like bra

  4. Plattformer bør gjenkjenne den kraften de har og passe på ikke å utnytte markedene de har opprettet, blant annet ved å misbruke informasjonssymmetrier mellom seg selv og brukere eller motsette rimelige regler

  5. Plattformer bør unngå å bruke valgarkitektur som fraråder brukere å opptre i sine egne interesser. Som Nobelprisvinnende atferdsøkonom Richard Thaler sett det, vi burde bare "knuse for godt."

Big tech og atferdsvitenskap er nå integrert på måter som gjør bedrifter villig vellykket, fra summende tannbørster det gjør renser tennene dine virker givende til bruker tekster til å knuse fattige mødre til å bruke helsevesenet.

Selv om resultatene kan forbedre livene våre betydelig, gjør det også enklere enn noen gang for bedrifter å manipulere brukere for å forbedre sine bunnlinjer.Den Conversation

Om forfatterne

Abbey Stemler, adjunkt i handelslov og etikk, Indiana University; Joshua E. Perry, lektor i handelslov og etikk, Indiana University, og Todd Haugh, assisterende professor i forretningsrett og etikk, Indiana University

Denne artikkelen er publisert fra Den Conversation under en Creative Commons-lisens. Les opprinnelige artikkelen.

Relaterte bøker

{amazonWS: searchindex = Bøker; søkeord = digitalt privatliv; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

følg InnerSelf på

facebook-ikonettwitter-iconrss-ikonet

Få den siste via e-post

{Emailcloak = off}