AI genererte bilder?

Selv om du tror du er god til å analysere ansikter, forskning viser mange mennesker kan ikke pålitelig skille mellom bilder av ekte ansikter og bilder som er datagenerert. Dette er spesielt problematisk nå som datasystemer kan lage realistiske bilder av mennesker som ikke eksisterer.

Nylig kom en falsk LinkedIn-profil med et datagenerert profilbilde på nyhetene fordi det med suksess knyttet til amerikanske tjenestemenn og andre innflytelsesrike individer på nettverksplattformen, for eksempel. Eksperter i kontraintelligens sier til og med at spioner rutinemessig lager fantomprofiler med slike bilder til hjemme på utenlandske mål over sosiale medier.

Disse dype forfalskningene blir utbredt i hverdagskulturen, noe som betyr at folk bør være mer bevisste på hvordan de brukes i markedsføring, reklame og sosiale medier. Bildene blir også brukt til ondsinnede formål, som politisk propaganda, spionasje og informasjonskrigføring.

Å lage dem involverer noe som kalles et dypt nevralt nettverk, et datasystem som etterligner måten hjernen lærer på. Dette er "trent" ved å eksponere det for stadig større datasett med ekte ansikter.

Faktisk er to dype nevrale nettverk satt opp mot hverandre, og konkurrerer om å produsere de mest realistiske bildene. Som et resultat blir sluttproduktene kalt GAN-bilder, der GAN står for Generative Adversarial Networks. Prosessen genererer nye bilder som statistisk ikke kan skilles fra treningsbildene.


innerself abonnere grafikk


I vår studie publisert i iScience, viste vi at en unnlatelse av å skille disse kunstige ansiktene fra den virkelige tingen har implikasjoner for vår online atferd. Vår forskning tyder på at de falske bildene kan erodere vår tillit til andre og i stor grad endre måten vi kommuniserer på nettet.

Mine kolleger og jeg fant ut at folk oppfattet GAN-ansikter som enda mer ekte ut enn ekte bilder av faktiske folks ansikter. Selv om det ennå ikke er klart hvorfor dette er, gjør dette funnet fremheve nylige fremskritt innen teknologien brukes til å generere kunstige bilder.

Og vi fant også en interessant kobling til attraktivitet: ansikter som ble vurdert som mindre attraktive, ble også vurdert som mer ekte. Mindre attraktive ansikter kan betraktes som mer typiske og det typiske ansiktet kan brukes som referanse som alle ansikter vurderes mot. Derfor vil disse GAN-ansiktene se mer ekte ut fordi de ligner mer på mentale maler som folk har bygget fra hverdagen.

Men å se disse kunstige ansiktene som autentiske kan også ha konsekvenser for de generelle tillitsnivåene vi utvider til en krets av ukjente mennesker - et konsept kjent som "sosial tillit".

Vi leser ofte for mye inn i ansiktene vi ser, og de førsteinntrykket vi danner styrer våre sosiale interaksjoner. I et andre eksperiment som utgjorde en del av vår siste studie, så vi at folk var mer sannsynlig å stole på informasjon formidlet av ansikter de tidligere hadde bedømt som ekte, selv om de var kunstig generert.

Det er ikke overraskende at folk setter mer tillit til ansikter de tror er ekte. Men vi fant ut at tilliten ble erodert når folk ble informert om den potensielle tilstedeværelsen av kunstige ansikter i nettinteraksjoner. De viste da lavere nivåer av tillit, totalt sett - uavhengig av om ansiktene var ekte eller ikke.

Dette resultatet kan betraktes som nyttig på noen måter, fordi det gjorde folk mer mistenksomme i et miljø der falske brukere kan operere. Fra et annet perspektiv kan det imidlertid gradvis erodere selve naturen til hvordan vi kommuniserer.

Generelt pleier vi å operere videre en standard antagelse om at andre mennesker i utgangspunktet er sannferdige og pålitelige. Veksten i falske profiler og annet kunstig nettinnhold reiser spørsmålet om hvor mye deres tilstedeværelse og vår kunnskap om dem kan endre denne «sannhetsstandard»-tilstanden, og til slutt erodere sosial tillit.

Endre våre standardinnstillinger

Overgangen til en verden hvor det som er ekte ikke kan skilles fra det som ikke er, kan også flytte kulturlandskapet fra å være først og fremst sannferdig til å være først og fremst kunstig og villedende.

Hvis vi regelmessig stiller spørsmål ved sannheten av det vi opplever på nettet, kan det kreve at vi omplasserer vår mentale innsats fra selve behandlingen av meldingene til behandlingen av budbringerens identitet. Med andre ord, den utbredte bruken av svært realistisk, men kunstig, nettinnhold kan kreve at vi tenker annerledes – på måter vi ikke hadde forventet.

I psykologi bruker vi et begrep kalt "reality monitoring" for hvordan vi korrekt identifiserer om noe kommer fra den ytre verden eller fra hjernen vår. Fremskrittet av teknologier som kan produsere falske, men likevel svært realistiske ansikter, bilder og videosamtaler betyr at virkelighetsovervåking må være basert på annen informasjon enn våre egne vurderinger. Det krever også en bredere diskusjon om hvorvidt menneskeheten fortsatt har råd til å misligholde sannheten.

Det er avgjørende for folk å være mer kritiske når de vurderer digitale ansikter. Dette kan inkludere å bruke omvendte bildesøk for å sjekke om bildene er ekte, være på vakt mot profiler på sosiale medier med lite personlig informasjon eller et stort antall følgere, og å være klar over potensialet for dypfalsk teknologi som kan brukes til ondsinnede formål.

Den neste grensen for dette området bør være forbedrede algoritmer for å oppdage falske digitale ansikter. Disse kan deretter bygges inn i sosiale medieplattformer for å hjelpe oss med å skille det ekte fra det falske når det kommer til ansikter til nye forbindelser.

Om forfatteren

Manos Tsakiris, professor i psykologi, direktør for Senter for følelsers politikk, Royal Holloway University of London

Denne artikkelen er publisert fra Den Conversation under en Creative Commons-lisens. Les opprinnelige artikkelen.