dype forfalskninger så tvil 4 14
 Teknologi som kan produsere deepfakes er allment tilgjengelig. (Shutterstock)

I begynnelsen av mars, a manipulert video av Ukrainas president Volodymyr Zelenskyy ble sendt. I den ba en digitalt generert Zelenskyy den ukrainske nasjonale hæren om å overgi seg. Videoen ble sirkulert på nettet, men ble raskt avkreftet som en deepfake - en hyperrealistisk, men falsk og manipulert video produsert ved hjelp av kunstig intelligens.

Mens russisk desinformasjon ser ut til å ha en begrenset innvirkning, illustrerte dette alarmerende eksemplet de potensielle konsekvensene av dype forfalskninger.

Imidlertid brukes deepfakes med suksess i hjelpeteknologi. For eksempel, personer som lider av Parkinsons sykdom kan bruke stemmekloning for å kommunisere.

Deepfakes brukes i utdanning: Det irlandbaserte talesynteseselskapet CereProc skapte en syntetisk stemme for John F. Kennedy, bringe ham tilbake til livet for å holde sin historiske tale.


innerself abonnere grafikk


Likevel har hver mynt to sider. Deepfakes kan være hyperrealistiske, og i utgangspunktet uoppdagelig av menneskelige øyne.

Derfor kan den samme stemmekloningsteknologien brukes til phishing, ærekrenkelse og utpressing. Når deepfakes bevisst utplasseres for å omforme opinionen, oppfordre til sosiale konflikter og manipulere valg, har de potensial til å undergrave demokratiet.

Forskere ved University of Washington produserte en deepfake av Barack Obama.

Skaper kaos

Deepfakes er basert på teknologi kjent som generative adversarielle nettverk der to algoritmer trener hverandre til å produsere bilder.

Selv om teknologien bak dype forfalskninger kan høres komplisert ut, er det en enkel sak å produsere en. Det er mange nettapplikasjoner som f.eks Ansiktsbytte og ZAO Deepswap som kan produsere dype forfalskninger i løpet av minutter.

Google Colaboratory – et online depot for kode på flere programmeringsspråk – inkluderer eksempler på kode som kan brukes til å generere falske bilder og videoer. Med denne tilgjengelige programvaren er det lett å se hvordan gjennomsnittsbrukere kan skape kaos med dype forfalskninger uten å innse de potensielle sikkerhetsrisikoene.

Populariteten til apper for ansiktsbytte og nettjenester som Dyp nostalgi vise hvor raskt og bredt deepfakes kan bli adoptert av allmennheten. I 2019, ca. 15,000 XNUMX videoer med dype falske bilder ble oppdaget. Og dette tallet forventes å øke.

Deepfakes er det perfekte verktøyet for desinformasjonskampanjer fordi de produserer troverdige falske nyheter som det tar tid å avsløre. I mellomtiden er skadene forårsaket av deepfakes - spesielt de som påvirker folks omdømme - ofte langvarige og irreversible.

Er det å se å tro?

Den kanskje farligste forgreningen av deepfakes er hvordan de egner seg til desinformasjon i politiske kampanjer.

Vi så dette da Donald Trump utpekte enhver lite flatterende mediedekning som "falske nyheter." Ved å anklage kritikerne for å sirkulere falske nyheter, var Trump i stand til å bruke feilinformasjon til forsvar for sine feilhandlinger og som et propagandaverktøy.

Trumps strategi lar ham opprettholde støtte i et miljø fylt med mistillit og desinformasjon ved å hevde "at sanne hendelser og historier er falske nyheter eller deepfakes».

Troverdigheten i myndigheter og media undergraves, skaper et klima av mistillit. Og med den økende spredningen av deepfakes, kan politikere lett nekte skyld i eventuelle nye skandaler. Hvordan kan noens identitet i en video bekreftes hvis de benekter det?

Å bekjempe desinformasjon har imidlertid alltid vært en utfordring for demokratier når de prøver å opprettholde ytringsfriheten. Human-AI-partnerskap kan bidra til å håndtere den økende risikoen for dype forfalskninger ved å la folk bekrefte informasjon. Det kan også vurderes å innføre ny lovgivning eller anvende eksisterende lover for å straffe produsenter av deepfakes for å forfalske informasjon og utgi seg for personer.

Tverrfaglige tilnærminger fra internasjonale og nasjonale myndigheter, private selskaper og andre organisasjoner er alle avgjørende for å beskytte demokratiske samfunn mot falsk informasjon.Den Conversation

Om forfatteren

Sze-Fung Lee, forskningsassistent, Institutt for informasjonsstudier, McGill University og Benjamin CM Fung, professor og Canada Research Chair i Data Mining for Cybersecurity, McGill University

Denne artikkelen er publisert fra Den Conversation under en Creative Commons-lisens. Les opprinnelige artikkelen.