Hvordan forskere forbereder seg på den kommende bølgen av Deepfake Propaganda
AI-drevne detektorer er de beste verktøyene for å oppdage AI-genererte falske videoer.
Washington Post via Getty Images

En undersøkende journalist mottar en video fra en anonym varsler. Det viser en presidentkandidat som innrømmer ulovlig aktivitet. Men er denne videoen ekte? I så fall ville det være store nyheter – livets scoop – og kan snu det kommende valget fullstendig. Men journalisten kjører videoen gjennom et spesialisert verktøy, som forteller henne at videoen ikke er som den ser ut til. Faktisk er det en "deepfake,” en video laget ved hjelp av kunstig intelligens med dyp læring.

Journalister over hele verden kan snart bruke et verktøy som dette. Om noen år kan et verktøy som dette til og med brukes av alle for å utrydde falskt innhold i deres sosiale medier.

As forskere som har studert deepfake-deteksjon og utvikle et verktøy for journalister, ser vi en fremtid for disse verktøyene. De vil imidlertid ikke løse alle problemene våre, og de vil bare være en del av arsenalet i den bredere kampen mot desinformasjon.

Problemet med deepfakes

De fleste vet at du ikke kan tro alt du ser. I løpet av de siste par tiårene har kunnskapsrike nyhetsforbrukere blitt vant til å se bilder manipulert med fotoredigeringsprogramvare. Videoer er imidlertid en annen historie. Hollywood-regissører kan bruke millioner av dollar på spesialeffekter for å lage en realistisk scene. Men å bruke deepfakes, kan amatører med noen få tusen dollar med datautstyr og noen uker å bruke, gjøre noe nesten like sant.


innerself abonnere grafikk


Deepfakes gjør det mulig å sette folk inn i filmscener de aldri var i – tror Tom Cruise spiller Iron Man – som gir underholdende videoer. Dessverre gjør det det også mulig å lage pornografi uten samtykke av personene som er avbildet. Så langt er disse menneskene, nesten alle kvinner, de største ofrene når deepfake-teknologi blir misbrukt.

Deepfakes kan også brukes til å lage videoer av politiske ledere som sier ting de aldri har sagt. Det belgiske sosialistpartiet ga ut en ikke-deepfake, men fortsatt falsk video av lav kvalitet President Trump fornærmet Belgia, som fikk nok av en reaksjon til å vise de potensielle risikoene ved dypforfalskninger av høyere kvalitet.

{vembed Y = poSd2CyDpyA}
Hany Farid fra University of California, Berkeley forklarer hvordan deepfakes lages.

Kanskje skumleste av alt, kan de brukes til å lage tvil om innholdet i ekte videoer, ved å antyde at de kan være deepfakes.

Gitt disse risikoene, ville det være ekstremt verdifullt å kunne oppdage dype forfalskninger og merke dem tydelig. Dette vil sikre at falske videoer ikke lurer publikum, og at ekte videoer kan mottas som autentiske.

Å oppdage forfalskninger

Deepfake-deteksjon som forskningsfelt ble startet litt over tre år siden. Tidlig arbeid fokuserte på å oppdage synlige problemer i videoene, som f.eks deepfakes som ikke blinket. Med tiden har imidlertid forfalskninger har blitt bedre på å etterligne ekte videoer og bli vanskeligere å få øye på for både mennesker og gjenkjenningsverktøy.

Det er to hovedkategorier for forskning på dypfalsk deteksjon. Den første involverer ser på oppførselen til folk i videoene. Tenk deg at du har mye video av noen kjente, for eksempel president Obama. Kunstig intelligens kan bruke denne videoen til å lære mønstrene hans, fra håndbevegelsene til pausene i tale. Det kan det da se en deepfake av ham og legg merke til hvor det ikke samsvarer med disse mønstrene. Denne tilnærmingen har fordelen av å muligens fungere selv om selve videokvaliteten i hovedsak er perfekt.

{vembed Y = gsv1OsCEad0}
SRI Internationals Aaron Lawson beskriver en tilnærming til å oppdage dype forfalskninger.

Andre forskere, inkludert teamet vårt, har vært fokusert på forskjeller Det alle deepfakes har sammenlignet med ekte videoer. Deepfake-videoer lages ofte ved å slå sammen individuelt genererte rammer for å danne videoer. Med det i betraktning, trekker teamets metoder ut de essensielle dataene fra ansiktene i individuelle bilder av en video og sporer dem deretter gjennom sett med samtidige bilder. Dette lar oss oppdage inkonsekvenser i informasjonsflyten fra en ramme til en annen. Vi bruker en lignende tilnærming for vårt falske lyddeteksjonssystem også.

Disse subtile detaljene er vanskelige for folk å se, men viser hvordan dype forfalskninger ikke er helt perfekt ennå. Detektorer som disse kan fungere for enhver person, ikke bare noen få verdensledere. Til syvende og sist kan det hende at begge typer deepfake-detektorer vil være nødvendige.

Nyere deteksjonssystemer fungerer veldig bra på videoer som er spesielt samlet for å evaluere verktøyene. Dessverre gjør selv de beste modellene det dårlig på videoer funnet på nettet. Å forbedre disse verktøyene for å være mer robuste og nyttige er det viktigste neste trinnet.

Hvem bør bruke deepfake-detektorer?

Ideelt sett bør et dypfalsk verifiseringsverktøy være tilgjengelig for alle. Imidlertid er denne teknologien i de tidlige stadier av utvikling. Forskere må forbedre verktøyene og beskytte dem mot hackere før de slipper dem bredt.

Samtidig er imidlertid verktøyene for å lage deepfakes tilgjengelige for alle som ønsker å lure publikum. Å sitte på sidelinjen er ikke et alternativ. For teamet vårt var den rette balansen å jobbe med journalister, fordi de er den første forsvarslinjen mot spredning av feilinformasjon.

Før de publiserer historier, må journalister bekrefte informasjonen. De har allerede velprøvde metoder, som å sjekke med kilder og få mer enn én person til å bekrefte nøkkelfakta. Så ved å legge verktøyet i hendene gir vi dem mer informasjon, og vi vet at de ikke vil stole på teknologien alene, gitt at den kan gjøre feil.

Kan detektorene vinne våpenkappløpet?

Det er oppmuntrende å se lag fra Facebook og Microsoft investere i teknologi for å forstå og oppdage deepfakes. Dette feltet trenger mer forskning for å holde tritt med fremdriften innen deepfake-teknologi.

Journalister og sosiale medieplattformer må også finne ut hvordan man best kan advare folk om dype forfalskninger når de blir oppdaget. Forskning har vist det folk husker løgnen, men ikke det faktum at det var løgn. Vil det samme være tilfelle for falske videoer? Bare å sette "Deepfake" i tittelen er kanskje ikke nok til å motvirke noen slags desinformasjon.

Deepfakes er kommet for å bli. Å administrere desinformasjon og beskytte publikum vil være mer utfordrende enn noen gang ettersom kunstig intelligens blir kraftigere. Vi er en del av et voksende forskningsmiljø som tar på seg denne trusselen, der påvisning er bare det første trinnet.Den Conversation

Om forfatterne

John Sohrawardi, doktorgrad i databehandling og informasjonsvitenskap, Rochester Institute of Technology og Matthew Wright, professor i datasikkerhet, Rochester Institute of Technology

Denne artikkelen er publisert fra Den Conversation under en Creative Commons-lisens. Les original Artikkel.