YouTubes algoritmer kan radikalisere mennesker - men det virkelige problemet er at vi ikke har noen anelse om hvordan de fungerer Herr Tempter / Shutterstock

Skaper YouTube ekstremister? EN fersk undersøkelse forårsaket argumenter blant forskere ved å hevde at algoritmene som driver nettstedet ikke hjelper å radikalisere folk ved å anbefale stadig mer ekstreme videoer, som har blitt foreslått i de senere år.

Oppgaven, som ble sendt inn i åpen tilgangsdagbok først mandag, men som ennå ikke er formelt fagfellevurdert, analyserte videoanbefalinger mottatt av forskjellige typer kanaler. Den hevdet at YouTubes algoritme favoriserer mainstream mediekanaler over uavhengig innhold, og konkluderte med at radikalisering har mer å gjøre med menneskene som lager skadelig innhold enn nettstedets algoritme.

Spesialister på feltet var raske inn svare på studien, med noen kritikk papirets metoder og andre som argumenterte for algoritmen var en av flere viktige faktorer og den datavitenskapen alene vil ikke gi oss svaret.

Problemet med denne diskusjonen er at vi egentlig ikke kan svare på spørsmålet om hvilken rolle YouTubes algoritme spiller i å radikalisere mennesker fordi vi ikke forstår hvordan den fungerer. Og dette er bare et symptom på et mye bredere problem. Disse algoritmene spiller en økende rolle i vårt daglige liv, men mangler noen form for åpenhet.

Det er vanskelig å argumentere for at YouTube ikke spiller noen rolle i radikalisering. Dette ble først påpekt av teknologisosiolog Zeynep Tufekci, som illustrerte hvordan anbefalte videoer gradvis driver brukere mot mer ekstremt innhold. Etter Tufekcis ord fører videoer om jogging til videoer om å kjøre ultramarathons, videoer om vaksiner fører til konspirasjonsteorier, og videoer om politikk fører til "Holocaust-fornektelser og annet urovekkende innhold".


innerself abonnere grafikk


Dette er også skrevet om i detalj av tidligere YouTube-ansatt Guillaume Chaslot som arbeidet med nettstedets anbefalingsalgoritme. Siden hun forlot selskapet, har Chaslot fortsatt forsøkt å komme med disse anbefalingene mer gjennomsiktig. Han sier at YouTube-anbefalingene er partiske mot konspirasjonsteorier og fakta unøyaktige videoer, som likevel får folk til å bruke mer tid på nettstedet.

Faktisk, maksimere våketid er hele poenget med YouTubes algoritmer, og dette oppfordrer videospillere til å kjempe for oppmerksomhet på noen måte som mulig. Selskapets rene mangel på åpenhet om nøyaktig hvordan dette fungerer gjør det nesten umulig å bekjempe radikalisering på nettstedet. Tross alt, uten åpenhet, er det vanskelig å vite hva som kan endres for å forbedre situasjonen.

YouTubes algoritmer kan radikalisere mennesker - men det virkelige problemet er at vi ikke har noen anelse om hvordan de fungerer Hvordan YouTubes algoritme fungerer forblir et mysterium. Hvem er Danny / Shutterstock

Men YouTube er ikke uvanlig i så måte. Mangel på åpenhet om hvordan algoritmer fungerer er vanligvis tilfelle når de brukes i store systemer, enten av private selskaper eller offentlige instanser. I tillegg til å bestemme hvilken video du vil vise deg neste gang, er maskinlæringsalgoritmer nå vant til plassere barn på skolene, bestemme fengselsstraff, fastslå kredittscore og forsikringssatser, samt skjebnen til innvandrere, jobbkandidater og universitetssøkere. Og vanligvis forstår vi ikke hvordan disse systemene tar sine beslutninger.

Forskere har funnet kreative måter å vise virkningen av disse algoritmene på samfunnet, enten ved å undersøke økning av reaksjonærretten eller spredning av konspirasjonsteorier på YouTube, eller ved å vise hvordan søkemotorer gjenspeiler de rasistiske skjevhetene av menneskene som skaper dem.

Maskinlæringssystemer er vanligvis store, komplekse og ugjennomsiktige. Passende nok blir de ofte beskrevet som svarte bokser, der informasjon går inn, og informasjon eller handlinger kommer ut, men ingen kan se hva som skjer i mellom. Dette betyr at ettersom vi ikke vet nøyaktig hvordan algoritmer som YouTube-anbefalingssystemet fungerer, vil prøve å finne ut hvordan nettstedet fungerer være å prøve å forstå en bil uten å åpne panseret.

Dette betyr igjen at å prøve å skrive lover for å regulere hva algoritmer skal eller ikke bør gjøre, blir en blind prosess eller prøving og feiling. Dette er hva som skjer med YouTube og med så mange andre maskinlæringsalgoritmer. Vi prøver å si noe om resultatene deres, uten en reell forståelse av hvordan de virkelig fungerer. Vi må åpne for disse patenterte teknologiene, eller i det minste gjøre dem transparente nok til at vi kan regulere dem.

Forklaringer og testing

En måte å gjøre dette på, er at algoritmer gir kontrafaktiske forklaringer sammen med beslutningene deres. Dette betyr å utarbeide minimumsforholdene som er nødvendige for at algoritmen skal ta en annen beslutning, uten å beskrive dens fulle logikk. For eksempel kan en algoritme som tar beslutninger om banklån gi en produksjon som sier at "hvis du var over 18 og ikke hadde noen tidligere gjeld, ville du ha akseptert banklånet ditt". Men dette kan være vanskelig å gjøre med YouTube og andre nettsteder som bruker anbefalingsalgoritmer, som i teorien en hvilken som helst video på plattformen kan anbefales når som helst.

Et annet kraftig verktøy er algoritmetesting og revisjon, noe som har vært spesielt nyttig i diagnostisering av partiske algoritmer. I en nylig sak oppdaget et profesjonelt selskap for gjenopptaksscreening at algoritmen var prioritere to faktorer som beste prediktorer for jobbprestasjoner: om kandidatens navn var Jared, og om de spilte lacrosse på videregående skole. Dette er hva som skjer når maskinen ikke overvåkes.

I dette tilfellet hadde resume-screening-algoritmen lagt merke til at hvite menn hadde en større sjanse for å bli ansatt, og hadde funnet korrelerende fullmaktskarakteristika (som å bli kalt Jared eller spille lacrosse) til stede i kandidatene som ble ansatt. Med YouTube kan algoritmerevisjon bidra til å forstå hva slags videoer som blir prioritert for anbefaling - og kanskje bidra til å avgjøre debatten om hvorvidt YouTube-anbefalinger bidrar til radikalisering eller ikke.

Å introdusere kontrafaktiske forklaringer eller bruke algoritme-revisjon er en vanskelig og kostbar prosess. Men det er viktig, fordi alternativet er verre. Hvis algoritmer ikke sjekkes og ureguleres, kan vi se et gradvis kryp av konspirasjonsteoretikere og ekstremister inn i våre medier, og oppmerksomheten vår kontrolleres av hvem som helst som kan produsere det mest lønnsomme innholdet.Den Conversation

om forfatteren

Chico Q. Camargo, postdoktor i datavitenskap, University of Oxford

Denne artikkelen er publisert fra Den Conversation under en Creative Commons-lisens. Les opprinnelige artikkelen.