Facebooks problem er mer komplisert enn falske nyheter

I kjølvannet av Donald Trumps uventede seier, mange spørsmål har blitt reist om Facebooks rolle i Fremme av unøyaktig og svært partisan informasjon under presidentvalget og om denne falske nyheten påvirket valgets utfall.

Noen har nedspilt Facebooks innflytelse, inkludert CEO Mark Zuckerberg, som sa at det er "Ekstremt usannsynlig" den falske nyheten kunne ha svekket valget. Men spørsmål om det sosiale nettverkets politiske betydning fortjener mer enn å gi oppmerksomhet.

Gjør Facebook filtreringsalgoritmer forklar hvorfor så mange liberaler hadde feilplassert tillit til en Clinton-seier (ekko feilen gjort av Romney-supportere i 2012)? Og er Den falske nyheten blir sirkulert på Facebook Årsaken til at så mange Trump-supportere har påtegnet bevisbare falske uttalelser fra kandidaten?

Det populære hevdet at "filterbobler" er hvorfor falske nyheter trives på Facebook er nesten helt sikkert feil. Hvis nettverket oppmuntrer folk til å tro untruths - og det er en stor hvis - ligger problemet mer sannsynlig i hvordan plattformen samhandler med grunnleggende menneskelige sosiale tendenser. Det er langt vanskeligere å endre.

En misinformert publikum

Facebooks rolle i formidling av politiske nyheter er ubestridelig. I mai 2016, 44 prosent av amerikanerne sa at de fikk nyheter fra sosiale medier. Og utbredelsen av feilinformasjon formidlet gjennom Facebook er unektelig.


innerself abonnere grafikk


Det er trolig at mengden av falske nyheter på en plattform hvor så mange mennesker får sine nyheter, kan bidra til å forklare hvorfor så mange amerikanere er misinformert om politikken.

Men det er vanskelig å si hvor sannsynlig dette er. Jeg begynte å studere internettets rolle i å fremme falsk tro under 2008-valget, og la meg være oppmerksom på sosiale medier i 2012. I pågående forskning har jeg funnet lite konsekvent bevis på at sosial media bruk fremmer aksept av falske påstander om kandidatene, til tross for utbredelsen av mange usannheter. I stedet ser det ut til at i 2012, som i 2008, e-post fortsatte å være en unikt kraftig rørledning for løgner og konspirasjonsteorier. Sosiale medier hadde ingen pålitelig påviselig effekt på folks trosretning.

For et øyeblikk, la oss imidlertid anta at 2016 var forskjellig fra 2012 og 2008. (Valget var absolutt unikt i mange andre hilsener.)

Hvis Facebook fremmer en plattform der borgere er mindre i stand til å skille sannheten fra fiksjon, det ville utgjøre en alvorlig trussel mot det amerikanske demokratiet. Men navngi problemet er ikke nok. For å bekjempe strømmen av feilinformasjon gjennom sosiale medier, er det viktig å forstå hvorfor det skjer.

Ikke klandre filterbobler

Facebook vil at brukerne skal være engasjert, ikke overveldet, så det benytter proprietær programvare som filtrerer brukerens nyhetsfeeds og velger innholdet som vil vises. Risikoen ligger i hvordan denne skreddersydelsen er gjort.

Det er rikelig bevis at folk blir trukket til nyheter som bekrefter deres politiske synspunkt. Facebooks programvare lærer av brukernes tidligere handlinger; det prøver å gjette hvilke historier de sannsynligvis vil klikke på eller dele i fremtiden. Tatt til ekstrem, produserer dette en filterboble, der brukerne bare er utsatt for innhold som bekrefter sine forstyrrelser. Risikoen er da det filterbobler fremmer misforståelser ved å gjemme sannheten.

Klagen til denne forklaringen er åpenbare. Det er lett å forstå, så kanskje det blir enkelt å fikse. Bli kvitt personlige nyheter, og filtrer bobler er ikke mer.

Problemet med filterboblingsmetaforen er at det antas at folk er helt isolert fra andre perspektiver. Faktisk, mange studier ha vist at individer medie diett nesten alltid inneholder informasjon og kilder som utfordrer deres politiske holdninger. Og en studie av Facebook brukerdata fant at møter med tverrgående informasjon er utbredt. Med andre ord, er det usannsynlig å forholde seg til falsk tro, forklart av folks mangel på kontakt med mer nøyaktige nyheter.

I stedet er folks allerede eksisterende politiske identiteter dypt forme deres tro. Så selv når de står overfor samme informasjon, om det er en nyhetsartikkel eller en faktum sjekk, folk med ulike politiske orienteringer trekker ofte dramatisk forskjellig betydning.

Et tankeeksperiment kan hjelpe: Hvis du var en Clinton-supporter, var du klar over at den høyt respekterte prediksjonsstedet FiveThirtyEight ga Clinton bare en 71 prosent sjanse til å vinne? Disse oddsene er bedre enn en myntflip, men langt fra en sikker ting. Jeg mistenker at mange demokrater var sjokkert til tross for å se dette ubehagelige beviset. Faktisk, mange hadde vært kritiske for denne projeksjonen i dagene før valget.

Hvis du stemte for Trump, har du noen gang møtt bevis som bestrider Trumps påstand om at velgerbedrager er vanlig i USA? Fakturakontrollere og nyhetsorganisasjoner har dekket dette problemet i stor grad, og gir solid bevis for at kravet er usant. Imidlertid kan en Trump-supporter være uberørt: I en september 2016 avstemning, 90 prosent av Trump-støttespillerne sa at de ikke stole på faktakontrollere.

Facebook = sint partisans?

Hvis isolasjon fra sannheten virkelig er den viktigste kilden til unøyaktig informasjon, ville løsningen være åpenbar: Gjør sannheten mer synlig.

Dessverre er svaret ikke så enkelt. Som bringer oss tilbake til spørsmålet om Facebook: Finnes det andre aspekter av tjenesten som kan forvride brukerens tro?

Det vil være litt tid før forskerne kan svare på dette spørsmålet trygt, men som en som har studert hvordan de ulike måtene som andre internetteknologier kan få folk til å tro på falsk informasjon, er jeg forberedt på å tilby noen utdannede gjetninger.

Det er to ting vi allerede vet om Facebook som kan oppmuntre til spredning av falsk informasjon.

For det første er følelser smittsomme, og de kan spre seg på Facebook. En storskala studie har vist at små endringer i Facebook-brukerens nyhetsfeeds kan forme følelsene de uttrykker i senere innlegg. I den studien var de følelsesmessige endringene små, men det var også endringene i nyhetsmatingen som forårsaket dem. Tenk deg hvordan Facebook-brukere reagerer på utbredt beskyldninger av kandidateres korrupsjon, kriminelle handlinger og løgner. Det er ikke overraskende at nesten halvparten (49 prosent) av alle brukere beskrev politisk diskusjon om sosiale medier som "sint".

Når det gjelder politikk, er sinne en kraftig følelse. Det har vist seg å gjøre folk mer villig til å akseptere partisiske løgn og mer sannsynlig å poste og dele politisk informasjon, antagelig inkludert falske nyhetsartikler som styrker deres tro. Hvis Facebook-bruk gjør partisanene sint mens de også utsetter dem for partisan løgn, kan det være viktig å sikre at det finnes nøyaktig informasjon. Republikanske eller demokratiske, sint folk stoler på informasjon som gjør at deres side ser bra ut.

For det andre synes Facebook å styrke folks politiske identitet - fremme en allerede stor partisk oppdeling. Selv om Facebook ikke skjermer folk mot informasjon som de er uenige med, gjør det det sikkert lettere å finne likesinnede andre. Våre sosiale nettverk har en tendens til å inkludere mange mennesker som deler våre verdier og trosretninger. Og dette kan være en annen måte at Facebook forsterker politisk motiverte løgn. Tro tjener ofte en sosial funksjon, og hjelper folk å definere hvem de er og hvordan de passer i verden. Jo lettere det er for folk å se seg selv politisk, jo mer vedlagt er de til troen som bekrefter den identiteten.

Disse to faktorene - måten den sinne kan spre seg over Facebooks sosiale nettverk, og hvordan disse nettverkene kan gjøre individernes politiske identitet mer sentral for hvem de er - sannsynligvis forklarer Facebook-brukerens unøyaktige tro på en mer effektiv måte enn den såkalte filterboblen.

Hvis dette er sant, har vi en seriøs utfordring foran oss. Facebook vil trolig være overbevist om å endre sin filteralgoritme for å prioritere mer nøyaktig informasjon. Google har allerede foretatt en lignende innsats. Og nyere rapporter tyder på at Facebook kan være tar problemet mer seriøst enn Zuckerbergs kommentarer tyder på.

Men dette gjør ingenting for å takle de underliggende kreftene som forplanter og forsterker falsk informasjon: følelser og folket i dine sosiale nettverk. Det er heller ikke åpenbart at disse egenskapene til Facebook kan eller skal "korrigeres". Et sosialt nettverk uten følelser virker som en motsetning, og det er ikke noe som vårt samfunn bør omfavne, og politi som enkeltpersoner samhandler med.

Det kan være at Facebook aksjer noen av skylden for noen av løgnene som sirkulerte dette valgåret - og at de endret valgets løpetid.

Hvis det er sant, vil utfordringen være å finne ut hva vi kan gjøre med det.

Den Conversation

Om forfatteren

R. Kelly Garrett, Lektor i kommunikasjon, Ohio State University

Denne artikkelen ble opprinnelig publisert på Den Conversation. Les opprinnelige artikkelen.

Relaterte bøker

at InnerSelf Market og Amazon