3 måter Facebook kan redusere falske nyheter

3 måter Facebook kan redusere falske nyheter

Publikum får mye av det nyheter og informasjon fra Facebook. Noen av det er falsk. Det gir et problem for nettstedets brukere, og for selskapet selv.

Facebook cofounder og formann Mark Zuckerberg sa selskapet vil finne måter å løse problemet på, selv om han ikke anerkjente sin alvorlighetsgrad. Og uten tilsynelatende ironi gjorde han denne kunngjøringen i en Facebook post omgitt - i hvert fall for noen seere - av falske nyhetsartikler.

Andre teknologier - første bedrifter med lignende makt over hvordan publikum informerer seg selv, som Google, har jobbet hardt gjennom årene til demote informasjon av lav kvalitet i søkeresultatene. Men Facebook har ikke gjort lignende trekk for å hjelpe brukerne.

Hva kan Facebook gjøre for å møte sin sosiale forpliktelse til å sortere fakta fra fiksjon til 70 prosent av internettbrukere Hvem får tilgang til Facebook? Hvis nettstedet er i økende grad hvor folk får sine nyheter, hva kan selskapet gjøre uten å ta på seg mantelen til å være en endelig siterer sannhet? Mitt arbeid som professor i informasjonsstudier antyder at det er minst tre alternativer.

Facebooks rolle

Facebook sier det er a teknologi selskap, ikke et medie selskap. Selskapets primære motiv er fortjeneste, i stedet for a høyere mål liker å produsere høy kvalitet informasjon for å hjelpe den offentlige handlingen kunnskapsrik i verden.

Likevel er innlegg på nettstedet og de omkringliggende samtalene både online og av, i økende grad involvert i vår offentlige diskurs og nasjonens politiske agenda. Som et resultat har konsernet en sosial forpliktelse til å bruke sin teknologi for å fremme felles gode.

Åndelig sannhet fra falskhet kan imidlertid være skremmende. Facebook er ikke alene i hevder bekymringer om sin evne - og det fra andre tekniske selskaper - å dømme kvaliteten på nyheter. Regissøren for FactCheck.org, en nonprofit fact-checking gruppe basert på University of Pennsylvania, fortalte Bloomberg News at mange påstander og historier er ikke helt falske. Mange har sannhetskerner, selv om de er veldig villedende formulert. Så hva kan Facebook egentlig gjøre?

Alternativ 1: Nudging

Et alternativ Facebook kan vedta innebærer å bruke eksisterende lister som identifiserer prescreened pålitelig og falske nyheter nettsteder. Nettstedet kan da varsle de som vil dele en plagsom artikkel som sin kilde er tvilsom.


Få det siste fra InnerSelf


En utvikler har for eksempel opprettet en utvidelse til Chrome-nettleseren som indikerer når et nettsted du ser på kan være falsk. (Han kaller det "BS Detector.") I en 36-time hackathon, en gruppe studenter opprettet en lignende Chrome-nettleserutvidelse som indikerer om nettsiden artikkelen kommer fra, er på en liste over verifiserte pålitelige nettsteder, eller er i stedet verifisert.

Disse utvidelsene presenterer varslene mens folk ruller gjennom sine nyhetsfeed. For tiden fungerer ingen av disse direkte som en del av Facebook. Integrering av dem ville gi en mer sømløs opplevelse, og ville gjøre tjenesten tilgjengelig for alle Facebook-brukere, utover bare de som installerte en av utvidelsene på egen datamaskin.

Selskapet kan også bruke informasjonen som utvidelsene genererer - eller deres kildemateriale - for å advare brukere før de deler upålitelig informasjon. I verden av programvare design, er dette kjent som en "nudge. "Advarselssystemet overvåker brukeradferd og underretter personer eller gir dem tilbakemeldinger for å bidra til å endre deres handlinger når de bruker programvaren.

Dette har blitt gjort før, til andre formål. For eksempel, kolleger av meg her på Syracuse University bygget et nudging program som overvåker hvilke Facebook-brukere som skriver i et nytt innlegg. Det dukker opp et varsel hvis innholdet de skriver er noe de kan angre på, for eksempel en sint melding med sverdord.

Nudges skjønnhet er den milde men effektive måten de påminner folk om atferd for å hjelpe dem med å endre den atferden. Studier som har testet bruk av nudges til forbedre sunn oppførsel, for eksempel, finne ut at folk er mer sannsynlig å endre kosthold og mosjon basert på milde påminnelser og anbefalinger. Nudges kan være effektive fordi de gir folk kontroll mens de også gir dem nyttig informasjon. Til slutt bestemmer mottakeren av nudgen fortsatt å bruke tilbakemeldingene som tilbys. Nudges føler seg ikke tvunget; i stedet er de potensielt bemerkelsesverdige.

Alternativ 2: Crowdsourcing

Facebook kan også bruke kraften til crowdsourcing for å hjelpe med å evaluere nyhetskilder og angi når nyheter som deles, har blitt evaluert og vurdert. En viktig utfordring med falske nyheter er at det spiller for hvordan hjernen vår er koblet til. Vi har mentale snarveier, kalt Kognitive forstyrrelser, som hjelper oss med å ta avgjørelser når vi ikke har nok informasjon (vi gjør aldri), eller nok tid (vi gjør aldri). Generelt fungerer disse snarveiene bra for oss når vi tar avgjørelser på alt fra hvilken rute å kjøre til jobb, hvilken bil du skal kjøpe. Men noen ganger svikter de oss. Å falle for falske nyheter er en av disse tilfellene.

Dette kan skje med noen - selv meg. I den primære sesongen fulgte jeg en Twitter hashtag der den primære kandidaten Donald Trump tweeted. En melding viste at jeg fant slags sjokkerende. Jeg retweeted det med en kommentar som mocked sin offensiveness. En dag senere innså jeg at tweetet var fra en parodi-konto som så identisk med Trumps Twitter-handlenavn, men hadde ett brev endret.

Jeg savnet det fordi jeg hadde fallet for bekreftelse skjevhet - tendensen til å overse noen informasjon fordi den går i motsetning til mine forventninger, spådommer eller hunches. I dette tilfellet hadde jeg ignorert den lille stemmen som fortalte meg denne spesielle tweeten var litt for over toppen for Trump, fordi jeg trodde han var i stand til å produsere meldinger enda mer upassende. Falske nyheter pryder oss på samme måte.

Et annet problem med falske nyheter er at den kan reise mye lenger enn noen korreksjon som kan komme etterpå. Dette ligner på utfordringene som alltid har møtt newsrooms når de har rapportert feilaktig informasjon. Selv om de publiserer rettelser, ser de som opprinnelig ble utsatt for feilinformasjon, aldri oppdateringen, og vet derfor ikke hva de leser tidligere, er feil. Videre har folk en tendens til å holde fast på den første informasjonen de møter; korrigeringer kan til og med komme tilbake ved å gjenta feil informasjon og forsterke feilen i lesernes sinn.

Hvis folk evaluerte informasjon mens de leser det og delte disse vurderingene, kan sannhetspoengene, som nudges, være en del av Facebook-programmet. Det kan hjelpe brukere å bestemme seg selv om de skal lese, dele eller bare ignorere. En utfordring med crowdsourcing er at folk kan spille disse systemene for å prøve å drive partisk utfall. Men skjønnheten i crowdsourcing er at publikum også kan vurdere ratene, akkurat som det skjer på Reddit eller med Amazons vurderinger, for å redusere effekten og vekten av problematikere.

Alternativ 3: Algoritmisk sosial avstand

Den tredje måten Facebook kan hjelpe, ville være å redusere algoritmisk bias som for tiden eksisterer i Facebook. Nettstedet viser hovedsakelig innlegg fra de med hvem du har engasjert på Facebook. Med andre ord, skaper Facebook algoritmen hva noen har kalt en filterboble, et online-nyheter fenomen som har bekymrede forskere i flere tiår nå. Hvis du bare blir utsatt for personer med ideer som er like dine egne, fører det til det politisk polarisasjon: Liberaler blir enda mer ekstreme i deres liberalisme, og konservative blir mer konservative.

Filterboblen skaper et "ekkokammer", der lignende ideer spretter rundt uendelig, men ny informasjon har det vanskelig å finne veien inn i. Dette er et problem når ekkokammeret blokkerer korrektive eller faktainformasjon.

Hvis Facebook skulle åpne flere nyheter for å komme inn i en persons nyhetsfeed fra et tilfeldig sett med folk i sitt sosiale nettverk, ville det øke sjansene for at ny informasjon, alternativ informasjon og motstridende informasjon ville strømme innenfor dette nettverket. Det gjennomsnittlige antall venner i en Facebook brukerens nettverk er 338. Selv om mange av oss har venner og familie som deler våre verdier og tro, har vi også kunngjøringer og fremmede som er en del av vårt Facebook-nettverk som har diametralt motsatt visninger. Hvis Facebooks algoritmer brakte flere av disse visningene inn i våre nettverk, ville filterboblen være mer porøs.

Alle disse alternativene er godt innenfor evner fra ingeniører og forskere på Facebook. De vil gi brukerne mulighet til å ta bedre beslutninger om informasjonen de velger å lese og dele med sine sosiale nettverk. Som en ledende plattform for informasjonsformidling og en generator av sosial og politisk kultur gjennom snakk og deling av informasjon, trenger Facebook ikke å være den ultimate sannhetskandidaten. Men det kan bruke kraften i sine sosiale nettverk for å hjelpe brukerne til å måle verdien av elementer i løpet av innholdsstrømmen de møter.

Den Conversation

Om forfatteren

Jennifer Stromer-Galley, professor i informasjonsstudier, Syracuse University

Denne artikkelen ble opprinnelig publisert på Den Conversation. Les opprinnelige artikkelen.

Relaterte bøker:

{amazonWS: searchindex = Bøker; søkeord = nyheter på nettet; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

følg InnerSelf på

facebook-ikonettwitter-iconrss-ikonet

Få den siste via e-post

{Emailcloak = off}