4-måter Dine Google-søk og sosiale medier påvirker dine muligheter i livet
Shutterstock.

Uansett om du innser eller samtykker i det, kan store data påvirke deg og hvordan du lever livet ditt. Dataene vi lager når du bruker sosiale medier, surfer på internett og å ha på treningssporere er alle samlet, kategorisert og brukt av bedrifter og staten å skape profiler av oss. Disse profilene brukes da til å målrette annonser for produkter og tjenester til de som mest sannsynlig vil kjøpe dem, eller for å informere myndighetsbeslutninger.

Store data aktivere stater og bedrifter å få tilgang til, kombinere og analysere vår informasjon og bygge avslørende - men ufullstendig og potensielt unøyaktig - Profiler av våre liv. De gjør det ved å identifisere korrelasjoner og mønstre i data om oss, og personer med lignende profiler til oss, for å gjøre spådommer om hva vi kan gjøre.

Men bare fordi store dataanalyser er basert på algoritmer og statistikk, betyr det ikke at de er nøyaktig, nøytral eller iboende objektiv. Og mens store data kan gi innsikt om gruppegang, er disse ikke nødvendigvis en pålitelig måte å bestemme individuell oppførsel på. Faktisk kan disse metodene åpne døren for diskriminering og truer folks menneskerettigheter - de kunne til og med jobbe mot deg. Her er fire eksempler hvor stor dataanalyse kan føre til urettferdighet.

1. Beregning av kredittpoeng

Store data kan brukes til å ta beslutninger om kredittberettigelse, påvirker om du får et boliglån, eller hvor høyt ditt bilforsikring premier bør være. Disse avgjørelsene kan bli informert av din sosiale medier innlegg og data fra andre apper, som er tatt for å indikere ditt nivå av risiko eller pålitelighet.

Men data som din utdannelsesbakgrunn eller hvor du bor, kan ikke være relevant eller pålitelig for slike vurderinger. Denne typen data kan fungere som en proxy for rase eller sosioøkonomisk status, og bruk av den til å ta avgjørelser om kredittrisiko kan føre til diskriminering.


innerself abonnere grafikk


2. Jobbsøk

Store data kan brukes til å bestemme hvem ser en jobbannonse eller blir kortliste for et intervju. Jobbannonser kan rettes mot bestemte aldersgrupper, slik som 25 til 36-åringer, som utelukker yngre og eldre arbeidstakere fra selv å se visse stillinger og gir en risiko for aldersdiskriminering.

Automatisering brukes også til å gjøre filtrering, sortering og rangering av kandidater mer effektive. Men denne screeningsprosessen kan utelukke folk på grunnlag av indikatorer som avstand fra deres pendling. Arbeidsgivere kan anta at de med lengre pendling er mindre tilbøyelige til å forbli i en jobb på lang sikt, men dette kan faktisk diskriminere folk som bor lenger fra sentrum fordi de har plass til rimelige boliger.

3. Parole- og kausjonsbeslutninger

I USA og Storbritannia brukes store data risikovurderingsmodeller for å hjelpe tjenestemennene til å avgjøre om folk blir bevilget parole eller kausjon, eller referert til rehabiliteringsprogrammer. De kan også brukes til å vurdere hvor mye risiko en lovbryter presenterer for samfunnet, noe som en dommer kan vurdere når man bestemmer lengden på en setning.

Det er ikke klart nøyaktig hvilke data som brukes til å bidra til å gjøre disse vurderingene, men som bevegelsen mot digital politisering samler tempo, er det stadig mer sannsynlig at disse programmene vil inkludere åpen kildekode informasjon som sosial medial aktivitet - hvis de ikke allerede har det

Disse vurderingene kan ikke bare se på en persons profil, men også hvordan de sammenlignes med andre. Noen politistyrker har historisk overpoliced visse minoritetssamfunn, som fører til et uforholdsmessig antall rapporterte kriminelle hendelser. Hvis disse dataene blir matet inn i en algoritme, vil det forvride risikovurderingsmodellene og resultere i diskriminering som direkte påvirker en persons rett til frihet.

4. Vetting visum søknader

I fjor annonserte USAs innvandrings- og tollforvaltningsorgan (ICE) at det ønsket å introdusere en automatisert "ekstrem visumvetting" program. Det ville automatisk og kontinuerlig skanne sosiale medier kontoer, for å vurdere om søkere vil gi et "positivt bidrag" til USA, og om eventuelle nasjonale sikkerhetsproblemer kan oppstå.

I tillegg til å presentere risikoer for tankefrihet, mening, uttrykk og forening, var det betydelige farer for at dette programmet ville diskriminere folk fra bestemte nasjonaliteter eller religioner. kommentatorer preget det som et "muslimsk forbud etter algoritme".

Programmet ble nylig trukket tilbake, angivelig på grunnlag av at "det var ingen" out-of-the-box "-programvare som kunne levere kvaliteten på overvåking av byrået ønsket". Men å inkludere slike mål i anskaffelsesdokumenter kan skape dårlige incentiver for teknologibransjen til å utvikle programmer som er diskriminerende for design.

Den ConversationDet er ingen tvil om at stor dataanalyse fungerer på måter som kan påvirke enkeltpersoner muligheter i livet. Men mangel på åpenhet om hvor store data som samles inn, brukes og deles gjør det vanskelig for folk å vite hvilken informasjon som brukes, hvordan og når. Stor dataanalyse er rett og slett for komplisert for enkeltpersoner å kunne beskytte sine data mot upassende bruk. Isteden skal stater og bedrifter lage og følge forskrifter for å sikre at deres bruk av store data ikke fører til diskriminering.

Om forfatterne

Lorna McGregor, direktør for menneskerettighetssenteret, PI og meddirektør, ESRC Menneskerettigheter, Big Data and Technology Large Grant, University of Essex; Daragh Murray, foredragsholder i internasjonal menneskerettighetslov ved Essex Law School, University of Essex, og Vivian Ng, seniorforsker i menneskerettigheter, University of Essex

Denne artikkelen ble opprinnelig publisert på Den Conversation. Les opprinnelige artikkelen.

Bøker av disse

Om forfatteren

at

bryte

Takk for besøket InnerSelf.com, der det er 20,000 + livsendrende artikler som fremmer "Nye holdninger og nye muligheter." Alle artikler er oversatt til 30+ språk. Bli medlem! til InnerSelf Magazine, utgitt ukentlig, og Marie T Russells Daily Inspiration. InnerSelf Magazine har blitt utgitt siden 1985.