How Does A Computer Know Where You're Looking?

Tenk deg å kjøre en bil, ved hjelp av en frontprojeksjon på frontruten for å navigere gjennom en ukjent by. Dette er forstørret virkelighet (AR); Informasjonen brukes til ikke bare å veilede deg langs en rute, men også for å varsle deg om viktig informasjon i omgivelsene dine, for eksempel syklister eller fotgjengere. Den riktige plasseringen av virtuelt innhold er ikke bare avgjørende, men kanskje et spørsmål om liv og død.

Informasjon kan ikke skjule annet materiale, og skal vises lenge nok til at du forstår det, men ikke for mye lenger enn det. Datasystemer må gjøre disse bestemmelsene i sanntid, uten at noen av informasjonene blir distraherende eller påtrengende. Vi vil absolutt ikke ha en advarsel om en syklist om å krysse foran bilen for å skjule syklisten selv!

Som forsker i AR bruker jeg mye tid på å finne ut hvordan jeg får den riktige informasjonen på en brukers skjerm, akkurat på rett sted, akkurat nå. Jeg har lært at å vise for mye informasjon kan forvirre brukeren, men ikke vise nok kan gjøre et program ubrukelig. Vi må finne det søte stedet i mellom.

Et avgjørende element i dette, viser seg, er å vite hvor brukerne ser. Først da kan vi levere informasjonen de ønsker på et sted hvor de kan behandle det. Vår forskning innebærer å måle hvor Brukeren ser på den virkelige scenen, som en måte å bidra til å bestemme hvor du skal plassere virtuelt innhold. Med AR klar til å infiltrere mange områder av våre liv - fra kjøring til arbeid til rekreasjon - Vi må løse dette problemet før vi kan stole på AR for å gi støtte til alvorlige eller kritiske handlinger.

Bestemme hvor å sette informasjon

Det er fornuftig å få informasjon som vises der brukeren ser. Når du navigerer, kan en bruker se på en bygning, gate eller annet ekte objekt for å avsløre den tilknyttede virtuelle informasjonen. systemet vil vite å gjemme alle andre skjermer for å unngå at den synlige scenen roteres.


innerself subscribe graphic


Men hvordan vet vi hva noen ser på? Det viser seg at nyanser av menneskesyn tillater oss å undersøke på en persons øyne og Beregn hvor de ser. Ved å kombinere disse dataene med kameraer som viser personens synsfelt, kan vi avgjøre hva personen ser og hva han eller hun ser på.

Øyesporingssystemer oppstod først i 1900-ene. Opprinnelig var de mest brukt til å studere lese mønstre; Noen kan være svært påtrengende for leseren. Mer nylig har realtids øye-sporing oppstått og blitt rimeligere, enklere å betjene og mindre.

Øyesporere kan festes til skjerm eller integrert i brukbare briller eller påmonterte skjermer. Øynene spores ved hjelp av en kombinasjon av kameraer, projeksjoner og datasynalgoritmer for å beregne øyets posisjon og blikkpunktet på en skjerm.

Vi ser generelt på to tiltak når du undersøker øye-sporingsdata. Den første kalles a fiksering, og brukes til å beskrive når vi stopper blikket vårt, ofte på et interessant sted i en scene fordi den har tatt vår oppmerksomhet. Den andre er a saccade, en av de hurtige øyebevegelsene pleide å plassere blikket. Korte fikseringsperioder følges av raske bevegelser, kalt saccades. I utgangspunktet dart øynene våre raskt fra sted til sted og tar i stykker informasjon om deler av en scene. Hjernene våre legger deretter informasjonen fra disse fiksjonene sammen for å danne et visuelt bilde i våre sinn.

{youtube}tdFIvRMvFQI{/youtube}

Kombinerer øyesporing med AR

Ofte er AR-innhold forankret til et virkelighetsobjekt eller -sted. For eksempel skal en virtuell etikett som inneholder et gatenavn vises på den gaten. Ideelt sett vil vi at AR-etikettene skal vises nær det virkelige objektet det er knyttet til. Men vi må også være forsiktige for ikke å la flere AR-etiketter overlappe og bli ulæselige. Det er mange tilnærminger til å administrere etikettplassering. Vi utforsker ett alternativ: beregne hvor personen ser på den virkelige scenen og viser AR-etiketter bare i det stedet.

Si for eksempel at en bruker samhandler med et mobilprogram som hjelper ham med å kjøpe kalorier med lavt kaloriinnhold i matbutikken. I AR-søknaden har hver frokostblanding kaloriinformasjon knyttet til den. I stedet for å plukke opp hver kornboks og lese næringsinnholdet, kan brukeren holde opp sin mobile enhet og peke den på en bestemt kornboks for å avsløre relevant informasjon.

Men tenk på hvor overfylt en butikk frokostblanding er med ulike pakker. Uten noen måte å administrere visning av AR-etiketter, vil kaloriinformasjonsetikettene for alle kornboksene vises. Det ville være umulig å identifisere kaloriinnholdet for frokostblandingen han er interessert i.

Ved å spore øynene kan vi avgjøre hvilken individuell kornboks brukeren ser på. Deretter viser vi kaloriinformasjonen for den aktuelle frokostblandingen. Når han skifter blikket til en annen boks, viser vi tallene for den neste han vurderer. Hans skjerm er ryddig, informasjonen han ønsker er lett tilgjengelig, og når han trenger mer informasjon, kan vi vise det.

Denne typen utvikling gjør det til en spennende tid for AR-forskning. Vår evne til å integrere virkelige scener med datagrafikk på mobile skjermer, blir bedre. Dette brenner utsikten for å skape fantastiske nye applikasjoner som utvider vår evne til å samhandle med, lære av og bli underholdt av verden rundt oss.

Om forfatteren

Ann McNamara, lektor i visualisering, Texas A & M University

Denne artikkelen ble opprinnelig publisert på Den Conversation. Les opprinnelige artikkelen.

Relaterte bøker

at

break

Takk for besøket InnerSelf.com, der det er 20,000 + livsendrende artikler som fremmer "Nye holdninger og nye muligheter." Alle artikler er oversatt til 30+ språk. Bli medlem! til InnerSelf Magazine, utgitt ukentlig, og Marie T Russells Daily Inspiration. InnerSelf Magazine har blitt utgitt siden 1985.