Hvordan vi prosjekter vår egen følelse av følelser på andres ansikter

Hvordan vi oppfatter følelsene på andres ansikt, avhenger av hvordan vi forstår disse følelsene, finner forskningen.

En ny studie, som fremgår av tidsskriftet Natur menneskelig adferd, gir innsikt i hvordan vi gjenkjenner ansiktsuttrykk av følelser, noe som er kritisk for våre sosiale liv, samt for næringsliv og diplomati.

"Oppfattelse av andres ansiktsemessige uttrykk føles ofte som om vi direkte leser dem ut fra et ansikt, men disse visuelle oppfatninger kan variere på tvers av mennesker, avhengig av de unike konseptuelle troene vi bringer til bordet," forklarer Jonathan Freeman, papirets seniorforfatter og en lektor i New York University s psykologi avdeling og Center for Neural Science.

"Våre funn tyder på at folk varierer i de spesifikke ansikts-signaler de bruker for å oppleve ansikts-følelsesuttrykk."

Hvor relatert er vrede og tristhet?

Studien, utført med doktorand Jeffrey Brooks, involverte en rekke eksperimenter der fagene reagerte på spørsmål om deres konseptualiseringer av ulike følelser. Dette lar forskerne anslå hvor nært relaterte ulike følelser var i et fags sinn.


innerself abonnere grafikk


"Funnene antyder at hvordan vi oppfatter ansiktsuttrykk, kan ikke bare reflektere hva som står i ansiktet selv, men også vår egen konseptuelle forståelse av hva følelsen betyr."

For eksempel kan noen mennesker tro at vrede og tristhet er mer liknende følelser hvis de konseptuelt forbinder begge disse følelsene med handlinger som å gråte og smekke knyttneve på bordet; Andre mennesker tror kanskje de er helt forskjellige følelser fordi de knytter de to følelsene til å føle seg helt annerledes og resulterer i forskjellige handlinger.

Nærmere bestemt ble fagene vurdert på hvordan de likte forskjellige par av følgende følelser i deres sinn: sinne, avsky, lykke, frykt, tristhet og overraskelse. Noen forskere har hevdet at disse seks følelsene er universelle på tvers av kulturer og genetisk hardt koblet til mennesker.

Freeman og Brooks satte seg da for å teste om de forskjellige måtene som faglig holdt de seks følelsene i sinnet deres, kunne forveksle hvordan fagene oppfatter disse følelsene på andres ansikter visuelt.

Fagene så på en serie bilder av menneskelige ansiktsuttrykk av følelsene og dømmet om følelsene disse ansiktene uttrykte. For å måle fagperspektivet, implementerte forskerne en nyskapende musesporingsteknologi, utviklet av Freeman, som bruker en persons håndbevegelser for å avsløre ubevisste kognitive prosesser - i dette tilfellet, hvilke følelseskategorier ble aktivert i fagets sinn ved deres visuelle oppfatning av et ansiktsuttrykk.

I motsetning til undersøkelser, hvor emner kan bevisst endre deres svar, krever denne teknikken at de skal gjøre splitt sekundære avgjørelser, og derved avdekke mindre bevisste tendenser gjennom håndbevegelsesbanen.

Samlet viste eksperimenter at når enkeltpersoner trodde at noen to følelser var konseptuelt mer liknende, så var ansikter de så fra de kategoriene følelser, oppfattet visuelt med en tilsvarende likhet.

Nærmere bestemt, da fagene holdt noen to følelser, som sinne og avsky, som konseptuelt mer liknende, forsøkte hånden deres samtidig å indikere at de så både "sinne" og "avsky" når de så på et av disse ansiktsuttrykkene - selv om det trolig var hvert uttrykk bare avbildet en følelse av gangen.

Mus-sporing

I et siste eksperiment brukte forskerne en teknikk kjent som "revers korrelasjon" for å visualisere de seks forskjellige følelsene i sinnets øye på et fag. Forskerne startet med et enkelt nøytralt ansikt og skapte hundrevis av forskjellige versjoner av dette ansiktet som var overlaid med forskjellige mønstre av tilfeldig støy. Støymønstrene skaper tilfeldige variasjoner i ansiktets tegn; for eksempel kan en versjon se ut som om den smiler heller enn å frynse.

På hvert forsøk av forsøket så fagene to forskjellige versjoner av dette ansiktet og bestemte seg for hvilken av de to som virket mer som en bestemt følelse (f.eks. Sinne) - selv om det i virkeligheten bare var lydmønsteret som skaper noen forskjell i de to versjonene ' utseende. På grunnlag av støymønsteret som et fag valgte, kunne en gjennomsnittlig ansikts "prototype" for hver av de seks følelsene visualiseres, og tjene som et slags vindu inn i sinnets øye.

Sammenlignet med musesporingsresultatene, da noen to følelser var konseptuelt mer like i fagets sinn, lignet bildene av de to visualiserte ansiktsprototypene fysisk i større grad hverandre. For eksempel, hvis et emne sett sinne og avsky for å være konseptuelt mer lik, ser de visualiserte bildene av det som et sint ansikt og et disgusted ansikt ut som det emnet, en større fysisk likhet.

"Funnene antyder at hvordan vi oppfatter ansiktsuttrykk, kan ikke bare reflektere hva som står i ansiktet, men også vår egen konseptuelle forståelse av hva følelsen betyr," forklarer Freeman, som noterer seg interesse for ansiktsuttrykk, har fascinert forskere som dateres tilbake til Charles Darwin i 19th århundre.

"For et gitt par følelser, for eksempel frykt og sinne, jo mer et emne mener at disse følelsene er mer like, desto mer ligner disse to følelsene visuelt på en persons ansikt. Resultatene antyder at vi alle kan variere litt i ansikts-signaler vi bruker til å forstå andres følelser, fordi de er avhengige av hvordan vi konseptuelt forstår disse følelsene.

Forfatterne bemerker at studiens resultater i motsetning til klassiske vitenskapelige teorier om følelser som antar hver følelse, har sitt eget spesifikke ansiktsuttrykk som mennesker anerkjenner universelt. Basert på denne oppfatningen, bør det samme eksakte ansiktsuttrykket, som et ansiktsmaske for sinne, alltid fremkalle en oppfattelse av sinne, og vår personlig tro på hva som utgjør "sinne", bør ikke påvirke prosessen.

Funnene, Freeman observerer, kan ha implikasjoner for kunstig intelligens og maskinlæring. Automatiserte algoritmer for ansiktsgjenkjenning, og andre datasyn og sikkerhetsapplikasjoner, er rettet mot å oppdage følelser, som potensielt kan forbedres ved å inkorporere konseptuelle prosesser.

Delvis finansiering av arbeidet kom fra National Institutes of Health.

kilde: NYU

Relaterte bøker:

at InnerSelf Market og Amazon