Računalniki postajajo vse boljši od ljudi pri prepoznavanju obrazov

Tehnologija bi lahko uničila svobodo izražanja – vključno z našo »pravico do laži«.

Vojak ameriške vojske skenira oko osumljenca v Kandaharju v Afganistanu leta 2010.(Shamil Zhumatov/REUTERS)

Zaznavanje, ali je nekdo žalosten, vesel ali jezen, po tem, kako obrne nos ali stisne čelo, je za ljudi naravno. Večina nas zna dobro brati obraze. Res dobro, se izkaže.



Kaj se torej zgodi, ko nas računalniki dohitijo? Nedavni napredek v tehnologiji za prepoznavanje obrazov bi lahko vsakomur, ki bo imel prihodnjo različico Google Glassa, omogočil odkrivanje neskladnosti med tem, kar nekdo reče (z besedami) in tem, kar ta oseba reče (z izrazom obraza). Tehnologija presega našo sposobnost zaznavanja takšnih odtenkov.

Znanstveniki so dolgo verjeli, da lahko ljudje razlikujejo šest osnovnih čustev: srečo, žalost, strah, jezo, presenečenje in gnus. Toda v začetku tega leta, so ugotovili raziskovalci na državni univerzi Ohio da so ljudje sposobni zanesljivo prepoznati več kot 20 obraznih izrazov in ustreznih čustvenih stanj – vključno z veliko paleto sestavljenih čustev, kot sta veselo presenečenje ali jezen strah. Prepoznavanje tona glasu in prepoznavanje obraznih izrazov sta nalogi na področju zaznavanja, kjer tradicionalno ljudje delujejo bolje kot računalniki. Oziroma, prej je bilo tako. Ker se programska oprema za prepoznavanje obrazov izboljšuje, so računalniki vse boljši. Študija zvezne države Ohio, ko je poskusila programska oprema za prepoznavanje obrazov, je dosegla stopnjo natančnosti 96,9 odstotka pri identifikaciji šestih osnovnih čustev in 76,9 odstotka v primeru sestavljenih čustev. Računalniki so zdaj spretni pri ugotavljanju, kako se počutimo.

Prepoznavanje obraza se razvija v čustveno prepoznavanje ...

Velik del tovrstnih izračunov temelji na tako imenovanem sistemu za kodiranje obraznih dejanj (FACS), metodi, ki jo je razvil Paul Elkman, specialist za mikroizraze obraza, v sedemdesetih in osemdesetih letih prejšnjega stoletja. FACS razgradi čustvene izraze na njihove izrazite obrazne elemente. Z drugimi besedami, razčlenjuje čustva na določene sklope obraznih mišic in gibov: razširitev oči, dvig lic, spuščanje spodnje ustnice itd. FACS se uporablja pri oblikovanju in konstrukciji likov v animiranih filmih. Kognitivni znanstveniki ga uporabljajo tudi za identifikacijo genov, kemičnih spojin in nevronskih vezij, ki uravnavajo proizvodnjo čustev v možganih. Takšno preslikavo bi lahko uporabili pri diagnozi motenj, kot sta avtizem ali posttravmatska stresna motnja, kjer je težko prepoznati čustva iz obraznih izrazov.

Ker so tehnologije za nadzor vse bolj razširjene, se širijo tudi aplikacije za sofisticirano programsko opremo za prepoznavanje obrazov. Zdi se, da so te tehnologije pripravljene na prehod iz laboratorija v resnično življenje – komercializirane, distribuirane množicam na poljubnem številu področij, kontekstov in situacij. Vse to se dogaja v času, ko so računalniki vedno pametnejši pri branju človeških čustev.

Skupina raziskovalcev na kalifornijski univerzi v San Diegu je ustanovila podjetje čustveno , ki za zaznavanje čustev uporablja algoritme strojnega učenja. Podjetje trenutno razvija aplikacijo za Google Glass, ki bo kmalu na trgu, pravi vodilni znanstvenik Marian Bartlett. Aplikacija je zasnovana tako, da v realnem času bere čustvene izraze ljudi, ki se pojavijo v vidnem polju uporabnika. Čeprav je še v fazi testiranja, lahko prepozna srečo, žalost, jezo, odpor in celo prezir.

Ko je tovrstna tehnologija komercialno na voljo, jo lahko prenese vsak uporabnik Google Glass. Poleg prepoznavanja specifičnih čustev z analizo obraznih vzorcev gibanja je še ena uporaba te nove tehnologije, ki jo je preizkusila Bartlettova ekipa, tista, ki omogoča razlikovanje lažnih od resničnih čustvenih izrazov. Z drugimi besedami, lahko pove, ali lažete.

To je družabna igra, ki jo igramo vsi in nam zelo ustreza.

Aplikacija deluje na podlagi ideje, da lažni in resnični izrazi čustev vključujejo različne preslikave možganov. Medtem ko možgani in hrbtenjača izvajajo resnične čustvene izraze tako kot refleks, lažni izrazi zahtevajo zavestno misel – in to vključuje področja motorične koordinacije iz možganske skorje. Posledično so reprezentativni gibi obraza resničnih in lažnih čustev na koncu dovolj različni, da jih lahko vizualni računalniški sistem zazna in razlikuje. In tukaj je ključ: računalniki lahko naredijo te razlike, tudi če ljudje ne morejo.

Po testiranju je sistemu, ki ga je razvil Bartlett, uspelo – v realnem času – identificirati 20 od 46 obraznih gibov, opisanih v FACS, glede na marčevsko poročilo Bartletta v Current Biology . In, kar je še bolj impresivno, sistem ne samo identificira, ampak tudi loči pristne izraze od napačnih izrazov s stopnjo natančnosti 85 odstotkov, vsaj v laboratorijskih okoljih, kjer so vizualni pogoji nespremenjeni. Ljudje niso bili niti približno tako usposobljeni, saj so beležili približno 55-odstotno stopnjo natančnosti.

Da, Bartlett je v tehnologijo za prepoznavanje obrazov vključil detektor laži. Ta tehnologija obljublja, da bo ujela vsakogar, ki poskuša ponarediti dano čustvo ali občutek. Prepoznavanje obraza se razvija v čustveno prepoznavanje, toda računalniki – ne le ljudje – so tisti, ki odločajo, kaj je resnično. (Če prepoznavanju obrazov dodamo zaznavanje glasu, imamo na koncu popoln paket za zaznavanje laži.)

Tehnologija in pravica do laži

Tako si lahko začnemo predstavljati bližnjo prihodnost, v kateri bomo opremljeni z očali, ki ne prepoznajo samo obrazov in glasov, ampak tudi resnice in laži – scenarij, ki bi izzval revolucijo v človeški interakciji. Prav tako bi pomenilo resno omejitev posameznikove avtonomije. Začnimo s posledicami te tehnologije na ravni družbenega vedenja in preidimo na analizo posledic na ravni posameznika.

Na kolektivni ravni je občasna majhna bela laž – kot tista, ki nas vodi do tega, da rečemo, kako lep dojenček, ko v resnici mislite, da je zelo grd, ali da je juha čudovita, ko v resnici veste, da ima okus po belilu —je veliko več kot visokoumna laž; je temeljna institucija v umetnosti družbenega preživetja in sobivanja. Za temi majhnimi, a strateškimi lažmi se skrivajo kritične družbene konvencije. Kvaziprotokolarna izjava, da bi morali kdaj kositi, ko je naša želja, da te osebe nikoli več v življenju ne vidimo, ali navdušeni medmet: Všeč mi je tvoja obleka, ko nas nikoli ne bi ujeli mrtvi, ko bi jo nosili niti kot pižamo, sta pravzaprav elementi prisrčnosti in znaki spoštovanja, ki oblikujejo in krasijo naše družbene interakcije. V večini primerov so dobronamerni in jih ponuja nekdo, ki želi biti samo obziren, spoštljiv ali preprosto prijazen. To je družabna igra, ki jo igramo vsi in nam zelo ustreza.

Na ravni posameznika je svoboda, da ne povemo resnice, bistvena pravica naše avtonomije kot ljudi. Kar ta tehnologija ogroža, je nekaj, kar presega preprosto nezmožnost laganja, ne da bi bili ujeti. Ta tehnologija predstavlja napad na našo pravico do zasebnosti, našo pravico do identitete in našo pravico do svobode izražanja – ki ne zajema le tega, kar se odločimo povedati, temveč tudi tisto, kar se odločimo obdržati zase.

Z omogočanjem ugotavljanja, da to, kar govorimo in kako se izražamo, ustreza temu, kar dejansko mislimo in čutimo, bomo vstopili v novo dimenzijo kršitve naše zasebnosti; kršitev, ki napada najintimnejši vidik našega bitja: naše misli in čustva.

Ta nova tehnologija povečuje zmogljivosti nadzora – od spremljanja dejanj do ocenjevanja čustev – na načine, zaradi katerih je posameznik vedno bolj ranljiv za vladne organe, tržnike, delodajalce in vsako osebo, s katero komuniciramo. V tej prihodnosti lahko pričakujemo nov val tehnologij, ki bo kršil ne samo zasebnost naših dejanj, ampak tudi zasebnost naših čustev. Ne samo, da bo težko skriti, kam gremo, kaj počnemo in kaj kupujemo – ampak tudi kaj čutimo in mislimo.

Stalni pregled tega, kar izražamo in povemo, bo pogojeval tudi način, kako se predstavljamo, ravnamo in želimo, da nas drugi vidijo. Z drugimi besedami, tehnologija detektorja laži bo s kršitvijo ločitve med mislijo in njenim izrazom, z združitvijo zakulisja misli s središčem diskurza nepovratno vplivala na našo identiteto.

Ker ne bomo mogli misliti enega in reči drugega, bo naša identiteta postala enobarvna in izgubila dobršen del svojega bogastva in raznolikosti. Če bomo nenehno prisiljeni izražati in objavljati, kaj mislimo in čutimo, pod nevarnostjo, da nas imenujemo lažnivci, bomo izgubili možnost ustvarjanja različnih vtisov in dojemanja na ljudi, s katerimi komuniciramo; izgubili bomo na primer zmožnost skrivanja manj prijetnih vidikov naše narave ali napihovanja najbolj briljantnih in privlačnih vidikov naše osebnosti. Posledice so lahko katastrofalne; dovolj je, da si predstavljamo, kako bi bil razgovor za službo ali prvi zmenek s to novo generacijo očal, pripravljenih za dekodiranje naših izrazov in spremljanje naših občutkov. S tem, ko nas naredi popolnoma pregledne za oči drugih, bo ta tehnologija pogojevala proces gradnje naše identitete in nam preprečila, da bi nosili različne maske, da bi se prilagajali različnim kontekstom, igrali različne vloge. Naša identiteta bo podrejena pritisku in tiraniji stalnega nadzora naših misli in občutkov.

Ne glede na to, kako pomembno je braniti in spodbujati družbo, ki temelji na vrednotah resnice in preglednosti, moramo razumeti, da je – na ravni posameznika in v zvezi z medosebnimi odnosi – lahko preveč resnice in preglednosti škodljivo. Zagovarjati moramo prostor za neresnico, oziroma prostor, kjer lahko živimo s svojo resnico, ne da bi jo morali izpostavljati in deliti.

Prikrajšana za možnost izpuščanja ali retuširanja resnice, pod kaznijo, da jo ujame vojska inkvizitorskih očal, bi se družba počutila skoraj nenaseljena. Nenehno soočenje s preverljivo resnico nas bo spremenilo v pretirano previdne, preračunljive in sumničave ljudi. Navidezna resnica tega, kar smo in govorimo, ne bo izhajala iz osebnih zaznav, posebnih intuicij in družbenih sodb, temveč iz zapletenih izračunov, ki jih naredijo algoritmi in izračuni, ki temeljijo na načinu, kako uporabljamo svoj glas, obračamo nos v desno ali se nagibamo. naša usta na levo.

To bo mehanska in mehanizirana resnica.

Resno tvegamo, da bomo postopoma izgubili svojo spontano človečnost in se vedno bolj pojavljali kot vnaprej določeni algoritmi, ki nas opazujejo in sodijo.