Birželio pabaigoje pasirodė pranešimas, jog kompanija „Microsoft“ nusprendė daugiau nebeparduoti emocijų atpažinimo technologijų, kurių principas – iš veido atvaizdo nuspėti žmogaus jausmus.
Asociatyvi „Pixabay“ nuotr.
Toks sprendimas yra reakcija į vis griežtesnius JAV ir Europos įstatymų leidėjų taikomus ribojimus, kuriais siekiama užtikrinti saugų ir etišką šių technologijų naudojimą. Kaip LRT.lt portalui pasakojo Kauno technologijos universiteto (KTU) dirbtinio intelekto tyrėjas doc. Mantas Lukoševičius, įstatymų leidėjų nuogąstavimai nėra iš piršto laužti. Emocijų atpažinimo technologijos iš tiesų kelia susirūpinimą, ypač kai jos jungiamos su asmens identifikavimu bei naudojamos masiškai, kai pervertinamas jų patikimumas.
Pagal veido išraišką nustato net politines pažiūras
Emocijų atpažinimas iš veido atvaizdo (angl. facial emotion recognition) – populiaresnis technologinis sprendimas, nei gali iš pradžių pasirodyti. Individualizuotos reklamos, sveikatos apsaugos, įdarbinimo ir švietimo paslaugos, viešasis saugumas ir nusikaltimų atskleidimas – tai vos keletas sričių, kuriose plačiai taikomas šis metodas. Technologija veiksmingai naudojama net ir žmogaus politinėms pažiūroms nustatyti: analizuojant minios veido išraiškas, užfiksuotas politiko kalbos metu, galima nuspėti, ar žmogus palaiko tą politiką ir jo politines idėjas, ar ne. Tačiau kaip prieinama prie tokių išvadų ir ar jos visada yra teisingos?
KTU dirbtinio intelekto tyrėjas M. Lukoševičius LRT.lt aiškino, kad emocijų atpažinimo technologijos veikia dėl dirbtinio intelekto, o šio centre – mašininis mokymasis.
„Technologijos pagrįstos principu, kad taisyklės, algoritmas, kaip atpažinti emocijas, nėra tiesiogiai suprogramuojamas, tačiau yra suprogramuojamos tam tikros struktūros, kurias galima išmokyti atpažinti emocijas. Konkrečiau, šios struktūros dažniausiai yra gilieji konvoliuciniai dirbtiniai neuroniniai tinklai, tai jau tapo standartine technologija vaizdų atpažinime.
Šiems tinklams apmokyti taip pat reikia daugybės anotuotų duomenų – veidų pavyzdžių su teisingai įvardintomis emocijomis. Apmokymo metu tinklui yra „rodomi“ šie vaizdai ir jis palaipsniui yra adaptuojamas taip, kad kiekvienam vaizdui įvardintų emociją, atitinkančią anotuotąją. Be abejo, tinklas turi teisingai atpažinti emocijas ir veidų, kurie nebuvo rodomi mokymų metu“, – dėstė mokslininkas.
Toks emocijų atpažinimo proceso automatizavimas, M. Lukoševičiaus teigimu, – efektyvus sprendimas tiek dėl kainos, tiek dėl laiko.
„Algoritmai leidžia emocijų atpažinimą naudoti pigiai, momentaliai ir dideliais mastais. Beveik bet kur galima įrengti kamerą ar gauti iš jos vaizdą. Didelės ir mažesnės įmonės siūlo įvairius programinius emocijos iš veido atpažinimo sprendimus. Dažniausiai atpažinimas atliekamas pačios įmonės serveriuose kaip paslauga debesyje. Tačiau yra ir atviro kodo sprendimai, prieinami visiems“, – teigė KTU mokslininkas.
Kritikos emocijų atpažinimo technologijoms netrūksta
Nepaisant technologijų teikiamų privalumų, pastebima ir daug trūkumų bei potencialių rizikų, verčiančių sudvejoti dėl šių technologijų taikymo tokiu plačiu mastu. Kaip technologijų naujienų portalui „The Verge“ pasakojo Lisa Feldman Barrett, Šiaurės rytų universiteto (Bostonas, JAV) psichologijos profesorė, manyti, jog pagal veido išraiškas būtų galima tiksliai nustatyti žmogaus emocinę būseną, „nėra tvirto mokslinio pagrindo“.
„Įmonės gali sakyti, ką nori, bet duomenys aiškūs. Galima aptikti susiraukimą, bet tai nėra tas pats, kas aptikti pyktį. Duomenys rodo, kad žmonės susiraukia vidutiniškai mažiau nei 30 proc. atvejų, kai yra pikti. Susiraukimas nėra vienintelė, o tik viena iš daugelio pykčio išraiškų. Ar tikrai norėtumėte, kad sprendimai būtų priimami, kai algoritmas yra tikslus tik 30 proc. atvejų?“ – klausė L. F. Barrett.
Dėl emocijų atpažinimo technologijų keliamų grėsmių yra sunerimusi ir Europos Sąjungos duomenų apsaugos priežiūros (angl. European Data Protection Supervisor) įstaiga. Kaip potencialias rizikas ji įvardina duomenų įvairovės trūkumą ir dėl to atsirandantį technologijos šališkumą, diskriminaciją dėl odos spalvos ar etninės kilmės, klaidingą klasifikavimą, galimybės kontroliuoti savo asmens duomenų tvarkymą nebuvimą, situacijas, kai jautriais asmens duomenimis dalijamasi su trečiosiomis šalimis ar kai žinant žmonių emocijas jomis yra manipuliuojama.
Emocijų atpažinimo technologijų taikymo rizikos akivaizdžios ir LRT.lt kalbintam KTU docentui M. Lukoševičiui.
„Su emocijų atpažinimo patikimumu yra daug problemų. Mes, kaip socialinės būtybės, esame prisitaikę emocijas reikšti gana sudėtingais būdais, ne visada jas rodyti tiesiogiai. Yra ir nemažų kultūrinių skirtumų. Sudėtinga yra surinkti objektyvią ir kokybišką duomenų aibę, su kuria galima būtų išmokyti tokius algoritmus. Net ir pati emocijų klasifikacija – kokios emocijos egzistuoja, kur yra ribos tarp jų, – kelia diskusijų“, – teigė dirbtinio intelekto tyrėjas.
Kita reikšminga problema – galimybė emocijų atpažinimo duomenis prijungti prie masinio sekimo duomenų. Informacijos, gautos masinio sekimo būdu, turėjimas, docento teigimu, kompanijoms, organizacijoms ar valstybėms suteikia labai didelę galią.
„Privatumo trūkumas gali sugriauti demokratiją. Jau ir praktika rodo, kad, turint tokią informaciją, labai tiksliai nutaikytomis žinutėmis rinkėjams galima pakeisti rinkimų, referendumų rezultatus. Čia tarsi yra ne tik visuotinio išorinio sekimo pavojus, kai sekama, kur žmogus yra bei ką jis veikia, bet ir noras prasiskverbti į žmogaus vidų bandant suprasti, ką jis konkrečiu atveju jaučia“, – samprotavo M. Lukoševičius.
„Microsoft“ bando užbėgti įvykiams už akių
Viena iš emocijų atpažinimo pagal veido atvaizdą paslaugas teikusiųjų – kompanija „Microsoft“, nusprendusi vis dėlto nutraukti šių technologijų pardavimus. Toks sprendimas prisideda prie įmonės politikos, siekiančios apriboti iki šiol klientams teiktą „nevaržomą prieigą“ prie veido atpažinimo (angl. facial recognition) technologijų paslaugų. Kaip aiškino LRT.lt kalbintas KTU dirbtinio intelekto tyrėjas M. Lukoševičius, „Microsoft“ tikriausiai nusprendė, kad šios technologijos kompanijai kelia daugiau problemų, nei teikia naudos.
„Vyksta tam tikra industrijos savireguliacija. Didelės kompanijos brangina savo vardą. Dauguma dirbtinio intelekto mokslininkų turi aukštus etikos standartus, atsisako dirbti abejotinuose projektuose. Industrijos savireguliacija taip pat užbėga už akių įstatymų leidėjams, kad šie galiausiai „visko neuždraustų“, leidžia įmonėms, asociacijoms žaidimo taisykles kurti ir siūlyti pačioms. Be abejo, jos nenori investuoti į sritį, kuri gali greitai būti uždrausta“, – pasakojo ekspertas.
Kompanijos „Microsoft“ sprendimui įtakos turėjo ir JAV bei Europos įstatymų leidėjų spaudimas sureguliuoti veido atpažinimo technologijų taikymą, ypatingą dėmesį skiriant asmens duomenų apsaugai. Asmens duomenų apsauga – sritis, kur neretai susikerta korporacijų ir valdžios institucijų interesai. M. Lukoševičiaus teigimu, bendrą sutarimą rasti sunku ir dėl nevienodo valstybių požiūrio į privatumą, tai lemia skirtingos kultūrinės ir istorinės aplinkybės.
„Europa turi labai skaudžią istorinę patirtį su totalitariniais režimais, todėl puoselėja demokratijos, žmogaus teisių vertybes, bene griežčiausiai žiūri į žmogaus privatumą, baiminasi tokiose distopijose kaip Džordžo Orvelo „1984-ieji“ aprašyto scenarijaus. Vyrauja nusiteikimas, kad niekas neturėtų turėti tokios didelės galios, kokią suteikia masinis sekimas. Kitaip į šiuos dalykus žiūri totalitarinių šalių vadovybės, kurios nevengia masinio sekimo ir kontrolės. Jos šiose technologijose mato daug galimybių. Amerikiečių požiūris artimesnis europietiškam, tačiau privatumo reikalavimai ten kiek mažiau griežti, jo kiek daugiau nei Europoje išmainoma į komercinius interesus, nacionalinį saugumą, greitesnį technologijų progresą“, – sakė M. Lukoševičius.
Nepaisant „Microsoft“, vienos įtakingiausių tarptautinių kompanijų, sprendimo sustabdyti emocijų atpažinimo paslaugų pardavimus, pati technologija, KTU docento teigimu, niekur nedings. Daugybė kompanijų, įskaitant ir kitus didžiuosius dirbtinio intelekto debesijos tiekėjus „Google“ ir „Amazon“, ir toliau teikia tokias paslaugas. Technologijos taikomos ir lokaliai, siauresniu mastu, tarkime, fotoaparatuose, kurie sugeba nuspėti, ar fotografuojami žmonės šypsosi. M. Lukoševičiaus nuomone, svarbiausia užtikrinti, kad tokie duomenys nebūtų išnaudojami piktybiniams tikslams pasiekti.
„Manau, kad aukso viduriukas turbūt slypi kažkur tarp europietiško ir amerikietiško požiūrio. Dideli suvaržymai gali pristabdyti technologinį progresą tik ten, kur jie galioja. Aš už tai, kad technologijas suprastume, kurtume ir taikytume pagal tai, kokią ateitį norime matyti. Jei liksime nuošaly, jei ją už mus sukurs kiti, turintys kitokias vertybes, tikėtina, kad nebūsime patenkinti rezultatu“, – dėstė KTU dirbtinio intelekto tyrėjas M. Lukoševičius.