Modernios technologijos, lengvindamos šiuolaikinio žmogaus kasdienybę, ne visais atvejais gali veikti jo naudai. Kaip jaustumėtės, jei sprendimą dėl jūsų atleidimo iš darbo priimtų dirbtinis intelektas (DI)? Ar sutiktumėte, kad teismo byloje sprendimą savo nuožiūra priimtų algoritmas? Apie tai, kokią įtaką sparčiai besivystančios technologijos daro žmogaus teisėms, orumui ir saugumui, komentuoja „Telia“ atstovas.
Asociatyvi „Adobe Stock“ nuotr.
„Šiuolaikinėje visuomenėje neretai girdimi pasvarstymai, kad bandymas reguliuoti technologijų vystymą ir naudojimą stabdo jų progresą ir tame gali būti tiesos. Deja, tik nedidelė dalis žmonių susimąsto ir apie kitą, kiek niūresnę pusę, kai nevaldoma inovacijų plėtra gali padidinti visuomenės grupių atskirtį bei sudaryti galimybes piktnaudžiavimui žmogaus teisėmis. Tik įvedus aiškius etikos principus, skaidrumo reikalavimus, reguliavimą, galime užtikrinti, kad technologijos kurtų visiems lygiavertę ir saugią skaitmeninę aplinką, o ne prisidėtų prie naujų diskriminacijos formų kūrimo“, – teigia „Telia“ vyriausiasis juriskonsultas, teisės profesorius Paulius Pakutinskas.
DI kūrėjų pareiga – išvengti šališkumo
P. Pakutinskas paminėjo, kad ES regionas pirmauja reglamentuojant naujas technologijas ir prioritetą visada teikia bendražmogiškoms vertybėms, o ne tik didesnei ekonominei naudai. To pavyzdžiu jis įvardino pirmąjį pasaulyje DI vystymo ir naudojimo taisykles numatantį griežtą privalomą Dirbtinio intelekto aktą, kuris ES įsigaliojo dar šių metų rugpjūtį. Pagrindinis tikslas – užtikrinti žmogaus teises, pvz.: visiškai uždrausti DI sistemoms manipuliuoti žmonėmis, persekioti juos, išnaudoti pažeidžiamas žmonių grupes, o taip pat nustatyti aiškias taisykles kaip turi būti kuriami ir naudojami skirtingų rizikos grupių DI sprendimai.
„DI savaime nėra magiška, neklystanti technologija ar kažkoks „superžmogus“ – jo tikslumas labai priklauso nuo algoritmų, panaudotų duomenų. Deja, žmonės patys yra labai šališki, todėl ir daug mūsų sukurtų duomenų yra šališki, tačiau plačiai naudojamų technologinių sprendimų šališkumas gali daryti daug didesnę žalą negu pavienių žmonių. Tai puikiai iliustruoja plačiai nuskambėjęs Nyderlandų mokesčių inspekcijos atvejis, kai įdiegtas savaime apsimokantis DI neteisingai nustatė sukčiavimą ir iš motinos pareikalavo grąžinti daugiau nei 100 tūkst. eurų gautų vaiko išmokų. Ir tai nebuvo vienetinis atvejis, kai Nyderlandų mokesčių inspekcija pradėjo naudoti algoritmą sukčiavimo aptikimui vaikų priežiūros išmokų gavėjų kontrolei, rizikos profiliai, dažnai pagrįsti dviguba pilietybe ir mažomis pajamomis, nulėmė nepagrįstus kaltinimus sukčiavimu. Dėl to nukentėjo dešimtys tūkstančių šeimų – daugelis jų atsidūrė skurde, patyrė didžiules skolas, o kai kurie tėvai neteko vaikų globos. Skandalas privertė atsistatydinti vyriausybę ir pabrėžė būtinybę įdiegti griežtą DI reguliavimą“, – prisimena „Telia“ juriskonsultas.
Atskirose ne ES valstybėse atsiranda iniciatyvų ir net praktinių pritaikymų nesudėtingus teismų sprendimus automatiškai generuoti DI sistemoms, daug kur paprastus administracinių nusižengimų dokumentus automatiškai generuoja DI, todėl DI etikos reikalavimai ir reguliavimas pabrėžia žmogaus priežiūros svarbą..
Atsižvelgiant į šias rizikas, dirbtinio intelekto sistemų kūrėjai ir taikytojai turi aiškiai suvokti savo atsakomybę, nes DI nėra vien sprendimų automatizavimo įrankis – jis veikia kaip veidrodis, atspindintis mūsų pačių įsitikinimus, vertybes ir šališkumą. Rizikingų DI modelių kūrėjai turi būti pasirengę nuolat tikrinti ir tobulinti savo sprendimus, įtraukdami skirtingų disciplinų specialistus. Tai ypač svarbu, kad būtų išvengta atvejų, kai automatizuoti sprendimai pažeidžia žmonių teises ir kuria naujas nelygybės formas.
Beatodairiška skaitmenizacija veda į atskirtį
Technologinė pažanga, nepaisant visų savo suteikiamų privalumų, visuomenėje vis labiau išryškina naują reiškinį – skaitmeninę atskirtį. Jaunimui, kuris užaugo technologijų amžiuje, skaitmeniniai sprendimai yra savaime suprantami, tačiau vyresni asmenys iki šiol vargsta naudodamiesi tokiais elementariais įrankiais, kaip elektroninė bankininkystė ar elektroninis paštas. Be šių technologijų dabartiniais laikais darosi beveik neįmanoma apsieiti, todėl tai riboja senjorų galimybes gyventi visavertį gyvenimą.
Vykdant viešųjų išteklių skaitmenizaciją, vyresni žmonės tarsi paliekami likimo valiai. Dėl riboto skaitmeninio raštingumo susitraukia jų galimybės dirbti kvalifikuotą darbą ar gauti gyvybiškai svarbias paslaugas. Pavyzdžiui, vien tam, kad peržiūrėtų savo gydymo išrašą, senjorui reikia prisijungti prie elektroninės sveikatos sistemos, save identifikuojant elektroniniu parašu arba per el. bankininkystę, kurių jis galimai nenaudoja arba apskritai bijo. Tai vyresnio amžiaus asmenis daro priklausomus nuo artimųjų ar kitų žmonių – taip žeminat jų orumą.
„Diegiant naujas technologijas, ypač viešajame sektoriuje, būtina sukurti pereinamuosius sprendimus ir prieinamas mokymo programas, kad senjorai bei mažiau technologiškai išprusę asmenys gebėtų naudotis viešosiomis paslaugomis. Tai apima lengvai suprantamus naudojimo vadovus, intuityvias sąsajas ar alternatyvius paslaugų teikimo būdus, kad žmonės turėtų galimybę pasirinkti labiausiai jiems priimtiną variantą. Be to, nereikėtų pamiršti švietimo saugumo temomis – net ir mokėdami naudotis svarbiausiais elektroniniais ištekliais, vyresni visuomenės nariai dažniau nukenčia nuo sukčių, klaidinančios reklamos ar dezinformacijos kampanijų“, – pažymi teisės profesorius.
Saugumo poreikis neturi nustelbti laisvės
Saugumo ir žmogaus teisių (pvz.: privatumo) tarpusavio derinimo tema visuomenėje susilaukia nevienareikšmiškų reakcijų. Įprastai žmonės linkę piktintis naujai įrengiamomis vaizdo stebėjimo kameromis ar greičio matuokliais, tačiau įvykus vaiko pagrobimui ar kitam rezonansiniam nusikaltimui šie priekaištai labai greita virsta kritika valstybės institucijoms dėl nepakankamo rūpinimosi saugumu. DI plėtra šią temą apraizgo dar daugiau klaustukų, nes jo potencialas gali būti lengvai panaudotas ne tik įvairių sukčių, bet ir valstybės institucijų savivalei.
Baimės dėl sekimo, pasitelkiant DI, nėra iš piršto laužtos, nes tam skirti įrankiai ir galimybės iš tiesų egzistuoja, tai kasdienybė daugelyje totalitarinių valstybių. Stebėjimo kameros, galinčios pagal veidus atpažinti žmones, gali būti panaudojamos kontroliuoti ir stebėti žmones. Ne ką mažiau gąsdina ir DI emocijų atpažinimo sistemos. Baimę kelia jei ateityje pasinaudoję jomis, darbdaviai galės nubausti darbuotojus už tariamą tinginiavimą, blogą nusiteikimą ar nesusikaupimą darbo metu. Džiugu, kad ES tai bus kategoriškai draudžiama.
„DI aktas neriboja technologijų vystymo, bet uždraudžia taikyti DI sprendimus taip, kad būtų pažeistos mūsų teisės. Dabartinėje geopolitinėje situacijoje saugumas yra labai svarbus, tačiau kai visuomenę apsėda besąlyginio saugumo manija, žmogaus teisės pradeda nykti, todėl turime būti budrūs ir neleisti saugumui tapti pasiteisinimu pažeisti žmogaus teises. Reikia suprasti, kad pusiausvyra tarp saugumo ir žmogaus teisių apsaugos yra brandžios demokratinės visuomenės pagrindas“, – pažymi „Telia“ vyriausiasis juriskonsultas.