Jau kurį laiką pasaulyje vis plačiau diskutuojama apie dirbtinio intelekto (DI) keliamus pavojus. Šiose diskusijose įsipina ir reguliacinių priemonių poreikis. Europoje bendrų taisyklių ar reikalavimų DI nėra, tačiau po daugybės diskusijų patvirtinta kompromisinė siūlomo Dirbtinio intelekto reglamento (DI akto) versija. „Dirbtinį intelektą vis dažniau tapatiname su žmogiškuoju, todėl ir teisiniai reikalavimai jam turi būti keliami panašūs“, – 15min teigė VDU prof. Jurgita Kapočiūtė-Dzikienė.
Asociatyvi „Pixabay“ nuotr.
Verslai tampa vis labiau priklausomi nuo dirbtinio intelekto siūlomų įrankių. Siūlomi sprendimai gali padėti pagerinti bendravimą su klientais, aktyviai spręsti rizikos ir sukčiavimo problemas, apdoroti duomenis ar netgi patobulinti verslo planus. DI priemonės taip pat gali padėti generuoti idėjas, rašyti tekstus ar net kurti įspūdingas iliustracijas.
Tačiau yra ir kita, mažiau maloni pusė, dėl kurios visame pasaulyje didėja DI ribas nustatančių taisyklių poreikis. Vienas iš tokių – būsimasis Europos Sąjungos (ES) dirbtinio intelekto aktas (angl. Artificial Intelligence Act, AI Act).
Šiuo aktu ES ketina sukurti pirmuosius pasaulyje plačius dirbtinio intelekto reguliavimo standartus. Taisyklės ne tik nustatys, kaip ši technologija paveiks beveik 450 mln. piliečių 27 ES šalyse, bet ir greičiausiai turės įtakos tam, kaip dirbtinis intelektas bus naudojamas kitose pasaulio vietose.
Kylančios grėsmės
„Pagrindinis tikslas yra apsaugoti žmogaus teises, kurias gali pažeisti dirbtinis intelektas“, – 15min pasakojo dirbtinio intelekto teisės ekspertas dr. Paulius Pakutinskas.
Pažeisti žmogaus teises DI gali daugybe skirtingų būdų – nuo diskriminacijos iki privatumo pažeidimų.
„Kaip ir kitos naujesnės technologijos, dirbtinio intelekto (daugiausia mašininio apmokymo) pagrindu veikiančios sistemos sukelia teisinių klausimų, kurių iki tol nebuvo. Kitų valstybių praktikoje yra buvę praktinių situacijų, kurios sukėlė konkrečių teisinių problemų“, – teigė teisės firmos „Sorainen“ advokatas, ekspertas Stasys Drazdauskas.
Tarp eksperto įvardintų pavyzdžių – Estijoje vykdyta socialinių išmokų reforma, kurios metu buvo automatizuotos išmokų skyrimo procedūros neįgaliesiems, tačiau dėl neišsamių duomenų panaudojimo kuriant automatizuotą negalios nustatymo sistemą, ir atsisakius asmeninių interviu, buvo priimta nemažai sprendimų, kuriais nepagrįstai atsisakyta skirti išmokas.
„Kai kurios problemos yra labai ryškios, pavyzdžiui, Kinijoje naudojama socialinių kreditų sistema, kai visas miestas stebimas kameromis ir gyventojai vertinami balais. Jei surenki daug balų – tau pigiau važiuoti autobusu, lengviau gauti paskolą“, – pasakojo P. Pakutinskas.
Jo teigimu, tokioje sistemoje gali atsirasti spragų, tarkim, kai gyventojai iš vargingesnių miesto rajonų priskiriami tiems, kuriems paskolos geriau neduoti.
„Ypatingai kalbama ir apie vaizdo sekimą, kurio dėka galima skenuoti visus veidus ir prasukinėti pro duomenų bazę“, – pridūrė ekspertas.
Panaši diskriminacija atsirasti gali ir „netyčia“. „Mums suprantama, kas gerai ar blogai, o dirbtinis intelektas tiesiog dirba su duomenimis. DI išankstinis nusistatymas, subjektyvumas yra labai plačiai diskutuotinas“, – komentavo P. Pakutinskas.
DI yra apmokomas ant duomenų bazių – tad tam tikrais atvejais, jei patys duomenys suformuoja diskriminacijos burbulą, DI sistemos jį taikys ir ateityje. P. Pakutinsko teigimu, geriausiai tokią situaciją galime įsivaizduoti Lietuvos mastu, kur paėmus istoriškai, vadovo portretas būtų baltaodis vidutinio amžiaus vyras. Apmokytas ant tokios statistikos, dirbtinis intelektas iš krūvos gyvenimo aprašymų gali atrinkti tik tokius kriterijus atitinkančius vyrus, aklai atmesdamas visus kitus kandidatus.
„Įdarbinimui naudojamos kandidatų vertinimo sistemos gali per daug įsibrauti į kandidatų privatumą, kai analizuojami socialinių tinklų profiliai. Duomenų analitika skaičiuojant draudimo įmokų dydį gali nepagrįstai diskriminuoti pagal gyvenamąją vietą pavojingame rajone, pajamų dydį, išsilavinimą. Netinkamai veikiančios sistemos, kurios sprendžia kuriam pacientui teikti prioritetą greitosios iškvietimo atvejais, gali turėti tiesioginių pasekmių pacientų sveikatai“, – pavyzdžius vardijo S. Drazdauskas.
Tuo tarpu naudojant paprastas, pastaruoju metu itin išpopuliarėjusias DI programėles, vartotojai gali susidurti ir su duomenų saugumo spragomis ar necenzūruojamu vaikų pornografijos turiniu.
Tiek programėlėse, kuriančiose iliustracijas ar dirbančiose su jau pateiktomis nuotraukomis, tiek paprastose DI sistemose taip pat gausu rasinės ir lytinės diskriminacijos.
Verta paminėti, kad DI gali būti naudojamas „deepfake“ – tikroviškai atrodančių skaitmeninių vaizdo manipuliacijų – kūrimui, kurias galima išnaudoti skleidžiant dezinformaciją.
„Yra sričių, kur dirbtinis intelektas geba aplenkti žmogų, tačiau yra sričių kur jis atsilieka, todėl klaidų tolerancijos slenkstis privalo skirtis“, – teigė VDU profesorė J.Kapočiūtė-Dzikienė.
Ekspertų teigimu, dabar kalbant apie DI panaudojimą, dalis galimų grėsmių iki šiol nėra žinoma. Taip pat šiuo metu itin lengva pasinaudoti DI sistemomis sukčiaujant ir nesulaukti už tai atpildo. Dėl to mąstyti reikia ne tik apie dabartį, bet ir apie ateitį.
„Studentas, rašydamas baigiamąjį darbą, pasinaudoja „ChatGPT“ (teksto generavimo), „QuillBot“ (teksto perfrazavimo) ir „Google translate“ (teksto vertimo į lietuvių kalbą) įrankiais. Dėstytojas ne visada gali nustatyti kas (studentas ar dirbtinis intelektas) tą darbą parašė, todėl visa atsakomybė tenka studentui. Kol kas, deja, tik moralinė, nes autorystės nustatymo programos nėra tiek pažengusios. Jei po dešimt metų paaiškės studento nesąžiningumo atvejis, ar iš jo reikės atimti universiteto diplomą? Tai tik vienas pavyzdys – aisbergo viršūnė, todėl apie pasekmes ateityje reikia galvoti jau dabar“, – pavyzdį pateikė J.Kapočiūtė-Dzikienė.
Europos Sąjunga žengia nepramintu taku
S. Drazdausko teigimu, šios problemos nebūtinai reiškia, kad yra būtina kuo greičiau priimti teisinį reguliavimą.
„Dalį problemų gali išspręsti bendrieji žmogaus teisių gerbimo, žalos vengimo, sąžiningumo, skaidrumo principai, kuriuos jau yra suformulavusi DI ekspertų grupė. Nors šie principai nėra privalomi, rinkos dalyviai, sistemų kūrėjai, turi paskatinimą jais vadovautis tiek dėl to, kad būtų konkurencingesni, tiek dėl to, kad kuo daugiau bus laikomasi šių principų, tuo mažiau poreikio bus nustatyti privalomų reikalavimų“, – teigė pašnekovas.
Tuo tarpu P. Pakutinskas pastebi, kad ES eina teisingu keliu.
„Yra UNESCO rekomendacijos, jos tarptautinės. Bet visa bėda yra tai, jog čia rekomendacijos. O ES nuėjo kitu, reglamento keliu, ir tai yra gerai“, – teigė ekspertas.
Reguliacinių priemonių įvedimą palaiko ir J.Kapočiūtė-Dzikienė: „DI reguliavimo standartai visoje Europos Sąjungoje turi būti vienodi. Aš už mokslą be sienų: už bendradarbiavimą, dalinimąsi patirtimi, bendrus projektus. Tik bendromis jėgomis galima sukurti nepaprastus dalykus. Vienodos taisyklės tai padėtų užtikrinti“, – teigė ji.
ES DI aktas bus pirmasis horizontalusis teisės aktas ES, kuriuo bus reguliuojamos DI sistemos ir nustatomos saugaus ir patikimo produktų su DI komponentais pateikimo ES rinkai taisyklės.
Tikimasi, kad reglamento taikymo sritis (paslaugų teikėjams ir naudotojams už ES ribų, kai sistemos sukuriama produkcija naudojama ES) ir itin didelės baudos, kurių dydis – iki 30 mln. eurų arba iki 6 proc. įmonės bendros pasaulinės metinės apyvartos už praėjusius finansinius metus – suformuos reguliavimo reikalavimus ES ir už jos ribų.
„Šiandien matyti, kad ES yra, vis dėlto, linkusi nustatyti nemažai bendrųjų taisyklių reguliuojant DI sritį. Iš DI reglamento projekto svarstymo galima matyti, kad reguliavimo apimtis bus platesnė, nei siūlo Komisija, įtraukiant daugiau apribojimų įvairesnių rūšių sistemoms (daugiau sistemų rūšių priskiriant didelės rizikos DI sistemoms). Europos Duomenų Apsaugos Valdyba siūlo netgi kai kurias kategorijas sistemų apskritai uždrausti visais atvejais (tos, kurios gali pažeisti žmogaus orumą), o ne kategorizuoti jas kaip didelės rizikos sistemas“, – reglamento projektą komentavo S. Drazdauskas.
DI aktą dar turi patvirtinti Europos Parlamentas. Jei bus laikomasi šio grafiko, galutinis Aktas dėl dirbtinio intelekto turėtų būti priimtas iki 2023 m. pabaigos.
Iškyla sunkumų
Tačiau ne viskas rožėmis klota. Pirmąjį Akto dėl dirbtinio intelekto pasiūlymą Europos Komisija paskelbė dar 2021 m. balandžio mėnesį – o galutinio rezultato vis dar nematyti.
„Technologijų srities reguliavimas visada, viena vertus, yra teigiamas dėl to, kad visiems atneša daugiau aiškumo ir apibrėžtumo, suvaldo lūkesčius. Kita vertus, dažniausiai greitai pasensta, nes priėmimo laikas yra ilgas, o technologijos keičiasi ir atsinaujina labai greitai“, – pridūrė S. Drazdauskas.
Formuojant reglamentą susidurta su apibrėžtumo sunkumais.
„Buvo daug galvų laužoma dėl apibrėžimo – ta sąvoka buvo labai išplėsta, iki beprotybės. Tikrai neatitiko prasmės. Atrodo, koks čia skirtumas? O skirtumas esminis, nes jei mes su didžiulėmis baudomis uždėsime reguliavima tiems santykiams, kurie neturi potencialo generuoti tokių rizikų, bus negerai“, – komentavo P. Pakutinskas.
S. Drazdausko teigimu, problemų kyla ir planuojant taikytinus apribojimus bei reikalavimus – kurioms sistemoms, kokie reikalavimai tūrėtų būti taikomi.
„Sunkumų yra gana daug, tiek ir suderinant su kitomis priemonėmis, ypatingai, duomenų apsauga, finansų sistemos reguliavimu, valstybės valdžios institucijų kompetencija ir pan.“, – pridūrė ekspertas.