Europos Taryba pagaliau patvirtino Europos Sąjungos dirbtinio intelekto aktą (DI aktas). Tai reiškia, kad po oficialaus paskelbimo artimiausiu metu šis teisės aktas įsigalios ir taps privalomas. DI aktu siekiama pažaboti su dirbtinio intelekto sistemų kūrimu bei naudojimu susijusias rizikas ir užtikrinti, kad šios technologijos plėtros centre visuomet liktų žmogaus interesai.
Asociatyvi DI sugeneruota „Pixabay“ nuotr..
Kam aktas bus taikomas?
Ovidijus Speičys, advokatų kontoros „Glimstedt“ vyresnysis teisininkas tikina, kad DI aktas bus taikomas plačiam subjektų ratui.
„Pavyzdžiui, tiekėjams, kurie kuria dirbtinio intelekto sistemas ir jas tiekia į Europos Sąjungos (ES) vidaus rinką, nepriklausomai nuo to, kur veikia ar yra įsisteigę šie tiekėjai. Taip pat naudotojams (angl. deployers), kurie apima visus fizinius ir juridinius asmenis, valstybės institucijas bei kitus subjektus, dirbtinio intelekto sistemas naudojančius profesiniais tikslais, įsisteigusius ar veikiančius ES teritorijoje“, - sako teisininkas Ovidijus Speičys.
Jis aiškina, kad DI aktas bus taikomas tiekėjams ir naudotojams, kurie yra įsisteigę ar veikia ne ES teritorijoje, bet jų pasitelkiamos dirbtinio intelekto sistemos sukurtas rezultatas naudojamas ES teritorijoje. DI aktas bus aktualus dirbtinio intelekto sistemų importuotojams ir tiekėjams. Produktų, į kuriuos integruotos dirbtinio intelekto sistemos, gamintojams, kai jie šiuos produktus, pažymėtus jų pavadinimu ar prekės ženklu, patiekia į ES vidaus rinką.
Taip pat oficialiems tiekėjų atstovams, kurie nėra įsisteigę ES teritorijoje, ir ES teritorijoje esantiems asmenims, kurie gali būti paveikti dirbtinio intelekto sistemų naudojimo.
Anot pašnekovo, DI aktas numato ir tam tikras taikymo išimtis. Šis aktas nebus taikomas tokioms dirbtinio intelekto sistemoms, kurios naudojamos karinėje pramonėje ir nacionalinio saugumo tikslais. Taip pat nebus taikomas toms dirbtinio intelekto sistemoms, kurios sukuriamos mokslinių tyrimų tikslais.
Dirbtinio intelekto sistemų rizikos grupės
Advokatų kontoros „Glimstedt“ vyresniojo teisininko teigimu, DI aktas dirbtinio intelekto sistemas suskirsto į keturias grupes: nepriimtinos rizikos, aukštos rizikos, ribotos rizikos ir minimalių rizikų sistemas:
Nepriimtinos rizikos sistemos – draudžiamos. Tai būtų, pavyzdžiui, manipuliacija darant įtaką žmonių sprendimams, pasinaudojant jų pažeidžiamumu, kai tai gali jiems ar kitiems žmonėms sukelti rimtos žalos; duomenų rinkimas socialinių kreditų sistemoms, kurios nepagrįstai diskriminuotų tam tikras žmonių grupes; sistemos, kurios padėtų nuspėti galimą žmonių kriminalinį elgesį ateityje, remiantis jų asmeninėmis charakteristikomis.
Aukštos rizikos sistemos. Tai su tam tikromis išimtimis būtų, pavyzdžiui, biometrinių duomenų rinkimas ir naudojimas; sistemos, įdiegtos kaip saugumo elementai kritinėje infrastruktūroje, tokioje kaip kelių eismo reguliavimas, vandens, dujų tiekimas ir pan.
Mokymo įstaigose naudojamos sistemos, skirtos, pavyzdžiui, mokinių ar studentų atrankai, jų mokymosi procesui įvertinti; darbo santykiuose darbdavių naudojamos sistemos, skirtos darbuotojų atrankai ir jų darbo rezultatams įvertinti; sistemos, skirtos asmens kredito reitingui, draudimo rizikai įvertinti; sistemos, naudojamos teisėsaugos institucijų; sistemos, skirtos migrantų prašymams apdoroti; sistemos, skirtos teisėjų sprendimų priėmimui palengvinti.
Aukštos rizikos dirbtinio intelekto sprendinių atžvilgiu tiekėjai turės parengti dokumentaciją, kuri apimtų techninę sistemos specifikaciją, tikslus, kokie duomenys buvo naudojami ją kuriant, atlikti rizikų įvertinimą prieš paleidžiant sistemą į rinką ir visus šiuo dokumentus pateikti priežiūros institucijai. Šių sistemų naudotojai turės pareigą užtikrinti, kad sistemos naudojamos pagal tiekėjų nustatytas instrukcijas ir kad jų veikimą visuomet prižiūrėtų tinkamą kompetenciją turintis žmogus. Jei naudotojai matys, kad jų naudojamos dirbtinio intelekto sistemos veikia netinkamai, pagal situaciją turės pareigą apie tai informuoti tiekėją ar priežiūros instituciją.
Ribotos rizikos sistemos. Dėl šių sistemų DI aktas nustato skaidrumo pareigas. Tai iš esmės reiškia, kad dirbtinio intelekto sistemų tiekėjai turės užtikrinti, kad jomis ar jų rezultatais besinaudojantys vartotojai visuomet žinotų, kad sistemos ir jų rezultatai susiję su dirbtiniu intelektu. Tai liečia tiek visą dirbtinio intelekto sugeneruotą turinį, tiek kitas sistemas, pavyzdžiui, vadinamuosius pokalbių robotus (angl. chatbots). Bendro pobūdžio pareiga užtikrinti, kad dirbtinio intelekto sugeneruotas turinys būtų aiškiai identifikuojamas, nustatoma dirbtinio intelekto sistemų tiekėjams, t. y. jų kūrėjams.
Kitos dirbtinio intelekto sistemos, kurios nepatenka nė į vieną iš nurodytų kategorijų, priskiriamos minimalių rizikų kategorijai ir DI aktas joms nenustato atskirų reikalavimų.
DI taikymas ir sankcijos
Tarp DI akto įsigaliojimo ir pradėjimo taikyti numatyti tam tikri pereinamieji laikotarpiai, skirti tinkamai pasiruošti jo įgyvendinimui. Numatyti tokie DI akto pradėjimo taikyti terminai:
- reikalavimai, susiję su draudžiamų dirbtinio intelekto sistemų naudojimu, bus pradėti taikyti po šešių mėnesių nuo DI akto įsigaliojimo;
- reikalavimai, susiję su bendro naudojimo dirbtinio intelekto sistemomis, tokiomis kaip ChatGPT, – po vienerių metų;
- reikalavimai didelės rizikos dirbtinio intelekto sistemoms bus pradėti taikyti po dvejų metų.
Pagrindinė Dirbinio intelekto akto priežiūros institucija Europos Sąjungoje bus neseniai įsteigtas Dirbtinio intelekto biuras. Ši įstaiga turėtų užtikrinti tinkamą akto įgyvendinimą, nustatyti gerosios praktikos kodeksus, kurių laikymasis reikštų atitiktį DI akto reikalavimams. Kiekviena valstybė narė įsigaliojus aktui turės per vienerius metus paskirti nacionalinę priežiūros instituciją.
Kaip teigia teisininkas Ovidijus Speičys, dirbtinio intelekto aktas už jame nustatytų reikalavimų pažeidimus numato ir sankcijas.
„Pavyzdžiui, draudžiamų dirbtinio intelekto sistemų naudojimas gali užtraukti sankciją iki 35 000 000 Eur arba 7 proc. globalių metinių pajamų, priklausomai nuo to, kuri suma didesnė. Kitų reikalavimų nesilaikymas gali užtraukti nuobaudą iki 15 000 000 Eur arba 3 proc. metinių pajamų, priklausomai nuo to, kuri suma didesnė. DI aktas numato, kad skiriant baudas turėtų būti atsižvelgiama į kiekvienos situacijos aplinkybes, o valstybės narės turės galimybę numatyti ir kitas poveikio priemones, tokias kaip įspėjimai už tam tikrų reikalavimų neįvykdymą“, - vardina teisininkas.
Kas laukia toliau?
DI aktas, atsižvelgiant į jo apimtį bei potencialų poveikį, neišvengiamai sukėlė nemažai diskusijų. Iš vienos pusės, džiaugiamasi, kad pagaliau teisiniais instrumentais bus siekiama užtikrinti, kad tolesnio dirbtinio intelekto sistemų plėtojimo bei naudojimo centre visuomet būtų žmonių interesai bei jų gerovė. Iš kitos pusės, baiminamasi, kad naujasis teisinis reguliavimas dirbtinio intelekto sistemas kuriančioms bei naudojančioms įmonėms gali užkrauti per didelę administracinę naštą ir sumažinti ES technologijų sektoriaus konkurencingumą, dėl kurio neretai jau ir taip nuogąstaujama. Be to, realus DI akto įgyvendinimas taip pat priklausys ir nuo priežiūros institucijose bei šias sistemas naudojančiose įmonėse dirbančių žmonių techninio pasirengimo ir noro bendradarbiauti.
Ar DI aktu bus pasiekti juo keliami tikslai ir bus užtikrintas saugus bei visuomenės gerovę užtikrinantis dirbtinio intelekto naudojimas, parodys netolima ateitis. Šiandien aišku, kad, siekdamos tinkamai pasiruošti naujajam reguliavimui, visos įmonės, bet kokiais komerciniais tikslais naudojančios dirbtinio intelekto sistemas, turėtų įsivertinti, ar nepatenka į kurią nors iš DI akte numatytų subjektų kategorijų, ir suprasti, kokios pareigos jų laukia, bei jau pradėti rengtis jų įgyvendinimui.