Dirbtinis intelektas itin prisideda kuriant pažangias bei kasdienį gyvenimą gerinančias technologijas. Visgi būtina atkreipti dėmesį, kad įrenginiai su dirbtiniu intelektu, pavyzdžiui, savaeigiai automobiliai arba dronai, gali padaryti žalą turtui arba sužeisti žmogų. Reaguodama į tai, Europos Komisijos darbo grupė šiemet išleido dokumentą, kuriame apžvelgė didžiausius šios srities iššūkius. Plačiau juos komentuoja Erikas Saukalas, advokatų profesinės bendrijos „Žabolienė ir partneriai METIDA“ partneris, advokatas, teismo mediatorius, tarptautinių ryšių grupės vadovas.
Avarijos – dėl gamintojo nenumatytų aplinkybių
Daugumoje Europos Sąjungos valstybių galioja principas, pagal kurį tiek sutartinės, tiek deliktinės atsakomybės atsiradimas siejamas su sutartį pažeidusio ar žalą nulėmusio asmens kalte. Vartotojų apsaugos srityje, t. y. kai žalą lemia netinkamos kokybės produktas, atsakomybė taikoma be kaltės. Vis dėlto ir šiuo atveju būtina įrodyti, kad žalą nulėmusio produkto kokybė netinkama.
Kalbant apie dirbtinio intelekto valdomus gaminius, pagrindinis iššūkis nustatant atsakingo asmens kaltę – didėjantis įrenginių autonomiškumas. Pavyzdžiui – nemažai keblumų dėl atsakingo asmens gali kilti, kai autonomiškas savaeigis automobilis žalą sukelia ne dėl defekto ar jame buvusio žmogaus veiksmų, o dirbtinio intelekto nulemto sprendimo. Jo gamintojas, išleisdamas automobilį į rinką, neturėjo galimybės tai numatyti.
Be to, atsakomybės už sukeltą žalą taikymą apsunkina ir įrenginių, kuriuose naudojamos dirbtinio intelekto technologijos, kompleksiškumas. Jį lemia juos sudarančių skirtingų komponentų bei sluoksnių tarpusavio priklausomybė: 1) techninės dalys / prietaisai (jutikliai, pavaros, įranga); 2) programinės įrangos komponentai ir aplikacijos; 3) duomenys; 4) duomenų teikimo paslaugos (jų rinkimas, apdorojimas ir analizavimas) ir 5) ryšių jungtys. Dažnu atveju šių komponentų gamintojai ar paslaugų tiekėjai yra skirtingi, todėl tampa sunkiau nustatyti kaltę.
Dar vienas civiliniams poreikiams pritaikomo įrenginio pavyzdys, kai sunku nustatyti atsakingo asmens kaltę dėl žalos, – dronas. Siuntų pristatymo paslaugas teikiančios bendrovės jau dabar testuoja autonomiškai veikiančius bepiločius orlaivius, kurie be žmogaus įsikišimo atliktų visus būtinus veiksmus. Gabendamas prekes užsakovui, toks bepilotis orlaivis gali nukristi ir padaryti žalą turtui arba sužeisti žmogų. Kadangi drono avariją gali nulemti daugybė aplinkybių, pavyzdžiui, prietaiso defektas, nepalankios oro sąlygos, kibernetinis išpuolis ir kitos priežastys, nukentėjusiam asmeniui bus itin sunku įrodyti civilinės atsakomybės taikymui reikalingas sąlygas.
Svarbu žalos atlyginimo mechanizmas
Minėtame EK darbo grupės dokumente pabrėžiama, kad, atsižvelgiant į didėjantį technologijų kompleksiškumą, siekiant užtikrinti bendrovių teisinį tikrumą, kuris padėtų skatinti investicijas į dirbtinio intelekto technologijas, šioje srityje būtina aiškiai apibrėžti žalos atlyginimo mechanizmą. Dėl šios aplinkybės EK suburta darbo grupė tęs savo darbą ir sieks detaliai išnagrinėti paminėtus civilinės atsakomybės klausimus šioje srityje bei pasiūlyti teisinio aiškumo suteiksiančias teisėkūros priemones.
Siekdamos sumažinti teisinį neaiškumą, bendrovės, kurių gaminami produktai ar teikiamos paslaugos susijusios su dirbtinio intelekto technologija, turėtų atidžiai įvertinti galimas rizikas bei prisiimamus sutartinius įsipareigojimus. Sutarčių nuostatos, kuriose detalizuojamos teisės į dirbtinio intelekto technologiją, turėtų būti lanksčios ir leisti ateityje sutarties šalims atsižvelgti į sparčiai besikeičiančią aplinką. Sutarties šalys turėtų apsvarstyti galimybę įtraukti nuostatas, kurios aiškiai apibrėžtų atsakomybę už dirbtinio intelekto technologijos nulemtą žalą, taip pat paskirstytų išlaidas, galimai nulemtas būtinybės užtikrinti naujų teisės aktų šioje srityje laikymąsi.
Atsižvelgiant į tai, kad dirbtinio intelekto algoritmas geba išmokti atlikti naujas funkcijas ir priimti sprendimus, kurie peržengia pirminį programavimą, bendrovės taip pat turėtų apsvarstyti, kaip tinkamai dokumentuoti dirbtinio intelekto priimamų sprendimų bei atliekamų funkcijų procesą. Tai svarbu tais atvejais, jeigu ateityje reikėtų įrodyti, kad tam tikrą programos sprendimą lėmė programinis kodas, kuris jo sukūrimo metu atitiko rinkoje nusistovėjusius standartus ir geriausią praktiką.