Ką reiškia sąvoka „atsakingas dirbtinis intelektas“? Prieš pamėgindami ją apibrėžti bei aptarti jos sudedamąsias dalis, žvilgtelkime į vieną istoriją, kuri gali padėti suvokti šio reiškinio svarbą.
Asociatyvi „Pixabay“ nuotr. |
---|
Parmy Olson neseniai pasirodžiusioje knygoje „Supremacy: AI, ChatGPT and the Race That Will Change the World“ aprašo „OpenAI“ ir „Deepmind“ (šiuo metu – „Google Deepmind“) – dviejų lyderiaujančių pasaulyje dirbtinio intelekto kompanijų – istoriją bei karštligiška tapusią konkurencinę kovą. Viena jos aprašomos istorijos dalis ypač priverčia susimąstyti. Visi žinome, kad „OpenAI“ 2022 m. lapkričio mėn. pirmą kartą viešai pristatė savo produktą „ChatGPT“[1] ir akimirksniu tapo dirbtinio intelekto rinkos lydere bei paskatino iki tol neregėtą susidomėjimą dirbtiniu intelektu.
Galbūt kiek mažiau žinoma, kad transformerio (angl. transformer, taip pat – transformerio neuroninio tinklo) technologiją[2], kuri įgalino tokių didžiųjų kalbos modelių kaip „ChatGPT“ veikimą, dar 2017 m. buvo sukūrusi „Google“. Šios technologijos pagrindu „Google“ taip pat sukūrė tuo metu pasaulyje pažangiausią didįjį kalbos modelį BERT[3]. Tačiau BERT taip niekada ir nebuvo pristatytas vartotojams. Kodėl taip nutiko?
Dabar galima tik įsivaizduoti, kaip būtų atrodęs dabartinis dirbtinio intelekto industrijos kraštovaizdis, jei „Google“ nebūtų patyrusi „Photos“ programėlės skandalo ir būtų pirmoji vartotojams pristačiusi savo didįjį kalbos modelį. Galbūt didžioji visuomenės dalis apie „OpenAI“ taip ir nebūtų nieko sužinojusi.
Ar „Google“ galėjo išvengti 2015 m. ją ištikusio skandalo? Greičiausiai taip. Jei dirbtiniu intelektu grįstą „Photos“ programėlę būtų sukūrusi ir ištestavusi atsakingiau arba, kitais žodžiais tariant, šį produktą sukūrusi, vadovaudamasi atsakingo dirbtinio intelekto (angl. responsible AI) principais.
Taigi, kas yra atsakingas dirbtinis intelektas?
Sąvoką atsakingas dirbtinis intelektas būtų galima apibrėžti kaip priemonių, skirtų užtikrinti, kad dirbtinio intelekto sistemos būtų kuriamos bei naudojamos taip, kad dirbtinis intelektas būtų naudingas asmenims, jų grupėms bei visai visuomenei, minimizuojant neigiamų pasekmių riziką, visuma[4].
Atsakingas dirbtinis intelektas taip pat vadinamas etišku dirbtiniu intelektu (angl. ethical AI), patikimu dirbtiniu intelektu (angl. trustworthy AI) ar vertybėmis grįstu dirbtiniu intelektu (angl. values-driven AI).
Visų šių priemonių visuma, nepriklausomai nuo konkrečiame kontekste vartojamo jų pavadinimo, iš esmės gali būti suvokiama kaip dirbtinio intelekto etikos principų įgyvendinimo užtikrinimas, t. y. priemonių, padedančių užtikrinti, kad šie etikos principai bus įgyvendinti praktinėje įmonės veikloje, visumos sukūrimas.
Pastaraisiais metais pasirodė daugybė dirbtinio intelekto etikos principų rinkinių. Vieni geriausiai žinomų, greičiausiai, yra Ekonominio bendradarbiavimo ir plėtros organizacijos (OECD) dirbtinio intelekto principai[5]. OECD nurodo tokius principus: įtraukus augimas, tvari plėtra ir gerovė; žmogaus teisės ir demokratinės vertybės, įskaitant sąžiningumą ir privatumą; skaidrumas ir paaiškinamumas; atsparumas ir saugumas; atskaitomybė.
Žinoma, pats dirbtinis intelektas tėra programinė įranga, kuri pati negali prisiimi jokios atsakomybės. Šią atsakomybę turėtų prisiimti dirbtinio intelekto sistemas kuriantys bei naudojantys asmenys. Tam, kad taikytini etikos principai būtų iš tiesų įgyvendinti, šiame procese turėtų dalyvauti visa organizacija, pradedant nuo programinės įrangos kūrėjų ir baigiant įmonės vadovybe.
Į atsakingo dirbtinio intelekto priemonių visumą galima žvelgti iš kelių perspektyvų[4]:
- Produkto perspektyva: dirbtinio intelekto sistema jau kuriant dizainą turėtų būti suplanuojama taip, kad pasirinkti sprendimai ne tik galėtų išspręsti identifikuotą verslo problemą (tinkamai atlikti numatytas funkcijas), bet ir leistų užtikrinti taikytinų teisinių bei etikos reikalavimų įgyvendinimą.
- Proceso perspektyva: dirbtinio intelekto sistemas kuriančioje ar naudojančioje organizacijoje turėtų būti sukurtas procesas, kuris leistų užtikrinti, kad taikytini etikos reikalavimai būtų įgyvendinami visose dirbtinio intelekto sistemos kūrimo stadijose, t. y. ją kuriant, testuojant bei pradedant naudoti.
- Valdysenos perspektyva: dirbtinio intelekto sistemas kurianti ar naudojanti organizacija turėtų pasirūpinti, kad atitinkama sistema (jos naudojimas) ne tik atitiktų taikytinus teisės aktų reikalavimus, pavyzdžiui, numatytus Europos Sąjungos DI akte[6], bet ir tai, kad organizacijoje būtų įdiegta reikiama dirbtinio intelekto valdysenos sistema nuo dirbtinio intelekto naudojimo gairių iki rizikų identifikavimo bei suvaldymo priemonių.
Kam tai turėtų rūpėti?
Atsakymas į šį klausimą paprastas iš esmės kiekvienai įmonei, kuriančiai ar naudojančiai dirbtinio intelekto sistemas.
Gali pasirodyti, kad aptartas „Google“ pavyzdys yra kiek nutolęs nuo realybės. Atrodytų, tai technologijų milžinė, turinti unikalų poveikį žmonių gyvenimams ir susidurianti su tik tokio dydžio kompanijoms būdingomis problemomis. Bet nėra visiškai taip. Pavyzdžių, kai nekokybiškas dirbtinio intelekto produkto veikimas jį į rinką skubotai bei neapdairiai išleidusiai įmonei sukėlė problemų, būtų galima nesunkiai rasti ir daugiau, ir ne tik tarp didžiųjų technologijų kompanijų. Todėl aptartame pavyzdyje slypi pamoka, aktuali kiekvienai dirbtinio intelekto sistemas kuriančiai (bei naudojančiai) įmonei. Pasidavus konkurenciniam spaudimui (ar dėl kitų, dažnai suprantamų priežasčių) ir į rinką skubotai išleidus dirbtinio intelekto produktą, kuris vienu ar kitu būdu netikėtai pažeidžia vartotojų teises, gali kilti ne tik teisinių pasekmių, bet ir reputacinė žala (o ji tam tikrais atvejais, galbūt, net ir reikšmingesnė), po kurios atsitiesti vartotojų akyse gali būti itin sudėtinga. Todėl kiekviena dirbtinio intelekto sistemas kurianti bei naudojanti įmonė turėtų įdiegti tiek technines, tiek valdysenos priemones, kad jų dirbtinio intelekto sistema būtų atsakinga ir atitiktų tiek taikytinus teisės aktų reikalavimus, tiek keliamus bendresnius etikos reikalavimus.
[1] „OpenAI“ 2022 m. lapkričio 30 d. viešai pristatė „ChatGPT 3.5“ versiją, o 2024 m. kovo 14 d. – „ChatGPT 4“.
[2] Raidė „T“ pavadinime ChatGPT žymi būtent transformerio neuroninį tinklą.
[3] BERT – Bidirectional encoder representations from transformers.
[4] Qinghua Lu, Liming Zhu, Jon Whittle, Xiwei Xu, „Responsible AI. Best practices for creating trustworthy AI Systems“, Addison-Wesley, 2024.
[5] https://www.oecd.org/en/topics/ai-principles.html
[6] 2024 m. birželio 13 d. Europos Parlamento ir Tarybos reglamentas (ES) 2024/1689.
Parengė advokatų kontoros „Glimstedt“ teisininkas, advokatas Ovidijus Speičys