„Nesvarbu, ar jus tai jaudina, ar neramina, bet neabejotina, kad atėjo dirbtinio intelekto laikas. Kas buvo nežinoma, šiandien jau tapo būtinybe“, – pradėdama Europos Parlamento Technologijų vertinimo organizacijos konferenciją (toliau – konferencija), vykusią spalio 9–10 dienomis Barselonoje, kalbėjo Katalonijos parlamento pirmininkė Ana Era Sola (Anna Erra Solà).
„Kaip ir visos technologijos, generatyvinis dirbtinis intelektas (DI) kelia dvejopo naudojimo iššūkį, todėl įstatymų leidėjai turi vertinti visus būdus, kaip sumažinti galimą žalą, ypač nacionaliniam saugumui, etikai, išnaudojant DI modelių privalumus“, – pabrėžė Seimo narys Kęstutis Vilkauskas, renginyje atstovavęs Seimo Ateities komitetui. Neoficialiame pokalbyje su Katalonijos parlamento pirmininke A. E. Sola, K. Vilkauskas pastebėjo, kad būtina imtis politinių veiksmų siekiant užtikrinti, kad teikiamos DI naudos nenusvertų jo keliama rizika.
Pagrindinis tarptautinės konferencijos pranešėjas Garis Markusas (Gary Marcus), vienas žymiausių pasaulyje dirbtinio intelekto ambasadorių, kalbėdamas apie dirbtinio intelekto iššūkius, rizikas ir galimybes, atkreipė konferencijos delegatų dėmesį į tarptautinės DI reguliavimo institucijos atsiradimo būtinybę. Jo nuomone, žmonija turi rasti būdą, kaip integruoti į ChatGPT patikimas, logika pagrįstas sistemas. „Pokalbių robotų algoritmus galima sukurti taip, kad jie būtų nukreipti į pažeidžiamus asmenis, teikiant pranešimus taip, kad atitiktų šių visuomenės atstovų asmeninius įsitikinimus ir emocijas“, – pažymėjo G. Markusas. Jo nuomone, didžiausią nerimą kelia tai, kad šių robotų eksploatavimas beveik nieko nekainuoja, todėl dezinformacijos generavimo išlaidos yra sumažinamos iki minimumo, o tai sudaro sąlygas, pavyzdžiui, manipuliuoti rinkimais, sutrikdant demokratinius procesus, skleidžiant melagingą informaciją ar manipuliuojant viešąja nuomone.
Konferencijos metu dauguma dirbtinio intelekto technologijų ekspertų ir pranešėjų pagrindinėse diskusijose pažymėjo, kad generatyvinis dirbtinis intelektas ir toliau tobulės ir greitai taps vertingu mokslininkų sąjungininku. Tačiau mokslo bendruomenė turi užtikrinti, kad ChatGPT ir kitų dirbtinio intelekto technologijų pažanga nebūtų užgožta jų keliamos rizikos. ISGlobal docentė ir biomedicininių duomenų mokslo komandos vadovė dr. Paula Petronė (Paula Petrone) minėjo kaip vieną iš rizikų – lyčių šališkumą, turintį įtakos dirbtinio intelekto algoritmams, ir kitas diskriminacijas, tokias kaip etninė priklausomybė, socialinė ir ekonominė padėtis ir kt. Jos nuomone, visos suinteresuotosios šalys turėtų skatinti šių technologijų plėtrą ir diegimą, tačiau suderintą su visuomenės vertybėmis ir interesais.
Dirbtinio intelekto tyrimų instituto EurAI prezidentas Karlesas Siera (Carles Sierra), kalbėdamas apie atsakingas technologijas ir socialinių dirbtinio intelekto baimių atrėmimą, pažymėjo, kad mokslu pagrįstos diskusijos, skirtos bendriems principams ir teisės aktams kurti, yra būtinos, kad būtų galima formuoti ateitį, kurioje dirbtinis intelektas turėtų teigiamą poveikį visuomenės gyvenimui. Kaip pažymi mokslininkas, jei tokių pokalbių nevyktų, ateityje gali kilti pavojinga dirbtinio intelekto skatinama ateitis.
Kontekstinė dirbtinio intelekto pritaikymo svarba (ypač švietimo ir sveikatos priežiūros srityse) įpareigoja kūrėjus, organizacijas, planuojančias diegti dirbtinį intelektą, ir net politikos formuotojus priimti realistiškus ir veiksmingus moralinius sprendimus, suvokiant ir pasveriant DI galimybes ir neigiamas pasekmes. Todėl, dirbtinio intelekto rizikos valdymo sistemos, etikos, moralės ir atsakomybės klausimų perspektyvos turėtų būti konsoliduotos, kad būtų priimti socialiai atsakingi sprendimai, kurie padėtų užtikrinti kryptingą, atsargų, pagrįstą ir etišką generatyvinių DI modelių panaudojimo būdą. Kaip renginyje pažymėjo Miuncheno technikos universiteto Į žmogų orientuotų mokymosi technologijų katedros prof. dr. Enkeleida Kasneci (Enkelejda Kasneci), dirbtinis intelektas turi būti ne pakaitalas, o padėjėjas, galintis padėti žmonėms susidoroti su iššūkiais.
Nepriklausomai nuo to, ar šie rūpesčiai bus išspręsti, ar ne, konferencijos dalyviai sutarė dėl dirbtinio intelekto reguliavimo būtinybės jau dabar, užtikrinant skaidrumą, atskaitomybę ir sąžiningumą šioje transformuojančioje naujovėje.