Dirbtinis intelektas (DI) jau seniai nebėra tik mokslinės fantastikos dalis. Jis tyliai, bet užtikrintai tampa neatsiejama mūsų kasdienio gyvenimo dalimi. Daugelis net nesusimąsto, kiek DI technologijų naudoja kiekvieną dieną.
Per pastaruosius metus, dirbtinis intelektas tapo bene aktualiausia tema, o tokius įrankius kaip „ChatGPT“ ar „DeepSeek“ šiandien naudoja daugelis mūsų. Tokių sprendimų populiarumas sukėlė susirūpinimą dėl to, kaip jie paveiks žmones įvairiose pramonės šakose, įskaitant žmones, kuriems sąvoka „dirbtinis intelektas“ yra svetima.

Su dirbtinio intelekto sistemomis susijusi tam tikra rizika, ypač kai kalbama apie jų potencialą platinti dezinformaciją, privatumo pažeidimus, pernelyg didelę priklausomybę ir, žinoma, karą.
Todėl didžiausių dirbtinio intelekto įrankių kūrėjai nuolat deda didžiules pastangas, kad jų sukurti sprendimai būtų saugūs. Bendrovė „Google“ jau šešerius metus kasmet skelbia atsakingo dirbtinio intelekto pažangos ataskaitą, o neseniai buvo paskelbta ir praėjusių metų ataskaita.
Tinklaraščio įraše „Google“ paminėjo, kad atnaujino savo „Frontier Safety Framework“. Jei nežinote, kas tai yra – tai „Google DeepMind“ sukurtas protokolų rinkinys, skirtas aktyviai nustatyti ir sumažinti galimą riziką, susijusią su pažangiais DI modeliais.
Kartu su saugos sistemos atnaujinimu, „Google“ pakartojo savo įsitikinimą, kad kuriant dirbtinį intelektą, vadovaudamosi tokiomis vertybėmis kaip „laisvė, lygybė ir pagarba žmogaus teisėms“, turėtų pirmauti demokratinės valstybės.
Be to, ji teigė atnaujinanti savo dirbtinio intelekto principus, kurie buvo viešai paskelbti dar 2018 metais. Peržiūrėję visą DI principų puslapį – pastebėsite, kad jame neminimas dirbtinio intelekto naudojimas kuriant ginklus.
Anksčiau čia buvo minima, jog „Google“ pažada, kad dirbtinis intelektas nebus naudojamas tokiose srityse kaip „ginklai ar kitos technologijos, kurių pagrindinis tikslas ar įgyvendinimas yra sukelti ar tiesiogiai palengvinti žmonių sužalojimą“.
Atnaujintose „Google“ nuostatose šios eilutės nebėra, kas kelia didžiulį nerimą. Vietoj to, išskiriami trys pagrindiniai principai – tai inovacijos, atsakingas kūrimas ir diegimas ir bendradarbiavimas siekiant pažangos.
JAV bendrovės atstovai kol kas nepatvirtino, kad panaikino pasižadėjimą nenaudoti dirbtinio intelekto kuriant ginklus, tačiau anksčiau jos darbuotojai yra išreiškę griežtą nepritarimą.
Pavyzdžiui, dar 2018 metais, beveik 4 tūkst. „Google“ darbuotojų, pasirašė laišką, kuriame ragino bendrovę nutraukti sutartį su JAV gynybos departamentu, žinomą kaip projektas „Maven“, pagal kurį dirbtinis intelektas buvo naudojamas dronų filmuotai medžiagai analizuoti.
Panaši situacija užfiksuota ir praėjusiais metais, kuomet „Google DeepMind“ darbuotojai pasirašė laišką, kuriame ragino technologijų milžinę nutraukti ryšius su karinėmis organizacijomis. Laiške buvo cituojami bendrovės dirbtinio intelekto principai, teigiant, kad jos dalyvavimas karinėje ir ginklų gamyboje prieštarauja ir pažeidžia dabar jau atšauktą pažadą nenaudoti dirbtinio intelekto ginkluotėje.