Nesijaudinama dėl to, kad dirbtinis intelektas gali nuspręsti, jog nemėgsta žmonių, ir bandyti juos sunaikinti, LRT RADIJUI sako Gyvybės ateities instituto komunikacijos vadovė ir autorė Ariel Conn. Anot jos, didesnį nerimą kelia užduotis, kaip robotą užprogramuoti taip, kad jis nurodymus atliktų pagal žmonių norus: „Pavyzdžiui, jei dirbtiniam intelektui nurodai panaikinti spūstis keliuose, jis gali pagalvoti, kad spūsčių priežastis – per daug žmonių, tad problemą gali išspręsti juos tiesiog nužudydamas.“
Nuo „robotų žudikų“ būtų neįmanoma pasislėpti
Technologijų ir dirbtinio intelekto ekspertai atviru laišku kreipėsi į Jungtines Tautas (JT), ragindami uždrausti vadinamuosius „robotus žudikus“. Tai ginklai, kurie, panaudojus dirbtinį intelektą, patys be žmogaus įsikišimo judėtų, pasirinktų taikinius ir atakuotų. Nors tokie autonominiai ginklai dar neegzistuoja, specialistai įspėja, kad tai galėtų sukelti trečiąją karybos revoliuciją, tad reikia iš anksto užkirsti tam kelią.
Kalbėdami apie dar neegzistuojančius dalykus, primenančius mokslinę fantastiką, galime įsivaizduoti mus puolančius į žmones panašius robotus, šaudančius lazeriais iš akių ir gebančius transformuotis. Vis dėlto, pasak A. Conn iš Gyvybės ateities instituto, besirūpinančio saugia dirbtinio intelekto plėtra ir inicijavusio specialistų kreipimąsi į JT, esminis dalykas – kaip suprogramuota sistema, o ne ginklo forma. Tad mirtinais ginklais galima paversti ir dabar mums įprastus prietaisus.
„Tokių technologijų dar nesame matę. Net sunku įsivaizduoti. Paprastai iškart įsivaizduojame robotus, bet net ir maži filmuojantys dronai gali būti paversti ginklais. Net ir dar mažesnius galima sukurti. Galima sukurti daug itin mažų labai protingų ginklų, kurie galėtų bet kur judėti, nuo jų būtų neįmanoma pasislėpti. Šie ginklai galėtų vykdyti didelio masto priešų ar civilių atakas. Būtų sunku juos kontroliuoti ar sustabdyti, o jei taptum tokio ginklo taikiniu – niekur nepasislėptum“, – sako A. Conn.
Raginimą uždrausti mirtinus autonominius ginklus pasirašė daugiau kaip šimto įmonių įkūrėjai ir vadovai iš įvairių šalių, tarp jų – ir kompanijos „Tesla“ vadovas Elonas Muskas bei „Google“ „DeepMind“ dirbtinio intelekto specialistas Mustafa Suleymanas.
Su save valdančiais ginklais kovoti būtų saugiau
Daugiau kaip tūkstantis technologijų ekspertų, mokslininkų ir tyrėjų apie autonominių ginklų keliamą grėsmę prabilo jau prieš porą metų. Tąkart jie atkreipė dėmesį, kad dirbtinio intelekto naudojimas kuriant ginklus turi būti uždraustas, nes kitaip žmonės gali prarasti ginklų kontrolę, be to, tokios išvystytos karybos priemonės galėtų paskatinti ginklavimosi varžybas tarp valstybių, o konfliktai tarp autonominius ginklus turinčių ir jų neturinčių šalių taptų vienpusiški.
„Jei ginklai patys save valdytų, žmonių nereikėtų, būtų saugiau, nes kur kas lengviau atakuoti priešą. Be to, būna, kad ginklą valdantys žmonės žūsta ar susižaloja, o čia tokių aukų nebūtų. Tai gerai, nes mes norėtume, kad karuose žūtų mažiau žmonių. Taip pat manoma, kad autonominis ginklas tiksliau pasirinktų taikinį, todėl būtų mažiau ir civilių aukų“, – atkreipia dėmesį A. Conn.
Vis dėlto ji pripažįsta – autonominiai ginklai ir neramina. Didžiausią rūpestį kelia tai, kad ginklas gali patekti į netinkamas rankas, pavyzdžiui, tokį ginklą galėtų gauti teroristinės organizacijos. „Tai ne atominis – sunkiai pagaminamas ar gaunamas – ginklas. Autonominį ginklą gauti paprasčiau, nes prie drono nesunku pritvirtinti ginklą“, – pabrėžia A. Conn.
Nerimaujama ir dėl kibernetinio tokių ginklų užgrobimo. A. Conn akcentuoja, kad daug žalos pridarė vien kibernetinės atakos prieš civilius. Įvairias sistemas sunku kontroliuoti, tad galėtų būti nulaužta ir ginklus valdanti dirbtinio intelekto sistema: „Priešas autonominį ginklą galėtų panaudoti prieš tave patį, o tu negalėtum to sustabdyti.“
Žmonės prieš dirbtinį intelektą – lyg skruzdės
A. Conn atkreipia dėmesį, kad autonominiams ginklams savarankiškai priimant sprendimus, kiltų problemų nustatant, kas atsakingas už karo nusikaltimus. Be to, žmonėms neįsitraukiant į kovos veiksmus, neliktų ir psichologinio barjero nužudyti kitą žmogų.
„Jei žmonės nebebūtų įtraukiami, būtų lengviau nužudyti taikinį. Žmogui sunkiau nušauti žmogų. Daug lengviau nusiųsti robotą, kad tai padarytų“, – pastebi A. Conn.
Šiuo metu sukurtas ir naudojamas vadinamasis silpnas arba „žemo lygio“ dirbtinis intelektas, kuris geba specifines funkcijas atlikti kaip žmogus ar net geriau nei žmogus. Pavyzdžiui, asmeniniai asistentai išmaniuosiuose prietaisuose gali atidaryti pageidaujamą programėlę, tokios internetinės paieškos sistemos kaip „Google“, „Bing“ ar kitos bei „Google“ vertėjas veikia naudodamos silpnąjį dirbtinį intelektą. Tačiau jos neatlieka daug įvairių ir sudėtingų veiksmų. Pavyzdžiui, paklausus mobiliojo asistento, kaip nuvykti į tam tikrą vietą, jis gali telefone parodyti kelionės maršrutą, tačiau ten nenuveš.
Mokslininkai bando sukurti kur kas tobulesnį dirbtinį intelektą, kuris galėtų atlikti daug užduočių ir tai darytų geriau už žmones. Tačiau tai daugeliui kelia nerimą, mat bijoma, kad tuomet žmonių sukurtos mašinos ims klaidingai vykdyti užduotis.
Kad įsivaizduotume stipraus dirbtinio intelekto galimybes, mokslininkai siūlo palyginti žmonių ir skruzdėlių intelektą – prieš stiprų dirbtinį intelektą žmonės būtų tarsi skruzdėlės.
„Nesijaudiname dėl to, kad dirbtinis intelektas gali tiesiog nuspręsti, kad nemėgsta žmonių ir norėtų juos sunaikinti. Didžiausią susirūpinimą kelia tai, kaip robotą užprogramuoti taip, kad užduotis jis atliktų taip, kaip nori žmonės. Netikslumų gali atsirasti labai lengvai. Pavyzdžiui, rašant žinutę, kartais žodžiai ištaisomi automatiškai, bet klaidingai. Sistema mano, kad jūs norite to, ko iš tiesų nenorite. Todėl nesunku įsivaizduoti, kaip gali suklysti daug sudėtingesnės sistemos atlikdamos kur kas sudėtingesnes užduotis. Pavyzdžiui, jei dirbtiniam intelektui nurodai panaikinti spūstis keliuose, jis gali pagalvoti, kad spūsčių priežastis – per daug žmonių, tad problemą gali išspręsti juos tiesiog nužudydamas“, – aiškina A. Conn.
Stengiasi apsisaugoti nuo to, kas dar nesukurta
Kaip veiktų dirbtinis intelektas nėra žinoma, tačiau svarstoma, kad stiprus dirbtinis intelektas turi gebėti savaime tobulėti ir mokytis iš savo patirties.
Mokslininkai suka galvas ne tik kaip tokį dirbtinį intelektą sukurti, bet ir ieško būdų, kaip tai padaryti saugiai. Dėl to specialistai ir ragina uždrausti dar nesukurtus, neegzistuojančius autonominius ginklus, kurie galbūt niekuomet ir nebus sukurti. Vis dėlto technologijų kūrėjai teigia norintys iš anksto pasirūpinti, kad jų kuriamas produktas nebūtų paverstas ginklu.
Garsaus fiziko Stepheno Hawkingo teigimu, dirbtinis intelektas bus arba geriausias, arba blogiausias žmonijos išradimas. A. Conn sako, kad viskas priklausys nuo to, kaip specialistai sugebės suvokti dirbtinio intelekto veikimą, tinkamai jį suprogramuoti ir numatyti grėsmes.
„Tinkamai suprojektuotas dirbtinis intelektas galėtų išspręsti daugybę problemų, susijusių su mūsų pačių energijos panaudojimu. Galėtume daugiau laiko skirti poilsiui, pabūti su artimaisiais ir draugais, daugiau laiko skirti kūrybai ir mėgautis laiku, nes nereikėtų dirbti, kadangi didelę dalį darbo už žmones atliktų dirbtinis intelektas. Jau dabar matome, kad jis gali diagnozuoti ligas, taigi tikimasi, kad ateityje dirbtinis intelektas galės ir nustatyti, kaip gydyti ligas“, – sako A. Conn.
Ji priduria – jei dirbtinį intelektą sukursime netinkamai, turėsime priešingą rezultatą. A. Conn pastebėjimu, jau dabar dėl dirbtinio intelekto auga susipriešinimas ir diskriminacija. Be to, dėl automatizacijos žmonės netenka darbo.
„Tikėtina, kad tai dar labiau suintensyvės. Jei su tuo nesusidorosime, vietoje to, kad turėtume daugiau laisvo laiko, galime netekti darbo. Karinėje srityje galime sukurti ginklą, kuris pražudytų daugybę žmonių“, – nurodo A. Conn.
Vieni prognozuoja, kad stipraus dirbtinio intelekto sulauksime dar šiame amžiuje, kiti abejoja dabartinių technologijų galimybėmis tai padaryti. Yra ir manančių, kad dirbtinis intelektas niekada nebus sukurtas. Vis dėlto pašnekovė tvirtina – nereikėtų juoktis iš fantazijų, kad dirbtinis intelektas sukeltų grėsmę žmonėms. Jos teigimu, reikia atsižvelgti net ir į menkiausią tikimybę ir užbėgti tam už akių.