Pasaulis sparčiai keičiasi. Technologiškai labiausiai pažengusios šalys mėgaujasi aukšta gyvenimo kokybe, kitos šalys grimzta į skurdą ir karus. Dirbtinio intelekto kūrimas paskatino kurti robotus, kurie jau atlieka daugelį žmonėms būdingų darbų elektronikos ir mašinų pramonėje bei kitur. Kuriami ir bebaimiai robotai kariai.
Liepos 28 dieną JAV Gyvybės ateities institutas paskelbė laišką, pasirašytą 1 500 dirbtinio intelekto, robotų ir kitų technologijų kūrėjų. Signatarų sąraše yra daug mokslo ir technologijų įžymybių, kaip britų fizikas Stephenas Hawkingas ir JAV kompiuterių pionierius Steve’as Wozniakas. Laiške kviečiama tarptautiniu mastu uždrausti savarankiškus puolamuosius ginklus (robotus), kurie gali šaudyti be žmonių kontrolės. Šiemet pasaulis pažymėjo 70-ąsias Japonijos miestų Hirošimos ir Nagasakio atominio bombardavimo metines. Po šio bombardavimo prireikė 10 metų mokslininkams ir intelektualams paskelbti laišką, raginantį šalių vyriausybes imtis globalių veiksmų, kad atominiai ginklai niekada daugiau nebūtų panaudoti. Jie motyvavo, kad atominiai ginklai eskaluoja ginklavimosi varžybas, sekina šalių išteklius ir stumia žmoniją į susinaikinimą. Nors ginklavimosi varžybos visą šį laiką tęsėsi, bet atominiai ginklai kol kas daugiau nebuvo panaudoti.
Gyvybės ateities instituto laišką pasirašė tie, kurie daugiausia žino apie dirbtinio intelekto ir robotų galimybes panaudoti jas piktam. Prie laiško autorių prisijungė dešimtys tūkstančių žmonių, jų tarpe dabartiniai ir buvę šalių prezidentai, kompiuterių, dirbtinio intelekto ir robotų asociacijų nariai, „Google DeepMind“, „Facebook“ ir IBM kolektyvai. Gyvybės ateities instituto įkūrėjas, Masačusetso technologijos instituto (JAV) fizikos profesorius Maxas Tegmarkas pastebėjo, kad dirbtinio intelekto ekspertai, kuriantys šias technologijas, nenori, kad jos virstų žmonių nevaldoma ginkluote.
Savarankiški ginklai kelia rimtą grėsmę, todėl būtinas tarptautinis susitarimas, draudžiantis tokių ginklų kūrimą prieš tai, kol jie sukels grėsmę tarptautiniam saugumui, nes neaišku, ar dirbtinio intelekto algoritmai galės atskirti karius nuo civilių sudėtingose konfliktų situacijose, ar tomis aplinkybėmis būtina panaudoti jėgą. Kadangi ne žmonės spręs, kokius taikinius pasirinks savarankiški ginklai, pasekmės gali būti neprognozuojamos, niekas nebus atsakingas už tų savarankiškų ginklų žudynes ir griovimus.
Gyvybės ateities institutas pažymi, kad tokie ginklai kelia pavojų regioniniam ir globaliam stabilumui bei žmonijai. Savarankiškų ginklų kūrimas greitai sukeltų naujas ginklavimosi lenktynes tarp varžovų, panašias į tas, kurias sukėlė atominių bombų kūrimas. Savarankiški ginklai sumažintų pavojų kariams, sumažintų politinę riziką pradėti karą ir paskatintų naujus karinius konfliktus. Savarankiškus ginklus turėtų tik technologiškai labiausiai pažengusios šalys, bet tokius ginklus galima pagrobti ir nukreipti prieš jų šeimininkus, civilius ar trečiuosius asmenis. Ilgainiui jie paplistų po pasaulį, ateitų jie ir į Lietuvą, kaip ateina kitos mašinos ar ginklai. Savarankiški ginklai gali patys sukurti ar eskaluoti ginkluotus konfliktus prieš žmonių valią. Ateityje, kai savarankiški ginklai kovos tarpusavyje, rezultatus bus sunku nuspėti, bet tikėtina, kad jie sukeltų masinį civilių ir aplinkos naikinimą.
Savarankiški ginklai kelia didelę moralinę problemą: kokia yra žmogaus gyvybės vertė, jeigu mes atsakomybę spręsti kam gyventi ir kam mirti deleguotume mašinoms? Kokį pasaulį mes norime palikti savo vaikams? Pasaulį, kuriame dirbtinio intelekto programos ir robotai gali naudoti jėgą ir žudyti žmones? Reikia užkirsti kelią savarankiškų ginklų kūrimui prieš jiems sukeliant naujas ginklavimosi varžybas ir grasinant visuotinam saugumui, prieš jiems tampant naujais masinio naikinimo ginklais. Tai padaryti galimybių langas sparčiai užsiveria. Bet pasaulyje plėtojasi judėjimas stabdyti robotus žudikus (Stop Killer Robots). Jis ragina pasaulio lyderius ir Jungtines tautas uždrausti savarankiškų ginklų kūrimą, kol dar ne vėlu.