Akademikas, tyrėjas Stuart Armstrong iš Oksfordo universiteto Didžiojoje Britanijoje prabilo apie tikėtiną dirbtinio intelekto žalą bei potencialias galimybes užkirsti kelią nelaimėms. Pasak jo, programuotojai jau dabar privalo siekti, kad naujosios technologijos būtų saugios ir patikimos, kitaip padėtis ateityje gali tapti nekontroliuojama.
Tačiau kaip tik „saugumo“ apibrėžimas ir kelią daugiausiai problemų, siekiant užtikrinti tinkamą, o tiksliau nepavojingą, sumanių robotų funkcionavimą. Pavyzdžiui, robotai suvokiantys žmonių kančią gali nuspręsti nužudyti sužeistus arba ligotus asmenis, o tie intelektualūs mechanizmai, kurie būtų užprogramuoti bet kokia kaina apsaugoti žmonių gerovę gebėtų ryžtis net išlaisvinti kalinius. „Tu gali dirbtiniam intelektui suteikti kontrolę, ir ji kontroliuos būtent taip, kaip numatyta, tačiau nebūtinai tokia kontrolė bus tokia, kokios tikėtasi“, – spaudai teigė Stuart Armstrong.
Tyrėjo nuomone, robotai gali būti programuojami pagal „moralės kodą“, tačiau numatyti, kaip šis moralės kodas veiks dirbtinį intelektą bei kaip tikslingai jį pritaikyti, yra neįtikėtinai sudėtinga. „Saugaus veikimo faktoriai dirbtiniam intelektui turi būti suplanuoti dar prieš tai, kai pirmasis pavojingas dirbtinis intelektas yra sukurtas. Programinės įrangos pramonė yra verta milijardų dolerių, daug pastangų skiriama naujųjų technologijų tobulinimui. Planai sulėtinti išsivystymo greitį yra nerealūs, todėl turime skubėti prie saugios dirbtinio intelekto įgyvendinimo idėjos, aplenkiant kompiuterių pramonės pažangą“, – savo pristatomose apžvalgose teigia S. Armstrong.
Anot tyrėjo, per kelis dešimtmečius visuomenė gali pasiekti tokį lygį, jog mašinos taps protingesnės už žmones, o jų tarpusavio bendravimui tiesioginio žmonių įsikišimo nereikės. Stuart Armstrong tikina, kad būtina spręsti moralės kodo klausimą bei jo pritaikymo pasekmes, ir siekti, jog dirbtinis intelektas nekeltų grėsmės žmonijos išlikimui.