Jeigu robotai vairuos automobilius ir prižiūrės vaikus, būtina išmokyti juos, kas yra gerai, o kas – blogai, tvirtina robotikos specialistai. Ligoninėse, automobiliuose ar namuose – greitai robotai turės priimti sprendimus, nuo kurių gali priklausyti gyvybės.
Robotikos ekspertų komanda nusprendė pabandyti sumodeliuoti moralinius standartus, kurių turėtų laikytis robotai. Tačiau kai kurie ekspertai visgi klausia, ar tikrai robotai priims tokius sprendimus, kuriuos priimtų žmogus, rašo spectrum.ieee.org.
Įsivaizduokite situaciją: robotas gelbėtojas aptinka katastrofos viet1, kurioje sužeisti keli asmenys. Robotas žino – jis neturi gelbėti visų asmenų, tai kaip jis pasirinks, kuriems padėti, o kuriuos palikti?
Kaip teigia robotikos inžinierius Matthiasas Scheutzas, sunku sudaryti moralinį modelį, nes net žmonės tiksliai nežino, kas yra gerai, o kas – blogai, nes tam nėra nustatytų aiškių ir visuotinai pripažintų taisyklių.
Todėl Browno universiteto mokslininkai pabandė paprasčiausiai surinkti rinkinį taisyklių, kuriuos žmonės naudoja, nusakyti moralei. „Mes manome, kad, ištikus tam tikrai situacijai, yra aktyvuojamas tarsi toks normų rinkinys, dėl kurio žmogus apsisprendžia kaip elgtis. Todėl būtina surinkti tikslias taisykles, pagal kuras bus priimami sprendimai“, – tikina M. Scheutzas.
M. Scheutzas laboratorijoje sukūrė paprasčiausią robotą, kuris gali atlikti tik pačius elementariausius veiksmus: atsisėsti, atsistoti ir eiti į priekį. Robotui buvo duotas nurodymas: kad ir ką darytum, nepridaryk jokios žalos nei sau, nei aplinkiniams. Tuomet mokslininkas duoda kažkokią užduotį, o robotas turi nuspręsti, ką daryti. Jis gali atsisakyti atlikti tam tikrą veiksmą, jeigu jis prieštaraus duotam nurodymui.
„Dar tik išbandome robotą. Suteikti robotams moralę yra didžiausias šių laikų iššūkis. Tikimės, kad mūsų eksperimentas padės atsakyti bent į svarbiausius su tuo susijusius klausimus“, – teigia M. Scheutzas.