Yra žinomi trys pagrindiniai robotų įstatymai, kurių turi būti laikomasi:
- Robotas negali sužeisti žmogaus ar kitaip jam pakenkti.
- Robotas turi paklusti žmogaus įsakymams, išskyrus tuos atvejus, kai jie pažeistų pirmąjį įstatymą.
- Robotas turi apsaugoti save, jei tai nepažeidžia pirmojo ir antrojo įstatymų.
Argi ne šaunu, jog paklusimas žmogui yra šiuose įsakuose? Tačiau problema yra ta, jog žmonės kartais gali elgtis kaip kvailiai ir paklusimas jiems būtų ne pats geriausias sprendimas robotui dėl savo gerovės. Gordon Briggs ir Matthias Scheutz, iš Tufts universiteto, Žmogaus ir roboto ryšių laboratorijos, sprendžia klausimą kaip įdiegti robotams galimybę atsisakyti įvykdyti žmogaus duotą nurodymą, jeigu jis gali jam pakenkti.
Lingvistinėje teorijoje tai yra idėja, jog jeigu kažkas paprašo įvykdyti tam tikrą nurodymą, kurio reikšmė be konteksto iki galo nėra visiškai suprantama, ar tai bus įvykdyta priklauso nuo taip vadinamų „sėkmės sąlygų“ (angl. „felicity conditions“). „Sėkmės sąlygos“ atspindi gebėjimą suprasti ir atlikti konkretų nurodymą, kai suprantami pavieniai žodžiai, tačiau nesuvokiamas kontekstas. Tai yra tarsi tikimybė, kad paliepimas bus suprastas toks, kaip ir buvo numatyta.
Robotams „sėkmės sąlygos“ reikalingos atlikti tam tikrą užduotį galėtų atrodyti taip:
- Žinios: Ar aš žinau kaip atlikti užduotį X?
- Galimybės: Ar aš galiu atlikti užduotį X?
- Tikslas ir laikas: Ar aš galiu atlikti užduotį X šiuo metu?
- Socialinis vaidmuo ir įsipareigojimai: Ar aš esu įsipareigojęs atlikti užduotį X?
- Legalumas: Ar užduoties X vykdymas nepažeidžią jokių įstatymų?
Pirmosios trys sėkmės sąlygos atrodo gana paprastos ir suprantamos, tačiau kaip yra su dviem paskutiniosiomis? „Socialinis vaidmuo ir įsipareigojimai“ atspindi roboto įsitikinimą ar jis privalo daryti tai, ką jam nurodo žmogus. „Legalumas“ reiškia tai, jog robotas „žino“, jog jis neturėtų vykdyti tų nurodymų, kurie yra pavojingi, ir netgi tų, kurių pavojingumo jis nesupranta.
Įsivaizduokime, kaip tai atrodytų realiame žmonių ir robotų bendravime. Pagrindinis tikslas nėra tik išmokyti robotus „suvokti“ kada ir kokius nurodymus jie turėtų ar neturėtų vykdyti, tačiau taip pat siekiama, jog robotas būtų pajėgus suprasti ir paaiškinti, kodėl jis atsisako vykdyti tam tikrą paliepimą. Tokiu atveju žmogus privalėtų pateikti papildomų instrukcijų, kurios patenkintų kažkurią iš „sėkmės sąlygų“, kuri pradžioje ir buvo nurodymo atmetimo priežastis.
Čia pateikiamas paprastas pavyzdys, kuriame robotas atsisako eiti į priekį, „suvokdamas“, jog vykdydamas šį paliepimą, jis nukris nuo stalo ir susižeis. Tokiomis aplinkybėmis žmogus yra priverstas pateikti papildomos informacijos, kuri vis dėlto įtikintų robotą vykdyti nurodymą.
Kitame pavyzdyje roboto prašoma eiti į sieną. Žmogus žino, jog ji nėra kieta, tačiau robotas, neturėdamas šios informacijos, atsisako tai vykdyti. Tik gavęs paaiškinimą robotas sutinka su paliepimu.
Trečiame pavyzdyje vaizduojama analogiška situacija, tačiau negavus tinkamos papildomos informacijos, robotui tenka dar kartą atsisakyti paklusti žmogaus nurodymui.
Šie pavyzdžiai iliustruoja antrą ir trečią robotikos įsakymus: robotas ignoruoja tuos žmogaus nurodymus, kurie pakenktų jo paties gerovei.
Ar tokių gebėjimų suteikimas robotams vieną dieną netaps pavojumi žmonijai? Galbūt.. Tačiau galimybė priversti robotą be jokių abejonių paklusti žmogaus įsakymams potencialiai galėtų vieną dieną sukelti kur kas didesnę ir destruktyvesnę sumaištį.