Šių metų vasarį pasirodžiusioje Pasaulio sveikatos organizacijos (PSO) ataskaitoje apie dirbtinio intelekto taikymą sveikatos sektoriuje akcentuojama, kad nekontroliuojamas šios technologijos naudojimas gali nulemti vyresnio amžiaus pacientus diskriminuojančius gydymo metodus. Sveikatos apsauga nebūtų pirmoji sritis, kurioje dirbtinis intelektas skatintų tam tikrų socialinių grupių atskirtį. LRT.lt kalbintas Vytauto Didžiojo universiteto (VDU) doc. dr. Darius Amilevičius aiškina, kas lemia tokią technologijų nešališkumo stoką ir kaip sukurti visiems lygų dirbtinį intelektą.
Asociatyvi „pixabay“ nuotr.
Algoritminė visuomenė – neretai taip apibūdinama žmonijos ateitis. Tai visuomenė, kurioje algoritmai, robotai ir plačiąja prasme dirbtinis intelektas priims ir vykdys bent dalį sprendimų, iki šiol tekusių pačiam žmogui. Nors sakoma, kad gyvename dar tik šios visuomenės priešaušryje, dirbtinio intelekto technologijų nauda didžiulė jau dabar. Dirbtinis intelektas optimizuoja ne vienos srities darbą, atlaisvina specialistų rankas, iš žmonių perima monotoniškas ir daug laiko užimančias užduotis ir taip leidžia susitelkti į sudėtingesnius darbus, kur žmogiškasis faktorius yra nepakeičiamas.
Sveikatos apsauga, teisinė sistema, įdarbinimo rinka – tai vos keletas sektorių, kuriuose aktyviai išnaudojamos dirbtinio intelekto teikiamos galimybės. Vis dėlto tikroji situacija nėra tokia pozityvi, kokią norėtume įsivaizduoti. Nors dirbtinio intelekto nauda šių sričių darbui – nenuginčijama, visuomenė susidūrė su nenumatytu iššūkiu: dirbtinio intelekto potencialu diskriminuoti tam tikras socialines grupes.
Diskriminuojantis dirbtinis intelektas – jau tikrovė
Minėtoje ataskaitoje PSO išreiškia nerimą, kad nekontroliuojamas dirbtinio intelekto veikimas, kai remiamasi klaidingomis prielaidomis ir stereotipais apie vyresnio amžiaus žmonių gyvenimo būdą, sveikatos problemas ir komunikacijos su gydytoju poreikius, gali paskatinti dar didesnę šių asmenų diskriminaciją. Dėl to suprastėtų jiems teikiamų sveikatos paslaugų kokybė.
PSO įvardijamos rizikos dėl galimos dirbtinio intelekto diskriminacijos nėra vien tušti nuogąstavimai. Kiti du anksčiau įvardinti sektoriai – teisinė sistema ir įdarbinimo rinka – jau yra susidūrę su realiais pavyzdžiais, kai dirbtinis intelektas akivaizdžiai diskriminavo tam tikrą visuomenės grupę. Vienas iš jų – plačiai nuskambėjęs atvejis, kai kompanijos „Amazon“ įdarbinimo sistema automatiškai atmetė gyvenimo aprašymus moterų, kandidatavusių į tam tikras pareigybes, taip skatindamas diskriminaciją dėl lyties.
Kitas pavyzdys – rasistinis profiliavimas, kurį vykdė algoritmas COMPAS, JAV policijos departamentų taikytas rizikos vertinimui atlikti. Ši technologija juodaodę merginą, neturėjusią jokių ankstesnių nusižengimų, įvertino kaip turinčią didelį potencialą ateityje atlikti nusikaltimą ir būti nuteistą. Tuo tarpu baltaodis vyras, anksčiau įvykdęs ginkluotą apiplėšimą ir nuteistas 5-eriems metams kalėjimo, buvo priskirtas žemiausio lygio rizikai.
Tokios dirbtinio intelekto diskriminacijos apraiškos gali kelti rimtus socialinius iššūkius diskriminuojamoms visuomenės grupėms: nuo atskirties profesiniame lauke iki galimo laisvės atėmimo. Dėl šios priežasties svarbu nustatyti, iš kur atsiranda dirbtinio intelekto šališkumas ir kaip būtų galima jo išvengti.
Technologijų šališkumas atspindi jų programuotoją
Vytauto Didžiojo universiteto (VDU) Informatikos fakulteto docentas, Intelektinių sistemų laboratorijos vadovas dr. Darius Amilevičius LRT.lt portalui aiškino, kad anksčiau buvo puoselėjamos viltys, kad dirbtinis intelektas kaip tik bus tas nešališkas faktorius, padėsiantis žmogui, dažnai vedamam savo subjektyvios nuomonės, priimti pasvertus sprendimus. Vis dėlto, kaip rodo dabartinė situacija, tokie lūkesčiai nepasiteisino.
„Buvo tikimasi, kad dirbtinio intelekto sistemų objektyvumas pranoks žmogaus objektyvumą sprendžiant, koks kandidatas tinkamiausias įdarbinti, kokias medicinos paslaugas kuriam pacientui pirma teikti, kas yra potencialus nusikaltėlis netolimoje ateityje. Buvo manoma, kad dirbtinio intelekto sistemos yra tinkamiausias kandidatas tapti Temidės svarstyklėmis, priimant objektyvius teismo sprendimus. Tačiau šių sistemų taikymai atskleidė visai priešingus dalykus“, – pasakojo mokslininkas.
Dirbtinio intelekto veikimas, kaip aiškino dr. D. Amilevičius, yra pagrįstas mašininio mokymosi principu, kai analizuodamos atrinktus mokymosi duomenis kompiuterinės sistemos pačios išmoksta taisykles, pagal kurias priimami sprendimai. Dirbtinio intelekto šališkumas – tai neatsakingo mokymosi duomenų parinkimo padarinys.
„Šiuolaikinės mašininio mokymosi sistemos turi mokytis su labai dideliais, tinkamai parengtais duomenų masyvais. Duomenys turi būti įvairūs, kiekvienai klasei atrenkamas vienodas duomenų kiekis. Pavyzdžiui, rengiant dirbtinio intelekto sistemą, kuri atpažintų melagienas žiniasklaidos tekstuose, žmogus 30 tūkstančių tekstų turėtų sužymėti kaip melagingus ir tiek pat, 30 tūkstančių, – kaip teisingus. Duomenis klasifikuoti turi bent trys anotuotojai, kad anotavimas būtų kuo objektyvesnis, nes dažnai žmonės tarpusavyje nesutaria, kas yra tiesa“, – dėstė VDU docentas.
Dirbtinio intelekto diskriminacija tam tikrų grupių atžvilgiu pati savaime technologiškai neišsivysto. Ji tik atspindi sistemą rengusio žmogaus ir plačiąja prasme visuomenės išankstines nuostatas ir šališkumą. D. Amilevičius kaip pavyzdį įvardijo kompanijos „Microsoft“ pokalbių roboto Tay veikimą.
„Laboratorijos sąlygomis jis buvo apmokytas kalbėti tinkamai. Kai pradėjo veikti su galimybe persimokyti, „Twitter“ tinkle jis labai greitai suprato, kad realybėje žmonės kalba kitaip negu laboratorijoje. Tay greitai ir pats pradėjo svaidytis seksistiniais ir rasistiniais pasisakymais“, – pasakojo mokslininkas.
Seksizmu persmelktas pokalbių roboto Tay diskursas, kaip ir seksistinė kompanijos „Amazon“ įdarbinimo sistema – seksistinių paties programuotojo pažiūrų pasekmė. Pirmuoju atveju, programuotojo vaidmenį atliko patys „Twitter“ vartotojai, antruoju – kompiuterinių sistemų rengėjas, tam tikras pareigas susiejęs su vyriška gimine.
„Su „Google Translate“ pabandykite į anglų kalbą išversti sakinį „Pirmoji programuotoja gyveno seniai“, o po to rezultatą išversti atgal į lietuvių kalbą. Gausite rezultatą „pirmasis programuotojas gyveno seniai“. Kokia diskriminacijos priežastis? „Google“ paieška pagal žodį „programuotojas“ randa 449 000 dokumentų, o pagal žodį „programuotoja“ – 19 100. Pagal žodį „direktorius“ randa 5 520 000 dokumentų, pagal žodį „direktorė“ – 2 550 000. Pagal žodį „valytojas“ randa 141 000 dokumentų, pagal žodį „valytoja“ – 227 000. Jei rengiant duomenis mokymui į tai neatsižvelgiama, kaltinti už diskriminaciją reikia ne mašiną, o žmogų“, – tvirtino dr. D. Amilevičius.
Diskriminacijos atvejai Lietuvoje – dar ateityje
Dirbtinio intelekto technologijų diskriminacija, tarp jų rasizmas ir seksizmas, kelia visuotinį susirūpinimą ir rodo būtinybę įvesti tinkamą dirbtinio intelekto teisinį ir etinį reguliavimą. Anot VDU docento, šiai sričiai ES skiria išskirtinį dėmesį. Nors didžioji dalis dirbtinio intelekto diskriminacijos atvejų siejami su JAV kontekstu, ES atsakingai vertina galimas grėsmes, ypač tokiose aukštos rizikos srityse kaip medicina ir teisė.
Proaktyvi visos ES pozicija būdinga ir Lietuvai. D. Amilevičiaus teigimu, Lietuvoje automatizavimo procesai visose srityse vyksta taip lėtai, kad „rimti realios diskriminacijos atvejai mūsų dar tik laukia ateityje“. Iki to laiko svarbu suvokti, kokį svarbų vaidmenį dirbtinio intelekto sistemų kūrime ir veikime atlieka patys programuotojai bei jų asmeninės nuostatos.
„Visų pirma reikia nusiimti rožinius akinius ir tinkamai suprasti technologijų esmę. Nors jau yra nemažai mokslinių publikacijų apie robotų teises ir svarstymų apie prielaidas mašinai suteikti asmens statusą, dabartinės skaitmeninės technologijos tik skaičiuoja. Nors kartais rezultatas gali pasirodyti artimas natūralaus intelekto veiklos rezultatui, bet išties mašina tik manipuliuoja duomenimis ir skaičiuoja. Ji nesupranta, kas yra „žmogus“, „diskriminacija“, „socialiai atsakingas verslas“ ir taip toliau. Tik žmogus, kuriantis ir kontroliuojantis dirbtinio intelekto sistemas, gali užtikrinti tų sistemų nešališkumą“, – dėstė doc. dr. D. Amilevičius.