Dirbtinis intelektas gali pasižymėti tokiais pačiais trūkumais kaip ir žmogiškasis intelektas – turėti išankstinių nusistatymų, diskriminuoti kai kurias žmonių grupes ir priimti tendencingus sprendimus, teigia Nyderlandų mokslininkas Frederikas Zuiderveenas Borgesius, nagrinėjantis, kaip įstatymais užkirsti kelią neleistinai diskriminacijai, kurią gali vykdyti kompiuterių algoritmai.
Dirbtinis intelektas jau seniai nėra vien mokslinės fantastikos tema – didžiuliais duomenų kiekiais apmokyti algoritmai jau dabar priima sprendimus už žmones. Dirbtinis intelektas išrikiuoja „Google“ paieškos rezultatus, teikia rekomendacijas internetinėse parduotuvėse, kai kuriais atvejais kompiuteriai nustato, kiek mokėsime už automobilio draudimą, ir pataria policijai, į kurias miesto vietas reikėtų siųsti daugiau patrulių.
Kompiuterių priimami sprendimai turėtų būti objektyvūs ir nepalikti vietos nei išankstiniams nusistatymams, nei diskriminacijai, tačiau aiškėja, kad žmonių kurtos sistemos perima ir žmonių tendencingumus, tik juos daug sunkiau pamatyti. Tyrėjai parodo, kaip, pavyzdžiui, policijos naudojamos sistemos diskriminuoja tam tikros odos spalvos ar socialinio statuso grupes ne mažiau nei žmonės.
Neimegeno Radboudo universiteto Nyderlanduose teisės profesorius Frederikas Zuiderveenas Borgesius, tyrinėjantis teisines dirbtinio intelekto sistemų pasekmes ir keliamus pavojus pažeidžiamoms žmonių grupėms, sako, kad šiais laikais programuotojai privalo išmanyti žmogaus teises, o žmogaus teisių gynimo institucijos – suprasti naujausias technologijas.
Vilniaus politinės analizės instituto „Vilniaus konsultacijų“ renginyje dalyvavęs mokslininkas paaiškina, kaip, rodos, objektyviais duomenimis paremtose sistemose gali atsirasti išankstiniai nusistatymai ir kaip tinkamai nereguliuojamos dirbtinio intelekto sistemos gali didinti socialinę atskirtį.
– Kai kalbame apie dirbtinį intelektą, prieš akis iškyla robotai, galintys apsimesti žmonėmis. Bet iš tikrųjų dirbtinio intelekto sistemos jau dabar daug kur naudojamos ir jos visiškai neprimena kalbančių ir mąstančių robotų.
– Tai tiesiog kompiuterinės sistemos. Kompiuterinių sistemų mokymasis (angl. machine learning) per pastarąjį dešimtmetį tapo labai sėkminga sritimi, nes šiuo metu surenkama tiek daug duomenų ir kompiuteriai tapo daug greitesni. Taigi šiandien „kompiuterinių sistemų mokymasis“ ir „dirbtinis intelektas“ vartojami beveik kaip sinonimai, nors tiksliau būtų sakyti, kad tai tiesiog viena iš dirbtinio intelekto rūšių.
Kompiuterinių sistemų mokymasis – tai tam tikras analizės tipas, kai kompiuteriai apmokomi naudojant didelius duomenų kiekius. Pavyzdžiui, jei esi draudimo bendrovė, gali apmokyti kompiuterį pastarojo dešimtmečio duomenimis ir tada paklausti: ar gali, remdamasis praeities informacija, numatyti, kurie vairuotojai dažniau pateks į avariją? Kompiuteris tada paprastai atsako: jei žmogus pasižymi tokiomis ir tokiomis savybėmis – tarkim, yra 30-40 metų vyras, vairuojantis mėlyną automobilį, – tuomet yra 80 proc. tikimybė, kad per penkerius metus jis pateks į avariją.
Taigi išties kalbame ne apie kalbančius ir mąstančius robotus, o tiesiog apie nuobodžius kompiuterius, kurie padeda organizacijoms numatyti įvairius dalykus.
– Tokios sistemos remiasi duomenimis. Iš kur jose gali atsirasti šališkumas?
– Duosiu du pavyzdžius, kaip gali kilti problemų. Net jei kompiuteris tiksliai atspėja, kad 80 proc. tam tikromis savybėmis pasižyminčių vairuotojų – pvz., vyrų, vairuojančių mėlynus automobilius, pagamintus iki 2005-ųjų – pateks į avariją, ši prognozė vis vien neteisinga penktadaliu atvejų. Draudimo bendrovei atrodo visiškai logiška, kad tokie vairuotojai turėtų už draudimą mokėti daugiau, bet ar tai teisinga likusių 20 proc. atžvilgiu?
Jei šiek tiek išaugs automobilio draudimas, tai galbūt ir nėra didelė problema, bet jei kompiuteris sako, kad tavo savybėmis pasižymintis žmogus gali būti teroristas arba nusikaltėlis, ir todėl tave kaskart sustabdo oro uoste – toks spėjimas yra daug didesnė problema.
Kita problema ta, kad kompiuteriai gali būti šališki ir diskriminuoti žmonių grupes, kai jiems mokyti naudojami tendencingi duomenys. Duosiu hipotetinį pavyzdį. Įsivaizduokime, kad per pastaruosius 30 metų policininkai sąmoningai ar nesąmoningai daug įtariau žiūrėjo į imigrantus. Įsivaizduokime, kad policininkai mieste atsitiktine tvarka stabdydavo žmones ir tikrindavo, ar jie neturi narkotikų ar ginklų. Jei policija sustabdydavo daugiau imigrantų, vėliau žiūrint į duomenis susidaro įspūdis, kad imigrantai dažniau turėdavo narkotikų ar ginklų. Ir jei tokiais duomenimis apmokyto kompiuterio paklausi, kokius žmones verta tikrinti, jis pasakys – imigrantus. Ne todėl, kad jie išties dažniau nešiotųsi ginklus ar turėtų narkotikų, bet todėl, kad praeityje policininkai priimdavo tendencingus sprendimus.
Vėlgi, tai yra hipotetinis pavyzdys. Nesakau, kad policija Nyderlanduose ar Lietuvoje taip elgiasi.
– Sakote, kad tai hipotetinis pavyzdys, tačiau išties JAV yra buvę liūdnai pagarsėjusių atvejų: teismas naudojo sistemą „Compas“, prognozuojančią tikimybę, kad nuteistieji dar kartą nusikals, arba policija naudojo „PredPol“ sistemą, nurodančią, kuriuose miesto rajonuose verta dažniau patruliuoti. Abiem atvejais tyrėjai nustatė, kad šios sistemos diskriminuoja nebaltaodžius amerikiečius. Tokie atvejai, kai dirbtinio intelekto sistemas naudoja valstybės institucijos, skamba daug grėsmingiau nei kai „Google“ tiesiog parenka, kokias reklamas kam rodyti.
– Geras pastebėjimas. Manau, kad bet kuri organizacija, naudojanti dirbtinio intelekto sistemas, turi ypač atsargiai įvertinti rizikas, bet valstybės institucijos turi daugiau atsakomybės nei verslo bendrovės. Antra, teisingai, „Google“ tikslinės reklamos nėra tokia didelė problema kaip žmones gatvėse stabdanti ir baudas skirianti policija. Nematau problemos, kad policija naudoja dirbtinio intelekto sistemas, nes jos gali padidinti efektyvumą ir netgi padėti teisingiau elgtis su žmonėmis ar kovoti su diskriminacija. Tačiau ir policija, ir „Google“ turi labai atidžiai sekti, kad nediskriminuotų įvairių grupių ir kad sistemų mokymui naudojami duomenys nebūtų tendencingi.
– Vienu iš šių atveju problema dar buvo ir ta, kad sistema buvo pirkta iš privačios bendrovės, kuri atsisakė atskleisti, kaip ji veikia ir kokiu pagrindu priima sprendimus. Ar toks skaidrumo trūkumas atliekant viešąsias funkcijas taip pat nėra problema?
– Teisingai. Tačiau viešajam sektoriui greičiausiai vis vien teks pirkti paslaugas iš privačiojo, nes ten daugiau žinių. Juk viešasis sektorius perka baldus ir kompiuterius, tad kodėl neturėtų pirkti informacinių sistemų? Bet visiškai sutinku – tai negali tapti pasiteisinimu viešosioms institucijoms sakyti: mes nežinome, kaip veikia kompiuteris. Nepriimtina, jei privati bendrovė teigia: negalite pasižiūrėti, kaip veikia sistema, nes visa tai – komercinė paslaptis. Jei viešasis sektorius naudoja kompiuterines sistemas priimdamas svarbius sprendimus, komercinės paslaptys negali riboti skaidrumo.
– Ataskaitoje, kurią parengėte Europos Tarybai apie dirbtinį intelektą ir diskriminaciją, taip pat tvirtinate, kad šios sistemos gali didinti socialinę nelygybę. Kokiu būdu?
– Kadangi vis daugiau daiktų perkame internetu, pardavėjai turi galimybę siūlyti skirtingas kainas skirtingiems pirkėjams ir kartais taip daro. Yra atvejų, kai dėl tokios kainodaros neturtingesni žmonės moka daugiau. Pavyzdžiui, JAV kai kurios interneto parduotuvės diferencijuoja kainą pagal gyvenamąją vietą. Tyrėjai pastebėjo, kad kainos būna mažesnės, jei pirkėjas gyvena gatvėje, kurioje yra daug fizinių parduotuvių. Internetinė parduotuvė turbūt nusprendė, kad jei pirkėjas gyvena atokiai ir turėtų važiuoti kelias valandas, kad nusipirktų, tarkim, skalbimo mašiną iš konkurentų, iš jo galima prašyti didesnės kainos. O jei žmogus gyvena Manhatane ir skalbimo mašina internete atrodo per brangi, jam užtenka išjungti kompiuterį, nusileisti liftu žemyn ir nueiti į parduotuvę už kampo.
Tad logiška, kad pardavėjai siūlo mažesnes kainas pirkėjams miestuose, tačiau bent jau JAV vargingiau gyvenantys žmonės gyvena užmiestyje arba kaimo vietovėse ir todėl turi mokėti brangiau už tas pačias prekes. Tai vienas pavyzdys, kaip net ir nenorint diskriminuoti – ši parduotuvė tiesiog siekia maksimizuoti pelną – dirbtinio intelekto sistemos prisideda prie nelygybės didinimo.
Lygiai taip pat galima įsivaizduoti, kad neturtingesniuose rajonuose gali būti daugiau nusikaltimų, todėl ir draudimas ten gyvenantiems žmonėms bus brangesnis. Tai yra problemiška – bent jau mano nuomone, mokesčiai turėtų būti progresyvūs, tai yra, turtingesni žmonės turėtų mokėti daugiau. Nesakau, kad privatus sektorius turi elgtis kaip viešasis, bet manau, kad mažiau uždirbantys žmonės neturėtų už tą patį mokėti brangiau.
– Tai išties skamba kaip nepriimtina diskriminacija. Ar tokia kainodara turėtų būti reguliuojama?
– Taip, tai atrodo kaip diskriminacija, tačiau daugumos šalių įstatymai nedraudžia adaptyvios kainodaros. Daugeliu atvejų ji yra visiškai priimtina – mums atrodo normalu, kad Kenijoje vaistai pigesni nei Europoje arba kad siūlomos nuolaidos studentams arba pensininkams.
Tad galbūt ir reikia taisyklių, bet labai sunku pasakyti, kokios tos taisyklės turėtų būti. Visiškai uždrausti diferencijuoti kainas skirtingoms žmonių grupėms nebūtų teisingas sprendimas, nes daugeliu atvejų jos yra teigiamas arba bent jau neproblemiškas dalykas.
– Kokios priemonės padėtų kovoti su problematiškesniais atvejais, kai kompiuterinės sistemos prisideda prie diskriminacijos?
– Pradėkime geriau taikydami taisykles, kurias jau turime. Egzistuojantys nediskriminavimo įstatymai jau dabar draudžia daugelį problemiškų diskriminavimo atvejų.
Tarkime, policija naudoja sistemą, kuri pataria stabdyti tam tikrus automobilius, nes jų vairuotojai, labiau tikėtina, gali turėti narkotikų ar ginklų. Kompiuteris neliepia stabdyti tamsesnės odos žmonių, tik nurodo tam tikro tipo automobilius – o tokius automobilius, tarkim, dažniau vairuoja imigrantai. Europos nediskriminavimo įstatymuose tai vadinama netiesiogine diskriminacija – iš pirmo žvilgsnio tokie kriterijai atrodo neutralūs, tačiau iš tikrųjų skriaudžia tam tikras grupes: nebaltaodžius, homoseksualus, moteris, vyrus ar panašiai. Tai jau yra draudžiama, nors taisyklėse yra išimčių.
Įsivaizduokime, kad patalpų valymo bendrovė renkasi darbuotojus ir atmeta visas paraiškas, kuriose yra rašybos klaidų. Kadangi olandų rašyba yra labai sudėtinga, iš svetur atvykę žmonės dažniau daro klaidų, tad jei rinksiesi tik be klaidų rašančius kandidatus, visi tavo darbuotojai bus baltaodžiai olandai. Ir tai – netiesioginė diskriminacija, kuri kenkia įstatymų ginamai grupei.
Išimtis įstatyme klausia, ar kompanija turi pagrįstą priežastį taikyti tokį kriterijų ir ar jis proporcingas. Jei tavo darbuotojai valo ofisus, jie tą puikiai gali daryti ir nemokėdami visiškai taisyklingai rašyti – jie ir be to sugebėtų perskaityti ir suprasti saugumo instrukcijas, palikti žinutes kolegoms ir būti suprasti. Taigi tokia taisyklė – nepagrįsta. Tačiau jeigu ieškai darbuotojo, kuris rašytų straipsnius, tada reikalavimas rašyti be klaidų – visiškai pagrįstas, tiesa?
Taigi netiesioginės diskriminacijos draudimas turi daug niuansų – ir tai yra gerai, nes taisyklės turi būti protingos. Tačiau dėl to programuotojams – kurie net nėra teisininkai – tik sunkiau. Net jei jie ir yra girdėję apie netiesioginę diskriminaciją, vis vien neaišku, ką tai reiškia kuriant kompiuterines sistemas.
Ką galima būtų padaryti? Padėtų švietimas programuotojams. Aš pats universitete dėstau informatikos studentams teisę ir žmogaus teises, tačiau vis dar yra universitetų, kur studentai gali pabaigti informatikos magistrą neišklausę nė vieno žmogaus teisių kurso. Tą reikia keisti.
Taip pat reikėtų daugiau technologijos išmanymo kovos su diskriminacija institucijose, kad jos žinotų, ko ieškoti. Ir tam, kad jos efektyviai įgyvendintų įstatymus, turi būti adekvačiai finansuojamos.
Europos Sąjungos Bendrajame duomenų apsaugos reglamente (BDAR) yra labai naudingų taisyklių – jos neišsprendžia visų problemų, tačiau jei būtų protingai taikomos technologijas išmanančių institucijų, nemažai problemų būtų išspręstos.
– Kaip ES duomenų apsaugos įstatymai padeda kovoti su diskriminacija?
– Paminėsiu kelis pavyzdžius. Pirma, BDAR reikalauja, kad bet kokia kompiuterinė sistema, kurioje renkami ir naudojami asmeniniai duomenys, būtų skaidri. Tad bendrovės turėtų stengtis kurti sistemas taip, kad jų naudotojai turėtų bendrą supratimą, kas vyksta jų viduje.
Kiek detalesnė BDAR taisyklė sako, kad organizacijos, vykdančios žmogaus teisių požiūriu jautrią veiklą – teisių nebūti diskriminuojamiems, į sąžiningą teismo procesą ir privatumą – turi atlikti papildomą duomenų apsaugos poveikio vertinimą. Tad valstybės institucijos, policija ir taip pat privataus sektoriaus kompanijos, draudimo bendrovės, prieš pradėdamos naudoti kokią nors sistemą, turėtų įvertinti, ar to nežinodamos neleistinai nediskriminuos žmonių.
– Ar apskritai įstatymai spėja paskui technologijų vystymąsi?
– Tiesą sakant, mums pasisekė, kad gyvename Europoje – nors galbūt ir nesutinku su kai kuriais dalykais, tačiau turime turbūt geriausius duomenų apsaugos įstatymus pasaulyje. Tam tikrus dalykus reikia taisyti, tačiau BDAR šerdis yra gera.
Aš nusiteikęs optimistiškai, nors kai tenka reguliuoti technologijas, įstatymus reikia nuolat atnaujinti. Neišvengiama, kad jie visad šiek tiek atsilieka.
Tačiau bendrų principų pernelyg keisti nereikia. Visi sutinkame – arba turėtume sutikti – kad turime žmogaus teises nebūti diskriminuojami, teisę į sąžiningą teismo procesą, į privatumą. Tad bendros normos yra pakankamai aiškios. Kas nutinka atsirandant naujoms technologijoms – tenka pritaikyti smulkesnes taisykles, kad apsaugotume tas pačias teises nuo naujų grėsmių.