Rūta Binkytė-Sadauskienė / Asmeninio archyvo nuotr. |
---|
Kam teikti pirmenybę ligoninėje? Ką priimti į darbą? Kam skirti paskolą? Tokių svarbių sprendimų priėmimą šiandien jau patikime dirbtinio intelekto algoritmui. Bet, ar galime užtikrinti, kad mašininis sprendimas būtų sąžiningas ir saugus? Apie tai LRT.lt portalui pasakoja dirbtinio intelekto etikos specialistė, INRIA Saclay-Ile de France informatikos instituto tyrėja Rūta Binkytė-Sadauskienė.
– Kokių algoritmo etikos pažeidimų pasitaiko ir kaip nuo jų nukenčia žmonės?
– Algoritmas turi tendenciją diskriminuoti tam tikras žmonių grupes. Dažniausiai – etninės kilmės arba lyties pagrindu. Taip nutinka, nes duomenų bazėse, iš kurių jis mokosi, paprasčiausiai pritrūksta duomenų.
Neišmokęs pakankamai tikslios tam tikros grupės reprezentacijos, algoritmas negali padaryti ir prasmingų, realybę atitinkančių išvadų. Tokie netikslumai žmonių gyvenimams gali turėti skaudžių pasekmių.
Pavyzdžiui, JAV medicinos srityje buvo taikomas algoritmas, kurio paskirtis – į sveikatos apsaugos programą atrinkti daugiausiai chroniškų ligų turinčius žmones. Šie pacientai turėjo gauti finansinę paramą ir lengvesnį gydytojų pasiekiamumą.
Bet dėl neteisingų algoritmo išvadų, į programą buvo priimti daug sveikesni baltieji vietoje blogesnės sveikatos būklės afroamerikiečių. Kodėl taip nutiko?
Dėl to, kad kaip atrankos kriterijus buvo panaudotos paciento sveikatos apsaugai skirtos išlaidos. Tai yra stipriai su sveikatos būkle koreliuojantis dalykas, tačiau – nebūtinai.
Afroamerikiečių ekonominė padėtis dažnai yra prastesnė, vadinasi jie ir išleidžia mažiau, taip pat jie mažiau pasitiki sveikatos sistema.
Panašią klaidą darė ir paskolų išdavimo algoritmas. Spręsdamas, ar duoti žmogui paskolą, jis stebėjo klientų bankines transakcijas. Nors tai tarsi indikuotų, kad žmogus turi pakankamai pajamų, tačiau tam tikros etninės grupės žmonių nenaudoja bankinių operacijų, nes naudojasi grynaisiais pinigais.
Gali būti, kad jie ir pinigų turi, ir yra patikimi, tik jų įpročiai – kitokie. Iš duomenų bazės algoritmas to niekada nesužinos, todėl jis išmoks šį bruožą, kaip neigiamą, nors tikrovėje tai bus tik atsitiktinumas.
Kiekvieną kartą, kai toks atvejis iškyla į viešumą, aišku, bandoma taisyti situaciją, bet reikia būti budriems.
– Tam, kad dirbtinis intelektas būtų saugesnis, jūs į technologijas siekiate integruoti žmogaus perspektyvą. Kas yra ta žmogaus perspektyva, ar ji gali būti objektyviai apibrėžta?
Medicinoje algoritminė rekomendacija turėtų medikui padėti apdoroti duomenis, bet neturėtų priimti sprendimo, ką toliau daryti su pacientu. Taip pat ir kitose srityse.
Mano darbas ir yra ieškoti, kaip tuos duomenis papildyti ar pakeisti duomenų bazėje, kad algoritmas išmoktų sprendimus priimti nešališkai. Atradus priežastį, kodėl algoritmas buvo šališkas, ir sugebėjus surasti naują signalą, liudijantį grupės patikimumą, duomenis galima adaptuoti taip, kad algoritmas taptų daug tikslesnis ir duotų atsakymus, atitinkančius realybę.
Galima nesunkiai pastebėti, kad čia yra labai daug istorinio ir antropologinio elemento. Gebėjimas remtis tuo, ką žinome apie istoriją ir sociologiją, padeda numatyti, kur dar galėtų atsirasti šališkumai.
– Ar žmonių, sprendžiančių mašininio mokymosi etikos problemas, balsas yra girdimas? Koks santykis tarp tų, kurie vysto technologiją, ir tų, kurie siekia įdiegti saugiklius?
– Tos lenktynės sukėlė isteriją, visi nori būti priekyje, todėl įtampos yra. Bet manau, kad vystant požiūrį, jog etiškas algoritmas yra patikimesnis algoritmas, įtampos turėtų po truputėlį nykti.
Kitas dalykas, tai yra įstatymu reguliuojama sritis, vienaip ar kitaip etinius reikalavimus užtikrinti reikės. Tyrėjai institutuose, bent jau Europoje, negali tiesiogiai dirbti su duomenimis, nes duomenų apsaugos įstatymai riboja informacijos apie grupinę priklausomybę rinkimą (lytį, etninę priklausomybę, etc.), todėl šis darbas daugiausiai yra teorinis.
– Norint sukurti moralinių principų ir metodų sistemą, nusakančią, kaip atsakingai naudoti dirbtinį intelektą, pramonė ir suinteresuotosios šalys turi išnagrinėti pagrindines socialines problemas ir klausimą, kas daro mus žmonėmis.
Kai kalbama apie žmogišką perspektyvą, turima omenyje daug dalykų: saugumo užtikrinimą, pagarbą privatiems duomenims, lygybę bei algoritminį nešališkumą (nediskriminavimą).
Saugumo ir privatumo srityse gana aišku, kaip tai užtikrinti. Sudėtingiau – nešališkumo srityje. Iš tikrųjų, pati didžiausia problema čia yra filosofinė. Sakoma, kad būtent šita sritis niekada negalės būti pilnai automatizuota.
Taip, algoritmas prognozuoja rizikas ir apie jas praneša, bet šiuo atveju jis turėtų atlikti tik patariamąją rolę dėl tendencijos diskriminuoti tam tikras grupes. Žmogaus žodis čia turėtų būti paskutinis.
Tačiau aš manau, kad tai labai keisis artimiausiu metu kuriant įstatyminę bazę. Technologijos vystosi labai greitai. Reguliavimo institucijoms, visuomenei ir patiems kūrėjams sunku sureaguoti laiku.
Čia mums reikėtų susitarti dėl tam tikrų vertybių. Turėtume įsitraukti visi – filosofai, politikai ir paprasti žmonės. Kad ir balsavimo būdu. Bet tam pirma reikia suprasti algoritmo veikimo principus ir ką mes galime pakeisti, o ko – ne.
– Apie ką, jūsų nuomone, svarbu pagalvoti vartotojams, kurie naudojasi naujais dirbtinio intelekto įrankiais?
– Bendraujant su dirbtiniu intelektu reiktų kritiškai žiūrėti į tai, kokį rezultatą gauname. Nepasitikėti aklai tuo, ką parašo „ChatGPT“. Tai yra geras įrankis, tačiau reikia suprasti, kaip jis veikia.
„ChatGPT“ yra mokomas prognozuoti, koks žodis galėtų atsirasti konkrečiame kontekste prie kitų žodžių. Kitaip tariant, jis spėlioja.
Kai buvau maža, skaičiau tokią knygą – Michaelio Endes „Begalinė istorija“. Pagrindinis knygos herojus pateko į salą ir pamiršo joje visus žodžius. Tuomet jis pradėjo dėlioti kaladėles su raidėmis. Neatsimindamas nei vieno žodžio, neturėdamas jokių tikslų. Taip dėliojant tūkstantį ar kelis tūkstančius metų, kartais susidėlioja ir prasmingas tekstas.
Tai dirbtinis intelektas yra kažkas panašaus, tik jis veikia labai labai greitai ir stengiasi atkartoti pavyzdžius, esančius milžiniškoje duomenų bazėje. Turime suprasti, kad tai, ką jis siūlo, gali būti ir visiška nesąmonė, atsitiktinė koreliacija, nors ir skamba kaip įtikinamai sudėlioti sakiniai.
Kitas dalykas, nors technologijos sutaupė mums daug laiko, bet pagrindinė problema žmogui yra informacijos apdorojimas. Mes nebespėjame būti produktyvūs, nes nuolat reikia duomenų patenkinti mašinai.
Dirbtinis intelektas yra puikiai išmokytas patraukti mūsų dėmesį. Mums atrodo, kad mes kontroliuojame savo dėmesį, bet iš tikrųjų jis yra kontroliuojamas.
Yra mašininio mokymosi modeliai, tokie kaip kalbos modeliams ir vaizdo atpažinimui naudojamas gilusis mokymasis, kurie vadinami juodąja dėže. Tiksliai suvokti, kodėl algoritmas priima vienokį ar kitokį sprendimą šitoje srityje negali ir patys inžinieriai.
Neseniai klausiau interviu su Elono Musko bendrovės „Neuralink“ atstovu. Jų įmonė dirba su paralyžiuotais žmonėmis, norėdami jų smegenis sujungti su kompiuterio pele, kad žmonės su negalia galėtų patys ieškoti informacijos internete.
Tolimesnė įmonės vizija – sujungti mūsų smegenis su internetu, dirbtiniu intelektu arba kita sąmone, kad galėtume bendrauti betarpiškai ir mąstyti greičiau.
Kaip etikos specialistei, man atrodo, oho, kiek privatumo ir šališkumo problemų čia gali kilti.