Pastarieji metai – dirbtinio intelekto proveržio laikas. Vis daugiau girdime apie įvairias sistemas, galinčias generuoti atsakymus į bet kokius klausimus. Kai kada šie atsakymai taip pribloškia, kad gali nebesuprasti – bendrauji su robotu, ar tikru žmogumi. Technologinė raida – įspūdinga, tačiau dalį visuomenės ji gąsdina.
Asociatyvi „Pixabay“ nuotr.
Dirbtinis intelektas vertinamas nevienareikšmiškai – atsirado kelios skirtingų nuomonių stovyklos. Vieni tiki, kad DI atims darbus iš žmonių ir ilgainiui sunaikins civilizaciją, o kiti mano, kad technologija pasitarnaus žmonijai ir atneš dar vieną pramonės revoliuciją.
Rinkoje pasigirsta siūlymų stabdyti šios technologijos tobulinimą tol, kol susivoksime, ką DI geba. Tačiau iš tiesų reikėtų grįžti žingsniu atgal ir pasigilinti į tai, kaip dirbtinis intelektas yra kuriamas.
DI technologija kuriama remiantis matematiniais principais – viskas prasideda nuo jau iš anksto sugeneruotų duomenų. Jie savaime, nesuteikus konteksto, yra tik skaičių ir raidžių kratinys, tačiau ten gali slypėti rasizmo, seksizmo ir kitokios diskriminacijos apraiškų.
Viena geriausiai tai iliustruojančių istorijų nutiko dar 2016 metais, kuomet technologijų milžinė „Microsoft“ paleido DI pokalbių robotą „Tay“, kuris mokėsi ir analizavo kitų žmonių žinutes socialiniame tinkle „Twitter“. Praėjus vos 16 valandų nuo šio roboto paleidimo jis jau neigė holokaustą ir pozityviai vertino Hitlerį, todėl iškart buvo išjungtas.
Nors atrodo, kad nuo 2016-ųjų praėjo daugybė laiko ir technologijai patobulėjus robotai nebeturėtų susidurti su tokiomis problemomis, realybė yra kiek kitokia. Net ir dabar išskirtinio populiarumo sulaukusiame „Chat GPT“ galima atrasti rasizmo apraiškų. Vienas iš pavyzdžių – paprašius roboto įvardinti, kas yra geriausi mokslininkai, jis atsakė, kad tai – baltaodžiai vyrai. Žinoma, dirbtinio intelekto kūrėjai nuolat bando užkirsti kelią tokioms diskriminacijos apraiškoms, tad dabar roboto paklausus tokio paties klausimo, gautumėte atsakymą, kad nedera žmonių vertinti pagal rasę.
2022 metų pabaigoje Jungtinės Karalystės „Information Commissioner's Office“ pradėjo tyrimą dėl DI algoritmų naudojimo filtruojant gyvenimo aprašymus pagal darbo skelbimus. Šie algoritmai buvo užprogramuoti pagal istorinius duomenis – DI buvo apmokomas remiantis tuo, kokie žmonės įprastai gaudavo darbus numatytose pozicijose.
Tai reiškia, kad jei diskriminacija egzistuoja realybėje, lygiai toks pat vertinimas gali atsispindėti ir dirbtinio intelekto modelyje – jis gali diskriminuoti pagal lytį, amžių ar tautybę.
Su tokiais pat iššūkiais susiduria ir bankų sektorius. Jei istoriškai egzistavo rasinė nelygybė suteikiant paskolas, galimai praeities duomenimis besiremiantis DI modelis tai pritaikys ir dabartiniais laikais. Net iš lygties išėmus tam tikrus skiriamuosius parametrus – lytį, amžių ar tautybę – DI geba šias spragas užpildyti. Pavyzdžiui, tautybę apspręsti pagal nurodytą pašto kodą, o amžių – pagal tai, kada buvo baigtos universiteto studijos.
Diskriminacijos apraiškas DI modeliuose galima išspręsti tinkamai analizuojant duomenis – tam reikia žinių, gebėjimo juos teisingai išnarplioti ir išminties.
Dažnai įmonės, sukūrusios DI modelį, pradeda juo naudotis ir pamiršta, kad jį reikia nuolat prižiūrėti. To nedarant, jis pradeda generuoti visiškai netikslius rezultatus, galimai net ir su diskriminacijos apraiškomis. Kiekvienam iš mūsų reikėtų suprasti tai, kad visi dirbtinio intelekto atsakymai yra sugeneruoti tik iš tų duomenų, kuriuos jam pateikiame.
Dirbtinio intelekto propaguotojai piešia rytojų, kuriame viską už mus atlieka mašinos, bet net ir tam, kad tai įvyktų, mums pirmiausiai reikia senamadiškai paanalizuoti duomenis – tik tokiu būdu mes suprasime, kur jie mus veda.
Dirbdami „Tele2“ aklai sprendimų nepriimame – visuomet vadovaujamės duomenimis ir iš jų išgauname kuo daugiau naudingos informacijos. Matome, kad tai veikia ir neįsivaizduojame, kaip sprendimą būtų galima priimti jais nesiremiant. Visada bandome suprasti, kas juose slypi.
„Tele2“ rinkos dalis siekia net 46,1 proc. Tai reiškia, kad mes generuojame didžiulius duomenų kiekius, o dirbant su jais dažnai kildavo idėjų, kaip tokius duomenis būtų galima panaudoti ne tik mums patiems, bet ir paprastai pristatyti žmonėms. Taip gimė „DATA ATLAS“ didžiųjų duomenų analizė.
„DATA ATLAS“ paslauga suskirstyta į kelias dalis ir susideda iš: „Retail Atlas“, „Location Atlas“ ir „Traffic Atlas“. „Retail Atlas“ operatoriaus analizė padeda geriau pažinti savo klientus ir jų įpročius, „Location Atlas“ – įvertinti ir palyginti skirtingas teritorijas pagal tikslinių auditorijų dydžius. Tuo tarpu „Traffic Atlas“ duomenys padeda nustatyti judėjimo mieste kryptis.
Visa informacija yra nuasmeninta, apibendrinta ir vertinama tik dideliais klientų bazės segmentais.
Šie duomenys padeda verslams priimti duomenimis grįstus sprendimus, tačiau tam, kad įžvalgos būtų teisingos, viską turi prižiūrėti žmogus. Tik suteikus dirbtiniam intelektui tinkamus duomenis galime tikėtis, kad jo pateikti atsakymai bus naudingi.
Kokius duomenis jam pateiksime ir kokį kontekstą jiems suteiksime, priklauso tik nuo mūsų – žmonių. Tad atsakymą, dirbtinis intelektas pranašas ar demonas, rasime tik pažvelgę į veidrodį. Tinkamai išanalizavę praeitį galėsime drąsiai žvelgti į duomenimis grįstą ateitį.