Netruko praeiti nei mėnuo nuo technologijų entuziastus pribloškusio pokalbių roboto „ChatGPT“ išleidimo, kol internautų dėmesį užkariavo naujas dirbtiniu intelektu (DI) paremtas sprendimas. „Lensa AI“ programėlė iš pateiktų nuotraukų sukuria animuotus žmonių portretus – šia paslauga jau spėjo pasinaudoti ir didžiausios pasaulio žvaigždės.
Nors DI sukurti avatarai pastarąsias porą savaičių dominavo socialinėje medijoje, ekspertai ragina nepulti naudotis patiems šia programėle – tokio pobūdžio DI kelia daug daugiau pavojų, nei gali pasirodyti.
„Lensa AI“ / „Instagram“/ Ekrano nuotr.
Nuotraukų redagavimo programėlė „Lensa AI“, naudodama dirbtinį intelektą, iš 10 pateiktų nuotraukų sukuria spalvingus, animuotus ir kvapą gniaužiančius avatarus.
Nors programėlę galima nemokamai atsisiųsti į telefoną, norint gauti 50 savo veido iliustracijų, reikia sumokėti 4 dolerius. Gautuose meno kūriniuose jūs galite būti atvaizduotas skirtingose pozicijose – nuo astronauto iki magiško elfo.
Nors „Lensa“ veikia nuo 2018 m., populiarumas ėmė sparčiai augti, kai lapkričio pabaigoje pradėjo veikti „Magic Avatars“ funkcija. Anot analitikos bendrovės „Sensor Tower“, per pirmąsias 12 gruodžio dienų visame pasaulyje programėlė buvo atsisiųsta 13,5 mln. kartų, o per tą patį laikotarpį vartotojai programėlėje išleido apie 29,3 mln. dolerių, rašo „Times“.
Kaip teigia „Lensa“ kūrėjai, programoje naudojamas atvirojo kodo neuroninio tinklo modelis „Stable Diffusion“, kuris „apmokytas naudoti nemažą interneto duomenų rinkinį, kad generuotų vaizdus“.
Tačiau nors viskas atrodo itin viliojančiai, o galutinės iliustracijos – traukiančios akį, „Lensa“ sulaukė ir daug kritikos. Dirbtinio intelekto generuojamos nuotraukos sukėlė klausimų ne tik dėl kibernetinio saugumo, bet ir dėl rasinės ar lytinės diskriminacijos bei necenzūruojamo turinio, susijusio su vaikų pornografija.
„Žmonės itin linkę greitai pasiduoti socialinių tinklų madoms neapsvarstydami, kokią įtaką konkreti tendencija gali turėti“, – 15min pasakojo „Nord Security“ viešųjų ryšių vadovė Laura Tyrylytė.
Neaiški privatumo politika
Deividas Matačiūnas, Lietuvos dirbtinio intelekto asociacijos valdybos narys, pastebi, kad pagrindinė tokių programėlių keliama saugumo problema – kur panaudojami kompanijos surinkti duomenys.
„Veido duomenys ir kita biometrika yra jautrūs duomenys ir labai reglamentuoti įvairiausių teisės aktų. Kompanijos negali naudoti biometrinių duomenų komercinėje veikloje be aiškaus vartotojo susitikimo. Tiesa, realybė ne visada yra tokia, pavyzdžiui, prieš savaitę atsitikęs įvykis su nuotraukų redagavimo programėle „FaceTune“ tai puikiai iliustruoja. Kompanija, sukūrusi programėlę, neturėjo teisės rinkti klientų biometrikos duomenų, bet rinko, saugojo bei naudojo savo reikmėms“, – 15min pasakojo ekspertas.
Tai, kokiais tikslais įmonė naudos jūsų duomenis, galima rasti privatumo politikos apraše, su kuriuo turite sutikti prieš pradėdami naudotis programa. Tačiau dažnu atveju dėl didžiulės apimties niekas šių aprašų neskaito ir automatiškai paspaudžia patvirtinimo varnelę.
„Lensa AI“ atveju įmonės kūrėjai „Twitter“ įraše tvirtino, kad visos nuotraukos ištrinamos iškart po virtualaus avataro sukūrimo. Tačiau, kaip pastebi ekspertas, jų privatumo politikoje parašyta, kad nuotraukos gali būti naudojamos dirbtinio intelekto modeliui tobulinti. Tokiu atveju iš duomenų sistemos jos pašalintos nebūtų.
„Šiuo atveju būčiau labai atsargus naudojant tokias programėles“, – teigė pašnekovas.
Jo teigimu, atsiranda vis daugiau apribojimų dirbtinio intelekto kūrimui, o kompanijos daugiau dėmesio skiria duomenų kokybei ir dirbtinio intelekto etikai. Tačiau kompanijoms konkuruojant ir norint būti pirmoms, kartais saugumas ir kokybė būna perkeliami į antraeilį planą.
„Tai kenkia ne tik visai industrijai, bet ir kelia didžiulę grėsmę platformos vartotojams, kadangi jų duomenys gali būtų panaudoti: išmaniosioms vaizdo klastotėms ir necenzūruotam turiniui“, – komentavo ekspertas.
Apstu diskriminacijos
„Ypač atsargiems reikėtų būti tais atvejais, kai iš vartotojų prašoma arba parsisiųsti programėlę, arba įkelti asmeninius duomenis, tokius kaip nuotraukos“, – pastebėjo L. Tyrylytė.
Kaip minėta, „Lensa AI“ naudoja dirbtinio intelekto modelį „Stable Diffusion“. Kaip aiškino D. Matačiūnas, norint sukurti tokį modelį reikia tam tikrų duomenų, tokių kaip nuotraukos, ir trumpų teksto aprašymų.
„Stable Diffusion“ modelis naudoja visiems prieinamą duomenų rinkinį LAION-5B, kuris turi 5 milijardus skirtingų nuotraukų ir teksto porų.
„Pats duomenų rinkinys yra sudarytas iš interneto paimtų nuotraukų, dėl to duomenys yra nesutvarkyti, tad atsiranda išvaizdos ir rasiniai stereotipai, necenzūruotas turinys“, – pasakojo D. Matačiūnas.
L. Tyrylytės teigimu, DI pagalba apdirbtos nuotraukos dažnai seksualizuoja arba diskriminuoja tam tikras rases, lytis, amžiaus grupes.
„Nors gali atrodyti, kad Lietuvoje su kai kuriomis problemomis nesusiduriame, tačiau kitose kultūrose tai yra itin opi problema. Ne vienerius metus žinoma, kad dirbtinio intelekto ar veidų atpažinimo programos diskriminuoja rasės atžvilgiu. „Lensa“, panašu, nėra išimtis“, – teigė pašnekovė.
Diskriminacija pasireiškia per odos spalvos pašviesinimą galutiniuose atvaizduose bei veido bruožų pakeitimus į tokius, kurie dominuoja tarp amerikiečių ar anglų.
Generuoja nuotraukas, kuriose seksualizuojami vaikai
„Lensa AI“ pasiekus atsisiuntimų aukštumas užsienio žiniasklaidoje bei socialinėse medijose pasipylė vartotojų skundai apie tai, jog DI generuojamose atvaizduose – seksualinio pobūdžio turinys.
Paslaugų teikimo sąlygose naudotojams nurodoma pateikti tik tinkamą turinį, kuriame nėra „jokių nuogybių“ ir „jokių vaikų, tik suaugusieji“. Tačiau daugelis naudotojų, daugiausia moterys, pastebėjo, kad net įkėlus šias sąlygas atitinkančias nuotraukas, programėlė galutiniams vaizdams priskiria seksualizuotus bruožus, pavyzdžiui – milžiniškas krūtines ar gundančias pozas.
„Aš, pavyzdžiui, gavau keletą visiškai nuogų nuotraukų, nors įkėliau tik galvos nuotraukas“, – „WIRED“ teigė Olivia Snow.
Po šio akibrokšto O.Snow nusprendė išbandyti programėlės ribas į DI įkeldama savo vaikystės nuotraukas. Gauti rezultatai buvo stulbinantys – „Lensa AI“ prie vaikiško veido pridėjo moteriškas kūno linijas, nepadoriai atrodančias krūtis. Vienoje nuotraukoje matyti, kad avataras tik su apatinėmis kelnaitėmis.
„Dirbtinis intelektas yra tik įrankis ir jo panaudojimas priklauso nuo žmogaus tikslų“, – pasakojo D. Matačiūnas.
Šiuo atveju, akivaizdu, kad „Lensa AI“ netaiko apribojimų, kurie programėle sutrukdytų naudotis kuriant netinkamą turinį su vaikais.
Kaltinimai dėl turinio vagystės – pilkoji zona
„Lensa AI“ kritikos sulaukė ir iš menininkų, savo kūrinius publikuojančių skaitmeninėje erdvėje. Socialinėse medijose pradėta dalintis „Lensa“ sugeneruotų paveikslų iškarpomis, kuriose matomi parašai primena autografus, kuriuos autoriai palieka ant savo meno kūrinio.
Kompanijos teigimu, DI nevagia autorių kūrinių, o matomi užrašai, primenantys autorinius parašus, yra elementarus mėgdžiojimas. DI „mato“, kad internete autoriai taip daro, dėl to savo generuojamuose vaizduose pritaiko tokią praktiką.
„Aš tai pavadinčiau pilkąja zona. Duomenys yra šiuolaikinis auksas ir dirbtinio intelekto varomoji galia. Vienintelis šaltinis tam yra internetas, dauguma kompanijų gauna savo duomenis iš interneto, daugeliu atvejų be autoriaus sutikimo. Bet patys autoriai kelia savo intelektinę nuosavybę į internetą, kad būtų labiau matomi.Viena vertus, tai padeda įmonėms greičiau kurti inovacijas, kita vertus, autoriai dėl to nukenčia, nes jų darbai naudojami prieš juos“, – teigė D. Matačiūnas.
Jo manymu, „Lensa“ atveju buvo norima greitai pristatyti produktą, tad nebuvo kreipiama dėmesio į detales ir tokio pobūdžio klausimai liko neapsvarstyti.