Dirbtinio intelekto algoritmai dideliais kiekiais generuoja naujus meno kūrinius, mokydamiesi iš egzistuojančių darbų. Kol vyksta teisinės diskusijos, kaip užtikrinti autorių teisių apsaugą, dalis autorių gavo dovaną iš ne kur kitur, o technologijų pasaulio. Informacinių technologijų įrankis „Nightshade“ turėtų padėti „nuodyti“ dirbtinio intelekto vaizdus, jeigu jis naudotų žmogaus sukurtą kūrinį be leidimo.
Asociatyvi AI sugeneruota „Pixabay“ nuotr.
Nauju įrankiu menininkai gali nematomai keisti savo meno kūrinių pikselius prieš įkeldami juos į internetą, todėl, jei jie bus įtraukti į dirbtinio intelekto mokymo rinkinį, gautas rezultatas gali būti chaotiškas ir nenuspėjamas.
Šia priemone, pavadinta „Nightshade“, siekiama kovoti su dirbtinio intelekto bendrovėmis, kurios naudoja menininkų darbus savo modeliams mokyti be kūrėjo leidimo.
Naudojant šią priemonę tokius paveikslėlius būtų galima „užnuodyti“ ir pakenkti vaizdus generuojančių dirbtinio intelekto modelių, tokių kaip DALL-E, Midjourney ir Stable Diffusion, rezultatams. Dalis jų taptų nenaudingi – šunys taptų katėmis, automobiliai – karvėmis ir panašiai, rašoma „MIT Technology Review“ apžvalgoje.
Tokios dirbtinio intelekto bendrovės kaip „OpenAI“, „Meta“, „Google“ ir „Stability AI“ susiduria su daugybe ieškinių, kuriuos pateikė menininkai, teigiantys, kad jų autorių teisėmis saugoma medžiaga ir asmeninė informacija buvo panaudota be sutikimo ar kompensacijos.
Čikagos universiteto profesorius Benas Zhao, vadovavęs komandai, sukūrusiai „Nightshade“, sako, kad tikimasi, jog ši priemonė padės pakeisti galios pusiausvyrą tarp dirbtinio intelekto bendrovių ir menininkų, nes ji taps veiksminga atgrasymo priemone nuo menininkų autorių teisių ir intelektinės nuosavybės nepaisymo.
'Nightshade" keičia vaizdų pikselius subtiliais, žmogaus akiai nematomais būdais, bet manipuliuoja mašininio mokymosi modeliais, kad jie interpretuotų vaizdą kitaip, nei jis iš tikrųjų rodomas.
Pasak B.Zhao, kuo daugiau žmonių jį naudos ir kurs savo versijas, tuo galingesnis taps šis įrankis. Didelių dirbtinio intelekto modelių duomenų rinkinius gali sudaryti milijardai vaizdų, todėl kuo daugiau „apnuodintų" vaizdų bus įkelta į modelį, tuo daugiau žalos padarys šis metodas, rašoma "MIT Technology Review“ straipsnyje.