Didieji Japonijos foto įrangos gamintojai „Canon“, „Nikon“ ir „Sony“ paskelbė apie naują technologiją, kuri padės patvirtinti fotografijų kilmę. Gamintojų skaitmeninėse fotokamerose įdiegta programinė įranga fotografams leis nuotrauką pažymėti skaitmeniniu parašu, kuriame įrašoma informacija apie fotografijos autorių, nuotraukos užfiksavimo datą, laiką ir lokaciją. „Telia“ ekspertų teigimu ši technologija gali tapti stipriu įrankiu kovoje su giliosiomis klastotėmis (angl. deep fake).
Asociatyvi „Adobe Stock“ nuotr.
Skaitmeninio parašo informacija galės būti verifikuojama specialioje nemokamoje internetinėje aplikacijoje „Verify“, kurią sukūrė pasaulinis žiniasklaidos, foto įrangos ir technologijų kompanijų aljansas.
„Su generatyvinio dirbtinio intelekto iškilimu internetą užliejo netikrų vaizdų banga. Didelė dalis jų yra paprasčiausio noro patikrinti dirbtinio intelekto „vaizduotės“ ribas rezultatas. Tai vaizdeliai, skirti pramogai ar pasijuokti. Visgi yra ir tamsioji smarkiai ištobulėjusio generatyvinio dirbtinio intelekto pusė – suklastoti vaizdai, kuriais siekiama klaidinti, kompromituoti, manipuliuoti auditorijomis. Tokių vaizdų paplitimas yra grėsmė, su kuria kovai ir susivienijo pasaulinės technologijų kompanijos“, – teigia „Telia“ kibernetinio saugumo ekspertas Darius Povilaitis.
„Sony“ skaitmeninio parašo technologiją kai kuriose savo kamerose ketina pristatyti jau šį pavasarį. Kiek vėliau turėtų pasirodyti ir tokią funkciją turintys „Canon“ foto aparatai. Ši bendrovė taip pat kuria ir savo programinę įrangą, kuri padėtų atskirti kompiuteriu generuotus vaizdus nuo tikrų fotografijų. Turinio autentifikavimo funkcionalumą abi bendrovės svarsto diegti ir savo vaizdo įrašymo įrangoje.
Dirbtinio intelekto kurtos kalstotės – vis didesnė grėsmė
D. Povialitis sako, kad vadinamosios giliosios klastotės – nuo autentiškų fotografijų ar vaizdo įrašų plika akimi vis sunkiau atskiriamas turinys, kuriame gali būti įtikinamai vaizduojami žinomi asmenys, politikai, tam tikri įvykiai – ekspertų susirūpinimą kelia jau kurį laiką. Giliosios klastotės netikras naujienas (angl. fake news) kilsteli į naują lygį, o socialinių tinklų ir žaibiško informacijos sklidimo laikais nusikaltėlių ir priešiškų režimų rankose tampa pavojingu įrankiu paveikiant visuomenės nuomonę, kišantis į valstybių politinius procesus, kurstant konspiracijos teorijas.
„Nesunku įsivaizduoti scenarijų, kai kokybiškai suklastotas valstybės vadovo pareikšimas gali sukelti neramumus valstybės viduje ar net karinį konfliktą. Nesvarbu, kad klastotė bus greita išaiškinta, o netikras pareiškimas paneigtas – atitaisyti tokio įrašo padarytą žalą gali būti per vėlu. Naujos dirbtinio intelekto galimybės taip pat kelia klausimų dėl fotografijų autorystės, meninės vertės ir autentiškumo, atveria erdvę naujų rūšių sukčiavimui. Dėl to ieškoma inovatyvių būdų generatyvinio dirbtinio intelekto kurtus vaizdus kontroliuoti ir aiškiai identifikuoti“, – aiškina „Telia“ atstovas.
Giliųjų klastočių atpažinimo įrankių poreikis auga
Tai jau ne pirmasis bandymas į fotografijos įrangą integruoti kovai su nevaldomu dirbtinio intelekto sugeneruotų vaizdų plitimu skirtus įrankius. „Turinio kredencialų“ funkciją jau turi viena iš naujausių „Leica“ foto kamerų, kurioje skaitmeniniu parašu galima užšifruoti informaciją apie nuotraukos autorių, užfiksavimo laiką ir vietą. Vėliau tokią informaciją galima nesunkiai patikrinti.
„Kitos technologijų kompanijos taip pat siekia kurti priemones, padedančias kovoti su piktnaudžiavimu ir manipuliavimu dirbtinio intelekto kurtais ar pakeistais vaizdais. Pavyzdžiui, „Google“ pernai išleido „SynthID“ įrankį, leidžiantį skaitmeniniu būdu pažymėti dirbtinio intelekto sugeneruotus vaizdus tam, kad juos būtų galima paprasčiau identifikuoti. Technologijų kompanija „Intel“ kuria giliųjų klastočių atpažinimo įrankį, kuris autentišką vaizdo medžiagą nuo sugeneruotos galės atskirti analizuodamas vaizdo įrašuose užfiksuotų žmonių veido odos spalvos ir tekstūros pokyčius. Augant dirbtinio intelekto galimybėms, neabejotinai didėja ir tokių sprendimų poreikis“, – sako D. Povilaitis.