Elektronika.lt
 2024 m. lapkričio 22 d. Projektas | Reklama | Žinokite | Klausimai | Prisidėkite | Atsiliepimai | Kontaktai
Paieška portale
EN Facebook RSS

 Kas naujo  Katalogas  Parduotuvės  Forumas  Tinklaraščiai
 Pirmas puslapisSąrašas
 NaujienosSąrašas
 StraipsniaiSąrašas
 - Elektronika, technika
 - Kompiuterija
 - Telekomunikacijos
 - Įvykiai, visuomenė
 - Pažintiniai, įdomybės
 Vaizdo siužetaiSąrašas
 Nuolaidos, akcijosSąrašas
 Produktų apžvalgosSąrašas
 Naudingi patarimaiSąrašas
 Vykdomi projektaiSąrašas
 Schemų archyvasSąrašas
 Teorija, žinynaiSąrašas
 Nuorodų katalogai
 Įvairūs siuntiniai
 Bendravimas
 Skelbimai ir pasiūlymai
 Elektronikos remontas
 Robotų kūrėjų klubas
 RTN žurnalo archyvas






 Verta paskaityti
Lapkričio 21 d. 20:39
Asfaltas klojamas, o ryšys stringa: kodėl infrastruktūros spragos stabdo skaitmeninę pažangą Lietuvoje?
Lapkričio 21 d. 18:37
Norite kalbėti vokiškai, itališkai ar kiniškai? „Microsoft Teams“ atnaujinimas pavers jus poliglotu
Lapkričio 21 d. 16:45
5 tendencijos 2025-iesiems: žmonės ieško pusiausvyros tarp technologijų ir realybės, vis labiau vertina autentiškumą
Lapkričio 21 d. 14:24
NKSC įspėja apie dažniausias Juodojo penktadienio apgavystes
Lapkričio 21 d. 12:29
Palygino IT ir automobilių gigantus: į akis krenta sudėtinga problema
Lapkričio 21 d. 10:12
Elektronikos prekių pardavimai per Juodąjį penktadienį: taupysime ne tik dėl akcijų
Lapkričio 21 d. 08:20
Ką turime nuveikti šiandien, kad taptume konkurencingesni ateities inovacijų srityje?
Lapkričio 20 d. 20:21
Su vietos trūkumu susiduria daugelis „Gmail“ naudotojų: pateikiame paprastas gudrybes, kurios leis išspręsti opią problemą
Lapkričio 20 d. 17:34
Sukčiai platina netikras nuorodas, prisidengdami Lietuvos prekių ženklais
Lapkričio 20 d. 14:31
Odos vėžio nustatymas naminiams gyvūnams – KTU doktorantė siekia sukurti diagnostinę metodiką pasitelkiant DI
FS25 Tractors
Farming Simulator 25 Mods, FS25 Maps, FS25 Trucks
ETS2 Mods
ETS2 Trucks, ETS2 Bus, Euro Truck Simulator 2 Mods
FS22 Tractors
Farming Simulator 22 Mods, FS22 Maps, FS25 Mods
VAT calculator
VAT number check, What is VAT, How much is VAT
LEGO
Mänguköök, mudelautod, nukuvanker
Thermal monocular
Thermal vision camera,
Night vision ar scope,
Night vision spotting scope
FS25 Mods
FS25 Harvesters, FS25 Tractors Mods, FS25 Maps Mods
Dantų protezavimas
All on 4 implantai,
Endodontija mikroskopu,
Dantų implantacija
FS25 Mods
FS25 Maps, FS25 Cheats, FS25 Install Mods
GTA 6 Weapons
GTA 6 Characters, GTA 6 Map, GTA 6 Vehicles
FS25 Mods
Farming Simulator 25 Mods,
FS25 Maps
Reklama
 Straipsniai » Kompiuteriai, IT Dalintis | Spausdinti

„ChatGPT“ naudojimas darbe: darbuotojų produktyvumo įrankis ar papildomos rizikos darbdaviui šaltinis?

Publikuota: 2024-06-14 14:29
Tematika: Kompiuteriai, IT
Skirta: Profesionalams
Inf. šaltinis: Pranešimas žiniasklaidai

Dirbtinis intelektas tapo viena iš sparčiausiai besivystančių ir didžiausią įtaką darančių technologijų pasaulyje. Įstatymų leidėjai į tai reaguoja reguliavimo priemonėmis, tokiomis kaip neseniai patvirtintas Europos Sąjungos dirbtinio intelekto aktas. Tuo tarpu dirbtinio intelekto sistemos kaip OpenAI „ChatGPT“ ir Google „Gemini“ jau naudojamos įvairiose verslo srityse.

 Rodyti komentarus (0)
Įvertinimas:  1 2 3 4 5 

Dirbtinis intelektas tapo viena iš sparčiausiai besivystančių ir didžiausią įtaką darančių technologijų pasaulyje. Įstatymų leidėjai į tai reaguoja reguliavimo priemonėmis, tokiomis kaip neseniai patvirtintas Europos Sąjungos dirbtinio intelekto aktas. Tuo tarpu dirbtinio intelekto sistemos kaip OpenAI „ChatGPT“ ir Google „Gemini“ jau naudojamos įvairiose verslo srityse: klientų aptarnavimo, tekstų kūrimo, duomenų analizės ir sprendimų priėmimo.

DI sugeneruota asociatyvi „Pixabay“ nuotr.
DI sugeneruota asociatyvi „Pixabay“ nuotr.

Dirbtinis intelektas geba greitai ir efektyviai atlikti sudėtingas užduotis, automatizuoti pasikartojančius procesus ir generuoti įžvalgas iš didelių duomenų masyvų, taip didindamas darbo našumą ir verslo konkurencingumą. Dėl šių privalumų vis daugiau įmonių pasitelkia dirbtinį intelektą kasdienėje veikloje, prisitaikydamos prie rinkos pokyčių ir kurdamos naujas verslo galimybes.

Tačiau lengva ir nemokama prieiga prie tokių dirbtinio intelekto įrankių kaip „ChatGPT“ leidžia darbuotojams juos naudoti darbdaviams ne visada apie tai žinant. Tokia praktika kelia gana rimtų rizikų, tokių kaip konfidencialių įmonės duomenų nutekinimas bei įstatymo saugomų autorių teisių pažeidimai. Toliau šios rizikos aptariamos kiek detaliau bei apžvelgiamos galimos jų suvaldymo priemonės.

Jautrių įmonės duomenų nutekinimas

Įmonės darbuotojai, siekdami pagreitinti ar kitokiu būdu efektyviau atlikti savo darbo funkcijas į tokias dirbtinio intelekto sistemas kaip „ChatGPT“ gali pateikti įvairaus pobūdžio informaciją. Be paprastų bendro pobūdžio užklausų, tai gali būti klientų asmens duomenys, sutarčių su klientais sąlygos ar kita konfidenciali ar net įmonės komercinę paslaptį sudaranti informacija.

Tam, kad būtų galima suprasti, kokios gali būti tokios informacijos pateikimo į „ChatGPT“ ar analogišką sistemą pasekmės, būtina bendrais bruožais suprasti, kaip tokios sistemos veikia.

„ChatGPT“ bei analogiški pokalbių robotai (angl. chatbots), vadinamieji didieji kalbos modeliai (angl. large language models (LLMs)), geba atpažinti bei generuoti natūralią (žmonių) kalbą. Šį gebėjimą jie įgyja „apmokomi“ nepaprastai dideliais duomenų kiekiais. Didžiuosiuose kalbos modeliuose veikiantys algoritmai (grįsti vadinamuoju mašininiu mokymusi) šiuose duomenyse išmoksta atpažinti, kaip tarpusavyje funkcionuoja raidės, žodžiai bei sakiniai. Su „ChatGPT“ (ar analogišku) pokalbių robotu „bendraujama“ jam pateikiant užklausą (angl. prompt) ir gaunant atsakymą (angl. output) į šią užklausą.

Esminis „ChatGPT“ veikimo aspektas yra tas, kad kiekviena „ChatGPT“ pateikiama užklausa tampa duomenų, skirtų tolesniam šios sistemos apmokymui, dalimi, ir tokių duomenų nebeįmanoma atgauti.

Taigi šių duomenų saugumo prasme iškyla keleriopo pobūdžio rizika.

Pirma, konfidencialūs vartotojo duomenys gali nutekėti ir tapti žinomi kitiems sistemos vartotojams dėl pačios sistemos viduje kartais pasitaikančių klaidų ar kibernetinių atakų. Tokie incidentai nėra vien teorinė rizika. „OpenAI“ 2023 m. kovo mėn. jau patyrė duomenų nutekinimo incidentą, kai vartotojai „ChatGPT“ atsakymuose į savo užklausas galėjo atsitiktinai matyti kitų vartotojų vardus, el. pašto adresus bei banko kreditinių kortelių numerius. Be to, 2023 metais „juodajame internete“ buvo rasta apie 200 000 „ChatGPT“ vartotojų paskyrų duomenų rinkinių, kuriuos buvo siūloma parduoti. Šis duomenų nutekinimas nutiko dėl įsilaužimo kenkimo programomis į vartotojų įrenginius.

Antra, jautrūs duomenys gali būti nutekinami kitiems to sąmoningai siekiantiems vartotojams, „ChatGPT“ užklausas suformuojantiems tam tikru būdu ir šiuos duomenis gaunantiems atsakymuose į tokias užklausas.

Be jokios abejonės, „OpenAI“ bei kitos analogišką paslaugą teikiančios technologijų kompanijos deda visas pastangas, kad tokie duomenų saugumo incidentai nenutiktų, tačiau, atsižvelgiant jau vien į šiose sistemose esančių duomenų kiekį bei vartotojų skaičių, visiškai eliminuoti rizikos, kad jautrūs vartotojų duomenys niekada nebus nutekinti, yra neįmanoma.

Trečia, dirbtinio intelekto sistemų naudojimas gali kelti papildomų rizikų, susijusių su asmens duomenų apsauga ir Bendrojo duomenų apsaugos reglamento (BDAR) pažeidimais. Pavyzdžiui, automatinės duomenų analizės metu neteisingai apdoroti asmens duomenys gali būti netyčia atskleisti arba netinkamai panaudoti. Tai ypač aktualu turint omenyje, kad dirbtinio intelekto modeliai mokomi apdorojant didelius duomenų rinkinius, kuriuose gali būti per klaidą įtraukti jautrūs asmens duomenys.

Ketvirta, jei įmonė turi sudariusi konfidencialumo susitarimus su savo verslo partneriais dėl tam tikrų jautrių duomenų neatskleidimo tretiesiems asmenims ir tokie duomenys būtų panaudojami „ChatGPT“ užklausose, galimai iškiltų klausimas, ar tokiu būdu nebuvo pažeista konfidencialumo sutartis, net nesant jau aptarto pobūdžio duomenų nutekinimo.

Autorių teisių pažeidimai

Kaip minėta, tokios dirbtinio intelekto sistemos kaip „ChatGPT“ yra apmokomos nepaprastai dideliais duomenų kiekiais, paimamais iš interneto. Natūralu, kad tarp tokių duomenų yra ir daugybė autorių teisių saugomų kūrinių.

Dėl to kylančias teisines problemas puikiai iliustruoja Jungtinėse Amerikos Valstijose vykstanti byla New York Times v. OpenAI ir Jungtinėje Karalystėje pradėta byla Getty Images v. Stability AI. Šiose bylose ieškovai teigia, kad dirbtinio intelekto sistemų kūrėjai šioms sistemoms apmokyti panaudojo ieškovams priklausančius autorių teisių objektus, neturėdami ieškovų sutikimo. Šių bylų baigtis neabejotinai turės didžiulę įtaką tam, kaip toliau dirbtinio intelekto sistemose bus naudojami duomenys.

Žvelgiant iš „ChatGPT“ bei analogiškos sistemos naudotojo pusės, į mokymo duomenis patekę autorių teisių objektai (pvz., įvairūs tekstai bei vizualiniai kūriniai) ar jų dalys gali būti atgaminami naudotojui pateikiamuose atsakymuose. Jei tokie atsakymai su saugomų kūrinių elementais būtų toliau naudojami įmonės verslo veikloje, net ir nežinant, kad tam tikras turinys yra saugomas autorių teisių, galimai iškiltų tokios įmonės atitinkamų autorių teisių pažeidimo klausimas.

Netikslių atsakymų panaudojimas

Dar viena su dirbtinio intelekto naudojimu susijusi rizika yra galimas neteisingos informacijos generavimas ir tokios informacijos panaudojimas. Iš pažiūros dirbtinio intelekto įrankiai, tokie kaip „ChatGPT“, gali sugeneruoti autentišką ir unikalią informaciją, tačiau ji gali būti netiksli arba visiškai klaidinga. Tokios neteisingos ar net visiškai išgalvotos informacijos pateikimas žinomas kaip dirbtinio intelekto sistemos haliucinacija. Šiuo metu „ChatGPT“ pobūdžio sistemose haliucinacijas vidutiniškai sudaro 3–10 proc. visų sistemos pateikiamų atsakymų. Šiuos skaičius sistemų kūrėjai mėgina mažinti, bet visiškai jų pašalinti gali ir nepavykti dėl pačių sistemų pobūdžio.

Kaip jau minėta, vienas iš esminių dirbtinio intelekto sistemų privalumų yra tas, kad jos sugeneruota informacija grįsta masyvių duomenų rinkiniais. Tačiau svarbu atkreipti dėmesį, kad duomenys gali būti ne tik netikslūs, bet ir šališki. Netinkamai parinkti ar nepakankamai atnaujinti sistemose esantys duomenys gali lemti ne tik neteisingų, bet ir šališkų išvadų pateikimą.

Pavyzdžiui, klientų aptarnavimui naudojami dirbtinio intelekto įrankiai gali automatiškai generuoti atsakymus į klientų užklausas. Jei šie įrankiai yra apmokyti naudoti pasenusią arba netikslią informaciją, pateikiami atsakymai gali būti klaidingi arba neinformatyvūs, todėl atsakingas ir kritiškas požiūris į dirbtinio intelekto sugeneruotą informaciją yra būtinas siekiant išvengti klaidų ir užtikrinti, kad ši technologija būtų naudinga verslui.

Galimos rizikų suvaldymo priemonės

Greičiausiai paprasčiausia įvardintų rizikų suvaldymo priemonė būtų tiesiog uždraudimas darbo vietoje naudotis tokiais dirbtinio intelekto įrankiais kaip „ChatGPT“. Tačiau atsižvelgiant į šių įrankių duodamą produktyvumo naudą bei į augančią vis efektyvesnių tokių įrankių gausą, bendras draudimas ne visuomet gali būti optimaliausias sprendimas.

Nusprendus pasitelkti tokius įrankius, darbdaviai turėtų aiškinti darbuotojams dirbtinio intelekto įrankių naudojimo taisykles ir aiškiai informuoti apie galimas pasekmes, jeigu numatytos taisyklės būtų pažeistos. Tai svarbu todėl, kad netinkamas dirbtinio intelekto naudojimas gali sukelti ne tik teisinių, bet ir finansinių padarinių organizacijai. Darbdaviai turėtų užtikrinti, kad visi darbuotojai būtų informuoti, kaip dirbtinio intelekto įrankius naudoti atsakingai ir saugiai, todėl rekomenduojama turėti aiškiai apibrėžtas naudojimosi dirbtiniu intelektu organizacijoje taisykles, su kuriomis būtų supažindinami visi darbuotojai.

Taip pat galima apsvarstyti ir vidinio dirbtinio intelekto, panašaus į „ChatGPT“, įrankio diegimą įmonės viduje. Vidinės sistemos leidžia geriau kontroliuoti, kaip ir kokia informacija naudojama, bei užtikrina, kad jautrūs duomenys nepaliktų organizacijos ribų. Tai taip pat suteikia galimybę pritaikyti dirbtinio intelekto modelius konkretiems įmonės poreikiams ir užtikrinti jų atitiktį organizacijos saugumo standartams.

Be aiškių taisyklių, būtina įdiegti kontrolės mechanizmus, kurie padėtų reguliuoti, kokia informacija patenka į dirbtinio intelekto sistemas. Tai ne tik padėtų išvengti galimų duomenų pažeidimų, bet ir sustiprintų bendrą organizacijos saugumo kultūrą. Be to, verta apsvarstyti prieigos ribojimus, leidžiančius tik tam tikriems darbuotojams naudotis dirbtinio intelekto įrankiais.

Tekstą parengė Ovidijus Speičys, advokatų kontoros „Glimstedt“ vyresnysis teisininkas, advokato padėjėjas, ir Gabrielė Šapkauskaitė, advokatų kontoros „Glimstedt“ teisininkė, advokato padėjėja




Draudžiama platinti, skelbti, kopijuoti
informaciją su nurodyta autoriaus teisių žyma be redakcijos sutikimo.

Global electronic components distributor – Allicdata Electronics

Electronic component supply – „Eurodis Electronics“

LOKMITA – įvairi matavimo, testavimo, analizės ir litavimo produkcija

Full feature custom PCB prototype service

GENERAL FINANCING BANKAS

Mokslo festivalis „Erdvėlaivis Žemė

LTV.LT - lietuviškų tinklalapių vitrina

„Konstanta 42“

Technologijos.lt

Buitinė technika ir elektronika internetu žemos kainos – Zuza.lt

www.esaugumas.lt – apsaugok savo kompiuterį!

PriedaiMobiliems.lt – telefonų priedai ir aksesuarai

Draugiškas internetas


Reklama
‡ 1999–2024 © Elektronika.lt | Autoriaus teisės | Privatumo politika | Atsakomybės ribojimas | Reklama | Turinys | Kontaktai LTV.LT - lietuviškų tinklalapių vitrina Valid XHTML 1.0!
Script hook v, Openiv, Menyoo
gta5mod.net
FS25 Mods, FS25 Tractors, FS25 Maps
fs25mods.lt
Optical filters, UV optics, electro optical crystals
www.eksmaoptics.com
Reklamos paslaugos
SEO sprendimai

www.addad.lt
Elektroninių parduotuvių optimizavimas „Google“ paieškos sistemai
www.seospiders.lt
FS22 mods, Farming simulator 22 mods,
FS22 maps

fs22.com
Reklama


Reklama