Komanda, sukūrusi „ChatGPT“, teigia, kad norint apsisaugoti nuo „superprotingų“ dirbtinių intelektų keliamos rizikos reikia specialios priežiūros institucijos, praneša „The Guardian“.
Asociatyvi „Pixabay“ nuotr.
„ChatGPT“ sukūrusios įmonės „OpenAI“ vadovai paragino reguliuoti „superintelektualius“ dirbtinius intelektus, teigdami, kad reikia Tarptautinės atominės energijos agentūros (TATENA) atitikmens, kad žmonija būtų apsaugota nuo pavojaus būti sunaikinta.
Bendrovės interneto svetainėje paskelbtame trumpame pranešime įkūrėjai Gregas Brokmanas ir Ilja Sutskeveris bei vyriausiasis vykdomasis direktorius Samas Altmanas ragina tarptautinę reguliavimo instituciją pradėti dirbti: „tikrinti sistemas, reikalauti audito, tikrinti, ar jos atitinka saugumo standartus, [ir] nustatyti diegimo laipsnio ir saugumo lygio apribojimus“, kad būtų sumažinta „egzistencinė rizika“, kurią gali kelti tokios sistemos.
„Galima įsivaizduoti, kad per ateinančius 10 metų dirbtinio intelekto sistemos daugelyje sričių viršys ekspertų įgūdžių lygį ir atliks tiek pat produktyvios veiklos, kiek viena iš didžiausių šiandienos korporacijų“, – rašo jie, – „Tiek galimų privalumų, tiek trūkumų požiūriu superintelektas bus galingesnis nei kitos technologijos, su kuriomis žmonijai teko susidurti praeityje. Mūsų ateitis gali būti klestinti, tačiau, kad ją pasiektume, turime valdyti riziką.“
Artimiausiu metu trijulė ragina „tam tikru mastu koordinuoti“ dirbtinio intelekto mokslinių tyrimų srityje dirbančių bendrovių veiklą, kad būtų užtikrinta, jog vis galingesnių modelių kūrimas sklandžiai integruotųsi į visuomenę ir kartu būtų teikiama pirmenybė saugumui. Toks koordinavimas galėtų būti vykdomas, pavyzdžiui, įgyvendinant vyriausybės vadovaujamą projektą arba sudarant kolektyvinį susitarimą dėl dirbtinio intelekto pajėgumų augimo apribojimo.
Mokslininkai jau dešimtmečius įspėja apie galimą superintelekto keliamą pavojų, tačiau, sparčiau vystant dirbtinį intelektą, šis pavojus tapo konkretesnis. JAV dirbtinio intelekto saugos centras (CAIS), kurio tikslas – „mažinti dirbtinio intelekto keliamą visuomeninio masto riziką“, apibūdina aštuonias „katastrofinės“ ir „egzistencinės“ rizikos, kurią gali kelti dirbtinio intelekto vystymas, kategorijas.
Kai kurie nerimauja, kad galingas dirbtinis intelektas visiškai sunaikins žmoniją, atsitiktinai ar tyčia, tačiau CAIS aprašo ir kitas galimas pasekmes.
Pasaulis, kuriame dirbtinio intelekto sistemoms savanoriškai perduodama vis daugiau darbo, gali lemti tai, kad žmonija „praras gebėjimą savarankiškai tvarkytis ir taps visiškai priklausoma nuo mašinų“.
„OpenAI“ vadovai teigia, kad šie pavojai reiškia, jog „žmonės visame pasaulyje turėtų demokratiškai nuspręsti dėl dirbtinio intelekto sistemų ribų ir numatytųjų parametrų“, tačiau pripažįsta, kad „dar nežinome, kaip sukurti tokį mechanizmą“.
Vis dėlto jie teigia, kad verta rizikuoti ir toliau kuriant galingas sistemas, tik daryti tai apgalvotai.