„ChatGPT“ atsakymai į universiteto studentams pateiktus klausimus buvo tokie pat geri arba geresni nei studentų atsakymai devyniuose iš 32 testuotų dalykų, skelbiama „New Scientist“.
Asociatyvi DI sugeneruota „Pixabay“ nuotr.
Yasiras Zaki ir kiti mokslininkai iš Niujorko universiteto Abu Dabyje, Jungtiniuose Arabų Emyratuose, kreipėsi į kolegas iš kitų fakultetų, prašydami pateikti vertinimo klausimus iš universitete dėstomų kursų, įskaitant informatiką, psichologiją, politikos mokslus ir verslą.
Kolegos taip pat pateikė realius studentų atsakymus į šiuos klausimus. Tada klausimai buvo užduoti dirbtinio intelekto pokalbių robotui „ChatGPT“, kuris pateikė savo atsakymus.
Tada abu atsakymų variantai buvo išsiųsti vertintojų grupei. „Vertintojai nebuvo informuoti nei kas pateikė vienus ar kitus atsakymus, nei kokiu tikslu jie juos turi įvertinti“, – aiškina Y. Zaki.
Devyniuose iš 32 tirtų dėstomųjų dalykų „ChatGPT“ atsakymai buvo įvertinti taip pat gerai arba geriau nei studentų. Kartais roboto atsakymai buvo ženkliai išsamesni. Pavyzdžiui, atsakydamas į kurso „Įvadas į viešąją politiką“ klausimus, jis beveik dvigubai viršijo vidutinį studentų įvertinimą.
„ChatGPT“ daug geriau atsakė į klausimus, kuriuose reikėjo prisiminti informaciją, tačiau prastai pasirodė tose užduotyse, kuriose reikėjo atlikti kritinę analizę“, – sako Y. Zaki.
Pasak Londono imperatoriškojo koledžo atstovo Thomaso Lancasterio, tyrimo rezultatai rodo, kad klausimai, naudojami vertinant daugumos universitetuose dėstomų dalykų žinias, ne visada yra formuluojami teisingai. Jie turėtų padėti įvertinti studentų kritinį mąstymą, kurio atkartoti „ChatGPT“ nėra pajėgus. „Jei [naudojant „ChatGPT“] įmanoma gauti geresnius atsakymus, reiškia vertinimo struktūroje yra trūkumų“, – įsitikinęs jis.