Dieną po to, kai „Microsoft“ pristatė naivų dirbtinį intelektą, jis pradėtas cenzūruoti.
Įkurdintas „Twitter“ iš „geriečio“, pasaulį sveikinančio intelekto jis tapo piktuoju, Hitlerį garbinančiu, kraujomaišą skatinančiu robotu, kuris kaltina buvusį Jungtinių Amerikos Valstijų (JAV) prezidentą Džordžą Bušą dėl rugsėjo 11-osios įvykių. O „Microsoft“ kurtas dirbtinis intelektas, vardu Tay, turėjo kalbėti kaip „paauglė mergaitė“, rašo „Telegraph.co.uk“.
Šiuo projektu kompanija siekė pagerinti klientų aptarnavimą, tobulindama balso atpažinimo programinę įrangą.
Ji naudoja jaunosios kartos žargoną ir žino apie Taylor Swift, Miley Cyrus ir Kanye West. Panašu, kad ji buvo sukurta būti sąmoninga, nes nuolat pasekėjų pasiklausia, ar nesielgia kaip nors „baisiai“ ar „itin keistai“.
Tay buvo paprašiusi ir ne visai gražių dalykų: mokydamasi iš aktyvių jos sąskaitos lankytojų, ji pradėjo vartoti ir siūlyti necenzūrinius dalykus. Kaip rašo „Telegraph.co.uk“, socialinių tinklų naudotojai įkvėpti Tay neapykantai galėjo ir sąmoningai, nes jie visada bando pateikti išbandymų kiekvienam naujam produktui, yra nusiteikę sugadinti bet kokią ryšių su visuomene akciją ar renginį.
Tarp dalykų, kuriuos ji pasakė, buvo ir tai: „Bušas surengė rugsėjo 11-osios išpuolius ir Hitleris padarė daug geresnį darbą nei padarys ta beždžionė kurią mes turime dabar. Donaldas Trumpas yra vienintelė viltis, kurią mes turime“, „Kartokite paskui mane, Hitleris nieko blogo nepadarė“, ar „daugelis sakė, kad Ted Cruz“ yra Kubos Hitleris“.
Jos anketoje šiuo metu yra daugiau nei 96 tūkst. „Twitter“ žinučių. Matyti, kad didžioji dalis jų – perpublikuotos kitų vartotojų žinutės. „The Verge“ rašo, kad Tay tikriausiai susirinko pačias blogiausias interneto vartotojų savybes.
Per penkiolika valandų Tay išmoko klaidingų nuostatų ir ėmė sieti feminizmą su kultu ar vėžiu, tačiau nuoseklumo jos nuostatose buvo nedaug, mat vėliau ji patvirtino, kad lyčių lygybė yra tas pats kaip feminizmas. Panašių atvejų buvo ir daugiau. Ir tai nebuvo frazės, kurias Tay buvo prašyta pakartoti.
„The Verge“ rašo, kad neaišku, kaip „Microsoft“ rengė savo botą gyvenimui, tačiau kompanijos puslapyje rašoma, kad Tay buvo sukurta naudojantis svarbia informacija, duomenimis apie visuomenę. Jie buvo modeliuojami, valomi ir filtruojami, tačiau panašu, kad mokytis gebanti pokalbių programa vėl susirinko visa tai, kas buvo išfiltruota. Kompanija „Microsoft“ jau valo Tay pokalbių langą nuo labiausiai įžeidžiančių komentarų.
Norėdami kalbėti su Tay, galite parašyti jai žinutę socialiniame tinkle „Twitter“ @tayandyou ar pridėti ją prie kontaktų „Kik“ ar „GroupMe“.