Tehnološki gigant "OpenAI" reklamira svoj alat za transkripciju sa vještačkom inteligencijom "Visper" kao pouzdan i tačan na ljudskom nivou, ali se ispostavilo da se u transkripcijama pojavljuju izmišljene rečenice, navode stručnjaci.
Softver izmišlja dijelove teksta ili čitave rečenice, potvrdilo je više od deset softverskih inženjera, programera i akademskih istraživača, prenijela je agencija PA medija.
Stručnjaci su rekli da izmišljeni dijelovi, koje u industriji nazivaju halucinacijama, mogu da sadrže rasističke komentare, nasilnu retoriku, čak i izmišljene medicinske tretmane.
Oni navode da su takve izmišljotine problematične jer se “Visper” koristi u industrijskim granama širom svijeta za prevođenje i transkripciju intervjua, generisanje teksta u popularnim potrošačkim tehnologijama i kreiranje titlova za video-zapise.
Još više zabrinjava, kažu stručnjaci, žurba medicinskih centara da počnu da koriste alate zasnovane na “Visperu” za transkripciju konsultacija pacijenata sa ljekarima, uprkos upozorenjima iz kompanije “OpenAI” da alat ne smije da se koristi u “domenima visokog rizika”.
Istraživač sa Univerziteta u Mičigenu koji je proučio zapise sa javnih sastanaka rekao je da je pronašao halucinacije u osam od svakih deset audio-transkripcija koje je pregledao.
Drugi inženjer za mašinsko učenje rekao je da je otkrio suvišne dijelove teksta u otprilike polovini od preko 100 sati “Visperovih” transkripcija koje je analizirao.
Treći programer je rekao da je pronašao halucinacije u gotovo svakom od 26.000 transkripta koje je napravio pomoću “Vispera”.
Problemi postoje čak i kod dobro snimljenih kratkih audio-zapisa. Nedavno istraživanje kompjuterskih naučnika otkrilo je 187 halucinacija u preko 13.000 jasnih audio-isječaka koje su pregledali.