„OpenAI“, tehnološki gigant, koji je poznat po svojim naprednim alatima zasnovanim na vještačkoj inteligenciji, nedavno je reklamirao svoj najnoviji alat za transkripciju pod nazivom „Visper“ kao veoma pouzdan i tačan na ljudskom nivou. Međutim, kako su otkrili stručnjaci, u transkripcijama koje je generisao ovaj alat pojavljuju se izmišljene rečenice, što budi ozbiljne zabrinutosti.
Više od deset softverskih inženjera, programera i akademskih istraživača potvrdilo je da softver izmišlja dijelove teksta ili čitave rečenice, koje se nazivaju halucijacijama u industriji. Ovi izmišljeni dijelovi mogu sadržavati rasističke komentare, nasilnu retoriku, pa čak i izmišljene medicinske tretmane, navode stručnjaci.
Problematično je što se „Visper“ koristi u različitim industrijskim granama širom svijeta za prevođenje i transkripciju intervjua, generisanje teksta u potrošačkim tehnologijama i kreiranje titlova za video-zapise. Još više zabrinjava činjenica da medicinski centri žure da počnu koristiti alate zasnovane na „Visperu“ za transkripciju konsultacija pacijenata sa ljekarima, uprkos upozorenjima kompanije „OpenAI“ da se alat ne smije koristiti u „domenima visokog rizika“.
Istraživač sa Univerziteta u Mičigenu koji je proučavao zapise sa javnih sastanaka otkrio je halucinacije u osam od svakih deset audio-transkripcija koje je analizirao. Drugi inženjer za mašinsko učenje otkrio je suvišne dijelove teksta u polovini od preko 100 sati „Visperovih“ transkripcija koje je pregledao. Treći programer je pronašao halucinacije u gotovo svakom od 26.000 transkripata koje je kreirao pomoću „Vispera“. Čak su i dobro snimljeni kratki audio-zapisi pokazali probleme, sa 187 identifikovanih halucinacija u preko 13.000 jasnih audio-isječaka.
Ovo otkriće izazvalo je veliku pažnju u stručnoj zajednici, s obzirom na široku primenu ovog alata u različitim industrijama. Mnogi se pitaju kako će ovo uticati na dalji razvoj tehnologije vještačke inteligencije, posebno u domenima kao što su zdravstvo, bezbednost i komunikacija.
Iz kompanije „OpenAI“ još se nije oglasila povodom ovih tvrdnji stručnjaka, ali se očekuje da će dati zvaničnu reakciju uskoro. Do tada, mnogi korisnici su veoma zabrinuti zbog potencijalnih grešaka koje bi mogle da se pojave u transkripcijama i koje bi mogle da imaju ozbiljne posledice, posebno u medicinskim i pravnim oblastima.
Kritičari ističu da ovo otkriće ukazuje na nedostatak adekvatnih mehanizama za provjeru tačnosti i pouzdanosti alata koji se baziraju na vještačkoj inteligenciji. Takođe postavljaju pitanje odgovornosti kompanija koje razvijaju i koriste ovakve alate, s obzirom na moguće štetne posledice koje greške u transkripcijama mogu imati po korisnike.
Nadamo se da će stručnjaci i kompanije brzo pronaći rešenje za ove probleme i unaprediti alate zasnovane na vještačkoj inteligenciji kako bi bili sigurni, tačni i pouzdani u svim svojim funkcijama. Do tada, korisnici trebaju biti oprezni prilikom korišćenja ovakvih alata i uvijek provjeravati tačnost transkripcija kako bi izbjegli potencijalne probleme i greške.