Az Associated Press jelentése szerint szoftvermérnökök, fejlesztők és kutatók is aggodalmukat fejezték ki az OpenAI Whisper nevű beszédfelismerő rendszerének átirataival kapcsolatban. Nem új keletű jelenség, hogy naprakész információk hiányában a mesterséges intelligencia kitalál és összekombinál dolgokat - úgy tűnik, a Whisper esetében sincs ez másképp.
A kutatók visszajelzései alapján a Whisper a faji megjegyzésektől kezdve a képzelt orvosi kezelésekig mindent beleszőtt az átiratokba. Ez kifejezetten aggasztó, tekintve, hogy a technológiát egyes kórházakban már elfogadták, mi több, aktívan használják.
Egy Michigani Egyetemen dolgozó kutató tíz hangfelvételből nyolcban talált hamis információkat, míg egy gépi tanulással foglalkozó mérnök több mint 100 órányi Whisper-átiratot elemzett, és az esetek több mint felében tapasztalt úgynevezett "hallucinációkat". Mindemellett egy fejlesztő arról számolt be, hogy a Whisperrel készített 26 ezer átirat majdnem mindegyikében talált valamilyen hibát.
Az OpenAI szóvivője elmondta, hogy a vállalat "folyamatosan dolgozik a modellek pontosságának javításán, különös tekintettel a hallucinációk csökkentésére". Hozzátette, hogy az OpenAI használati irányelvei szerint a Whisper alkalmazása tiltott bizonyos "nagy kockázattal járó döntési helyzetekben".