Hirdetés

Komoly gondok vannak az OpenAI kórházakban is használt beszédfelismerő technológiájával



|

Nem tűnik különösebben megbízhatónak a vállalat Whisper nevű rendszere.

Hirdetés

Az Associated Press jelentése szerint szoftvermérnökök, fejlesztők és kutatók is aggodalmukat fejezték ki az OpenAI Whisper nevű beszédfelismerő rendszerének átirataival kapcsolatban. Nem új keletű jelenség, hogy naprakész információk hiányában a mesterséges intelligencia kitalál és összekombinál dolgokat - úgy tűnik, a Whisper esetében sincs ez másképp.

A kutatók visszajelzései alapján a Whisper a faji megjegyzésektől kezdve a képzelt orvosi kezelésekig mindent beleszőtt az átiratokba. Ez kifejezetten aggasztó, tekintve, hogy a technológiát egyes kórházakban már elfogadták, mi több, aktívan használják.

Hirdetés

Egy Michigani Egyetemen dolgozó kutató tíz hangfelvételből nyolcban talált hamis információkat, míg egy gépi tanulással foglalkozó mérnök több mint 100 órányi Whisper-átiratot elemzett, és az esetek több mint felében tapasztalt úgynevezett "hallucinációkat". Mindemellett egy fejlesztő arról számolt be, hogy a Whisperrel készített 26 ezer átirat majdnem mindegyikében talált valamilyen hibát.

Az OpenAI szóvivője elmondta, hogy a vállalat "folyamatosan dolgozik a modellek pontosságának javításán, különös tekintettel a hallucinációk csökkentésére". Hozzátette, hogy az OpenAI használati irányelvei szerint a Whisper alkalmazása tiltott bizonyos "nagy kockázattal járó döntési helyzetekben".

Hirdetés

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://www.pcwplus.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.