A tech-óriás OpenAI szerint a Whisper névre keresztelt mesterséges-intelligencia beszédrögzítő és átíróeszköz immáron csaknem emberi szintű pontossággal dolgozik. A Whispert újonnan a gyógyászatban kívánják alkalmazni, elsősorban a páciensek adatainak rögzítésére. Azonban az eszközzel kapcsolatban szoftver-fejlesztők egy komoly hibát érzékeltek: hajlamos rész-, sőt, alkalomadtán egész mondatokat magától kitalálni és az átírandó szövegbe illeszteni.
Az OpenAI 2022 szeptemberében indította el a Whispert, ami azóta három komoly frissítésen is átesett. Az OpenAI által kiadott hirdetések szerint az eszköz képessé vált egyre pontosabb beszédfelismerésre és annak írott formában való rögzítésére. A Whisper ki tudja szűrni a jelentős méretű háttérzajt, felismer különböző nyelveket, akcentusokat és szakzsargonokat, valamint idegen nyelveket pontosan fordít angolra.
We've trained a neural net called Whisper that approaches human-level robustness and accuracy on English speech recognition. It performs well even on diverse accents and technical language. Whisper is open source for all to use. https://t.co/ueVywYPEkK
— OpenAI (@OpenAI) September 21, 2022
Az utóbbi időben a különböző mesterséges-intelligencia eszközök használata egyre gyakoribbá vált a nyugati gyógyászatban. Az orvosok egyre többször veszik igénybe különböző eszközök segítségét általános ügyekben, mint kapcsolattartás, egyszerű kérdések megválaszolása, vagy akár adatok rögzítése. Szakemberek szerint
ez segít az orvosok mentális egészségének fenntartásában, illetve a munkájuk sebességének felgyorsításában, mivel a mesterséges-intelligencia képes átvenni egyszerű és monoton feladatok kezelését.
A probléma, hogy szoftver-tesztek kimutatták, hogy a Whisper hajlamos az úgynevezett „hallucinációra”, egy olyan tünetre, amely során a mesterséges-intelligencia modell látszólag minden ok nélkül extra tartalmat generál, vagy irreleváns dolgokat talál ki.
A Michigani Egyetem kutatója például arról beszélt, hogy 10 találkozóból, ahol a Whispert használták átírásra, átlagosan 8 alkalommal találtak kisebb-nagyobb hallucinációkat.
Az ilyen jellegű hallucinációk szimplán csak idegesítőek lehetnek különböző üzleti és oktatási szervezeteknél, azonban a gyógyászatban, ahol kisebb tévedések is komoly hatással lehetnek páciensek egészségére, a legkisebb abnormalitások is elfogadhatatlanok.
A mesterséges-intelligencia alapú eszközök pontossága a technológia fiatalsága miatt még erősen megkérdőjelezhető. Volt OpenAI dolgozók egy kis csoportja az Egyesült Államokban föderális szintű korlátozások bevezetéséért lobbizik a Kongresszusnál, amíg az ilyen jellegű problémákat nem sikerül egy elfogadható hibahatár alá szorítani.
Az OpenAI azt nyilatkozta, hogy a fejlesztőik folyamatosan azon dolgoznak, hogy a hallucinációkat kigyomlálják a rendszerből.
Szemlézte: Csapó Gergely
Tetszett a cikk? Hasonló tartalmakért kövess minket a Facebookon