In het kort:
Whisper, de transcribeersoftware van OpenAI, staat onder vuur vanwege het genereren van onjuiste informatie.
- Softwareontwikkelaars en academici uiten hun bezorgdheid over de betrouwbaarheid van de tool.
- Tests tonen aan dat Whisper informatie verzint, waaronder medische behandelingen en raciale opmerkingen.
- Dit probleem is vooral zorgwekkend omdat Whisper al wordt gebruikt in medische instellingen.
Het grote plaatje:
De onverwachte hallucinaties van Whisper roepen vragen op over de betrouwbaarheid van AI-transcriptietools.
- Een onderzoeker vond hallucinaties in 80% van de onderzochte opnames.
- Een machine learning-expert ontdekte hallucinaties in meer dan de helft van 100 uur aan opnames.
- Een ontwikkelaar trof ze aan in bijna alle 26.000 transcripties die hij maakte met Whisper.
Wat volgt:
OpenAI erkent het probleem en zegt te werken aan verbeteringen om hallucinaties te verminderen. Het bedrijf bedankt de onderzoekers voor hun bevindingen en blijft adviseren tegen het gebruik van Whisper in gevoelige situaties.