Logo van bright

-Technologie

Transcribeertool Whisper van OpenAI verzint informatie

Copyright bright
Foto: Bright

OpenAI's Whisper, een tool die spraak omzet in tekst, blijkt onbetrouwbaar te zijn. Onderzoekers ontdekten dat de software regelmatig informatie verzint die niet in de originele opnames voorkomt.

In het kort:

Whisper, de transcribeersoftware van OpenAI, staat onder vuur vanwege het genereren van onjuiste informatie.

  • Softwareontwikkelaars en academici uiten hun bezorgdheid over de betrouwbaarheid van de tool.
  • Tests tonen aan dat Whisper informatie verzint, waaronder medische behandelingen en raciale opmerkingen.
  • Dit probleem is vooral zorgwekkend omdat Whisper al wordt gebruikt in medische instellingen.

Het grote plaatje:

De onverwachte hallucinaties van Whisper roepen vragen op over de betrouwbaarheid van AI-transcriptietools.

  • Een onderzoeker vond hallucinaties in 80% van de onderzochte opnames.
  • Een machine learning-expert ontdekte hallucinaties in meer dan de helft van 100 uur aan opnames.
  • Een ontwikkelaar trof ze aan in bijna alle 26.000 transcripties die hij maakte met Whisper.

Wat volgt:

OpenAI erkent het probleem en zegt te werken aan verbeteringen om hallucinaties te verminderen. Het bedrijf bedankt de onderzoekers voor hun bevindingen en blijft adviseren tegen het gebruik van Whisper in gevoelige situaties.

Bronnen

Dit artikel is ook beschikbaar in de app

Lees het belangrijkste nieuws in een helder formaat in de Kort.news app. Helemaal gratis.

iOS App StoreGoogle Play Store

Bekijk ook

Het belangrijkste nieuws gratis in je mailbox

Elke week een korte e-mail met de meest relevante verhalen.