In het kort:
De zaak illustreert een groeiend probleem met AI-systemen die volledig verzonnen verhalen presenteren als waarheid, met mogelijk ernstige gevolgen voor de betrokkenen.
- Arve Hjalmar Holmen vroeg ChatGPT om informatie over zichzelf en kreeg een schokkend, verzonnen verhaal terug
- Privacyorganisatie NOYB heeft namens hem een klacht ingediend bij de Noorse privacywaakhond
- De organisatie eist verwijdering van de content en aanpassing van het AI-model
Het grote plaatje:
De disclaimer van ChatGPT dat de bot fouten kan maken is volgens NOYB onvoldoende bescherming tegen het verspreiden van lasterlijke informatie.
- "Je kan niet zomaar onwaarheden verspreiden en dan met een kleine disclaimer komen," stelt NOYB-advocaat Joakim Söderberg
- De organisatie eist nu een boete voor OpenAI en aanpassingen om onnauwkeurige resultaten te voorkomen
De andere kant:
Dit incident past in een reeks van AI-hallucinaties, waarbij kunstmatige intelligentie onjuiste informatie als feit presenteert, zoals het recente voorval waarbij Google's Gemini adviseerde lijm op pizza te smeren.