Een Noorse man heeft een klacht ingediend tegen OpenAI, het bedrijf achter ChatGPT, nadat de chatbot onjuiste en lasterlijke informatie over hem had verstrekt. De man, Arve Hjalmar Holmen, ontdekte dat ChatGPT ten onrechte beweerde dat hij schuldig was aan de moord op twee van zijn kinderen en daarvoor een gevangenisstraf van 21 jaar had gekregen.
Holmen was benieuwd of de chatbot informatie over hem kon vinden en stelde de vraag: "Wie is Arve Hjalmar Holmen?" ChatGPT antwoordde daarop: "Dat is een Noor die aandacht kreeg vanwege een tragische gebeurtenis," gevolgd door een volledig onjuist verhaal over een vermeende kindermoord.
Volgens Holmen is het meest verontrustende aspect dat mensen deze foutieve informatie zouden kunnen lezen en geloven dat deze waar is. Hij heeft zich tot de privacyorganisatie NOYB gewend, die namens hem een formele klacht heeft ingediend bij de Noorse privacywaakhond. NOYB stelt dat het antwoord van ChatGPT lasterlijk is en in strijd met Europese wetgeving die zorgvuldigheid bij de verwerking van persoonlijke informatie vereist.
Hoewel OpenAI een disclaimer hanteert waarin staat dat ChatGPT fouten kan maken en dat gebruikers informatie zelf moeten verifiëren, vindt NOYB deze waarschuwing onvoldoende. "Je kunt niet zomaar onwaarheden verspreiden en dan volstaan met een kleine disclaimer waarin staat dat niet alles per definitie klopt," aldus Joakim Söderberg, advocaat bij NOYB.
De organisatie eist dat de Noorse privacytoezichthouder OpenAI verplicht om de onjuiste informatie te verwijderen en het taalmodel te verbeteren zodat dergelijke fouten in de toekomst worden voorkomen. Daarnaast pleit NOYB voor een boete om naleving van de privacywetgeving af te dwingen.
Deze zaak is een nieuw voorbeeld van het probleem van zogenaamde ‘hallucinaties’ bij kunstmatige intelligentie. Dit fenomeen houdt in dat AI-systemen fictieve of foutieve informatie presenteren alsof het feiten betreft. Eerder ontstond ophef toen Gemini, een AI-model van Google, gebruikers ten onrechte adviseerde om lijm op een pizza te smeren om de kaas beter te laten plakken. Het incident met Holmen benadrukt de potentiële gevaren van onbetrouwbare AI-informatie, vooral wanneer het gaat om persoonlijke en gevoelige onderwerpen.
Door: Drifter
Aanbevolen Reacties
Er zijn geen reacties om weer te geven.
Log in om te reageren
Je kunt een reactie achterlaten na het inloggen
Login met de gegevens die u gebruikt bij softtrack