Gesprekken die gebruikers voeren met ChatGPT verschijnen in sommige gevallen in Google-zoekresultaten, doordat links die via de deeloptie zijn aangemaakt publiek toegankelijk blijken te zijn. Wie een gesprek deelt via de deelknop, bijvoorbeeld om dit later terug te lezen of met iemand te bespreken via WhatsApp, maakt in veel gevallen onbedoeld een openbaar toegankelijke webpagina aan. Deze pagina’s kunnen vervolgens worden geïndexeerd door zoekmachines zoals Google.
Onbewuste openbaarheid
Hoewel gebruikers expliciet op ‘delen’ moeten klikken, realiseren velen zich niet dat de gegenereerde link standaard openbaar is, tenzij men dit handmatig aanpast. Daardoor verschijnen sommige gedeelde gesprekken – inclusief kwetsbare of persoonlijke inhoud – in de zoekresultaten. Het gaat om duizenden gesprekken, variërend van onschuldige vragen tot vertrouwelijke onderwerpen zoals mentale gezondheidsproblemen, relatiekwesties of traumatische ervaringen.
Sommige gebruikers verstrekken in hun gesprekken zodanig specifieke context, dat ze – ondanks het ontbreken van naam of e-mailadres – alsnog herleidbaar zijn voor bekenden of werkgevers.
Waarschuwingen onvoldoende
Hoewel het platform waarschuwt om geen gevoelige informatie te delen en aangeeft dat de link openbaar wordt, blijkt in de praktijk dat veel mensen deze waarschuwingen negeren of verkeerd interpreteren. De gedeelde links zijn namelijk niet alleen zichtbaar voor de ontvanger, maar kunnen – zodra ze ergens op internet terechtkomen – ook door zoekmachines worden opgepikt. Er bestaat een mogelijkheid om gedeelde links op een later moment te verwijderen, maar deze functionaliteit wordt lang niet altijd benut.
Groeiende rol van AI bij mentale ondersteuning
De timing van deze ontdekking is opvallend: steeds meer mensen wenden zich tot AI-chatbots voor mentale of persoonlijke hulp. Onderzoeken wijzen uit dat gebruikers in toenemende mate vertrouwelijke onderwerpen bespreken met taalmodellen, vaak als alternatief voor therapie of gesprekken met dierbaren. Anders dan bij professionele hulpverleners is er bij AI-systemen echter geen sprake van formele vertrouwelijkheid of medische geheimhouding.
Breder probleem binnen de sector
Niet alleen OpenAI kampt met deze problematiek. Ook andere technologiebedrijven, zoals Meta, hebben in het verleden onbedoeld gebruikersvragen openbaar weergegeven, bijvoorbeeld in openbare feedweergaven van AI-chatdiensten. Vaak ligt de oorzaak in een kloof tussen de technische opzet van de systemen en de verwachtingen van gebruikers over privacy.
Deskundigen benadrukken dat gebruikers zich beter bewust moeten zijn van wat zij delen en waar dit terecht kan komen. Tegelijkertijd ligt er een verantwoordelijkheid bij ontwikkelaars om gebruikers actiever te beschermen tegen onbedoelde openbaarmaking. De CEO van OpenAI waarschuwde eerder al om geen uiterst persoonlijke of gevoelige informatie te delen met ChatGPT, mede omdat bedrijven wettelijk verplicht kunnen worden om data af te staan aan overheden of instanties.
Wat kun je als gebruiker doen?
Gebruikers wordt aangeraden om terughoudend te zijn met het delen van persoonlijke informatie via AI-chatdiensten. Wie toch gebruikmaakt van de deelknop in ChatGPT, doet er verstandig aan om expliciet te controleren of de link niet openbaar toegankelijk is. Gedeelde gesprekken kunnen bovendien handmatig worden verwijderd via het platform.
In een tijd waarin AI steeds vaker als persoonlijk klankbord wordt ingezet, is het essentieel dat gebruikers hun digitale voetafdruk begrijpen – en dat aanbieders transparanter en proactiever worden in hun bescherming van die gegevens.
Door: Drifter
Aanbevolen Reacties
Log in om te reageren
Je kunt een reactie achterlaten na het inloggen
Login met de gegevens die u gebruikt bij softtrack