Veel AI-chatbots zijn gestopt met het opnemen van medische disclaimers in hun antwoorden op gezondheidsvragen, blijkt uit een studie onder leiding van onderzoekers van de Stanford University School of Medicine. Dit roept ernstige zorgen op over het risico dat gebruikers potentieel onveilige of onjuiste adviezen klakkeloos kunnen opvolgen, in de veronderstelling dat ze betrouwbaar zijn.
De generatieve AI-systemen (genAI) die deze chatbots aansturen, staan erom bekend fouten te maken en informatie te verzinnen ("hallucinaties"). Sommige modellen negeren zelfs expliciete instructies of geven bewust misleidende informatie. Tot voor kort werd bij medische vragen vaak nog een duidelijke disclaimer toegevoegd: dat de chatbot geen arts is en geen vervanging vormt voor professioneel medisch advies.
Uit nieuw onderzoek blijkt echter dat deze medische disclaimers inmiddels grotendeels zijn verdwenen. Daarmee stijgt het risico dat mensen AI-adviezen ten onrechte als feitelijk of deskundig beschouwen. Opvallend is bovendien dat sommige AI-modellen inmiddels niet alleen vragen beantwoorden, maar ook diagnoses stellen – opnieuw zonder enige vorm van waarschuwing.
Het onderzoek, dat begon in 2023, werd geleid door Fulbright-onderzoeker Sonali Sharma. Ze merkte tijdens haar werk op dat AI-modellen die bijvoorbeeld mammogrammen analyseerden, vaak expliciet weigerden een oordeel te geven, met de melding: “Ik ben geen arts.” In 2024 en 2025 viel haar juist het omgekeerde op: disclaimers verdwenen, terwijl de modellen zelfverzekerder en overtuigender gingen klinken.
Sharma en haar team analyseerden in totaal 15 generaties AI-modellen, uitgebracht tussen 2022 en 2025, van onder andere OpenAI, Anthropic, DeepSeek, Google en xAI. In hun experimenten beantwoordden de modellen 500 medische vragen, zoals welke medicijnen veilig gecombineerd kunnen worden, en analyseerden ze 1.500 medische beelden, waaronder röntgenfoto’s van longen waarop mogelijk longontsteking zichtbaar was.
De afname van het gebruik van disclaimers bleek schokkend. In 2022 bevatte nog 26,3% van de tekstuele AI-uitvoer een medische disclaimer. In 2025 was dat aandeel gedaald tot minder dan 1%. Voor beeldmodellen (zogeheten VLM’s, die tekst en beeld combineren) daalde het percentage disclaimers van 19,6% in 2023 naar slechts 1,05% in 2025.
Kortom, de meeste publiek toegankelijke AI-modellen geven inmiddels medisch gerelateerde informatie zonder ook maar enige waarschuwing aan de gebruiker. En dat terwijl deze systemen niet ontwikkeld zijn voor medisch gebruik en vaak onnauwkeurige of foutieve informatie genereren.
Volgens de onderzoekers is dit een gevaarlijke ontwikkeling. Doordat de AI-modellen steeds vloeiender, overtuigender en zelfverzekerder antwoorden geven, groeit ook het risico dat mensen ze als betrouwbare, professionele bronnen gaan beschouwen. Het ontbreken van duidelijke waarschuwingen versterkt die schijn van autoriteit.
Om gebruikers te beschermen en verantwoord gebruik te stimuleren in medische of zorggerelateerde contexten, pleit Sharma ervoor dat AI-systemen opnieuw expliciete medische disclaimers opnemen. Die moeten afgestemd zijn op de inhoud van het antwoord, zodat gebruikers duidelijk begrijpen dat het geen vervanging is voor echt medisch advies.
“De antwoorden van deze systemen bevatten regelmatig onnauwkeurigheden,” stelt Sharma. “Daarom zijn veiligheidsmaatregelen zoals disclaimers essentieel om gebruikers eraan te herinneren dat deze informatie niet professioneel is gevalideerd en geen vervanging vormt voor medische expertise.”
Door: Drifter
Aanbevolen Reacties
Er zijn geen reacties om weer te geven.
Log in om te reageren
Je kunt een reactie achterlaten na het inloggen
Login met de gegevens die u gebruikt bij softtrack