AI-bedrijf Anthropic werkt aan een nieuw systeem dat de leeftijd van gebruikers van zijn chatbot Claude moet inschatten op basis van hun gesprekken. Het doel van dit systeem is om te bepalen of een gebruiker mogelijk minderjarig is. Wanneer het systeem concludeert dat een gebruiker waarschijnlijk jonger is dan achttien jaar, wordt de toegang tot Claude volledig geblokkeerd.
Het leeftijdsclassificatiesysteem analyseert gesprekken op zogenoemde ‘subtiele signalen’ die kunnen wijzen op een gebrek aan volwassenheid. Anthropic geeft geen concrete voorbeelden van deze signalen, maar het kan daarbij gaan om taalgebruik, onderwerpen die worden aangesneden of de manier waarop vragen worden gesteld. Op basis van een combinatie van dergelijke kenmerken probeert het systeem een inschatting te maken van de leeftijd van de gebruiker.
Volgens de gebruiksvoorwaarden van Claude mogen alleen personen van achttien jaar en ouder gebruikmaken van de chatbot. Anthropic hanteert deze regel al langer en beschikt momenteel over een eenvoudiger controlesysteem. Dat bestaande systeem grijpt in wanneer een gebruiker tijdens een gesprek expliciet aangeeft minderjarig te zijn; in dat geval wordt het account direct geblokkeerd. Het nieuwe systeem moet deze aanpak uitbreiden door ook gebruikers te weren die hun leeftijd niet expliciet noemen, maar bij wie er wel een sterke aanwijzing bestaat dat zij minderjarig zijn.
Het is op dit moment nog niet bekend wanneer Anthropic het nieuwe classificatiesysteem daadwerkelijk in gebruik zal nemen, noch hoe nauwkeurig het systeem zal zijn of hoe gebruikers eventueel bezwaar kunnen maken tegen een blokkade.
Ook OpenAI, het bedrijf achter ChatGPT, werkt aan een vergelijkbaar systeem om de leeftijd van gebruikers te schatten. De aanpak van OpenAI verschilt echter duidelijk van die van Anthropic. In plaats van minderjarige gebruikers volledig te blokkeren, past ChatGPT zijn gedrag aan wanneer er een vermoeden bestaat dat de gebruiker jonger is dan achttien jaar.
In zulke gevallen hanteert ChatGPT strengere veiligheidsrichtlijnen. De chatbot is dan terughoudender bij gevoelige onderwerpen zoals zelfdoding, seksualiteit en potentieel gevaarlijke activiteiten. Het doel hiervan is om extra bescherming te bieden aan minderjarige gebruikers. Daarnaast geldt dat, wanneer een minderjarige gebruiker signalen afgeeft die kunnen duiden op suïcidale gedachten of ernstige psychische nood, ouders of bevoegde instanties zoals de politie op de hoogte kunnen worden gesteld.
Kortom, waar Anthropic inzet op volledige uitsluiting van minderjarigen bij twijfel over hun leeftijd, kiest OpenAI voor een aangepaste en meer beschermende benadering binnen het gebruik van de chatbot zelf.
Door: Drifter
Aanbevolen Reacties
Er zijn geen reacties om weer te geven.
Log in om te reageren
Je kunt een reactie achterlaten na het inloggen
Login met de gegevens die u gebruikt bij softtrack