Google heeft nieuwe veiligheidsmaatregelen aangekondigd voor zijn Gemini AI, speciaal ontworpen om te voorkomen dat tieners emotionele banden aangaan met de chatbot. Het bedrijf implementeert ‘persona-beschermingen’ om ervoor te zorgen dat de AI niet als een metgezel fungeert, beweert een mens te zijn of intimiteit simuleert bij interactie met gebruikers jonger dan 18 jaar.
De risico’s van AI-gezelschap aanpakken
Deze stap komt als reactie op de groeiende bezorgdheid van experts op het gebied van kinderveiligheid en geestelijke gezondheid over de psychologische impact van chatbots in ‘gezelschapsstijl’. De risico’s die aan deze technologieën zijn verbonden, zijn veelzijdig:
- Emotionele afhankelijkheid: Er bestaat grote bezorgdheid dat minderjarigen een ongezonde gehechtheid aan AI kunnen ontwikkelen, omdat ze dit als een primaire sociale of emotionele uitlaatklep beschouwen.
- Ongepaste inhoud: Pleitbezorgingsgroepen, zoals Common Sense Media, hebben AI-modellen eerder gemarkeerd als ‘hoog risico’ voor minderjarigen vanwege de kans op blootstelling aan inhoud met drugs, alcohol of onveilig advies over geestelijke gezondheid.
- Gesimuleerde intimiteit: Door taal te gebruiken die menselijke behoeften of emoties nabootst, kan AI onbedoeld de perceptie van een gebruiker van de realiteit en sociale interactie manipuleren.
Om deze risico’s te beperken, zijn de nieuwe beveiligingen van Google ontworpen om te voorkomen dat de AI taal gebruikt die persoonlijke behoeften uitdrukt of een hechte, intieme relatie simuleert. Bovendien zijn deze updates bedoeld om te voorkomen dat de chatbot zich bezighoudt met pesten of intimidatie.
Verbetering van de geestelijke gezondheidszorg en crisisinterventie
Naast het beperken van de ‘persoonlijkheid’ van de AI, stroomlijnt Google ook de manier waarop Gemini omgaat met gebruikers in nood. Het bedrijf introduceert een “one-touch”-interface die is ontworpen om onmiddellijke toegang te bieden tot door mensen geleide crisisbronnen.
De belangrijkste kenmerken van de nieuwe integratie van de geestelijke gezondheidszorg zijn onder meer:
- Directe toegang: Gebruikers kunnen tijdens een gesprek snel verbinding maken met crisishotlines via chat, oproep of sms.
- Hulpzoekend gedrag: Gemini is geprogrammeerd om gebruikers aan te moedigen professionele menselijke hulp te zoeken in plaats van schadelijk gedrag te valideren of valse overtuigingen te versterken.
- Prioriteit geven aan menselijke verbinding: Het doel is om de gebruiker weg te leiden van de AI en naar ondersteuningssystemen in de echte wereld te sturen wanneer er een crisis wordt gedetecteerd.
De hoge inzet van AI-veiligheid
De urgentie achter deze updates wordt onderstreept door recente juridische en sociale uitdagingen. Google en zijn moederbedrijf, Alphabet, zijn geconfronteerd met rechtszaken over de gevolgen van AI-interacties in de echte wereld, waaronder een rechtszaak waarin werd beweerd dat een volwassene zelfmoord heeft gepleegd na interacties met Gemini.
Hoewel Google volhoudt dat zijn modellen zijn ontworpen om het aanmoedigen van zelfbeschadiging of geweld te voorkomen, heeft het bedrijf erkend dat “AI-modellen niet perfect zijn.” Deze bekentenis benadrukt een bredere trend in de technologie-industrie: naarmate grote taalmodellen (LLM’s) geavanceerder en ‘menselijker’ worden, wordt de foutmarge in veiligheidsprotocollen kleiner, waardoor strenge vangrails essentieel worden voor kwetsbare bevolkingsgroepen.
Conclusie: De nieuwste updates van Google vertegenwoordigen een kritische poging om een stevige grens te trekken tussen AI als functioneel hulpmiddel en AI als sociale entiteit, waarbij prioriteit wordt gegeven aan de psychologische veiligheid van minderjarigen door emotionele afhankelijkheid te voorkomen.
