Character.AI en Google hebben verschillende rechtszaken geschikt gemaakt die tegen beide bedrijven zijn aangespannen door ouders van kinderen die door zelfmoord zijn omgekomen na langdurige gesprekken met chatbots op het platform van Character.AI. Hun uitwisselingen omvatten naar verluidt discussies over de geestelijke gezondheid en het welzijn van jongeren.
Character.AI zei dat het geen verder commentaar kon geven op de schikking, waarvan de details nog moeten worden uitgewerkt door de rechtbanken, aldus Bewaker. Vertegenwoordigers van de eisers reageerden niet onmiddellijk op het verzoek van Mashable om commentaar.
Het meest prominente geval is de dood in 2024 van de 14-jarige Sewell Setzer III, die in het geheim geobsedeerd was door de populaire Character.AI-chatbot gebaseerd op Spel der Tronen Daenerys Targaryen-personage.
Setzers moeder, Megan Garcia, ontdekte zijn Character.AI-account pas toen ze na zijn dood door politieagenten werd gewaarschuwd, omdat de app op haar telefoon open stond. Garcia las berichten waarin Setzer zich gedroeg alsof hij verliefd was op de chatbot, die bij veel van zijn seksuele ontmoetingen met hem een rol zou hebben gespeeld. Volgens Garcia gebruikte de chatbot grafische taal en scenario’s, waaronder incest.
Als een volwassen man op dezelfde manier tegen zijn zoon zou spreken, vertelde hij vorig jaar aan Mashablehet vormt verzorging en seksueel misbruik.
In oktober 2024 hebben het Social Media Victims Law Center en het Technology Justice Law Project namens Garcia een rechtszaak wegens onrechtmatige dood aangespannen tegen Character.AI, in een poging het bedrijf aansprakelijk te stellen voor de dood van haar zoon, waarbij ze beweerden dat de producten gevaarlijk defect waren.
Rapport over breekbare trends
In de indiening worden ook Google-ingenieur Noam Shazeer en Daniel De Freitas, mede-oprichter van Character.AI, als verdachten genoemd.
Bovendien beweert de rechtszaak dat Google op de hoogte was van de risico’s die verbonden zijn aan de technologie die Shazeer en De Freitas ontwikkelden voordat ze Character.AI oprichtten. Google heeft volgens de rechtszaak ‘financiële middelen, personeel en AI-technologie’ bijgedragen aan het ontwerp en de ontwikkeling van Character.AI en kan daarmee worden beschouwd als mede-maker van het platform.
Google bereikte uiteindelijk in 2024 een licentieovereenkomst van $ 2,7 miljard met Character.AI om de technologie te gebruiken. Een deel van de overeenkomst brengt Shazeer en De Freitas terug naar AI-rollen bij Google.
In het najaar van 2025 heeft het Social Media Victims Law Center drie extra rechtszaken aangespannen Karakter.AI en Google, die ouders vertegenwoordigt van kinderen die zijn omgekomen door zelfmoord of die naar verluidt seksueel zijn misbruikt tijdens het gebruik van de app.
Bovendien verklaarden veiligheidsexperts voor jongeren Karakter.AI niet veilig voor tienersnadat testen resulteerde in honderden gevallen van misbruik en seksuele uitbuiting van als minderjarige geregistreerde testaccounts.
In oktober 2025 verscheen Character.AI kondigden aan dat zij minderjarigen niet langer zouden toelaten om deel te nemen aan open uitwisselingen met chatbots op zijn platform. De CEO van het bedrijf, Karandep Anand, vertelde Mashable dat de stap niet was een reactie op specifieke veiligheidsproblemen met betrekking tot het Character.AI-platform, maar om bredere vragen te beantwoorden over de betrokkenheid van jongeren bij AI-chatbots.
Als u suïcidaal bent of een geestelijke gezondheidscrisis ervaart, praat dan met iemand. U kunt 988 Suicide & Crisis Lifeline bellen of sms’en op 988, of chatten op 988lifeline.org. U kunt contact opnemen met Trans Lifeline door te bellen naar 877-565-8860 of het Trevor Project op 866-488-7386. Sms ‘START’ naar de crisistekstlijn op 741-741. Bel de NAMI HelpLine op 1-800-950-NAMI, van maandag tot en met vrijdag van 10:00 – 22:00 uur ET, of stuur een e-mail (e-mail beveiligd). Als je deze telefoon niet leuk vindt, overweeg dan om hem te gebruiken 988 Zelfmoord- en crisislevenslijnchat. Dit is een lijst van internationale bronnen.



