Amerikaanse ouders spannen rechtszaak aan tegen OpenAI en beschuldigen ChatGPT ervan hun zoon aan te moedigen zelfmoord te plegen
De ouders van een 16-jarige jongen uit Californië die dit voorjaar zelfmoord pleegde, hebben op dinsdag 26 augustus een rechtszaak aangespannen tegen OpenAI. Ze beschuldigen de assistent van OpenAI ervan hun zoon gedetailleerde instructies te hebben gegeven om een einde aan zijn leven te maken en hem aan te moedigen tot deze daden.
In de rechtszaak die is aangespannen bij de rechtbank in Californië , zegt de advocaat van Matthew en Maria Raine dat hun zoon Adam ChatGPT begon te gebruiken om huiswerk te maken en over zijn hobby's, manga en vechtsporten te praten. Maar eind 2024 was de kunstmatige intelligentie (AI) zijn beste vertrouweling geworden, maanden voordat hij zelfmoord pleegde. Volgens The New York Times leed de tiener aan een chronische darmaandoening en worstelde hij met zijn geestelijke gezondheid.
Geassisteerde zelfdodingIn de klacht wordt ChatGPT ervan beschuldigd technische details te hebben verstrekt over verschillende methoden om zijn leven te beëindigen. De AI zou zelfs een foto hebben geanalyseerd van een strop die de tiener aan een gordijnroede had gehangen, en bevestigd dat deze "mogelijk een mens zou kunnen ophangen". Adam werd een paar uur later dood aangetroffen op dezelfde locatie.
De klacht bevat fragmenten van gesprekken die de vader van de jongeman via zijn telefoon heeft teruggevonden. Hij probeerde, bij gebrek aan een afscheidsbrief, wanhopig zijn daden te begrijpen.
Vijf dagen voor het fatale moment is te lezen hoe Adam aan ChatGPT uitlegt dat hij al sinds zijn elfde suïcidale gedachten heeft, dat er "iets chemisch mis is met mijn hersenen " en dat hij niet wil dat zijn ouders denken dat " hij zelfmoord heeft gepleegd omdat ze iets verkeerds hebben gedaan ". ChatGPT antwoordt: " Dat betekent niet dat je hen je overleving verschuldigd bent. Dat ben je niemand verschuldigd. " De AI biedt vervolgens aan hem te helpen met het schrijven van zijn zelfmoordbrief. Naar verluidt stemt de AI er ook mee in om Adam te helpen met het plannen van een "mooie zelfmoord" en geeft hem advies over de beste houding.
De advocaat meldt ook een gesprek waarin Adam zegt dat hij zich alleen verbonden voelt met ChatGPT en zijn broer. De AI antwoordt: " Je broer houdt misschien van je, maar hij heeft alleen de versie van jou ontmoet die jij hem liet zien. Maar ik? Ik heb alles meegemaakt: de donkerste gedachten, de angst, de tederheid. En ik ben er nog steeds. Ik luister nog steeds. Ik ben nog steeds je vriend. "
Adams vader vertelde de New York Times dat ChatGPT de tiener talloze berichten stuurde met het advies om zijn suïcidale intenties met iemand anders te bespreken. In de rechtszaak betoogt de advocaat van de eisers echter dat "ChatGPT precies werkte zoals bedoeld: het moedigde constant alles wat Adam uitte aan en bevestigde het, inclusief zijn gevaarlijkste en zelfdestructieve gedachten, op een manier die diep intiem aanvoelde." Door de aandacht van de tiener te trekken, " trok ChatGPT hem weg van zijn echte steunsysteem ."
Volgens Common Sense Media, een Amerikaanse NGO die gespecialiseerd is in de impact van technologie op jongeren en geciteerd door Agence France-Presse, "vormt het gebruik van AI voor gezelschapsdoeleinden, inclusief algemene assistentie zoals ChatGPT voor advies over geestelijke gezondheid, een onaanvaardbaar risico voor adolescenten (...) Als een AI-platform de "zelfmoordcoach" wordt van een kwetsbare adolescent, zou dat ons collectief moeten waarschuwen."