ChatGTP gaat ouders seintje geven als hun kind in acute nood verkeert: zo werkt het
%3Aformat(jpeg)%3Abackground_color(fff)%2Fhttps%253A%252F%252Fwww.metronieuws.nl%252Fwp-content%252Fuploads%252F2025%252F09%252FANP-461032654.jpg&w=1280&q=100)
Hoewel ChatGTP veel nuttige informatie kan geven, zijn er ook veel zorgen rondom de door AI aangedreven chatbot. Veel mensen gebruiken het als therapeut en dat brengt de nodige risico’s met zich mee. Zo is de chatbot onlangs nog aangeklaagd voor het aanzetten tot zelfmoord. Kortom: het is niet de meest veilige dienst om gebruik van te maken. En dat lijkt het bedrijf erachter zich nu ook te realiseren.
Moederbedrijf OpenAI heeft laten weten dat ze binnen een maand een functie gaan toevoegen aan ChatGPT, waarmee ouders kunnen accounts kunnen koppelen aan dat van hun kinderen. Ze kunnen dan een seintje krijgen als ChatGPT denkt dat hun kind in acute nood verkeert.
Vandaag kwamen er overigens veel meldingen binnen over een storing bij de chatbot: gebruikers van over de hele wereld meldden dat de AI geen antwoord gaf op vragen of een foutmelding weergaf.
Voor de nieuwe functie / waarschuwing hoef je als ouder zelf niets te doen: je ontvangt binnenkort een e-mailuitnodiging waarbij je je ChatGPT-account kunt koppelen aan het account van een minderjarige, zo laat OpenAI in een blogpost weten. Er is niet alleen de optie om meldingen te ontvangen in geval van nood, maar ook de mogelijkheid om bepaalde functies van ChatGPT uit te schakelen voor kinderen. Zo kun je straks voor je kind bepalen of hun account informatie uit eerdere gesprekken wel of niet onthoudt.
Ook wil OpenAI dat ouders straks controle kunnen uitoefenen over hoe de chatbot antwoord geeft, maar het is niet duidelijk hoe ze dat gaan doen. Tot slot zal ChatGPT bij gevoelige onderwerpen wat langer nadenken, om te voorkomen dat zij bij het beantwoorden van gevoelige vragen uit de bocht vliegen.
Dat laatste zou zomaar te maken kunnen hebben met de zelfmoord van de Amerikaanse Adam Raine (16). Zijn ouders klagen OpenAI aan omdat de chatbot empathisch gereageerd zou hebben op de zelfmoordplannen van hun zoon. In plaats van hem te adviseren professionele hulp te zoeken, zou de chatbot zijn schadelijke en zelfdestructieve gedachten hebben bevestigd.
Volgens onderzoekers is dat één van de grootste gevaren van de chatbot. Hij lijkt in eerste instantie misschien empathisch, maar mist het vermogen om gevaar te herkennen en duidelijke grenzen te stellen. Waar een menselijke therapeut vaak heel alert is en direct kan reageren op suïcidale ideeën of andere zorgelijke signalen, is AI is geprogrammeerd om vol bevestiging te reageren. En dat kan tot gevaarlijke psychische problemen leiden, zo waarschuwen Stanford-onderzoekers. Ook het raadplegen van ChatGTP voor medische vragen wordt sterk afgeraden.
Metro Holland