Die Sicherheitsfunktionen für Teenager von OpenAI bewegen sich auf einem schmalen Grat

OpenAI kündigte am Dienstag neue Sicherheitsfunktionen für Jugendliche in ChatGPT an. Diese sind Teil der Bemühungen, auf Bedenken hinsichtlich des Umgangs Minderjähriger mit Chatbots zu reagieren. Das Unternehmen entwickelt ein Altersvorhersagesystem , das erkennt, ob ein Nutzer unter 18 Jahre alt ist, und ihn an ein altersgerechtes System weiterleitet, das explizite sexuelle Inhalte blockiert. Erkennt das System, dass der Nutzer Selbstmord oder Selbstverletzung in Erwägung zieht, kontaktiert es die Eltern des Nutzers. Bei unmittelbarer Gefahr, wenn die Eltern eines Nutzers nicht erreichbar sind, kann das System die Behörden kontaktieren.
In einem Blogbeitrag zu der Ankündigung schrieb CEO Sam Altman, dass das Unternehmen versuche, Freiheit, Privatsphäre und die Sicherheit von Teenagern in Einklang zu bringen.
„Wir sind uns bewusst, dass diese Prinzipien im Konflikt stehen und nicht jeder mit unserer Lösung einverstanden sein wird“, schrieb Altman. „Das sind schwierige Entscheidungen, aber nach Gesprächen mit Experten halten wir sie für die beste und möchten unsere Absichten transparent darlegen.“
Während OpenAI bei erwachsenen Nutzern Privatsphäre und Freiheit priorisiert, steht bei Teenagern laut Unternehmensangaben die Sicherheit an erster Stelle. Bis Ende September wird das Unternehmen eine Kindersicherung einführen, mit der Eltern das Konto ihres Kindes mit ihrem eigenen verknüpfen und so die Konversationen verwalten und Funktionen deaktivieren können. Eltern können laut einem Blogbeitrag des Unternehmens außerdem Benachrichtigungen erhalten, wenn „das System erkennt, dass sich ihr Teenager in einer akuten Notlage befindet“, und die Tageszeiten festlegen, zu denen ihre Kinder ChatGPT nutzen können.
Diese Maßnahmen erfolgen vor dem Hintergrund immer wieder beunruhigender Schlagzeilen über Menschen, die nach langen Gesprächen mit KI-Chatbots Selbstmord begehen oder Gewalt gegen Familienmitglieder begehen. Die Gesetzgeber haben dies zur Kenntnis genommen, und sowohl Meta als auch OpenAI stehen unter Beobachtung. Anfang des Monats forderte die Federal Trade Commission (FTC) Meta, OpenAI, Google und andere KI-Unternehmen auf, Informationen über die Auswirkungen ihrer Technologien auf Kinder herauszugeben, so Bloomberg .
Gleichzeitig unterliegt OpenAI noch immer einer gerichtlichen Anordnung, die Chats der Verbraucher auf unbestimmte Zeit aufzubewahren – eine Tatsache, mit der das Unternehmen laut Quellen, mit denen ich gesprochen habe, äußerst unzufrieden ist. Die heutige Nachricht ist sowohl ein wichtiger Schritt zum Schutz Minderjähriger als auch ein geschickter PR-Schachzug, um die Idee zu unterstreichen, dass Gespräche mit Chatbots so persönlich sind, dass die Privatsphäre der Verbraucher nur in extremen Fällen verletzt werden sollte.
„Ein Sexbot-Avatar in ChatGPT“Den Quellen, mit denen ich bei OpenAI gesprochen habe, zufolge lastet die Last des Nutzerschutzes schwer auf vielen Forschern. Sie wollen ein Benutzererlebnis schaffen, das Spaß macht und fesselnd ist, aber das kann schnell in eine katastrophale Unterwürfigkeit umschlagen. Es ist positiv, dass Unternehmen wie OpenAI Maßnahmen zum Schutz Minderjähriger ergreifen. Gleichzeitig gibt es mangels bundesstaatlicher Regulierungen keinen Zwang für diese Firmen, das Richtige zu tun.
In einem kürzlichen Interview drängte Tucker Carlson Altman dazu, die Frage zu beantworten, wer genau diese Entscheidungen trifft, die sich auf uns alle auswirken. Der OpenAI-Chef verwies auf das Modellverhaltensteam, das für die Feinabstimmung des Modells hinsichtlich bestimmter Attribute verantwortlich ist. „Ich denke, Sie sollten mich für diese Entscheidungen zur Verantwortung ziehen“, fügte Altman hinzu. „Ich bin sozusagen ein öffentliches Gesicht. Letztendlich bin ich derjenige, der eine dieser Entscheidungen oder die unseres Vorstands überstimmen kann.“
Er hat Recht, doch einige der drohenden Gefahren scheinen ihm zu entgehen. In einem anderen Podcast-Interview mit der YouTuberin Cleo Abrams sagte Altman, dass „wir manchmal in Versuchung geraten“, Produkte auf den Markt zu bringen, „die das Wachstum wirklich ankurbeln würden“. Er fügte hinzu: „Wir haben noch keinen Sexbot-Avatar in ChatGPT integriert.“ Noch nicht ! Wie seltsam.
OpenAI hat kürzlich eine Studie darüber veröffentlicht , wer ChatGPT nutzt und wie die Nutzer es nutzen. Nutzer unter 18 Jahren wurden von dieser Studie ausgeschlossen. Wir wissen noch nicht genau, wie Jugendliche KI nutzen, und es ist wichtig, diese Frage zu beantworten, bevor die Situation eskaliert.
Quellen sagenElon Musks xAI verklagt einen ehemaligen Mitarbeiter , der das Unternehmen verließ, um zu OpenAI zu wechseln. In einer Klage wirft er ihm vor, Geschäftsgeheimnisse und vertrauliche Informationen missbraucht zu haben. Da KI-Unternehmen heute Mitarbeiter gegen millionenschwere Abfindungen austauschen, werden wir sicherlich noch mehr solcher Klagen erleben.
Der betroffene Mitarbeiter, Xuechen Li, hat es laut zwei Unternehmensquellen nie in den internen Slack-Bereich von OpenAI geschafft. Es ist unklar, ob sein Angebot zurückgezogen wurde oder ob er eingestellt und dann wieder entlassen wurde. OpenAI und Li reagierten nicht auf die Bitte von WIRED um einen Kommentar.
Dies ist eine Ausgabe des Newsletters „Model Behavior“ von Kylie Robison . Lesen Sie hier frühere Newsletter .
wired