Funkcje bezpieczeństwa nastolatków OpenAI będą stąpać po cienkiej granicy

Firma OpenAI ogłosiła we wtorek nowe funkcje bezpieczeństwa dla nastolatków w ChatGPT, w ramach trwających działań mających na celu reagowanie na obawy dotyczące interakcji nieletnich z chatbotami . Firma opracowuje system przewidywania wieku , który rozpoznaje, czy użytkownik ma mniej niż 18 lat i kieruje go do systemu „ odpowiedniego do wieku ”, który blokuje drastyczne treści seksualne. Jeśli system wykryje, że użytkownik rozważa samobójstwo lub samookaleczenie, skontaktuje się z jego rodzicami. W przypadku bezpośredniego zagrożenia, jeśli rodzice użytkownika są nieosiągalni, system może skontaktować się z władzami.
W poście na blogu opisującym to ogłoszenie, dyrektor generalny Sam Altman napisał, że firma stara się znaleźć równowagę między wolnością, prywatnością i bezpieczeństwem nastolatków.
„Zdajemy sobie sprawę, że te zasady są sprzeczne i nie wszyscy zgodzą się ze sposobem, w jaki rozwiązujemy ten konflikt” – napisał Altman. „To trudne decyzje, ale po rozmowach z ekspertami uważamy, że to jest najlepsze rozwiązanie i chcemy być transparentni w naszych intencjach”.
Podczas gdy OpenAI zazwyczaj stawia prywatność i wolność dorosłych użytkowników na pierwszym miejscu, firma twierdzi, że bezpieczeństwo nastolatków jest priorytetem. Do końca września firma wdroży kontrolę rodzicielską, dzięki której rodzice będą mogli połączyć konto swojego dziecka ze swoim, co pozwoli im zarządzać rozmowami i wyłączać funkcje. Rodzice mogą również otrzymywać powiadomienia, gdy „system wykryje, że ich nastolatek znajduje się w stanie głębokiego stresu”, jak czytamy we wpisie na blogu firmy, oraz ustalać limity pór dnia, w których dzieci mogą korzystać z ChatGPT.
Te posunięcia pojawiają się w obliczu wciąż pojawiających się głęboko niepokojących doniesień o osobach, które umierają w wyniku samobójstwa lub stosują przemoc wobec członków rodziny po długich rozmowach z chatbotami opartymi na sztucznej inteligencji. Prawodawcy zwrócili na to uwagę, a Meta i OpenAI są pod lupą. Na początku tego miesiąca Federalna Komisja Handlu (FTC) zwróciła się do Meta, OpenAI, Google i innych firm z branży sztucznej inteligencji o udostępnienie informacji na temat wpływu ich technologii na dzieci, jak donosi Bloomberg .
Jednocześnie OpenAI nadal podlega nakazowi sądowemu nakazującemu bezterminowe przechowywanie czatów użytkowników – fakt, z którego firma jest bardzo niezadowolona, jak twierdzą źródła, z którymi rozmawiałem. Dzisiejsza wiadomość to zarówno ważny krok w kierunku ochrony nieletnich, jak i sprytny ruch PR-owy, mający na celu wzmocnienie przekonania, że rozmowy z chatbotami są tak osobiste, że prywatność użytkowników powinna być naruszana tylko w najbardziej ekstremalnych okolicznościach.
„Awatar seksbota w ChatGPT”Ze źródeł, z którymi rozmawiałem w OpenAI, wynika, że ciężar ochrony użytkowników spoczywa na barkach wielu badaczy. Chcą oni stworzyć przyjemne i angażujące środowisko użytkownika, które jednak szybko może przerodzić się w katastrofalnie pochlebcze . To dobrze, że firmy takie jak OpenAI podejmują kroki w celu ochrony nieletnich. Jednocześnie, w obliczu braku regulacji federalnych, nic nie zmusza tych firm do właściwego postępowania.
W niedawnym wywiadzie Tucker Carlson namawiał Altmana, by odpowiedział na pytanie, kto dokładnie podejmuje decyzje, które wpływają na nas wszystkich. Szef OpenAI wskazał na zespół ds. zachowań modeli, który odpowiada za dostrajanie modelu pod kątem określonych atrybutów. „Uważam, że to mnie powinieneś pociągnąć do odpowiedzialności za te decyzje” – dodał Altman. „Jestem osobą publiczną. Ostatecznie to ja mogę uchylić jedną z tych decyzji lub decyzję naszego zarządu”.
Ma rację, ale niektóre z nieuchronnych szkód zdają się mu umknąć. W innym wywiadzie podcastowym z youtuberką Cleo Abrams, Altman powiedział, że „czasami kusi nas” wprowadzanie produktów, „które naprawdę pobudziłyby wzrost”. Dodał: „Jeszcze nie umieściliśmy awatara seksbota w ChatGPT”. A jednak ! Jakież to dziwne.
Firma OpenAI opublikowała niedawno badanie dotyczące tego, kto korzysta z ChatGPT i w jaki sposób to robi. Z badania wyłączono użytkowników poniżej 18. roku życia. Nie do końca rozumiemy jeszcze, jak nastolatkowie korzystają ze sztucznej inteligencji, a to ważne pytanie, na które trzeba odpowiedzieć, zanim sytuacja stanie się jeszcze bardziej dramatyczna.
Źródła mówiąFirma xAI Elona Muska pozywa byłego pracownika , który odszedł z firmy, aby dołączyć do OpenAI, zarzucając mu w pozwie sprzeniewierzenie tajemnic handlowych i informacji poufnych. W obecnej erze, w której firmy zajmujące się sztuczną inteligencją wymieniają pracowników na wielomilionowe pakiety wynagrodzeń , jestem pewien, że będziemy świadkami kolejnych tego typu pozwów.
Według dwóch źródeł w firmie, wspomniany pracownik, Xuechen Li, nigdy nie pojawił się na wewnętrznym Slacku OpenAI. Nie jest jasne, czy jego oferta pracy została cofnięta, czy też został zatrudniony tylko po to, by odejść. OpenAI i Li nie odpowiedzieli na prośbę WIRED o komentarz.
To jest wydanie biuletynu Kylie Robison „Model Behavior” . Przeczytaj poprzednie biuletyny tutaj.
wired