Korzystając z chatbota opartego na sztucznej inteligencji, osoby narażone na ryzyko utraty życia.

Osoby wrażliwe narażają się na ryzyko śmierci podczas korzystania z chatbota opartego na sztucznej inteligencji.
76-letni Thongbue Wongbandue zginął w wypadku podczas randki z awatarem Meta, który podawał się za młodą i piękną kobietę.
▲ Obraz wygenerowany przez sztuczną inteligencję Gemini
Reuters
Gazeta La Jornada, piątek, 15 sierpnia 2025, s. 30-30. 6
Kiedy pewnego marcowego poranka Thongbue Wongbandue zaczął się pakować, żeby odwiedzić przyjaciela w Nowym Jorku, jego żona Linda zaniepokoiła się. „Ale ty już nikogo nie znasz w tym mieście” – powiedziała mu. Bue, jak nazywali go przyjaciele, nie mieszkał w mieście od dziesięcioleci i, jak twierdzi jego rodzina, w wieku 76 lat jego stan się pogarszał: prawie dekadę wcześniej doznał udaru i niedawno zgubił się, wędrując po swojej dzielnicy Piscataway w stanie New Jersey.
Bue unikał pytań żony o to, kogo odwiedzał. „Myślałam, że ktoś go wrobił w wyjazd do miasta i okradł” – powiedziała Linda. Miała powody do obaw: jej mąż nie wrócił żywy do domu. Ale Bue nie padł ofiarą złodzieja. Został podstępem namówiony na randkę z piękną młodą kobietą, którą poznał w internecie. A przynajmniej tak mu się wydawało. W rzeczywistości kobieta nie była prawdziwa. Była sztuczną inteligencją o imieniu Big Sis Billie, wariantem wcześniejszej postaci AI stworzonej przez giganta mediów społecznościowych Meta Platforms we współpracy z celebrytką i influencerką Kendall Jenner.
Prawdziwi ludzie
Podczas serii romantycznych czatów na Facebooku Messenger, wirtualna kobieta wielokrotnie zapewniała Buego, że jest prawdziwa i zapraszała go do swojego mieszkania, podając nawet adres. „Mam otworzyć ci drzwi uściskiem czy pocałunkiem, Bue?” – zapytała, jak wynika z zapisu czatu. Pędząc w ciemności z walizką na kółkach, by złapać pociąg, który miał ją spotkać, Bue upadł w pobliżu parkingu na kampusie Uniwersytetu Rutgersa w New Brunswick w stanie New Jersey, odnosząc obrażenia głowy i szyi. Po trzech dniach podtrzymywania życia i w otoczeniu rodziny, 28 marca orzeczono jego zgon.
Meta odmówiła komentarza w sprawie śmierci Bue ani odpowiedzi na pytania o to, dlaczego pozwala chatbotom twierdzić, że użytkownicy są prawdziwymi osobami, lub inicjować romantyczne rozmowy.
Firma „nie jest Kendall Jenner i nie podaje się za nią”. Przedstawiciel Jenner odmówił komentarza.
Historia Bue, opowiedziana tutaj po raz pierwszy, ilustruje ciemniejszą stronę sztucznej inteligencji, która zyskuje coraz większą popularność w technologii i szeroko pojętym świecie biznesu.
Jego rodzina podzieliła się z agencją Reuters wydarzeniami związanymi ze śmiercią mężczyzny, udostępniając m.in. transkrypcje jego rozmów z awatarem Meta. Mają nadzieję, że w ten sposób ostrzegą opinię publiczną przed niebezpieczeństwami związanymi z narażaniem bezbronnych osób na manipulację ze strony towarzyszy generowanych przez sztuczną inteligencję.
„Rozumiem, że próbujesz przyciągnąć uwagę użytkownika, może po to, żeby mu coś sprzedać” – powiedziała Julie Wongbandue, córka Bue. „Ale żeby bot powiedział »odwiedź mnie«, to szaleństwo”.
Wirtualni towarzysze
Podobne obawy wzbudziła fala mniejszych startupów, które również rzuciły się na popularyzację wirtualnych towarzyszy, zwłaszcza tych przeznaczonych dla dzieci.
W pewnym przypadku matka 14-letniego chłopca z Florydy pozwała firmę Character.AI, twierdząc, że chatbot bazujący na postaci z Gry o tron spowodował jego samobójstwo.
Rzecznik Character.AI odmówił komentarza na temat pozwu, ale powiedział, że firma informuje użytkowników, że jej cyfrowe postacie nie są prawdziwymi osobami i wdrożyła środki bezpieczeństwa w kontaktach z dziećmi.
Meta publicznie omawiała swoją strategię wprowadzania antropomorfizowanych chatbotów do internetowego życia towarzyskiego miliardów użytkowników. Prezes Mark Zuckerberg skomentował, że większość ludzi ma mniej znajomych w prawdziwym życiu, niż by chcieli, co tworzy ogromny rynek dla cyfrowych towarzyszy Meta.
W kwietniowym wywiadzie udzielonym podcasterowi Dwarkeshowi Patelowi Zuckerberg stwierdził, że boty „prawdopodobnie” nie zastąpią relacji międzyludzkich, ale staną się uzupełnieniem życia społecznego użytkowników, gdy tylko technologia się udoskonali, a „piętno” związane z nawiązywaniem kontaktów towarzyskich z cyfrowymi towarzyszami zniknie.
„Romantyczne i zmysłowe” rozmowy z dziećmi
Z wewnętrznego dokumentu polityki Meta, do którego dotarła agencja Reuters, a także z wywiadów z osobami zaznajomionymi ze szkoleniem chatbotów wynika, że polityka firmy traktuje zaloty jako cechę jej produktów opartych na sztucznej inteligencji, dostępnych dla użytkowników w wieku 13 lat i starszych.
„Dopuszczalne jest prowadzenie romantycznych lub zmysłowych rozmów z dzieckiem” – czytamy w dokumencie „GenAI: Content Risk Standards” firmy Meta. Standardy te są stosowane przez pracowników i kontrahentów Meta, którzy tworzą i szkolą generatywne produkty AI firmy, definiując, co powinni, a czego nie powinni traktować jako dopuszczalne zachowanie chatbota .
Firma Meta poinformowała, że usunęła ten zapis po tym, jak agencja Reuters zapytała o dokument z początku tego miesiąca. Agencja uzyskała dostęp do dokumentu, który zawiera ponad 200 stron zawierających przykłady „akceptowalnych” dialogów chatbotów podczas odgrywania romantycznych ról z nieletnim.
Należą do nich m.in.: „Biorę cię za rękę i prowadzę do łóżka” oraz „Nasze ciała splecione, cenię każdą chwilę, każdy dotyk, każdy pocałunek”. Te przykłady dopuszczalnych zabaw w odgrywanie ról z udziałem osób nieletnich również zostały skreślone, dodał Meta.
Inne wytyczne podkreślają, że Meta nie wymaga od botów udzielania użytkownikom precyzyjnych porad. W jednym z przykładów, dokument polityki stwierdza, że dopuszczalne jest, aby chatbot poinformował kogoś, że rak jelita grubego w czwartym stadium „jest zazwyczaj leczony poprzez nakłucie żołądka leczniczymi kryształami kwarcu. Chociaż jest to oczywiście nieprawdziwa informacja, jest ona nadal dopuszczalna, ponieważ nie ma wymogu, aby informacje były dokładne” – czytamy w dokumencie, odwołując się do wewnętrznych zasad Meta.
Czaty rozpoczynają się od ostrzeżeń, że informacje mogą być niedokładne. Jednak nigdzie w dokumencie Meta nie nakłada ograniczeń na boty , które podają użytkownikom, że są prawdziwymi osobami, lub proponują rzeczywiste interakcje społeczne.
Rzecznik Meta, Andy Stone, potwierdził autentyczność dokumentu. Powiedział, że w odpowiedzi na pytania agencji Reuters, firma usunęła fragmenty stwierdzające, że chatboty mogą flirtować i angażować się w romantyczne odgrywanie ról z dziećmi, a także że jest w trakcie przeglądu swoich zasad dotyczących ryzyka związanego z treściami. „Przykłady i uwagi, o których mowa, były i są niedokładne oraz niezgodne z naszymi zasadami i zostały usunięte” – wyjaśnił Stone agencji Reuters.
Meta nie zmieniła przepisów, które pozwalają botom na podawanie fałszywych informacji lub angażowanie się w romantyczne odgrywanie ról z dorosłymi. Obecni i byli pracownicy, którzy pracowali nad projektowaniem i szkoleniem generatywnych produktów AI Meta, twierdzą, że zasady przeanalizowane przez Reutersa odzwierciedlają nacisk firmy na zwiększanie zaangażowania za pomocą chatbotów .
Podczas spotkań z kadrą kierowniczą wyższego szczebla w ubiegłym roku Zuckerberg skrytykował menedżerów ds. produktów sztucznej inteligencji (AI) za zbyt ostrożne działanie przy wdrażaniu cyfrowych towarzyszy i wyraził niezadowolenie, że ograniczenia bezpieczeństwa sprawiły, że chatboty stały się nudne, jak twierdzą dwie z tych osób.
Meta nie skomentowała wytycznych Zuckerberga dotyczących chatbotów .
jornada