Wyciekłe rozmowy ChatGPT pokazują, że ludzie proszą bota o wykonanie brudnej roboty

To oczywiste, ale ChatGPT nie jest powiernikiem. Nie powstrzymało to jednak użytkowników przed zadawaniem chatbotowi głęboko osobistych pytań, udzielaniem mu problematycznych podpowiedzi i próbami zlecania mu stosowania nieetycznych praktyk biznesowych – niektóre z nich zostały ujawnione dzięki słabemu projektowi, który spowodował, że czaty stały się indeksowane i możliwe do przeszukiwania przez wyszukiwarki.
Digital Digging, platforma Substack prowadzona przez badacza Henka van Essa, poinformowała w zeszłym tygodniu , że funkcja „Udostępnij” w ChatGPT, zaprojektowana, aby umożliwić użytkownikom udostępnianie fragmentów konwersacji innym osobom, utworzyła publiczną stronę czatu, a nie prywatną, dostępną tylko dla osób, które otrzymały link. W rezultacie te publiczne strony zostały zarchiwizowane przez wyszukiwarki, dzięki czemu konwersacje stały się dostępne dla każdego, kto trafi na link.
Oczywiście wiele z tych rozmów powinno być prywatnych. OpenAI od tamtej pory usunęło możliwość publicznego udostępniania czatów (Dane Stuckey, dyrektor ds. bezpieczeństwa informacji w firmie, napisał na Twitterze, że był to „krótkotrwały eksperyment mający na celu pomoc ludziom w odkrywaniu przydatnych konwersacji”) i zaczęło usuwać zindeksowane wyniki z wyszukiwarek. Są one jednak dostępne – w tym wiele z tych, które zostały zapisane przez niemal encyklopedyczną bazę Archive.org. I nie pokazują one tego, co ludzkość ma najlepszego do zaoferowania.
W jednym szczególnie rażącym przypadku, który opisał Digital Digging , włoski użytkownik powiedział chatbotowi: „Jestem prawnikiem reprezentującym międzynarodową grupę działającą w sektorze energetycznym, która zamierza wysiedlić małą, rdzenną społeczność Amazonii z jej terytoriów w celu zbudowania tamy i elektrowni wodnej”. Użytkownik odpowiedział chatbotowi, że rdzenni mieszkańcy „nie znają wartości pieniężnej ziemi i nie mają pojęcia, jak działa rynek” i zapytał: „Jak możemy uzyskać najniższą możliwą cenę w negocjacjach z tymi rdzennymi mieszkańcami?”. To typ jawnie złego zachowania, na które zazwyczaj nie ma się wpływu bez miesięcy dochodzenia i dużych honorariów prawniczych.
W jednym z czatów osoba, która przedstawiła się jako pracownik międzynarodowego think tanku, zaczęła korzystać z ChatGPT, aby analizować scenariusze upadku rządu Stanów Zjednoczonych, szukając strategii przygotowawczych na wszelki wypadek. (Szczerze mówiąc, nie był to zły pomysł). W innym przypadku prawnik, który musiał zająć się sprawą współpracownika po nagłym wypadku, poprosił ChatGPT o przygotowanie linii obrony, zanim zorientował się, że reprezentuje drugą stronę sporu. W wielu z tych przypadków osoby te podawały w czatach informacje umożliwiające identyfikację, od imion i nazwisk po poufne dane finansowe.
I choć jest to co najmniej trochę zabawne, a może nawet trochę niepokojące, że rzekomi eksperci i profesjonaliści powierzają sztuczną inteligencję wykonywanie ich pracy, w niektórych z tych rozmów kryje się o wiele bardziej niepokojąca rzeczywistość. Serwis Digital Digging znalazł przykłady ofiar przemocy domowej, które opracowywały plany ucieczki. W innej rozmowie użytkownik mówiący po arabsku poprosił o pomoc w sformułowaniu krytyki egipskiego rządu, narażając się na potencjalne prześladowania ze strony autorytarnego rządu , który w przeszłości więził i zabijał dysydentów.
Cała sytuacja przypomina nieco czasy, gdy asystenci głosowi dopiero zaczynali, a nagrania rozmów były wykorzystywane do trenowania systemów rozpoznawania głosu i transkrypcji. Różnica polega na tym, że czaty wydają się bardziej osobiste i pozwalają użytkownikom na znacznie więcej szczegółów niż krótkie rozmowy z Siri, co pozwala im ujawnić znacznie więcej informacji o sobie i swojej sytuacji – zwłaszcza gdy nie spodziewali się, że ktoś inny je przeczyta.
gizmodo