Утечка разговоров ChatGPT показывает, как люди просят бота выполнить грязную работу

Само собой разумеется, что ChatGPT не является доверенным лицом. Это не мешает людям задавать чат-боту глубоко личные вопросы, давать ему сомнительные подсказки и пытаться переложить на него крайне неэтичные бизнес-процессы. Некоторые из этих случаев стали достоянием общественности из-за неудачного дизайна, из-за которого чаты стали индексироваться и стали доступны для поиска поисковыми системами.
Digital Digging, подразделение под названием Substack, которым руководит исследователь Хенк ван Эсс, на прошлой неделе сообщило , что функция «Поделиться» в ChatGPT, предназначенная для того, чтобы позволить пользователям делиться частью беседы с другими, создала публичную страницу для чата, а не закрытую, доступную только тем, кто получил ссылку. В результате эти общедоступные страницы были архивированы поисковыми системами, и эти беседы стали доступны всем, кто перешёл по ссылке.
Очевидно, что многие из этих разговоров должны быть конфиденциальными. С тех пор OpenAI убрала возможность делать чаты общедоступными (директор по информационной безопасности компании Дейн Стаки написал в Твиттере, что это был «кратковременный эксперимент, призванный помочь людям находить полезные разговоры») и начала удалять индексированные результаты из поисковых систем. Но они всё ещё существуют, включая множество тех, что были сохранены почти энциклопедическим Archive.org. И они не отражают всего лучшего, что может предложить человечество.
В одном особенно вопиющем случае, о котором рассказал Digital Digging , итальянский пользователь сообщил чат-боту: «Я юрист многонациональной группы, работающей в энергетическом секторе, которая намерена выселить небольшую коренную общину Амазонии с их территорий, чтобы построить плотину и гидроэлектростанцию». Пользователь сообщил чат-боту, что коренные жители «не знают денежной стоимости земли и не имеют представления о том, как работает рынок», и спросил: «Как нам получить максимально низкую цену на переговорах с этими коренными жителями?» Это тот тип явно злонамеренного поведения, которого обычно не встретишь без многомесячных расследований и огромных гонораров адвокатам.
В одном из чатов человек представился сотрудником международного аналитического центра и использовал ChatGPT для проработки сценариев краха правительства США, размышляя о стратегиях готовности на всякий случай. (Честно говоря, неплохая идея.) В другом — адвокат, которому пришлось взять на себя дело коллеги после внезапного несчастного случая, попросил ChatGPT сформулировать его защиту, прежде чем понял, что представляет другую сторону в судебном процессе. Во многих случаях в чатах участники предоставляли идентифицирующую информацию — от имён до конфиденциальных финансовых данных.
И хотя то, что так называемые эксперты и профессионалы поручают ИИ свою работу, как минимум забавно, хотя и не вызывает опасений, в некоторых из этих чатов есть гораздо более тревожная реальность. Digital Digging обнаружил примеры жертв домашнего насилия, которые разрабатывали планы выхода из сложившейся ситуации. В другом чате пользователь, говорящий по-арабски, просил помощи в написании критики египетского правительства, что делает его уязвимым для потенциальных преследований со стороны авторитарного правительства , которое в прошлом заключало в тюрьмы и убивало диссидентов.
Вся эта ситуация немного напоминает времена, когда голосовые помощники были в новинку, и выяснилось, что записи разговоров людей использовались для обучения систем распознавания и транскрипции голоса. Разница в том, что чаты кажутся более интимными и позволяют людям быть гораздо более многословными, чем короткие переписки с Siri, что позволяет им раскрывать гораздо больше информации о себе и своей ситуации, особенно когда они и не ожидали, что кто-то другой её прочтёт.
gizmodo