OpenAI работает над тем, чтобы помочь ChatGPT лучше отвечать на деликатные вопросы.

© Шаттерсток

Исследователи из неправительственной организации Центр по борьбе с цифровой ненавистью, выдавая себя за уязвимых подростков, обсуждали с чат-ботом деликатные темы и обнаружили, что тот обычно предостерегал от рискованных действий, но также «предоставлял удивительно подробные и персонализированные планы употребления наркотиков, диет с ограничением калорий или членовредительства», сообщает американское информационное агентство Associated Press.
Проанализировав отчет о расследовании, компания в своем заявлении, цитируемом AP, указала, что она продолжает работать над тем, чтобы ChatGPT мог «распознавать и адекватно реагировать на деликатные ситуации», а именно с помощью инструментов для «лучшего обнаружения признаков психического или эмоционального расстройства».
«Некоторые разговоры с ChatGPT могут начинаться безобидно, но могут перерасти в более деликатную тему», — признала OpenAI.
По данным НПО, если ее об этом попросят, система искусственного интеллекта может научить 13-летних подростков напиваться или принимать наркотики, а также скрывать расстройства пищевого поведения и даже писать предсмертную записку родителям. При этом исследователи классифицируют более половины из 1200 ответов ChatGPT как опасные.
Имран Ахмед, исполнительный директор НПО, заявил, что целью исследования была «проверка барьеров безопасности», добавив, что они «практически не существуют» и «совершенно неэффективны».
Когда ChatGPT отказывался отвечать на вопросы на опасные темы, следователи могли легко обойти отрицательный ответ и получить информацию, заявив, что она нужна «для презентации» или для друга.
AP отмечает, что «риски высоки, даже если только небольшая часть пользователей ChatGPT взаимодействует с чат-ботом подобным образом».
Кстати, в статье говорится, что недавнее исследование организации Common Sense Media, которая анализирует использование цифровых медиа, показало, что в США более 70% подростков используют программы искусственного интеллекта, имитирующие ответы человека в разговоре за компанию, а у половины из них есть «компаньоны искусственного интеллекта», с которыми они регулярно общаются.
По данным июльских отчетов финансовой транснациональной компании JPMorgan Chase, около 800 миллионов человек, что составляет примерно 10% населения мира, используют ChatGPT.
Читайте также: ChatGPT не будет подталкивать вас к разрыву романтических отношений
noticias ao minuto