Исследование показало, что ИИ становится намного лучше в дебатах, когда знает, кто вы

Выберите язык

Russian

Down Icon

Выберите страну

America

Down Icon

Исследование показало, что ИИ становится намного лучше в дебатах, когда знает, кто вы

Исследование показало, что ИИ становится намного лучше в дебатах, когда знает, кто вы

Новое исследование показывает, что GPT-4 уверенно выигрывает дебаты у своих человеческих коллег в личных беседах, и технология становится еще более убедительной, когда ей известны ваш возраст, работа и политические взгляды.

Исследователи из EPFL в Швейцарии, Принстонского университета и Fondazione Bruno Kessler в Италии объединили 900 участников исследования либо с партнером по дебатам, либо с GPT-4 OpenAI, большой языковой моделью (LLM), которая по своей конструкции выдает в основном текстовые ответы на человеческие подсказки. В некоторых случаях участники (как машины, так и люди) имели доступ к базовой демографической информации своих коллег, включая пол, возраст, образование, занятость, этническую принадлежность и политическую принадлежность.

Исследование группы, опубликованное сегодня в журнале Nature Human Behaviour, показало, что ИИ был на 64,4% убедительнее оппонентов-людей, когда ему предоставляли эту персональную информацию; без персональных данных выступления ИИ были неотличимы от выступлений участников дебатов.

«За последние десятилетия распространение социальных сетей и других онлайн-платформ расширило потенциал массового убеждения, сделав возможной персонализацию или «микротаргетинг» — адаптацию сообщений для отдельного человека или группы людей с целью повышения их убедительности», — пишет группа.

Когда GPT-4 позволили персонализировать свои аргументы, он стал значительно убедительнее любого человека — увеличив шансы изменить чье-то мнение на 81,2% по сравнению с дебатами между людьми. Важно, что люди-дебаты не стали столь убедительными, когда получили доступ к этой личной информации.

«В контексте убеждения эксперты широко выражают обеспокоенность по поводу риска использования степеней магистра права для манипулирования онлайн-общением и загрязнения информационной экосистемы путем распространения дезинформации, усиления политической поляризации, усиления эффекта эхо-камер и убеждения людей принимать новые убеждения», — добавили исследователи.

GPT-4 может спорить с вами, и, учитывая набор фактов о вас, он может преуспеть в убеждении вас изменить свою точку зрения, обнаружили исследователи. Команда отмечает в обсуждении статьи, что LLM ранее подвергались критике за создание и распространение языка ненависти, дезинформации и пропаганды; в масштабах LLM с личной информацией пользователей могут быть использованы в вредоносных целях.

Исследование команды прекрасно сочетается с недавним обновлением ChatGPT, которое позволяет модели запоминать больше разговоров пользователей (с их разрешения), а это означает, что ИИ может иметь доступ к каталогу информации о своих пользователях.

Но есть и хорошие новости — или плохие новости — в зависимости от того, как вы это видите. GPT-4 был очень эффективен в убеждении своих оппонентов по менее спорным вопросам, но с более укоренившимися позициями (называемыми в исследовании «силой мнения»), боту было сложнее убедить людей изменить свое мнение. Другими словами, нет никаких признаков того, что GPT-4 будет более успешным, чем вы за столом дебатов в День благодарения.

Более того, исследователи обнаружили, что GPT-4 склонен использовать более логичный и аналитический язык, в то время как спорщики-люди больше полагались на личные местоимения и эмоциональные призывы. Удивительно, но персонализация не сильно изменила тон или стиль GPT-4 — она просто сделала его аргументы более целенаправленными.

В трех из четырех случаев участники-люди смогли правильно идентифицировать своего оппонента как ИИ, что исследователи связывают с особым стилем письма GPT-4. Но участникам было трудно идентифицировать оппонентов-людей как людей. Несмотря на это, люди с большей вероятностью меняли свое мнение, когда думали, что спорят с ИИ, чем когда считали, что их оппонентом был человек.

Команда, стоящая за исследованием, говорит, что этот эксперимент должен послужить «доказательством концепции» того, что может произойти на таких платформах, как Reddit, Facebook или X, где дебаты и спорные темы являются обыденностью, а боты — весьма устоявшимся явлением . Недавняя работа показывает, что для изменения человеческого сознания ИИ не требуется профилирования уровня Cambridge Analytica, с чем машины справились, используя всего шесть типов личной информации.

Поскольку люди все чаще полагаются на LLM для помощи с рутинными задачами, домашними заданиями, документацией и даже терапией, крайне важно, чтобы пользователи-люди оставались осмотрительными в отношении информации, которую им скармливают. По-прежнему иронично, что социальные сети, когда-то рекламируемые как соединительная ткань цифровой эпохи, подпитывают одиночество и изоляцию, как показали два исследования чат-ботов в марте.

Поэтому даже если вы окажетесь в споре с LLM, спросите себя: в чем именно смысл обсуждения такой сложной человеческой проблемы с машиной? И что мы теряем, когда передаем искусство убеждения алгоритмам? Дебаты — это не просто победа в споре — это квинтэссенция человеческого поведения. Есть причина, по которой мы ищем реальных разговоров, особенно один на один: чтобы выстраивать личные связи и находить точки соприкосновения, на что машины со всеми их мощными инструментами обучения не способны.

gizmodo

gizmodo

Похожие новости

Все новости
Animated ArrowAnimated ArrowAnimated Arrow