ЧатGPT. Предупреждение о неправильном диагнозе

Испанская платформа Maldita предупредила, что такие инструменты, как ChatGPT, могут ставить неверные диагнозы и не являются заменой врачам, поскольку на веб-сайтах и в социальных сетях распространяются отзывы людей, которые обращались к этим моделям искусственного интеллекта за диагностикой.
В социальных сетях циркулируют такие заявления, как «Я попросил ChatGPT прочитать по моей руке, и он обнаружил рак кожи» или «ChatGPT диагностировал у женщины рак на год раньше врачей», в которых утверждается, что инструмент на основе искусственного интеллекта (ИИ) способен ставить медицинские диагнозы.
В то же время Илон Маск также заверил, что его чат-бот (виртуальный помощник, использующий искусственный интеллект и программирование для общения с пользователями посредством текста) может ставить диагнозы «лучше, чем говорят врачи», и в социальных сетях появилось несколько отзывов от людей, которые используют инструменты для этой цели.
Однако результаты работы чат-ботов на основе искусственного интеллекта основаны на вероятностях, данные обучения могут быть недостоверными, и они не могут выполнять тот комплексный анализ, который может выполнить врач, говорится в сообщении платформы.
«Чат-бот не может выполнить необходимый медицинский анализ и не может обработать достаточно информации для постановки диагноза, поэтому он не принимает во внимание другие факторы, такие как патологии или контекст», — предупреждает врач, опрошенный платформой.
В этом смысле инструменты ИИ не являются надежными источниками информации и могут совершать ошибки, «которые могут привести к неправильной диагностике, неадекватному лечению и рискам для здоровья», поэтому крайне важно всегда консультироваться со специалистом в области здравоохранения, добавляет он.
Платформа также предупреждает, что подобные инструменты могут страдать от галлюцинаций, создающих неточные, неверные или предвзятые результаты , которые могут привести к рекомендациям, вредным для здоровья людей.
«Вы не можете рисковать своим здоровьем, обращаясь за диагностикой к системе, которая еще не является надежной и устойчивой», — говорит профессор университета, с которым связалась Мальдита.
Кроме того, передача данных о состоянии здоровья, таких как изображения и медицинские документы, чат-ботам на основе искусственного интеллекта также может представлять риск для конфиденциальности каждого человека, поскольку компании могут использовать эту информацию для обучения своих моделей искусственного интеллекта.
observador