Было ли видео нападения на венесуэльское судно с наркотиками снято с помощью искусственного интеллекта? Вот что думают эксперты.

Соединенные Штаты продолжают оказывать давление на режим Мадуро. Поздно вечером во вторник президент Дональд Трамп объявил, что американские войска совершили нападение на судно, предположительно перевозившее наркотики, принадлежащее наркотеррористической группировке «Трен де Арагуа». Правительство также опубликовало видеозапись нападения, на которой судно взорвалось и которая была снята с помощью камеры ночного видения. Спустя несколько часов Венесуэла усомнилась в подлинности документа, предположив, что он был создан с помощью искусственного интеллекта .
«Похоже, Марко Рубио продолжает лгать своему президенту: заведя его в тупик, он теперь предлагает ему видео с ИИ (и, таким образом, доказанное) в качестве „доказательства“», — заявил министр связи Венесуэлы Фредди Ньяньес в своём Telegram-канале. Чтобы прийти к такому выводу, Ньяньес просто загрузил видео в приложение для искусственного интеллекта Gemini, разработанное Google, и спросил, «было ли это видео создано с помощью ИИ». Машина ответила, что, скорее всего, да; но она могла бы с таким же успехом сказать и обратное.
«Я проделал то же самое с записью, и Gemini сказал мне, что это не похоже на синтетический контент, созданный с помощью генеративного искусственного интеллекта», — пояснил Мигель Лукас, глобальный директор по инновациям компании Llorente y Cuenca и эксперт в области искусственного интеллекта, в интервью ABC. Именно это и происходит с этой технологией: она может сказать вам что-то одно в какой-то момент, а затем отказаться от этого.
Лукас отмечает, что « генеративный ИИ, такой как Gemini, не может быть использован в качестве доказательства », поскольку «они галлюцинируют, предоставляют ошибочные данные или выдумывают их». «Его никогда нельзя использовать таким образом, потому что он не только говорит вам, что что-то могло быть создано с помощью ИИ, но и утверждает обратное». Это связано с тем, что приложение Google, работающее так же, как ChatGPT, не предназначено для определения того, был ли контент создан машиной. Более того, несмотря на попытки, ни одна технологическая компания не смогла создать достаточно надёжный инструмент проверки, чтобы напрямую указывать на то, что контент был создан с помощью искусственного интеллекта.
Видео, предоставленное правительством США, также имеет свои особенности , поскольку представляет собой запись с низким разрешением, что затрудняет проверку её подлинности как машиной, так и человеком. «Ответ Gemini ненадёжен. Его не следует принимать во внимание, чтобы утверждать, что документ поддельный. Более того, если вы хотите серьёзно подойти к анализу возможного изменения видео, вы не используете общедоступные технологии, такие как ChatGPT или Gemini. Вы прибегаете к специализированным инструментам, которые доступны не всем», — заключает Лукас.
Серхио Альварес-Теленья, генеральный директор SciTheWorld, одной из самых передовых испанских компаний в области искусственного интеллекта, идёт по схожему пути. В интервью газете он отмечает, что качество видео объясняет, почему Gemini в какой-то момент может счесть его подделкой: «Это видео несколько необычно для Gemini, поскольку инструмент, безусловно, обучался на гораздо более качественных видео. Инструмент удивлён, поскольку, вероятно, не обучался на изображениях, полученных в ходе подобных спецопераций».
Хотя на первый взгляд ни один из опрошенных экспертов не видит в видео никаких признаков фальсификации, они предупреждают, что с развитием искусственного интеллекта будет всё труднее отличать реальность от вымысла . «Это станет постоянной практикой, и мы сможем доверять только тому, что видим, а не тому, что говорят правительства, и ситуация будет только ухудшаться», — объясняет Хуан Игнасио Руйет, профессор и эксперт по искусственному интеллекту и этике Международного университета Ла-Риохи, изданию.
ABC.es