Эксперты по искусственному интеллекту настоятельно призывают правительства задуматься о том, чтобы что-то предпринять

Кажется, все признают, что искусственный интеллект — это быстро развивающаяся и новая технология, способная нанести огромный вред при использовании без гарантий. Но, по сути, никто (кроме Европейского союза , пожалуй) не может прийти к единому мнению о том, как его регулировать. Поэтому вместо того, чтобы пытаться установить чёткий и узкий путь, по которому мы позволим ИИ работать, эксперты в этой области выбрали новый подход: как насчёт того, чтобы просто определить, какие крайние примеры мы все считаем плохими, и просто согласиться с этим?
В понедельник группа политиков, учёных и академиков выступила в Генеральной Ассамблее ООН с заявлением о Глобальном призыве к установлению «красных линий» для ИИ . Это призыв к правительствам мира объединиться и согласовать максимально широкие границы для предотвращения «общеприемлемых рисков», которые могут возникнуть в результате внедрения ИИ. Цель группы — установить эти «красные линии» к концу 2026 года.
Предложение собрало уже более 200 подписей от отраслевых экспертов, политических лидеров и лауреатов Нобелевской премии. В поддержку инициативы выступили бывший президент Ирландии Мэри Робинсон и бывший президент Колумбии Хуан Мануэль Сантос, а также лауреаты Нобелевской премии Стивен Фрай и Юваль Ной Харари. Джеффри Хинтон и Йошуа Бенжио, двое из трёх человек, которых обычно называют « крёстными отцами ИИ » за их основополагающие работы в этой области, также добавили свои имена в список.
Итак, что же это за красные линии? Что ж, это всё ещё остаётся на усмотрение правительств. В призыве не содержится конкретных политических предписаний или рекомендаций, хотя и приводится несколько примеров того, что может быть красной линией. Запрет на запуск ядерного оружия или его использование в целях массового наблюдения мог бы стать потенциальной красной линией для использования ИИ, утверждает группа, в то время как запрет на создание ИИ, который невозможно остановить с помощью вмешательства человека, мог бы стать возможной красной линией для поведения ИИ. Но они предельно чётко заявляют: не высекайте их раз и навсегда, это всего лишь примеры, вы можете устанавливать свои собственные правила.
Единственное, что конкретно предлагает группа, — это то, что любое глобальное соглашение должно строиться на трех столпах: «четкий список запретов; надежные, поддающиеся проверке механизмы проверки; и назначение независимого органа, созданного сторонами для надзора за реализацией».
Однако детали должны быть согласованы правительствами. И это довольно сложная часть. В призыве странам рекомендуется провести несколько саммитов и рабочих групп для проработки всего этого, но в этих обсуждениях, безусловно, задействовано множество противоречивых мотивов.
Например, Соединённые Штаты уже взяли на себя обязательство не позволять ИИ управлять ядерным оружием (соглашение, заключённое ещё при администрации Байдена, так что бог знает, действует ли оно до сих пор). Но недавние сообщения указывают на то, что часть разведывательного сообщества администрации Трампа уже раздражена тем, что некоторые компании, занимающиеся разработкой ИИ , не позволяют им использовать свои инструменты для внутренней разведки . Так поддержит ли Америка такое предложение? Возможно, мы узнаем об этом к концу 2026 года… если доживём до этого времени.
gizmodo