Роботы могут терраформировать Марс, но на Земле потребуются строгие правила, считает эксперт.

Автономные гуманоидные роботы становятся всё ближе к реальности, но один из ведущих британских экспертов по робототехнике предупреждает, что за шумихой скрывается неприятная правда: до появления по-настоящему полезных гуманоидов пройдут ещё годы, реальная опасность кроется в их неправильном использовании людьми, а без строгого регулирования они могут представлять больше риска, чем пользы. Доктор Карл Стратерн, преподаватель компьютерных наук в Эдинбургском университете Нейпира и эксперт-консультант по искусственному интеллекту и робототехнике в Управлении по науке правительства Великобритании, поделится своими предостережениями и выводами на конференции New Scientist Live в октябре.
Несмотря на все яркие демонстрации гуманоидных роботов, разливающих напитки, складывающих одежду или имитирующих мимику, разрыв между видео и действительно надёжным помощником в повседневной жизни остаётся огромным. Доктор Стратерн сказал: «Самая большая проблема — это отсутствие реальных данных и технологических средств для их сбора в достаточно больших объёмах для эффективного обучения наших роботов». Современные системы в значительной степени полагаются на виртуальное моделирование, обучение с подкреплением или сбор видео с YouTube , где люди выполняют задания.
Результатом являются машины, которые хорошо себя чувствуют в лабораторных условиях, но испытывают трудности в беспорядочном, непредсказуемом мире.
Доктор Стратерн, который представит Евклида, своего так называемого «дружелюбного робота», в лондонском центре ExCel на ежегодной научной выставке, сказал: «Представьте себе простой предмет, например, чашку. У неё миллионы вариаций по размеру, весу, форме и цвету. А теперь экстраполируйте это на каждый предмет в доме, и вы поймете масштаб задачи».
Одним из возможных решений является массовый краудсорсинг данных реального мира, возможно, с помощью видеоочков, таких как умные очки Ray-Ban от Meta. Но доктор Стратерн признаёт, что для этого потребуются тысячи, а то и миллионы людей, собирающих и обменивающихся данными — амбициозная и этически сложная задача.
По мнению доктора Стратерна, настоящая опасность кроется не в научно-фантастических страхах о том, что машины повернутся против нас.
Он пояснил: «Если речь идёт о Терминаторе, то ответ — нет. Мы всегда были и представляем для себя большую опасность, чем для кого-либо ещё».
Вместо этого, утверждает он, реальный риск исходит от людей, управляющих гуманоидными роботами, часто без достаточной подготовки или вообще без неё. В настоящее время Стратерн возглавляет петицию в парламент Великобритании с призывом к регулированию использования гуманоидных роботов в общественных местах после серии почти непредвиденных инцидентов.
Доктор Стратерн сказал: «Люди управляют ими с помощью портативных устройств, что делает их очень опасными и ненадёжными. Всё чаще происходят серьёзные столкновения между людьми и роботами — и не из-за ИИ, а из-за людей».
Вот почему, утверждает он, необходимо строгое регулирование, прежде чем гуманоиды станут широко появляться в нашей повседневной жизни.
Ещё одна проблема — восприятие. Слишком реалистичные роботы рискуют попасть в «зловещую долину», вызывая дискомфорт или тревогу. Однако в некоторых ситуациях, например, при уходе за больными деменцией, знакомое человеческое лицо может оказывать успокаивающее и благотворное воздействие.
Доктор Стратерн сказал: «У людей разный порог восприятия жути. Именно поэтому у нас есть разные типы роботов — некоторые очень похожи на живых существ, некоторые с минимальными чертами лица».
Во время работы над докторской диссертацией он даже разработал «Мультимодальный тест Тьюринга», чтобы выяснить, делает ли общение через реалистичных роботов искусственный интеллект более человечным. Позже японские исследователи проверили эту идею и обнаружили, что люди действительно чаще считали искусственный интеллект человеком, когда он взаимодействовал с реалистичным роботом.
Стрэтерн настаивает, что принятие произойдет не случайно, а посредством постепенного, осторожного внедрения и обучения, особенно это касается детей, изучающих навыки робототехники и искусственного интеллекта в школах.
Несмотря на все эти оговорки, компании мчатся вперёд. Доктор Стратерн сказал: «Эта шумиха — серьёзная проблема. Мы ещё далеки от создания гуманоидных роботов, способных эффективно выполнять повседневные задачи, но это не мешает крупным компаниям наладить их массовое производство».
Он отмечает, что дефицит специалистов в области робототехники уже остр. Университеты по-прежнему разделяют студентов по разрозненным дисциплинам, таким как компьютерные науки, инженерия и дизайн, в то время как будущее робототехники зависит от междисциплинарных, многопрофильных специалистов.
Доктор Стратерн сказал: «Без прочной образовательной базы я беспокоюсь об устойчивости отрасли гуманоидной робототехники».
По иронии судьбы, он видит одну область, где человекоподобные роботы могут оказаться по-настоящему полезными гораздо раньше: исследование космоса.
Он продолжил: «Освоение космоса — это, конечно, вопрос — мы могли бы использовать телеметрических или управляемых искусственным интеллектом гуманоидов для работы в космосе в течение более длительного времени, чем люди, продвигая нас дальше в неизведанное».
В будущем гуманоиды могут даже быть задействованы в терраформировании планет или исследовании труднодоступных местностей, недоступных для нынешних роботов-вездеходов.
Доктор Стратерн сказал: «Они могут оказаться гораздо более полезными для такого рода разведочных работ гораздо быстрее, чем здесь, на Земле, как это ни парадоксально».
Поэтому, хотя роботы однажды могут помочь нам колонизировать новые миры, предупреждение Стрэтхэрна ясно: здесь, на Земле, реальная проблема заключается в обеспечении их безопасности, надежности и надлежащего регулирования, прежде чем они будут выпущены в общество.
Доктор Стратерн сказал: «Роботы, возможно, однажды терраформируют Марс. Но на Земле только строгий контроль обеспечит нашу безопасность».
New Scientist Live пройдет с 18 по 20 октября в выставочном центре London ExCel.
Daily Express