La visión de Singapur para la seguridad de la IA cierra la brecha entre Estados Unidos y China

El gobierno de Singapur publicó hoy un plan de colaboración global para la seguridad de la inteligencia artificial tras una reunión de investigadores de IA de EE. UU., China y Europa. El documento establece una visión compartida para trabajar en la seguridad de la IA mediante la cooperación internacional, en lugar de la competencia.
“Singapur es uno de los pocos países del planeta que se lleva bien con Oriente y Occidente”, afirma Max Tegmark, científico del MIT que ayudó a organizar la reunión de expertos en IA el mes pasado. “Saben que no van a construir [inteligencia artificial general] ellos mismos, sino que se la harán a ellos, así que les conviene que los países que la van a construir se comuniquen entre sí”.
Los países que se cree que tienen más probabilidades de desarrollar IAG son, por supuesto, Estados Unidos y China; sin embargo, estas naciones parecen más interesadas en superarse mutuamente que en colaborar. En enero, después de que la startup china DeepSeek lanzara un modelo de vanguardia , el presidente Trump lo calificó como "una llamada de atención para nuestras industrias" y afirmó que Estados Unidos debía estar "totalmente concentrado en competir para ganar".
El Consenso de Singapur sobre las Prioridades de Investigación en Seguridad Global de la IA exige que los investigadores colaboren en tres áreas clave: estudiar los riesgos que plantean los modelos de IA de frontera, explorar formas más seguras de construir esos modelos y desarrollar métodos para controlar el comportamiento de los sistemas de IA más avanzados.
El consenso se desarrolló en una reunión celebrada el 26 de abril junto con la Conferencia Internacional sobre Representaciones de Aprendizaje (ICLR), un importante evento sobre IA celebrado en Singapur este año.
Investigadores de OpenAI, Anthropic, Google DeepMind, xAI y Meta asistieron al evento sobre seguridad de la IA, así como académicos de instituciones como el MIT, Stanford, Tsinghua y la Academia China de Ciencias. También participaron expertos de institutos de seguridad de la IA de EE. UU., el Reino Unido, Francia, Canadá, China, Japón y Corea.
"En una era de fragmentación geopolítica, esta síntesis exhaustiva de investigación de vanguardia sobre la seguridad de la IA es una señal prometedora de que la comunidad global se está uniendo con un compromiso compartido para dar forma a un futuro de IA más seguro", afirmó Xue Lan, decano de la Universidad de Tsinghua, en un comunicado.
El desarrollo de modelos de IA cada vez más competentes, algunos con capacidades sorprendentes, ha generado preocupación entre los investigadores por diversos riesgos. Si bien algunos se centran en los daños a corto plazo, como los problemas causados por sistemas de IA sesgados o la posibilidad de que delincuentes aprovechen la tecnología , un número significativo cree que la IA puede representar una amenaza existencial para la humanidad a medida que comienza a superar en inteligencia a los humanos en más ámbitos. Estos investigadores, a veces denominados "catástrofes de la IA", temen que los modelos puedan engañar y manipular a los humanos para perseguir sus propios objetivos.
El potencial de la IA también ha alimentado los rumores de una carrera armamentística entre Estados Unidos, China y otras potencias. En los círculos políticos, esta tecnología se considera crucial para la prosperidad económica y el dominio militar, y muchos gobiernos han buscado definir sus propias visiones y regulaciones que rijan su desarrollo.
El debut de DeepSeek en enero agravó los temores de que China pudiera estar alcanzando o incluso superando a EE. UU., a pesar de los esfuerzos por restringir el acceso de China al hardware de IA mediante controles de exportación. Ahora, la administración Trump está considerando medidas adicionales para restringir la capacidad de China para desarrollar IA de vanguardia.
La administración Trump también ha buscado minimizar los riesgos de la IA a favor de un enfoque más agresivo para el desarrollo de la tecnología en Estados Unidos. En una importante reunión sobre IA celebrada en París en 2025, el vicepresidente J. D. Vance afirmó que el gobierno estadounidense quería menos restricciones en torno al desarrollo y la implementación de la IA, y describió el enfoque anterior como "demasiado reacio al riesgo".
Tegmark, el científico del MIT, dice que algunos investigadores de IA están interesados en "cambiar un poco el rumbo después de París" volviendo a centrar la atención en los riesgos potenciales que plantea una IA cada vez más poderosa.
En la reunión de Singapur, Tegmark presentó un documento técnico que cuestionaba algunas suposiciones sobre cómo construir una IA de forma segura. Algunos investigadores habían sugerido previamente que podría ser posible controlar modelos de IA potentes utilizando modelos más débiles. El documento de Tegmark demuestra que esta dinámica no funciona en algunos escenarios simples , lo que significa que podría no ser eficaz para evitar que los modelos de IA fallen.
"Hicimos todo lo posible por cuantificarlo, pero técnicamente no funciona al nivel deseado", dice Tegmark. "Y, como saben, hay mucho en juego".
wired