El gobierno de Singapur publicó un plan de colaboración mundial para la seguridad de la inteligencia artificial después de una reunión de investigadores estadounidenses, China y Europa.
El documento expone una visión compartida para trabajar en la seguridad de la IA a través de la cooperación internacional en lugar de la competencia.
“Singapur es uno de los pocos países del planeta que se lleva tanto con Oriente como con Occidente. Saben que no construirán inteligencia artificial general (AGI), por lo que están muy interesados en que los países que lo construyan mantengan una buena relación entre sí”, dice Max Tegmark, un científico del MIT que ayudó a la reunión de luminarias de la IA Última Mes.
La visa dorada de Trump de cinco millones de dólares está un paso más cerca gracias a Musk Doge
Donald Trump quiere lanzar un programa de “visa de oro” que ofrece la residencia estadounidense a los millonarios. El duxt de Elon Musk ya comenzó a mostrar la tecnología necesaria.
La mayor posibilidad de construir países son Estados Unidos y China
Paradójicamente, los países con más probabilidades de construir un AGI también son los menos dispuestos a cooperar. En enero, después del lanzamiento de un modelo de vanguardia por el puesta en marcha China Depseek, el presidente Trump lo describió como “un llamado a la atención para nuestras industrias estadounidenses” y declaró que Estados Unidos debería “centrarse en competir para ganar”.
El consenso de Singapur sobre las prioridades globales para la investigación de seguridad de IA Pida a los investigadores que colaboren en tres áreas clave: Estudie los riesgos planteados por los modelos de IA fronteriza, explore formas más seguras de construir estos modelos y desarrollar métodos para controlar el comportamiento de los sistemas de inteligencia artificial más avanzados.
Este consenso se preparó durante una reunión celebrada el 26 de abril, en paralelo a la Conferencia Internacional sobre Representaciones de Aprendizaje (ICLR), uno de los principales eventos de IA celebrados este año en Singapur. Openai, Anthrope, Google Deepmind, Xai y Meta, así como MIT Academics, Stanford, la Universidad de Tsinghua y la Academia de Ciencias de China. También participaron expertos de la IA de los Estados Unidos, Reino Unido, Francia, Canadá, China, Japón y Corea del Sur.
“En una era de fragmentación geopolítica, esta exhaustiva síntesis de la investigación de AI de AI es una señal prometedora de que la comunidad mundial se une a un compromiso compartido para dar forma a un futuro más seguro de la inteligencia artificial”, dice una declaración firmada por Xue Lan, decano de la Universidad de Tsinghua, China.
-El desarrollo de modelos de IA cada vez más poderosos, algunos con habilidades sorprendentes, ha generado preocupación por una amplia gama de riesgos. Si bien algunos se centran en el daño a corto plazo, como los sesgos de sistemas o su posible uso por parte de los delincuentes, otros creen que la IA podría representar una amenaza existencial para la humanidad si superaría la inteligencia humana en múltiples áreas. Este último, a menudo llamado “catástrofistas de la IA”, teme que los modelos puedan engañar o manipular a los humanos para lograr sus propios objetivos.

Si AI puede hacer su trabajo, el problema no es el AI
Así como creativos mediocres, ¿será que las compañías que no tienen nada que decir serán las primeras en desaparecer? O simplemente estamos viendo el comienzo de una era donde la creatividad continuará siendo promedio¿Solo ahora conducido por AI?
Entre catástrofistas de IA y precaución de la tecnología
El potencial de la IA también ha intensificado debates sobre una carrera armamentista entre Estados Unidos, China y otros poderes. En los círculos políticos, esta tecnología se considera clave para la prosperidad económica y el dominio militar, lo que ha llevado a varios gobiernos a definir sus propias visiones y regulaciones.
En enero, el debut de Deepseek intensificó los temores que China está llegando, o incluso superando a los Estados Unidos, a pesar de los intentos de los Estados Unidos de limitar el acceso de China a China a hardware de IA a través de controles de exportación. Ahora, la administración Trump estudia medidas adicionales para restringir la capacidad de China para desarrollar avanzado.
Además, esta administración ha minimizado los riesgos de IA a favor de una posición más agresiva en su desarrollo. En una cumbre importante sobre IA celebrada en París en 2025, el vicepresidente JD Vance dijo que el gobierno de los Estados Unidos quería menos restricciones al desarrollo y el despliegue de IA, calificando el enfoque anterior como “demasiado renacido para el riesgo”.
Tegmark señala que algunos investigadores están comenzando a “cambiar las reglas un poco después de París”, llamando la atención a los riesgos de una IA cada vez más poderosa. Durante la reunión en Singapur, el científico del MIT presentó un documento técnico que cuestiona ciertas suposiciones sobre la seguridad en la IA. Algunos investigadores habían declarado que sería posible controlar modelos avanzados utilizando otros más simples. Sin embargo, el estudio muestra que esta estrategia falla en ciertos escenarios básicos, lo que sugiere que podría no funcionar para evitar el comportamiento no controlado. “Hemos hecho todo lo posible para cuantificar esto y, técnicamente, no funciona en el nivel que nos gustaría. Hay mucho en juego”, concluye Tegmark.
Artículo publicado originalmente en Cableado. Adaptado por Alondra Flores.