singapur – Los sistemas de inteligencia artificial (IA) capaces de realizar operaciones autónomas presentan desafíos únicos para la sociedad, planteando preguntas críticas sobre la responsabilidad cuando la tecnología falla y cuando los humanos pierden el control sobre ella.

“¿Quién tiene la culpa si el agente AI sale mal?” El 22 de octubre, la ministra de Información y Desarrollo Digital, Josephine, preguntó a Teo.

Ya sea IA agente o computación cuántica, que explota las leyes de la mecánica cuántica para resolver problemas complejos, ambas requieren algo nuevo por parte de los responsables políticos, afirmó.

Singapur adoptará un enfoque proactivo, práctico y colaborativo para gestionar estas tecnologías emergentes, incluso antes de que sus efectos puedan predecirse plenamente, afirmó la señora Teo.

Se dirigió a un panel sobre IA en el segundo día de la conferencia Cyber ​​​​Week Internacional de Singapur, donde anunció tres nuevas iniciativas para guiar el uso de la IA y la computación cuántica.

Estas iniciativas incluyen una actualización

Orientación de la Agencia de Seguridad Cibernética (CSA)

Sobre la seguridad de los sistemas de IA, un acuerdo con las principales empresas de tecnología para compartir inteligencia impulsada por la IA sobre amenazas cibernéticas, así como el lanzamiento de un documento de seguridad y preparación cuántica para consulta pública.

La IA ya se está utilizando para aumentar la confusión y las estafas, y también ha alimentado temores sobre el desempleo sistémico y la guerra cibernética.

Mientras tanto, la computación cuántica, con su capacidad para procesar números a velocidades increíbles, podría romper el cifrado actual y amenazar los cimientos de los sistemas digitales, cambiando potencialmente la forma en que la gente piensa sobre la confianza.

Ambas tecnologías exigen una acción inmediata por parte del gobierno, afirmó Teo.

Sugiere tres objetivos en este punto: generar confianza con los ciudadanos, garantizar que los marcos y experimentos para la IA y la computación cuántica sean relevantes y tomar medidas sólidas y oportunas.

Para generar confianza con los ciudadanos, los gobiernos deben establecer marcos prácticos para probar, validar y rendir cuentas de los riesgos asociados con los agentes de IA y la computación cuántica, incluso cuando no ejerzan control. Y debe hacerse antes de que los sistemas se implementen a escala, porque para entonces puede que sea demasiado tarde para abordar los peligros, afirmó.

Para el segundo objetivo, dijo que se deben proporcionar espacios seguros para la experimentación con barandillas adecuadas, de modo que las herramientas y estructuras desarrolladas sean aplicables al mundo real.

En tercer lugar, dijo, las autoridades deben actuar con rapidez.

“En muchos casos, conocemos el costo de no actuar con suficiente antelación: la brecha digital, la desinformación, la confusión, los daños y estafas en línea, por ejemplo. Intentemos no cometer el mismo error con la IA y la cuántica”, afirmó.

Por ejemplo, en Singapur, La IA agente ofrece un enorme potencial para mejorar la prestación de servicios públicos, anticipar las necesidades de los ciudadanos y mejorar la ciberseguridad nacional, pero es fundamental identificar sistemáticamente los riesgos antes de otorgar autonomía a los sistemas de IA, afirmó.

También dijo que las garantías deben ser prácticas y mensurables.

Con este fin, el gobierno desarrollará directrices de la CSA para incluir redes de IA agentes y directrices complementarias para proteger los sistemas de IA. A través del despliegue real, las agencias gubernamentales también “aprenden a actuar”, afirmó el ministro.

La iniciativa GovTech-Google Cloud Sandbox, por ejemplo, está abierta al público Pruebas y evaluación de la agencia Las últimas capacidades de IA agente de Google desarrollan medidas de mitigación y riesgos.

“Al observar cómo se comportan estos sistemas (y a veces fallan) aprendemos qué barandillas son realmente necesarias”, dijo.

El gobierno está adoptando un enfoque sectorial específico para la gestión de riesgos, asegurando que las medidas administrativas sean proporcionales a los peligros potenciales, dijo, añadiendo que, en última instancia, las personas son las responsables.

Mientras tanto, también ha tomado medidas para ayudar a las empresas a gestionar los riesgos de la tecnología cuántica.

A pesar de la creciente conciencia sobre las amenazas a los sistemas criptográficos actuales, pocas organizaciones han comenzado el proceso de pasar a una migración cuántica segura, o sistemas que puedan soportar poderosas computadoras cuánticas y proteger los datos.

Es probable que esto se deba a la incertidumbre sobre el desarrollo y a la falta de orientación específica, una brecha que la CSA abordará, añadió.

La agencia lanzará dos recursos para consulta pública.

Se trata del Quantum Readiness Index, una herramienta que ayuda a las organizaciones a comprender qué tan preparadas están para las amenazas de cifrado; y el Manual de seguridad cuántica, que proporciona orientación, especialmente para propietarios de infraestructuras de información críticas y agencias gubernamentales, para prepararse para la transición a la criptografía de seguridad cuántica.

La gobernanza exitosa de estas tecnologías requerirá cooperación internacional, afirmó la Sra. Teo.

Esto se debe a que un avance en la computación cuántica en cualquier lugar afectará el cifrado en todas partes, y una vulnerabilidad en el sistema de un país puede tener consecuencias globales.

Sugirió que la cooperación internacional debe pasar de la política a la práctica, por ejemplo a través de diferentes sistemas y estructuras de gobernanza que operen en todos los países. De esta manera, las empresas pueden probar los sistemas de inteligencia artificial de sus agentes una vez y cumplirlos a nivel mundial.

Singapur está tomando medidas proactivas para abordar el desafío de la IA agente a nivel internacional mediante la publicación de las Directrices y la Guía complementaria de la CSA sobre la protección de sistemas de IA para consulta pública.

En la Conferencia Ministerial de la ASEAN sobre Ciberseguridad del mismo día, la Sra. Teo anunció una colaboración entre Microsoft y el Centro de Excelencia de Ciberseguridad ASEAN-Singapur de Singapur, que se centrará en el uso de la IA para la seguridad cibernética, entre otras iniciativas..

CSA firmará memorandos de entendimiento con importantes empresas tecnológicas, incluidas Google, Amazon Web Services y TRM Labs, para compartir inteligencia basada en inteligencia artificial sobre amenazas cibernéticas y permitir operaciones conjuntas contra actividades maliciosas.

Mencionó la asociación de Singapur con Google.

Funciones avanzadas de protección contra fraudes dentro de Google Play Protect

dijo que ya había demostrado beneficios tangibles al bloquear 2,78 millones de instalaciones de aplicaciones maliciosas en 622.000 dispositivos en Singapur para septiembre de 2025.

Durante el panel sobre IA, los panelistas pidieron más asociaciones Son clave para desarrollar una forma proporcionada de gestionar la vulnerabilidad.

Andrew Elliott, director adjunto de Innovación y Habilidades en Seguridad Cibernética del Departamento de Ciencia, Innovación y Tecnología del Reino Unido, dijo: “Mientras luchamos por mantenernos al día, también debemos asegurarnos de que al mismo tiempo estamos impulsando la innovación y tomándola como nuestro objetivo principal”.

Royal Hansen, vicepresidente de ingeniería de seguridad de Google, dijo que la instalación de barandillas impulsaría la adopción, comparando las barandillas estándar con los frenos de los automóviles.

“(No están) ahí para impedirte hacer lo que quieres hacer con el auto, en realidad es para que puedas ajustarlo e ir a la velocidad adecuada en las condiciones adecuadas”, dijo.

“Todo el mundo va a utilizar (la IA agente) de una manera ligeramente diferente, pero necesitan esas barreras para sentirse cómodos y poder aprender”.

La sociedad necesita tener experiencia con la tecnología y estar familiarizada con su funcionamiento para tomar mejores decisiones, añadió.

Mientras tanto, el director de inteligencia artificial de Singapur, el Dr. Hay Ruimin, director adjunto de tecnología digital del Ministerio de Información y Desarrollo Digital, dijo que los agentes de inteligencia artificial también pueden ayudar a mitigar los riesgos tecnológicos.

“Estos agentes no están solos. Puedes tener otros agentes supervisándolos… puede ser más seguro que un agente individual”, dijo.

En última instancia, todas las partes interesadas deben unirse para definir qué se considerará “suficientemente bueno” para un agente de IA, dijo April Chin, codirectora ejecutiva de Resaro, una empresa que desarrolla herramientas de prueba de IA para evaluar la eficacia y la seguridad de la tecnología.

“Siempre se reduce a compensaciones, ¿no es así? No existe una IA perfecta en el mundo”.

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here