
El martes la Casa Blanca convocó una reunión confidencial con los monopolios tecnológicos y financieros porque la inteligencia artificial es capaz de detectar y analizar vulnerabilidades de seguridad en los principales sistemas bancarios y financieros mundiales.
En otras palabras, la inteligencia artificial ha entrado en contradicción con la ciberseguridad de sistemas críticos como las finanzas o la energía nuclear.
El director nacional de ciberseguridad, Sean Cairncross, el vicepresidente J.D. Vance y el secretario del Tesoro, Scott Bessent, convocaron a varios dirigentes clave de los sectores tecnológico y financiero para analizar la inteligencia artificial como una amenaza.
Cairncross coordina la respuesta del gobierno reuniendo a varias instituciones para identificar vulnerabilidades en infraestructuras críticas y fortalecer los sistemas que podrían ser explotados por ataques con inteligencia artificial.
El nuevo modelo de Anthropic aún no se ha lanzado porque toda la industria de la ciberseguridad necesita adaptarse, y esto no avanza tan rápido como el progreso de la inteligencia artificial.
El temor es que los nuevos modelos de inteligencia artificial identifiquen con demasiada rapidez las vulnerabilidades de “día cero”, es decir, fallos de seguridad desconocidos que no tienen antídoto y pueden ser explotadas con demasiada rapidez, sin dar tiempo a las empresas para corregir los agujeros de seguridad.
Entre los modelos mencionados se encuentra Mythos, desarrollado por Anthropic. El modelo se ha implementado en un grupo muy selecto de empresas, incluidas Apple, Google, Microsoft, Nvidia, Palo Alto Networks y CrowdStrike. Considerada demasiado potente para su lanzamiento público, sobre todo por su capacidad para detectar y explotar vulnerabilidades en los programas informáticos, se está probando previamente para corregir cualquier posible fallo antes de su implementación generalizada.

