Ícono del sitio DiarioNoticiasWeb.Org

Mythos: El modelo de IA que Anthropic no se atreve a liberar al mundo

Riesgos reales, estrategia de contención y el futuro de una herramienta capaz de encontrar vulnerabilidades en todos los sistemas del planeta.

Cuauhtémoc Valdiosera*

El nacimiento de un Modelo Inédito

El mundo de la inteligencia artificial observó con atención inusual el 7 de abril de 2026, cuando Anthropic tomó una decisión que no se veía en el sector desde que OpenAI retuvo su modelo GPT-2 en 2019: Declarar que su más reciente creación, Claude Mythos Preview, había demostrado capacidades notables —e involuntarias— al encontrar y explotar vulnerabilidades de software a una tasa nunca antes vista  (The Conversation) , y que era demasiado peligrosa para ser puesta a disposición del público general. No fue un gesto de modestia corporativa. Fue una señal de alarma.

Mythos —cuyo nombre en clave interno fue ‘Capybara’— se hizo público por primera vez el 26 de marzo de 2026, cuando una mala configuración en el sistema de gestión de contenidos de Anthropic expuso brevemente un borrador del blog de prelanzamiento.  (Claude Mythos) Los investigadores de seguridad Roy Paz (LayerX Security) y Alexandre Pauwels (Universidad de Cambridge) fueron quienes hallaron los documentos. Lo que descubrieron rebasaba cualquier anticipación razonable.

Un documento técnico de 245 páginas publicado junto con el anuncio oficial detalla lo que la empresa presenta como un salto mayor en capacidades. El modelo opera como un ingeniero de software sénior, demostrando la habilidad de detectar errores sutiles y autocorregir sus propios fallos. Además, superó en 31 puntos porcentuales al anterior modelo de vanguardia de Anthropic, Opus 4.6, en la Olimpiada Matemática USAMO 2026.  (Scientific American) Pero esa misma maestría técnica, lo convierte en algo que ningún laboratorio de IA había producido con tanta eficacia: Un arma cibernética de alcance global.

Los riesgos reales: Más allá de la retórica

Para entender la magnitud del riesgo, es necesario comprender qué significa que un modelo de inteligencia artificial encuentre “vulnerabilidades de día cero”. En el mundo de la ciberseguridad, una falla de día cero es desconocida incluso para los propios desarrolladores del software afectado. Anthropic afirma que Mythos puede superar a todos los humanos, excepto a los más especializados, en la identificación y explotación de vulnerabilidades de software. En las pruebas, encontró fallos críticos en todos los sistemas operativos y navegadores web de uso masivo.  (Scientific American)

El Instituto de Seguridad en IA del Reino Unido (AISI), al que se le concedió acceso anticipado, verificó de forma independiente que el modelo completó con éxito tareas de hackeo de nivel experto el 73 por ciento de las veces. Antes de abril de 2025, ningún modelo de IA podía completar esas tareas en absoluto.  (Scientific American)

El propio Proyecto Glasswing revela la escala del problema: En pocas semanas de prueba, Mythos Preview identificó miles de vulnerabilidades de día cero —es decir, fallos previamente desconocidos para los desarrolladores— en todos los principales sistemas operativos y navegadores web, junto con otra gama de software crítico.  (Anthropic)

El impacto fue inmediato en los mercados y en los organismos reguladores. Los bancos alemanes consultaron con autoridades y expertos en ciberseguridad sobre los riesgos, mientras que el Banco de Inglaterra declaró que las pruebas de resistencia ante riesgos de inteligencia artificial se habían intensificado tras la aparición de Mythos.  (Scientific American)

El proyecto Glasswing: La apuesta de Anthropic

Anthropic afirmó que Mythos era demasiado peligroso para ser puesto a disposición del público, porque si cae en las manos equivocadas podría dar a actores maliciosos —cibercriminales, terroristas, gobiernos hostiles— acceso a las puertas traseras y puntos débiles de todos los sistemas de software del mundo simultáneamente.  (The Ringer)

Frente a este diagnóstico, Anthropic optó por una estrategia inédita. Presentó el Proyecto Glasswing, una iniciativa para asegurar el software más crítico del mundo impulsada por su modelo más capaz. El proyecto reúne a Amazon Web Services, Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Linux Foundation, Microsoft, NVIDIA y Palo Alto Networks como socios de lanzamiento, además de más de cuarenta organizaciones adicionales que construyen o mantienen infraestructura de software crítica.

Glasswing está diseñado para ser controlado de forma estricta y evitar que actores adversariales ganen acceso a Mythos. Anthropic ha comprometido cien millones de dólares en créditos de uso del modelo, además de cuatro millones en donaciones directas para apoyar el trabajo de organizaciones de seguridad de código abierto.  (Just Security)

El mecanismo es elegante en su lógica: al lanzar este modelo inicialmente a un grupo limitado de socios críticos de la industria y a desarrolladores de código abierto con el Proyecto Glasswing, Anthropic busca que los defensores puedan comenzar a asegurar los sistemas más importantes antes de que modelos con capacidades similares estén ampliamente disponibles.  (Anthropic)

Voces críticas: ¿Marketing o emergencia real?

No todos en la comunidad de la ciberseguridad aceptaron sin cuestionamiento la narrativa de Anthropic. Bruce Schneier, uno de los analistas de seguridad más respetados del mundo, señaló que el anuncio fue en gran medida una jugada de relaciones públicas que funcionó muy bien, con muchos periodistas repitiendo los puntos de conversación de Anthropic sin analizarlos críticamente.  (Schneier on Security)

Algunos analistas creen que Mythos revolucionará la forma en que se audita el software —Forrester llegó a afirmar que Anthropic es ahora el socio más importante para cada empresa de ciberseguridad—, mientras que otros creen que se trata de exageración de marketing. El crítico de IA Ed Zitron calificó el anuncio de paparruchas a medias, sub-Guerra de los Mundos.  (The Ringer) Entre ambos extremos, hay analistas que describieron el escenario como un potencial bugmaggedon, capaz de destruir el paisaje tecnológico tal como lo conocemos.

El problema que no puede resolverse sólo con restricciones

Existe una paradoja fundamental en la estrategia de Anthropic: restringir el acceso solo compra tiempo. Otras empresas de modelos frontera como OpenAI y Google probablemente desarrollarán capacidades similares. De forma más significativa, las empresas chinas de IA han igualado repetidamente a los modelos frontera estadounidenses en cuestión de meses, en parte destilando capacidades a partir de esos mismos modelos. Restringir el acceso a Mythos puede ralentizar ese proceso, pero no evitará que capacidades de nivel Mythos se vuelvan más ampliamente disponibles.  (Just Security)

Una preocupación aún mayor proviene de los modelos de código abierto, que pueden descargarse y usarse de forma privada sin monitoreo, y pueden ser “descensurados”, eliminando cualquier salvaguarda implementada por los desarrolladores originales. Un análisis reciente de Epoch AI estimó que la brecha de capacidades entre modelos frontera propietarios y de código abierto es de apenas tres meses en promedio.  (Centre for Emerging Technology and Security).

La situación se complicó cuando Bloomberg reveló que un pequeño grupo de usuarios no autorizados accedió a Mythos el mismo día en que Anthropic anunció el plan para liberarlo a un número limitado de organizaciones para su prueba.  (Bloomberg) El modelo declarado demasiado peligroso para el público fue accedido por actores no autorizados en horas.

El futuro de Mythos: Tres escenarios

Desde la perspectiva del análisis estratégico de la UIA de Valdiosera, el futuro de Mythos y sus sucesores puede articularse en tres escenarios no excluyentes.

El escenario optimista: si Glasswing funciona como Anthropic espera, los defensores habrán parcheado las vulnerabilidades más críticas de los sistemas globales antes de que actores maliciosos puedan explotarlas. La IA habría producido la primera gran limpieza masiva de código inseguro en la historia de la computación. En el corto plazo, mientras el acceso a Mythos Preview permanezca restringido a organizaciones que buscan endurecer sus defensas, la esperanza es que el modelo continúe siendo utilizado para encontrar y parchear vulnerabilidades en software crítico que de otro modo podrían ser aprovechadas por actores maliciosos.  (Centre for Emerging Technology and Security)

El escenario de la carrera asimétrica: Los defensores avanzan, pero los atacantes obtienen capacidades equivalentes a ritmos similares. Un reporte de 2025 encontró que en promedio más del 45 por ciento de las vulnerabilidades de seguridad descubiertas en grandes organizaciones permanecen sin parchear después de doce meses. Y muchas organizaciones responsables de infraestructura crítica aún operan software obsoleto que ya no recibe soporte de ningún proveedor, incluyendo código de décadas de antigüedad.  (Centre for Emerging Technology and Security)

El escenario de la proliferación sin gobernanza: el más perturbador. La administración Trump ha adoptado un enfoque limitado, dejando a las propias empresas de IA decidir qué salvaguardas implementar. Las salvaguardas solo pueden funcionar como estrategia si se implementan en todos los modelos que adquieran capacidades nuevas y potencialmente peligrosas, incluyendo los modelos chinos de código abierto. Esto requerirá regulación y negociación para lograrse.  (Just Security)

Análisis final: Lo que Mythos revela sobre nosotros

Más allá de los detalles técnicos y las maniobras corporativas, Mythos es un espejo. Revela que la inteligencia artificial ha cruzado un umbral que muchos anticipaban pero pocos esperaban ver tan pronto: el punto en que un sistema de propósito general supera a la mayoría de los humanos especializados en tareas con consecuencias directas sobre la seguridad global.

Mythos y el Proyecto Glasswing señalan la velocidad a la que están llegando nuevas capacidades de IA potencialmente peligrosas, y los desafíos de mitigar sus riesgos antes de que proliferen ampliamente. Mythos ya está forzando una confrontación con problemas de ciberseguridad largamente no resueltos. Pero también es un presagio de los dilemas de seguridad y gobernanza que las empresas de IA y los gobiernos enfrentarán al habilitar la adopción segura de modelos progresivamente más poderosos.  (Just Security)

Anthropic merece crédito por haber elegido la transparencia sobre el silencio. El Proyecto Glasswing es imperfecto, pero es una respuesta más responsable que el lanzamiento irrestricto al mercado. Sin embargo, la pregunta que Mythos plantea no puede ser respondida por una empresa ni por un proyecto, por bien financiado que esté: ¿cómo gobierna la humanidad herramientas que nadie pidió permiso para construir, que nadie puede retener indefinidamente y que nadie puede hacer desaparecer? Esa pregunta es política, filosófica y civilizatoria. Y el reloj que mide el tiempo disponible para responder lleva meses corriendo.

* Director General de la Unidad de Inteligencia Artificial Informativa de Valdiosera (UIA de Valdiosera), think tank independiente dedicado al análisis estratégico, la prospectiva y el estudio del impacto de la inteligencia artificial en la sociedad. Con sede en la Ciudad de México.
Salir de la versión móvil