AlgoritmiaIA
Tu Blog sobre IA y Automatizaciones
AlgoritmiaIA
Tu Blog sobre IA y Automatizaciones

Anthropic acaba de anunciar su modelo más capaz hasta la fecha. Y ha decidido no ponerlo a disposición del público. No por falta de interés comercial, sino porque la propia empresa lo considera demasiado peligroso. Claude Mythos Preview es una IA que puede encontrar vulnerabilidades de seguridad en cualquier sistema operativo o navegador de forma autónoma, a una velocidad que supera a los mejores investigadores humanos del sector. Eso, en el ecosistema de amenazas que vivimos hoy, es algo que obliga a parar y pensar.
La historia de Mythos empieza, curiosamente, con una filtración. Un error de configuración en una herramienta de gestión de contenidos dejó expuesto accidentalmente un borrador interno de Anthropic que describía el modelo. Lo que parecía una nota técnica menor se convirtió en la noticia del sector. Anthropic confirmó después la existencia del modelo y reconoció que supone, en sus propias palabras, un «salto cualitativo» respecto a todo lo anterior.
Mythos Preview es la siguiente generación por encima de Claude Opus 4.6, el modelo insignia actual disponible en producción. Anthropic lo define internamente como un «cambio de paradigma», con mejoras significativas en tres dimensiones: razonamiento general, programación y ciberseguridad. Pero hay un detalle que lo hace especialmente inquietante: Anthropic no ha entrenado este modelo para tareas de ciberseguridad. Sus capacidades en este ámbito son el resultado colateral de sus habilidades generales de razonamiento y programación. No es una herramienta diseñada para hackear. Es una herramienta que, simplemente, puede hacerlo.
Los datos que ha compartido Anthropic son, como poco, llamativos. En pruebas internas, Mythos Preview encontró bugs en todos los grandes sistemas operativos y navegadores, incluyendo algunos que llevaban décadas sin ser detectados por equipos humanos de seguridad. El modelo reprodujo vulnerabilidades y creó pruebas de concepto para explotarlas en el primer intento en el 83,1% de los casos.
Entre los hallazgos más llamativos: un fallo con 27 años de antigüedad en OpenBSD, una vulnerabilidad en la biblioteca de procesamiento de vídeo FFmpeg que había pasado desapercibida en cinco millones de pruebas automatizadas, y una cadena de vulnerabilidades en el kernel de Linux que permitiría tomar el control total de cualquier máquina desde una cuenta de usuario ordinaria.
Para dar contexto: Claude Opus 4.6, el modelo público más avanzado de Anthropic, encontró en sus pruebas aproximadamente 500 vulnerabilidades de día cero en software de código abierto. Mythos Preview encontró decenas de miles. Estamos hablando de otro orden de magnitud.
Pero ¿qué significa eso en la práctica? Que cualquier actor con acceso a Mythos, sea un equipo de seguridad o un grupo de ciberdelincuentes, dispone de una herramienta capaz de elevar sus capacidades de ataque al nivel de un adversario de estado. Y eso es lo que mantiene en vela a los responsables de Anthropic.
Ante este escenario, Anthropic ha optado por una estrategia que mezcla responsabilidad con urgencia. Ha lanzado el Proyecto Glasswing, una iniciativa de ciberseguridad que compromete hasta 100 millones de dólares en créditos de uso para Claude Mythos Preview, restringido a 12 socios de lanzamiento: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Fundación Linux, Microsoft, Nvidia y Palo Alto Networks, todos ellos con mandato de usarlo exclusivamente para fines defensivos. Más de 40 organizaciones adicionales que construyen infraestructura crítica también recibirán acceso.
La lógica es clara: si Mythos puede encontrar vulnerabilidades mejor que cualquier atacante humano, úsalo para parchearlas antes de que caigan en manos equivocadas. Es una carrera contrarreloj. Menos del 1% de los bugs potenciales descubiertos han sido completamente parcheados hasta ahora. La caja está abierta.
Y OpenAI no está muy lejos. La compañía está finalizando un modelo con capacidades similares a Mythos que lanzará únicamente a un pequeño grupo de empresas a través de su programa «Trusted Access for Cyber». La carrera no es solo tecnológica: es también una carrera por hacer esto bien antes de que alguien lo haga mal.
Vale la pena mencionar lo que este episodio revela sobre el momento en el que estamos. No es solo la noticia de un modelo nuevo. Es la primera vez que una empresa líder del sector frena voluntariamente el despliegue de su propia tecnología más avanzada porque reconoce abiertamente que no está preparada para gestionarla de forma segura. Eso, en una industria que lleva años corriendo sin mirar atrás, es un gesto que merece atención.
El problema ya no es si la IA puede hacer cosas peligrosas. El problema es que ya las hace, y el tiempo para prepararse se acorta. Logan Graham, responsable del equipo de red team de Anthropic, estima que otras compañías de IA tendrán capacidades similares en un plazo de entre seis y dieciocho meses. La pregunta ya no es si esto llegará. Es si llegará antes que las defensas.