lustración de OpenAI, Anthropic y Google unidos para proteger sus modelos de inteligencia artificial frente a amenazas de robo tecnológico.

OpenAI, Anthropic y Google se alían contra el robo de modelos por China

Tres empresas que compiten ferozmente por los mismos clientes, los mismos ingenieros y el mismo futuro han decidido hacer algo que nadie esperaba: compartir información. OpenAI, Anthropic y Google anunciaron la semana pasada una alianza de inteligencia coordinada para frenar el robo masivo de sus modelos por parte de empresas chinas de IA. No es un comunicado de buenas intenciones. Es la primera operación de defensa activa entre laboratorios rivales, y lo que revela sobre el estado actual de la carrera por la IA es, francamente, inquietante.

La técnica que nadie quería admitir en voz alta

El mecanismo en el centro de todo esto se llama destilación adversaria. Funciona así: en lugar de entrenar un modelo desde cero —proceso que cuesta cientos de millones de dólares—, alimentas a un modelo ajeno con millones de preguntas cuidadosamente diseñadas, registras sus respuestas y usas ese corpus para entrenar el tuyo propio. En esencia, estás extrayendo el conocimiento de otro sistema sin pagar por él, sin sus licencias y, esto es lo realmente problemático, sin sus capas de seguridad.

Anthropic documentó 16 millones de estos intercambios provenientes de tres empresas chinas concretas: DeepSeek, Moonshot AI y MiniMax. Las cuentas involucradas superaban las 24.000, todas creadas de forma fraudulenta. Las estimaciones de funcionarios estadounidenses cifran el coste anual de esta práctica para los laboratorios americanos en miles de millones de dólares. Y lo sabían. Llevaban tiempo sabiéndolo. Pero hasta ahora cada uno gestionaba el problema por su cuenta.

El Frontier Model Forum deja de ser un club de buenas intenciones

Fundado en 2023 por OpenAI, Anthropic, Google y Microsoft, el Frontier Model Forum ha funcionado hasta ahora como un espacio para compromisos de seguridad y comunicados de cara a los reguladores. Útil en papel, irrelevante en la práctica. Esta semana cambió de función de forma bastante drástica.

Por primera vez, las tres compañías están introduciendo datos reales de patrones de ataque en un sistema compartido de detección de amenazas. Es decir, si Anthropic detecta un nuevo método de extracción desde cuentas fraudulentas, esa información llega a OpenAI y a Google casi en tiempo real. El foro pasa de ser un escaparate a convertirse en algo parecido a una operación de inteligencia.

Y que empresas que compiten por los mismos contratos empresariales hayan decidido hacer esto juntas dice mucho. Cuando rivales de este calibre cruzan una línea así, es porque algo ha superado un umbral que ninguno puede gestionar por separado.

El problema real no es el dinero: es el alineamiento

Hay que decirlo con claridad, porque en la cobertura mediática de esta historia se pierde con frecuencia: el daño económico es enorme, sí, pero no es el argumento más sólido para entender por qué esto importa tanto.

Cuando una empresa extrae el comportamiento de Claude o de GPT mediante destilación adversaria, no se lleva el modelo completo. Se lleva una aproximación funcional. Y esa aproximación no incluye, al menos no de forma limpia, las capas de entrenamiento de seguridad, los filtros de rechazo ante contenido dañino ni el trabajo de alineamiento que los laboratorios llevan años refinando. Un clon de frontera sin esas capas, desplegado a escala gubernamental para vigilancia o desinformación, es una amenaza de una naturaleza completamente diferente.

Anthropic lo ha señalado explícitamente en sus comunicaciones sobre seguridad nacional. Pero, como suele pasar con los argumentos más serios, ha tardado en recibir la atención que merece.

Pero hay algo más que vale la pena mencionar: el caso de DeepSeek, la empresa china señalada como la principal fuente de estas extracciones, resulta especialmente revelador. Su modelo R1, lanzado a principios de 2025, generó un pánico inmediato en la industria americana precisamente porque sus capacidades eran difíciles de explicar sin asumir algún tipo de transferencia de conocimiento desde modelos occidentales. OpenAI presentó incluso un memo formal al Comité Selecto de la Cámara de Representantes sobre China. Lo que antes era una acusación implícita, ahora tiene números detrás.

¿Qué cambia a partir de ahora?

La coordinación entre los tres grandes es un paso real. Pero tiene límites evidentes. La destilación adversaria es técnicamente difícil de probar con la solidez jurídica necesaria para actuar legalmente en jurisdicciones internacionales. Y las empresas señaladas —DeepSeek, Moonshot AI, MiniMax— operan en un entorno regulatorio donde las normas americanas tienen poca tracción directa.

¿Esto frena el problema o simplemente lo encarece? Probablemente lo segundo, al menos a corto plazo. Quien quiera extraer de estos modelos tendrá que hacerlo con métodos más sofisticados, más distribuidos, más difíciles de detectar. La carrera no termina aquí. Evoluciona.

Una alianza que revela más de lo que resuelve

Para cerrar: lo más revelador de esta historia no es que las empresas se hayan aliado, sino lo que esa alianza admite implícitamente. Que los modelos más avanzados del mundo son vulnerables a una técnica de copia relativamente accesible. Que las barreras de entrada a la IA de frontera son más porosas de lo que parecen desde fuera. Y que el debate sobre quién controla la IA más potente del planeta tiene ya una dimensión geopolítica que no va a desaparecer.

Que tres competidores directos hayan decidido compartir inteligencia de amenazas en lugar de seguir gestionándolas en silencio es, en sí mismo, una señal de que algo ha cambiado. No sé si para mejor o para peor. Pero definitivamente ha cambiado.

Fuentes

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *