Imagen conceptual destacada de un puño de piedra masivo y rugoso, que representa el veto de EE. UU., suspendido justo encima de un núcleo de datos de IA central. En el centro del núcleo de IA, el logo orgánico y ramificado de Claude de color terracota está grabado y emitiendo un brillo cálido. La superficie de la IA circundante y los cimientos de piedra están profundamente agrietados. En la parte inferior, el nombre del blog 'https://madoberia.com/'.

El choque total: Trump veta a Anthropic y sacude los cimientos de la IA

La administración Trump ha lanzado un órdago que nadie vio venir con tanta agresividad: el veto total a Anthropic en todas las agencias federales. Lo que empezó como una disputa contractual por el uso militar de su modelo Claude, ha escalado hasta convertir a la empresa en una «amenaza para la seguridad nacional». El motivo es tan simple como profundo: Anthropic se negó a eliminar sus salvaguardas éticas para permitir que el Pentágono use su tecnología en vigilancia masiva y armamento autónomo. El resultado es un divorcio ruidoso que marca un antes y un después en la relación entre el Estado y Silicon Valley.

El ultimátum que lo rompió todo

La tensión no nació ayer. Durante semanas, el Departamento de Guerra —renombrado así por la nueva administración— presionó a la empresa liderada por Dario Amodei. Querían «acceso total y sin restricciones» a sus modelos para aplicaciones de defensa. Sin embargo, Anthropic se mantuvo firme en su «IA Constitucional», alegando que no permitirían que Claude se convirtiera en una herramienta para la toma de decisiones letales autónomas o el espionaje masivo de ciudadanos americanos.

Seré directo: esta es la primera vez que una empresa de tecnología prefiere perder un contrato de 200 millones de dólares antes que comprometer sus principios de seguridad. El viernes pasado, el secretario de Defensa, Pete Hegseth, cumplió su amenaza. Al expirar el plazo, calificó a Anthropic como un «riesgo para la cadena de suministro», una etiqueta que hasta ahora solo conocíamos para empresas extranjeras como Huawei. Es un movimiento agresivo que busca asfixiar financieramente a la compañía, prohibiendo incluso que otros proveedores gubernamentales hagan negocios con ellos.

«Woke AI» y el campo de batalla ideológico

El lenguaje utilizado desde la Casa Blanca no deja lugar a dudas sobre el trasfondo político. El presidente ha calificado a los responsables de Anthropic como «izquierdistas radicales» que intentan imponer su ideología por encima de la Constitución. Pero, ¿es ideología o es simple prudencia tecnológica? Anthropic sostiene que una IA sin controles puede cometer errores catastróficos en el campo de batalla. Pero para la administración actual, estas limitaciones son obstáculos para la supremacía militar estadounidense.

Y mientras Anthropic sale por la puerta de atrás, otros están listos para ocupar su lugar. Lo que me parece llamativo es que OpenAI y xAI (la empresa de Elon Musk) ya han movido ficha para llenar el vacío. Aunque Sam Altman ha dicho que comparte algunas de las líneas rojas de Anthropic, lo cierto es que OpenAI ha firmado nuevos acuerdos con el Pentágono casi de inmediato. Se está dibujando un escenario donde solo las empresas que acepten el «uso legal total» de sus herramientas tendrán acceso a los jugosos contratos estatales.

El irónico despliegue en el mundo real

Hay un detalle en toda esta historia que parece sacado de una novela de espías. Apenas unas horas después de que se anunciara el veto, se reportó que el Comando Central de EE. UU. utilizó precisamente los modelos de Anthropic para analizar objetivos y simular escenarios en ataques recientes en Irán. Es la gran paradoja: el gobierno prohíbe la herramienta por ser «peligrosa» e «ideológica», pero la utiliza hasta el último minuto porque, sencillamente, es de las mejores que existen para el análisis de datos complejos.

Este periodo de transición de seis meses que ha dado el gobierno será caótico. Sacar a Claude de los sistemas de la CIA o la NSA no es como desinstalar una aplicación del móvil. Está profundamente integrado en los flujos de trabajo de inteligencia. La pregunta que todos nos hacemos ahora es si este veto es un caso aislado o el comienzo de una purga tecnológica contra cualquier empresa que intente poner límites éticos al uso de sus algoritmos por parte del Estado.

Una brecha que nos afecta a todos

Personalmente, creo que estamos ante un punto de no retorno en la gobernanza de la IA. Si el gobierno logra doblegar a las empresas mediante etiquetas de «riesgo nacional» por el simple hecho de mantener salvaguardas éticas, el concepto de IA segura podría quedar herido de muerte. No se trata solo de contratos militares; se trata de quién tiene la última palabra sobre el comportamiento de estas máquinas. Si los desarrolladores pierden el control sobre los límites de su propia creación, nos enfrentamos a un futuro donde la tecnología será tan potente como impredecible. ¿Queremos realmente una IA que no tenga permitido decir «no» ante una orden cuestionable? Para cerrar, este veto no es solo una pelea por un contrato, es la batalla por el alma de la inteligencia artificial en Occidente.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *