Mientras los titulares globales siguen el pulso de los conflictos en Medio Oriente, una guerra silenciosa se libra en los servidores de Silicon Valley. La pregunta ya no es si la inteligencia artificial llegará al campo de batalla, hace tiempo que está ahí. La pregunta que sacude a millones de usuarios, gobiernos y tomadores de decisión en todo el mundo es: ¿qué valores están dispuestas a defender las empresas que controlan estas tecnologías, y a qué costo?
Esta no es una discusión técnica. Es una discusión política, ética y geopolítica, y su impacto se siente con igual fuerza en la Unión Europa y en América Latina. Mientras Europa avanza hacia una regulación ambiciosa de la IA y América Latina empieza a construir sus propias posiciones institucionales, las decisiones de países como Estados Unidos redefinen el tablero global antes de que la mayoría de los países hayan tenido oportunidad de sentarse a la mesa.
Europa ante el dilema: regular sin quedarse atrás
La Unión Europea fue pionera en intentar poner orden en el ecosistema de la IA. El AI Act europeo, que entró en vigor de forma gradual desde 2024, es el marco regulatorio más ambicioso del mundo en esta materia. Prohíbe explícitamente ciertos usos de la IA que considera incompatibles con los derechos fundamentales. Entre ellos, los sistemas de puntuación social y la vigilancia biométrica masiva en espacios públicos.
Sin embargo, el conflicto entre Anthropic y el gobierno de EEUU expone una tensión que Europa no puede ignorar. Las herramientas de IA que utilizan las instituciones, ejércitos y ciudadanos europeos, en su mayoría, son de origen estadounidense. La soberanía tecnológica es uno de los grandes debates de la política digital europea. Cobra una dimensión completamente nueva cuando esas herramientas empiezan a operar bajo contratos con el Departamento de Guerra de EEUU, con o sin «líneas rojas» negociadas.
La pregunta que varios gobiernos europeos se hacen hoy es legítima y urgente. Si las empresas que proveen la infraestructura de IA pueden ser presionadas por un gobierno para retirar salvaguardas éticas, ¿qué garantías reales tiene Europa sobre el uso de estas tecnologías en su propio territorio y en sus operaciones de cooperación internacional?

América Latina: dependencia y oportunidad
En América Latina, la discusión sobre IA y conflicto armado tiene una textura particular. La región no es ajena a la militarización de la tecnología. Brasil, Chile, Colombia y Mexico usan la IA para identificar amenazas en tiempo real, proteger la infraestructura crítica nacional y desarrollar drones para la vigilancia de fronteras. Sin embargo, en general la región no cuenta aún con marcos regulatorios robustos. Tampoco con una industria de IA propia capaz de competir a escala global.
Lo que sí tiene la región es una posición geopolítica que podría ser estratégica. América Latina no es parte directa de los grandes bloques en conflicto. Eso le da, en teoría, margen para construir una agenda propia en torno a la gobernanza de la IA, que respete parámetros éticos asegurando la protección de los derechos humanos de los ciudadanos.
[Lee: Edición Especial: El fin del orden]
El gran reto de los gobiernos lationamericanos es estar a la vanguardia de los usos y regulaciones de la IA en el espectro geopolítico de defensa, sin perder de vista el sentir de los ciudadanos (usuarios). La deserción masiva de usuarios de ChatGPT tras el acuerdo con el Departamento de Guerra, y el entendimiento de que los datos pueden ser usados para procesos de vigilancia masiva, no fue solo un fenómeno norteamericano, fue global. Habla de una conciencia ciudadana creciente sobre el vínculo entre las plataformas de uso diario y las decisiones geopolíticas que se toman en su nombre.
América Latina no puede darse el lujo de ser espectadora en la gobernanza global de la IA. Su historia con modelos autoritarios que restringen libertades individuales obliga a tener voz propia.
IA en defensa y seguridad: no es reciente
Las alertas de la comunidad internacional sobre el uso de la IA en defensa y seguridad comenzaron en 2012, con la publicación de la Directiva No. 3000.09 del Departamento de Defensa de EEUU. Establece políticas para el desarrollo y uso de funciones autónomas y semiautónomas en sistemas de armas. Sin embargo, fue la aceleración exponencial de los modelos de IA generativa, y su integración en aplicaciones civiles de uso masivo, lo que transformó este debate de nicho en una conversación de alcance global.
No existe aún un acuerdo global sobre la definición de los Sistemas de Armas Autónomas (AWS, por sus siglas en inglés). El Ministerio de Defensa del Reino Unido los definió en 2011 como sistemas capaces de comprender la intención de un nivel superior y tomar acciones adecuadas para lograr el estado deseado. El Departamento de Defensa de EEUU, en una actualización de 2023, los describe como sistemas capaces de seleccionar y atacar objetivos sin intervención adicional de un operador humano.
[Lee: IA, los drones y el futuro de la defensa]
Esta ausencia de definición compartida no es un detalle técnico, es una brecha política. Impide construir marcos de regulación efectivos a nivel internacional, y que deja a los países en desarrollo en una posición de particular vulnerabilidad frente a las decisiones de los actores más poderosos.

Carrera global por la IA en un contexto de conflicto activo
Hoy, la IA se utiliza en defensa y seguridad de múltiples maneras: optimizando logística, procesando inteligencia masiva, comandando sistemas de drones y dando forma a decisiones estratégicas en tiempo real. Empresas como Palantir, que coopera estrechamente con EEUU, Ucrania y la OTAN, consolidaron un modelo de negocio basado en el análisis de datos para la recopilación de inteligencia, vigilancia y contra el terrorismo.
Con el estallido del conflicto entre EEUU, Israel e Irán, otros actores de IA generativa entraron al debate público. Y las decisiones tomadas por las dos empresas más influyentes del sector, Anthropic y OpenAI, ilustran de forma nítida las tensiones que atraviesan todo este ecosistema.

OpenAI y Anthropic: dos respuestas ante la misma presión
Desde 2024, Anthropic cooperaba con el Departamento de Defensa de EEUU. Su modelo Claude fue adoptado por agencias de seguridad nacional para aplicaciones de misión crítica: análisis de inteligencia, modelado y simulación, planificación operativa y operaciones cibernéticas. Sin embargo, cuando la empresa intentó negociar condiciones que prohibieran el uso de su tecnología para vigilancia ciudadana y para el desarrollo de armas autónomas sin supervisión humana, la respuesta del gobierno fue contundente.
El secretario de Defensa Pete Hegseth calificó a Anthropic como «riesgo en la cadena de suministro». El presidente Trump fue más directo: «¡No lo necesitamos, no lo queremos y no volveremos a hacer negocios con ellos!». La empresa fue, en la práctica, expulsada del ecosistema de contratación federal.
OpenAI tomó el camino opuesto. Firmó un acuerdo con el Departamento de Guerra cuyo objetivo declarado es apoyar al ejército estadounidense ante las crecientes amenazas de posibles adversarios. El acuerdo establece tres «líneas rojas» que el Departamento de Defensa supuestamente no cruzará:
- No utilizar la tecnología OpenAI para la vigilancia doméstica masiva.
- No utilizar la tecnología OpenAI para dirigir sistemas de armas autónomos.
- No utilizar la tecnología OpenAI para decisiones automatizadas de alto riesgo, como los sistemas de crédito social.
La reacción fue inmediata: en los dos días siguientes al anuncio, más de 1.5 millones de usuarios abandonaron la plataforma. El mercado habló en términos comerciales y políticos.
Quién decide cuando deciden los algoritmos
La cuestión central no es si las máquinas son mejores que los humanos. Es cómo opera actualmente el equipo humano-máquina, cómo se configurará en el futuro y qué consecuencias tienen esas configuraciones. EEUU afirma que siempre habrá un humano informado cuando la IA tome decisiones sobre si matar o no a alguien. Pero lo fáctico es que quien pueda observar, pensar y decidir más rápido ganará la batalla, y el humanos puede ralentizar ese proceso.
Una de las preocupaciones centrales de Anthropic es que el gobierno pueda usar la IA para socavar los valores democráticos a través de la vigilancia masiva de ciudadanos, el análisis de datos para fines de control político, y el desarrollo de armas totalmente autónomas que no pueden ejercer el juicio crítico de un ser humano.
En este nuevo contexto, no se ha decidido cuál será el papel de los humanos en la guerra. Esa indefinición dificulta escribir las reglas del uso de la IA en conflictos armados con antelación, y con legitimidad democrática.
Agenda común para Europa y América Latina
Frente a este panorama, Europa y América Latina comparten más intereses de los que a veces reconocen. En gran medida, ambas regiones son usuarias y no productoras de las tecnologías de IA más avanzadas. Ambas tienen tradiciones democráticas y marcos de derechos humanos que entran en tensión directa con los usos militares y de vigilancia de la IA. Y ambas están siendo excluidas de facto de las decisiones más importantes sobre cómo se gobiernan estas tecnologías.
Construir puentes entre la regulación europea y las demandas emergentes de América Latina podría ser una de las contribuciones más significativas al debate global. No para frenar la IA, sino para asegurarse de que su desarrollo no reproduzca, ni amplíe, las desigualdades y violencias que ya conocemos.
La guerra que se libra hoy en los servidores de Silicon Valley no es ajena a nadie. Sus consecuencias llegarán. En muchos casos, ya llegaron a cada ciudadano que usa un chatbot, a cada gobierno que contrata servicios en la nube, y a cada comunidad que vive bajo la sombra de un conflicto armado. La pregunta es si vamos a seguir siendo espectadores, o si vamos a tomar asiento en la mesa de discusión y decisión.
Te puede interesar:
- ⁠ ¿Quién decide cuando deciden los algoritmos?
- ⁠ Manual #5 Inteligencia artificial y el futuro de la política
- ⁠ IA, los drones y el futuro de la defensa