miércoles, marzo 4, 2026
InicioOpiniónColaboradoresCódigos de guerra: la carrera por dominar la IA estatal

Códigos de guerra: la carrera por dominar la IA estatal

Por Alba Lobera (MundoViperino)

La postura más crítica advierte que los Estados están delegando su soberanía en sistemas de IA controlados por el sector privado estadounidense. Al trasladar el análisis de inteligencia y la gestión militar a códigos propietarios no auditables, el control democrático se diluye. En la práctica, aunque el Estado figure como la autoridad oficial, la arquitectura de decisión real pertenece a las empresas tecnológicas.

No son conspiraciones, sino una realidad basada en hechos: tecnología concentrada en pocas manos, contratos de defensa opacos y una dependencia técnica sin auditorías. Cuando empresas extranjeras vinculadas a la inteligencia gestionan datos sensibles, el problema deja de ser técnico para volverse político. Ejemplos claros son Palantir y Anduril, o programas como Project Maven, que no se limitan a tareas administrativas, sino que operan en el corazón del Estado: defensa, fronteras y espionaje.

En diciembre de 2025, en El Canal del Coronel, Pedro Baños y el analista Héctor defendieron que Palantir representa el núcleo operativo de una arquitectura de vigilancia predictiva con raíces en el ecosistema de seguridad estadounidense posterior al 11-S. Si nos ponemos exquisitos, es cierto que la comparación con el programa ‘Total Information Awareness’ es interpretativa y no existe documentación pública que acredite una continuidad formal. Sin embargo, sí es verificable que Palantir fue fundada en 2003 con financiación inicial de In-Q-Tel, fondo de inversión vinculado a la CIA, y que desde entonces ha firmado contratos estratégicos con agencias de defensa y seguridad.

El caso de Francia ilustra esta dependencia. La DGSI renovó recientemente su contrato con Palantir para usar sus herramientas en áreas críticas como el antiterrorismo. Pese a que las autoridades afirman mantener el control físico de los servidores, la soberanía tecnológica queda en entredicho por la Cloud Act estadounidense. Esta ley permite a Washington acceder a información gestionada por sus empresas en el extranjero, convirtiendo la supuesta «seguridad nacional» francesa en un espacio accesible para la jurisdicción de Estados Unidos.

La escala de esta integración es, literalmente, estratégica. En diciembre de 2025, el Wall Street Journal reveló un contrato de 448 millones de dólares entre la Armada de EE. UU. y Palantir. ¿El objetivo? Usar IA para engrasar la compleja maquinaria de suministro de sus submarinos nucleares. No es un caso aislado: el Reino Unido también ha comprometido cerca de 1.000 millones en sistemas de IA para su ejército, mientras que en España, el Ministerio de Defensa ha ido ampliando sus acuerdos con Palantir desde 2023. Sin embargo, tras estos cheques en blanco, persiste un silencio técnico: nadie ha publicado auditorías independientes que detallen qué datos se procesan ni cómo funcionan realmente estas «cajas negras».

Pero el debate ha dejado de ser una cuestión de hangares y cuarteles para tocar la calle. El caso español dio un giro inesperado en noviembre de 2025, cuando la AEPD multó con 10 millones de euros a AENA por su sistema de embarque biométrico. El programa, que ya habían probado 40.000 pasajeros, integraba ImmigrationOS, una tecnología vinculada a Palantir. Aunque no se demostró que los datos volaran a manos ajenas, la sanción fue un correctivo a la opacidad: el expediente desnudó una falta alarmante de garantías y evaluaciones de impacto. Al final, la lección es clara: cuando la eficiencia tecnológica ignora el control democrático, el precio a pagar (político y económico) empieza a ser demasiado

RECOMENDACIÓN: 

En una serie de dos partes, Alba Lobera analiza de forma crítica la transición entre la inteligencia artificial predictiva y la generativa, advirtiendo sobre el impacto profundo que este avance tiene en nuestra privacidad, autenticidad y propiedad intelectual. Lobera expone cómo la inacción gubernamental y la paralización de leyes (como el Real Decreto) facilitan que las obras culturales sean transformadas en datos sin consentimiento, priorizando intereses industriales y amenazando con saquear nuestra memoria cultural. Puede ver la primera parte aquí y la segunda parte aquí.

La guerra automatizada y la integración militar de la IA

El campo de batalla ha cambiado. Hoy, la preocupación militar no son solo las armas, sino la integración de la IA en la planificación de ataques. Al procesar volúmenes masivos de datos (satélites, drones y comunicaciones), la IA permite tomar decisiones más rápidas, pero genera un vacío peligroso: la responsabilidad humana se desplaza hacia algoritmos que no rinden cuentas ante la ley.

Esta «dependencia tecnológica» está en manos de empresas privadas, sin auditorías independientes, alterando por completo cómo se decide quién vive y quién muere.

Un ejemplo clave es el Project Maven, adquirido por la OTAN en marzo de 2025. Diseñado para analizar volúmenes ingentes de datos, terminó integrándose en el Centro Militar de Comando Conjunto estadounidense en Israel para evaluar operaciones en Gaza. Al mismo tiempo, investigaciones periodísticas y el libro The Philosopher in the Valley (2025) documentan el papel de Palantir Technologies en el Líbano durante 2024; allí, Reuters reportó ataques que dejaron 12 muertos y 2.750 heridos. Aunque organizaciones como Amnistía Internacional y Human Rights Watch denuncian una posible complicidad, a febrero de 2026 todavía no existen sentencias judiciales que asignen una responsabilidad penal directa.

En un análisis profundo, Carlos Sánchez y Beatriz Talegón comparan esta vigilancia con la tecnología de El Caballero Oscuro, donde Bruce Wayne utiliza un sistema para monitorizar cada teléfono de Gotham. Advierten que «es un poder demasiado grande para una sola persona», y señalan que algoritmos similares de «targeting predictivo» ya se aplican hoy para priorizar objetivos estratégicos según cálculos estadísticos. Cuando la estadística reemplaza al juicio humano, la vigilancia se convierte en un soberano invisible: un ojo omnipresente que decide quién es sospechoso antes del delito, transformando la presunción de inocencia en un recuerdo de una libertad ya perdida.

Este camino tecnológico se consolidó con el Proyecto Maven original en 2017, un contrato de 250 millones de dólares entre el Pentágono y Google para procesar vídeos de drones. Tras la protesta de 4.000 empleados, Google se retiró, pero la tecnología mutó en los proyectos Jedi y JWCC, repartidos entre Microsoft, Google y Oracle. Israel adaptó esta base en el Proyecto Nimbus (2021, 1.200 millones de dólares), que bajo la apariencia de modernizar servicios públicos, incluía cláusulas secretas para eliminar restricciones éticas y evadir órdenes judiciales internacionales.

Bajo este paraguas, los datos de 2,3 millones de personas —incluyendo geolocalización e historiales médicos— alimentaron sistemas como Lavender, Gospel y Where’s Daddy, responsables de miles de bombardeos en zonas civiles. Los daños colaterales se aceptaban algorítmicamente, con un margen de error reconocido del 40%. Palantir, mediante su software Gotham, terminó de consolidar este legado integrando las capacidades de diversas tecnológicas.

En el ámbito de la autonomía pura destaca Anduril, fundada por Palmer Luckey y financiada por Peter Thiel. Sus drones pueden operar hasta 48 horas sin intervención humana. Sin embargo, en noviembre de 2025, un memorando del Ejército estadounidense calificó su sistema NGC2 como de «muy alto riesgo» debido a fallos de seguridad detectados en la Base Aérea de Eglin y vulnerabilidades durante operaciones en Ucrania, aunque la empresa los minimizó como incidentes aislados.

Todo este ecosistema refleja la enorme influencia política y financiera de Peter Thiel. No solo financió con 15 millones la campaña senatorial de JD Vance en 2022 y cofundó Narya Capital, sino que participa activamente en empresas como Anduril, Rumble y Hermeus. Su papel fue decisivo para acercar a Vance a Donald Trump y culminó en 2025 copresidiendo el encuentro Bilderberg junto a Alex Karp. Estos vínculos demuestran cómo un círculo reducido de poder tecnológico maneja los hilos que definen las estrategias globales actuales.

Ingeniería del consentimiento 2.0

La inteligencia artificial empieza a aplicarse directamente en funciones de gobierno y gestión social, generando preocupaciones sobre concentración de poder, discriminación algorítmica y vigilancia masiva. La experiencia muestra que sistemas que operan bajo supuesta neutralidad pueden centralizar decisiones críticas, afectar derechos fundamentales y reforzar desigualdades estructurales.

En septiembre de 2025, el primer ministro albanés Edi Rama presentó Diella, un sistema de IA designado como “ministra sin cartera” para evaluar licitaciones públicas. La propuesta fue aprobada por 82 de 140 parlamentarios. Diella funciona sobre la plataforma e-Albania, que ya gestionaba el 95% de los servicios públicos digitales, con soporte técnico de Microsoft. Oficialmente, se prometió que cada transacción sería rastreable. No se han publicado auditorías independientes ni métricas de desempeño, y la constitucionalidad fue cuestionada, dado que la Carta Magna exige que los ministros sean personas naturales. Este caso refleja cómo la automatización política puede transferir funciones de supervisión y control a sistemas privados sin supervisión externa suficiente.

La discriminación algorítmica es un riesgo comprobado. En 2021, el escándalo Sairi en Países Bajos reveló que un algoritmo de detección de fraude penalizaba barrios de bajos ingresos y minorías étnicas. En 2020, el sistema GCSE del Reino Unido asignó calificaciones injustas basadas en código postal y origen socioeconómico, provocando protestas masivas. En China, el sistema de crédito social aplica sanciones automáticas vinculadas a conductas cotidianas. Estos precedentes demuestran que la IA puede reproducir o amplificar desigualdades bajo apariencia de objetividad, un riesgo presente en sistemas como Palantir o Diella.

En Educación, la IA se utiliza tanto para aprendizaje como para vigilancia. El 19 de diciembre de 2025, xAI firmó un acuerdo con el gobierno de El Salvador para implementar Grok en más de 5.000 escuelas públicas, alcanzando a más de un millón de estudiantes. El programa incluye tutoría adaptativa alineada con el currículo oficial, pero no se han publicado evaluaciones independientes sobre su efectividad. En México, el examen ECOEMS utilizó sistemas de IA para detectar trampas y anuló 47 pruebas por uso indebido de dispositivos, evidenciando el creciente papel de la tecnología en la supervisión académica. De este modo, la IA no solo apoya procesos formativos, sino que también se consolida como un instrumento de control que puede influir en la conducta y en las dinámicas educativas desde edades tempranas.

El control financiero es cada vez más automático y está más conectado con el comportamiento de las personas. En Vietnam se cerraron 86 millones de cuentas que no estaban verificadas biométricamente, y en Tailandia se clausuraron 20 millones de cuentas de sectores medios y medio-bajos, además de exigir chips biométricos para rastrear las transacciones.

Más allá de los números, estas decisiones muestran un cambio profundo: el dinero digital ya no es solo una herramienta práctica, sino también un sistema que registra, condiciona y, en cierta medida, vigila. Cuando cada movimiento queda registrado y el acceso depende de una identificación total, la comodidad y la seguridad avanzan, pero también se reducen los espacios de anonimato y libertad que antes acompañaban al uso del dinero.

En Europa, la discusión legal sobre la inteligencia artificial se centra en algo muy básico: ¿quién es dueño de los datos y contenidos que se usan para entrenar estos modelos? En Suiza, a finales de 2025, se debatía si utilizar obras protegidas sin permiso podía considerarse una forma de “piratería moderna”. También se hablaba de posibles soluciones, como crear licencias obligatorias o permitir que los autores excluyan sus obras, siguiendo un enfoque similar al de la Unión Europea.

Por ahora no hay una ley clara ni un acuerdo general. El equilibrio entre fomentar la innovación y proteger los derechos de autor sigue siendo delicado, y lo que se decida marcará quién tiene el control sobre la información y cómo se reparten los beneficios que genera la inteligencia artificial.

AGI, concentración de poder y límites del control democrático

La discusión sobre la IA ha dejado de ser una cuestión de aplicaciones aisladas para transformarse en un debate estructural sobre el futuro de la humanidad. Actualmente, una parte fundamental de esta controversia se centra en la posibilidad de alcanzar la Inteligencia Artificial General (AGI) en un plazo sorprendentemente corto. El informe Situational Awareness, de Leopold Aschenbrenner, plantea que este hito podría volverse viable hacia 2027 si se mantienen las tendencias actuales de inversión. No se trata de una certeza absoluta, sino de un escenario probable donde la expansión masiva de sistemas automatizados acelere el progreso técnico de tal forma que los avances que antes tomaban décadas se concentren en apenas unos años, provocando lo que muchos ya describen como una «explosión de inteligencia».

Seamos realistas: este salto tecnológico conlleva desafíos materiales y estratégicos sin precedentes. Para sostener este ritmo, sería necesaria la construcción de infraestructuras colosales de procesamiento cuyo coste podría rondar el billón de dólares, además de un consumo energético masivo que situaría a los Estados en una carrera geopolítica por el dominio del cómputo y la seguridad. En este contexto, no solo se busca la ventaja tecnológica frente a potencias como China, sino también el desarrollo de mecanismos de «superalineación» que garanticen que estos sistemas autónomos permanezcan bajo control humano y no supongan un riesgo existencial.

Estas proyecciones han saltado de los círculos especializados a la opinión pública general, evidenciando una mezcla de optimismo y temor. A principios de 2026, el debate en Silicon Valley se intensificó con análisis sobre cómo la IA podría concentrar la riqueza de manera extrema. Mientras figuras como Elon Musk hablan de un cambio radical que traerá una prosperidad inmensa pero también malestar social, otros como Sam Altman muestran cautela ante los efectos psicológicos de medidas como la renta universal, que podría alterar la motivación personal. Al mismo tiempo, el mercado financiero refleja esta euforia con las inminentes salidas a bolsa de OpenAI y Anthropic, y una revalorización inmobiliaria en centros tecnológicos que refuerza la narrativa de una desigualdad creciente.

Por otro lado, esta transformación ha llegado a los organismos multilaterales a través de documentos como el Policy Brief de Naciones Unidas sobre la «Integridad de la Información en Plataformas Digitales». En este informe, la organización advierte que la desinformación erosiona la democracia y propone avanzar hacia un Pacto Mundial Digital apoyado en sistemas de IA considerados «fiables». Aunque el objetivo oficial es la protección institucional, el planteamiento abre un dilema ético profundo sobre el equilibrio entre la moderación y la libertad de expresión. El riesgo reside en que la etiqueta de «fiabilidad» se convierta en un nuevo salvoconducto para existir en el espacio público, permitiendo que actores gubernamentales o corporativos definan la verdad a través de algoritmos. Así, la censura podría dejar de ser un acto de fuerza reconocible para adoptar el rostro aséptico de una protección colectiva que, de manera silenciosa, tiene el poder de invisibilizar cualquier voz disonante.

La realidad documentada nos muestra una llegada acelerada de sistemas algorítmicos a sectores críticos como la defensa nuclear, la guerra automatizada, la contratación pública y la educación. Sin embargo, este avance convive con importantes zonas opacas, como el volumen exacto de fondos públicos europeos destinados a Palantir Technologies entre 2024 y 2025, el alcance real de la geolocalización de los ciudadanos o la falta de auditorías independientes sobre algoritmos policiales y militares. A esto se suman las incógnitas sobre los vínculos concretos entre figuras como Peter Thiel, JD Vance y el diseño de las políticas energéticas y de inteligencia artificial en la administración estadounidense para el periodo 2025-2029.

El hilo conductor de este fenómeno es la creciente externalización de las funciones del Estado hacia infraestructuras privadas. Cuando herramientas como Foundry o AIP se emplean en inteligencia antiterrorista, el proyecto Maven procesa datos en escenarios de guerra, un algoritmo evalúa licitaciones públicas o un tutor digital dirige la formación de un millón de estudiantes, la dependencia deja de ser operativa para volverse estratégica. En este esquema, el Estado mantiene la titularidad formal de las decisiones, pero el diseño, la actualización y el conocimiento profundo de los sistemas quedan en manos privadas, bajo códigos que no son públicos y modelos que no pueden auditarse por completo.

Esta transformación es especialmente visible en el ámbito militar, donde la automatización ha convertido la toma de decisiones en un cálculo matemático de microsegundos. Mientras la acción ocurre a la «velocidad del silicio», la responsabilidad legal sigue vinculada a procedimientos tradicionales pensados para personas y tiempos humanos. Esta brecha genera un problema estructural donde las órdenes se ejecutan antes de que exista un responsable claro, provocando que la rendición de cuentas llegue siempre demasiado tarde, cuando el algoritmo ya ha actuado y el daño es irreversible.

De manera similar, en el campo de la educación, los sistemas adaptativos han dejado de ser simples herramientas pedagógicas para decidir qué se aprende, qué se omite y bajo qué prisma se interpreta el mundo. Estos actúan como filtros invisibles que moldean mentalidades desde edades tempranas, a menudo sin debates independientes que validen su eficacia. En ausencia de estos controles, hablar de una mejora del aprendizaje requiere un acto de fe, pues existe el riesgo de estar optimizando resultados a costa de incubar generaciones dependientes de infraestructuras privadas que solo rinden cuentas a sus propios accionistas.

Por otro lado, la actual disputa sobre propiedad intelectual en Suiza pone de manifiesto una fisura estructural profunda: el entrenamiento de modelos de IA con inmensos volúmenes de datos donde lo público y lo privado se mezclan sin control. Cuando la innovación se nutre de obras ajenas sin un marco jurídico claro, la frontera entre el progreso tecnológico y el expolio se vuelve peligrosamente delgada. Esto no deriva únicamente en batallas legales abstractas, sino en una guerra de desgaste real que amenaza con arruinar a los creadores y atrapar a los desarrolladores en litigios eternos, mientras el sistema sigue absorbiendo contenido a escala industrial.

Desde una perspectiva geopolítica, el hecho de que los contratos estratégicos se concentren en unas pocas corporaciones con sede en Estados Unidos no es un detalle menor, sino una fuente directa de poder. En este nuevo orden, la dependencia no requiere de amenazas o coerción física; basta con que las infraestructuras críticas, los datos y la capacidad de cómputo dependan de ciertas jurisdicciones. La influencia se ejerce ahora de forma sutil a través de actualizaciones de software, estándares técnicos y cláusulas contractuales, donde no hace falta imponer una voluntad si no existe ninguna otra alternativa viable.

A esta situación se añade el reto de la interoperabilidad. Cuando un gobierno o un ejército adopta una plataforma específica, no solo adquiere un programa, sino que se integra en un ecosistema cerrado que se vuelve casi imposible de desmontar con el tiempo. Cada base de datos migrada y cada protocolo adaptado es un eslabón más de una arquitectura que hace que cambiar de proveedor sea un proceso traumático, obligando a rehacer infraestructuras y reentrenar a miles de personas. El coste acaba siendo estratégico y existencial, consolidando dependencias que sobreviven a legislaturas y escándalos, perpetuando posiciones dominantes durante generaciones.

Finalmente, entre 2024 y 2026 se ha consolidado un cambio cultural en las élites tecnológicas y políticas, cuyo discurso ya no solo busca la eficiencia, sino la reconfiguración total de la soberanía, el trabajo y la seguridad. La verdadera transformación ocurre cuando la línea entre el poder público y la infraestructura privada desaparece, dejando las decisiones políticas supeditadas a contratos y recursos de cómputo controlados por terceros. En última instancia, la soberanía nacional ya no se pierde mediante el uso de tanques, sino a través de dependencias técnicas acumuladas actualización tras actualización, hasta que la autonomía real del Estado se convierte en una simple ilusión sostenida por servidores ajenos.

El nuevo criterio de legitimidad

Lo que está cambiando no es solo la tecnología, sino la forma en que legitimamos el poder. Durante siglos, las decisiones públicas se sostenían en leyes, principios y en la discusión abierta entre personas. Hoy, cada vez más, se confía en números y métricas como si fueran la nueva prueba de verdad absoluta. Si un sistema “funciona bien” según sus indicadores, tiende a dejar de cuestionarse cómo o por qué llegó a esa conclusión: el resultado reemplaza el debate, y la eficacia técnica se impone sobre la reflexión humana.

Cuando la legitimidad empieza a depender de que una máquina “produzca buenos resultados”, quien controla esa máquina controla también el espacio de lo que se puede decidir. No hace falta ordenar ni prohibir: basta con diseñar el entorno de modo que todas las opciones ya vengan ordenadas de antemano. Se prioriza lo que un algoritmo puede medir y puntuar, y se margina lo que no entra en sus parámetros.

Así, quienes construyen y afinan esos sistemas terminan condicionando la política sin tener escaños ni cargos públicos: su influencia viene de definir las reglas técnicas sobre las que se apoya la administración. Cada capa de tecnología que se incorpora hace más difícil volver atrás, y la dependencia se normaliza sin que casi nadie se dé cuenta.

El impacto más profundo no es tanto una vigilancia visible, sino que la gente empieza a ajustar su conducta por anticipación, sabiendo que sus acciones serán registradas y evaluadas. La coerción deja de sentirse como una imposición externa porque se internaliza: las personas empiezan a controlarse a sí mismas en función de lo que los sistemas miden.

Al final, no hace falta una puesta en escena demasiado sofisticada que nos marque cuándo acaba una nueva era y se da comienzo a otra: basta con que todos (por seguridad, por eficiencia o por rentabilidad) converjamos en la idea de que los indicadores y los algoritmos son mejores jueces que las discusiones públicas. El resultado es un lugar en el que la decisión puede seguir firmada por un ser humano, pero el terreno de lo que se puede decidir viene trazado por sistemas que nadie eligió en las urnas. 

Si seguimos por ese camino sin contrapesos, la política no desaparecerá, pero se convertirá en pura administración dentro de un marco ya prefijado. Cuando ese marco deja de discutirse, el debate público se vuelve una escenografía, y la soberanía no se pierde con un decreto, sino poco a poco, cuando las reglas del juego ya no están en manos de quienes piensan que todavía juegan.

Qué mundo tan feliz este de 1984, ¿verdad?

EsDiestro
Es Diestro. Opinión en Libertad
Artículo relacionados

Entradas recientes