Recomiendo:
0

Irán como laboratorio de pruebas para la guerra con IA

Fuentes: Rebelión

Traducido del neerlandés por el autor

La guerra la libran cada vez personas y cada vez más algoritmos. En Irán vemos que la inteligencia artificial acelera el ritmo de destrucción a una velocidad sin precedentes, con todos los problemas morales que ello conlleva.

Una velocidad de destrucción sin precedentes

Las nuevas guerras rara vez son solo militares; son también zonas de prueba para la tecnología. La guerra actual en Irán sirve como un trágico campo de pruebas de tecnologías de vanguardia. En este conflicto vemos un desplazamiento tecnológico que hasta hace poco era impensable.

En solo cuatro días el Pentágono logró atacar más de 2.000 objetivos. Según Pete Hegseth, secretario de Defensa (ministro de Guerra) de EE. UU., la operación actual contra Irán ya ha sido dos veces más letal que la invasión de Irak en 2003 y siete veces más poderosa que la guerra de 12 días contra Irán en junio de 2025.

Esta enorme aceleración es el resultado directo de la integración de sistemas avanzados de IA en las operaciones militares. El software constituye dentro del ejército de EE. UU. una especie de cerebro digital durante las operaciones. El llamado sistema Maven analiza datos del campo de batalla en tiempo real y apoya toda la cadena de ataque: desde la identificación de un objetivo hasta la evaluación de daños tras una ofensiva.

El sistema combina diferentes modelos de IA para interpretar información y ofrecer recomendaciones. La IA generativa, similar a la tecnología que los ciudadanos utilizan en el trabajo de oficina o en la educación, ayuda a los comandantes a comprender datos complejos y tomar decisiones.

Con este sistema se da un nuevo paso cualitativo. La tecnología ha evolucionado desde simples resúmenes de datos hacia un razonamiento complejo, lo que permite a los ejércitos operar a una escala que antes era físicamente imposible para los planificadores humanos. El resultado es un nunca visto ritmo de operaciones militares.

Es interesante saber que el sistema Maven fue diseñado por la empresa de software Palantir, fundada por el multimillonario de extrema derecha Peter Thiel. Este oligarca tecnológico es un importante financiador del presidente Trump y del vicepresidente JD Vance.

El ser humano como espectador de la máquina

Un problema crucial de esta guerra ultrarrápida es el papel del factor humano. Aunque los militares todavía toman oficialmente la decisión final, cada vez les resulta más difícil controlar la lógica de la máquina. Un algoritmo realiza millones de cálculos por segundo que un ser humano es incapaz de verificar.

Los expertos advierten que esto coloca a los militares en una posición en la que confían ciegamente en las recomendaciones del ordenador. Psicológica y prácticamente es casi imposible rechazar un objetivo generado a gran velocidad cuando la justificación está oculta dentro de un sistema cerrado e inescrutable. El control humano se convierte así en una mera formalidad administrativa.

Además, el siguiente paso amenaza con ser aún más radical. Algunos planificadores militares quieren sistemas de armas que operen de forma completamente autónoma, sin control humano directo: los llamados LAWS (Sistemas de Armas Autónomas Letales).

Las consecuencias de esta visión de túnel digital se han hecho dolorosamente visibles en Irán. El devastador ataque contra una escuela primaria para niñas en Minab plantea preguntas urgentes sobre la verificación de los datos. Aunque la investigación aún está en curso, este drama ilustra el riesgo mortal de los objetivos seleccionados por algoritmos sin un control humano adecuado.

Límites morales en una época de algoritmos

Además de los riesgos técnicos, existe una objeción moral fundamental contra el hecho de delegar decisiones sobre la vida y la muerte. ¿Puede una máquina recibir el poder de determinar quién muere? El debate sobre los sistemas de armas autónomas letales (LAWS) gana urgencia ahora que EE. UU. y China invierten fuertemente en tecnología capaz de matar sin intervención humana.

Los defensores afirman que la IA puede reducir los errores humanos y así evitar víctimas civiles. Sin embargo, la práctica en Irán lo contradice. Con decenas de miles de edificios dañados, entre ellos miles de viviendas, la precisión de la IA parece utilizarse sobre todo para destruir más en menos tiempo, en lugar de actuar con mayor cuidado.

Incluso las empresas tecnológicas – a veces – pisan el freno. Anthropic (la empresa detrás del chatbot Claude) se negó recientemente a transferir el control total de sus modelos de IA al Pentágono para uso secreto. Esto llevó a un conflicto en el que Washington volvió a excluir la tecnología de la empresa de la cadena de suministro militar.

Necesidad urgente de reglas internacionales

La falta de fiabilidad de los actuales modelos de IA hace que su uso en el campo de batalla sea aún más arriesgado. Los sistemas se basan en probabilidades estadísticas y son sensibles a las llamadas “alucinaciones” (errores flagrantes). Un sistema que inventa información incorrecta en un chatbot es molesto, pero en un sistema de armas las consecuencias son mucho peores.

Por eso ya es hora de una moratoria internacional sobre el uso de armas completamente autónomas. El grupo de trabajo de la ONU que desde hace años debate sobre ello debe alcanzar finalmente conclusiones vinculantes. Así como existe una prohibición mundial de las armas químicas y biológicas, necesitamos límites claros para la inteligencia artificial en tiempos de guerra.

Estados Unidos y China, como superpotencias tecnológicas, tienen una enorme responsabilidad. Deben establecer acuerdos para limitar la difusión de esta tecnología y garantizar la responsabilidad humana. La comunidad internacional debe exigir que la cadena de ataque permanezca transparente y que siempre se pueda responsabilizar a un ser humano por cada bala o misil disparado.

Sin una regulación estricta, corremos el riesgo de un futuro en el que enjambres de drones baratos cacen a personas de forma autónoma, un escenario que podría haber salido de una película distópica. Cada nueva guerra acelera el desarrollo y el uso de la IA en el campo de batalla. Sin acuerdos internacionales, nos amenaza un mundo en el que las máquinas determinen, cada vez más, quién vive y quién muere.

Texto original: https://www.dewereldmorgen.be/artikel/2026/03/14/iran-als-testlab-voor-ai-oorlog

Rebelión ha publicado este artículo con el permiso del autor mediante una licencia de Creative Commons, respetando su libertad para publicarlo en otras fuentes.