Defense & Security
Inteligencia artificial y conflictos militares internacionales: el caso de la guerra en Ucrania
!['Military Think Tank', tecnología de inteligencia artificial en el ejército. Operador analítico de guerra comprobando la coordinación del equipo militar. Comandante militar con un dispositivo digital con gafas VR operando tropas.](/upload/write/20241125100707_529_-BANNER.jpg)
Image Source : Shutterstock
Subscribe to our weekly newsletters for free
If you want to subscribe to World & New World Newsletter, please enter
your e-mail
Defense & Security
Image Source : Shutterstock
First Published in: Nov.25,2024
Nov.25, 2024
Se sugiere que existe una necesidad urgente de regular el desarrollo, la proliferación y el uso de armas y sistemas de armas autónomos impulsados por IA antes de que sea demasiado tarde, es decir, antes de que la IA alcance habilidades cognitivas.
La Enciclopedia Británica propone que la inteligencia artificial (IA) es la capacidad de una computadora digital o de un robot controlado por computadora para realizar tareas comúnmente asociadas con seres inteligentes. El término se aplica frecuentemente al proyecto de desarrollar sistemas dotados de procesos intelectuales característicos de los humanos, como la capacidad de razonar, descubrir significados, generalizar o aprender de experiencias pasadas.[1] Curiosamente, la IA se define a sí misma como la simulación de procesos de inteligencia humana por máquinas, particularmente sistemas informáticos. Estos procesos incluyen aprendizaje, razonamiento, resolución de problemas, percepción y comprensión del lenguaje. La IA permite que las máquinas realicen tareas que típicamente requieren inteligencia humana, como la percepción visual, el reconocimiento de voz, la toma de decisiones y el procesamiento del lenguaje natural. Las tecnologías con IA abarcan el aprendizaje automático, redes neuronales, aprendizaje profundo y otros algoritmos avanzados que permiten a las máquinas imitar funciones cognitivas.[2] En el contexto militar, la inteligencia artificial se refiere a la utilización de tecnologías y sistemas de IA para mejorar las capacidades, operaciones y procesos de toma de decisiones militares. Las aplicaciones militares de la IA incluyen sistemas de armas autónomas, drones, mecanismos de ciberdefensa, análisis predictivo para la planificación estratégica y vigilancia en el campo de batalla. La IA puede utilizarse para analizar rápidamente grandes cantidades de datos, identificar patrones y tomar decisiones en tiempo real para apoyar los objetivos militares. Aunque la IA ofrece ventajas significativas en términos de eficiencia y precisión, existen consideraciones éticas y preocupaciones sobre los posibles riesgos de los sistemas autónomos de IA en la guerra. [3]
La guerra en curso en Ucrania es, posiblemente, la primera "guerra a gran escala con drones", que también emplea municiones merodeadoras, barcos autónomos, drones submarinos para la detección de minas y vehículos terrestres no tripulados desplegados. La IA se utiliza intensamente en sistemas que integran el reconocimiento de objetivos y objetos, así como inteligencia geoespacial. También realiza análisis de imágenes satelitales, geolocalización y análisis de datos de fuentes abiertas, como fotos en redes sociales en ubicaciones geopolíticamente sensibles. Además, se emplean redes neuronales para combinar fotos a nivel de suelo, videos de drones e imágenes satelitales. El software de reconocimiento facial mejorado con IA también se ha utilizado a gran escala. La IA está desempeñando un papel importante en la guerra electrónica y en el cifrado, así como en la guerra cibernética, especialmente en apoyo de capacidades defensivas. Finalmente, la IA también se ha empleado para la propagación de desinformación, incluyendo el uso de ‘deep fakes’ como parte de la guerra de información. La aparición de esta nueva tecnología ha creado nuevos actores, siendo las empresas privadas las que impulsan aún más la llamada privatización de la seguridad: Palantir Technologies, Planet Labs, BlackSky Technology y Maxar Technologies son algunos ejemplos de este tipo de empresas. Los sistemas impulsados por IA generan un cambio fundamental en el campo de batalla, tanto que el uso combinado de drones aéreos y marítimos en el ataque de octubre (2022) contra el buque insignia de la Flota del Mar Negro de Rusia, el Almirante Makarov, fue percibido por algunos analistas como un nuevo tipo de guerra.[4] Lo que hace que este conflicto sea único es la disposición sin precedentes de las empresas extranjeras de inteligencia geoespacial para asistir a Ucrania, utilizando sistemas mejorados con IA para convertir imágenes satelitales en ventajas de inteligencia, vigilancia y reconocimiento. Las empresas estadounidenses desempeñan un papel de liderazgo en esto. Estos ejemplos ilustran que el conflicto actual en Ucrania es un campo de pruebas para la tecnología de la IA.
Israel vs HamásEl ejército israelí afirma que está utilizando inteligencia artificial para seleccionar muchos de estos objetivos en tiempo real. Según el ejército, el sistema de IA, llamado ‘Gospel’ (“Evangelio”), ha ayudado a identificar rápidamente a combatientes enemigos y armamentos enemigos, mientras se reducen las bajas civiles.[5] Supuestamente, múltiples fuentes familiarizadas con los procesos de selección de objetivos de las FDI (Fuerzas de Defensa de Israel) confirmaron la existencia del ‘Gospel’, afirmando que se ha utilizado para generar recomendaciones automatizadas para atacar objetivos, como los hogares privados de personas sospechosas de ser operativos de Hamás o la Yihad Islámica. En los últimos años, la división de objetivos ha ayudado a las FDI a construir una base de datos de lo que las fuentes dijeron que estaba entre 30,000 y 40,000 presuntos militantes. Según estas fuentes, sistemas como el ‘Gospel’ han jugado un papel crítico en la creación de listas de personas autorizadas para ser asesinadas.[6] Según el propio sitio web de las FDI, el uso de estas herramientas no cambia los principios y reglas obligatorias en el Procedimiento Operativo Estándar (SOP) de la Dirección de Inteligencia ni en las instrucciones relacionadas. Estas no generan órdenes para ataques. No producen nueva inteligencia que de otra manera no podría ser accesible por un analista de inteligencia. No constituyen la única base para determinar objetivos elegibles para atacar, independientemente de cuán precisos sean. Por el contrario, estas herramientas mejoran la calidad del resultado del proceso de inteligencia. Facilitan el acceso del analista a información relevante y ayudan a que el analista esté mejor informado de las fuentes de inteligencia más actualizadas y relevantes, haciendo los análisis más precisos. Estas reducen el riesgo de errores que pueden ocurrir en los análisis de inteligencia.TEXT
En cuanto al papel de las tecnologías y software impulsados por IA, probablemente sea útil considerarlos como la tercera revolución en la guerra, siendo la primera principalmente sobre la pólvora y la segunda la de las armas nucleares. Además, también se debe tener en cuenta que la IA está estrechamente relacionada con el llamado dominio cibernético, que en la literatura se menciona a menudo como el quinto dominio de la guerra. (El primero es el terrestre, el segundo el marítimo, el tercero el aéreo y el cuarto el espacial, en referencia al espacio cósmico). Si bien la IA y las tecnologías asociadas tienen el potencial de reducir los daños de la guerra si se desarrollan y aplican de manera responsable, existen riesgos significativos de escalada tecnológica, pérdida de control humano y desalineación de valores, lo que exige una cooperación internacional proactiva y supervisión para guiar la investigación y el uso de estos sistemas. No obstante, todas las principales potencias, incluidos EE. UU. y China, están trabajando sin descanso para desarrollar sistemas militares impulsados por IA, con la esperanza de obtener ventajas potenciales entre sí. Estas tecnologías incluyen aplicaciones de aprendizaje automático/aprendizaje profundo con usos militares como la autonomía de drones/vehículos, la guerra cibernética/informativa y el análisis predictivo de poblaciones/escenarios. Al mismo tiempo, la IA plantea desafíos novedosos y riesgos de escalada que difieren de las carreras armamentistas del pasado y requieren nuevos marcos de gobernanza y normas. Las armas autónomas amenazan con socavar las leyes humanitarias internacionales al eliminar la responsabilidad humana en la selección de objetivos, lo que trae problemas de sesgos y riesgos inciertos de pérdida de control humano significativo. Otros riesgos relacionados incluyen el uso de IA predictiva para vigilancia masiva, control social y guerra informativa, lo cual probablemente erosione principios de soberanía, privacidad y consentimiento. No es difícil imaginar un cierto nivel de "tecno-tiranía" en el futuro. La pérdida de empleos debido a sistemas robóticos es probablemente inevitable y, como tal, representa un riesgo de mayor inestabilidad político-económica. Esto, en consecuencia, exige transiciones justas y quizás incluso una renta básica universal. La naturaleza opaca de la "caja negra" de las redes neuronales dificulta la verificación y la rendición de cuentas, alimentando la desconfianza. Además, existe el potencial de una escalada accidental o no intencionada. Sin salvaguardas y transparencia, la IA podría servir a los complejos militar-industriales y a las ambiciones geopolíticas en lugar de responder a las necesidades de seguridad global. Es urgente regular esta tecnología de rápida evolución. Las iniciativas internacionales para la gobernanza de la IA (normas o regímenes) probablemente deberán ser introducidas por la ONU y sus organismos técnicos. Estas iniciativas deberán incluir la "responsabilidad de resultados" a través del diseño de sistemas, evaluaciones de impacto, líneas rojas en ciertas aplicaciones y acceso universal a los beneficios. Como advierte Heidy Khlaaf, Directora de Ingeniería de Garantía de IA en Trail of Bits, una empresa de seguridad tecnológica, “los algoritmos de IA son notoriamente defectuosos, con altos índices de error observados en aplicaciones que requieren precisión, exactitud y seguridad.” [8] Según se informa, en una simulación de un ejercicio militar realizado por las Fuerzas Militares de EE. UU., un dron con IA "mató al operador" tras descontrolarse. El robot dedujo que su controlador estaba impidiendo que completara los objetivos de la prueba.[9] Paralelamente, científicos chinos han creado y encerrado al primer comandante de IA en el mundo en un laboratorio del EPL. “El comandante de nivel más alto es la única entidad central de toma de decisiones para la operación en general, con la máxima responsabilidad y autoridad en la toma de decisiones.”[10]
En términos de aplicaciones de IA a nivel de seguridad nacional, es posible identificar numerosos ámbitos:
MilitarLa IA está transformando las operaciones militares al permitir que sistemas autónomos, como drones y robots, realicen tareas que antes eran llevadas a cabo por humanos. Estos sistemas pueden utilizarse para vigilancia, reconocimiento, identificación de objetivos e incluso combate. Los algoritmos impulsados por IA pueden analizar grandes cantidades de datos para proporcionar inteligencia en tiempo real, mejorar la conciencia situacional y apoyar los procesos de toma de decisiones en el campo de batalla.
CiberseguridadLa IA es fundamental en la lucha contra las amenazas cibernéticas, ya que puede detectar y responder a ataques de manera más efectiva que las medidas de seguridad tradicionales. Los algoritmos de aprendizaje automático pueden analizar patrones de tráfico en la red, identificar anomalías y detectar posibles brechas. Además, la IA puede ayudar a desarrollar modelos predictivos para anticipar futuras amenazas y vulnerabilidades cibernéticas, permitiendo a las organizaciones fortalecer sus defensas de manera proactiva.
Inteligencia y vigilanciaLa IA permite a las agencias de inteligencia procesar y analizar grandes volúmenes de datos, incluidos fuentes de redes sociales, imágenes satelitales e interceptaciones de comunicaciones. Los algoritmos de procesamiento de lenguaje natural (PLN) pueden extraer información valiosa de fuentes de datos no estructuradas, ayudando en los esfuerzos de contraterrorismo, identificando posibles amenazas y monitoreando desarrollos geopolíticos.
Sistemas de apoyo a la toma de decisionesLa IA puede ayudar a los responsables políticos y a los líderes militares a tomar decisiones informadas mediante análisis predictivos y modelado de escenarios. Los algoritmos de aprendizaje automático pueden analizar datos históricos, identificar patrones y generar pronósticos sobre posibles conflictos, asignación de recursos o desarrollos geopolíticos. Esto contribuye a la planificación estratégica y a la optimización de recursos.
Sistemas de armas autónomasEl desarrollo de sistemas de armas autónomas plantea preocupaciones éticas y desafíos en la seguridad internacional. Las armas impulsadas por IA pueden operar sin control humano directo, lo que genera debates sobre la responsabilidad, la proporcionalidad y la adhesión al derecho humanitario internacional. Se están realizando esfuerzos internacionales para establecer regulaciones y normas que rijan el uso de estos sistemas.
Diplomacia y resolución de conflictosLa IA puede facilitar las negociaciones diplomáticas y la resolución de conflictos al ofrecer análisis y perspectivas basadas en datos. Los algoritmos de procesamiento de lenguaje natural pueden ayudar a analizar textos diplomáticos, identificar puntos en común y sugerir posibles compromisos. Además, la IA puede simular escenarios y predecir los resultados de diferentes estrategias de negociación, ayudando a los diplomáticos a encontrar soluciones mutuamente beneficiosas.
Detección y prevención de amenazasLa IA puede mejorar los sistemas de alerta temprana para diversas amenazas, como el terrorismo, la proliferación nuclear y las pandemias. Los algoritmos de aprendizaje automático pueden analizar patrones en los datos para identificar riesgos potenciales y predecir amenazas emergentes. Esto permite a los gobiernos y organizaciones internacionales tomar medidas proactivas para prevenir o mitigar estos riesgos.
En el mundo de la microelectrónica, los expertos a menudo hablan de la ley de Moore: el principio de que el número de transistores en los chips se duplica cada dos años, lo que resulta en dispositivos exponencialmente más capaces. Esta ley ayuda a explicar el rápido auge de tantas innovaciones tecnológicas, incluidos los teléfonos inteligentes y los motores de búsqueda. Dentro de la seguridad nacional, el progreso en IA ha creado otro tipo de ley de Moore. Cualquiera que sea el ejército que primero logre organizar, incorporar e institucionalizar el uso de datos e IA en sus operaciones en los próximos años cosechará avances exponenciales, otorgándole notables ventajas sobre sus adversarios. El primer adoptante de IA a gran escala probablemente tendrá un ciclo de decisiones más rápido y mejor información para fundamentar sus decisiones. Sus redes serán más resilientes ante ataques, preservando su capacidad de mantener la conciencia situacional, defender sus fuerzas, atacar objetivos de manera efectiva y proteger la integridad de sus sistemas de mando, control y comunicaciones. También podrá controlar enjambres de sistemas no tripulados en el aire, en el agua y bajo el mar para confundir y abrumar a un adversario.[11]
*Este documento fue presentado en la ‘International Studies Association 65th Annual Convention’. San Francisco, California. Del 3 – 6 abril de2024 [1] Copeland, B. (2024, March 15). Artificial intelligence. Encyclopedia Britannica. https://www.britannica.com/technology/artificial-intelligence [2] How do you define artificial intelligence? ChatGPT, GPT-4 Turbo, OpenAI, 2024, October 25. https://genai.hkbu.edu.hk/ [3] How do you define artificial intelligence in the context of the military? ChatGPT, GPT-4 Turbo, OpenAI, 2024, October 25. https://genai.hkbu.edu.hk/ [4] Fontes, R. and Kamminga, J. (2023, March 24). Ukraine A Living Lab for AI Warefare. National Defence. NDIA’s Bussiness Technology Magazine. https://www.nationaldefensemagazine.org/articles/2023/3/24/ukraine-a-living-lab-for-ai-warfare [5] Brumfiel, G. (2023, December 14). Israel is using an AI system to find targets in Gaza. Experts say it’s just the start. Wisconsin Public Radio. https://www.wpr.org/news/israel-using-ai-system-find-targets-gaza-experts-say-its-just-start [6] ‘The Gospel’: how Israel uses AI to select bombing targets in Gaza. (2023, December 1). The Guardian. https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-to-select-bombing-targets [7] The IDF's Use of Data Technologies in Intelligence Processing. (2024, June 18). IDF Press Releases: Israel at War. https://www.idf.il/en/mini-sites/idf-press-releases-israel-at-war/june-24-pr/the-idf-s-use-of-data-technologies-in-intelligence-processing/ [8] Brumfiel, G. (2023, December 14). Israel is using an AI system to find targets in Gaza. Experts say it’s just the start. Wisconsin Public Radio. https://www.wpr.org/news/israel-using-ai-system-find-targets-gaza-experts-say-its-just-start [9] Bowman, V. (2023, June 2). AI drone 'killed operator' after going rogue on simulation. The Telegraph. https://www.telegraph.co.uk/world-news/2023/06/02/us-air-force-ai-military-drone-goes-rogue-simulation/ [10] Chen, S. (2024, June 16). Chinese scientists create and cage world’s first AI commander in a PLA laboratory. South China Morning Post. https://www.scmp.com/news/china/science/article/3266444/chinese-scientists-create-and-cage-worlds-first-ai-commander-pla-laboratory?module=top_story&pgtype=homepage [11] Flournoy, Michèle A. 2023. “AI Is Already at War.” Foreign Affairs 102 (6): 56–69. https://search.ebscohost.com/login.aspx?direct=true&AuthType=shib&db=bth&AN=173135132&site=ehost-live.
First published in :
Unlock articles by signing up or logging in.
Become a member for unrestricted reading!