Ciencia y Política

Compilación y elaboración: Luis Alberto Pintado Córdova

Alerta mundial: Los peligros de la AI como arma de guerra

La guerra en Ucrania nos demuestra como los drones autónomos vienen revolucionando la guerra, pueden utilizarse como un arma, pero este es uno de los muchos usos de la IA en el ámbito militar.

Frenar la expansión de las armas autónomas | Política Exterior
Enjambre de drones y sistemas de combate / GETTY. Frenar la expansión de las armas autónomas

 

Rusia está utilizando ampliamente la llamada «munición merodeadora» (o «drones kamikaze») contra Ucrania. Esta se trata de una mezcla entre un dron «normal» y un cohete. En teoría, este tipo de munición puede bombardear una zona concreta, buscando y determinando el objetivo de forma independiente. EuroNews.

La proliferación de armas autónomas hace necesario que los Estados expliquen las funciones militares en las que interviene la IA y se pongan de acuerdo en su regulación.

Estos dispositivos son los que suelen estar relacionados con el término «Inteligencia Artificial» (IA). Pero, de hecho, el «dron kamikaze» no es tan inteligente, y el alcance de la IA en asuntos militares es mucho más amplio.

Las armas «inteligentes» también aparecieron en el siglo pasado. Ya entonces existían, por ejemplo, sistemas de guiado para misiles y proyectiles, que permitían seleccionar y priorizar «independientemente» un objetivo entre varios sin intervención humana. O los sistemas de defensa antiaérea y antimisiles de los buques, que, en caso de falta de tiempo para una decisión por parte de una persona, podían disparar ellos mismos contra lo que consideraban un misil que amenazaba al buque. O, por ejemplo, la conocida «mano muerta», un sistema que puede dar la orden de un ataque nuclear de represalia si considera que las personas que lo controlan ya han muerto.

Pero desde principios de este siglo, el perfeccionamiento de la IA avanza a pasos agigantados, como todos los demás ámbitos de la informática.

La guerra de los drones (II): sobrevolando el desierto de Libia – Centro de Mando
La guerra de los drones: sobrevolando el desierto de Libia

Según Bulanen, es necesario enseñar a los militares a no confiar demasiado en la IA: no se trata de un «robot que nunca comete un error», sino de un sistema ordinario fabricado por el hombre que tiene sus limitaciones e inconvenientes. Al fin y al cabo, un robot, como un ser humano, toma decisiones basándose en determinados datos, y éstos pueden resultar incompletos, erróneos o deliberadamente distorsionados.

Vincent Boulanin, investigador principal del SIPRI:

«Hay cosas que los propios militares pueden hacer: en cuanto a tomar medidas de reducción de riesgos, en cuanto a formar a las personas que van a utilizar estos sistemas o decidir no adoptar un determinado sistema, porque el riesgo de accidente puede ser demasiado alto. Es decir, hablamos de autocontrol y de evaluación de riesgos». EuroNews

¿Es peligroso utilizar la IA en conflictos bélicos?

Según Vincent Bulanen, investigador principal del Instituto de Investigación para la Paz de Estocolmo, existen tres niveles de riesgo asociados a la IA y su uso en asuntos militares.

La Fuerza Aérea de EEUU muestra cómo será la guerra del futuro – eju.tv

  • El primer nivel es tecnológico. La IA está diseñada de tal manera que ni siquiera los propios desarrolladores pueden trazar siempre conexiones lógicas y entender por qué el robot «tomó» tal o cual decisión. Es lo que se denomina el «problema de la caja negra». Por lo tanto, ni los civiles ni los militares pueden, en sentido estricto, confiar plenamente en las decisiones de la IA. Y por ello, siempre existe al menos un riesgo teórico de que el robot realice alguna acción que no se esperaba de él.

Esto puede evitarse con un desarrollo más cuidadoso de los algoritmos. Existen algoritmos completamente «transparentes», pero no siempre son aplicables.

  • El segundo nivel es cómo la IA puede cambiar la forma en que organizamos las guerras y los conflictos. ¿Podría resultar más fácil para los humanos dar órdenes de matar si consideran que no hay peligro de muerte, dado que en el campo de batalla sólo hay robots, o la mayoría de ellos?

Esto plantea problemas humanitarios a gran escala. Los civiles estarán en la línea de fuego. En primer lugar, el problema de distinguir a un civil de un militante sigue siendo muy grande. En segundo lugar, el riesgo de catástrofes humanitarias aumentará porque aumentará el riesgo de nuevos conflictos. Después de todo, iniciar una «guerra de robots» en términos morales puede ser mucho más fácil.

Aquí, según Bulanen, es necesario enseñar a los militares a no confiar demasiado en la IA: no se trata de un «robot que nunca comete un error», sino de un sistema ordinario fabricado por el hombre que tiene sus limitaciones e inconvenientes. Al fin y al cabo, un robot, como un ser humano, toma decisiones basándose en determinados datos, y éstos pueden resultar incompletos, erróneos o deliberadamente distorsionados.

Vincent Boulanin, investigador principal del SIPRI:

«Hay cosas que los propios militares pueden hacer: en cuanto a tomar medidas de reducción de riesgos, en cuanto a formar a las personas que van a utilizar estos sistemas o decidir no adoptar un determinado sistema, porque el riesgo de accidente puede ser demasiado alto. Es decir, hablamos de autocontrol y de evaluación de riesgos».

  • El tercer nivel es la posibilidad de una distribución lo más amplia posible de estos sistemas. La IA es, de hecho, una «tecnología de doble uso». Se utiliza ampliamente en el ámbito civil, y es muy fácil para los especialistas adaptar los códigos públicos para su uso militar.

«No es como la tecnología nuclear, no se puede comprar un arma nuclear en la esquina. Y es bastante fácil desarrollar aplicaciones de IA. Los datos ya están ahí. Los métodos están ahí. Hay ingenieros formados por todo el mundo. Así que el riesgo potencial es que para desarrollar IA militar se necesita muy poco, los malhechores pueden acceder fácilmente a esta tecnología», aclara Boulanin.

Reducir este riesgo es muy difícil, ya que requerirá ciertos acuerdos restrictivos a nivel internacional. En primer lugar, pueden entrar en conflicto con la libertad de difusión de la información (cuando se trata de IA «pacífica»); y, en segundo lugar, estos documentos no importarán a los atacantes.

¿Cambiará la IA los futuros conflictos militares?, ¿sustituirán los robots a los soldados?

Hasta ahora, desde el punto de vista puramente tecnológico, no existe ningún robot que pueda sustituir al tirador con una ametralladora. Pero en muchos otros aspectos, la IA ya ha encontrado su aplicación más amplia. Un aspecto de la respuesta final a esta pregunta es ético.

El experto del SIPRI considera: «Algunas personas adoptan un enfoque práctico. Si en teoría la IA puede ayudar a reducir las bajas civiles, ¿por qué no utilizar la automatización? Otros partirán de fundamentos. No es normal que automaticen este tipo de decisiones, aunque pueda ser eficaz en algún aspecto. No querrán hacerlo porque ése es su principio ético». Euronews

El concepto de la toma de decisiones por parte de los mandos ya está cambiando. En primer lugar, estas decisiones se tomarán mucho más rápido, y en general esto puede acelerar el curso de los conflictos armados. Los comandantes confiarán más en el «asesoramiento» de la IA, y esto conlleva los riesgos ya mencionados.

Desde el punto de vista del derecho internacional que rige el desarrollo de las hostilidades -las «leyes y costumbres de la guerra»-, la IA no destaca en nada. Un dron controlado por IA no es diferente de un misil con un sistema de guía «normal», o de una bomba «estúpida» sin guía. Si hablamos, por ejemplo, de crímenes de guerra, las personas seguirán siendo responsables de ellos, aunque la «decisión la haya tomado» el dron.

Esta problematica abrió el debate sobre las armas autónomas letales en la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales (CCAC), que dura ya una década, ha avanzado lentamente. Pero ha servido como incubadora de un proceso internacional que pretende crear y hacer cumplir la regulación de dichas armas. Al principio de las discusiones, algunos Estados, por ejemplo Reino Unido, argumentaron que las armas autónomas nunca llegarían a existir, ya que los Estados no las desarrollarían. Estas afirmaciones ya no pueden mantenerse.

En esta columna te damos a conocer varios puntos de vista del peligro y amrenaza que conlleva ésta tecnología.

*********

AI Aplicable en los conflictos armados y límites jurídicosy ético 

CT lidera el proyecto Koios de inteligencia artificial para la Defensa - Actualidad Aeroespacial
CT lidera el proyecto Koios de inteligencia artificial para la Defensa

Las normas del Derecho Internacional Humanitario (DIH) establecen límites al uso de los medios y métodos de combate en el desarrollo de las hostilidades. Si bien en su origen el DIH no fue elaborado teniendo en cuenta los desafíos planteados por el desarrollo de la inteligencia artificial (IA) en ese contexto, es una realidad que en la actualidad la evolución de esta inteligencia, los algoritmos y su aplicación militar emergente constituyen un desafío a la luz de las normas humanitarias. Ese desafío comprende tres ámbitos fundamentales: el técnico, el legal y el ético.

Si bien se puede decir que la IA, en la etapa actual de desarrollo, permite que un programa computerizado basado en algoritmos realice ciertas tareas en un entorno complejo e incierto, a menudo con mayor precisión que los seres humanos, también debemos destacar que no hay tecnología que haga que una máquina se comporte como un ser humano, quien puede determinar si una acción es lícita o ilícita y decidir no continuar con lo programado, teniendo como objetivo primordial la protección de las víctimas.

Los Estados deben adoptar regímenes de verificación, prueba y monitoreo como parte del proceso para determinar e imponer limitaciones o prohibiciones de acuerdo a los principios esenciales de distinción y proporcionalidad que el DIH establece en la utilización de armas durante los conflictos armados internacionales o no internacionales. Tanto desde una perspectiva legal como ética el ser humano está en el centro de esta problemática, ya que la responsabilidad por el uso de la fuerza no puede transferirse a sistemas de armas o algoritmos, y sigue siendo una responsabilidad humana. Marta R. Vigevano. Universidad de Buenos Aires 2021

*********

La inteligencia artificial cambiará para siempre la guerra

Por Blanca Castro

Los escenarios inexplorados de la inteligencia artificial en la guerra generan preocupación en la comunidad internacional, pero la carrera tecnológica-armamentística no se detiene: Ucrania ha lanzado su propio proyecto para la creación de estas armas.

Ucrania mira hacia el futuro y se embarca en la misión de desarrollar tecnología militar bajo la iniciativa Brave 1. Un grupo de cooperación internacional para crear todo tipo de sistemas de defensa y armamento no tradicional, como armas automatizadas o autónomas que, gracias a la inteligencia artificial, podrían operar de forma independiente y cambiar para siempre las operaciones militares.

Pero su futura implementación es controversial. El gran debate es cuál será el papel de los humanos. César Pintado, profesor del Observatorio de Inteligencia, Seguridad y Defensa de España (CISDE) considera que es bastante «desaconsejable eliminar el factor humano» ya que el combate se ha vuelto «muy complejo y muy volátil».

Armas diseñadas para «pensar por sí solas», pero «carentes» de moral

«Constantemente hay misiones que se abortan por cuestiones éticas, legales, técnicas o simplemente por la propia evolución del combate”, dice a Euronews.

La investigadora del Centro de Estudios sobre la Guerra y del Departamento de Ciencias Políticas y Gestión Pública de la Universidad del Sur de Dinamarca, Anna Nadibaidze, agrega que recindir de la presencia humana también implica «una pérdida de la capacidad moral» en los combates.

«Un operador humano siempre existe la posibilidad, en teoría, de que un humano pueda ejercer la compasión y la empatía y el juicio humano, y un sistema que está entrenado con datos y preprogramado para hacer algo no tiene esa opción», apunta Nadibaidze.

No obstante, los dos analistas resaltan los beneficios que las «armas disruptivas» -término extendido para referirse al armamento con inteligencia artifical- podrían ofrecer en los conflictos armados, como mayor precisión y un menor número de bajas en las operaciones.  La lista incluye perros robots, armas con apariencia humanoide o enjambres de drones autónomos.

 

Pero existe una serie de riesgos, al utilizar inteligencia artificial los algoritmos podrían tener sesgos en sus modelos de datos, como por ejemplo: errores de identificación facial biométrica o falta de una evaluación profunda de su entorno. Pintado, también analista del Estado Mayor de la Defensa de España, pone de ejemplo un vehículo blindado como el objetivo previamente establecido para el arma autónoma.

Drones Matrice listos para ser entregados al Ejército ucraniano en la región de Kiev, Ucrania, el 2 de agosto de 2022. Se espera que al integrar la inteligencia artifical en ellos ocurra una revolución armamentística.
Foto de AP.Drones Matrice listos para ser entregados al Ejército ucraniano en la región de Kiev, Ucrania, el 2 de agosto de 2022. Se espera que al integrar la inteligencia artifical en ellos ocurra una revolución armamentística.

“¿Qué pasa si ese blindado de momento ha sido capturado por fuerza propia o aliadas? Qué pasa si ese carro de combate, ese modelo, está siendo usado también por fuerzas aliadas o si está momentáneamente junto a tropas aliadas o contra zonas vedadas, como puede ser un templo o una escuela”, señala.

“Preocupan los riesgos del uso de la inteligencia artificial en el contexto militar”

De visita en Lima, Mallory Stewart, secretaria adjunta para Control, Verificación y Cumplimiento de Armas del Departamento de Estado de EE.UU., advierte sobre los desafíos que representan la cooperación en materia de seguridad en el espacio exterior y el uso responsable de las tecnologías emergentes, cuyo avance es veloz.

“Preocupan los riesgos del uso de la inteligencia artificial en el contexto militar”

Milagros Asto Sánchez
Milagros Asto Sánchez. EC

La convivencia actual entre las tensiones geopolíticas y el auge de las tecnologías emergentes hace de este un momento histórico en el que el debate por la seguridad, incluso más allá de nuestro planeta, se vuelve trascendental.

Mallory Stewart, secretaria adjunta para Control, Verificación y Cumplimiento de Armas (AVC) del Departamento de Estado de Estados Unidos, sostiene que el entorno de seguridad internacional es cada vez más desafiante, mientras que en el entorno político multilateral se abandonan tratados y otras arquitecturas adoptadas para evitar una escalada involuntaria, malentendidos y errores de cálculo con consecuencias que lamentar.

Tras visitar Brasil, la funcionaria llegó esta semana a Lima, donde se reunió con autoridades peruanas y participó en una mesa de diálogo con El Comercio y otros dos medios locales sobre seguridad espacial e inteligencia artificial.

La exploración espacial atraviesa una nueva era. Aunque no tiene un gran programa espacial, ¿cómo podría el Perú, u otros países latinoamericanos, beneficiarse de los esfuerzos de EE.UU. en ese campo y cuáles son los pasos a seguir? ¿Cómo podemos integrar a la región?

Creo que es un momento muy emocionante. Gran parte de lo que hemos estado haciendo en el Gobierno de EE.UU. es tratar de recoger las lecciones aprendidas. Nuestros esfuerzos en el espacio y en la tecnología emergente a veces van hacia adelante lo más rápido posible, pero no siempre nos sentamos y nos preguntamos qué podríamos haber hecho mejor. Creo que el espacio es un buen ejemplo de cómo nos hemos dado cuenta, tras varias décadas de utilización del espacio, del reto que suponen los desechos espaciales. Y, aunque en el pasado hemos creado desechos, ahora nos hemos dado cuenta de lo difícil que es manejarlos. Así que, desde nuestro punto de vista, es mejor trabajar con los países que se están desarrollando e introduciendo en el ámbito espacial de forma más completa. Ahora intentamos ayudar al Perú a entender cuáles son las cuestiones y los retos a los que se enfrentan, pero también queremos compartir las lecciones aprendidas para que sepamos que es importante comprometemos a no crear más desechos que hacen que las operaciones espaciales se vuelvan más complicadas. Ahora mismo estamos entrando en este momento realmente emocionante en el que nuestra cooperación ampliada está creciendo de forma fabulosa.

Hay miles de toneladas de basura espacial orbitando la Tierra, según la NASA. (Foto: AFP/ ESA / HO)
Hay miles de toneladas de basura espacial orbitando la Tierra, según la NASA. (Foto: AFP/ ESA / HO)

¿Cómo evalúa la participación del Perú?

Es un momento positivo para empezar a decir que apreciamos profundamente el compromiso del Perú con el comportamiento responsable que vimos en la Asamblea General de la ONU, en el 2022, cuando se aprobó una resolución para evitar que se produzca más basura espacial. Debemos trabajar en lo que podemos hacer para prevenir cualquier tipo de desafío para nuestro uso colectivo e integral del espacio en el futuro. El enfoque basado en las lecciones aprendidas y en aprender del Perú sobre los retos a los que nos enfrentamos es realmente apasionante.

________________________________________________
PERFIL
Mallory Stewart

En el cargo desde: 18/4/2022

Profesión: Abogada

Trayectoria:

Antes de asumir su posición actual, sirvió como asistente especial del presidente Joe Biden y fue directora principal de Control de Armas en el Consejo de Seguridad Nacional.

________________________________________________

¿De qué manera puede utilizarse la Inteligencia Artificial (IA) para explicar el espacio?

Creo que hay que tratar de enfocar el entorno espacial desde la perspectiva de la utilidad para todos los países y la sostenibilidad del apasionante potencial que nos ofrece ahora, pero también para las generaciones futuras. Por lo tanto, debemos utilizar nuestra capacidad para trabajar juntos y explorar nuevos accesos en los lugares que necesitan una mayor representación en la comunidad espacial. Esto nos ayudará a ampliar tanto la capacidad de entender a dónde tenemos que ir, lo que tenemos que lograr y tal vez cómo podemos utilizarlo mejor como una comunidad global. Uno de los retos a los que se han enfrentado los operadores espaciales es la limitada comunidad a la que pertenecen y creo que hay que ampliar esa comunidad para ver cómo los nuevos actores espaciales, como el Perú y otros países de la región, pueden aportar su experiencia y conocimientos para lograr mayores capacidades de exploración espacial. No es momento de limitarse a una conversación entre unos pocos países, sino de ampliarla realmente a lo que tiene que ser, que es una conversación global.

«Uno de los retos a los que se han enfrentado los operadores espaciales es la limitada comunidad a la que pertenecen».

¿Cuán avanzado está el uso militar de la IA? ¿Ve riesgos significativos? ¿Tal vez algo que involucre a América Latina?

En EE.UU. todavía estamos tratando de entender lo avanzado que está nuestro propio uso de la inteligencia artificial en nuestro Ejército, pero también dónde están los buenos usos y beneficios potenciales, que ya son bastante amplios. Me sorprende lo omnipresente que es el uso de la IA en nuestros iPhones, en nuestras computadoras, incluso en el funcionamiento de aparatos de cocina mundanos. En EE.UU., la IA se ha utilizado en nuestro Ejército. Nuestra preocupación desde la Oficina de Control de Armas se centra especialmente en los riesgos que el uso de la IA podría tener en el contexto militar si no hay una formación adecuada, una comprensión adecuada de los riesgos potenciales y de los desafíos que el sesgo involuntario podría traer a un sistema de inteligencia artificial, especialmente los riesgos de no incluir a un humano en la toma de decisiones estratégicas cruciales.

La inteligencia artificial tiene enormes potenciales de cambiar todos los aspectos de la vida, pero incluye riesgos.
La inteligencia artificial tiene enormes potenciales de cambiar todos los aspectos de la vida, pero incluye riesgos.

Nuestro Departamento de Defensa tiene una amplia supervisión y requisitos de gestión ética que ya han puesto en marcha y que se reflejan en gran medida en la declaración militar sobre el uso de la IA en el espacio militar que la subsecretaria de nuestra oficina, Bonnie Jenkins, presentó en febrero del 2023. Esa declaración representa lo que nuestro Ejército ha aprendido de algunos de sus esfuerzos para utilizar la IA de forma responsable. Pero la declaración está evolucionando y estamos hablando con el Gobierno Peruano y otros gobiernos de la región para escuchar cómo se puede maximizar la utilidad de la IA de una manera positiva y cómo podemos utilizar este tipo de compromisos y regulaciones para prevenir los riesgos que la IA puede traer.

¿Cómo se pueden prevenir esos riesgos?

Hemos vuelto a un análisis del tipo “lecciones aprendidas”. Hemos visto que se nos escapó la incorporación de sesgos y errores humanos en anteriores sistemas de IA. Es algo que descubrimos a posteriori y que queremos tratar de evitar a medida que la IA se utilice más y más en el futuro. Así que, para garantizar un contexto de formación adecuado para la comprensión de esta tecnología, se debe evitar que en el contexto militar un error pueda continuar sin el conocimiento humano y garantizar que siempre haya un ser humano en el bucle en la toma de decisiones estratégicas, lo que es una de las cosas más importantes desde una perspectiva de control de armas. Nunca hay una decisión tomada con respecto a las armas estratégicas que no incluya la participación humana, que no incluya la supervisión, el conocimiento y la preocupación extrema y la perspicacia de un humano.

«Se debe evitar que en el contexto militar un error pueda continuar sin el conocimiento humano y garantizar que siempre haya un ser humano en el bucle en la toma de decisiones estratégicas».

¿Qué es lo que más le preocupa a Estados Unidos en materia de seguridad en América Latina?

No es necesariamente mi área de especialización, pero sí puedo decir que no se trata de América Latina en concreto. Yo diría que a medida que vemos cómo las tecnologías emergentes y los ámbitos de seguridad emergentes se expanden y se vuelven extraordinariamente complicados, tenemos preocupaciones de seguridad para nosotros mismos, pero también para nuestros socios. Y la concienciación es una gran parte de lo que hacemos en la Oficina de Control de Armas para intentar que todo el mundo sea consciente de los riesgos potenciales, de modo que podamos trabajar juntos de forma global no sólo para disuadir esos riesgos, sino también para intentar prevenirlos a través de la supervisión y la regulación y los comportamientos responsables.

“Tenemos más preocupaciones de seguridad para nosotros mismos, pero también para nuestros socios”.

En cuanto a la relación entre la IA y la ciberseguridad, no tenemos que tener un gran presupuesto para generar riesgos y se puede hacer desde cualquier país, incluido el Perú. ¿Cómo ve este escenario?

Es una conversación muy importante y muy complicada. Creo que la capacidad de IA para exacerbar algunos de los retos de ciberseguridad, para encontrar cosas que ni siquiera un investigador humano podría encontrar en términos de agujeros en las protecciones de trabajo de seguridad, es algo que a todos no nos deja dormir. Es algo que se ve potencialmente en las películas de Hollywood, pero es una preocupación real y creo que es una de las razones por las que realmente necesitamos comportamientos responsables en la apreciación de cómo la IA puede convertirse en parte de todo lo que hacemos. Muchas personas, oficinas y agencias lo están estudiando en EE.UU. y sé que es algo que el Gobierno Peruano también está estudiando activamente.

La Oficina de Ciberseguridad se acaba de crear en el Departamento de Estado. En EE.UU. contamos con un asesor principal del Secretario de Estado en materia de seguridad y tecnología y en el Consejo de Seguridad Nacional de la Casa Blanca. También hemos desarrollado capacidades y conocimientos adicionales sobre cómo el reto de la seguridad va a afectarnos a todos. Pero también se trata del uso responsable de la IA. Tenemos que ser capaces de entender cómo los países pueden regular los contextos, conocimientos y usos reales de la IA podría ayudar a prevenir su uso nefasto en el escenario de la ciberseguridad. Es una cuestión realmente complicada, pero es una buena pregunta, y me alegro de que todos estemos pensando en ello, porque la ciberseguridad es un área que nos afecta a todos y no requiere una gran cantidad de recursos para realizar un uso realmente nefasto de ella. Ser responsables, concienciarnos de los retos que plantea e intentar trabajar juntos para prevenir sus riesgos y su eficacia es algo en lo que todos deberíamos trabajar.

Vídeos relacionados:

68 Comentarios

Dejar respuesta

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

  1. Interesante artículo que evidencia los peligros de la Inteligencia Artificial como armas de guerra, destaca la proliferación de drones kamikaze en el conflicto bélico de Rusia y Ucrania. Asimismo, resalta la necesidad de enseñar a los militares a no confiar demasiado en la inteligencia artificial, ya que no se trata de un robot que no comete ningún error, sino de un sistema creado por el hombre que tiene sus limitaciones y deficiencias. Considero que se debe tener cuidado y cierto control al tratar de aprovechar la inteligencia artificial en nuestra vida, específicamente, en la guerra; por lo que se debe primero evaluar los riesgos ya que es muy peligroso y la afectación que podría causar en la sociedad.

  2. Un artículo muy interesante sobre el impacto que puede tener el uso de la inteligencia artificial en las guerras. En el articulo se plantea cuestiones muy validas sobre los riesgos que puede acarrear su uso, por lo cual el autor menciona tres niveles de riesgo relacionado con la IA militar. El primero que menciona sobre aquellas decisiones que puede tener la IA, lo cual incluso puede ser difícil de entender por sus creadores; el segundo nivel hace referencia a como la IA podría cambiar el rumbo de la guerra y llevar a conflictos que vayan en contra de los derechos humanos y se pierda la moralidad de la guerra; por último, se menciona el tercer nivel, en el cual el autor menciona que esta IA podría ser usado para fines con naturaleza mala. Quizás el uso de la IA en la guerra es inevitable, pero considero que se debe tener la mayor precaución posible en la seguridad de que esta tecnología no llegue a las manos equivocadas y sean usadas con fines destructivos.

  3. Excelente artículo donde connota lo esencial que la IA en el ámbito militar se utilice de manera ética y cumpla con las leyes internacionales de conflicto armado. Esto implica el desarrollo de sistemas de IA que sean capaces de tomar decisiones éticas y respetar los principios de proporcionalidad y distinción. Es necesario un monitoreo y supervisión adecuados de las aplicaciones de IA en el ámbito militar para garantizar que se utilicen de manera responsable y ética. Esto incluye la transparencia en el desarrollo y uso de sistemas de IA en el ejército. Entonces, el uso de la IA en la guerra plantea importantes cuestiones éticas y legales que requieren una atención cuidadosa. Es esencial que los Estados y la comunidad internacional se pongan de acuerdo en regulaciones efectivas para garantizar que la IA no se utilice de manera indiscriminada y para mantener la responsabilidad humana en la toma de decisiones militares.

  4. El artículo plantea preocupaciones válidas sobre el uso de la inteligencia artificial (IA) en el ámbito militar y sus posibles peligros. Destaca la proliferación de armas autónomas, como los drones kamikaze, que ya están siendo utilizadas en conflictos reales, como el de Ucrania. Además, resalta que la IA presenta desafíos en términos de transparencia y comprensión de sus decisiones, lo que puede generar incertidumbre en su uso. También se mencionan niveles de riesgo asociados a la IA en asuntos militares, desde problemas tecnológicos hasta implicaciones éticas y humanitarias, incluyendo la preocupación de que la IA podría cambiar la forma en que se llevan a cabo las guerras.

  5. Es muy cierto que la IA ha avanzado considerablemente en la última década, y su uso en la toma de decisiones militares es un hecho. Sin embargo, es esencial entender los riesgos asociados con esta tecnología. Destaco del articulo que uno de los principales desafíos es el llamado «problema de la caja negra», que se refiere a la incapacidad de comprender completamente las decisiones tomadas por algoritmos de IA. Esto plantea preocupaciones sobre la confiabilidad de las decisiones autónomas de las máquinas en situaciones críticas.

  6. El articulo aborda de manera crucial los peligros asociados al uso de la Inteligencia Artificial (IA) en conflictos bélicos, especialmente destacando la preocupación por el uso de drones kamikaze y otras armas autónomas. Se plantea que la proliferación de armas autónomas exige una regulación adecuada y una comprensión clara de las implicaciones de la IA en la guerra. Se mencionan tres niveles de riesgo relacionados con la IA militar. El primero se refiere a la «caja negra» de la IA, donde sus decisiones pueden ser difíciles de entender incluso para los desarrolladores. El segundo nivel involucra cómo la IA podría cambiar la naturaleza de la guerra y llevar a un aumento de conflictos humanitarios y morales. Finalmente, el tercer nivel destaca la facilidad con la que los malhechores podrían obtener y utilizar la tecnología de IA para fines militares, lo que plantea la necesidad de acuerdos internacionales para limitar su proliferación.

  7. El artículo advierte sobre los peligros de la Inteligencia Artificial (IA) en el ámbito militar, especialmente en el contexto de la guerra en Ucrania, donde se han utilizado «drones kamikaze». Se resalta que la IA se está aplicando en diversas funciones militares, y se plantea la necesidad de regular y comprender su uso en armas autónomas. Se mencionan tres niveles de riesgo asociados a la IA en asuntos militares, incluyendo la falta de transparencia en las decisiones de la IA y los posibles problemas humanitarios relacionados con la automatización de la guerra. También se discuten los desafíos éticos y legales relacionados con el uso de la IA en conflictos armados y se destaca la necesidad de regulación a nivel internacional

  8. El artículo destaca la creciente preocupación sobre el uso de la inteligencia artificial en el ámbito militar y cómo está transformando la naturaleza de la guerra. La utilización de drones autónomos, como los «drones kamikaze,» en el conflicto en Ucrania ilustra el impacto real de esta tecnología en los conflictos armados. Además, plantea importantes cuestiones éticas y legales, como la posibilidad de que la IA cambie la forma en que se toman decisiones en el campo de batalla y la responsabilidad por las acciones de las armas autónomas. La regulación internacional de estas armas se vuelve crucial para abordar los riesgos asociados con su proliferación. En resumen, la IA plantea desafíos significativos en el ámbito militar que requieren una reflexión profunda y una acción coordinada a nivel global.

  9. En este artículo, exploramos cómo la inteligencia artificial está cambiando la guerra y su controvertida implementación. Se debate sobre el papel de los humanos en operaciones militares con armas autónomas. Se destacan ventajas como precisión y reducción de bajas, pero también se advierten riesgos como sesgos algorítmicos. La cooperación internacional y la necesidad de regulaciones son temas clave en este contexto.

  10. El articulo nos explica acerca del uso de la inteligencia artificial en conflictos bélicos el cual es un tema complejo que plantea importantes cuestiones éticas y de seguridad global. La rápida evolución de la tecnología y su potencial impacto en la forma en que se llevan a cabo las guerras requiere una reflexión seria por parte de la comunidad internacional. Es esencial encontrar un equilibrio entre aprovechar la IA para reducir bajas civiles y garantizar que su uso sea ético y responsable. En conclusión, el uso de la IA en conflictos bélicos plantea desafíos éticos, legales y de seguridad significativos por ello es importante que la comunidad internacional aborde estos problemas para garantizar un uso responsable de la tecnología en un entorno de seguridad global.

  11. Este artículo plantea preocupaciones significativas sobre el uso de la inteligencia artificial en contextos militares. Destaca riesgos como la falta de transparencia en las decisiones de la IA, la posible disminución de la moral en la guerra y la necesidad de regulaciones internacionales para controlar su proliferación. Creo firmemente en la importancia de incluir la ética y la supervisión humana en la toma de decisiones estratégicas relacionadas con la IA militar. Además, subrayo la necesidad de que los países colaboren y regulen estas tecnologías emergentes para abordar los riesgos potenciales en materia de seguridad y ciberseguridad, no solo a nivel nacional sino también en la comunidad internacional, especialmente en un contexto donde la exploración espacial y la tecnología IA se entrelazan en un mundo cada vez más complejo.

  12. El artículo destaca el concepto de la «caja negra» en la IA, donde las decisiones tomadas por sistemas de IA pueden resultar difíciles de comprender incluso para sus desarrolladores. Esto plantea cuestiones sobre la confiabilidad y la transparencia de la IA en entornos militares.
    Además, se señala la importancia de enseñar a los militares a no depender demasiado de la IA y a comprender sus limitaciones. La IA, aunque poderosa, no está exenta de riesgos, y los humanos deben mantener el control y la responsabilidad en situaciones militares.

  13. Este artículo destaca el impacto de los drones autónomos y la inteligencia artificial en la guerra, con un enfoque en el conflicto en Ucrania. Muestra cómo la tecnología de «munición merodeadora» está siendo utilizada por Rusia en el conflicto. Sin embargo, también plantea importantes cuestiones éticas y humanitarias sobre el uso de la IA en asuntos militares, incluida la dificultad de distinguir a civiles de combatientes y el riesgo de catástrofes humanitarias. El artículo subraya la importancia de no confiar demasiado en la IA y recuerda que esta es una creación humana con sus limitaciones. Además, se menciona la necesidad de establecer regulaciones y normativas para el uso de la inteligencia artificial en la guerra, ya que la tecnología avanza rápidamente y plantea desafíos al Derecho Internacional Humanitario. En última instancia, el artículo destaca la preocupación internacional sobre el uso de la inteligencia artificial en la guerra y cómo esta tecnología podría cambiar la naturaleza misma del conflicto armado, al tiempo que se señala la necesidad de considerar no solo las implicaciones tecnológicas, sino también las morales y éticas que esto conlleva.

  14. Uno de los mayores peligros de la IA como arma de guerra es la falta de control y supervisión humana. A medida que las máquinas adquieren la capacidad de tomar decisiones autónomas, existe el riesgo de que se vuelvan incontrolables y actúen de forma impredecible o contraria a los intereses y valores humanos. Esto podría conducir a situaciones en las que las máquinas tomen decisiones letales sin la debida consideración ética y sin la capacidad humana de evaluar las consecuencias a largo plazo.

  15. El artículo destaca la creciente preocupación por el uso de la inteligencia artificial (IA) en conflictos militares y cómo esto plantea riesgos en varios niveles. La IA, aunque prometedora en términos de eficiencia, presenta desafíos éticos y humanitarios significativos, como la posibilidad de decisiones automatizadas que podrían llevar a un aumento de las bajas civiles. Además, la proliferación de estas tecnologías es preocupante, ya que los actores no estatales también pueden acceder a ellas. En mi opinión, es esencial abordar estos problemas de manera internacional y regular el uso de armas autónomas para evitar consecuencias devastadoras. La ética y la responsabilidad en la toma de decisiones deben seguir siendo fundamentales, incluso en un entorno impulsado por la IA.

  16. El artículo nos denota la creciente presencia de la inteligencia artificial en el ámbito militar, especialmente evidenciada en el conflicto en Ucrania. Destaca las preocupaciones globales que esto genera, especialmente en relación con el uso de drones autónomos por parte de Rusia, lo que subraya el papel cada vez más relevante de la IA en la guerra moderna. Además, resalta la importancia de que la comunidad internacional establezca regulaciones para abordar los riesgos tecnológicos y los cambios en la naturaleza de los conflictos armados.Además, enfatiza la urgencia de regular la IA en contextos militares, a pesar de los desafíos que esto conlleva debido a la facilidad de adaptación de la tecnología para fines militares. Finalmente, hay que destacar la necesidad de cooperación internacional para abordar estos desafíos de seguridad tanto en el ámbito militar como en el espacial, con el objetivo de garantizar un uso responsable de la IA en beneficio de la comunidad global.

  17. La muerte de Yevgeny Prigozhin, el jefe del Grupo Wagner, es un acontecimiento que suscita preguntas y especulaciones sobre su relación con Vladimir Putin. Aunque no hay evidencia sólida de su participación, las circunstancias misteriosas alimentan las teorías. Es un recordatorio de la opacidad en algunos aspectos del poder en Rusia y el interés internacional en comprender su dinámica. Las investigaciones en curso deben arrojar luz sobre este evento y su impacto en el panorama político y geopolítico.

  18. Este artículo plantea preocupaciones significativas sobre el uso de la inteligencia artificial (IA) en contextos militares, destacando riesgos como la falta de transparencia en las decisiones de la IA, la posible disminución de la moral en la guerra, y la necesidad de regulaciones internacionales para controlar su proliferación. Se menciona la importancia de incluir la ética y la supervisión humana en la toma de decisiones estratégicas relacionadas con la IA militar. Además, se subraya la necesidad de que los países colaboren y regulen estas tecnologías emergentes para abordar los riesgos potenciales en materia de seguridad y ciberseguridad, no solo a nivel nacional sino también en la comunidad internacional, especialmente en un contexto donde la exploración espacial y la tecnología IA se entrelazan en un mundo cada vez más complejo.

  19. Interesante artículo que aborda la preocupación creciente sobre el uso de la inteligencia artificial (IA) en el ámbito militar, particularmente en el contexto de las armas autónomas. Se destaca cómo los drones autónomos ya están siendo utilizados en conflictos como el de Ucrania y cómo la IA está cambiando la naturaleza de la guerra. Por ello, es crucial plantear estas cuestiones a nivel internacional para la regulación en este campo y la importancia de que los militares sepan cómo usar y controlar la inteligencia artificial de manera responsable.

  20. El uso de la inteligencia artificial en el ámbito militar plantea cuestiones éticas y de seguridad muy importantes. La IA tiene el potencial de cambiar drásticamente la naturaleza de la guerra y las estrategias militares, lo que requiere una reflexión profunda y regulaciones efectivas.
    Uno de los principales desafíos es la falta de transparencia en las decisiones tomadas por sistemas de IA. Esto plantea un riesgo teórico de que los sistemas de IA puedan realizar acciones no anticipadas, lo que es especialmente peligroso en contextos militares.
    La IA tiene el potencial de ser una herramienta poderosa para mejorar la eficiencia y reducir las bajas civiles en conflictos armados, pero su uso debe estar sujeto a regulaciones estrictas para garantizar su seguridad y evitar abusos

  21. Es muy triste que algunos se enfoquen en el uso inadecuado para sacar provecho propio. Para contrarrestar eso, es esencial equilibrar el potencial de la IA en la defensa y la seguridad con la responsabilidad de asegurar que su desarrollo y uso se realicen dentro de límites éticos y legales claros para evitar consecuencias catastróficas y garantizar la protección de los derechos humanos.

  22. La noción de armas autónomas, como los «drones kamikaze,» que pueden buscar y seleccionar objetivos de forma independiente, plantea desafíos éticos y legales significativos. La proliferación de tales tecnologías subraya la necesidad urgente de que los Estados y la comunidad internacional establezcan regulaciones y acuerdos que aborden el uso de la IA en el ámbito militar. La falta de regulación y control adecuados podría llevar a consecuencias devastadoras y a la escalada de conflictos.

  23. Si bien la IA tiene el potencial de mejorar la eficiencia y la precisión de las operaciones militares, también plantea riesgos significativos y peligros éticos en el contexto de la guerra. Es esencial que la comunidad internacional aborde estas preocupaciones de manera proactiva, estableciendo normas y regulaciones claras para garantizar un uso responsable y ético de la IA en el ámbito militar. La consideración de los peligros de la IA como arma de guerra debe ser parte de un debate informado y sostenido sobre el futuro de la seguridad internacional.

  24. El artículo nos habla sobre los peligros de la IA, pues está siendo utilizada en el ámbito militar como arma de guerra. Uno de ellos, es el tecnológico, que incluye acciones inesperadas de los robots, ya que podrían basar sus decisiones en datos erróneos o incompletos. También, implica ciberataques, guerras de información y problemas de seguridad. Otro de los desafíos es la proliferación de armas autónomas, las cuales incrementarían los conflictos, causando víctimas civiles y graves daños. Finalmente, el reemplazo de los soldados por robots, ha originado preocupaciones éticas, pues estos, al carecer de responsabilidad moral, empatía y humanidad, podrían causar ataques indiscriminados. Por lo tanto, es importante que los países desarrollen regulaciones éticas y legales sobre la IA, estableciendo límites en su utilización, así como también fomenten el diálogo internacional y el uso responsable de estas tecnologías.

  25. La inteligencia artificial (IA) se está utilizando cada vez más en el ámbito militar, desde drones autónomos hasta sistemas de toma de decisiones basados en IA, esto en sí ya plantea preocupaciones sobre la regulación y el uso ético de la IA en la guerra; cabe destacar que dentro de los riesgos del uso militar de las IA incluyen la falta de comprensión de las decisiones de la IA, problemas humanitarios relacionados con la facilidad de dar órdenes de matar y la proliferación de esta tecnología; es por ello que para abordar estos riesgos, se requieren regulaciones internacionales y una mayor conciencia sobre el uso responsable de la IA en conflictos armados.

  26. El uso de la inteligencia artificial en conflictos militares es un tema que suscita preocupación y reflexión. Si bien la IA promete avances significativos en la eficiencia de las operaciones militares, es esencial abordar las cuestiones éticas y humanitarias que surgen. La idea principal radica en el equilibrio delicado entre el potencial de la IA para reducir las bajas civiles y la necesidad de salvaguardar la toma de decisiones humanas y la responsabilidad en la guerra. El impacto de este tema en la sociedad actual y futura es significativo, ya que afecta no solo a la seguridad global, sino también a la ética y la moralidad en la guerra. En un mundo donde la IA está en constante avance, la coherencia y la comprensión del contenido son cruciales para guiar la regulación y el uso responsable de esta tecnología en el ámbito militar.

  27. Este artículo plantea una serie de preocupaciones muy válidas sobre el uso de la inteligencia artificial en el ámbito militar. Es cierto que la automatización de las decisiones en la guerra plantea problemas éticos y legales significativos. La dificultad para distinguir entre civiles y combatientes es un tema crítico, y la idea de una «guerra de robots» es alarmante.
    Además, la responsabilidad en caso de crímenes de guerra sigue siendo un asunto complejo. La inteligencia artificial puede tomar decisiones basadas en datos, pero estos datos pueden ser incorrectos o manipulados, lo que hace que la atribución de la responsabilidad sea un desafío.
    En última instancia, el desarrollo y el uso de la inteligencia artificial en el ámbito militar plantean desafíos importantes que deben abordarse mediante regulaciones éticas y legales sólidas a nivel internacional. La tecnología avanza rápidamente, y es fundamental que la humanidad establezca límites claros para garantizar un uso responsable y seguro de la IA en situaciones de conflicto.

  28. El uso de la inteligencia artificial (IA) en el contexto militar plantea preocupaciones y desafíos significativos. A medida que la IA se integra en el ámbito militar, se han destacado varios niveles de riesgo. En primer lugar, la IA a menudo funciona como una «caja negra», lo que significa que las decisiones tomadas por los sistemas de IA pueden ser difíciles de comprender incluso para sus propios desarrolladores. Esto crea un riesgo teórico de que la IA pueda tomar acciones inesperadas. En segundo lugar, la IA podría cambiar la forma en que se organizan las guerras y los conflictos, lo que plantea desafíos humanitarios y éticos. Por último, existe el riesgo de una amplia proliferación de sistemas de IA utilizados con fines militares, lo que podría ser aprovechado por actores no estatales y aumentar la dificultad de regular estas tecnologías.

  29. Un artículo que todos deben leer. Muy bueno. En términos humanitarios a gran escala. Los civiles estarán en la línea de fuego. En primer lugar, el problema de distinguir a un civil de un militante sigue siendo muy grande. En segundo lugar, el riesgo de catástrofes humanitarias aumentará porque aumentará el riesgo de nuevos conflictos. Después de todo, iniciar una «guerra de robots» en términos morales puede ser mucho más fácil. Los robots deben servir a la humanidad pero nos pueden desbordar y hay que pòner límite antes de tiempo. Luego será muy tarde e imparable como un desborde extremo.

  30. Excelente artículo. Desde el punto de vista del derecho internacional que rige el desarrollo de las hostilidades -las «leyes y costumbres de la guerra»-, la IA no destaca en nada. Un dron controlado por IA no es diferente de un misil con un sistema de guía «normal», o de una bomba «estúpida» sin guía. Si hablamos, por ejemplo, de crímenes de guerra, las personas seguirán siendo responsables de ellos, aunque la «decisión la haya tomado» el dron.

  31. Malony declara que es un momento positivo para empezar a decir que apreciamos profundamente el compromiso del Perú con el comportamiento responsable que vimos en la Asamblea General de la ONU, en el 2022, cuando se aprobó una resolución para evitar que se produzca más basura espacial. Debemos trabajar en lo que podemos hacer para prevenir cualquier tipo de desafío para nuestro uso colectivo e integral del espacio en el futuro. El enfoque basado en las lecciones aprendidas y en aprender del Perú sobre los retos a los que nos enfrentamos es realmente apasionante.
    Si el hombre contamina el planeta no podemos permitir la contaminación espacial perjudicando toda la Tierra.

  32. Según Bulanen, es necesario enseñar a los militares a no confiar demasiado en la IA: no se trata de un «robot que nunca comete un error», sino de un sistema ordinario fabricado por el hombre que tiene sus limitaciones e inconvenientes. Al fin y al cabo, un robot, como un ser humano, toma decisiones basándose en determinados datos, y éstos pueden resultar incompletos, erróneos o deliberadamente distorsionados.
    Me parece los más atinado en las escuelas militares del mundo.Pero la ambición bélica noo tiene límites expansionistas.

  33. Las armas «inteligentes» también aparecieron en el siglo pasado. Ya entonces existían, por ejemplo, sistemas de guiado para misiles y proyectiles, que permitían seleccionar y priorizar «independientemente» un objetivo entre varios sin intervención humana. O los sistemas de defensa antiaérea y antimisiles de los buques, que, en caso de falta de tiempo para una decisión por parte de una persona, podían disparar ellos mismos contra lo que consideraban un misil que amenazaba al buque. O, por ejemplo, la conocida «mano muerta», un sistema que puede dar la orden de un ataque nuclear de represalia si considera que las personas que lo controlan ya han muerto.
    Pero desde principios de este siglo, el perfeccionamiento de la IA avanza a pasos agigantados, como todos los demás ámbitos de la informática.

  34. Al fin y al cabo, un robot, como un ser humano, toma decisiones basándose en determinados datos, y éstos pueden resultar incompletos, erróneos o deliberadamente distorsionados. Por ello debe haber límite éticos y normas juridícas internacionales que regulen la guerra.