top of page

La amenaza de los "robots asesinos" está fuera de control

  • Foto del escritor: MundoNews
    MundoNews
  • 3 jun
  • 9 Min. de lectura

Crece la preocupación por el auge de máquinas capaces de matar sin la intervención de seres humanos, sólo ordenadas por la Inteligencia Artificial. La era "Terminator" ya está aquí.


Por Gabriel Michi



El ser humano está haciendo todo lo posible para prescindir del ser humano. Es decir, de sí mismo. Porque, aunque parezca increíble, todos los fantasmas agitados desde la imaginación en libros y películas sobre un futuro distópico donde las máquinas se independizan de sus creadores y comienzan a actuar en forma autónoma, ya son una realidad. Para muchas cuestiones vinculadas al desarrollo económico y productivo, pero también para cuestiones mucho más riesgosas como el límite entre la vida y la muerte. Porque ya están aquí los denominados "robots asesinos", capaces de aniquilar seres humanos sin la intervención de personas. Lo pueden hacer incluso partiendo de la orden de una Inteligencia Artificial, sin participación humana en ese proceso. Si, la era "Terminator" ya está aquí. Algo que ya había mostrado hace casi tres años MundoNews en su nota "El futuro más temido: llegaron los robots asesinos autónomos", donde se daba cuenta de que, por primera vez en la historia de la Humanidad, en Libia se utilizaron drones no tripulados ni dirigidos por personas que atacaron a seres humanos y que dejaron al menos 4 muertos. Eso ocurrido a fines de 2020, pero conocido dos años después, ahora se ha extendido mucho más y la posibilidad de que simples algoritmos determinen el destino de soldados y civiles en un escenario de combate y sin que esté involucrado un ser humano en la orden respectiva, está despertando muchísima preocupación en todo el planeta.


En los últimos tiempos se han disparado los casos de drones impulsados ​​por IA, algo que cambia por completo la lógica de la guerra. Y que genera grandes debates de cuestiones éticas frente a la autonomía de esos combates y los peligros que puedan ocasionarse por errores de las máquinas que resulten letales. Por eso legisladores de distintos países del Mundo están impulsando iniciativas que signifiquen el respeto a determinadas reglas básicas que permitan poner un límite y controlar el desarrollo y el uso de ese tipo de tecnología que evoluciona a niveles impensados. Esa tecnología que genera una paradójica situación en la que el ser humano cada vez cede voluntariamente más información -y poder- de sí mismo a las máquinas, con todo lo que eso implica.


También la ONU y Organizaciones No Gubernamentales han expresado su temor por este escenario apocalíptico que se convierte en algo cada vez en más riesgoso. Por eso. exigen una regulación internacional de las Armas Letales Autónomas (LAWS) para evitar un futuro próximo en el que las máquinas dicten y ejecuten decisiones de vida o muerte. Frente a este nuevo y preocupante panorama denuncian que hay un creciente espectro de los drones u otras armas autónomas, convertidos en verdaderos “robots asesinos” que "siembran la muerte desde el cielo y deciden por sí mismos a quién atacar", según un documento de la ONU.



Organizaciones como Amnesty International han lanzado la campaña "Paren a los robots asesinos".,
Organizaciones como Amnesty International han lanzado la campaña "Paren a los robots asesinos".,


Izumi Nakamitsu, directora de la Oficina de Asuntos de Desarme de la ONU, explicó: El secretario General siempre ha dicho que usar máquinas con poderes totalmente delegados para tomar la decisión de quitar una vida humana es simplemente repugnante desde el punto de vista moral. No debería permitirse. De hecho, debería estar prohibido por el derecho internacional. Esa es la postura de las Naciones Unidas”.


Por su parte, Human Rights Watch, una de las más importantes ONG internacionales en materia de Derechos Humanos, denunció que el uso de armas autónomas será el ejemplo más reciente y grave de la creciente "deshumanización digital", dejando a la Inteligencia Artificial la potestad de tomar decisiones que puedan afectar la vida de las personas, sin participación humana. Según Mary Wareham, directora de incidencia de la División de Armas de Human Rights Watch, “varios países con importantes recursos están invirtiendo fuertemente en Inteligencia Artificial y tecnologías relacionadas para desarrollar sistemas de armas autónomas terrestres y marítimas. Esto es un hecho”. Y agregó: “Esta iniciativa está impulsada por Estados Unidos, pero otros países importantes como Rusia, China, Israel y Corea del Sur también han invertido fuertemente en sistemas de armas autónomas”.


Amnesty International, otra de las más importantes ONGs del Mundo en materia de defensa de los Derechos Humanos, lanzó una campaña llamada "Paren a los robots asesinos" para intentar concientizar sobre semejante peligro. En la convocatoria plantean: "Nos enfrentamos a lo inconcebible: estas armas tienen la capacidad de elegir sus propios objetivos y atacarlos sin control humano. Las máquinas no pueden tomar decisiones éticas complejas. Carecen de compasión y entendimiento, toman decisiones basándose en procesos arbitrarios, sesgados y opresivos. Sustituir tropas por máquinas hará más fácil que se decida ir a la guerra con el peligro añadido de que puedan caer en manos de cualquiera". Y denuncia Amnesty: "Países como Estados Unidos, China, Israel, Corea del Sur, Rusia, Australia, India, Turquía y Reino Unido ya están invirtiendo en el desarrollo de estas armas autónomas"



Las máquinas autónomas capaces de reemplazar a los Ejércitos son cada vez más poderosas.
Las máquinas autónomas capaces de reemplazar a los Ejércitos son cada vez más poderosas.

Sin embargo, hay quienes defienden la utilización de este tipo de tecnología autónoma en las guerras señalando que incluso la Inteligencia Artificial puede superar y dejar de lado limitaciones humanas. En esa línea argumentan que los soldados pueden cometer errores de juicio quizás guiados por emociones; además de que suelen enfrentar inconvenientes relacionados con la falta de descanso y hasta problemas salariales. En esa defensa marcan que esas "dificultades" planteadas por los seres humanos no existen para las máquinas. Además sostienen que esos robots pueden identificar con más exactitud amenazas basándose en patrones de comportamiento y movimiento que tienen preconfigurados a través de los patrones y algoritmos brindados por la Inteligencia Artificial. Algo que potenciaría, según su visión, una mayor certeza a la hora de que esos sistemas autónomos decidan cuándo apretar el gatillo. Por otro lado, los defensores de estas tecnologías señalan que su utilización ha servido para minimizar las pérdidas humanas del ejército atacante, ya que no ponen en riesgo a soldados y militares propios en el territorio de combate. Y lo grafican con el "boom" de los dones que se están utilizando, por ejemplo, en la guerra entre Rusia y Ucrania.


Del lado de enfrente, los detractores de la automatización de las guerras señalan que permitir que las máquinas tomen el control del campo de batalla es un peligro ya que la tecnología dista mucho de ser infalible. Según Wareham, de Human Rights Watch, "es muy fácil que las máquinas confundan objetivos humanos. Las personas con discapacidad corren un riesgo especial debido a su forma de moverse. Sus sillas de ruedas pueden confundirse con armas. También preocupa que la tecnología de reconocimiento facial y otras mediciones biométricas no puedan identificar correctamente a personas con diferentes tonos de piel. La Inteligencia Artificial sigue presentando deficiencias y conlleva los sesgos de quienes programaron esos sistemas”.


Pero también hay cuestiones éticas que discutir. Nicole Van Rooijen, directora ejecutiva de la organización Stop Killer Robots ("Detengan a los robots asesinos"), una coalición que promueve una nueva ley internacional sobre la autonomía de los sistemas de armas, señala que este tipo de mecanismos dificultarían enormemente la determinación de responsabilidades por crímenes de guerra y otras atrocidades cometidas en el territorio de combate. Y lo ejemplifica: "¿Quién es responsable? ¿El fabricante? ¿O la persona que programó el algoritmo? Esto plantea toda una serie de cuestiones y sería una falla moral que se usaran ampliamente”.


Por todo eso es que se está pidiendo una regulación clara y urgente frente a la velocidad a la que avanza esta tecnología. Sabiendo que se corre desde atrás porque ya hay pruebas concretas de que los sistemas de selección de blancos basados ​​en Inteligencia Artificial se vienen usando. El secretario General de la ONU, António Guterres, instó a los Estados miembros a alcanzar un acuerdo jurídicamente vinculante para regular y prohibir su uso para 2026.



El fantasma de los "robots asesinos" sin intervención humana salió de la ficción para convertirse en realidad.
El fantasma de los "robots asesinos" sin intervención humana salió de la ficción para convertirse en realidad.


No es la primera vez que se plantea esa necesidad de regulación. En 2014 la propia ONU celebró la primera reunión de diplomáticos en el Palacio de las Naciones de Ginebra, donde ya en ese entonces el presidente de las conversaciones de expertos, el embajador Jean-Hugues Simon-Michel, de Francia, describió los sistemas letales de armas autónomas como “un tema emergente y desafiante en la agenda de desarme en este momento”, a pesar de que para entonces no se utilizaban sistemas de armas autónomas en conflictos y que la primera vez que se tiene prueba que se usó fue en el ataque de Libia de 2020 antes citado. Sin embargo, 12 años después y con los desarrollos agigantados en la materia, no se pudo avanzar en su control y su regulación, pese a la preocupación general.


En todo este tiempo ni siquiera se llegó a un consenso sobre la definición de "armas autónomas", y mucho menos, por supuesto, sobre los alcances que debería tener una regulación al respecto. Aun así, las ONG y la ONU se muestran optimistas respecto a que la comunidad internacional avanza lentamente hacia un entendimiento. Según Rouijen, de Stop Killer Robots, "todavía no estamos cerca de negociar un texto. Sin embargo, el actual presidente de la Convención sobre Ciertas Armas Convencionales (un instrumento de derecho humanitario de la ONU para prohibir o restringir el uso de tipos específicos de armas que se considera que causan sufrimiento innecesario o injustificable a los combatientes o que afectan indiscriminadamente a la población civil) ha presentado un borrador de trabajo bastante prometedor que, si existe voluntad y valentía políticas, podría sentar las bases de las negociaciones”.


Por su parte Wareham, de Human Rights Watch, también considera las conversaciones que se llevaron adelante en la ONU -en el mes de mayo que acaba de concluir- fueron un paso importante. Es por eso que señala: “Al menos 120 países apoyan plenamente el llamamiento para negociar una nueva ley internacional sobre sistemas de armas autónomas. Vemos mucho interés y apoyo, incluso de laureados con la paz, expertos en inteligencia artificial, profesionales del sector tecnológico y líderes religiosos”.


En tanto, Nakamitsu, de la Oficina de Asuntos de Desarme de las Naciones Unidas, sostiene:

“Existe un consenso creciente de que los sistemas de armas totalmente autónomos deberían prohibirse. En lo que respecta a la guerra, alguien debe rendir cuentas”. Y esta posición se extiende en todo el Mundo. “No podemos dejar pasar este momento sin tomar medidas. Es hora de convenir reglas y normativas internacionales que garanticen el control humano. Al menos, aseguremos que la decisión más trascendental y profunda, quién vive y quién muere, permanezca en manos de seres humanos y no de máquinas", afirmó el ministro de Relaciones Exteriores de Austria, Alexander Schallenberg.



El "boom" de los drones autónomos en la guerra Rusia-Ucrania muestra cómo han crecido esas armas.
El "boom" de los drones autónomos en la guerra Rusia-Ucrania muestra cómo han crecido esas armas.


Lo concreto es que con el avance vertiginoso de la tecnología de IA, los sistemas de armamento capaces de causar daño sin intervención humana están cada vez más presentes. Por ejemplo, hay drones utilizados por Ucrania que están programados para hallar su propio rumbo hacia el objetivo cuando la tecnología rusa de interferencia de señales los desconecta de su operador. Otro caso: hay denuncias de que el Ejército israelí podría haber recurrido a la IA para asistir en la identificación de objetivos de bombardeo en Gaza.


Y lo que resulta aún más temerario y preocupante es que se han detectado errores graves. Así lo contó Jaan Tallinn, un programador de software e inversor tecnológico: Ya hemos observado errores de selección de IA de variadas magnitudes, desde el reconocimiento equivocado de la cabeza calva de un árbitro como un balón de fútbol, hasta víctimas mortales entre los peatones provocadas por vehículos autónomos incapaces de identificar el cruce peatonal”. Y concluyó: “Debemos ser sumamente cautos en cuanto a la fiabilidad de estos sistemas, ya sea en el ámbito militar o civil”.


Pese a todas esas prevenciones, las principales potencias mundiales están inmersas en una carrera armamentística desenfrenada para la implementación de sistemas de IA en sus fuerzas armadas. Así no sólo van perfeccionando y complejizando el desarrollo de drones autónomos cada vez más poderosos y sofisticados, como también la creación de sistemas de defensa cada vez más avanzados, nutridos todos ellos de la IA como elemento central e ineludible.


Pareciera que las enormes prevenciones y temores que están planteando desde organismos internacionales como la ONU no logran desalentar esa peligrosa codicia letal de las grandes potencias del Mundo. Ni siquiera tienen en cuenta las advertencias sobre que la falta de control humano podría resultar en errores catastróficos y violaciones de los Derechos Humanos, atropellando los principios fundamentales del Derecho Humanitario internacional.

Eso sin contar que así como pueden detectar, por ejemplo, ataques cibernéticos, pueden volverse vulnerables a una contraofensiva futura o a nuevos avances tecnológicos para los que no esté preparada. A medida que avanzan los desarrollos de defensa en esa materia también lo hacen los de ataque. Lo que preanuncia una escalada cada vez mayor. Y así al infinito. Un peligro que crece de la mano de la automatización de la guerra y de la robotización de la muerte. En un mundo donde el ser humano desarrolla máquinas capaces de matar al propio ser humano, pero prescindiendo del ser humano. "Robots asesinos" dirigidos por la Inteligencia Artificial. Máquinas manejando máquinas para matar a personas. Una locura fuera de control. La era "Terminator" ya está aquí.





Comments


bottom of page