Armas autónomas letales

Remolque del Land Rover Defender serbio con el robot de combate sobre orugas "Miloš"

Las armas autónomas letales (Lethal autonomous weapons - LAW, por sus siglas en inglés) son un tipo de sistema militar autónomo que puede buscar y atacar objetivos de forma independiente en función de restricciones y descripciones programadas. Las LAW también se conocen como sistemas de armas letales autónomos (LAWS), sistemas de armas autónomos (AWS), armas robóticas o robots asesinos. Las LAWs pueden operar en el aire, en la tierra, en el agua, bajo el agua o en el espacio. La autonomía de los sistemas al año 2018 estaba restringida en el sentido de que un humano daba la orden final para atacar, aunque había excepciones en ciertos sistemas "defensivos".

Ser autónomo como arma

Ser "autónomo" tiene diferentes significados según cuales sean los campos de estudio en cuestión. En ingeniería, puede referirse a la capacidad de la máquina para funcionar sin intervención humana. En filosofía puede referirse a un individuo moralmente independiente. En ciencia política puede referirse a la capacidad de autogobierno de un área. En términos de desarrollo de armas militares, la identificación de un arma como autónoma no es tan clara como en otras áreas.[1]​ El estándar específico implicado en el concepto de ser autónomo puede variar enormemente entre diferentes académicos, naciones y organizaciones.

Varios investigadores han aportado definiciones de lo que constituye un arma autónoma letal. La política oficial del Departamento de Defensa de los Estados Unidos sobre la autonomía en los sistemas de armas define un sistema de armas autónomo como "un sistema de armas que, una vez activado, puede seleccionar y atacar objetivos sin la intervención adicional de un operador humano".[2]​ Heather Roff, escritora de la Facultad de Derecho de la Universidad Case Western Reserve, describe los sistemas de armas autónomos como "sistemas de armas armadas [rmed weapons,] capaces de aprender y adaptar su 'funcionamiento en respuesta a las circunstancias cambiantes del entorno en el que [están] desplegados', csí como capaces de tomar decisiones de despido por sí mismos".[3]​ Esta definición de sistemas de armas autónomos es un umbral bastante alto en comparación con las definiciones de académicos como leter Asaro y Mark Gubrud que se ven a continuación.

Peter Asaro y Mark Gubrud trataron de establecer el umbral más bajo y juzgar más sistemas de armas como autónomos. Creen que cualquier sistema de armas que sea capaz de liberar una fuerza letal sin la operación, decisión o confirmación de un supervisor humano puede considerarse autónomo. Según Gubrud, un sistema de armas que funciona parcial o totalmente sin intervención humana se considera autónomo. Argumenta que un sistema de armas no necesita ser capaz de tomar decisiones completamente por sí mismo para ser llamado autónomo. En cambio, debe tratarse como autónomo siempre que participe activamente en una o varias partes del "proceso de preparación", desde encontrar el objetivo hasta finalmente disparar.[4][5]

Otras organizaciones, sin embargo, están estableciendo el estándar del sistema de armas autónomo en una posición más alta. El Ministerio de Defensa británico define los sistemas de armas autónomos como "sistemas que son capaces de comprender la intención y la dirección de un nivel superior. A partir de esta comprensión y su percepción de su entorno, dicho sistema es capaz de tomar las medidas adecuadas para lograr el estado deseado. Es capaz de decidir un curso de acción, a partir de una serie de alternativas, sin depender de la supervisión y el control humanos; sin embargo, tal compromiso humano con el sistema aún puede estar presente. Si bien la actividad general de una aeronave no tripulada autónoma será predecible, es posible que las acciones individuales no lo sean".[6]

Como resultado, la redacción de un tratado entre estados requiere un etiquetado comúnmente aceptado de lo que constituye exactamente un arma autónoma.[7]

Sistemas defensivos autónomos

El arma letal de activación automática más antigua es la mina terrestre, utilizada desde al menos el siglo XVII, y las minas marinas, utilizadas desde al menos el siglo XVIII. Las minas antipersona están prohibidas en muchos países por el Tratado de Ottawa de 1997, sin incluir a Estados Unidos, Rusia y gran parte de Asia y Medio Oriente.

Algunos ejemplos actuales de LAW son sistemas automatizados de protección activa "hardkill", como los sistemas CIWS guiados por radar que se utilizan para defender barcos, y que han estado en uso desde la década de 1970 (por ejemplo, el US Phalanx CIWS). Dichos sistemas pueden identificar y atacar de forma autónoma misiles, cohetes, fuego de artillería, aeronaves y embarcaciones de superficie que se aproximan según los criterios establecidos por el operador humano. Existen sistemas similares para tanques, como el ruso Arena, el Trophy israelí y el AMAP-ADS alemán. En Corea del Sur e Israel se utilizan varios tipos de armas centinela estacionarias, que pueden disparar contra humanos y vehículos. Muchos sistemas de defensa antimisiles, como Iron Dome, también tienen capacidades de orientación autónomas.

La principal razón para no tener un "humano al tanto" (human in the loop) en estos sistemas es la necesidad de una respuesta rápida. En general, se han utilizado para proteger al personal y las instalaciones contra los proyectiles entrantes.

Sistemas ofensivos autónomos

Los sistemas con un mayor grado de autonomía incluirían drones o vehículos aéreos de combate no tripulados, por ejemplo "El prototipo de avión no tripulado de combate propulsado a chorro Taranis de BAE Systems puede conducir a un sistema aéreo de combate del futuro que puede buscar, identificar y localizar enemigos de forma autónoma, pero solo puede enfrentarse a un objetivo cuando lo autorice el mando tipo misión. También puede defenderse de aviones enemigos."[8]​ El dron Northrop Grumman X-47B puede despegar y aterrizar en portaaviones (demostrado en 2014); está configurado para convertirse en un sistema de vigilancia y ataque aerotransportado lanzado por un portaaviones no tripulado (Unmanned Carrier-Launched Airborne Surveillance and Strike = UCLASS).

Según The Economist, a medida que avanza la tecnología, las aplicaciones futuras de los vehículos submarinos no tripulados podrían incluir la remoción de minas, su colocación, la creación de redes de sensores antisubmarinos en aguas disputadas, el patrullaje con sonar activo, el reabastecimiento de submarinos tripulados y convertirse en plataformas de misiles de bajo costo.[9]​ En 2018, la Revisión de la postura nuclear de EE. UU. alegó que Rusia estaba desarrollando un "nuevo torpedo autónomo submarino intercontinental, con armas nucleares y de propulsión nuclear" llamado Status-6 Poseidón.[10]

La Federación Rusa está desarrollando activamente misiles con inteligencia artificial,[11]drones,[12]vehículos no tripulados, robots militares y robots médicos.[13][14][15][16]

En los tiroteos de Dallas de 2016, la policía de EE. UU. utilizó por primera vez un robot armado a control remoto para matar a Micah Johnson, de 25 años, un asesino de cinco policías escondido en un garaje. Se empleó una bomba colocada en el robot de desactivación de bombas.[17]

El ministro israelí Ayoob Kara declaró en 2017 que Israel estaba desarrollando robots militares, incluidos unos tan pequeños como moscas.[18]

En octubre de 2018, Zeng Yi, un alto ejecutivo de la firma de defensa china Norinco, pronunció un discurso en el que dijo que "en los futuros campos de batalla, no habrá personas peleando", y que el uso de armas autónomas letales en la guerra es "inevitable".[19]​ En 2019, el secretario de Defensa de EE. UU. , Mark Esper, criticó a China por vender drones capaces de matar sin supervisión humana.[20]

El ejército británico desplegó nuevos vehículos no tripulados y robots militares en 2019.[21]

La Marina de los EE. UU. está desarrollando flotas "fantasmas" de vehículo de superficie no tripulado.[22]

En 2020, un dron Kargu 2 persiguió y atacó a un objetivo humano en Libia, según un informe del Panel de Expertos sobre Libia del Consejo de Seguridad de la ONU, publicado en marzo de 2021. Esta puede haber sido la primera vez que un robot asesino autónomo provisto de armamento letal ataca a seres humanos.[23][24]

En mayo de 2021, Israel llevó a cabo un enjambre de aviones no tripulados de combate guiado por IA en un ataque a Gaza.[25]

Desde entonces, ha habido numerosos informes de enjambres y otros sistemas de armas autónomos que se utilizan en los campos de batalla de todo el mundo.[26]

Además de ello, la DARPA está trabajando para poner a disposición del ejército estadounidense enjambres de 250 drones letales autónomos.[27]

Cuestiones éticas y legales

Grado de control humano

Bonnie Docherty estableció tres clasificaciones del grado de control humano de los sistemas de armas autónomos en un informe de lHuman Rights Watch de 2012.[28]

  • human-in-the-loop: un humano debe instigar la acción del arma (en otras palabras, no completamente autónomo)
  • human-on-the-loop: un humano puede abortar una acción
  • human-out-of-the-loop: no hay ninguna acción humana involucrada

Estándar utilizado en la política de EE. UU.

La política actual de EE. UU. establece que: "Los sistemas de armas autónomos... se diseñarán para permitir que los comandantes y operadores ejerzan niveles apropiados de juicio humano sobre el uso de la fuerza".[29]​ Sin embargo, la política requiere que los sistemas de armas autónomos que matan personas o usan la fuerza cinética, seleccionando y atacando objetivos sin más intervención humana, estén certificados como compatibles con los "niveles apropiados" y otros estándares, y no que tales sistemas de armas no puedan cumplir con estos estándares y sean por lo tanto prohibidos.[30]​ Los cazadores-asesinos "semiautónomos" que identifican y atacan objetivos de forma autónoma ni siquiera requieren certificación.[30]​ El subsecretario de Defensa, Robert O. Work, dijo en 2016 que el Departamento de Defensa "no delegaría la autoridad letal en una máquina para tomar una decisión", pero podría necesitar reconsiderarlo ya que los "regímenes autoritarios" pueden hacerlo.[31]​ En octubre de 2016, el presidente Barack Obama declaró que al principio de su carrera desconfiaba de un futuro en el que un presidente de los EE. UU. que hiciera uso de la guerra con aviones no tripulados podría "llevar a cabo guerras perpetuas en todo el mundo, y muchas de ellas encubiertas, sin ningún tipo de rendición de cuentas o debate democrático".[32][33]​ En los EE. UU., la IA relacionada con la seguridad está bajo el control de la Comisión de Seguridad Nacional sobre Inteligencia Artificial desde 2018.[34][35]​ El 31 de octubre de 2019, la Junta de Innovación de Defensa del Departamento de Defensa de los Estados Unidos publicó el borrador de un informe que describe cinco principios para la IA armada y hace 12 recomendaciones para el uso ético de la inteligencia artificial por parte del Departamento de Defensa, que garantizaría que un operador humano siempre podrá mirar dentro de la 'caja negra' y comprender el proceso de la cadena de eliminación. Una preocupación importante es cómo se implementará el informe.[36]

Posibles violaciones de la ética y actos internacionales

Stuart Russell, profesor de informática de la Universidad de California, Berkeley, declaró que la preocupación que tiene con las LAWS es que su opinión es que no es ético ni humano. El principal problema de este sistema es que es difícil distinguir entre combatientes y no combatientes.[37]

Existe preocupación por parte de algunos economistas[38]​ y juristas acerca de si las LAWS violarían el Derecho Internacional Humanitario, especialmente el principio de distinción, que requiere la capacidad de discriminar a los combatientes de los no combatientes, y el principio de proporcionalidad, que requiere que el daño a civiles sea proporcional al objetivo militar.[39]​ Esta preocupación se invoca a menudo como una razón para prohibir por completo los "robots asesinos", pero es dudoso que esta preocupación pueda ser un argumento en contra de las LAWS que no violan el Derecho Internacional Humanitario.[40][41][42]

Un informe de 2021 del Servicio de Investigación del Congreso Estadounidense afirma que "no existen prohibiciones legales nacionales o internacionales sobre el desarrollo del uso de las LAWS", aunque reconoce las conversaciones en curso en la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales (CCW).

Algunos dicen que las LAWS desdibujan los límites de quién es responsable de una muerte en particular.[43][38]​ El filósofo Robert Sparrow argumenta que las armas autónomas son causal pero no moralmente responsables, de manera similar a los niños soldados. En cada caso, argumenta, existe el riesgo de que ocurran atrocidades sin un sujeto apropiado a quien responsabilizar, lo que viola las Leyes de la guerra.[44]​ Thomas Simpson y Vincent Müller argumentan que pueden facilitar el registro de quién dio qué comando.[45]​ Del mismo modo, Steven Umbrello, Émile P. Torres y Angelo F. De Bellis argumentan que si las capacidades técnicas de las LAWs son al menos tan precisas como las de los soldados humanos, entonces, dadas las deficiencias psicológicas de los soldados humanos en la guerra, se justifica que solo este tipo de LAWS éticas debería ser usado. Asimismo, proponen utilizar el enfoque de diseño sensible al valor como un marco potencial para diseñar estas LAWs para alinearlas con los valores humanos y el Derecho internacional humanitario.[41]​ Además, las posibles violaciones del DIH por parte de las LAWS son, por definición, solo aplicables en situaciones de conflicto que impliquen la necesidad de distinguir entre combatientes y civiles. Como tal, cualquier escenario de conflicto sin la presencia de civiles, es decir, en el espacio o en alta mar, no se toparía con los obstáculos que plantea el DIH.[46]

Campañas para prohibir las LAWs

Rally on the steps of San Francisco City Hall, protesting against a vote to authorize police use of deadly force robots.
Mitin frente al Ayuntamiento de San Francisco, protestando contra una votación para autorizar el uso policial de robots de fuerza letal.

La posibilidad de las LAWs ha generado un debate significativo, especialmente sobre el riesgo de que los "robots asesinos" deambulen por la tierra, sea en un futuro cercano o lejano. El grupo Campaign to Stop Killer Robots (campaña para detener los robots asesinos) se formó en 2013. En julio de 2015, más de 1000 expertos en inteligencia artificial firmaron una carta advirtiendo sobre la amenaza de una carrera armamentista de inteligencia artificial y pidiendo la prohibición de las armas autónomas. La carta fue presentada en Buenos Aires en la 24ª Conferencia Internacional Conjunta sobre Inteligencia Artificial (IJCAI-15) y fue firmada conjuntamente por Stephen Hawking, Elon Musk, Steve Wozniak, Noam Chomsky, el cofundador de Skype Jaan Tallinn y el cofundador de Google DeepMind Demis Hassabis, entre otros.[47][48]

Según PAX For Peace (una de las organizaciones fundadoras de Campaign to Stop Killer Robots), las armas completamente automatizadas (fully automated weapons = FAW) reducirán el umbral de ir a la guerra a medida que los soldados se retiren del campo de batalla y el público se distancie de experimentar la guerra. dando a los políticos y otros tomadores de decisiones más espacio para decidir cuándo y cómo ir a la guerra.[49]​ Advierten que una vez desplegados, los FAW dificultarán el control democrático de la guerra, algo que el autor de Kill Decision -una novela sobre el tema- y especialista en tecnología de la información, Daniel Suárez, también advirtieron: según él, podría recentralizar el poder en muy pocas manos, a que requiere muy poca gente para ir a la guerra.[49]

Hay sitios web protestando por el desarrollo de LAWs al presentar ramificaciones indeseables si continúa la investigación sobre el uso de inteligencia artificial para la designación de armas. En estos lugares, las noticias sobre temas éticos y legales se actualizan constantemente para que los visitantes puedan recapitular con noticias recientes sobre reuniones internacionales y artículos de investigación relacionados con las LAWs.[50]

La Santa Sede ha pedido a la comunidad internacional que prohíba el uso de las LAWs en varias ocasiones. En noviembre de 2018, el arzobispo Ivan Jurkovic, observador permanente de la Santa Sede ante las Naciones Unidas, afirmó que “para evitar una carrera armamentista y el aumento de las desigualdades y la inestabilidad, es un deber imperativo actuar con prontitud: ahora es el momento de evitar que las LAWs se conviertan en la realidad de la guerra del mañana”. A la Iglesia le preocupa que estos sistemas de armas tengan la capacidad de alterar irreversiblemente la naturaleza de la guerra, crear desapego a la agencia humana y poner en tela de juicio la humanidad de las sociedades.[51]

El 29 de marzo de 2019, la mayoría de los gobiernos representados en una reunión de la ONU para discutir el asunto favorecieron la prohibición de las LAWS.[52]​ Una minoría de gobiernos, incluidos los de Australia, Israel, Rusia, el Reino Unido y los EE. UU., se opusieron a la prohibición.[53]​ Estados Unidos ha declarado que las armas autónomas han ayudado a prevenir la matanza de civiles.[54]

En diciembre de 2022, una votación de la Junta de Supervisores de San Francisco para autorizar el uso de las LAWs por parte del Departamento de Policía de San Francisco atrajo la atención y las protestas nacionales.[55][56]​ La Junta revocó este voto en una reunión posterior.[57]

No a la prohibición, sino regulación

Un tercer enfoque se centra en regular el uso de sistemas de armas autónomos en lugar de una prohibición.[58]​ El control militar de armas de IA probablemente requerirá la institucionalización de nuevas normas internacionales incorporadas en especificaciones técnicas efectivas combinadas con un monitoreo activo y diplomacia informal ("Track II") por parte de comunidades de expertos, junto con un proceso de verificación legal y política.[59][60][61][62]​ En 2021, el Departamento de Defensa de los Estados Unidos solicitó un diálogo con el Ejército Popular de Liberación de China sobre armas autónomas habilitadas para IA, pero fue rechazado.[63]

Véase también

Referencias

  1. Crootof, Rebecca (2015). «The Killer Robots Are Here: Legal and Policy Implications». 36 Cardozo L. Rev: 1837. 
  2. Allen, Gregory (6 de junio de 2022). DOD Is Updating Its Decade-Old Autonomous Weapons Policy, but Confusion Remains Widespread. Center for Strategic and International Studies. p. Center for Strategic and International Studies. Consultado el 24 de julio de 2022. 
  3. Roff, Heather (2015). «Lethal Autonomous Weapons and Jus Ad Bellum Proportionality». 
  4. Asaro, Peter (2012). «On Banning Autonomous Weapon Systems: Human Rights, Automation, and the Dehumanization of Lethal Decision-Making». Red Cross 687: 94}. 
  5. «Autonomy without Mystery: Where do you draw the line?». 1.0 Human (en inglés estadounidense). 9 de mayo de 2014. Archivado desde el original el 16 de noviembre de 2018. Consultado el 8 de junio de 2018. 
  6. «Unmanned aircraft systems (JDP 0-30.2)». GOV.UK (en inglés). Consultado el 8 de junio de 2018. 
  7. Krishnan, Armin (2016). Taylor & Francis Group (en inglés). p. www.taylorfrancis.com. ISBN 9781317109129. doi:10.4324/9781315591070. Consultado el 8 de junio de 2018. 
  8. Heyns 2013, §45
  9. «Getting to grips with military robotics». The Economist. 25 de enero de 2018. Consultado el 7 de febrero de 2018. 
  10. «US says Russia 'developing' undersea nuclear-armed torpedo». CNN. 3 de febrero de 2018. Consultado el 7 de febrero de 2018. 
  11. «Russia is building a missile that can makes its own decisions». Newsweek. 20 de julio de 2017. 
  12. Litovkin, Nikolai (31 de mayo de 2017). «Russia's digital doomsday weapons: Robots prepare for war - Russia Beyond». Russia Beyond. 
  13. «'Comrade in Arms': Russia is developing a freethinking war machine». 9 de agosto de 2017. 
  14. «Rise of the Machines: A look at Russia's latest combat robots». 6 de junio de 2017. 
  15. «Is Terminator back? Russians make major advances in artificial intelligence». Russia Beyond. 10 de febrero de 2016. 
  16. «Virtual trainer for robots and drones developed in Russia». 15 de mayo de 2017. Archivado desde el original el 11 de octubre de 2017. Consultado el 3 de septiembre de 2017. 
  17. Thielman, Sam (8 de julio de 2016). «Use of police robot to kill Dallas shooting suspect believed to be first in US history». The Guardian. Consultado el 8 de agosto de 2019. 
  18. «Kara: I wasn't revealing state secrets about the robots». The Jerusalem Post. 
  19. Allen, Gregory. «Understanding China's AI Strategy». Center for a New American Security. Center for a New American Security. Consultado el 11 de marzo de 2019. 
  20. «Is China exporting killer robots to Mideast?». Asia Times. 28 de noviembre de 2019. Consultado el 21 de diciembre de 2019. 
  21. «British Army to operationally deploy new robots in 2019 | March 2019 Global Defense Security army news industry | Defense Security global news industry army 2019 | Archive News year». 
  22. «US Navy plans to build an unmanned Ghost Fleet». 
  23. Hambling, David. «Drones may have attacked humans fully autonomously for the first time». New Scientist (en inglés estadounidense). Consultado el 30 de mayo de 2021. 
  24. «Killer drone 'hunted down a human target' without being told to». Fox News (en inglés estadounidense). 29 de mayo de 2021. Consultado el 30 de mayo de 2021. 
  25. Hambling, David. «Israel used world's first AI-guided combat drone swarm in Gaza attacks». New Scientist (en inglés estadounidense). Consultado el 15 de enero de 2023. 
  26. «SLAUGHTERBOTS ARE HERE.». 
  27. «DARPA'S DREAM OF A TINY ROBOT ARMY IS CLOSE TO BECOMING A REALITY». December 2020. 
  28. Amitai Etzioni (June 2017). «Pros and Cons of Autonomous Weapons Systems». army.mil. 
  29. US Department of Defense (2012). «Directive 3000.09, Autonomy in weapon systems». Archivado desde el original el 1 de diciembre de 2012. 
  30. a b Gubrud, Mark (April 2015). «Semi-autonomous and on their own: Killer robots in Plato's Cave». Bulletin of the Atomic Scientists. Archivado desde el original el 9 de mayo de 2017. Consultado el 30 de octubre de 2017. 
  31. Lamothe, Dan (30 de marzo de 2016). «Pentagon examining the 'killer robot' threat». Boston Globe. 
  32. Chait, Jonathan (3 de octubre de 2016). «Barack Obama on 5 Days That Shaped His Presidency». Daily Intelligencer. Consultado el 3 de enero de 2017. 
  33. Devereaux, Ryan (3 de octubre de 2016). «Obama Worries Future Presidents Will Wage Perpetual, Covert Drone War». The Intercept. Consultado el 3 de enero de 2017. 
  34. Stefanik, Elise M. (22 de mayo de 2018). «H.R.5356 - 115th Congress (2017–2018): National Security Commission Artificial Intelligence Act of 2018». www.congress.gov. Consultado el 13 de marzo de 2020. 
  35. Baum, Seth (30 de septiembre de 2018). «Countering Superintelligence Misinformation». Information 9 (10): 244. ISSN 2078-2489. doi:10.3390/info9100244. 
  36. United States. Defense Innovation Board. AI principles : recommendations on the ethical use of artificial intelligence by the Department of Defense. OCLC 1126650738. 
  37. Russell, Stuart (27 de mayo de 2015). «Take a stand on AI weapons». International Weekly Journal of Science 521. 
  38. a b Coyne, Christopher; Alshamy, Yahya A. (3 de abril de 2021). «Perverse Consequences of Lethal Autonomous Weapons Systems». Peace Review 33 (2): 190-198. ISSN 1040-2659. doi:10.1080/10402659.2021.1998747. 
  39. Sharkey, Noel E. (June 2012). «The evitability of autonomous robot warfare*». International Review of the Red Cross (en inglés) 94 (886): 787-799. ISSN 1816-3831. doi:10.1017/S1816383112000732. 
  40. Müller, Vincent C. (2016). Autonomous killer robots are probably good news. Ashgate. pp. 67-81. 
  41. a b Umbrello, Steven; Torres, Phil; De Bellis, Angelo F. (1 de marzo de 2020). «The future of war: could lethal autonomous weapons make conflict more ethical?». AI & Society (en inglés) 35 (1): 273-282. ISSN 1435-5655. doi:10.1007/s00146-019-00879-x. 
  42. Umbrello, Steven; Wood, Nathan Gabriel (20 de abril de 2021). «Autonomous Weapons Systems and the Contextual Nature of Hors de Combat Status». Information 12 (5): 216. doi:10.3390/info12050216. 
  43. Nyagudi, Nyagudi Musandu (9 de diciembre de 2016). «Doctor of Philosophy Thesis in Military Informatics (OpenPhD #openphd ) : Lethal Autonomy of Weapons is Designed and/or Recessive». Archivado desde el original el 7 de enero de 2017. Consultado el 6 de enero de 2017. 
  44. SPARROW, ROBERT (2007). «Killer Robots». Journal of Applied Philosophy 24 (1): 62-77. ISSN 0264-3758. doi:10.1111/j.1468-5930.2007.00346.x. 
  45. Simpson, Thomas W; Müller, Vincent C. (2016). «Just war and robots' killings». Philosophical Quarterly 66 (263): 302-22. doi:10.1093/pq/pqv075. 
  46. Boulanin et al., "Limits on Autonomy in Weapon Systems", SIPRI & ICRC (2020): 37.
  47. Zakrzewski, Cat (27 de julio de 2015). «Musk, Hawking Warn of Artificial Intelligence Weapons». WSJ Blogs - Digits. Consultado el 28 de julio de 2015. 
  48. Gibbs, Samuel (27 de julio de 2015). «Musk, Wozniak and Hawking urge ban on warfare AI and autonomous weapons». The Guardian. Consultado el 28 de julio de 2015. 
  49. a b «Deadly Decisions - 8 objections to killer robots». Consultado el 2 de diciembre de 2016. 
  50. «Front page». Ban Lethal Autonomous Weapons (en inglés estadounidense). 10 de noviembre de 2017. Consultado el 9 de junio de 2018. 
  51. «Holy See renews appeal to ban killer robots». Catholic News Agency. 28 de noviembre de 2018. Consultado el 30 de noviembre de 2018. 
  52. Gayle, Damien (29 de marzo de 2019). «UK, US and Russia among those opposing killer robot ban». The Guardian. Consultado el 30 de marzo de 2019. 
  53. Gayle, Damien (29 de marzo de 2019). «UK, US and Russia among those opposing killer robot ban». The Guardian. Consultado el 30 de marzo de 2019. 
  54. Werkhäuser, Nina (27 de agosto de 2018). «Should 'killer robots' be banned?». Deutsche Welle (DW). Consultado el 31 de diciembre de 2021. 
  55. Silva, Daniella (2 de diciembre de 2022). «San Francisco vote to allow police use of deadly robots spurs concern and outrage». NBC News. Consultado el 5 de diciembre de 2022. 
  56. Holand, Lena (5 de diciembre de 2022). «Activists push back against SFPD's deadly force robots amid legality issues». KGO-TV. Consultado el 5 de diciembre de 2022. 
  57. Morris, J.D. (6 de diciembre de 2022). «S.F. halts 'killer robots' police policy after huge backlash — for now». San Francisco Chronicle. Consultado el 6 de diciembre de 2022. 
  58. Bento, Lucas (2017). No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law. p. Harvard Scholarship Depository. Consultado el 14 de septiembre de 2019. 
  59. Geist, Edward Moore (15 de agosto de 2016). «It's already too late to stop the AI arms race—We must manage it instead». Bulletin of the Atomic Scientists 72 (5): 318-321. Bibcode:2016BuAtS..72e.318G. ISSN 0096-3402. doi:10.1080/00963402.2016.1216672. 
  60. Maas, Matthijs M. (6 de febrero de 2019). «How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons». Contemporary Security Policy 40 (3): 285-311. ISSN 1352-3260. doi:10.1080/13523260.2019.1576464. 
  61. Ekelhof, Merel (2019). «Moving Beyond Semantics on Autonomous Weapons: Meaningful Human Control in Operation». Global Policy 10 (3): 343-348. ISSN 1758-5899. doi:10.1111/1758-5899.12665. 
  62. Umbrello, Steven (5 de abril de 2021). «Coupling levels of abstraction in understanding meaningful human control of autonomous weapons: a two-tiered approach». Ethics and Information Technology (en inglés) 23 (3): 455-464. ISSN 1572-8439. doi:10.1007/s10676-021-09588-w. 
  63. Allen, Gregory C. (20 de mayo de 2022). One Key Challenge for Diplomacy on AI: China's Military Does Not Want to Talk (en inglés). p. Center for Strategic and International Studies (CSIS). Consultado el 20 de mayo de 2022. 

Otras lecturas