Regulación de algoritmos

La regulación de algoritmos, o control algorítmico, es la creación de leyes, reglas y políticas del sector público para promover y regular los algoritmos, particularmente en aprendizaje automático e inteligencia artificial.[1][2]

Para la regulación de los algoritmos de inteligencia artificial (IA), se emplea el término regulación de la inteligencia artificial. En el ámbito normativo y político, la inteligencia artificial es objeto de debate en jurisdicciones de todo el mundo, incluida la Unión Europea.[3]​ La regulación de la IA es considerada necesaria, tanto para fomentar la misma como para controlar sus riesgos asociados, pero es complicada.[4]​ Otro tema de actualidad es la regulación de blockchain, y su relación con el control algorítmico.[5]

La principal motivación para la regulación de algoritmos es el recelo de perder el control sobre los mismos,[6]​ cuyo impacto en la vida humana incrementa cada vez más. Múltiples países ya han introducido regulaciones para los algoritmos de cálculo automático de puntuación de crédito, ya que el derecho a defenderse es obligatorio en los mismos.[7][8]​ Han surgido preocupaciones con respecto al sesgo, la transparencia y la ética en el uso de algoritmos en distintos ámbitos, desde la justicia criminal[9]​ hasta la sanidad,[10]​ ya que muchos temen que la inteligencia artificial pueda replicar desigualdades sociales ya existentes, como por ejemplo las observadas en raza, género, clase social, y sexualidad.[11][12][13]

Regulación de la inteligencia artificial

Discusión pública

En 2016, Joy Buolamwini fundó la Liga de Justicia Algorítmica, definiéndolo como la organización que busca desafiar el sesgo del software en la toma de decisiones, después de una experiencia personal con software de detección facial predispuesto para concienciar de las implicaciones sociales de la inteligencia artificial a través del arte y la investigación.[14]

En 2017, Elon Musk defendió el control de los algoritmos en el contexto del posible riesgo existencial de la inteligencia artificial.[15]​ Según la NPR, el CEO de Tesla estaba "claramente desinteresado" por la defensa del escrutinio de gobierno que podría impactar en su propia industria, pero aun así creía que el estar completamente sin supervisión, supondría un riesgo demasiado alto: "Normalmente la forma en la que las regulaciones son creadas es debido a que algo malo ha pasado, hay una protesta pública, y años después, una agencia reguladora es creada para ese campo. Se tarda demasiado tiempo. Eso, antiguamente, era malo, pero no algo que pusiera en un riesgo fundamental a la existencia de la civilización."[16]

En respuesta, algunos políticos expresaron escepticismo ante la idea de regular la tecnología que sigue en desarrollo.[15]​ Respondiendo tanto a Musk, como a las propuestas de febrero de 2017 por parte de la Unión Europea, para la creación de leyes que regulen la inteligencia artificial y robótica, el CEO de Intel, Brian Krzanich, argumentó que la inteligencia artificial se encuentra en su infancia y que es demasiado temprano para regular dicha tecnología.[17]​ En vez de tratar de regular la tecnología en sí, algunos expertos sugieren el desarrollo de normas comunes que incluyan requisitos para el testeo y la transparencia de algoritmos, para ofrecer una buena garantía. Una sugerencia ha sido la creación de un gobierno global para la regulación de la inteligencia artificial en desarrollo.[18]​ En 2020, la Unión Europea publicó un borrador para promover la regulación de la inteligencia artificial.[19]

La "connivencia tácita algorítmica" es una práctica legal dudosa por parte de algunos algoritmos, por lo que los tribunales no son capaces de llevar a juicio.[20]​ Esto preocupa a científicos y reguladores en la Unión Europea, Estados Unidos y más allá. La comisaria europea Margrethe Vestager mencionó un ejemplo temprano de connivencia tácita algorítmica en su discurso "Algoritmos y Connivencia" el 16 de marzo de 2017, el cual decía así:[21]

"Hace unos cuantos años, dos compañías vendían un libro llamado 'The making of a fly'. Uno de aquellos vendedores utilizó un algoritmo permitía igualar el precio de su rival. Aquel rival tenía un algoritmo que siempre establecía el precio un 27% más alto que el primero. El resultado era que los precios se mantuvieron creciendo, hasta que finalmente alguien notó lo que estaba ocurriendo, y ajustó el precio manualmente. Por aquel tiempo, el libro se vendía -o mejor dicho, no se vendía- por 23 millones de dólares cada copia."

En 2018, Dinamarca empleó un sistema algorítmico SyRI (System Risico Indicatie) para detectar a los ciudadanos que estaban percibidos como de alto riesgo de cometer un fraude bancario, lo que silenciosamente marcó a miles de personas.[22]​ Esto provocó una protesta pública. El tribunal de distrito de La Haya cerró SyRI haciendo una referencia al Artículo 8 de la Convención europea en Derechos humanos (ECHR).[23]

En 2020, los algoritmos que asignaban calificaciones en los exámenes al alumnado de Reino Unido provocó una protesta abierta bajo la pancarta "Fuc the algotithm"[24]​ Esta protesta fue exitosa y las calificaciones fueron retiradas.

En 2020, el software del gobierno de EE. UU., que se está ejecutando en Amazon Cloud provocó un alboroto de los activistas y los empleados de la propia empresa de Amazon.

Y por último en el año 2021, la Fundación Éticas lanzó una base de datos que estaba basada en algoritmos gubernamentales a las que se conoce como Observatorio de Algoritmos con impacto Social (OASI)

Implementación

Las leyes y regulaciones de la inteligencia artificial pueden ser divididas entre tres temas principales: la gobernanza en los sistemas de inteligencia autónoma, la responsabilidad e imputabilidad sobre los sistemas, y las preocupaciones de seguridad y privacidad. El desarrollo de estrategias del sector público[25]​ para la gestión y regulación de la IA se ha considerado cada vez más necesario a nivel local, nacional, e internacional,[26][27]​ y en una gran variedad de campos, desde la gestión de los servicios públicos hasta el cumplimiento de la ley, pasando por el sector financiero,[28]​ la robótica,[29]​ el ejército,[30]​ y la ley internacional.[31]​ Hay muchas preocupaciones con respecto a la falta de visibilidad y de monitorización de la IA en estos sectores.[32]​ En el sector financiero, por ejemplo, se ha pedido a la Oficina para la Protección Financiera del Consumidor que examine el código fuente y los algoritmos de manera más exhaustiva al realizar auditorías de los datos no públicos de las instituciones financieras.[33]

En Estados Unidos, el 7 de enero de 2019, siguiendo una Orden Ejecutiva para 'el Mantenimiento del liderazgo Americano en inteligencia artificial', la Oficina de Política de Ciencia y Tecnología de la Casa Blanca anunció un borrador, Guía para la Regulación de las Aplicaciones de la Inteligencia Artificial, que incluye diez principios a seguir por las agencias gubernamentales del país a la hora de decidir si regular la IA y cómo hacerlo.[34][35]​ Como respuesta, el Instituto Nacional de Estándares y Tecnología emitió un documento posicionándose al respecto,[36]​ la Comisión de Seguridad Nacional publicó un informe provisional sobre la inteligencia artificial,[37]​ y la Junta de Asesoramiento en Innovación emitió recomendaciones para el uso ético de la IA.[38][39]

En 2016, China publicó un documento que cuestionaba la suficiencia de las leyes internacionales ya existentes a la hora de abordar la cuestión de las armas autónomas, convirtiéndose en el primer miembro permanente del Consejo de Seguridad de las Naciones Unidas en abordar el tema, y dando lugar a propuestas para la regulación global del mismo.[40][41][42]​ En Estados Unidos, la dirección sobre la regulación de la IA relacionada con la seguridad es proporcionada por la Comisión de Seguridad Nacional sobre la inteligencia artificial.[43]

Regulación de los algoritmos de blockchain

Los sistemas de cadenas de bloques (Blockchain) proporcionan registros fijos y transparentes de sus transacciones y de esta manera contradicen el objetivo del Reglamento General de Protección de Datos de la Unión Europea, el cual es darle al individuo total control sobre sus datos privados.[44][45][46]

Mediante la firma del decreto "Sobre el desarrollo de la economía digital", Bielorrusia se proclama como el primer país en legalizar los contratos inteligentes. El abogado bielorruso Denis Aleinikov es considerado el autor del concepto legal de contrato inteligente introducido por el decreto.[47][48][49][50]​ Hay argumentos fuertes que sostienen que las leyes estatales ya existentes de Estados Unidos son una base sólida para la aplicabilidad de los contratos inteligentes. De todas formas, Arizona, Nevada, Ohio y Tennessee han modificado sus leyes específicamente para permitir la aplicabilidad de los contratos basados en blockchain.[51][52]

En 1942, el autor Isaac Asimov dirigió el control de algoritmos introduciendo las hipotéticas Tres Leyes de la Robótica:

  1. Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
  2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.[53]

La principal alternativa a la regulación es la prohibición a los algoritmos, pero actualmente es muy poco probable que se puedan llegar a prohibir estos. Sin embargo, en el universo de Dune (escrito por Frank Herbert), las máquinas pensantes son un término colectivo para la IA (inteligencia artificial), ya que fueron completamente destruidas y prohibidas después de que se produjera una revuelta a la que actualmente la conocemos como La yihad butleriana:[54]

YIHAD, BUTLERIAN: (ver también en la Grán Revuelta) — la cruzada contra las computadoras, las máquinas pensantes y los robots conscientes; comenzó en 201 B.G y terminó en 108 B.G. Su principal mandamiento está escrito en la Biblia como "No harás una máquina que se asemeje a una mente humana."[55]

Véase también

Referencias

  1. Castillo, Carlos del (29 de octubre de 2018). «"La próxima revolución política será por el control de los algoritmos"». ElDiario.es. Consultado el 30 de noviembre de 2021. 
  2. Huergo Lora, Alejandro José; Díaz González, Gustavo Manuel (2020). La regulación de los algoritmos. ISBN 978-84-1345-094-0. Consultado el 04/12/2021. 
  3. Alonso, Aida Sanchez (9 de noviembre de 2021). «¿Qué es la Inteligencia Artificial y cómo planea la UE regularla?». euronews. Consultado el 30 de noviembre de 2021. 
  4. «La inteligencia artificial en el sector público». OpenSistemas. 28 de enero de 2021. Consultado el 30 de noviembre de 2021. 
  5. Gonzalvo, Irene (29 de octubre de 2019). «Blockchain: principales retos en su regulación». 
  6. «Cómo la inteligencia artificial podría destruirnos por accidente». 31 de octubre de 2019. 
  7. Larrouy, Diego (08/03/2021). «Los sesgos de los algoritmos en la banca: créditos más caros para ellas y diferentes ofertas de productos». 
  8. Garijo, Marta (08/03/2021). «Créditos más caros o con menor plazo de vencimiento: así penaliza el sesgo de género de los algoritmos financieros a las mujeres». 
  9. «La inteligencia artificial está llevando a gente a la cárcel». 23 de enero de 2019. 
  10. Salas, Javier (24 de octubre de 2019). «El algoritmo que discrimina a los pacientes negros sin conocer su raza». 
  11. Monasterio Astobiza, Aníbal. Ética algorítmica: Implicaciones éticas de una sociedad cada vez más gobernada por algoritmos. Consultado el 04/12/2021. 
  12. Alonso, Juan (16 de mayo de 2018). «Ética y algoritmos: una combinación necesaria». 
  13. Pascual, Manuel G. (27 de junio de 2021). «Cuando el algoritmo se equivoca». 
  14. Álvarez (@loretahur), Lorena Fernández. «Sombra aquí, sombra allá: reconocimiento facial discriminatorio». The Conversation. Consultado el 7 de diciembre de 2021. 
  15. a b «Elon Musk quiere regular la inteligencia artificial antes de que "sea demasiado tarde"». MIT Technology Review (en español). 1 de enero de 1970. Consultado el 7 de diciembre de 2021. 
  16. «Cómo la inteligencia artificial podría destruirnos por accidente». BBC News Mundo. Consultado el 7 de diciembre de 2021. 
  17. Kharpal, Arjun (7 de noviembre de 2017). «A.I. is in its 'infancy' and it's too early to regulate it, Intel CEO Brian Krzanich says». Consultado el 27 de noviembre de 2017. 
  18. Boyd, Matthew; Wilson, Nick (1 de noviembre de 2017). «Rapid developments in Artificial Intelligence: how might the New Zealand government respond?». Policy Quarterly 13 (4). ISSN 2324-1101. doi:10.26686/pq.v13i4.4619. 
  19. LIBRO BLANCO: Sobre la inteligencia artificial - un enfoque europeo orientado a la excelencia y la confianza. Bruselas: Comisión Europea. 2020. p. 32. 
  20. Ezrachi, A.; Stucke, M. E. (13 de marzo de 2020). «Sustainable and unchallenged algorithmic tacit collusion». Northwestern Journal of Technology & Intellectual Property (en inglés) 17 (2). ISSN 1549-8271. 
  21. VESTAGER, Margrethe (2017). «Algorithms and competition» (Bundeskartellamt 18th Conference on Competition). European Commission. Archivado desde el original el 29 de noviembre de 2019. Consultado el 1 de mayo de 2021. 
  22. «Europe Limits Government by Algorithm. The US, Not So Much». Wired (en inglés). Consultado el 11 de abril de 2020. 
  23. Haag, Rechtbank Den (5 de febrero de 2020). «ECLI:NL:RBDHA:2020:1878, Rechtbank Den Haag, C-09-550982-HA ZA 18-388 (English)». uitspraken.rechtspraak.nl (en inglés). Consultado el 29 de abril de 2023. 
  24. 20minutos (16 de agosto de 2020). «Un polémico algoritmo ha decidido las notas finales de los estudiantes en el Reino Unido». www.20minutos.es - Últimas Noticias. Consultado el 7 de diciembre de 2021. 
  25. Inteligencia Artificial en el Sector Público. Microsoft. Consultado el 04/12/2021. 
  26. «Nuevas normas sobre la inteligencia artificial: preguntas y respuestas». Comisión Europea. Consultado el 04/12/2021. 
  27. «Regulación de la Inteligencia Artificial: propuestas actuales en Estados Unidos, la Unión Europea y Reino Unido». 10/05/2021. 
  28. «Cinco aportaciones de la inteligencia artificial al sector financiero». 03/07/2018. 
  29. «Inteligencia artificial y robótica: el binomio del futuro». 
  30. Usos militares de la inteligencia artificial, la automatización y la robótica (IAA&R). Ministerio de Defensa de España. Consultado el 04/12/2021. 
  31. García San José, Daniel (11/01/2021). Implicaciones jurídicas y bioéticas de la inteligencia artificial. Consultado el 04/12/2021. 
  32. «Regulación de la inteligencia artificial en la UE: la propuesta del Parlamento». Parlamento Europeo. 06/10/2021. 
  33. Garay, Marc (21 de septiembre de 2021). «La importancia de una implementación ética de la IA en el sector financiero». 
  34. Hao, Karen (10/01/2020). «Los 10 principios para que la IA sea justa, transparente y segura». 
  35. Memorandum for the Heads of Executive Departments and Agencies. Washington, D.C.: White House Office of Science and Technology Policy. 2020. 
  36. U.S. Leadership in AI: A Plan for Federal Engagement in Developing Technical Standards and Related Tools. National Institute of Science and Technology. 2019. 
  37. NSCAI Interim Report for Congress. The National Security Commission on Artificial Intelligence. 2019. 
  38. AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense. Washington, DC: Defense Innovation Board. 2020. 
  39. «Estados Unidos aumenta las inversiones en tecnología para la inteligencia artificial». 03/03/2021. 
  40. Merino, Marcos (08/02/2019). «China avisa: el peligro de una guerra accidental por culpa de "las armas inteligentes" es real y creciente». 
  41. Pascual, Manuel G. (21 de abril de 2021). «La UE pone límites a la inteligencia artificial pero se olvida de las armas autónomas». 
  42. Baum, Seth (30 de septiembre de 2018). «Countering Superintelligence Misinformation». Information 9 (10): 244. ISSN 2078-2489. doi:10.3390/info9100244. 
  43. Stefanik, Elise M. (22 de mayo de 2018). «H.R.5356 – 115th Congress (2017–2018): National Security Commission Artificial Intelligence Act of 2018». www.congress.gov. Consultado el 13 de marzo de 2020. 
  44. Nieto, Pedro (11/07/2018). «¿Cómo afecta GDPR a blockchain?». 
  45. Pizarro, Víctor (07/09/2018). «GDPR y Blockchain: ¿es la nueva regulación de protección de datos de la UE una amenaza o un incentivo?». 
  46. «Blockchain and the General Data Protection Regulation - Think Tank». www.europarl.europa.eu (en alemán). Consultado el 28 de marzo de 2020. 
  47. Redacción GCC Views (23 de diciembre de 2017). «Bielorrusia introduce el marco legal más abierto y amigable del mundo en materia Fintech». 
  48. «Bielorrusia al borde de la construcción de una economía digital». 22 de diciembre de 2017. 
  49. Kopiev, Grigory (26 de diciembre de 2017). «Bielorrusia legalizó las operaciones con criptomonedas». 
  50. «Belarus Enacts Unique Legal Framework for Crypto Economy Stakeholders». Deloitte. 27 de diciembre de 2017. 
  51. Andorra Services (28 de diciembre de 2020). «Criptomonedas & Blockchain: Regulación en Estados Unidos». 
  52. Levi, Stuart; Lipton, Alex; Vasile, Christina (2020). «Blockchain Laws and Regulations | 13 Legal issues surrounding the use of smart contracts | GLI». GLI - Global Legal InsightsInternational legal business solutions (en inglés). Consultado el 21 de abril de 2020. 
  53. Asimov, Isaac (1950). «Runaround». I, Robot (en inglés) (The Isaac Asimov Collection edición). New York City: Doubleday. p. 40. ISBN 978-0-385-42304-5. «This is an exact transcription of the laws. They also appear in the front of the book, and in both places there is no "to" in the 2nd law.» 
  54. Herbert, Frank (1969). Dune Messiah. 
  55. Herbert, Frank (1965). «Terminology of the Imperium: JIHAD, BUTLERIAN». Dune. Philadelphia, Chilton Books. 

Enlaces externos