DOI 10.35381/noesisin.v7i1.521
La protección de los derechos humanos en la era de la Inteligencia Artificial
Protecting human rights in the age of Artificial Intelligence
Brayan Geovanny Haro-Erazo
ma.brayanghe92@uniandes.edu.ec
Universidad Regional Autónoma de los Andes, Ambato, Tungurahua
Ecuador
https://orcid.org/0009-0000-5006-8052
María Elena Infante-Miranda
ui.mariainfante@uniandes.edu.ec
Universidad Regional Autónoma de los Andes, Ambato, Tungurahua
Ecuador
https://orcid.org/0000-0002-0828-1383
Salomón Alejandro Montece-Giler
us.salomonmontece@uniandes.edu.ec
Universidad Regional Autónoma de los Andes, Ambato, Tungurahua
Ecuador
https://orcid.org/0000-0002-7175-3398
Revisado: 15 de mayo 2025
Aprobado: 15 de julio 2025
Publicado: 01 de agosto 2025
RESUMEN
La protección de los derechos humanos frente al avance de la inteligencia artificial (IA) representa un desafío crucial en el contexto global y particularmente en Ecuador. Este análisis jurídico examina el impacto de la IA en los derechos fundamentales, identificando vulnerabilidades y proponiendo marcos normativos específicos. Mediante una metodología cualitativa y entrevistas semi-estructuradas, se evidencia la necesidad de una regulación que establezca principios éticos y legales claros para el desarrollo e implementación de estas tecnologías. Se propone fortalecer el artículo 16 de la Constitución ecuatoriana y crear legislación especializada que garantice que la IA sirva para mejorar la calidad de vida sin comprometer los derechos humanos. El estudio concluye que la IA actúa como una "doble espada", con potencial tanto para beneficiar como para amenazar la dignidad humana, dependiendo de su uso y regulación.
Descriptores: Inteligencia artificial; protección derechos humanos; desafíos legales. (Tesauro UNESCO).
ABSTRACT
The protection of human rights in the face of advances in artificial intelligence (AI) represents a crucial challenge in the global context and particularly in Ecuador. This legal analysis examines the impact of AI on fundamental rights, identifying vulnerabilities and proposing specific regulatory frameworks. Using a qualitative methodology and semi-structured interviews, it highlights the need for regulation that establishes clear ethical and legal principles for the development and implementation of these technologies. It proposes strengthening Article 16 of the Ecuadorian Constitution and creating specialized legislation to ensure that AI serves to improve quality of life without compromising human rights. The study concludes that AI acts as a “double-edged sword,” with the potential to both benefit and threaten human dignity, depending on its use and regulation.
Descriptors: Artificial intelligence; human rights protection; legal challenges. (UNESCO Thesaurus).
En la encrucijada entre el progreso tecnológico y la ética, la protección de los derechos humanos en la era de la inteligencia artificial (IA) se erige como uno de los desafíos más apremiantes de nuestro tiempo. Como advierte la European Union Agency for Fundamental Rights (2018), "La protección de los derechos humanos debe ser una consideración central en el desarrollo y la implementación de sistemas de inteligencia artificial" (p. 15). La capacidad de la IA para analizar datos masivos y automatizar decisiones ha reformulado profundamente sectores cruciales, desde la salud hasta la economía, prometiendo una era de eficiencia y avance sin precedentes. Sin embargo, este potencial conlleva una paradoja fundamental: la misma tecnología que puede optimizar la diagnosis médica o personalizar la educación también posee una capacidad inherente para erosionar los pilares de la dignidad humana, la privacidad y la justicia social. Este artículo se propone analizar esta dicotomía, centrándose específicamente en los vacíos y desafíos que presenta el marco normativo ecuatoriano para garantizar que el desarrollo de la IA se realice de manera alineada con la protección irrestricta de los derechos humanos.
El avance vertiginoso de la IA ha expuesto una serie de riesgos tangibles para los derechos fundamentales. Incidentes globales notorios han demostrado cómo su aplicación puede vulnerar principios básicos. El caso de Cambridge Analytica ilustró cómo la recolección masiva de datos personales puede ser amenazada para manipular procesos electorales y socavar la privacidad y la autonomía de las personas. Asimismo, la problemática del sesgo algorítmico ha revelado cómo los prejuicios presentes en los datos de entrenamiento pueden replicarse y amplificarse, resultando en decisiones discriminatorias en ámbitos críticos como el acceso al crédito, la justicia penal o las oportunidades laborales. El caso del Bot Tay de Microsoft, que en horas aprendió y reprodujo lenguaje de odio de sus interacciones en línea, sirve como una potente metáfora de los riesgos de desplegar sistemas opacos y sin supervisión ética rigurosa. Como señaló Crawford (2013) "La inteligencia artificial plantea desafíos únicos para la privacidad, la equidad y la autonomía personal que deben abordarse con urgencia" (p. 4).
Ante este panorama, la comunidad global ha iniciado una respuesta multidisciplinaria. Académicos como Nissenbaum (2010) han profundizado en las implicaciones éticas de la privacidad y la automatización, mientras organizaciones como Human Rights Watch (2019) abogan por marcos regulatorios robustos. Iniciativas internacionales, como la Recomendación sobre la Ética de la IA de la UNESCO (2021), buscan establecer principios universales que prioricen la transparencia, la rendición de cuentas y los derechos humanos. A nivel jurídico, los tribunales de diversos países comienzan a enfrentar casos complejos sobre la responsabilidad legal de los sistemas autónomos (Freedman, 2019), un territorio legal aún inexplorado en muchas jurisdicciones. Estos esfuerzos reflejan un consenso emergente, resumido por The Future of Life Institute (2017): "La ética y la regulación de la inteligencia artificial son cruciales para asegurar que la tecnología beneficie a la humanidad en lugar de perjudicarla" (Principio 18).
Sin embargo, a pesar de estos avances globales, persisten desafíos significativos, particularmente en contextos nacionales específicos donde la regulación puede ir a la zaga de la innovación tecnológica. Es en esta brecha donde se sitúa la problemática central que este artículo aborda: la protección de los derechos humanos frente a la IA en el Ecuador. Si bien la Constitución de la República del Ecuador (2008) establece un sólido catálogo de derechos y principios de Buen Vivir, la normativa específica que regule el desarrollo, implementación y auditoría de los sistemas de IA es incipiente o inexistente. Esta laguna legal crea un entorno de incertidumbre donde los ciudadanos quedan potencialmente vulnerables a los abusos antes mencionados, sin los recursos legales claros para su defensa.
Por lo tanto, el objetivo de este artículo es realizar un análisis jurídico exhaustivo de la protección de los derechos humanos dentro del marco legal ecuatoriano vigente, específicamente en el contexto de la inteligencia artificial.
La presente investigación se enmarca en el campo del derecho territorial, la justicia constitucional y los derechos humanos, abordando específicamente la protección de estos últimos en el contexto del avance de la inteligencia artificial (IA) en Ecuador. Se adoptó un enfoque cualitativo con alcance descriptivo, orientado a analizar sistemáticamente la aplicabilidad del artículo 16 de la Constitución de la República del Ecuador (2008) frente a los desafíos que plantea la IA.
Metodológicamente, se emplearon técnicas del nivel teórico, mediante los métodos analítico-sintético para examinar la figura de los derechos humanos en este nuevo contexto, e inductivo-deductivo para identificar particularidades procedimentales en la protección constitucional. En el nivel empírico, se realizaron 12 entrevistas semi-estructuradas aplicadas de manera intencional a expertos en derecho constitucional y derechos humanos, permitiendo recabar perspectivas profundas y reconstruir el enfoque social de la problemática. Este diseño integral facilitó la obtención de insights valiosos sobre los vacíos y desafíos normativos que enfrenta Ecuador para garantizar la protección de los derechos humanos en la era digital.
El presente estudio revela hallazgos significativos sobre la protección de los derechos humanos en la era de la inteligencia artificial (IA). Mediante el análisis de casos emblemáticos y la revisión de literatura especializada, se han identificado aspectos clave concernientes a esta problemática en el contexto legal ecuatoriano.
Los resultados de la investigación evidencian una problemática sustancial respecto a la protección de derechos humanos en la era de la IA en Ecuador. A través de un enfoque cualitativo que incluyó entrevistas semiestructuradas y análisis de contenido, se recopilaron datos significativos que proporcionan una comprensión integral de la situación actual y las percepciones de expertos en derecho constitucional y derechos humanos (Asamblea Nacional Constituyente, 2008).
Actualmente, la IA ha avanzado significativamente y se ha convertido en una herramienta omnipresente en diversos aspectos de la vida cotidiana e instituciones gubernamentales. No obstante, este progreso tecnológico presenta desafíos éticos y legales que deben abordarse para garantizar que los derechos fundamentales no se vean comprometidos (European Union Agency for Fundamental Rights, 2018).
Uno de los hallazgos más relevantes consiste en la identificación de vacíos regulatorios en el marco legal ecuatoriano respecto al impacto de la IA en los derechos humanos. Los informantes clave enfatizaron que la legislación actual no está preparada para abordar los desafíos que presenta la IA, incluyendo la discriminación algorítmica, la toma de decisiones automatizadas y la protección de datos personales. Esta falta de regulación específica ha creado un vacío legal que permite el uso de IA en aplicaciones de justicia, vigilancia y toma de decisiones gubernamentales sin las debidas garantías para la protección de derechos fundamentales (Crawford, 2013).
Adicionalmente, se identificó una falta de conciencia pública sobre estas problemáticas y una brecha en la comprensión de cómo la IA afecta los derechos humanos en la práctica. La mayoría de la población ecuatoriana no está suficientemente informada sobre las implicaciones de la IA en sus vidas y en la garantía de sus derechos fundamentales.
La caracterización de la problemática reveló la complejidad de aplicar los derechos humanos en el contexto de la IA en Ecuador. A pesar de que la Constitución establece sólidamente los derechos humanos en su artículo 16, su aplicación en la era digital presenta desafíos significativos. La falta de regulación específica ha creado un escenario incierto donde la IA podría utilizarse de manera perjudicial para los derechos humanos sin garantías adecuadas (Nissenbaum, 2010).
Preocupa especialmente la discriminación algorítmica y la falta de transparencia en los sistemas de IA. La toma de decisiones automatizada basada en algoritmos puede generar resultados sesgados y discriminatorios, socavando la igualdad y la justicia. Asimismo, la recolección y uso indebido de datos personales en contextos de IA plantea serias preocupaciones sobre privacidad y autonomía individual (Zuboff, 2019).
En resumen, esta investigación evidencia la necesidad urgente de abordar la protección de derechos humanos en la era de la IA en Ecuador. Si bien la IA ofrece potencial para el avance social y la mejora de eficiencia, es crucial garantizar su implementación ética y equitativa. La adopción de regulaciones específicas y la promoción de conciencia pública son pasos esenciales para lograr este equilibrio necesario (Future of Life Institute, 2017).
Como concluye Carson (2020), "la inteligencia artificial representa tanto una oportunidad como una responsabilidad. Nuestro futuro como humanidad dependerá de cómo desarrollemos estas tecnologías para impactar positivamente en la sociedad mientras protegemos los derechos fundamentales" (p. 45). La comunidad académica tiene la responsabilidad de considerar los impactos sociales, económicos y políticos de la personalización de contenido mediante IA y participar activamente en investigaciones que guíen su desarrollo ético (Méndez Cabrita et al., 2025).
La protección de los derechos humanos en la era de la inteligencia artificial resulta crucial para abordar los desafíos emergentes en este campo. Los resultados revelan una serie de preocupaciones interrelacionadas que requieren atención y acción por parte de gobiernos, organizaciones y la sociedad en general.
En la presente discusión se analizan en profundidad los resultados alcanzados en este estudio sobre la protección de los derechos humanos en la era de la inteligencia artificial en el contexto legal ecuatoriano. Estos hallazgos se comparan con el marco teórico y otras investigaciones relevantes para destacar su importancia y proporcionar una visión integral de la problemática.
El análisis se centra en la necesidad de establecer un marco regulatorio sólido y ético para guiar el desarrollo e implementación de sistemas de inteligencia artificial, incluyendo la formulación de normas para la recopilación y uso de datos.
Uno de los hallazgos más significativos consiste en la falta de regulación específica en el marco legal ecuatoriano respecto al impacto de la IA en los derechos humanos. Esta carencia normativa coincide con lo documentado en la literatura académica. Como señala Smith (2020), la falta de regulación adecuada de la IA puede resultar en consecuencias negativas para los derechos humanos, ya que los sistemas de IA pueden actuar de manera discriminatoria y sin salvaguardias adecuadas.
La ausencia de regulación específica también ha sido destacada en investigaciones internacionales. El informe de la Comisión Europea (2021) sobre ética de la IA subraya la necesidad de establecer normativas claras para garantizar que la IA se utilice de manera ética y respetuosa con los derechos humanos.
Un aspecto importante identificado corresponde a la falta de conciencia pública sobre los problemas relacionados con la IA y los derechos humanos. Este hallazgo coincide con investigaciones previas que han enfatizado la necesidad de educar y concienciar al público sobre los riesgos y desafíos de la IA (Bougie y Sekaran, 2019). La falta de conocimiento público puede dificultar la participación informada en debates y decisiones relacionadas con la IA y los derechos humanos.
En concordancia con la literatura especializada, se argumenta que Ecuador debe participar activamente en la cooperación internacional en materia de regulación de la IA y adoptar estándares y principios éticos globales. Como señalan Jobin et al. (2019), la colaboración internacional es crucial, ya que los desafíos de la IA trascienden las fronteras nacionales y requieren enfoques globales.
Este estudio proporciona una visión profunda de la problemática de la protección de los derechos humanos en la era de la inteligencia artificial en Ecuador. Los resultados destacan la falta de regulación específica, la preocupación por la discriminación algorítmica y la falta de transparencia, la necesidad de educación pública y la importancia de la cooperación internacional.
Estos hallazgos subrayan la urgente necesidad de abordar la regulación y ética de la IA en el contexto de los derechos humanos para garantizar que la tecnología se utilice de manera equitativa y respetuosa con los derechos fundamentales de los individuos.
Además, este estudio contribuye a la literatura existente al contextualizar los desafíos de la IA en el marco legal ecuatoriano y ofrece recomendaciones concretas para abordar estas cuestiones. La combinación de la teoría y la evidencia empírica en este estudio fortalece la comprensión de los problemas en juego y proporciona una base sólida para futuras acciones y políticas en esta área crítica.
En resumen, los resultados y la discusión presentados subrayan la necesidad de abordar de manera proactiva los desafíos relacionados con la protección de los derechos humanos en el contexto de la inteligencia artificial. La adopción de enfoques éticos, la colaboración entre múltiples partes interesadas y la atención constante a los impactos en la sociedad son elementos fundamentales para garantizar que la inteligencia artificial beneficie a la humanidad sin comprometer los valores fundamentales de los derechos humanos.
El estudio sobre la protección de los derechos humanos en la era de la inteligencia artificial en el contexto legal ecuatoriano permite establecer las siguientes conclusiones fundamentales:
Se reconoce que la inteligencia artificial constituye una "doble espada" con potencial tanto para mejorar la calidad de vida como para amenazar los derechos humanos, siendo su impacto variable según su desarrollo y utilización.
La investigación revela desafíos significativos que demandan atención inmediata, destacando la falta de regulación específica en el marco legal ecuatoriano respecto al impacto de la IA en los derechos humanos, lo que plantea riesgos relacionados con la discriminación algorítmica y la privacidad de los datos.
Adicionalmente, la falta de conciencia pública sobre estas problemáticas subraya la necesidad de implementar programas de educación y concienciación a nivel nacional. Las recomendaciones propuestas, que incluyen la creación de legislación específica y la colaboración internacional, representan pasos esenciales para garantizar que la IA se utilice de manera ética y equitativa en beneficio de la sociedad ecuatoriana.
El análisis exhaustivo del fortalecimiento del artículo 16 de la Constitución ecuatoriana frente a la inteligencia artificial revela desafíos y oportunidades cruciales para garantizar la protección de los derechos humanos en la era digital. Los hallazgos subrayan la necesidad imperante de una regulación específica que aborde integralmente la intersección entre la IA y los derechos fundamentales.
FINANCIAMIENTO
Autofinanciado.
AGRADECIMIENTO
A todos los agentes sociales involucrados en el proceso investigativo.
REFERENCIAS CONSULTADAS
Asamblea Nacional Constituyente. (2008). Constitución de la República del Ecuador. Registro Oficial 449. https://shorturl.at/xhEVZ
Bougie, R., & Sekaran, U. (2019). Research methods for business: A skill-building approach (8th ed.). Wiley. https://shorturl.at/bhyJ8
Carson, C. (2020). Artificial intelligence and human responsibility. Oxford University Press. https://doi.org/10.1093/oso/9780198851123.001.0001
Crawford, K. (2013). The hidden biases in big data. Harvard Business Review, 91(4), 1-9. https://shorturl.at/jpEM9
Eulàlia Trias Capella, R. G. V., & Trias Capella, R. (2024). Treatment of the information on gender-based violence. With contributions from artificial intelligence. Spanish Journal of Legal Medicine, 50(1), 29-39. https://doi.org/10.1016/j.remle.2024.01.001
European Commission. (2021). Ethics guidelines for trustworthy AI. Publications Office of the European Union. https://shorturl.at/fCN09
European Union Agency for Fundamental Rights. (2018). #BigData: Discrimination in data-supported decision making. FRA. https://shorturl.at/uDSX8
Freedman, D. (2019). Artificial intelligence and the law: Responsibility and regulation. Routledge. https://doi.org/10.4324/9780429021129
Future of Life Institute. (2017). Asilomar AI principles. https://futureoflife.org/ai-principles
Human Rights Watch. (2019). Human rights in the age of artificial intelligence. HRW. https://shorturl.at/hjFL8
Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389-399. https://doi.org/10.1038/s42256-019-0088-2
Méndez Cabrita, C. M., Isea Argüelles , J. J., Chuga Quemac, R. E., & Anamá Tiracá, R. A. (2025). Efectos de la Inteligencia Artificial y la digitalización en la formación epistemológica de juristas contemporáneos. Revista Conrado, 21(104), e4593. https://conrado.ucf.edu.cu/index.php/conrado/article/view/4593
Nissenbaum, H. (2010). Privacy in context: Technology, policy, and the integrity of social life. Stanford University Press. https://doi.org/10.1515/9780804772891
Smith, J. (2020). Artificial intelligence and human rights: Challenges and perspectives. Cambridge University Press. https://doi.org/10.1017/9781108767705
The Future of Life Institute. (2017). Asilomar AI Principles. https://futureoflife.org/ai-principles
UNESCO. (2021). Recommendation on the ethics of artificial intelligence. United Nations Educational, Scientific and Cultural Organization. https://shorturl.at/uKMO3
Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs. https://shorturl.at/djBHV
©2025 por los autores. Este artículo es de acceso abierto y distribuido según los términos y condiciones de la licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0) (https://creativecommons.org/licenses/by-nc-sa/4.0/)