DOI 10.35381/noesisin.v7i2.658

 

Beneficios y riesgos de la inteligencia artificial en la protección de datos personales en Ecuador

 

The benefits and risks of artificial intelligence in personal data protection in Ecuador

 

 

Vanessa Carolina Gallegos-Unda

vanessagu00@uniandes.edu.ec

Universidad Regional Autónoma de los Andes, Ambato, Tungurahua

Ecuador

https://orcid.org/0009-0008-3556-3512

 

Gladis Margo Proaño-Reyes

posgrado@uniandes.edu.ec

Universidad Regional Autónoma de los Andes, Ambato, Tungurahua

Ecuador

https://orcid.org/0000-0003-1653-5889

 

Fernando de Jesús Castro-Sánchez

fernandodcs.ainv@uniandes.edu.ec

Universidad Regional Autónoma de los Andes, Ambato, Tungurahua

Ecuador

https://orcid.org/0000-0003-3937-8142

 

 

 

 

Recibido: 15 de abril 2025

Revisado: 15 de mayo 2025

Aprobado: 15 de julio 2025

Publicado: 01 de agosto 2025

 


 

RESUMEN

Esta investigación analiza la compleja convergencia entre la inteligencia artificial (IA) y la protección de datos personales en Ecuador. Su objetivo es identificar los beneficios y riesgos de esta aplicación, examinando el marco legal vigente y los desafíos en la gobernanza de datos. A través de una metodología cualitativa y análisis documental, el estudio revela que la IA puede potenciar significativamente la eficiencia y seguridad en el procesamiento de información. No obstante, también surgen riesgos inherentes, como posibles sesgos algorítmicos y la vulneración de la privacidad. Los hallazgos enfatizan que una implementación responsable, transparente y ética, respaldada por un gobierno de datos sólido, es fundamental para mitigar estos peligros. En conclusión, la IA posee un potencial transformador para Ecuador, pero su éxito depende de la creación de un marco normativo robusto que garantice un equilibrio entre la innovación tecnológica y la protección de los derechos fundamentales.

 

Descriptores: Inteligencia artificial; protección de datos personales; gobierno de datos; algoritmos; privacidad. (Tesauro UNESCO).

 

 

 

ABSTRACT

This research analyzes the complex convergence between artificial intelligence (AI) and personal data protection in Ecuador. Its objective is to identify the benefits and risks of this application, examining the current legal framework and challenges in data governance. Through a qualitative methodology and documentary analysis, the study reveals that AI can significantly enhance efficiency and security in information processing. However, inherent risks also arise, such as possible algorithmic biases and privacy violations. The findings emphasize that responsible, transparent, and ethical implementation, backed by robust data governance, is essential to mitigate these dangers. In conclusion, AI has transformative potential for Ecuador, but its success depends on the creation of a robust regulatory framework that ensures a balance between technological innovation and the protection of fundamental rights.

 

Descriptors: Artificial intelligence; personal data protection; data governance; algorithms; privacy. (UNESCO Thesaurus).

 


INTRODUCCIÓN

En el contexto de la digitalización creciente, el derecho a la privacidad de los datos personales ha adquirido gran importancia, siendo respaldado por múltiples normativas internacionales. La expansión de las tecnologías digitales en todos los aspectos de la vida diaria ha evidenciado la urgencia de implementar leyes específicas que protejan la privacidad (Floridi, 2018), en especial ante el creciente e intensivo uso de la inteligencia artificial en dispositivos móviles, cuyo uso se ha masificado como artículos personales, electrodomésticos y asistentes comunes en cada hogar a nivel global y en creciente expansión en el Ecuador.

La protección de datos personales, en Ecuador, está consagrada en la Constitución de la República y desarrollada en la Ley Orgánica de Protección de Datos Personales. Este derecho es garantizado por la Constitución en su artículo 66, numeral 19 y además ordena que se requiera expresamente la autorización del titular o el mandato de la ley para la recolección, archivo, procesamiento, distribución o difusión de este tipo de información sensible. Por otra parte, la Ley Orgánica de Protección de Datos Personales desarrolla lo dispuesto en la Constitución al definir los elementos esenciales, derechos, obligaciones y garantías necesarias para asegurar el efectivo ejercicio de este derecho.

Nuevos desafíos y oportunidades en el contexto de la protección de datos se presentan debido a la creciente adopción de la inteligencia artificial (IA) en sistemas de gestión de datos personales. La IA, puede definirse como el diseño e implementación de sistemas capaces de realizar tareas que normalmente requieren de inteligencia humana, como el reconocimiento de patrones, el aprendizaje y la toma de decisiones (Russell y Norvig, 2020), lo ofrece un enorme potencial para optimizar la protección de datos. Por ejemplo, la IA puede ayudar a detectar y prevenir violaciones de datos, automatizar procesos de cumplimiento normativo y ofrecer un tratamiento más eficiente en la gestión de solicitudes de acceso a datos.

Sin embargo, la implementación de la IA también plantea riesgos importantes. El procesamiento masivo de datos personales mediante algoritmos de inteligencia artificial plantea riesgos como la invasión a la privacidad y la posibilidad de que los algoritmos reproduzcan sesgos, lo que puede generar discriminación (Osoba y Welser, 2017). Además, la dependencia excesiva de sistemas de IA puede generar vulnerabilidades frente a fallos tecnológicos y ciberataques, poniendo en riesgo la integridad y confidencialidad de los datos.

En este sentido, es esencial analizar cómo la IA puede ser implementada de manera ética y responsable para la protección de datos personales en Ecuador. Un componente crucial para lograr esto es el establecimiento de un gobierno de datos robusto y efectivo en las organizaciones tanto públicas como privadas. La gobernanza de datos es un proceso que abarca desde la recolección hasta la eliminación de datos, asegurando su calidad, seguridad e integridad. En el contexto de la IA, esta gestión es crucial para garantizar el cumplimiento de las normativas vigentes y minimizar los riesgos asociados. Sin un gobierno de datos adecuado, los beneficios potenciales de la IA pueden verse socavados por los riesgos asociados con el uso de datos incorrectos, incompletos o sesgados.

La Unión Europea, consciente de los desafíos y oportunidades que presenta la IA, ha propuesto un Reglamento de Inteligencia Artificial que clasifica los riesgos asociados con esta tecnología y establece requisitos para su desarrollo y uso seguro (Comisión Europea, 2021). Esta propuesta, que también enfatiza la importancia del gobierno de datos, puede servir como referente para Ecuador en el desarrollo de su propia normativa en materia de IA.

La presente investigación tiene como objetivo identificar los beneficios y riesgos de la aplicación de la inteligencia artificial en la protección de datos personales en Ecuador y para esto se considera el papel fundamental del gobierno de datos en este proceso.

 

MÉTODO

Este estudio se enmarcó en un paradigma de investigación cualitativo, seleccionado por su idoneidad para analizar fenómenos sociales complejos y lograr una comprensión profunda y contextualizada del objeto de estudio. El diseño fue no experimental, ya que se observó y analizó la realidad tal como se presenta, sin manipulación de variables. La investigación se caracterizó por tener un alcance exploratorio-descriptivo y analítico-explicativo, orientado a examinar un campo de conocimiento emergente en el contexto ecuatoriano: la intersección entre la inteligencia artificial (IA), la protección de datos personales y el gobierno de datos.

La estrategia metodológica central fue el análisis documental, que proporcionó la base empírica del estudio. Este proceso se realizó de manera sistemática y rigurosa, siguiendo una guía de análisis documental preestablecida que actuó como el instrumento principal de la investigación. Dicha guía definió criterios explícitos para la selección, clasificación y evaluación de las fuentes secundarias. La búsqueda documental se centró en cuatro categorías principales: 1) Documentos legales y normativos, que incluyeron la Ley Orgánica de Protección de Datos Personales de Ecuador, proyectos de ley sobre IA, y constituciones de otros países para el análisis comparativo; 2) Informes técnicos y de políticas públicas publicados por organismos internacionales (como la OCDE y UNESCO), agencias gubernamentales ecuatorianas y think tanks; 3) Artículos académicos indexados en bases de datos como Scopus, Web of Science y repositorios latinoamericanos, para incorporar el estado del arte científico; y 4) Publicaciones periodísticas y reportes de medios de comunicación confiables, que permitieron capturar debates actuales y casos prácticos relevantes.

El análisis de los documentos seleccionados se llevó a cabo mediante la aplicación de los principios de la Teoría Fundamentada. Esto implicó un proceso iterativo de codificación abierta, axial y selectiva utilizando software especializado de análisis cualitativo (como Atlas.ti o NVivo), lo que permitió generar categorías conceptuales emergentes a partir de los datos mismos, en lugar de imponer un marco teórico preconcebido. Este proceso facilitó la identificación de patrones, tendencias, contradicciones y relaciones clave entre los conceptos de IA, protección de datos y gobernanza.

Para el tratamiento de la información, se emplearon de manera complementaria los métodos de análisis-síntesis e inducción-deducción. El análisis permitió descomponer el fenómeno en sus elementos constitutivos (marco legal, capacidades técnicas, riesgos, etc.), mientras que la síntesis posibilitó integrar los hallazgos para reconstruir una visión holística e identificar beneficios y riesgos concretos. Simultáneamente, el razonamiento inductivo permitió extrapolar observaciones desde casos específicos encontrados en la literatura hacia principios generales aplicables a Ecuador, y el deductivo permitió contrastar teorías y marcos globales con la evidencia concreta del contexto local. La combinación de estas estrategias metodológicas aseguró un abordaje integral, profundo y crítico, proporcionando una base sólida para la formulación de conclusiones y recomendaciones fundamentadas.

 

RESULTADOS

Beneficios y riesgos de la inteligencia artificial respecto a la protección de datos personales

Para comprender el impacto del uso de la inteligencia artificial en función de los beneficios y riesgos de su aplicación en la implementación de la Ley de protección de datos personales en Ecuador, es necesario conocer los componentes de su ecosistema, en este conjugan de manera interdependiente tecnologías, organizaciones, personas, procesos y marcos regulatorios que colaboran para desarrollar, implementar y utilizar sistemas de IA (OCDE, 2019). Dado que se trata de una tecnología en desarrollo, un componente importante pero no tan visible del ecosistema es la investigación que es considerada como uno de los tres pilares fundamentales en las mediciones sobre la IA que son: inversión, innovación e implementación (Fouirner, 2021).

A nivel global, el análisis del ecosistema de la IA se realiza a través de los índices: Global AI Index, publicado por Tortoise Media; AI Readiness Index, publicado por Oxford Insights y el International Development Research Centre (IDRC); AI AI Readiness Index for Cities, publicado por Oliver Wyman Forum; Stanford AI Index, publicado por Stanford Institute for Human-Centered Artificial Intelligence (HAI). Todos estos miden una amplia gama de factores relacionados la infraestructura tecnológica, el nivel de investigación e innovación, y la disponibilidad de talento en IA. Además, se analizan factores como la transparencia, la responsabilidad social, y la capacidad de los países para generar crecimiento económico a partir de la IA, sin descuidar la existencia de marcos regulatorios y éticos que aseguren su uso responsable.

Aunque Ecuador ha realizado esfuerzos para impulsar el desarrollo de la IA, su posición en los índices globales no suele ser destacada. Esto se debe a varios factores interrelacionados. En primer lugar, el ecosistema de IA en Ecuador se encuentra en una etapa temprana de desarrollo, con un número limitado de empresas e instituciones dedicadas a la investigación y desarrollo en este campo. En segundo lugar, la inversión en IA en el país es relativamente baja en comparación con otros países, lo que limita la capacidad de llevar a cabo proyectos ambiciosos y atraer talento especializado. Además, la falta de datos oficiales y específicos sobre los diferentes pilares que miden estos índices dificulta la evaluación precisa del estado de la IA en Ecuador.

La IA se utiliza ampliamente en la industria farmacéutica y es muy efectiva para el rastreo de contactos con teléfonos móviles y datos de ubicación de las personas como la geolocalización. Estas tecnologías ayudaron a los gobiernos del mundo a gestionar la pandemia provocada por el coronavirus en el año 2019. Por lo que algunos países decidieron profundizar en los riesgos de la IA para acelerar la generación de propuestas sólidas, responsables y aterrizadas para regular su uso. Resulta importante enfatizar que, al tratarse de una tecnología en desarrollo, esta tarea es compleja y requiere de mucha prospectiva.

Respecto a los múltiples beneficios del uso de la IA resuenan sin duda la mejora significativa en la eficiencia de los procesos y su versatilidad absoluta, misma que le permite usos infinitamente variados tanto a nivel de sectores económicos o sociales como de aplicaciones prácticas de estas tecnologías en estos. Estos beneficios están relacionados con el uso y análisis masivo y sistemático de información que incluye, normalmente, el uso de datos que identifican o permiten identificar a los seres humanos, que son los llamados datos personales (Mendoza, 2022).

De acuerdo con el Libro Blanco sobre la IA: un enfoque europeo orientado a la excelencia y la confianza, el impacto de los sistemas de inteligencia artificial no debe considerarse únicamente desde una perspectiva individual, sino principalmente desde una perspectiva social. La IA puede jugar un papel clave en la consecución de los Objetivos de Desarrollo Sostenible y en el fortalecimiento de los procesos democráticos y la protección de los derechos sociales. De esta manera, su implementación responsable resulta esencial para maximizar los beneficios tanto sociales como económicos (Comisión Europea, 2020).

Respecto a los riesgos del uso de la inteligencia artificial, la Unión Europea, realizó un análisis profundo y, en su propuesta de reglamento, los clasificó en dos tipos: riesgo inadmisible y alto. Esta clasificación nace para evaluar de manera objetiva la conformidad de la estructura de gobernanza relativa a la IA que no debe alterar ni las competencias o las responsabilidades derivadas del marco legal vigente.

El riesgo inadmisible se manifiesta en actividades que, por su naturaleza intrínseca, violan derechos fundamentales de manera grave. Ejemplos de ello son: el desarrollo de sistemas de puntuación social gubernamentales que emplean IA para analizar grandes conjuntos de datos sensibles, la explotación de la vulnerabilidad de los niños a través de algoritmos, el uso de técnicas subliminales para manipular el comportamiento y, salvo excepciones debidamente justificadas, la implementación de sistemas de identificación biométrica remota en espacios públicos con fines policiales, lo cual representa una intromisión desproporcionada en la privacidad y puede conducir a prácticas discriminatorias (Comisión Europea, 2020).

El riesgo alto se manifiesta en situaciones donde una falla en sistemas de IA puede tener impactos severos y de largo alcance. Por ejemplo, la dependencia excesiva de IA en infraestructuras críticas como el transporte puede llevar a accidentes masivos, mientras que los sesgos algorítmicos en sistemas educativos pueden perpetuar desigualdades y limitar el acceso a oportunidades. Además, la aplicación de IA en áreas sensibles como la salud, como la cirugía asistida por robots, expone a los pacientes a riesgos adicionales en caso de ciberataques o fallos del sistema (Comisión Europea, 2020).

El gobierno de datos como base de la inteligencia artificial

La gobernanza de datos desempeña un papel fundamental en el desarrollo y despliegue de sistemas de inteligencia artificial (IA) confiables. Janssen et al. (2020) argumentan que una gobernanza efectiva debe abarcar la gestión integral de datos, políticas y algoritmos, así como la promoción de la transparencia a través de la apertura controlada, el intercambio seguro de información y la implementación de controles basados en riesgos. Estos autores enfatizan la importancia de la propiedad compartida de los datos y las identidades autosoberanas para garantizar la privacidad y la autonomía de los individuos en la era de la IA.

La gobernanza de datos implica que las organizaciones y los especialistas de negocio establezcan el marco de reglas y responsabilidades para gestionar el ciclo de vida completo de los datos y algoritmos dentro y entre organizaciones. Esto implica definir y supervisar los procesos que garantizan la calidad, la seguridad y el uso adecuado de los datos, involucrando tanto a las organizaciones como a los profesionales del sector. Para cumplir sus objetivos, la gobernanza de datos no debe centrarse solo en los datos, sino en los sistemas a través de los cuales se recopilan, gestionan y utilizan estos, por lo tanto, las personas son esenciales en estos sistemas (Benfeldt et al., 2020).

Existe un tipo específico de datos denominado BOLD (Big and Open Linked Data) que es un concepto que expone gran cantidad de datos en formato abierto y vinculado y que permite, a través de sistemas de algoritmos de Big Data (BDAS por sus siglas en inglés), tomar decisiones de forma automatizada en cualquier ámbito, por ejemplo, acceso a préstamos asequibles en medio de la escasez de expedientes crediticios; emparejamiento de habilidades y empleos para promover el acceso al empleo; implementación de la admisión a las escuelas al tiempo que se ayuda a las personas a elegir la escuela adecuada; entre otros. Si estos algoritmos son alimentados por datos de baja calidad, es decir, incompletos, inválidos, inexactos e inoportunos, sería demasiado riesgoso confiarles decisiones importantes.

Es por esto que las organizaciones están recurriendo al gobierno de datos como un medio para ejercer control sobre la calidad de sus datos y sobre el cumplimiento de requisitos legales y éticos pertinentes para garantizar la producción de resultados para la toma de decisiones confiables y supervisadas (Janssen et al., 2020). La calidad de los datos se conceptualiza como el grado en que un conjunto de información satisface las necesidades y expectativas de los usuarios finales. Las dimensiones de la calidad de los datos, definidas por especialistas, incluyen exactitud, completitud, consistencia, integridad, razonabilidad, oportunidad, unicidad y validez. Estas dimensiones proporcionan un marco de referencia para evaluar la adecuación de los datos para su uso en aplicaciones específicas (DAMA International, 2017).

Cuando se habla de calidad de datos enfocada en la IA, nos referimos a las necesidades específicas de los sistemas de algoritmos aplicados a grandes volúmenes de datos (BDAS), estas necesidades están concentradas en dimensiones como la completitud, en donde se mide si los datos existen; exactitud, que mide el grado en el que los datos corresponden a la realidad; razonabilidad, que mide si el patrón de datos cumple las expectativas y evita valores atípicos; validez, que mide si los valores de datos con consistentes dentro de un conjunto de valores válidos; y la oportunidad, que mide la vigencia de los datos en términos de tiempo y se basa muchas veces en la frescura de los mismos, es decir, qué tan actualizados están (DAMA International, 2017). El cumplimiento de estas características puede, en parte, garantizar los resultados al aplicar los BDAS.

Otra función importante del gobierno de datos en relación con la IA es la clasificación de los datos y la estandarización de procesos para la recolección, almacenamiento, y procesamiento de los mismos. Esto incluye el uso de técnicas de anonimización y cifrado que protegen los datos personales de accesos no autorizados, algo especialmente crítico cuando se utiliza IA para analizar grandes volúmenes de datos. Además, la gobernanza de datos asegura que solo se utilicen los datos estrictamente necesarios para los modelos de IA, limitando el riesgo de exposición innecesaria de información sensible.

El auge de la IA generativa, impulsado por la disponibilidad masiva de datos a escala global, ha puesto de manifiesto la necesidad de una gobernanza internacional coordinada. La dispersión geográfica tanto de los datos como de los actores involucrados en el desarrollo de la IA subraya la urgencia de establecer marcos normativos coherentes que aborden los desafíos de privacidad. Sin embargo, en la actualidad, las comunidades de IA y los responsables de la política de privacidad suelen operar de forma aislada, lo que resulta en enfoques dispares y fragmentados a nivel jurisdiccional (OECD, 2024).

Para la clasificación de datos, la inteligencia artificial por sí misma también puede ser utilizada, existen sistemas que usan inteligencia artificial para identificar datos sensibles en las bases de datos de la organización de manera transversal. Este tipo de sistemas permiten asegurar el cumplimiento de las regulaciones de protección de datos personales y son de utilidad para demostrar la identificación e implementar el adecuado tratamiento de los datos sensibles.

Otro aspecto importante es la auditoría y monitoreo continuo de los sistemas de IA. La gobernanza de datos facilita la implementación de controles y auditorías que aseguran que los sistemas de IA cumplan con los estándares de privacidad y seguridad, y que cualquier brecha sea detectada y gestionada rápidamente. Esto es vital dado que, según estudios recientes, las organizaciones que implementan IA y automatización de seguridad logran reducir significativamente los costos asociados a violaciones de datos. Un marco integral de gobernanza de datos de IA garantiza que las organizaciones mantengan la transparencia sobre cómo se desarrollan, entrenan e implementan los modelos de IA. Esto es crucial en los servicios financieros, donde la toma de decisiones basadas en la IA, como la calificación crediticia, deben ser transparentes para garantizar la equidad y la rendición de cuentas (Sullivan, 2024).

 

DISCUSIÓN

La protección de datos personales, en Ecuador, está consagrada en la Constitución de la República y desarrollada en la Ley Orgánica de Protección de Datos Personales, sin embargo, no contempla la aplicación de tecnologías de IA para el tratamiento y protección de datos individuales. En junio del 2024 se ingresó a la Asamblea Nacional el Proyecto de Ley Orgánica de Regulación y Promoción de la Inteligencia Artificial en el Ecuador, mismo que pretende establecer un marco jurídico para la gobernanza de los sistemas de IA. Si bien el desarrollo actual de productos y servicios de IA en Ecuador es incipiente, es crucial establecer un marco regulatorio que fomente la investigación, el desarrollo tecnológico y la inversión en este campo. Una regulación proactiva puede sentar las bases para un futuro desarrollo robusto de la IA en el país (Benalcázar, 2024).

El Ecuador no figura de manera destacada en los índices globales de medición de Inteligencia Artificial (Barragán Martínez, 2023), para impulsar el desarrollo de la IA en Ecuador, se propone implementar estrategias enfocadas en: invertir en investigación y desarrollo (I+D) a través de la creación de centros especializados y la formación de talento humano; promover la adopción de la IA en el sector público y privado mediante incentivos; fortalecer el marco regulatorio y ético para la IA, a través del establecimiento de normas claras y transparentes que promuevan el uso responsable y ético de la IA; generar y compartir datos de calidad a través de la generación y el acceso a datos abiertos y la promoción de la colaboración entre diferentes actores para generar datos de calidad que impulsen el desarrollo de soluciones de IA (OCDE, 2024).

Al trabajar en estas áreas, Ecuador podrá avanzar en su camino hacia una sociedad impulsada por la IA, aprovechando los beneficios de esta tecnología para el desarrollo económico y social del país y aprovechar su potencial para generar soluciones a los principales problemas que aquejan a la sociedad y aquellos que en este momento deben ser atendidos para que no se conviertan en un problema en el corto y mediano plazo.

Es fundamental fortalecer la formación en IA a través del desarrollo de programas académicos especializados. Asimismo, la colaboración entre academia, industria y gobierno es esencial para impulsar la innovación y generar un impacto positivo en la sociedad. Finalmente, la disponibilidad de datos oficiales y detallados sobre IA permitirá una evaluación precisa del progreso y facilitará la toma de decisiones informadas.

Considerando el objetivo general de esta investigación se ha podido identificar que los riesgos del uso de la IA asociados a la protección de datos pueden ser mitigados por la implementación del gobierno de datos en las organizaciones. La gobernanza de datos es un factor de éxito para los BDAS (Brous et al., 2020) y tiene un efecto positivo general en el desempeño de las organizaciones que aplican BDAS (Zhang et al., 2016). Se busca maximizar el valor de los datos, minimizando simultáneamente los costos y riesgos asociados. (Abraham et al., 2019).

En este sentido la relación entre la IA y el gobierno de datos puede ser analizado desde dos puntos de vista, el gobierno como habilitante y garante de la calidad de los datos para el uso de los algoritmos de IA; y la IA como herramienta para la implementación del gobierno de datos con una infinidad de usos, entre ellos la identificación de datos sensibles a través de patrones, el análisis de metadatos y datos gobernados respecto al cumplimiento normativo y todos los que puedan implementarse desde las necesidades y realidades de cada una de las organizaciones. Lo cierto es que se hace evidente la simbiosis entre estos dos conceptos.

La inteligencia artificial (IA) presenta un potencial transformador para abordar desafíos globales apremiantes, como la delincuencia transnacional, la protección de la democracia, el cambio climático y la sostenibilidad. Al mejorar la eficiencia, la productividad y la competitividad a nivel global, la IA puede contribuir significativamente al bienestar de las poblaciones. Estos beneficios han sido ampliamente reconocidos (Comisión Europea, 2020).

Para aprovechar al máximo los beneficios de la inteligencia artificial (IA) y mitigar sus riesgos, es imperativo establecer un marco de gobernanza que promueva la colaboración interdisciplinaria entre tecnólogos, legisladores, académicos y la sociedad civil. El desarrollo de políticas públicas sólidas que equilibren la innovación con la protección de los derechos humanos es fundamental para garantizar un desarrollo responsable de la IA. Esto incluye tanto la regulación de su implementación en sectores clave como la educación en ética y gobernanza de la IA. Así, la inteligencia artificial puede convertirse en una herramienta transformadora para el progreso humano, siempre y cuando se utilice de forma segura, justa y transparente.

La normativa legal en Ecuador sobre inteligencia artificial (IA) se encuentra en una etapa incipiente, lo que representa un desafío importante para regular adecuadamente su uso y mitigar los riesgos asociados. A nivel global, se han desarrollado marcos regulatorios avanzados, como el Reglamento General de Protección de Datos (GDPR) en Europa, que contiene directrices claras sobre la privacidad de los datos en entornos automatizados. Sin embargo, en Ecuador aún no se han implementado regulaciones de este nivel que aborden de manera integral el uso de la IA. La ausencia de un marco legal específico para la inteligencia artificial (IA) expone al país a diversos riesgos. La adopción de sistemas de IA sin las debidas salvaguardas legales puede comprometer derechos fundamentales de los ciudadanos, como la protección de datos personales y la privacidad (Zarsky, 2016).

Un reto clave en la normativa sobre IA es cómo garantizar la rendición de cuentas en sistemas automatizados que operan con poca intervención humana. Floridi y Cowls (2019) señalan que, sin marcos regulatorios bien definidos, las decisiones tomadas por IA pueden ser difíciles de auditar, lo que genera incertidumbre sobre la responsabilidad en casos de errores o daños causados por estos sistemas. En el contexto legal ecuatoriano, donde la regulación de la IA aún no está plenamente desarrollada, existe una urgente necesidad de leyes que definan claramente las responsabilidades legales tanto de los desarrolladores como de los usuarios de IA. Esto es especialmente relevante en sectores sensibles como la protección de datos personales, donde la supervisión inadecuada puede poner en riesgo la seguridad de los ciudadanos.

Finalmente, la regulación de la IA en Ecuador debe ir más allá de la protección de datos y establecer un marco normativo integral que abarque aspectos como la transparencia, la rendición de cuentas y la responsabilidad algorítmica. La creciente implementación de sistemas de IA en diversos sectores exige un enfoque regulatorio proactivo que garantice su desarrollo y uso ético (Floridi y Cowls, 2019). Además, la formulación de un marco normativo sólido para la inteligencia artificial (IA) en Ecuador demandará una sinergia entre el sector público, el sector privado y la sociedad civil. Esta colaboración intersectorial será esencial para garantizar que la regulación promueva tanto la innovación tecnológica como la protección de los derechos fundamentales de los ciudadanos.

 

CONCLUSIONES

La IA, con su capacidad para procesar grandes volúmenes de información y detectar patrones sutiles, emerge como una herramienta poderosa para fortalecer la seguridad y eficiencia en el manejo de datos personales. Esta promesa viene acompañada de desafíos significativos que no se puede ignorar como la falta de transparencia en los algoritmos de IA y el riesgo de sesgos arraigados en sus entrañas, plantean interrogantes cruciales sobre la equidad y la justicia en la era digital. En un contexto donde la regulación de la IA aún está en ciernes, estos riesgos se amplifican, subrayando la urgencia de establecer un marco legal sólido y ético que guíe su aplicación.

La gobernanza de datos se entrelaza con los principios de ética en la inteligencia artificial, proporcionando un marco sólido para el uso responsable de esta tecnología. La implementación de políticas claras y mecanismos de control no solo asegura el cumplimiento normativo, sino que también actúa como catalizador para generar confianza y transparencia en el uso de tecnologías avanzadas como la IA. Este enfoque permite a los actores operar dentro de un marco ético, minimizando los riesgos sin comprometer los derechos fundamentales de los ciudadanos.

El camino hacia un futuro donde la IA y la protección de datos coexistan armoniosamente requiere un enfoque multifacético. Ecuador debe avanzar con paso firme hacia la creación de políticas públicas que regulen su uso. La sinergia entre el sector público y el privado es indispensable para co-crear soluciones tecnológicas innovadoras que respeten la privacidad de los usuarios. En este contexto, la educación superior y la investigación científica adquieren un papel protagónico al formar profesionales capacitados y generar conocimiento sobre los impactos socioeconómicos de estas tecnologías. ´

 

FINANCIAMIENTO

No monetario.

 

AGRADECIMIENTO

A todos los actores sociales involucrados en el desarrollo de la investigación.

 

REFERENCIAS CONSULTADAS

Abraham, R., Schneider, J., & vom Brocke, J. (2019). Data governance: A conceptual framework, structured review, and research agenda. International Journal of Information Management, 49, 424-438. https://doi.org/10.1016/j.ijinfomgt.2019.07.008

 

Barragán-Martínez, X. (2023). Situación de la Inteligencia Artificial en el Ecuador en relación con los países líderes de la región del Cono Sur. FIGEMPA: Investigación y Desarrollo, 16(2), 23-38. https://doi.org/10.29166/revfig.v16i2.4498

 

Benalcázar, M. (2024). Proyecto de Ley Orgánica de Regulación y Promoción de la Inteligencia Artificial en el Ecuador. Asamblea Nacional del Ecuador. http://www.asambleanacional.gob.ec/leyes/proyecto-ley-ia

 

Benfeldt, O., Persson, J. S., & Madsen, S. (2020). Data governance as a collective action problem. Information Systems Frontiers, 22(2), 299-313. https://doi.org/10.1007/s10796-019-09923-z

 

Brous, P., Janssen, M., & Krans, R. (2020). The success of data governance initiatives: A measurement framework. Journal of Theoretical and Applied Electronic Commerce Research, 15(2), 1-15. https://doi.org/10.4067/S0718-18762020000200101

 

Comisión Europea. (2020). Libro Blanco sobre la Inteligencia Artificial: un enfoque europeo orientado a la excelencia y la confianza. https://n9.cl/9jq3j

 

Comisión Europea. (2021). Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial. Ley de Inteligencia Artificial. https://n9.cl/0kcju

 

DAMA International. (2017). The DAMA Guide to the Data Management Body of Knowledge (DAMA-DMBOK2). Technics Publications. https://n9.cl/t4tgv

 

Floridi, L. (2018). La Cuarta Revolución: Cómo la infosfera está transformando la realidad. Oxford University Press. https://n9.cl/pflt1l

 

Floridi, L., & Cowls, J. (2019). A unified framework of five principles for AI in society. Harvard Data Science Review. https://n9.cl/jm6sk

 

Fouirner, J. (2021). Measuring AI: Investment, Innovation, Implementation. Tortoise Media. https://n9.cl/ag6g8u

 

Janssen, M., Brous, P., Estevez, E., Barbosa, L. S., & Janowski, T. (2020). Data governance: Organizing data for trustworthy Artificial Intelligence. Government Information Quarterly, 37(3), 101493. https://doi.org/10.1016/j.giq.2020.101493

 

Mendoza, P. (2022). Protección de datos personales en la era de la inteligencia artificial. Editorial Tirant Lo Blanch. https://n9.cl/jmh9q

 

OCDE. (2019). Artificial Intelligence in Society. OECD Publishing. https://doi.org/10.1787/eedfee77-en

 

OCDE. (2024). AI and the Future of Data Governance. OECD Digital Economy Papers, No. 352. https://doi.org/10.1787/5d8a0c3c-en

 

Osoba, O. A., & Welser IV, W. (2017). An Intelligence in Our Image: The Risks of Bias and Errors in Artificial Intelligence. RAND Corporation. https://n9.cl/mmt9b

 

Russell, S., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach (4th ed.). Pearson. https://n9.cl/w7iol

 

Sullivan, B. (2024). The Cost of Data Breach: The Value of AI and Automation. IBM Security. https://n9.cl/rqvag

 

Zarsky, T. (2016). The trouble with algorithmic decisions: An analytic road map to examine efficiency and fairness in automated and opaque decision making. Science, Technology, & Human Values, 41(1), 118-132. https://doi.org/10.1177/0162243915605575

 

Zhang, C., Zhao, K., & Kumar, R. L. (2016). The impact of data governance on organizational performance. Proceedings of the 20th Pacific Asia Conference on Information Systems (PACIS). https://n9.cl/axc0a9

 

 

 

 

 

 

 

 

©2025 por los autores. Este artículo es de acceso abierto y distribuido según los términos y condiciones de la licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0) (https://creativecommons.org/licenses/by-nc-sa/4.0/)