I nnova Science Journal | Vol.02 | Núm.01 | Ene Mar | 202 4 | www .innovasciencejournal.omeditorial.com 41 Artículo Científico Responsabilidad legal de las plataformas digitales en la difusión de información falsa Legal liability of digital platforms in the dissemination of false information Núñez - Ribadeneyra, Ronny Alejandro 1 ; Bonilla - Morejón, Diego Marcelo 2 1 Universidad Estatal de Bolívar ; Ecuador, Bolivar ; https://orcid.org/0000 - 0002 - 2236 - 6332 ; ralejandro.nr@gmail.com 2 Consejo de la Judicatura ; Ecuador, Bolivar ; https://orcid.org/0000 - 0001 - 5481 - 151X ; diego.bonilla@funcionjudicial.gob.ec 1 Autor Correspondencia https://doi.org/10.63618/omd/isj/v2/n1/32 Resumen: El artículo aborda la responsabilidad legal de las plataformas digitales en la difusión de información falsa, una problemática creciente en la era digital. Se examina cómo estas plataformas, lejos de ser meros intermediarios tecnológicos, influyen activamente en la viralización de contenidos, generando la necesidad de un marco regulatorio más sólido. La metodología utilizada es de carácter exploratorio y se basa en el análisis documental de marcos normativos, estudios académi cos y casos jurídicos relevantes. Los resultados evidencian la fragmentación de la regulación a nivel internacional, con enfoques divergentes entre jurisdicciones que dificultan una estrategia unificada. Además, se identifican deficiencias en la autorregul ación de las plataformas, especialmente en la transparencia de sus algoritmos de moderación. La discusión resalta la tensión entre la libertad de expresión y la lucha contra la desinformación, así como la necesidad de establecer mecanismos de rendición de cuentas más efectivos. En conclusión, se propone un enfoque regulatorio integral que combine normas gubernamentales con una supervisión más rigurosa de las plataformas digitales, promoviendo la transparencia, la educación digital y la cooperación internaci onal para mitigar el impacto de la desinformación en la sociedad. Palabras clave: responsabilidad digital, desinformación, regulación, plataformas digitales, moderación de contenido. Abstract: The article addresses the legal responsibility of digital platforms in the dissemination of false information, a growing problem in the digital era. It examines how these platforms, far from being mere technological intermediaries, actively influence the v iralization of content, generating the need for a stronger regulatory framework. The methodology used is exploratory in nature and is based on documentary analysis of regulatory frameworks, academic studies and relevant legal cases. The results s how the fragmentation of regulation at the international level, with divergent approaches among jurisdictions that hinder a unified strategy. In addition, deficiencies are identified in the self - regulation of platforms, especially in the transparency of th eir moderation algorithms. The discussion highlights the tension between freedom of expression and the fight against disinformation, as well as the need for more effective accountability mechanisms. In conclusion, a comprehensive regulatory approach is pro posed that combines government regulations with more rigorous oversight of digital platforms, promoting transparency, digital education and international cooperation to mitigate the impact of disinformation on society. Keywords: digital responsibility, disinformation, regulation, digital platforms, content moderation. Cita: Núñez - Ribadeneyra, R. A., & Bonilla - Morejón, D. M. (2024). Responsabilidad legal de las plataformas digitales en la difusión de información falsa. Innova Science Journal , 2 (1), 41 - 57. https://doi.org/10.63618/omd/i sj/v2/n1/32 . Recibido: 01 / 11 /20 23 Aceptado: 01 / 12 /20 23 Publicado: 31 / 01 /20 24 Copyright: © 202 4 por los autores . Este artículo es un artículo de acceso abierto distribuido bajo los términos y condiciones de la Licencia Creative Commons, Atribución - NoComercial 4.0 Internacional. ( CC BY - NC ) . ( https://creativecommons.org/lice nses/by - nc/4.0/ )
Innova Science Journal I nnova Science Journal | Vol.02 | Núm.01 | Ene Mar | 202 4 | www .innovasciencejournal.omeditorial.com 42 Artículo Científico 1. Introducción En la era digital, la difusión de información ha alcanzado una velocidad sin precedentes, facilitada por plataformas tecnológicas que permiten la propagación de contenido en cuestión de segundos. Sin embargo, este fenómeno ha traído consigo un problema significa tivo: la diseminación de información falsa y sus consecuencias en la sociedad. La desinformación no solo afecta la percepción pública y el comportamiento de los usuarios, sino que también puede tener repercusiones en la estabilidad política, la economía y la seguridad de los individuos. Ante esta realidad, surge la necesidad de establecer un marco normativo que defina la responsabilidad legal de las plataformas digitales en la difusión de contenido engañoso o inexacto. Aunque estas plataformas argumentan se r meros intermediarios tecnológicos, su capacidad de moderar, priorizar y amplificar contenido plantea interrogantes sobre su rol en la garantía de una información veraz y responsable (Pérez de Paz et al., 2023). La problemática de la información falsa en plataformas digitales se manifiesta en distintos ámbitos, incluyendo la manipulación electoral, la publicidad engañosa y la desinformación en crisis sanitarias. En contextos electorales, la propagación de noticias falsas puede alterar la percepción de los votantes y socavar la democracia al influir en la toma de decisiones basada en datos erróneos. Un caso emblemático fue el uso de redes sociales en procesos electorales, donde algoritmos diseñados para maximizar la interacción priorizaron contenido sensacionalista sobre información verificada (Molano París, 2021). En el ámbito comercial, los influenciadores digitales han sido señalados por promover productos y servicios sin una verificación adecuada de sus cualidade s, lo que puede inducir a error a los consumidores y vulnerar sus derechos (Molano París, 2021). Adicionalmente, durante la pandemia de COVID - 19, la difusión de información falsa sobre tratamientos médicos y teorías conspirativas demostró el impacto negati vo de la desinformación en la salud pública, exacerbando la crisis y desafiando los esfuerzos de mitigación gubernamentales. En este contexto, la responsabilidad legal de las plataformas digitales ha sido un tema ampliamente debatido en el ámbito jurídico y tecnológico. Existen posturas que sostienen que estas empresas deben ser consideradas responsables del contenido que alojan , dado que sus algoritmos influyen en la viralización de la información. Desde la perspectiva del derecho digital, se argumenta que estas plataformas no son simples intermediarios, sino actores con capacidad de moderación y eliminación de contenido, lo que les otorga una responsabilidad activa en la difusión de información veraz (Tejada Flórez & Castrillón Mejía, 2024). Sin embargo, el marco normativo actual varía según las jurisdicciones. En la Unión Europea, por ejemplo, el Reglamento General de Protecció n de Datos (RGPD) y la Ley Orgánica 3/2018 de Protección de Datos Personales y garantía de los derechos digitales establecen ciertas obligaciones para las plataformas en términos de privacidad y veracidad de la información (del Estado, 2021). No obstante, persisten desafíos en la aplicación efectiva de estas normativas, especialmente en plataformas globales que operan bajo múltiples legislaciones. La justificación de este estudio radica en la necesidad de analizar la responsabilidad legal de las plataformas digitales en la difusión de información falsa desde un enfoque normativo y tecnológico. A medida que estas plataformas se consolidan como princi pales canales de información, se vuelve imperativo determinar hasta qué punto
Innova Science Journal I nnova Science Journal | Vol.02 | Núm.01 | Ene Mar | 202 4 | www .innovasciencejournal.omeditorial.com 43 Artículo Científico deben responder por el contenido que se distribuye en ellas y qué mecanismos pueden implementarse para mitigar la desinformación. El presente artículo ofrece un análisis bibliográfico de la legislación vigente, las responsabilidades de los distintos actore s involucrados y las posibles soluciones que han sido propuestas en el ámbito académico y jurídico. La revisión de estudios previos permite identificar vacíos normativos y establecer propuestas para una regulación más efectiva, asegurando un equilibrio ent re la libertad de expresión y la protección contra la desinformación. La viabilidad de este estudio se sustenta en la existencia de un corpus normativo y doctrinal que permite analizar la evolución de la responsabilidad digital de las plataformas. A través del análisis de marcos regulatorios y estudios recientes, se busca of recer una visión integral del problema y sus posibles soluciones. La metodología utilizada consistirá en una revisión sistemática de literatura especializada, recopilando fuentes de bases de datos académicas y documentos normativos que aborden la responsab ilidad de las plataformas digitales en distintos contextos. El objetivo de esta investigación es examinar la responsabilidad legal de las plataformas digitales en la difusión de información falsa, considerando los marcos normativos existentes y los desafíos asociados a su implementación. Para ello, se abordarán asp ectos como la moderación de contenido, las obligaciones de transparencia de los algoritmos y las sanciones aplicables en casos de desinformación deliberada. Este análisis contribuirá al debate sobre la regulación de las plataformas digitales y ofrecerá ins umos para la formulación de políticas públicas que garanticen un entorno digital más seguro y veraz. En síntesis, el fenómeno de la desinformación en plataformas digitales representa un desafío complejo que requiere una respuesta jurídica y tecnológica equilibrada. La revisión bibliográfica de este artículo permitirá dilucidar los principales enfoques teó ricos y normativos sobre la responsabilidad de estas plataformas, identificando sus limitaciones y oportunidades para una regulación más efectiva. La creciente influencia de estas empresas en la comunicación pública exige un marco legal claro que establezc a sus responsabilidades y obligaciones en la gestión de contenido, garantizando el derecho de los ciudadanos a acceder a información veraz y confiable. 2. Materiales y Métodos El presente estudio adopta un enfoque exploratorio basado en el análisis documental, con el propósito de examinar la responsabilidad legal de las plataformas digitales en la difusión de información falsa. Esta metodología permite analizar fuentes teóricas, normativas y doctrinales que contribuyen a la comprensión del marco jurídico aplicable, así como de las implicaciones sociales, políticas y económicas de la desinformación en el entorno digital. El proceso metodológico se desarrolló en varias etapas, iniciando con la definición del objeto de estudio y la delimitación del alcance de la investigación. Se establecieron como ejes de análisis la regulación legal de las plataformas digitales, la identif icación de responsabilidades en la difusión de información falsa y la evaluación de medidas regulatorias existentes en distintos contextos jurídicos. Estos aspectos permitieron
Innova Science Journal I nnova Science Journal | Vol.02 | Núm.01 | Ene Mar | 202 4 | www .innovasciencejournal.omeditorial.com 44 Artículo Científico estructurar la búsqueda de información y establecer criterios de selección para los documentos revisados. La recopilación de información se llevó a cabo mediante una búsqueda sistemática en bases de datos académicas y repositorios oficiales, priorizando fuentes indexadas en Scopus, Web of Science y bases jurídicas de acceso público. Se emplearon términos clave en español e inglés, como “responsabilidad legal de plataformas digitales”, “desinformación en redes sociales”, “moderación de contenido”, “fake news” y “regulación de la información falsa”. La combinación de estos términos en operadores booleanos facilit ó la identificación de estudios relevantes y normativas aplicables. Una vez obtenidas las fuentes documentales, se realizó un proceso de selección y clasificación basado en criterios de pertinencia, actualidad y rigor académico. Se descartaron aquellos documentos que no guardaban relación directa con la problemática plante ada o que carecían de sustento empírico o normativo. Como resultado, se obtuvo un corpus de literatura compuesto por artículos científicos, tesis académicas, documentos normativos y estudios de organismos oficiales que abordan la responsabilidad de las pla taformas digitales desde diversas perspectivas. Posteriormente, se llevó a cabo un análisis crítico de la información recopilada, estructurando los hallazgos en categorías temáticas. Entre estas categorías se incluyeron el marco normativo internacional y nacional aplicable a la regulación de plataformas digitales, las obligaciones de estas empresas en la gestión del contenido, las sanciones en casos de difusión de información falsa y los desafíos en la implementación de mecanismos de control efectivos. Asimismo, se analizaron estudios de caso relevantes que ilustran cómo distintas jurisdicciones han abordado la regulación de la desinformación en el entorno digital. El análisis comparado de normativas permitió identificar vacíos legales, inconsistencias en la aplicación de las leyes y posibles áreas de mejora en la regulación de la información falsa en plataformas digitales. Además, se evaluaron las responsabilidades de los distintos actores involucrados, incluyendo a las empresas tecnológicas, los generadores de contenido y los propios usuarios. Se examinaron también las estrategias adoptadas por las plataformas digitales para mitigar la desinformación, como los siste mas de verificación de contenido, la moderación algorítmica y las políticas de eliminación de publicaciones falsas. En términos de validez y confiabilidad, la metodología utilizada garantiza un análisis riguroso mediante la triangulación de fuentes. Al combinar estudios jurídicos, doctrinales y normativos, se obtiene una visión integral del problema, reduciendo sesgos i nterpretativos y asegurando la objetividad en la discusión. La revisión de literatura se complementó con un enfoque crítico que permitió evaluar la efectividad de los marcos regulatorios actuales y proponer mejoras en la regulación de la información en ent ornos digitales. Dado que la investigación es de carácter exploratorio y documental, no se realizaron encuestas ni experimentos. No obstante, la metodología empleada permite obtener un panorama detallado sobre la responsabilidad legal de las plataformas digitales en la dif usión de información falsa, aportando elementos para el debate académico y jurídico. A través de este análisis, se busca contribuir al desarrollo de propuestas regulatorias
Innova Science Journal I nnova Science Journal | Vol.02 | Núm.01 | Ene Mar | 202 4 | www .innovasciencejournal.omeditorial.com 45 Artículo Científico más efectivas, asegurando un equilibrio entre la libertad de expresión y la protección de los ciudadanos frente a la desinformación. 3. Resultados 3.1. Marco normativo y regulación de la responsabilidad digital En el contexto de la transformación digital y la creciente influencia de las plataformas tecnológicas en la difusión de información, la regulación de la responsabilidad digital ha cobrado una importancia fundamental en el ámbito jurídico. La proliferación de contenido falso o engañoso en redes sociales y otros espacios digitales plantea desafí os significativos para los sistemas normativos de distintos países, que buscan establecer marcos legales que equilibren la protección de la libertad de expresión con la necesidad de evitar la propagación de desinformación. No obstante, la falta de regulaci ones homogéneas y la dificultad de asignar responsabilidades claras a las plataformas digitales han generado vacíos legales que limitan la efectividad de estas normativas (Samaniego - Quiguiri & Bonilla - Morejón, 2024). Un análisis de las legislaciones vigentes en diversas jurisdicciones revela diferencias sustanciales en la forma en que los Estados abordan la responsabilidad de las plataformas digitales. En algunos países, como los miembros de la Unión Europea, se han im plementado normativas específicas que obligan a las empresas tecnológicas a moderar activamente el contenido que circula en sus plataformas y a rendir cuentas por la información falsa que facilitan. En contraste, en otras jurisdicciones, la regulación es m ás laxa, lo que permite que las plataformas argumenten que su papel es meramente de intermediación tecnológica y no de control sobre el contenido generado por los usuarios. En Ecuador, por ejemplo, el desarrollo normativo en materia digital ha sido influen ciado por la evolución del derecho constitucional, lo que ha permitido avances en términos de protección de derechos fundamentales, pero al mismo tiempo ha evidenciado la falta de legislación específica que regule la responsabilidad de las plataformas en l a difusión de información falsa (Samaniego - Quiguiri & Bonilla - Morejón, 2024). A pesar de los esfuerzos normativos para abordar esta problemática, persisten importantes desafíos en la implementación y aplicación efectiva de estas regulaciones. Uno de los principales problemas radica en la ausencia de mecanismos jurídicos claros que d efinan de manera precisa el grado de responsabilidad de las plataformas digitales en la moderación de contenido. En muchos casos, la legislación penal y civil no se encuentra adaptada a las dinámicas digitales actuales, lo que dificulta la persecución lega l de la desinformación y la imposición de sanciones efectivas contra quienes la propagan. En este sentido, la normativa penal ha intentado abordar ciertos aspectos de la responsabilidad digital, pero su eficacia ha sido cuestionada debido a la dificultad d e establecer la culpabilidad directa de las plataformas tecnológicas en la difusión de contenido engañoso (Bonilla - Morejón, 2023). Otro aspecto fundamental en el debate sobre la regulación digital es la existencia de garantías jurisdiccionales que protejan tanto a las víctimas de la desinformación como a los responsables de la generación y difusión de contenido en línea. Estas garantí as son esenciales para evitar abusos en la aplicación de las normativas, pero al mismo
Innova Science Journal I nnova Science Journal | Vol.02 | Núm.01 | Ene Mar | 202 4 | www .innovasciencejournal.omeditorial.com 46 Artículo Científico tiempo pueden representar un obstáculo cuando se utilizan para favorecer intereses particulares en lugar de garantizar la equidad en la aplicación de la ley. En este sentido, se ha evidenciado que, en ciertos contextos, las garantías jurisdiccionales han s ido empleadas de manera desigual, protegiendo a determinados sectores en detrimento de otros, lo que plantea interrogantes sobre la imparcialidad de la justicia en el ámbito digital (Samaniego - Quiguiri et al., 2024). Además, el carácter transnacional de las plataformas digitales agrega un nivel adicional de complejidad a la regulación de la responsabilidad digital. Muchas de estas empresas operan en múltiples países bajo distintas legislaciones, lo que dificulta la apl icación uniforme de las normativas nacionales. Esta fragmentación regulatoria no solo limita la efectividad de las leyes existentes, sino que también genera conflictos de competencia entre distintos sistemas jurídicos, lo que puede dar lugar a vacíos legal es y a la impunidad en la difusión de información falsa. En este contexto, es fundamental avanzar hacia acuerdos internacionales que permitan establecer criterios comunes para la regulación de la responsabilidad de las plataformas digitales y la implementa ción de mecanismos de cooperación entre Estados para la persecución de delitos digitales. En síntesis, el marco normativo actual en materia de responsabilidad digital ha avanzado en algunos aspectos, pero todavía enfrenta múltiples desafíos en términos de aplicación y eficacia. La falta de un marco regulatorio homogéneo, la complejidad de la asignación de responsabilidades y la existencia de vacíos legales son algunos de los principales obstáculos que dificultan el control de la desinformación en entornos digitales. Para abordar esta problemática, es necesario fortalecer las normativas existente s, establecer mecanismos de supervisión más efectivos y fomentar la cooperación internacional para garantizar una regulación más clara y equitativa que proteja tanto la libertad de expresión como el derecho de los ciudadanos a acceder a información veraz y confiable. 3.2. Responsabilidad de las plataformas digitales en la moderación de contenido Las plataformas digitales desempeñan un papel fundamental en la difusión y moderación del contenido generado por los usuarios. Sin embargo, el crecimiento exponencial de la información compartida en estos espacios ha hecho que la moderación de contenido se convierta en un desafío significativo. A pesar de que muchas empresas tecnológicas han implementado políticas de control y filtrado de información, estas estrategias presentan limitaciones que dificultan la prevención efectiva de la desinformación. Asimismo, la utilización de algoritmos para determinar qué contenidos se visibilizan o se censuran ha gene rado debates en torno a la responsabilidad legal de estas plataformas en la propagación de información falsa (Jiménez Monroy et al., 2023). Uno de los principales problemas en la moderación de contenido es la falta de transparencia en las políticas utilizadas por las plataformas digitales. Si bien algunas compañías han desarrollado mecanismos de verificación de información, la opacidad en la a plicación de estos procesos ha generado incertidumbre respecto a su efectividad. Además, muchas de estas políticas suelen estar sujetas a cambios sin previo aviso, lo que dificulta el establecimiento de criterios uniformes para la detección y eliminación d e noticias falsas. En este contexto, la Ley Orgánica 3/2018 de Protección de Datos Personales y garantía de los derechos digitales establece la necesidad de proteger la información de los usuarios y garantizar la transparencia en la gestión de sus datos, l o
Innova Science Journal I nnova Science Journal | Vol.02 | Núm.01 | Ene Mar | 202 4 | www .innovasciencejournal.omeditorial.com 47 Artículo Científico que también podría aplicarse al contexto de la moderación de contenido para fortalecer la regulación de la desinformación en línea (Imbernón, 2020). Otra limitación en la moderación de contenido es la dependencia de los algoritmos como herramienta principal para filtrar la información. Los sistemas de inteligencia artificial utilizados por las plataformas digitales están diseñados para priorizar el con tenido que genera mayor interacción, lo que puede favorecer la viralización de información falsa o sensacionalista. Este fenómeno ha sido ampliamente documentado en casos donde publicaciones con información errónea logran una mayor difusión que aquellas co n datos verificados, debido a que el algoritmo premia la participación de los usuarios en función de métricas de engagement y no de la veracidad del contenido (Jiménez Monroy et al., 2023). El impacto de estos algoritmos en la viralización de noticias falsas ha llevado a cuestionar el papel de las plataformas como simples intermediarias tecnológicas. Dado que estas empresas no solo facilitan la comunicación, sino que también influyen en la di stribución del contenido mediante sus sistemas de recomendación, su responsabilidad legal en la difusión de información falsa se vuelve un tema de gran relevancia. En este sentido, algunos estudios han señalado que la falta de regulación sobre el uso de al goritmos en la moderación de contenido podría generar riesgos para la protección de los derechos digitales, especialmente en el caso de grupos vulnerables como los niños y adolescentes, quienes pueden ser más susceptibles a la manipulación informativa (Azu rmendi et al., 2021). Asimismo, el concepto de derechos digitales ha cobrado mayor relevancia en el debate sobre la moderación de contenido. La protección de los datos personales, el derecho al olvido y la transparencia en la moderación de información son aspectos esenciales en la regulación de los entornos digitales. La falta de claridad sobre cómo las plataformas aplican sus políticas de moderación ha llevado a diversas controversias en las que usuarios han denunciado censura injustificada o, por el contrario, la proliferación de contenido dañino sin una adecuada supervisión. En este contexto, algunos expertos han señalado que la responsabilidad de las plataformas digitales no solo debe centrarse en eliminar información falsa, sino también en garantizar que sus mecanismos de fi ltrado sean equitativos, transparentes y respeten los derechos fundamentales de los usuarios (Imbernón, 2020). Desde una perspectiva normativa, los desafíos en la moderación de contenido requieren un enfoque regulatorio más sólido que obligue a las plataformas digitales a asumir una mayor responsabilidad en la prevención de la desinformación. Las actuales regulacio nes sobre derechos digitales han avanzado en la protección de la privacidad y la seguridad de los datos de los usuarios, pero aún existen vacíos legales en cuanto a la gestión de la información difundida en redes sociales y otros entornos digitales. La imp lementación de normativas más estrictas en torno a la moderación de contenido podría contribuir a reducir la propagación de noticias falsas y mejorar la confiabilidad de la información que circula en el entorno digital (Jiménez Monroy et al., 2023). En resumen , la moderación de contenido en plataformas digitales enfrenta importantes limitaciones tanto en términos de transparencia como en la efectividad de sus mecanismos de control. La dependencia de algoritmos para la gestión del contenido ha generado dinámicas que favorecen la viralización de información falsa, lo que cuestiona
Innova Science Journal I nnova Science Journal | Vol.02 | Núm.01 | Ene Mar | 202 4 | www .innovasciencejournal.omeditorial.com 48 Artículo Científico el papel de las plataformas como simples intermediarios tecnológicos. Además, la falta de regulaciones claras sobre la moderación de contenido y la responsabilidad de las plataformas en la difusión de información errónea refuerzan la necesidad de fortalece r el marco normativo vigente para garantizar un equilibrio entre la protección de los derechos digitales y la lucha contra la desinformación en línea. 3.3. Comparación de estrategias internacionales para el control de la desinformación El fenómeno de la desinformación ha adquirido una dimensión global que afecta la estabilidad democrática, la seguridad ciudadana y la confianza en las instituciones. Ante este desafío, distintos países han adoptado estrategias regulatorias para mitigar la difusión de noticias falsas en plataformas digitales. Estas estrategias pueden agruparse en dos enfoques principales: regulaciones gubernamentales que imponen sanciones y obligaciones específicas a las plataformas digitales, y modelos de autorregulación en los que las propias empresas establecen mecanismos internos para el control de la información. La efectividad de estas estrategias ha sido objeto de debate, ya que mientras algunas normativas han demostrado cierto éxito en la reducción de la desinformació n, la falta de un marco global unificado y los conflictos con derechos fundamentales como la libertad de expresión han dificultado la implementación de soluciones definitivas (Cova - Fernández, 2022). Estudio de modelos regulatorios en distintas jurisdicciones y su efectividad en la mitigación de noticias falsas Las estrategias regulatorias varían significativamente entre países y regiones. En la Unión Europea, el Reglamento de Servicios Digitales (DSA, por sus siglas en inglés) ha establecido directrices para la moderación de contenido en plataformas digitales, i mponiendo obligaciones de transparencia y rendición de cuentas a las empresas tecnológicas. Este tipo de regulación busca garantizar que las plataformas implementen mecanismos efectivos para la eliminación de contenido falso sin vulnerar derechos fundament ales. En América Latina, en cambio, la regulación es más heterogénea y en muchos casos insuficiente. Países como Brasil han propuesto leyes para combatir las fake news, mientras que otras naciones han optado por modificar normativas de protección al consum idor y publicidad engañosa para abordar la problemática desde una perspectiva más amplia (Trujillo et al., 2021). Uno de los enfoques más utilizados en América Latina ha sido la incorporación de cláusulas sobre desinformación en legislaciones de defensa del consumidor y regulación del marketing digital. Estas disposiciones buscan responsabilizar a las plataformas digi tales cuando permiten la difusión de publicidad engañosa o de contenido falso que pueda inducir a error a los consumidores. Sin embargo, la efectividad de este modelo depende de la capacidad de las autoridades para hacer cumplir las normativas y sancionar a las empresas en caso de incumplimiento. En este sentido, la Ley Orgánica de Defensa del Consumidor en algunos países ha sido un avance importante al establecer principios de veracidad y transparencia en la publicidad digital, aunque su impacto en la miti gación de la desinformación generalizada sigue siendo limitado (Trujillo et al., 2021).
Innova Science Journal I nnova Science Journal | Vol.02 | Núm.01 | Ene Mar | 202 4 | www .innovasciencejournal.omeditorial.com 49 Artículo Científico Por otro lado, en Estados Unidos, la regulación de la desinformación ha sido más flexible debido a la fuerte protección de la libertad de expresión garantizada por la Primera Enmienda. En este país, la moderación de contenido y la lucha contra las noticias falsas han recaído principalmente en las propias plataformas digitales, sin una intervención estatal significativa. Este enfoque ha sido criticado por permitir la proliferación de campañas de desinformación que han afectado procesos electorales, políticas de salud pública y otros temas sensibles. Sin embargo, algunos estados han comenzado a explorar regulaciones más estrictas, aunque enfrentan desafíos jurídicos en su implementación (Riofrío Martínez - Villalba, 2014). Análisis de mecanismos de autorregulación implementados por las plataformas digitales y su impacto en la responsabilidad corporativa En ausencia de un marco regulatorio homogéneo, muchas plataformas digitales han optado por mecanismos de autorregulación para gestionar la desinformación. Empresas como Meta, Google y Twitter han desarrollado políticas internas para la moderación de conten ido, que incluyen la verificación de datos por terceros, la reducción de visibilidad de contenido dudoso y la eliminación de publicaciones que violen sus normas comunitarias. Sin embargo, la efectividad de estos mecanismos es cuestionable debido a la falta de transparencia en sus algoritmos de recomendación y a las inconsistencias en la aplicación de sus políticas (Galindo Núñez, 2019). Uno de los principales problemas de la autorregulación es la ausencia de una supervisión independiente que garantice la objetividad en la moderación de contenido. En muchos casos, las plataformas digitales han sido acusadas de aplicar sus normas de manera arbitraria, eliminando información con sesgos políticos o económicos mientras permiten la difusión de otro tipo de desinformación que genera tráfico y aumenta sus ingresos publicitarios. Esta situación ha generado desconfianza en la capacidad de las empres as tecnológicas para autorregularse de manera efectiva, lo que ha llevado a un creciente llamado a una mayor intervención gubernamental para establecer límites más claros sobre la desinformación en línea (Cova - Fernández, 2022). Además, los mecanismos de autorregulación han demostrado ser insuficientes para proteger los derechos digitales de los ciudadanos en un entorno mediático cada vez más complejo. La protección de los datos personales, el derecho al olvido y la transparencia en la gestión de información son elementos fundamentales para garantizar un entorno digital seguro y confiable. Sin embargo, muchas plataformas han sido criticadas por priorizar el crecimiento de sus redes y la rentabilidad de su modelo de negocio en lugar de implementar medidas efectivas contra la desinformación. En este contexto, algunos expertos han señalado la necesidad de combinar estrategias de autorregulación con regulaciones gubernamentales más estrictas que obliguen a las plataformas a rendir cuent as sobre sus políticas de moderación de contenido (Cova - Fernández, 2022). La comparación de estrategias internacionales para el control de la desinformación evidencia la existencia de enfoques divergentes en la regulación de plataformas digitales. Mientras que algunos países han adoptado normativas estrictas para la moderación d e contenido, otros han dejado esta responsabilidad en manos de las propias plataformas. La autorregulación ha demostrado ser una herramienta útil en algunos casos, pero presenta limitaciones significativas cuando no está respaldada por un marco normativo s ólido.
Innova Science Journal I nnova Science Journal | Vol.02 | Núm.01 | Ene Mar | 202 4 | www .innovasciencejournal.omeditorial.com 50 Artículo Científico En este sentido, la lucha contra la desinformación requiere un enfoque integral que combine la regulación estatal con mecanismos de autorregulación más transparentes y efectivos. La implementación de normativas que obliguen a las plataformas digitales a re ndir cuentas por su papel en la difusión de información falsa, junto con el fortalecimiento de los derechos digitales de los ciudadanos, puede contribuir a la construcción de un entorno digital más seguro y confiable. A futuro, la cooperación internacional será clave para establecer estándares globales que permitan abordar la desinformación de manera coordinada y efectiva. 3.4. Desafíos y perspectivas futuras en la regulación de plataformas digitales La regulación de las plataformas digitales enfrenta múltiples desafíos debido a la naturaleza global y descentralizada de internet, así como a la rápida evolución de las tecnologías digitales. La lucha contra la desinformación se ve obstaculizada por barre ras legales y tecnológicas que dificultan la implementación de un marco regulatorio eficaz a nivel internacional. En este contexto, es necesario analizar las limitaciones existentes y proponer estrategias para fortalecer el marco jurídico, asegurando un eq uilibrio entre la protección contra la información falsa y el respeto a la libertad de expresión (Barahona - Martinez et al., 2024). Identificación de barreras legales y tecnológicas en la implementación de una regulación global sobre la desinformación Uno de los principales obstáculos para la regulación efectiva de las plataformas digitales es la fragmentación del marco jurídico a nivel global. Cada país tiene normativas distintas respecto a la responsabilidad de las plataformas en la difusión de información falsa, lo que dificulta la aplicación de una estrategia unificada. Mientras que algunas jurisdicciones han establec ido regulaciones estrictas que obligan a las empresas tecnológicas a moderar activamente el contenido, otras han optado por modelos más flexibles que priorizan la libertad de expresión, dejando a las plataformas la decisión de regularse a sí mismas (Andrés , 2021). Además, la regulación de la desinformación entra en conflicto con principios fundamentales de los derechos humanos, como la protección de la privacidad y el derecho a la información. Las iniciativas para mitigar la propagación de noticias falsas pueden der ivar en censura o en la eliminación de contenido legítimo, afectando la pluralidad de opiniones en el espacio digital. Este dilema ha llevado a los legisladores a buscar un equilibrio entre la prevención de la desinformación y la preservación de los derech os digitales de los ciudadanos (Núñez - Ribadeneyra, 2023). En el ámbito tecnológico, la implementación de mecanismos eficaces de detección y eliminación de desinformación es un desafío constante. A pesar de los avances en inteligencia artificial (IA) y aprendizaje automático, los sistemas automatizados de moderaci ón de contenido aún presentan limitaciones significativas. Estas tecnologías pueden identificar contenido falso con base en patrones previamente establecidos, pero suelen fallar en la interpretación del contexto, lo que puede llevar a la eliminación de pub licaciones legítimas o a la persistencia de información engañosa. Además, la desinformación se adapta rápidamente a las restricciones tecnológicas, utilizando estrategias como el uso de lenguaje ambiguo o la difusión de contenido en redes privadas para eva dir los filtros automatizados (Erazo - Luzuriaga et al., 2023).
Innova Science Journal I nnova Science Journal | Vol.02 | Núm.01 | Ene Mar | 202 4 | www .innovasciencejournal.omeditorial.com 51 Artículo Científico Otro reto tecnológico es la encriptación de la información en ciertas plataformas digitales, lo que dificulta la identificación y eliminación de contenido falso. Aunque la privacidad y la seguridad de los datos son fundamentales en el entorno digital, la i mposibilidad de rastrear la fuente de la desinformación limita la capacidad de los gobiernos y las plataformas para combatir la propagación de noticias falsas sin afectar el derecho a la privacidad de los usuarios (Barahona - Martinez et al., 2024). Propuestas para fortalecer el marco jurídico y garantizar un equilibrio entre la libertad de expresión y la protección contra la información falsa Para superar estas barreras, es necesario adoptar un enfoque integral que combine la regulación gubernamental con mecanismos de autorregulación más efectivos por parte de las plataformas digitales. Una de las estrategias más viables es la creación de un ma rco regulatorio internacional que establezca principios comunes para la moderación de contenido, asegurando que las medidas adoptadas por los Estados y las empresas tecnológicas respeten los derechos fundamentales de los ciudadanos (Andrés, 2021). En este sentido, una posible solución es el desarrollo de estándares internacionales para la transparencia en la moderación de contenido, obligando a las plataformas digitales a informar de manera clara sobre sus políticas de eliminación de información falsa y los criterios utilizados para la aplicación de sanciones. Esto permitiría evitar la censura arbitraria y garantizar que los usuarios tengan acceso a mecanismos de apelación cuando su contenido sea eliminado injustamente (Núñez - Ribadeney ra, 2023). Además, el uso de inteligencia artificial en la moderación de contenido debe ser complementado con supervisión humana para evitar errores en la detección de desinformación. Las plataformas digitales podrían implementar equipos de verificación formados por expertos en comunicación, derecho y tecnología para evaluar manualmente los casos más complejos antes de tomar decisiones sobre la eliminación de contenido. Asimismo, se recomienda el fortalecimiento de la educación digital de los usuarios para mejorar su capacidad crítica en la identificación de noticias falsas y reducir la dependencia de las plataformas en la moderación de contenido (Erazo - Luzuriaga et al., 2023). Otro aspecto clave en la regulación futura es el refuerzo de la protección de datos y la privacidad en el tratamiento de la información en línea. La recopilación masiva de datos por parte de las plataformas digitales debe estar sujeta a normativas claras q ue eviten el uso indebido de la información de los usuarios. Esto implica la necesidad de garantizar que las herramientas utilizadas para combatir la desinformación no vulneren la privacidad de las personas ni sean utilizadas para el control indebido del d iscurso público (Barahona - Martinez et al., 2024). Finalmente, la cooperación internacional entre gobiernos, plataformas digitales y organizaciones de la sociedad civil es esencial para la construcción de un ecosistema digital más seguro y confiable. La firma de acuerdos multilaterales podría facilitar la implementación de estrategias coordinadas para combatir la desinformación sin vulnerar la libertad de expresión. En este contexto, organismos internacionales como la ONU y la Unión Europea podrían desempeñar un papel clave en la formulación de principios g lobales que orienten a los países en la creación de sus propias normativas nacionales (Andrés, 2021).
Innova Science Journal I nnova Science Journal | Vol.02 | Núm.01 | Ene Mar | 202 4 | www .innovasciencejournal.omeditorial.com 52 Artículo Científico Los desafíos en la regulación de las plataformas digitales requieren un enfoque multidisciplinario que contemple tanto aspectos legales como tecnológicos. La fragmentación normativa y las limitaciones de los sistemas automatizados de moderación han dificul tado la lucha contra la desinformación, lo que resalta la necesidad de desarrollar estrategias más integrales y efectivas. Para lograr un equilibrio entre la protección contra la información falsa y la preservación de la libertad de expresión, es fundament al fortalecer el marco jurídico, mejorar la transparencia en la moderación de contenido y fomentar la cooperación internacional. En este sentido, la regulación futura deberá centrarse en la implementación de estándares globales que garanticen la rendición de cuentas de las plataformas digitales sin comprometer los derechos fundamentales de los ciudadanos. 4. Discusión La regulación de la responsabilidad legal de las plataformas digitales en la difusión de información falsa es un desafío multidimensional que involucra aspectos jurídicos, tecnológicos y éticos. A medida que estas plataformas adquieren un papel central en la configuración de la opinión pública y la distribución de contenido, su rol ha trascendido el de meros intermediarios tecnológicos, generando debates sobre la necesidad de un marco normativo más sólido que garantice la transparencia en la moderación de c ontenido y la protección de los derechos digitales de los usuarios (Andrés, 2021). El análisis del marco normativo vigente revela una notable fragmentación en la regulación de la responsabilidad digital. Mientras que en la Unión Europea se han implementado regulaciones como el Reglamento de Servicios Digitales (DSA) que obligan a las pla taformas a gestionar de manera más responsable el contenido falso o engañoso, en otras jurisdicciones, como Estados Unidos, prima la doctrina de la no intervención estatal bajo el principio de la Primera Enmienda, lo que ha generado un escenario en el que la autorregulación se convierte en el principal mecanismo de control. Esta disparidad normativa dificulta la implementación de estrategias globales para combatir la desinformación, ya que las plataformas digitales operan a nivel transnacional y deben adapt arse a múltiples marcos regulatorios con enfoques disímiles (Cova - Fernández, 2022). Uno de los problemas recurrentes en la moderación de contenido es la falta de transparencia en los criterios utilizados por las plataformas para determinar qué información se elimina y cuál permanece accesible. Aunque empresas como Meta, Google y X (anteri ormente Twitter) han desarrollado sistemas de fact - checking y eliminación de contenido engañoso, estos mecanismos han sido criticados por su aplicación inconsistente y su tendencia a favorecer ciertos discursos mientras permiten la permanencia de otros, de pendiendo de factores políticos o comerciales. Esta falta de uniformidad en la moderación de contenido pone en entredicho la efectividad de la autorregulación y plantea la necesidad de mecanismos de supervisión más rigurosos (Galindo Núñez, 2019). Desde una perspectiva tecnológica, el uso de inteligencia artificial para la detección y eliminación de información falsa representa tanto una oportunidad como una limitación. Si bien los algoritmos han avanzado en la identificación de patrones de desinfor mación,
Innova Science Journal I nnova Science Journal | Vol.02 | Núm.01 | Ene Mar | 202 4 | www .innovasciencejournal.omeditorial.com 53 Artículo Científico continúan presentando problemas en la interpretación del contexto, lo que puede derivar en la eliminación de contenido legítimo o en la permanencia de información engañosa disfrazada bajo formatos ambiguos. Asimismo, la tendencia de los algoritmos a priori zar contenido que genera mayor interacción ha sido un factor determinante en la viralización de noticias falsas, ya que este tipo de información suele captar más la atención del público que el contenido verificable pero menos sensacionalista (Erazo - Luzuria ga et al., 2023). El impacto de la desinformación en la sociedad es innegable, afectando no solo la percepción pública de la realidad, sino también influyendo en procesos electorales, crisis sanitarias y la estabilidad democrática. La proliferación de noticias falsas ha sid o documentada en numerosos contextos, demostrando cómo su difusión ha generado desconfianza en instituciones gubernamentales y científicas, debilitando los esfuerzos para combatir problemáticas globales como la pandemia de COVID - 19 o el cambio climático (J iménez Monroy et al., 2023). Este panorama refuerza la necesidad de establecer marcos regulatorios que obliguen a las plataformas a asumir una mayor responsabilidad en la gestión de contenido, sin que ello implique una restricción desproporcionada a la lib ertad de expresión. En este sentido, las estrategias internacionales para mitigar la desinformación han mostrado diferentes grados de efectividad. En América Latina, el enfoque ha girado en torno a la regulación de la publicidad engañosa y la protección del consumidor como un a vía indirecta para frenar la propagación de contenido falso. Sin embargo, estas medidas han demostrado ser insuficientes cuando se trata de noticias políticas o desinformación sobre temas de interés público. En contraste, países europeos han adoptado med idas más restrictivas, obligando a las plataformas a eliminar información falsa con rapidez y a implementar mecanismos de verificación más estrictos (Trujillo et al., 2021). No obstante, el reto sigue siendo encontrar un equilibrio que permita combatir la desinformación sin que ello implique otorgar a las plataformas digitales un poder desmesurado sobre el discurso público. La regulación futura de las plataformas digitales debe considerar tanto los avances tecnológicos como la protección de los derechos digitales de los ciudadanos. La implementación de estándares internacionales para la transparencia en la moderación de conte nido, el establecimiento de sanciones para las plataformas que incumplan con sus obligaciones y la promoción de la alfabetización digital son estrategias clave para fortalecer el marco normativo en este ámbito (Barahona - Martinez et al., 2024). Además, la s upervisión de los algoritmos de recomendación y la creación de mecanismos de apelación más accesibles para los usuarios afectados por decisiones de moderación deben formar parte del debate sobre la responsabilidad digital. En síntesis , la regulación de la responsabilidad de las plataformas digitales en la difusión de información falsa sigue siendo un desafío global que requiere un enfoque multidisciplinario. La coexistencia de marcos normativos divergentes, la opacidad en la moderación de contenido y la influencia de los algoritmos en la viralización de noticias falsas son factores que dificultan la implementación de soluciones efectivas. No obstante, el fortalecimiento de la legislación en materia de derechos digitales, la m ejora en la regulación de la inteligencia artificial aplicada a la moderación de contenido y la cooperación internacional pueden ser elementos clave para construir un ecosistema digital más seguro y confiable.
Innova Science Journal I nnova Science Journal | Vol.02 | Núm.01 | Ene Mar | 202 4 | www .innovasciencejournal.omeditorial.com 54 Artículo Científico 5. Conclusiones La regulación de la responsabilidad legal de las plataformas digitales en la difusión de información falsa es un tema de creciente relevancia en el contexto actual, donde la velocidad de propagación de contenido en línea supera la capacidad de control de los sistemas normativos tradicionales. A medida que estas plataformas han adquirido un papel central en la comunicación global, se ha generado un debate sobre su grado de responsabilidad en la moderación de contenido y los efectos de sus políticas en la pro tección de los derechos digitales. Si bien existen esfuerzos regulatorios en distintas jurisdicciones, persisten desafíos significativos en la implementación de normativas efectivas que equilibren la lucha contra la desinformación con la salvaguarda de la libertad de expresión. Uno de los principales hallazgos de este estudio es la fragmentación del marco normativo a nivel internacional. Mientras que algunos países han adoptado regulaciones estrictas que imponen obligaciones específicas a las plataformas digitales en la moderació n de contenido, otras jurisdicciones han optado por modelos más flexibles que dejan esta tarea en manos de las propias empresas tecnológicas. Esta disparidad normativa dificulta la implementación de estrategias globales y permite que las plataformas operen bajo diferentes estándares según la legislación aplicable en cada país, lo que genera inconsistencias en la gestión de la desinformación. Además, el análisis de las estrategias regulatorias ha demostrado que la autorregulación, aunque representa un avance en la moderación del contenido, presenta múltiples limitaciones. Las plataformas digitales han desarrollado mecanismos internos para ident ificar y eliminar información falsa, pero su efectividad ha sido cuestionada debido a la falta de transparencia en sus criterios de moderación y la presencia de sesgos en la aplicación de estas políticas. La ausencia de una supervisión independiente ha per mitido que ciertas plataformas prioricen la rentabilidad y la captación de usuarios sobre la veracidad de la información, lo que ha intensificado la proliferación de noticias falsas. Desde una perspectiva tecnológica, el uso de algoritmos y sistemas de inteligencia artificial para la moderación de contenido ha demostrado ser un arma de doble filo. Si bien estas herramientas pueden detectar patrones asociados con la desinformación, aún presentan fallos en la interpretación del contexto y pueden generar restricciones excesivas sobre contenido legítimo. Asimismo, los algoritmos diseñados para maximizar la interacción de los usuarios han favorecido la viralización de información falsa, ya q ue este tipo de contenido suele generar más participación que las noticias verificadas. Este fenómeno ha exacerbado la crisis de confianza en las plataformas digitales y ha impulsado la necesidad de regulaciones que garanticen la transparencia en los proce sos de recomendación de contenido. Otro aspecto relevante identificado es el impacto social de la desinformación y su influencia en la percepción pública de la realidad. La propagación de noticias falsas ha tenido efectos directos en procesos electorales, crisis sanitarias y debates sobre p olíticas públicas, evidenciando que la desinformación no solo distorsiona la opinión pública, sino que también puede generar consecuencias perjudiciales en la estabilidad democrática y la toma de decisiones informadas. En este sentido, la regulación de las plataformas digitales no solo debe centrarse en establecer responsabilidades legales,
Innova Science Journal I nnova Science Journal | Vol.02 | Núm.01 | Ene Mar | 202 4 | www .innovasciencejournal.omeditorial.com 55 Artículo Científico sino también en fomentar la educación digital para mejorar la capacidad crítica de los usuarios frente a la información que consumen. Para abordar estos desafíos, se requiere un enfoque integral que combine la regulación estatal con prácticas de autorregulación más efectivas y transparentes. La implementación de estándares internacionales que definan criterios claros para la moderación d e contenido podría contribuir a una mayor armonización regulatoria y evitar que las plataformas operen con reglas diferenciadas según el país en el que se encuentren. Además, es fundamental fortalecer los mecanismos de rendición de cuentas de las plataform as digitales, estableciendo obligaciones claras en términos de transparencia en la moderación de contenido y en el uso de algoritmos para la distribución de información. El futuro de la regulación de las plataformas digitales dependerá en gran medida de la capacidad de los Estados, las organizaciones internacionales y las propias empresas tecnológicas para encontrar soluciones equilibradas que permitan combatir la desinfor mación sin comprometer la libertad de expresión. La cooperación internacional será clave en la construcción de marcos normativos que establezcan responsabilidades claras y garanticen la protección de los derechos digitales de los ciudadanos. En síntesis , la responsabilidad legal de las plataformas digitales en la difusión de información falsa sigue siendo un tema complejo que requiere una respuesta multidisciplinaria. La coexistencia de regulaciones divergentes, la opacidad en la moderación de contenido y el impacto de los algoritmos en la viralización de noticias falsas han generado la necesidad de fortalecer el marco normativo y de promover un uso más responsable de la tecnología en la gestión de la información en línea. A medida que la socie dad avanza hacia una era digital más interconectada, es imprescindible adoptar estrategias que garanticen un entorno informativo confiable, equilibrando el derecho a la información con la protección de la verdad en el ecosistema digital. Referencias Bibliográficas Andrés, M. B. (2021). Génesis y desarrollo de los derechos digitales. Revista de las Cortes Generales , 197 - 233. https://doi.org/10.33426/rcg/2021/110/1572 Azurmendi, A., Etayo, C., & Torrell, A. (2021). Sharenting y derechos digitales de los niños y adolescentes. Profesional de la información , 30 (4). https://doi.org/10.3145/epi.2021.jul.07 Barahona - Martinez, G. E., Barzola - Plúas, Y. G., & Peñafiel - Muñoz, L. V. (2024). El Derecho a la Protección de Datos y el Avance de las Nuevas Tecnologías en Ecuador: Implicaciones Legales y Éticas. Journal of Economic and Social Science Research , 4 (3), 46 64. https://doi.org/10.55813/gaea/jessr/v4/n3/113 Barzola - Plúas, Y. G. (2022). Reformas Constitucionales en Ecuador: Impacto y Perspectivas. Revista Científica Zambos , 1 (1), 86 - 101. https://doi.org/10.69484/rcz/v1/n1/23 Bonilla - Morejón, D. M. (2023). Derecho Penal y Políticas de Seguridad en Ecuador: Análisis de la Eficacia. Revista Científica Zambos , 2 (3), 59 - 74. https://doi.org/10.69484/rcz/v2/n3/50
Innova Science Journal I nnova Science Journal | Vol.02 | Núm.01 | Ene Mar | 202 4 | www .innovasciencejournal.omeditorial.com 56 Artículo Científico Bonilla - Morejón, D. M. (2023). Derecho Penal y Políticas de Seguridad en Ecuador: Análisis de la Eficacia. Revista Científica Zambos , 2 (3), 59 - 74. https://doi.org/10.69484/rcz/v2/n3/50 Bonilla - Morejon, D. M., Bonilla - Morejón, J. S., Guano - Fogacho, J. E., Meléndez - Carrasco, P. V., Murillo - Ramos, F. R., Peña - Chauvín, S. M., Samaniego - Quiguiri, D. P., Solis - Miranda, D. F., Vásquez - Quinatoa, L. H., & Núñez - Ribadeneyra, R. A. (2023). Los gritos silenciosos de las víctimas de violencia de género: Un enfoque desde la perspectiva pre procesal y procesal penal en el Ecuador. Editorial Grupo AEA. Retrieved from. Editorial Grupo AEA. https://doi.org/10.55813/egaea.l.2022.41 Cova - Fernández, E. J. (2022). Derechos humanos y derechos digitales en la Sociedad de la Información. Revista DH/ED: derechos humanos y educación , (6), 61 - 80. https://dialnet.unirioja.es/servlet/articulo?codigo=8538629 del Estado, E. J. (2021). Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales. https://travesia.mcu.es/server/api/core/bitstreams/72d7e1c0 - 2b4d - 47ed - afd7 - f31550f3f35a/content Erazo - Luzuriaga, A. F., Ramos - Secaira, F. M., Galarza - Sánchez, P. C., & Boné - Andrade, M. F. (2023). La inteligencia artificial aplicada a la optimización de programas informáticos. Journal of Economic and Social Science Research , 3 (1), 48 63. https://doi.org/10.55813/gaea/jessr/v3/n1/61 Estrada - Ayre, C. P., & Porras - Sarmiento, S. (2023). Peculado Doloso y el Principio de Proporcionalidad de la Pena . Editorial Grupo AEA. https://doi.org/10.55813/egaea.l.2022.32 Galindo Núñez, A. C. (2019). Derechos digitales: una aproximación a las prácticas discursivas en internet desde la etnografía virtual. PAAKAT: revista de tecnología y sociedad , 9 (16), 5 - 18. https://www.scielo.org.mx/scielo.php?pid=S2007 - 36072019000100005&s García Moreno, M., & Vargas Fonseca, A. D. (2023). Restitución de derechos territoriales y ordenamiento ambiental en territorios étnicos en Colombia. Journal of Economic and Social Science Research , 3 (3), 76 96. https://doi.org/10.55813/gaea/jessr/v3/n3/74 Guerrero - Velástegui, C. A. (2023). Entorno Empresarial desde la Gestión del Derecho Laboral: Breves Apuntes desde una Perspectiva Académica. Editorial Grupo AEA. https://doi.org/10.55813/egaea.l.2022.42 IMBERNÓN, N. M. (2020). El testamento digital en la nueva Ley Orgánica 3/2018, de 5 de diciembre, de protección de datos personales y garantía de los derechos digitales. Anuario de derecho civil , 73 (1), 241 - 281. https://books.google.es/books?hl=es&lr=&id=rvjmDwAAQBAJ&oi=fnd&pg=PA2 41&dq=defensa+de+los+derechos+digitales&ots=3 - Hct6b8hG&sig=29sNtFzJby31AvTQf82V8DCQIk0 Jiménez Monroy, M. B., Guerrero Castro, J. E., & González - Uribe, C. (2023). Salud Digital y Derechos Digitales en Colombia. http://hdl.handle.net/1992/66228 Molano París, M. C. (2021). Responsabilidad del influenciador digital a la luz del estatuto del consumidor colombiano (Liability of the Digital Influencer under the Colombian Consumer Statute). La Propiedad Inmaterial , (31). https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3872133
Innova Science Journal I nnova Science Journal | Vol.02 | Núm.01 | Ene Mar | 202 4 | www .innovasciencejournal.omeditorial.com 57 Artículo Científico Núñez - Ribadeneyra, R. A. (2023). Derechos Humanos y Justicia Social en el Contexto Ecuatoriano. Revista Científica Zambos , 2 (3), 42 - 58. https://doi.org/10.69484/rcz/v2/n3/49 Núñez - Ribadeneyra, R. A. (2023). Derechos Humanos y Justicia Social en el Contexto Ecuatoriano. Revista Científica Zambos , 2 (3), 42 - 58. https://doi.org/10.69484/rcz/v2/n3/49 Pérez de Paz, M., Londoño - Cardozo, J., & Tello - Castrillón, C. (2023). Tecnologías agenciativas y la Responsabilidad Digital Organizacional: Conflictos, retos y soluciones. Editorial de la Universidad Nacional de La Plata (Edulp). https://repository.uniminuto.edu/items/d910751c - 540b - 4a41 - baf3 - da705dea2ee8 Riofrío Martínez - Villalba, J. C. (2014). La Cuarta Ola De Derechos Humanos: Los Derechos Digitales (Fourth Wave of Human Rights: The Digital Rights). Revista latinoamericana de derechos humanos , 25 (1). https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2515038 Samaniego - Quiguiri, D. P. (2023). Acceso a la Justicia y Equidad en el Sistema Legal Ecuatoriano. Revista Científica Zambos , 2 (2), 50 - 62. https://doi.org/10.69484/rcz/v2/n2/45 Samaniego - Quiguiri, D. P., & Bonilla - Morejón, D. M. . (2024). Análisis de la Evolución del Derecho Constitucional en Ecuador: Implicaciones para el Desarrollo Democrático. Revista Científica Zambos, 3(3), 1 - 14. https://doi.org/10.69484/rcz/v3/n3/53 Samaniego - Quiguiri, D. P., Urbano - Urbano, P. F., Días - Ledesma, D. F., Samaniego - Riera, W. R., Martínez - Tapia, J. D., Navarrete - Valladolid, M. I., Solis - Miranda, D. F., Murillo - Ramos, F. R., Pástor - Guevar, . J. C., & Lara - Palomino, M. A. de J. (2024). Garantías jurisdiccionales: ¿protección para todos o privilegio para pocos? . Editorial Grupo AEA. https://doi.org/10.55813/egaea.l.99 Tejada Flórez, M., & Castrillón Mejía, M. J. (2024). La responsabilidad de las plataformas digitales respecto de accidentes de trabajo y enfermedades laborales (Bachelor's thesis, Facultad de Derecho y Ciencias Políticas). https://repository.upb.edu.co/handle/20.500.11912/11837 Trujillo, P. E. A., Lara, G. P. C., & Cuadrado, S. A. Y. (2021). Ley Orgánica de Defensa del Consumidor y el Marketing Digital. Visionario Digital , 5 (3), 88 - 101. https://doi.org/10.33262/visionariodigital.v5i3.1774 Vargas - Fonseca, A. D., Borja - Cuadros, O. M., & Cristiano - Mendivelso, J. F. (2023). Estructura Ecológica Principal de la Localidad de Engativá: Estudio desde una perspectiva de ordenamiento territorial y sus instrumentos jurídicos. Editorial Grupo AEA. https://doi.org/10.55813/egaea.l.2022.38 CONFLICTO DE INTERESES “Los autores declaran no tener ningún conflicto de intereses”.