I
nnova Science
Journal
| Vol.02 | Núm.01 | Ene
–
Mar | 202
4
| www
.innovasciencejournal.omeditorial.com
41
Artículo Científico
Responsabilidad legal de las plataformas digitales en la
difusión de información falsa
Legal liability of digital platforms in the dissemination of false information
Núñez
-
Ribadeneyra, Ronny Alejandro
1
;
Bonilla
-
Morejón, Diego Marcelo
2
1
Universidad Estatal de Bolívar
;
Ecuador, Bolivar
;
https://orcid.org/0000
-
0002
-
2236
-
6332
;
ralejandro.nr@gmail.com
2
Consejo de la Judicatura
;
Ecuador, Bolivar
;
https://orcid.org/0000
-
0001
-
5481
-
151X
;
diego.bonilla@funcionjudicial.gob.ec
1
Autor
Correspondencia
https://doi.org/10.63618/omd/isj/v2/n1/32
Resumen:
El artículo aborda la responsabilidad legal de las plataformas digitales en
la difusión de información falsa, una problemática creciente en la era
digital. Se
examina cómo estas plataformas, lejos de ser meros intermediarios
tecnológicos,
influyen activamente en la viralización de contenidos, generando la necesidad de un
marco regulatorio más sólido. La metodología utilizada es de carácter exploratorio y
se basa en el análisis documental de marcos normativos, estudios académi
cos y
casos jurídicos relevantes. Los resultados evidencian la fragmentación de la
regulación a nivel internacional, con enfoques divergentes entre jurisdicciones que
dificultan una estrategia unificada. Además, se identifican deficiencias en la
autorregul
ación de las plataformas, especialmente en la transparencia de sus
algoritmos de moderación. La discusión resalta la tensión entre la libertad de
expresión y la lucha contra la desinformación, así como la necesidad de establecer
mecanismos de rendición de
cuentas más efectivos. En conclusión, se propone un
enfoque regulatorio integral que combine normas gubernamentales con una
supervisión más rigurosa de las plataformas digitales, promoviendo la transparencia,
la educación digital y la cooperación internaci
onal para mitigar el impacto de la
desinformación en la sociedad.
Palabras clave:
responsabilidad digital, desinformación, regulación, plataformas
digitales, moderación de contenido.
Abstract:
The article addresses the legal responsibility of digital platforms in the
dissemination of false information, a growing problem in the digital era. It examines
how these platforms, far from being mere technological intermediaries, actively
influence the v
iralization of content, generating the need for a stronger regulatory
framework. The methodology used is exploratory in nature and is based on
documentary analysis of regulatory frameworks, academic studies and relevant legal
cases. The results s
how the fragmentation of regulation at the international level, with
divergent approaches among jurisdictions that hinder a unified strategy. In addition,
deficiencies are identified in the self
-
regulation of platforms, especially in the
transparency of th
eir moderation algorithms. The discussion highlights the tension
between freedom of expression and the fight against disinformation, as well as the
need for more effective accountability mechanisms. In conclusion, a comprehensive
regulatory approach is pro
posed that combines government regulations with more
rigorous oversight of digital platforms, promoting transparency, digital education and
international cooperation to mitigate the impact of disinformation on society.
Keywords:
digital responsibility, disinformation, regulation, digital platforms, content
moderation.
Cita:
Núñez
-
Ribadeneyra, R. A.,
&
Bonilla
-
Morejón, D. M. (2024).
Responsabilidad legal de las
plataformas digitales en la
difusión de información
falsa.
Innova Science
Journal
,
2
(1), 41
-
57.
https://doi.org/10.63618/omd/i
sj/v2/n1/32
.
Recibido:
01
/
11
/20
23
Aceptado:
01
/
12
/20
23
Publicado:
31
/
01
/20
24
Copyright:
©
202
4
por los
autores
.
Este artículo
es un
artículo de acceso abierto
distribuido bajo los términos y
condiciones de la
Licencia
Creative Commons, Atribución
-
NoComercial 4.0 Internacional.
(
CC
BY
-
NC
)
.
(
https://creativecommons.org/lice
nses/by
-
nc/4.0/
)
Innova Science Journal
I
nnova Science
Journal
| Vol.02 | Núm.01 | Ene
–
Mar | 202
4
| www
.innovasciencejournal.omeditorial.com
42
Artículo
Científico
1. Introducción
En la
era digital, la difusión de información ha alcanzado una velocidad sin precedentes,
facilitada por plataformas tecnológicas que permiten la propagación de contenido en
cuestión de segundos. Sin embargo, este fenómeno ha traído consigo un problema
significa
tivo: la diseminación de información falsa y sus consecuencias en la sociedad.
La desinformación no solo afecta la percepción pública y el comportamiento de los
usuarios, sino que también puede tener repercusiones en la estabilidad política, la
economía y
la seguridad de los individuos. Ante esta realidad, surge la necesidad de
establecer un marco normativo que defina la responsabilidad legal de las plataformas
digitales en la difusión de contenido engañoso o inexacto. Aunque estas plataformas
argumentan se
r meros intermediarios tecnológicos, su capacidad de moderar, priorizar
y amplificar contenido plantea interrogantes sobre su rol en la garantía de una
información veraz y responsable (Pérez de Paz et al., 2023).
La problemática de la información falsa en plataformas digitales se manifiesta en
distintos ámbitos, incluyendo la manipulación electoral, la publicidad engañosa y la
desinformación en crisis sanitarias. En contextos electorales, la propagación de noticias
falsas puede alterar la percepción de los votantes y socavar la democracia al influir en
la toma de decisiones basada en datos erróneos. Un caso emblemático fue el uso de
redes sociales en procesos electorales, donde algoritmos diseñados para maximizar la
interacción priorizaron contenido sensacionalista sobre información verificada (Molano
París, 2021). En el ámbito comercial, los influenciadores digitales han sido señalados
por promover productos y servicios sin una verificación adecuada de sus cualidade
s, lo
que puede inducir a error a los consumidores y vulnerar sus derechos (Molano París,
2021). Adicionalmente, durante la pandemia de COVID
-
19, la difusión de información
falsa sobre tratamientos médicos y teorías conspirativas demostró el impacto negati
vo
de la desinformación en la salud pública, exacerbando la crisis y desafiando los
esfuerzos de mitigación gubernamentales.
En este contexto, la responsabilidad legal de las plataformas digitales ha sido un tema
ampliamente debatido en el ámbito jurídico y tecnológico. Existen posturas que
sostienen que estas empresas deben ser consideradas responsables del contenido que
alojan
, dado que sus algoritmos influyen en la viralización de la información. Desde la
perspectiva del derecho digital, se argumenta que estas plataformas no son simples
intermediarios, sino actores con capacidad de moderación y eliminación de contenido,
lo que
les otorga una responsabilidad activa en la difusión de información veraz (Tejada
Flórez & Castrillón Mejía, 2024). Sin embargo, el marco normativo actual varía según
las jurisdicciones. En la Unión Europea, por ejemplo, el Reglamento General de
Protecció
n de Datos (RGPD) y la Ley Orgánica 3/2018 de Protección de Datos
Personales y garantía de los derechos digitales establecen ciertas obligaciones para las
plataformas en términos de privacidad y veracidad de la información (del Estado, 2021).
No obstante,
persisten desafíos en la aplicación efectiva de estas normativas,
especialmente en plataformas globales que operan bajo múltiples legislaciones.
La justificación de este estudio radica en la necesidad de analizar la responsabilidad
legal de las plataformas digitales en la difusión de información falsa desde un enfoque
normativo y tecnológico. A medida que estas plataformas se consolidan como
princi
pales canales de información, se vuelve imperativo determinar hasta qué punto
Innova Science Journal
I
nnova Science
Journal
| Vol.02 | Núm.01 | Ene
–
Mar | 202
4
| www
.innovasciencejournal.omeditorial.com
43
Artículo
Científico
deben responder por el contenido que se distribuye en ellas y qué mecanismos pueden
implementarse para mitigar la desinformación. El presente artículo ofrece un análisis
bibliográfico de la legislación vigente, las responsabilidades de los distintos actore
s
involucrados y las posibles soluciones que han sido propuestas en el ámbito académico
y jurídico. La revisión de estudios previos permite identificar vacíos normativos y
establecer propuestas para una regulación más efectiva, asegurando un equilibrio ent
re
la libertad de expresión y la protección contra la desinformación.
La viabilidad de este estudio se sustenta en la existencia de un corpus normativo y
doctrinal que permite analizar la evolución de la responsabilidad digital de las
plataformas. A través del análisis de marcos regulatorios y estudios recientes, se busca
of
recer una visión integral del problema y sus posibles soluciones. La metodología
utilizada consistirá en una revisión sistemática de literatura especializada, recopilando
fuentes de bases de datos académicas y documentos normativos que aborden la
responsab
ilidad de las plataformas digitales en distintos contextos.
El objetivo de esta investigación es examinar la responsabilidad legal de las plataformas
digitales en la difusión de información falsa, considerando los marcos normativos
existentes y los desafíos asociados a su implementación. Para ello, se abordarán
asp
ectos como la moderación de contenido, las obligaciones de transparencia de los
algoritmos y las sanciones aplicables en casos de desinformación deliberada. Este
análisis contribuirá al debate sobre la regulación de las plataformas digitales y ofrecerá
ins
umos para la formulación de políticas públicas que garanticen un entorno digital más
seguro y veraz.
En síntesis, el fenómeno de la desinformación en plataformas digitales representa un
desafío complejo que requiere una respuesta jurídica y tecnológica equilibrada. La
revisión bibliográfica de este artículo permitirá dilucidar los principales enfoques teó
ricos
y normativos sobre la responsabilidad de estas plataformas, identificando sus
limitaciones y oportunidades para una regulación más efectiva. La creciente influencia
de estas empresas en la comunicación pública exige un marco legal claro que
establezc
a sus responsabilidades y obligaciones en la gestión de contenido,
garantizando el derecho de los ciudadanos a acceder a información veraz y confiable.
2. Materiales y Métodos
El presente estudio adopta un enfoque exploratorio basado en el análisis documental,
con el propósito de examinar la responsabilidad legal de las plataformas digitales en la
difusión de información falsa. Esta metodología permite analizar fuentes teóricas,
normativas y doctrinales que contribuyen a la comprensión del marco jurídico aplicable,
así como de las implicaciones sociales, políticas y económicas de la desinformación en
el entorno digital.
El proceso metodológico se desarrolló en varias etapas, iniciando con la definición del
objeto de estudio y la delimitación del alcance de la investigación. Se establecieron
como ejes de análisis la regulación legal de las plataformas digitales, la identif
icación de
responsabilidades en la difusión de información falsa y la evaluación de medidas
regulatorias existentes en distintos contextos jurídicos. Estos aspectos permitieron
Innova Science Journal
I
nnova Science
Journal
| Vol.02 | Núm.01 | Ene
–
Mar | 202
4
| www
.innovasciencejournal.omeditorial.com
44
Artículo
Científico
estructurar la búsqueda de información y establecer criterios de selección para los
documentos revisados.
La recopilación de información se llevó a cabo mediante una búsqueda sistemática en
bases de datos académicas y repositorios oficiales, priorizando fuentes indexadas en
Scopus, Web of Science y bases jurídicas de acceso público. Se emplearon términos
clave
en español e inglés, como “responsabilidad legal de plataformas digitales”,
“desinformación en redes sociales”, “moderación de contenido”, “fake news” y
“regulación de la información falsa”. La combinación de estos términos en operadores
booleanos facilit
ó la identificación de estudios relevantes y normativas aplicables.
Una vez obtenidas las fuentes documentales, se realizó un proceso de selección y
clasificación basado en criterios de pertinencia, actualidad y rigor académico. Se
descartaron aquellos documentos que no guardaban relación directa con la
problemática plante
ada o que carecían de sustento empírico o normativo. Como
resultado, se obtuvo un corpus de literatura compuesto por artículos científicos, tesis
académicas, documentos normativos y estudios de organismos oficiales que abordan la
responsabilidad de las pla
taformas digitales desde diversas perspectivas.
Posteriormente, se llevó a cabo un análisis crítico de la información recopilada,
estructurando los hallazgos en categorías temáticas. Entre estas categorías se
incluyeron el marco normativo internacional y nacional aplicable a la regulación de
plataformas
digitales, las obligaciones de estas empresas en la gestión del contenido,
las sanciones en casos de difusión de información falsa y los desafíos en la
implementación de mecanismos de control efectivos. Asimismo, se analizaron estudios
de caso relevantes
que ilustran cómo distintas jurisdicciones han abordado la regulación
de la desinformación en el entorno digital.
El análisis comparado de normativas permitió identificar vacíos legales, inconsistencias
en la aplicación de las leyes y posibles áreas de mejora en la regulación de la
información falsa en plataformas digitales. Además, se evaluaron las responsabilidades
de los distintos actores involucrados, incluyendo a las empresas tecnológicas, los
generadores de contenido y los propios usuarios. Se examinaron también las estrategias
adoptadas por las plataformas digitales para mitigar la desinformación, como los
siste
mas de verificación de contenido, la moderación algorítmica y las políticas de
eliminación de publicaciones falsas.
En términos de validez y confiabilidad, la metodología utilizada garantiza un análisis
riguroso mediante la triangulación de fuentes. Al combinar estudios jurídicos, doctrinales
y normativos, se obtiene una visión integral del problema, reduciendo sesgos
i
nterpretativos y asegurando la objetividad en la discusión. La revisión de literatura se
complementó con un enfoque crítico que permitió evaluar la efectividad de los marcos
regulatorios actuales y proponer mejoras en la regulación de la información en ent
ornos
digitales.
Dado que la investigación es de carácter exploratorio y documental, no se realizaron
encuestas ni experimentos. No obstante, la metodología empleada permite obtener un
panorama detallado sobre la responsabilidad legal de las plataformas digitales en la
dif
usión de información falsa, aportando elementos para el debate académico y jurídico.
A través de este análisis, se busca contribuir al desarrollo de propuestas regulatorias
Innova Science Journal
I
nnova Science
Journal
| Vol.02 | Núm.01 | Ene
–
Mar | 202
4
| www
.innovasciencejournal.omeditorial.com
45
Artículo
Científico
más efectivas, asegurando un equilibrio entre la libertad de expresión y la protección de
los ciudadanos frente a la desinformación.
3.
Resultados
3.1.
Marco normativo y regulación de la responsabilidad digital
En el contexto de la transformación digital y la creciente influencia de las plataformas
tecnológicas en la difusión de información, la regulación de la responsabilidad digital ha
cobrado una importancia fundamental en el ámbito jurídico. La proliferación de contenido
falso o engañoso en redes sociales y otros espacios digitales plantea desafí
os
significativos para los sistemas normativos de distintos países, que buscan establecer
marcos legales que equilibren la protección de la libertad de expresión con la necesidad
de evitar la propagación de desinformación. No obstante, la falta de regulaci
ones
homogéneas y la dificultad de asignar responsabilidades claras a las plataformas
digitales han generado vacíos legales que limitan la efectividad de estas normativas
(Samaniego
-
Quiguiri & Bonilla
-
Morejón, 2024).
Un análisis de las legislaciones vigentes en diversas jurisdicciones revela diferencias
sustanciales en la forma en que los Estados abordan la responsabilidad de las
plataformas digitales. En algunos países, como los miembros de la Unión Europea, se
han im
plementado normativas específicas que obligan a las empresas tecnológicas a
moderar activamente el contenido que circula en sus plataformas y a rendir cuentas por
la información falsa que facilitan. En contraste, en otras jurisdicciones, la regulación es
m
ás laxa, lo que permite que las plataformas argumenten que su papel es meramente
de intermediación tecnológica y no de control sobre el contenido generado por los
usuarios. En Ecuador, por ejemplo, el desarrollo normativo en materia digital ha sido
influen
ciado por la evolución del derecho constitucional, lo que ha permitido avances en
términos de protección de derechos fundamentales, pero al mismo tiempo ha
evidenciado la falta de legislación específica que regule la responsabilidad de las
plataformas en l
a difusión de información falsa (Samaniego
-
Quiguiri & Bonilla
-
Morejón,
2024).
A pesar de los esfuerzos normativos para abordar esta problemática, persisten
importantes desafíos en la implementación y aplicación efectiva de estas regulaciones.
Uno de los principales problemas radica en la ausencia de mecanismos jurídicos claros
que d
efinan de manera precisa el grado de responsabilidad de las plataformas digitales
en la moderación de contenido. En muchos casos, la legislación penal y civil no se
encuentra adaptada a las dinámicas digitales actuales, lo que dificulta la persecución
lega
l de la desinformación y la imposición de sanciones efectivas contra quienes la
propagan. En este sentido, la normativa penal ha intentado abordar ciertos aspectos de
la responsabilidad digital, pero su eficacia ha sido cuestionada debido a la dificultad d
e
establecer la culpabilidad directa de las plataformas tecnológicas en la difusión de
contenido engañoso (Bonilla
-
Morejón, 2023).
Otro aspecto fundamental en el debate sobre la regulación digital es la existencia de
garantías jurisdiccionales que protejan tanto a las víctimas de la desinformación como
a los responsables de la generación y difusión de contenido en línea. Estas garantí
as
son esenciales para evitar abusos en la aplicación de las normativas, pero al mismo
Innova Science Journal
I
nnova Science
Journal
| Vol.02 | Núm.01 | Ene
–
Mar | 202
4
| www
.innovasciencejournal.omeditorial.com
46
Artículo
Científico
tiempo pueden representar un obstáculo cuando se utilizan para favorecer intereses
particulares en lugar de garantizar la equidad en la aplicación de la ley. En este sentido,
se ha evidenciado que, en ciertos contextos, las garantías jurisdiccionales han s
ido
empleadas de manera desigual, protegiendo a determinados sectores en detrimento de
otros, lo que plantea interrogantes sobre la imparcialidad de la justicia en el ámbito digital
(Samaniego
-
Quiguiri et al., 2024).
Además, el carácter transnacional de las plataformas digitales agrega un nivel adicional
de complejidad a la regulación de la responsabilidad digital. Muchas de estas empresas
operan en múltiples países bajo distintas legislaciones, lo que dificulta la apl
icación
uniforme de las normativas nacionales. Esta fragmentación regulatoria no solo limita la
efectividad de las leyes existentes, sino que también genera conflictos de competencia
entre distintos sistemas jurídicos, lo que puede dar lugar a vacíos legal
es y a la
impunidad en la difusión de información falsa. En este contexto, es fundamental avanzar
hacia acuerdos internacionales que permitan establecer criterios comunes para la
regulación de la responsabilidad de las plataformas digitales y la implementa
ción de
mecanismos de cooperación entre Estados para la persecución de delitos digitales.
En
síntesis,
el marco normativo actual en materia de responsabilidad digital ha avanzado
en algunos aspectos, pero todavía enfrenta múltiples desafíos en términos de aplicación
y eficacia. La falta de un marco regulatorio homogéneo, la complejidad de la asignación
de
responsabilidades y la existencia de vacíos legales son algunos de los principales
obstáculos que dificultan el control de la desinformación en entornos digitales. Para
abordar esta problemática, es necesario fortalecer las normativas existente
s, establecer
mecanismos de supervisión más efectivos y fomentar la cooperación internacional para
garantizar una regulación más clara y equitativa que proteja tanto la libertad de
expresión como el derecho de los ciudadanos a acceder a información veraz y
confiable.
3.2.
Responsabilidad de las plataformas digitales en la moderación de contenido
Las plataformas digitales desempeñan un papel fundamental en la difusión y
moderación del contenido
generado por los usuarios. Sin embargo, el crecimiento
exponencial de la información compartida en estos espacios ha hecho que la
moderación de contenido se convierta en un desafío significativo. A pesar de que
muchas empresas tecnológicas han implementado
políticas de control y filtrado de
información, estas estrategias presentan limitaciones que dificultan la prevención
efectiva de la desinformación. Asimismo, la utilización de algoritmos para determinar
qué contenidos se visibilizan o se censuran ha gene
rado debates en torno a la
responsabilidad legal de estas plataformas en la propagación de información falsa
(Jiménez Monroy et al., 2023).
Uno de los principales problemas en la moderación de contenido es la falta de
transparencia en las políticas utilizadas por las plataformas digitales. Si bien algunas
compañías han desarrollado mecanismos de verificación de información, la opacidad en
la a
plicación de estos procesos ha generado incertidumbre respecto a su efectividad.
Además, muchas de estas políticas suelen estar sujetas a cambios sin previo aviso, lo
que dificulta el establecimiento de criterios uniformes para la detección y eliminación d
e
noticias falsas. En este contexto, la Ley Orgánica 3/2018 de Protección de Datos
Personales y garantía de los derechos digitales establece la necesidad de proteger la
información de los usuarios y garantizar la transparencia en la gestión de sus datos, l
o
Innova Science Journal
I
nnova Science
Journal
| Vol.02 | Núm.01 | Ene
–
Mar | 202
4
| www
.innovasciencejournal.omeditorial.com
47
Artículo
Científico
que también podría aplicarse al contexto de la moderación de contenido para fortalecer
la regulación de la desinformación en línea (Imbernón, 2020).
Otra limitación en la moderación de contenido es la dependencia de los algoritmos como
herramienta principal para filtrar la información. Los sistemas de inteligencia artificial
utilizados por las plataformas digitales están diseñados para priorizar el con
tenido que
genera mayor interacción, lo que puede favorecer la viralización de información falsa o
sensacionalista. Este fenómeno ha sido ampliamente documentado en casos donde
publicaciones con información errónea logran una mayor difusión que aquellas co
n
datos verificados, debido a que el algoritmo premia la participación de los usuarios en
función de métricas de engagement y no de la veracidad del contenido (Jiménez Monroy
et al., 2023).
El impacto de estos algoritmos en la viralización de noticias falsas ha llevado a
cuestionar el papel de las plataformas como simples intermediarias tecnológicas. Dado
que estas empresas no solo facilitan la comunicación, sino que también influyen en la
di
stribución del contenido mediante sus sistemas de recomendación, su responsabilidad
legal en la difusión de información falsa se vuelve un tema de gran relevancia. En este
sentido, algunos estudios han señalado que la falta de regulación sobre el uso de
al
goritmos en la moderación de contenido podría generar riesgos para la protección de
los derechos digitales, especialmente en el caso de grupos vulnerables como los niños
y adolescentes, quienes pueden ser más susceptibles a la manipulación informativa
(Azu
rmendi et al., 2021).
Asimismo, el concepto de derechos digitales ha cobrado mayor relevancia en el debate
sobre la moderación de contenido. La protección de los datos personales, el derecho al
olvido y la transparencia en la moderación de información son aspectos esenciales en
la regulación de los entornos digitales. La falta de claridad sobre cómo las plataformas
aplican sus políticas de moderación ha llevado a diversas controversias en las que
usuarios han denunciado censura injustificada o, por el contrario, la proliferación
de
contenido dañino sin una adecuada supervisión. En este contexto, algunos expertos han
señalado que la responsabilidad de las plataformas digitales no solo debe centrarse en
eliminar información falsa, sino también en garantizar que sus mecanismos de fi
ltrado
sean equitativos, transparentes y respeten los derechos fundamentales de los usuarios
(Imbernón, 2020).
Desde una perspectiva normativa, los desafíos en la moderación de contenido requieren
un enfoque regulatorio más sólido que obligue a las plataformas digitales a asumir una
mayor responsabilidad en la prevención de la desinformación. Las actuales regulacio
nes
sobre derechos digitales han avanzado en la protección de la privacidad y la seguridad
de los datos de los usuarios, pero aún existen vacíos legales en cuanto a la gestión de
la información difundida en redes sociales y otros entornos digitales. La imp
lementación
de normativas más estrictas en torno a la moderación de contenido podría contribuir a
reducir la propagación de noticias falsas y mejorar la confiabilidad de la información que
circula en el entorno digital (Jiménez Monroy et al., 2023).
En
resumen
, la moderación de contenido en plataformas digitales enfrenta importantes
limitaciones tanto en términos de transparencia como en la efectividad de sus
mecanismos de control. La dependencia de algoritmos para la gestión del contenido ha
generado dinámicas
que favorecen la viralización de información falsa, lo que cuestiona
Innova Science Journal
I
nnova Science
Journal
| Vol.02 | Núm.01 | Ene
–
Mar | 202
4
| www
.innovasciencejournal.omeditorial.com
48
Artículo
Científico
el papel de las plataformas como simples intermediarios tecnológicos. Además, la falta
de regulaciones claras sobre la moderación de contenido y la responsabilidad de las
plataformas en la difusión de información errónea refuerzan la necesidad de fortalece
r
el marco normativo vigente para garantizar un equilibrio entre la protección de los
derechos digitales y la lucha contra la desinformación en línea.
3.3.
Comparación de estrategias internacionales para el control de la
desinformación
El fenómeno de la desinformación ha adquirido una dimensión global que afecta la
estabilidad democrática, la seguridad ciudadana y la confianza en las instituciones. Ante
este desafío, distintos países han adoptado estrategias regulatorias para mitigar la
difusión de noticias falsas en plataformas digitales. Estas estrategias pueden agruparse
en dos enfoques principales: regulaciones gubernamentales que imponen sanciones y
obligaciones específicas a las plataformas digitales, y modelos de autorregulación en
los que las propias empresas establecen mecanismos internos para el control de la
información. La efectividad de estas estrategias ha sido objeto de debate, ya que
mientras algunas normativas han demostrado cierto éxito en la reducción de la
desinformació
n, la falta de un marco global unificado y los conflictos con derechos
fundamentales como la libertad de expresión han dificultado la implementación de
soluciones definitivas (Cova
-
Fernández, 2022).
Estudio de modelos regulatorios en distintas jurisdicciones y su efectividad en la
mitigación de noticias falsas
Las estrategias regulatorias varían significativamente entre países y regiones. En la
Unión Europea, el Reglamento de Servicios Digitales (DSA, por sus siglas en inglés) ha
establecido directrices para la moderación de contenido en plataformas digitales,
i
mponiendo obligaciones de transparencia y rendición de cuentas a las empresas
tecnológicas. Este tipo de regulación busca garantizar que las plataformas implementen
mecanismos efectivos para la eliminación de contenido falso sin vulnerar derechos
fundament
ales. En América Latina, en cambio, la regulación es más heterogénea y en
muchos casos insuficiente. Países como Brasil han propuesto leyes para combatir las
fake news, mientras que otras naciones han optado por modificar normativas de
protección al consum
idor y publicidad engañosa para abordar la problemática desde
una perspectiva más amplia (Trujillo et al., 2021).
Uno de los enfoques más utilizados en América Latina ha sido la incorporación de
cláusulas sobre desinformación en legislaciones de defensa del consumidor y
regulación del marketing digital. Estas disposiciones buscan responsabilizar a las
plataformas digi
tales cuando permiten la difusión de publicidad engañosa o de contenido
falso que pueda inducir a error a los consumidores. Sin embargo, la efectividad de este
modelo depende de la capacidad de las autoridades para hacer cumplir las normativas
y sancionar
a las empresas en caso de incumplimiento. En este sentido, la Ley Orgánica
de Defensa del Consumidor en algunos países ha sido un avance importante al
establecer principios de veracidad y transparencia en la publicidad digital, aunque su
impacto en la miti
gación de la desinformación generalizada sigue siendo limitado (Trujillo
et al., 2021).
Innova Science Journal
I
nnova Science
Journal
| Vol.02 | Núm.01 | Ene
–
Mar | 202
4
| www
.innovasciencejournal.omeditorial.com
49
Artículo
Científico
Por otro lado, en Estados Unidos, la regulación de la desinformación ha sido más flexible
debido a la fuerte protección de la libertad de expresión garantizada por la Primera
Enmienda. En este país, la moderación de contenido y la lucha contra las noticias
falsas
han recaído principalmente en las propias plataformas digitales, sin una intervención
estatal significativa. Este enfoque ha sido criticado por permitir la proliferación de
campañas de desinformación que han afectado procesos electorales, políticas
de salud
pública y otros temas sensibles. Sin embargo, algunos estados han comenzado a
explorar regulaciones más estrictas, aunque enfrentan desafíos jurídicos en su
implementación (Riofrío Martínez
-
Villalba, 2014).
Análisis de mecanismos de autorregulación implementados por las plataformas
digitales y su impacto en la responsabilidad corporativa
En ausencia de un marco regulatorio homogéneo, muchas plataformas digitales han
optado por mecanismos de autorregulación para gestionar la desinformación. Empresas
como Meta, Google y Twitter han desarrollado políticas internas para la moderación de
conten
ido, que incluyen la verificación de datos por terceros, la reducción de visibilidad
de contenido dudoso y la eliminación de publicaciones que violen sus normas
comunitarias. Sin embargo, la efectividad de estos mecanismos es cuestionable debido
a la falta
de transparencia en sus algoritmos de recomendación y a las inconsistencias
en la aplicación de sus políticas (Galindo Núñez, 2019).
Uno de los principales problemas de la autorregulación es la ausencia de una
supervisión independiente que garantice la objetividad en la moderación de contenido.
En muchos casos, las plataformas digitales han sido acusadas de aplicar sus normas
de manera
arbitraria, eliminando información con sesgos políticos o económicos
mientras permiten la difusión de otro tipo de desinformación que genera tráfico y
aumenta sus ingresos publicitarios. Esta situación ha generado desconfianza en la
capacidad de las empres
as tecnológicas para autorregularse de manera efectiva, lo que
ha llevado a un creciente llamado a una mayor intervención gubernamental para
establecer límites más claros sobre la desinformación en línea (Cova
-
Fernández, 2022).
Además, los mecanismos de autorregulación han demostrado ser insuficientes para
proteger los derechos digitales de los ciudadanos en un entorno mediático cada vez más
complejo. La protección de los datos personales, el derecho al olvido y la transparencia
en la gestión de información son elementos fundamentales para garantizar un entorno
digital seguro y confiable. Sin embargo, muchas plataformas han sido criticadas por
priorizar el crecimiento de sus redes y la rentabilidad de su modelo de negocio en lugar
de implementar medidas efectivas contra la desinformación. En este contexto, algunos
expertos han señalado la necesidad de combinar estrategias de autorregulación con
regulaciones gubernamentales más estrictas que obliguen a las plataformas a rendir
cuent
as sobre sus políticas de moderación de contenido (Cova
-
Fernández, 2022).
La comparación de estrategias internacionales para el control de la desinformación
evidencia la existencia de enfoques divergentes en la regulación de plataformas
digitales. Mientras que algunos países han adoptado normativas estrictas para la
moderación d
e contenido, otros han dejado esta responsabilidad en manos de las
propias plataformas. La autorregulación ha demostrado ser una herramienta útil en
algunos casos, pero presenta limitaciones significativas cuando no está respaldada por
un marco normativo s
ólido.
Innova Science Journal
I
nnova Science
Journal
| Vol.02 | Núm.01 | Ene
–
Mar | 202
4
| www
.innovasciencejournal.omeditorial.com
50
Artículo
Científico
En este sentido, la lucha contra la desinformación requiere un enfoque integral que
combine la regulación estatal con mecanismos de autorregulación más transparentes y
efectivos. La implementación de normativas que obliguen a las plataformas digitales a
re
ndir cuentas por su papel en la difusión de información falsa, junto con el
fortalecimiento de los derechos digitales de los ciudadanos, puede contribuir a la
construcción de un entorno digital más seguro y confiable. A futuro, la cooperación
internacional
será clave para establecer estándares globales que permitan abordar la
desinformación de manera coordinada y efectiva.
3.4.
Desafíos y perspectivas futuras en la regulación de plataformas digitales
La regulación de las plataformas digitales enfrenta múltiples desafíos debido a la
naturaleza global y descentralizada de internet, así como a la rápida evolución de las
tecnologías digitales. La lucha contra la desinformación se ve obstaculizada por barre
ras
legales y tecnológicas que dificultan la implementación de un marco regulatorio eficaz a
nivel internacional. En este contexto, es necesario analizar las limitaciones existentes y
proponer estrategias para fortalecer el marco jurídico, asegurando un eq
uilibrio entre la
protección contra la información falsa y el respeto a la libertad de expresión (Barahona
-
Martinez et al., 2024).
Identificación de barreras legales y tecnológicas en la implementación de una
regulación global sobre la desinformación
Uno de los principales obstáculos para la regulación efectiva de las plataformas digitales
es la fragmentación del marco
jurídico a nivel global. Cada país tiene normativas
distintas respecto a la responsabilidad de las plataformas en la difusión de información
falsa, lo que dificulta la aplicación de una estrategia unificada. Mientras que algunas
jurisdicciones han establec
ido regulaciones estrictas que obligan a las empresas
tecnológicas a moderar activamente el contenido, otras han optado por modelos más
flexibles que priorizan la libertad de expresión, dejando a las plataformas la decisión de
regularse a sí mismas (Andrés
, 2021).
Además, la regulación de la desinformación entra en conflicto con principios
fundamentales de los derechos humanos, como la protección de la privacidad y el
derecho a la información. Las iniciativas para mitigar la propagación de noticias falsas
pueden der
ivar en censura o en la eliminación de contenido legítimo, afectando la
pluralidad de opiniones en el espacio digital. Este dilema ha llevado a los legisladores a
buscar un equilibrio entre la prevención de la desinformación y la preservación de los
derech
os digitales de los ciudadanos (Núñez
-
Ribadeneyra, 2023).
En el ámbito tecnológico, la implementación de mecanismos eficaces de detección y
eliminación de desinformación es un desafío constante. A pesar de los avances en
inteligencia artificial (IA) y aprendizaje automático, los sistemas automatizados de
moderaci
ón de contenido aún presentan limitaciones significativas. Estas tecnologías
pueden identificar contenido falso con base en patrones previamente establecidos, pero
suelen fallar en la interpretación del contexto, lo que puede llevar a la eliminación de
pub
licaciones legítimas o a la persistencia de información engañosa. Además, la
desinformación se adapta rápidamente a las restricciones tecnológicas, utilizando
estrategias como el uso de lenguaje ambiguo o la difusión de contenido en redes
privadas para eva
dir los filtros automatizados (Erazo
-
Luzuriaga et al., 2023).
Innova Science Journal
I
nnova Science
Journal
| Vol.02 | Núm.01 | Ene
–
Mar | 202
4
| www
.innovasciencejournal.omeditorial.com
51
Artículo
Científico
Otro reto tecnológico es la encriptación de la información en ciertas plataformas
digitales, lo que dificulta la identificación y eliminación de contenido falso. Aunque la
privacidad y la seguridad de los datos son fundamentales en el entorno digital, la
i
mposibilidad de rastrear la fuente de la desinformación limita la capacidad de los
gobiernos y las plataformas para combatir la propagación de noticias falsas sin afectar
el derecho a la privacidad de los usuarios (Barahona
-
Martinez et al., 2024).
Propuestas para fortalecer el marco jurídico y garantizar un equilibrio entre la
libertad de expresión y la protección contra la información falsa
Para superar estas barreras, es necesario adoptar un enfoque integral que combine la
regulación gubernamental con mecanismos de autorregulación más efectivos por parte
de las plataformas digitales. Una de las estrategias más viables es la creación de un
ma
rco regulatorio internacional que establezca principios comunes para la moderación
de contenido, asegurando que las medidas adoptadas por los Estados y las empresas
tecnológicas respeten los derechos fundamentales de los ciudadanos (Andrés, 2021).
En este sentido, una posible solución es el desarrollo de estándares internacionales
para la transparencia en la moderación de contenido, obligando a las plataformas
digitales a informar de manera clara sobre sus políticas de eliminación de
información
falsa y los criterios utilizados para la aplicación de sanciones. Esto permitiría evitar la
censura arbitraria y garantizar que los usuarios tengan acceso a mecanismos de
apelación cuando su contenido sea eliminado injustamente (Núñez
-
Ribadeney
ra, 2023).
Además, el uso de inteligencia artificial en la moderación de contenido debe ser
complementado con supervisión humana para evitar errores en la detección de
desinformación. Las plataformas digitales podrían implementar equipos de verificación
formados por
expertos en comunicación, derecho y tecnología para evaluar
manualmente los casos más complejos antes de tomar decisiones sobre la eliminación
de contenido. Asimismo, se recomienda el fortalecimiento de la educación digital de los
usuarios para mejorar su
capacidad crítica en la identificación de noticias falsas y reducir
la dependencia de las plataformas en la moderación de contenido (Erazo
-
Luzuriaga et
al., 2023).
Otro aspecto clave en la regulación futura es el refuerzo de la protección de datos y la
privacidad en el tratamiento de la información en línea. La recopilación masiva de datos
por parte de las plataformas digitales debe estar sujeta a normativas claras q
ue eviten
el uso indebido de la información de los usuarios. Esto implica la necesidad de garantizar
que las herramientas utilizadas para combatir la desinformación no vulneren la
privacidad de las personas ni sean utilizadas para el control indebido del d
iscurso
público (Barahona
-
Martinez et al., 2024).
Finalmente, la cooperación internacional entre gobiernos, plataformas digitales y
organizaciones de la sociedad civil es esencial para la construcción de un ecosistema
digital más seguro y confiable. La firma de acuerdos multilaterales podría facilitar la
implementación de estrategias coordinadas para combatir la desinformación sin vulnerar
la libertad de expresión. En este contexto, organismos internacionales como la ONU y
la Unión Europea podrían desempeñar un papel clave en la formulación de principios
g
lobales que orienten a los países en la creación de sus propias normativas nacionales
(Andrés, 2021).
Innova Science Journal
I
nnova Science
Journal
| Vol.02 | Núm.01 | Ene
–
Mar | 202
4
| www
.innovasciencejournal.omeditorial.com
52
Artículo
Científico
Los desafíos en la regulación de las plataformas digitales requieren un enfoque
multidisciplinario que contemple tanto aspectos legales como tecnológicos. La
fragmentación normativa y las limitaciones de los sistemas automatizados de
moderación han dificul
tado la lucha contra la desinformación, lo que resalta la necesidad
de desarrollar estrategias más integrales y efectivas. Para lograr un equilibrio entre la
protección contra la información falsa y la preservación de la libertad de expresión, es
fundament
al fortalecer el marco jurídico, mejorar la transparencia en la moderación de
contenido y fomentar la cooperación internacional. En este sentido, la regulación futura
deberá centrarse en la implementación de estándares globales que garanticen la
rendición
de cuentas de las plataformas digitales sin comprometer los derechos
fundamentales de los ciudadanos.
4.
Discusión
La regulación de la responsabilidad legal de las plataformas digitales en la difusión de
información falsa es un desafío multidimensional que involucra aspectos jurídicos,
tecnológicos y éticos. A medida que estas plataformas adquieren un papel central en
la
configuración de la opinión pública y la distribución de contenido, su rol ha trascendido
el de meros intermediarios tecnológicos, generando debates sobre la necesidad de un
marco normativo más sólido que garantice la transparencia en la moderación de
c
ontenido y la protección de los derechos digitales de los usuarios (Andrés, 2021).
El análisis del marco normativo vigente revela una notable fragmentación en la
regulación de la responsabilidad digital. Mientras que en la Unión Europea se han
implementado regulaciones como el Reglamento de Servicios Digitales (DSA) que
obligan a las pla
taformas a gestionar de manera más responsable el contenido falso o
engañoso, en otras jurisdicciones, como Estados Unidos, prima la doctrina de la no
intervención estatal bajo el principio de la Primera Enmienda, lo que ha generado un
escenario en el que
la autorregulación se convierte en el principal mecanismo de control.
Esta disparidad normativa dificulta la implementación de estrategias globales para
combatir la desinformación, ya que las plataformas digitales operan a nivel transnacional
y deben adapt
arse a múltiples marcos regulatorios con enfoques disímiles (Cova
-
Fernández, 2022).
Uno de los problemas recurrentes en la moderación de contenido es la falta de
transparencia en los criterios utilizados por las plataformas para determinar qué
información se elimina y cuál permanece accesible. Aunque empresas como Meta,
Google y X (anteri
ormente Twitter) han desarrollado sistemas de fact
-
checking y
eliminación de contenido engañoso, estos mecanismos han sido criticados por su
aplicación inconsistente y su tendencia a favorecer ciertos discursos mientras permiten
la permanencia de otros, de
pendiendo de factores políticos o comerciales. Esta falta de
uniformidad en la moderación de contenido pone en entredicho la efectividad de la
autorregulación y plantea la necesidad de mecanismos de supervisión más rigurosos
(Galindo Núñez, 2019).
Desde una perspectiva tecnológica, el uso de inteligencia artificial para la detección y
eliminación de información falsa representa tanto una oportunidad como una limitación.
Si bien los algoritmos han avanzado en la identificación de patrones de desinfor
mación,
Innova Science Journal
I
nnova Science
Journal
| Vol.02 | Núm.01 | Ene
–
Mar | 202
4
| www
.innovasciencejournal.omeditorial.com
53
Artículo
Científico
continúan presentando problemas en la interpretación del contexto, lo que puede derivar
en la eliminación de contenido legítimo o en la permanencia de información engañosa
disfrazada bajo formatos ambiguos. Asimismo, la tendencia de los algoritmos a priori
zar
contenido que genera mayor interacción ha sido un factor determinante en la viralización
de noticias falsas, ya que este tipo de información suele captar más la atención del
público que el contenido verificable pero menos sensacionalista (Erazo
-
Luzuria
ga et al.,
2023).
El impacto de la desinformación en la sociedad es innegable, afectando no solo la
percepción pública de la realidad, sino también influyendo en procesos electorales, crisis
sanitarias y la estabilidad democrática. La proliferación de noticias falsas ha sid
o
documentada en numerosos contextos, demostrando cómo su difusión ha generado
desconfianza en instituciones gubernamentales y científicas, debilitando los esfuerzos
para combatir problemáticas globales como la pandemia de COVID
-
19 o el cambio
climático (J
iménez Monroy et al., 2023). Este panorama refuerza la necesidad de
establecer marcos regulatorios que obliguen a las plataformas a asumir una mayor
responsabilidad en la gestión de contenido, sin que ello implique una restricción
desproporcionada a la lib
ertad de expresión.
En este sentido, las estrategias internacionales para mitigar la desinformación han
mostrado diferentes grados de efectividad. En América Latina, el enfoque ha girado en
torno a la regulación de la publicidad engañosa y la protección del consumidor como
un
a vía indirecta para frenar la propagación de contenido falso. Sin embargo, estas
medidas han demostrado ser insuficientes cuando se trata de noticias políticas o
desinformación sobre temas de interés público. En contraste, países europeos han
adoptado med
idas más restrictivas, obligando a las plataformas a eliminar información
falsa con rapidez y a implementar mecanismos de verificación más estrictos (Trujillo et
al., 2021). No obstante, el reto sigue siendo encontrar un equilibrio que permita combatir
la
desinformación sin que ello implique otorgar a las plataformas digitales un poder
desmesurado sobre el discurso público.
La regulación futura de las plataformas digitales debe considerar tanto los avances
tecnológicos como la protección de los derechos digitales de los ciudadanos. La
implementación de estándares internacionales para la transparencia en la moderación
de conte
nido, el establecimiento de sanciones para las plataformas que incumplan con
sus obligaciones y la promoción de la alfabetización digital son estrategias clave para
fortalecer el marco normativo en este ámbito (Barahona
-
Martinez et al., 2024). Además,
la s
upervisión de los algoritmos de recomendación y la creación de mecanismos de
apelación más accesibles para los usuarios afectados por decisiones de moderación
deben formar parte del debate sobre la responsabilidad digital.
En
síntesis
, la regulación de la responsabilidad de las plataformas digitales en la difusión
de información falsa sigue siendo un desafío global que requiere un enfoque
multidisciplinario. La coexistencia de marcos normativos divergentes, la opacidad en la
moderación
de contenido y la influencia de los algoritmos en la viralización de noticias
falsas son factores que dificultan la implementación de soluciones efectivas. No
obstante, el fortalecimiento de la legislación en materia de derechos digitales, la m
ejora
en la regulación de la inteligencia artificial aplicada a la moderación de contenido y la
cooperación internacional pueden ser elementos clave para construir un ecosistema
digital más seguro y confiable.
Innova Science Journal
I
nnova Science
Journal
| Vol.02 | Núm.01 | Ene
–
Mar | 202
4
| www
.innovasciencejournal.omeditorial.com
54
Artículo
Científico
5.
Conclusiones
La regulación de la responsabilidad legal de las plataformas digitales en la difusión
de
información falsa es un tema de creciente relevancia en el contexto actual, donde la
velocidad de propagación de contenido en línea supera la capacidad de control de los
sistemas normativos tradicionales. A medida que estas plataformas han adquirido un
papel central en la comunicación global, se ha generado un debate sobre su grado de
responsabilidad en la moderación de contenido y los efectos de sus políticas en la
pro
tección de los derechos digitales. Si bien existen esfuerzos regulatorios en distintas
jurisdicciones, persisten desafíos significativos en la implementación de normativas
efectivas que equilibren la lucha contra la desinformación con la salvaguarda de la
libertad de expresión.
Uno de los principales hallazgos de este estudio es la fragmentación del marco
normativo a nivel internacional. Mientras que algunos países han adoptado regulaciones
estrictas que imponen obligaciones específicas a las plataformas digitales en la
moderació
n de contenido, otras jurisdicciones han optado por modelos más flexibles
que dejan esta tarea en manos de las propias empresas tecnológicas. Esta disparidad
normativa dificulta la implementación de estrategias globales y permite que las
plataformas operen
bajo diferentes estándares según la legislación aplicable en cada
país, lo que genera inconsistencias en la gestión de la desinformación.
Además, el análisis de las estrategias regulatorias ha demostrado que la
autorregulación, aunque representa un avance en la moderación del contenido,
presenta múltiples limitaciones. Las plataformas digitales han desarrollado mecanismos
internos para ident
ificar y eliminar información falsa, pero su efectividad ha sido
cuestionada debido a la falta de transparencia en sus criterios de moderación y la
presencia de sesgos en la aplicación de estas políticas. La ausencia de una supervisión
independiente ha per
mitido que ciertas plataformas prioricen la rentabilidad y la
captación de usuarios sobre la veracidad de la información, lo que ha intensificado la
proliferación de noticias falsas.
Desde una perspectiva tecnológica, el uso de algoritmos y sistemas de inteligencia
artificial para la moderación de contenido ha demostrado ser un arma de doble filo. Si
bien estas herramientas pueden detectar patrones asociados con la desinformación,
aún
presentan fallos en la interpretación del contexto y pueden generar restricciones
excesivas sobre contenido legítimo. Asimismo, los algoritmos diseñados para maximizar
la interacción de los usuarios han favorecido la viralización de información falsa, ya q
ue
este tipo de contenido suele generar más participación que las noticias verificadas. Este
fenómeno ha exacerbado la crisis de confianza en las plataformas digitales y ha
impulsado la necesidad de regulaciones que garanticen la transparencia en los proce
sos
de recomendación de contenido.
Otro aspecto relevante identificado es el impacto social de la desinformación y su
influencia en la percepción pública de la realidad. La propagación de noticias falsas ha
tenido efectos directos en procesos electorales, crisis sanitarias y debates sobre
p
olíticas públicas, evidenciando que la desinformación no solo distorsiona la opinión
pública, sino que también puede generar consecuencias perjudiciales en la estabilidad
democrática y la toma de decisiones informadas. En este sentido, la regulación de las
plataformas digitales no solo debe centrarse en establecer responsabilidades legales,
Innova Science Journal
I
nnova Science
Journal
| Vol.02 | Núm.01 | Ene
–
Mar | 202
4
| www
.innovasciencejournal.omeditorial.com
55
Artículo
Científico
sino también en fomentar la educación digital para mejorar la capacidad crítica de los
usuarios frente a la información que consumen.
Para abordar estos desafíos, se requiere un enfoque integral que combine la regulación
estatal con prácticas de autorregulación más efectivas y transparentes. La
implementación de estándares internacionales que definan criterios claros para la
moderación d
e contenido podría contribuir a una mayor armonización regulatoria y evitar
que las plataformas operen con reglas diferenciadas según el país en el que se
encuentren. Además, es fundamental fortalecer los mecanismos de rendición de
cuentas de las plataform
as digitales, estableciendo obligaciones claras en términos de
transparencia en la moderación de contenido y en el uso de algoritmos para la
distribución de información.
El futuro de la regulación de las plataformas digitales dependerá en gran medida de la
capacidad de los Estados, las organizaciones internacionales y las propias empresas
tecnológicas para encontrar soluciones equilibradas que permitan combatir la
desinfor
mación sin comprometer la libertad de expresión. La cooperación internacional
será clave en la construcción de marcos normativos que establezcan responsabilidades
claras y garanticen la protección de los derechos digitales de los ciudadanos.
En
síntesis
, la responsabilidad legal de las plataformas digitales en la difusión de
información falsa sigue siendo un tema complejo que requiere una respuesta
multidisciplinaria. La coexistencia de regulaciones divergentes, la opacidad en la
moderación de contenido
y el impacto de los algoritmos en la viralización de noticias
falsas han generado la necesidad de fortalecer el marco normativo y de promover un
uso más responsable de la tecnología en la gestión de la información en línea. A medida
que la socie
dad avanza hacia una era digital más interconectada, es imprescindible
adoptar estrategias que garanticen un entorno informativo confiable, equilibrando el
derecho a la información con la protección de la verdad en el ecosistema digital.
Referencias Bibliográficas
Andrés, M. B. (2021).
Génesis y desarrollo de los
derechos digitales.
Revista de las
Cortes Generales
, 197
-
233.
https://doi.org/10.33426/rcg/2021/110/1572
Azurmendi, A., Etayo, C., & Torrell, A. (2021). Sharenting y derechos digitales de los
niños y adolescentes.
Profesional de la información
,
30
(4).
https://doi.org/10.3145/epi.2021.jul.07
Barahona
-
Martinez, G. E., Barzola
-
Plúas, Y. G., & Peñafiel
-
Muñoz, L. V. (2024). El
Derecho a la Protección de Datos y el Avance de las Nuevas Tecnologías en
Ecuador: Implicaciones Legales y Éticas.
Journal of Economic and Social
Science Research
,
4
(3), 46
–
64.
https://doi.org/10.55813/gaea/jessr/v4/n3/113
Barzola
-
Plúas,
Y. G. (2022). Reformas Constitucionales en Ecuador: Impacto y
Perspectivas.
Revista Científica Zambos
,
1
(1), 86
-
101.
https://doi.org/10.69484/rcz/v1/n1/23
Bonilla
-
Morejón, D. M. (2023). Derecho Penal y Políticas de Seguridad en Ecuador:
Análisis de la Eficacia.
Revista Científica Zambos
,
2
(3), 59
-
74.
https://doi.org/10.69484/rcz/v2/n3/50
Innova Science Journal
I
nnova Science
Journal
| Vol.02 | Núm.01 | Ene
–
Mar | 202
4
| www
.innovasciencejournal.omeditorial.com
56
Artículo
Científico
Bonilla
-
Morejón,
D. M. (2023). Derecho Penal y Políticas de Seguridad en Ecuador:
Análisis de la Eficacia.
Revista Científica Zambos
,
2
(3), 59
-
74.
https://doi.org/10.69484/rcz/v2/n3/50
Bonilla
-
Morejon, D. M., Bonilla
-
Morejón, J. S., Guano
-
Fogacho, J. E., Meléndez
-
Carrasco, P. V., Murillo
-
Ramos, F. R., Peña
-
Chauvín, S. M., Samaniego
-
Quiguiri,
D. P., Solis
-
Miranda, D. F., Vásquez
-
Quinatoa, L. H., & Núñez
-
Ribadeneyra, R.
A. (2023).
Los gritos silenciosos de las víctimas de violencia de género: Un
enfoque desde la perspectiva pre procesal y procesal penal en el Ecuador.
Editorial Grupo AEA. Retrieved from. Editorial Grupo AEA.
https://doi.org/10.55813/egaea.l.2022.41
Cova
-
Fernández, E. J. (2022). Derechos humanos y derechos digitales en la Sociedad
de la Información.
Revista DH/ED: derechos humanos y educación
, (6), 61
-
80.
https://dialnet.unirioja.es/servlet/articulo?codigo=8538629
del Estado, E. J. (2021). Ley Orgánica 3/2018, de 5 de diciembre, de Protección de
Datos Personales y garantía de los derechos digitales.
https://travesia.mcu.es/server/api/core/bitstreams/72d7e1c0
-
2b4d
-
47ed
-
afd7
-
f31550f3f35a/content
Erazo
-
Luzuriaga, A. F., Ramos
-
Secaira, F. M., Galarza
-
Sánchez, P. C., & Boné
-
Andrade, M. F. (2023).
La inteligencia artificial aplicada a la optimización de
programas informáticos.
Journal of Economic and Social Science
Research
,
3
(1), 48
–
63.
https://doi.org/10.55813/gaea/jessr/v3/n1/61
Estrada
-
Ayre, C. P., & Porras
-
Sarmiento, S. (2023).
Peculado Doloso
y el Principio de
Proporcionalidad de la Pena
. Editorial Grupo AEA.
https://doi.org/10.55813/egaea.l.2022.32
Galindo Núñez, A. C. (2019). Derechos digitales: una aproximación a las prácticas
discursivas en internet desde la etnografía virtual.
PAAKAT: revista de tecnología
y sociedad
,
9
(16), 5
-
18.
https://www.scielo.org.mx/scielo.php?pid=S2007
-
36072019000100005&s
García Moreno, M., & Vargas Fonseca, A. D. (2023). Restitución de derechos
territoriales y ordenamiento ambiental en territorios étnicos en Colombia.
Journal
of Economic and Social Science Research
,
3
(3), 76
–
96.
https://doi.org/10.55813/gaea/jessr/v3/n3/74
Guerrero
-
Velástegui, C. A. (2023).
Entorno Empresarial desde la Gestión del Derecho
Laboral: Breves Apuntes desde una Perspectiva Académica. Editorial Grupo
AEA.
https://doi.org/10.55813/egaea.l.2022.42
IMBERNÓN, N. M. (2020). El testamento digital en la nueva Ley Orgánica 3/2018, de 5
de diciembre, de protección de datos personales y garantía de los derechos
digitales.
Anuario de derecho civil
,
73
(1), 241
-
281.
https://books.google.es/books?hl=es&lr=&id=rvjmDwAAQBAJ&oi=fnd&pg=PA2
41&dq=defensa+de+los+derechos+digitales&ots=3
-
Hct6b8hG&sig=29sNtFzJby31AvTQf82V8DCQIk0
Jiménez Monroy, M. B., Guerrero Castro, J. E., & González
-
Uribe, C. (2023). Salud
Digital y Derechos Digitales en Colombia.
http://hdl.handle.net/1992/66228
Molano París, M. C. (2021). Responsabilidad del influenciador digital a la luz del estatuto
del consumidor colombiano (Liability of the Digital Influencer under the
Colombian Consumer Statute).
La Propiedad Inmaterial
, (31).
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3872133
Innova Science Journal
I
nnova Science
Journal
| Vol.02 | Núm.01 | Ene
–
Mar | 202
4
| www
.innovasciencejournal.omeditorial.com
57
Artículo
Científico
Núñez
-
Ribadeneyra, R. A. (2023). Derechos Humanos y Justicia Social en el Contexto
Ecuatoriano.
Revista Científica Zambos
,
2
(3), 42
-
58.
https://doi.org/10.69484/rcz/v2/n3/49
Núñez
-
Ribadeneyra,
R. A. (2023). Derechos Humanos y Justicia Social en el Contexto
Ecuatoriano.
Revista Científica Zambos
,
2
(3), 42
-
58.
https://doi.org/10.69484/rcz/v2/n3/49
Pérez de Paz, M., Londoño
-
Cardozo, J., & Tello
-
Castrillón, C. (2023). Tecnologías
agenciativas y la Responsabilidad Digital Organizacional: Conflictos, retos y
soluciones. Editorial de la Universidad Nacional de La Plata (Edulp).
https://repository.uniminuto.edu/items/d910751c
-
540b
-
4a41
-
baf3
-
da705dea2ee8
Riofrío Martínez
-
Villalba, J. C. (2014). La Cuarta Ola De Derechos Humanos: Los
Derechos Digitales (Fourth Wave of Human Rights: The Digital Rights).
Revista
latinoamericana de derechos humanos
,
25
(1).
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2515038
Samaniego
-
Quiguiri,
D. P. (2023). Acceso a la Justicia y Equidad en el Sistema Legal
Ecuatoriano.
Revista Científica Zambos
,
2
(2), 50
-
62.
https://doi.org/10.69484/rcz/v2/n2/45
Samaniego
-
Quiguiri, D. P., & Bonilla
-
Morejón, D. M. . (2024). Análisis de la Evolución
del Derecho Constitucional en Ecuador: Implicaciones para el Desarrollo
Democrático. Revista Científica Zambos, 3(3), 1
-
14.
https://doi.org/10.69484/rcz/v3/n3/53
Samaniego
-
Quiguiri, D. P., Urbano
-
Urbano, P. F., Días
-
Ledesma, D. F., Samaniego
-
Riera, W. R., Martínez
-
Tapia, J. D., Navarrete
-
Valladolid, M. I., Solis
-
Miranda, D.
F., Murillo
-
Ramos, F. R., Pástor
-
Guevar, . J. C., & Lara
-
Palomino, M. A. de J.
(2024).
Garantías jurisdiccionales: ¿protección para todos o privilegio para
pocos?
. Editorial Grupo AEA.
https://doi.org/10.55813/egaea.l.99
Tejada Flórez, M., & Castrillón Mejía, M. J. (2024).
La responsabilidad de las plataformas
digitales respecto de accidentes de trabajo y enfermedades
laborales
(Bachelor's thesis, Facultad de Derecho y Ciencias Políticas).
https://repository.upb.edu.co/handle/20.500.11912/11837
Trujillo, P. E. A., Lara, G. P. C., & Cuadrado, S. A. Y. (2021). Ley Orgánica de Defensa
del Consumidor y el Marketing Digital.
Visionario Digital
,
5
(3), 88
-
101.
https://doi.org/10.33262/visionariodigital.v5i3.1774
Vargas
-
Fonseca, A. D., Borja
-
Cuadros, O. M., &
Cristiano
-
Mendivelso, J. F. (2023).
Estructura Ecológica Principal de la Localidad de Engativá: Estudio desde una
perspectiva de ordenamiento territorial y sus instrumentos jurídicos.
Editorial
Grupo AEA.
https://doi.org/10.55813/egaea.l.2022.38
CONFLICTO DE INTERESES
“Los autores declaran no tener ningún conflicto de intereses”.