¿Comunicación ofensiva y de odio o desinformación programada? Un análisis de las características y discurso del evento conspiranoico #ExposeBillGates

AutorJesús C. Aguerri/Fernando Miró-Llinares
CargoUniversidad Miguel Hernández de Elche/Universidad Miguel Hernández de Elche
Páginas1-16
https://idp.uoc.edu
IDP N.º 37 (marzo, 2023) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
1
2023, Jesús C. Aguerri, Fernando Miró-Llinares
de esta edición: 2023, Universitat Oberta de Catalunya
Monográfico: «Hate speech, discrimination and online media»
¿Comunicación ofensiva y de odio
o desinformación programada?
Un análisis de las características y
discurso del evento conspiranoico
#ExposeBillGates
Jesús C. Aguerri
Universidad Miguel Hernández de Elche
Fernando Miró-Llinares
Universidad Miguel Hernández de Elche
Fecha de presentación: febrero 2022
Fecha de aceptación: septiembre 2022
Fecha de publicación: marzo 2023
Resumen
Primero algunos procesos electorales y luego la crisis de la COVID-19 han situado en el centro de
atención de los eventos de comunicación ofensiva y peligrosa en las redes sociales a la desinfor-
mación. La presente investigación analiza un evento de desinformación, el lanzamiento y difusión
del hashtag #ExposeBillGates, a través de los 183.016 tuits que utilizaron dicho hashtag durante
su periodo de actividad en junio de 2020. Mediante análisis de redes y recurriendo al procesado
del contenido de los mensajes se ha podido observar que la dimensión del evento fue altamente
dependiente de la participación de un pequeño número de cuentas, así como encontrarse cierta
comunicación violenta y de carácter injurioso, pero no discurso de odio. Se discute la necesidad de
estudiar más en profundidad la relación entre dos macrofenómenos comunicativos de naturaleza
distinta pero más imbricados en su origen «problemático» de lo que puede parecer.
Palabras clave
desinformación; discurso del odio; noticias falsas; text-mining; análisis de redes; análisis del discurso
https://idp.uoc.edu
Universitat Oberta de Catalunya
¿Comunicación ofensiva y de odio o desinformación programada? Un análisis de las
características y discurso del evento conspiranoico #ExposeBillGates
IDP N.º 37 (marzo, 2023) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
2
2023, Jesús C. Aguerri, Fernando Miró-Llinares
de esta edición: 2023, Universitat Oberta de Catalunya



Abstract
First, some electoral processes and then the COVID-19 crisis have brought offensive and dangerous
disinformation events in social media into the spotlight. This research analyses an event concerning
disinformation and the launch and dissemination of the hashtag #ExposeBillGates, through the 183,016
tweets that used this hashtag during its period of activity in June 2020. Through network analysis and
by processing the content of the messages through text mining, it was observed that the size of the
event was highly dependent on the participation of a small number of accounts, and some violent and
abusive communication was found, although not hate speech. The need to deeply study the relations-
hip between two macro communicative phenomena of a different nature, but more intertwined in their
“problematic” origin than may appear, is discussed.
Keywords
Misinformation; hate speech; fake news; text mining; network analysis; discourse analysis
https://idp.uoc.edu
Universitat Oberta de Catalunya
IDP N.º 37 (marzo, 2023) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
3
2023, Jesús C. Aguerri, Fernando Miró-Llinares
de esta edición: 2023, Universitat Oberta de Catalunya
¿Comunicación ofensiva y de odio o desinformación programada? Un análisis de las
características y discurso del evento conspiranoico #ExposeBillGates
Introducción
En la última década, la comunicación humana se ha visto
definida por la irrupción de las redes sociales e internet
(Balkin, 2004; Zhang y Ghorbani, 2020). Esta transfor-
mación ha creado la posibilidad de compartir informa-
ción y conocimientos en todo el mundo, pero también ha
facilitado la difusión de todo tipo de discursos (Tandoc,
Linm y Ling, 2017). Una de las primeras cuestiones pro-
blemáticas que trajo consigo el nuevo ecosistema comu-
nicativo fue la difusión de discursos radicales y de odio
(Gerrard, 2018; Goldsmith y Wu, 2006; Van Loo, 2017).
Frente a ello, la Unión Europea y sus Estados miembros
desarrollaron y aplicaron leyes y actos destinados espe-
cíficamente a impedir la difusión de determinados dis-
cursos a través de internet (Miró-Llinares, 2017; Klonick,
2018; Heldt, 2019), así como las redes sociales crearon
diferentes community standards destinados supuesta-
mente a mejorar y hacer más amigables sus entornos
comunicativos, pero que conllevaban una restricción di-
recta de los contenidos que se podían publicar en estas.
Inicialmente, el centro de esas regulaciones era el deno-
minado discurso de odio, pero estas limitaciones no se
ajustaban exclusivamente a esta forma de discurso, sino
que solían abarcar otras formas de comunicación ofensi-
va que entraban dentro de la más amplia «comunicación
violenta y de odio» (Miró-Llinares, 2016). Más reciente-
mente, la difusión de noticias falsas ha reintroducido el
debate sobre los límites de la libertad de expresión. Según
algunos autores (Lazer et al., 2018; Bennett y Livingston,
2018), la desinformación ha emergido como una de las
principales características de nuestras sociedades, y
este fenómeno podría haber influido en acontecimientos
políticos relevantes, como la elección de Donald Trump
(Bovet y Makse, 2019; Grinberg et al., 2019) o el Brexit
(Bastos y Mercea, 2017), y haber tenido importantes
consecuencias durante la crisis de la COVID-19 (Ahmed,
et al., 2020).
Desinformación y discurso de odio se pueden, por tanto,
ver unidos en las consecuencias que pueden producir
y, sobre todo, en la reacción normativa a la que estos
dan lugar. Además, investigaciones previas han encon-
trado ciertas relaciones entre odio y desinformación
(Miró-Llinares et al., 2018), por lo que se observa, por
ejemplo, cómo la circulación de ciertas narrativas falsas
se relaciona con variaciones en los delitos de odio (Gray
y Hansen, 2021). Pero ¿se manifiestan realmente ambos
fenómenos de forma conjunta en eventos específicos?
La presente investigación explorará un evento de desin-
formación en redes sociales, el lanzamiento del hashtag
#ExposeBillGates, para conocer las características de
este evento en términos descriptivos, pero también
para observar si es posible establecer relaciones entre
un evento de este tipo y ciertas formas de comunicación
violenta, con especial atención al discurso de odio. Para
ello se ha recurrido al análisis tanto de los metadatos
como del contenido de 183.016 tuits asociados a dicho
hashtag, lo que nos ha permitido tanto aproximarnos al
discurso generado por la suma de los participantes en
el hashtag como observar las características del evento.
Este hashtag se lanzó el 14 de junio de 2020, en plena
pandemia, y en apenas 48 horas alcanzó una enverga-
dura muy notable, hasta rozar los 200.000 tuits. El po-
pular hashtag #MeToo alcanzó los 600.000 tuits, pero
necesitó cuatro meses para ello (Makinova et al., 2018),
y el #metooinceste –campaña que en 2021 denunció
el abuso sexual infantil en Francia y que alcanzó una
gran repercusión internacional– solo logró 91.501 tuits
durante su semana de vida (Aguerri et al., 2022).
Asimismo, los metadatos de este hashtag se han com-
parado con los metadatos de 155.688 tuits asociados
al hashtag #SinCienciaNoHayFuturo. El resultado de
los análisis realizados nos ha permitido observar que el
evento de desinformación está altamente concentrado,
es decir, que su dimensión y, por tanto, alcance son muy
dependientes del papel de un pequeño número de cuen-
tas. Sin embargo, no ha podido encontrarse directamen-
te discurso de odio dentro de los principales discursos
generados en torno al hashtag.
1. Desinformación y comunicación
violenta y de odio
La crisis de la COVID-19 ha puesto de manifiesto la im-
portancia de la difusión de información fidedigna (Ah-
med, et al., 2020) y ha revelado cómo ciertos actores
políticos pueden utilizar los contextos de crisis para
difundir noticias falsas, mezclando la información fal-
sa con el discurso del odio (Shimizu, 2020). La propia
OMS ha descrito la proliferación de la desinformación
durante la pandemia como una «infodemia» que «puede
https://idp.uoc.edu
Universitat Oberta de Catalunya
IDP N.º 37 (marzo, 2023) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
4
2023, Jesús C. Aguerri, Fernando Miró-Llinares
de esta edición: 2023, Universitat Oberta de Catalunya
¿Comunicación ofensiva y de odio o desinformación programada? Un análisis de las
características y discurso del evento conspiranoico #ExposeBillGates
obstaculizar una respuesta eficaz de salud pública, crear
confusión y desconfianza entre la población» (WHO,
2020). Esta desinformación ha estado compuesta tanto
por noticias falsas como por teorías de la conspiración
(Bierwiaczonek et al., 2020), una forma concreta de
desinformación que se caracteriza por las afirmaciones
falsas relativas a la existencia de grupos de actores po-
derosos que actúan en secreto para alcanzar objetivos
malévolos (Bale, 2007; Van Prooijen y Douglas, 2018).
Sin embargo, la desinformación durante la crisis no es
solo un problema para la salud pública. Como describió
la alta representante de la Unión para Asuntos Exteriores
y Política de Seguridad (2020), durante la crisis también
han circulado discursos de odio que culpan a grupos reli-
giosos o étnicos específicos de la propagación del virus.
Además, esta comunicación conjunta también subrayaba
que las instituciones europeas habían detectado que
«actores extranjeros y determinados terceros países [...]
han participado en operaciones de influencia selectiva
y campañas de desinformación en torno al COVID-19
en la UE». Tanto Europol (2020) como Interpol (2020)
también han emitido informes en los que señalan esta
relación entre desinformación y seguridad.
Ante hechos como estos, y al igual que ocurrió con el
discurso de odio primero, aunque supuestamente por
motivos distintos –en este caso como «un riesgo para la
seguridad nacional» (Gobierno de España, 2019)–, los Go-
biernos nacionales e instituciones internacionales como la
Comisión Europea han comenzado a incluir la desinforma-
ción como uno de los discursos que deben ser evitados y
perseguidos en redes sociales (Comisión Europea, 2018).
Así, la Comisión Europea ha instado a los Estados miem-
bros a tomar medidas contra la desinformación, que han
definido como información engañosa o verificablemente
falsa que se difunde para obtener un beneficio económico
o para engañar intencionadamente al público, y que pue-
de causar un daño público (Code on practice on disinfor-
mation, 2018). A la vez, desde una perspectiva académica,
se han puesto de manifiesto los problemas que la lucha
contra este tipo de información puede plantear para la
libertad de expresión (Miró-Llinares, 2020). La preocupa-
ción por las consecuencias que la difusión de ciertos dis-
cursos ofensivos o violentos (Bilewicz et al., 2017) puede
tener, tanto en ciertos usuarios como en la sociedad en
su conjunto, abarca ahora también a los discursos falsos,
que en realidad ya preocupaban y, de hecho, ya se encon-
traban criminalizados anteriormente, cuando eran parte
de la difusión del discurso de odio, como sucede con la
denominada Auschwitz-lüge, la negación del Holocausto,
criminalizada en Alemania desde 1985 (Brugger, 2002).
Asimismo, durante las últimas décadas se han aportado
múltiples definiciones de discurso de odio, no todas ellas
coincidentes (Boeckmann y Turpin-Petrosino, 2002; Ja-
cobs y Potter, 1997; Matsuda, 1989; Robinson y Darley,
1995; Waldron, 2012), y es que definir el odio y lo odioso es
una tarea, cuando menos, controvertida. Sin embargo, las
diferentes definiciones tienen un elemento en común que
es recogido por la Organización de las Naciones Unidas
al definir el discurso de odio como «todo tipo de comu-
nicación que ataca o usa un lenguaje curso peyorativo o
discriminatorio en referencia a una persona o grupo de
personas en base a quién son» (2020, pág. 19). Este ele-
mento común es el hecho discriminatorio (Miró Llinares,
2016), pero junto a él aparece también como elemento
protagónico el prejuicio. Ha podido observarse que la des-
información, especialmente en su vertiente conspiranoica,
tiende a apoyarse sobre el prejuicio hacia determinadas
minorías, muy especialmente hacia los judíos, o individuos
de otras etnias o nacionalidades (Fong et al., 2021; van
Prooijen y van Lange, 2014; Grzesiak-Feldman, 2013; Cook
et al., 2020; Kofta y Sedek, 2005).
El primer punto de unión, pues, entre discurso de odio y
desinformación estriba en el uso que ambos hacen de la
mentira. La desinformación se construye sobre la mentira,
pero no debe obviarse que el discurso de odio, bien me-
diante la difusión de estereotipos y epítetos peyorativos,
bien a través del uso de la falsedad para justificarse, está
íntimamente ligado a la difusión de información falsa. De
hecho, ha podido observarse que una de las transforma-
ciones del discurso de odio al empezar a difundirse con
cierta fuerza por el ciberespacio en la década de los no-
venta fue su giro en busca de ciertas «racionalizaciones»,
de cierta «lógica» más allá de los prejuicios propios, para
lo cual aumentó su relación con informaciones falsas so-
bre la que poder construirse (Meddaugh y Kay, 2009).
El principal punto de contacto entre desinformación y
discurso de odio se produce en lo relativo a las razones de
su criminalización (Klonick, 2018), en el ámbito de la re-
gulación estatal o de su censura privada en redes sociales
(Heldt, 2019), cuando son las propias plataformas las que
restringen el contenido. Al igual que ocurre con el discur-
so de odio, la desinformación en sí misma no es objeto de
criminalización, sino que lo es exclusivamente aquella que
https://idp.uoc.edu
Universitat Oberta de Catalunya
IDP N.º 37 (marzo, 2023) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
5
2023, Jesús C. Aguerri, Fernando Miró-Llinares
de esta edición: 2023, Universitat Oberta de Catalunya
¿Comunicación ofensiva y de odio o desinformación programada? Un análisis de las
características y discurso del evento conspiranoico #ExposeBillGates
se enmarca en las dos razones potencialmente usadas
por los Estados para justificar la criminalización de actos
discursivos o de habla: o bien por su capacidad como acto
de habla para producir algún tipo de violencia o daño por
parte de otro, o bien por su intrínseca capacidad lesiva u
ofensiva (Miró-Llinares, 2017). Así, la incitación al odio se
ha criminalizado, bien por constituir una forma de incita-
ción a la violencia más o menos directa, bien por conside-
rarse una forma en sí misma dañina u ofensiva al atentar
contra principios y valores relacionados con la solidaridad
y la igualdad (Waldron, 2012). Estos argumentos coinciden
también con los que tradicionalmente han utilizado los
Estados para criminalizar actos comunicativos (Miró-Lli-
nares, 2016) que no necesariamente poseen un carácter
discriminatorio. El discurso de odio es una categoría de
la más amplia comunicación violenta y de odio (VHC, del
inglés violent and hate communication), que incluye «todo
acto comunicativo que incita –de forma directa o indirec-
ta– o amenaza con la violencia […], toda ofensa o daño al
honor o a la dignidad de personas concretas y todo com-
portamiento que pueda considerarse ofensivo o vejatorio
para la sociedad» (Miró-Llinares, 2016, pág. 94).
Los argumentos que se utilizan para criminalizar o cen-
surar la desinformación son muy similares a los descritos
(Pielemeier, 2020). Generalmente, la justificación para la
prohibición de estos contenidos se centra en la capaci-
dad que tienen estos discursos para producir daño, pero
detrás de la censura de la desinformación en las redes
sociales también está la ofensa propia que supone la per-
cepción social de una falsedad y la propia bondad de la
veracidad percibida por los gestores de las redes. De he-
cho, en este sentido, y siguiendo a Miró-Llinares (2016),
entender el hate speech como una forma concreta de un
fenómeno más amplio, el de la comunicación violenta y
de odio, y encontrar las interrelaciones entre la desin-
formación y la comunicación violenta y de odio, lo cual
también implica observar su relación con el discurso de
odio, es vital tanto para comprender el fenómeno de la
comunicación en el ciberespacio como para el diseño de
estrategias eficaces que permitan combatirla. En con-
secuencia, la presente investigación tiene un carácter
descriptivo, al buscar conocer qué características tiene
en términos estructurales un evento de desinformación,
pero, al mismo tiempo, la presente investigación también
busca aproximarse a la relación entre discurso de odio
y desinformación, preguntándose si ambos tipos de dis-
curso se unen en eventos específicos. Bajo esta pregunta
de investigación que acabamos de formular subyacen
dos hipótesis (H) que trataremos de comprobar en la
presente investigación: en el evento de desinformación
encontraremos comunicación violenta (H1) y en el evento
de desinformación encontraremos discurso de odio (H2).
2. Método y materiales
#ExposeBillGates fue una convocatoria, de origen desco-
nocido, que invitó a los usuarios de la red social Twitter
a usar el hashtag homónimo el día 14 de junio de 2020
para «denunciar» que las vacunas contra la COVID-19 que
se estaban preparando no era realmente vacunas, sino
parte de un plan de Bill Gates para inocular microchips de
control mental en la población mundial (Goodman y Car-
michael, 2020). En unas fechas similares, concretamente
tres días después, se celebró otra «manifestación» digital
relacionada con la ciencia, en este caso bajo el hashtag
#SinCienciaNohayFuturo. Esta segunda movilización fue
convocada por organizaciones de científicos españoles
para reclamar más financiación y apoyo por parte de las
autoridades al sistema científico español. Si bien el interés
de la presente investigación es el evento de desinforma-
ción #ExposeBillGates, también se recogieron los tuits de
la campaña #SinCienciaNoHayFuturo para tener un set
de datos que pudiera usarse como contraste. La elección
concreta de la campaña se debió a la cercanía en el tiem-
po entre los dos eventos y a que en ambos casos estamos
ante campañas organizadas que proponen el uso de un
hashtag específico durante un día para lanzar ciertas de-
mandas relacionadas con la ciencia.
Los tuits que utilizaron el hashtag #ExposeBillGates fue-
ron recogidos el 18 de junio y el 21 del mismo mes, los
del hashtag #SinCienciaNoHayFuturo. En ambos casos
se utilizó el software R (v. 3.5.3) (R Core Team, 2018) y
el paquete rtweet (v. 0.7) (Kearney, 2019), que mediante
la API REST de Twitter permite la recopilación de todos
los tuits publicados en los últimos siete días que cumplan
ciertos criterios de búsqueda. En este caso, el criterio de
búsqueda fue el uso de uno u otro hashtag. A excepción
de los análisis de redes, los diferentes análisis estadísticos,
así como la visualización de los resultados, de los 183.016
tuits pertenecientes al hashtag #ExposeBillGates y de
los 155.688 del hashtag #SinCienciaNoHayFuturo fueron
realizados también con R gracias al paquete tidyverse (v.
1.3.0) (Wickham et al., 2019).
https://idp.uoc.edu
Universitat Oberta de Catalunya
IDP N.º 37 (marzo, 2023) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
6
2023, Jesús C. Aguerri, Fernando Miró-Llinares
de esta edición: 2023, Universitat Oberta de Catalunya
¿Comunicación ofensiva y de odio o desinformación programada? Un análisis de las
características y discurso del evento conspiranoico #ExposeBillGates
Mediante los paquetes rtweet (v. 0.7) (Kearney, 2019) y rgefxt
(v. 0.16.0) (Vega Yon, Fábrega Lacoa y Kunst, 2015), la base
de datos fue transformada en una red direccionada, en la
que las cuentas de Twitter actúan como nodos y los retuits
de un usuario a otro, como aristas, y se exportó a un formato
compatible con Gephi (v. 0.9.2), un software de análisis y vi-
sualización de redes especialmente adecuado para trabajar
con redes con un elevado número de nodos y aristas como la
nuestra (Bastian, Heymann y Jacomy, 2009).
Gephi fue utilizado tanto para el cálculo del eigenvector –un
parámetro de centralidad que permite apreciar el papel, más
o menos dominante, de cada nodo de una red– de los nodos
como para la visualización de las redes, cuya distribución
gráfica procede del uso del algoritmo ForceAtlas2 (Jacomy,
Venturini, Heymann y Bastian, 2014). El tamaño de los nodos
es proporcional al eigenvector del nodo, con una escala de
tamaños de 5 a 250, y su color está determinado por la per-
tenencia a un clúster que aglutine a más de un 4 % de los
nodos (el resto se muestra en gris). Los clústeres fueron for-
mados mediante el algoritmo de detección de comunidades
de Gephi (Blondel, Guillaume, Lambiotte y Lefebvre, 2008;
Lambiotte, Delvenne y Barahona, 2015) de forma aleatoria,
teniendo en cuenta el peso de las aristas y con una resolu-
ción de 1,0. Los nombres de las cuentas mostrados en las
visualizaciones de las redes corresponden a aquellas cuen-
tas con un eigenvector igual o superior a 0,3. Este análisis de
redes realizado ha permitido la descripción y visualización
de una conversación multitudinaria, lo que ha posibilitado
determinar su estructura, en términos de autores, y los acto-
res más relevantes a la hora de generar y difundir el discurso.
Una vez realizado este primer análisis de los metadatos
del evento, el texto de los tuits que usaron el hashtag
#ExposeBillGates fue analizado a través de text mining
mediante el software R (v. 3.5.3) (R Core Team, 2018) y
el paquete tidytext (Silge y Robinson, 2016). En primer
lugar, se generó un corpus de documentos con el texto de
los tuits que fue filtrado –se eliminaron así las stop words
(preposiciones, artículos y conjunciones), URL, signos de
puntuación, etc.– y tokenizado (Silge y Robinson, 2017). La
tokenización es un proceso que reestructura los datos y
descompone cada documento en palabras, lo que genera
una nueva base de datos en la que cada fila representa
una palabra de un documento concreto. Una vez prepro-
cesado el texto, se realizaron diferentes análisis (análisis
de frecuencia de los términos y búsquedas específicas por
palabras clave), entre los que cabe destacar la construc-
ción de redes de correlaciones entre palabras. La cons-
trucción de redes de correlaciones nos permite visualizar
relaciones entre palabras sobre la base de su tendencia
a aparecer juntas dentro de una misma pieza. Tomando
como unidad de análisis las palabras que forman el corpus
de documentos, se ha estudiado su grado de correlación
con otras palabras utilizadas por el usuario. Para medir
dicha correlación se ha utilizado el coeficiente phi () de
correlaciones entre todas las palabras del corpus, calcula-
do para cualquier par de palabras X e Y.
Todas estas correlaciones pueden representarse gráfica-
mente, mediante cadenas de Márkov, como redes de corre-
laciones entre palabras. Se puede construir así una inmensa
red formada por todas las palabras del corpus en la que la
intensidad de los vínculos variará en función del grado de
correlación. Filtrar esta red por las palabras con mayor
frecuencia –en este caso n > 4600– y mantener tan solo
aquellas correlaciones moderadas o mayores ( ≥ 0,3) per-
mite descubrir redes de palabras que tienen relevancia en el
corpus y que se encuentran interconectadas. Así, la red de
correlaciones utilizada en la presente investigación permite
ver los principales discursos asociados al hashtag durante su
periodo de mayor actividad (13 y 14 de junio), bien por estar
presentes sus términos en más tuits, bien porque los tuits en
los que se encuentran fueron retuiteados un elevado número
de veces. Por último, debe señalarse que las técnicas de text
mining empleadas tienen como principal limitación que de-
jan de lado los discursos minoritarios y simplifican en cierto
grado los discursos presentes en los documentos analizados.
No obstante, a cambio, estas técnicas permiten procesar y
analizar un elevado número de documentos, y extraer los
componentes principales de los discursos con mayor peso.
3. Resultados
3.1. Patrón temporal y relación retuit-tuit
En primer lugar, debe señalarse que ambos eventos
siguen un patrón temporal similar; como muestra la
figura 1, al principio de la manifestación la actividad de
los usuarios alcanza un pico notable y luego disminuye
rápidamente hasta alcanzar una actividad testimonial.
Esta figura también nos permite apreciar la importancia
de los retuits en el contenido original –tuits– a la hora de
determinar la dimensión de ambos eventos. En el hashtag
#ExposeBillGates, de los 183.016 casos que componen
nuestra muestra, solo un 12,5 % son tuits originales, y en
el hashtag #SinCienciaNoHayFuturo, solo el 11,7 % de los
155.688 casos lo son.
https://idp.uoc.edu
Universitat Oberta de Catalunya
IDP N.º 37 (marzo, 2023) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
7
2023, Jesús C. Aguerri, Fernando Miró-Llinares
de esta edición: 2023, Universitat Oberta de Catalunya
¿Comunicación ofensiva y de odio o desinformación programada? Un análisis de las
características y discurso del evento conspiranoico #ExposeBillGates
Figura 1. Evolución temporal de la actividad de los dos hashtags
Fuente: elaboración propia
Profundizando un poco más en esta relación entre tuits y
retuits, puede apreciarse que en ambos eventos las medias
de retuits por cada tuit publicado son similares (M
exposebillgates
= 8,06; M
sinciencianohayfuturo
= 8,16). No obstante, estas medidas y
sus similitudes deben ser tomadas con cautela, ya que el 58
% de los tuits en #ExposeBillGates no logra ningún retuit,
de hecho, la media queda en 0 y el rango intercuartílico está
en un solo retuit, mientras que la desviación estándar se
sitúa en 146,77. En #SinCienciaNoHayFuturo, el porcentaje
de tuits sin ningún retuit baja hasta el 43,5 %, y la media
asciende hasta 1, lo que sitúa el rango intercuartílico en 3
retuits y la desviación estándar en 79,6. Estas diferencias
parecen indicar que la dimensión del hashtag #ExposeBill-
Gates y, por tanto, su éxito como evento dependen más de
una pequeña cantidad de tuits que logran un gran impacto
al acumular una importante cantidad de retuits.
3.2. Usuarios involucrados y centralidad
En el hashtag #ExposeBillGates participaron 76.858
usuarios, que contribuyeron de media con 2,4 tuits o
retuits (min = 1,0; M = 2,4; SD = 6,3; Mdn = 1.0; max =
587). Debe destacarse que el 12,5 % de los usuarios es
responsable de publicar el 50 % de los tuits o retuits. En
el hashtag #SinCienciaNoHayFuturo participaron 56.799
usuarios con 155.688 tuits o retuits (min = 1,0; M = 2,7;
SD = 10,4; Mdn = 1,0; max = 636). Es decir, el 7,5 % de
los usuarios es responsable de publicar el 50 % de los
tuits o retuits. Sin embargo, si nos centramos solo en los
tuits publicados –excluimos retuits–, observamos que en
#ExposeBillGates el 14,3 % de los usuarios son responsa-
bles del 50 % del contenido original añadido al hashtag,
por lo que este porcentaje asciende hasta el 19,7 % en
#SinCienciaNoHayFuturo.
Tabla 1. Retuits medios por tuit y usuario
Hashtag Tuits medios por
usuario
Ratio de retuits por tuit de cada usuario
Media Desviación estándar Mediana Mínimo Máximo
#ExposeBillGates 2,086028 6,653011 130,61901 0 0 10501
#SinCienciaNoHayFuturo 1,622765 6,023788 61,22674 1 0 3650
Fuente: elaboración propia
https://idp.uoc.edu
Universitat Oberta de Catalunya
IDP N.º 37 (marzo, 2023) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
8
2023, Jesús C. Aguerri, Fernando Miró-Llinares
de esta edición: 2023, Universitat Oberta de Catalunya
¿Comunicación ofensiva y de odio o desinformación programada? Un análisis de las
características y discurso del evento conspiranoico #ExposeBillGates
Como ya hemos establecido, en la determinación de la di-
mensión del hashtag tiene una gran importancia el número
de retuits que consiguen los usuarios que participan en este.
En ambos hashtags la media de los retuits que consigue un
usuario por cada tuit publicado es similar (M
exposebillgates
= 6,65;
M
sinciencianohayfuturo
= 6,02), aunque ligeramente mayor en #Expo-
seBillGates. Pero, de nuevo, volvemos a encontrarnos en el
evento de desinformación una importante dispersión de los
datos, ya que, pese a que la media de los ratios de los retuits
por tuits conseguidos por cada usuario supera los 6 retuits, la
media se vuelve a situar en 0 y la desviación estándar alcan-
za los 130,6 –valor notablemente superior que en #SinCien-
ciaNoHayFuturo, en el que este parámetro se queda en 62,2–.
Que la media de los ratios de retuits por tuit de cada usuario
sea tan similar en los dos hashtags, e incluso un poco mayor,
a pesar de que el 50 % de los usuarios no consiguiera ningún
retuit en ninguno de sus tuits, parece indicar la existencia de
un pequeño número de cuentas con altos ratios medios de
retuit por tuit, lo que sería coherente con la ya observada
aparente importancia de un pequeño número de tuits con un
gran número de retuits.
Para corroborar la importancia que ciertas cuentas pudieran
tener a la hora de determinar la dimensión del evento, debe
medirse la centralidad de dichas cuentas dentro de la red
formada por las relaciones de retuit que se dan dentro de
la etiqueta. Como ya se ha explicado, en la presente investi-
gación utilizaremos el eigenvector como medida de centra-
lidad. La distribución de este parámetro varía entre ambos
hashtags –tabla 2– y, como permiten apreciar visualmente
las figuras 2 y 3, el hashtag #SinCienciaNoHayFuturo tiene
un mayor número de nodos de tamaño medio [0,3:0,6),
mientras que el hashtag #ExposeBillGates se construye fun-
damentalmente en torno a un pequeño grupo de nodos con
una gran centralidad, cada uno de ellos con su propia y de-
finida comunidad. Al observar la figura 3, podemos apreciar
que hay siete grandes nodos, correspondientes a las siete
cuentas con más centralidad, cada una con su propia comu-
nidad. Este pequeño número de cuentas es responsable en
un alto grado de la dimensión y difusión del evento.
Tabla 2. Distribución de los nodos por tamaño
Valor eigenvector Hashtag N.º de nodos
[0, 0,1] #ExposeBillGates 79848
#SinCienciaNoHayFuturo 52385
Valor eigenvector Hashtag N.º de nodos
(0,1, 0,2] #ExposeBillGates 7
#SinCienciaNoHayFuturo 32
(0,2, 0,3] #ExposeBillGates 4
#SinCienciaNoHayFuturo 9
(0,3, 0.4] #ExposeBillGates 1
#SinCienciaNoHayFuturo 8
(0,4, 0,5] #ExposeBillGates 2
#SinCienciaNoHayFuturo 6
(0,5, 0,6] #ExposeBillGates 1
#SinCienciaNoHayFuturo 1
(0,6, 0,7] #ExposeBillGates 1
#SinCienciaNoHayFuturo 0
(0,7, 0,8] #ExposeBillGates 1
#SinCienciaNoHayFuturo 0
(0,8, 0,9] #ExposeBillGates 2
#SinCienciaNoHayFuturo 0
(0,9, 1] #ExposeBillGates 1
#SinCienciaNoHayFuturo 1
Fuente: elaboración propia
Figura 2. Red formada por los tuits asociados a #ExposeBillGates
Fuente: elaboración propia
https://idp.uoc.edu
Universitat Oberta de Catalunya
IDP N.º 37 (marzo, 2023) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
9
2023, Jesús C. Aguerri, Fernando Miró-Llinares
de esta edición: 2023, Universitat Oberta de Catalunya
¿Comunicación ofensiva y de odio o desinformación programada? Un análisis de las
características y discurso del evento conspiranoico #ExposeBillGates
Figura 3. Red formada por los tuits asociados a #SinCienciaNoHayFuturo
Fuente: elaboración propia
3.3. Discursos del  #ExposeBillGates
Una vez observado cómo el evento #ExposeBillGates
tiene mayor concentración y es más dependiente de un
pequeño número de cuentas, podemos pasar ahora a
observar las características del discurso generado por las
cuentas que participan del evento. La red de correlaciones
entre palabras construida –figura 4– nos permite observar
esto y apreciar algunas características de este discurso.
En primer lugar, puede verse que el discurso del evento
es muy autorreferencial, ya que tienen una notable promi-
nencia las referencias a la propia celebración del Expose
Bill Gates Day y a crear tendencia el hashtag. Más allá de
esta primera observación, también debe destacarse que
el gran conglomerado central de la red muestra cuál fue
el discurso central del evento: denunciar la presunta exis-
tencia de una conspiración participada por Bill y Melinda
Gates y el doctor Anthony Faucci para controlar a la pobla-
ción mundial a través de las vacunas contra la COVID-19.
Este carácter autorreferencial y expositivo copa casi
todo el mensaje mayoritario del hashtag y no deja es-
pacio para la relación entre este y discursos de odio.
1. Los términos más usados pueden consultarse en la base de datos que contiene el corpus de documentos, la cual está disponible en https://
github.com/jcaguerri/ebg_hashtag.git
Sin embargo, este discurso principal sí que vincula a
una serie de personas con una conspiración en contra
de la población mundial, e incluso les acusa de buscar
enriquecerse con ello. No obstante, está tan acotado y
centrado en ciertos sujetos, carentes estos de caracte-
rísticas protegidas –a excepción de Melinda Gates– que
el discurso no desborda hacia elementos racistas o anti-
semitas, a diferencia de lo que ocurre en otros discursos
de este mismo tipo (Gerstenfeld, 2020). Estamos, por
tanto, ante un discurso claramente difamatorio que, si
bien carece del elemento discriminatorio necesario para
considerarse delito de odio, sí que puede considerarse
comunicación violenta en virtud del concepto utilizado
en el presente artículo.
Observar los términos con mayor frecuencia tampoco
ha permitido encontrar rastros de discurso de odio.
1
Se ha filtrado la base de datos tokenizada por aquellas
palabras repetidas más de 500 veces (lo que reduce los
22.403 términos presentes en el corpus a 647) y se ha
examinado cuáles son estos términos más usados, pero
no han podido encontrarse referencias a colectivos u
otros elementos que pudieran indicar una presencia
relevante de discurso de odio, es decir, no se han encon-
trado términos discriminatorios o peyorativos relativos
a la identidad de algún sujeto. No obstante, sí que se
ha podido encontrar que se repiten los términos socio-
pathic (término número 123 más usado, repetido 3.143
veces) y psychopath (término número 162 más usado,
repetido 2.373 veces). Estos términos tienen un carácter
calumnioso, pero no hacen referencia a características
protegidas, por lo que quedan fuera del discurso de odio,
aunque sí entran dentro de la comunicación violenta.
También destaca el uso de pedo –término para referirse
a la pedofilia–, repetido 2.610 veces, de las cuales 2.566
aparece acompañado de referencias al término isla, el
cual a su vez suele aparecer junto al nombre Epstein. La
relación entre estos términos nos indica la existencia de
un discurso no mayoritario, pero sí con cierto peso, que
vincula a Bill Gates con las actividades por las que fue
condenado Jeffrey Epstein. Además, entre estos térmi-
nos más repetidos encontramos también el uso de otros
hashtags, concretamente de: #gatesforprison2020 (re-
petido 2.310 veces), #crimesagainshumanity (usado 1.612
veces) y #crimesagainstchildren (repetido 1.515 veces).
https://idp.uoc.edu
Universitat Oberta de Catalunya
IDP N.º 37 (marzo, 2023) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
10
2023, Jesús C. Aguerri, Fernando Miró-Llinares
de esta edición: 2023, Universitat Oberta de Catalunya
¿Comunicación ofensiva y de odio o desinformación programada? Un análisis de las
características y discurso del evento conspiranoico #ExposeBillGates
Figura 4. Red de correlaciones entre los términos usados por cada usuario
Fuente: elaboración propia
4. Discusión
Las redes sociales, casi desde su nacimiento, no han
dejado de ocuparse de regular, retirando y restringiendo,
algunos discursos y expresiones. Una inquietud de la que
también han participado los Estados. La preocupación
comenzó por aquellos discursos que incitan a la violen-
cia y a la discriminación contra colectivos especialmente
vulnerables y por discursos que por sí mismos ofenden
a personas individuales o a colectivos y, sin abandonar
estos, se centran también ahora en una serie de discursos
caracterizados por la manipulación del mensaje que se
transmite y la mayor o menor falsedad de lo que se expre-
sa. Estos discursos se suelen englobar en el concepto de
desinformación (Miró-Llinares y Aguerri, 2021).
Aunque se trata de discursos y expresiones que aparen-
tan ser sencillamente diferenciables, en ocasiones se ob-
servan mezclados en concretos eventos comunicativos
de alguna red social, si bien generalmente, tal y como se
había visto en el estudio de eventos de discurso de odio
y se ve ahora en este que analiza un evento en el que
el centro del mensaje es la desinformación de carácter
conspiranoico, esto acontece de modo testimonial. Al
igual que en las comunicaciones de la red social Twitter
durante los días posteriores a los atentados de Charlie
Hebdó, donde había algunos mensajes de desinformación
y conspiranoia relacionados con la islamofobia o con el
odio a algunos sectores ideológicos, aunque se trataba
de escasos mensajes dentro de una muestra enorme
(Miró-Llinares, 2016), en el estudio que hemos realiza-
do en torno al evento #ExposeBillGates encontramos
también algunos mensajes ofensivos contra personas
concretas que incluso pueden constituir incitación a la
violencia contra esas personas –tal es el caso de acusar
a Bill Gates de tener un plan para controlar el mundo y
enriquecerse a través de las vacunas–. Al fin y al cabo,
una forma de incitar a la violencia o al odio a un colectivo
puede ser atribuir falsamente algo a ese grupo, y una
forma de difundir desinformación es encrespar al recep-
tor del mensaje pidiéndole acción contra un colectivo o
una persona. En consecuencia, la presente investigación
nos ha permitido observar, por un lado, que efectivamen-
te puede existir cierta relación entre desinformación y
comunicación violenta, verificándose la hipótesis 1, pero
que, a diferencia de lo que se había sugerido previamen-
te (Miró-Llinares et al., 2018), y en sentido contrario a
lo que sugería nuestra hipótesis 2, desinformación, al
menos en su vertiente conspiranoica, y discurso de odio
pueden manifestarse por separado. No obstante, esto
solo ha podido comprobarse partiendo de la observación
de la desinformación, es decir, aunque se ha observado
que puede haber desinformación separada del discurso
de odio, no ha podido abordarse aquí si el discurso de
odio puede darse de forma autónoma y sin vincularse
con la desinformación.
Debe también mencionarse que la presente investigación
tiene una notable limitación, el hecho de restringirse al
estudio de un caso concreto. Sin embargo, el análisis de
un caso concreto, aunque compromete la generalización
de los resultados, sí que nos ha permitido profundizar tan-
to en su estructura como en su discurso y extraer cierta
información relevante para conocer, al menos de manera
preliminar, posibles características del discurso conspira-
noico en redes sociales y, especialmente, apuntar a ciertas
características relativas a la difusión de estos mensajes en
el ciberespacio. En cuanto a la estructura del evento cons-
piranoico, hemos podido observar que este es altamente
dependiente de un número muy restringido de cuentas, de
modo que su extensión y alcance recae en un alto grado
sobre la actividad de unos pocos usuarios. En lo relativo
a su discurso, hemos podido ver que este también está
notablemente concentrado y sigue unas líneas temáticas
muy marcadas.
https://idp.uoc.edu
Universitat Oberta de Catalunya
IDP N.º 37 (marzo, 2023) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
11
2023, Jesús C. Aguerri, Fernando Miró-Llinares
de esta edición: 2023, Universitat Oberta de Catalunya
¿Comunicación ofensiva y de odio o desinformación programada? Un análisis de las
características y discurso del evento conspiranoico #ExposeBillGates
Dentro del evento conspiranoico, los escasos mensajes
que se apartan de la línea central del evento y pueden
encajar en el concepto amplio de comunicación violenta –
aunque no supongan discurso de odio en sentido estricto–
son más bien outliers –elementos poco relevantes y ajenos
al cuerpo central del discurso– de un evento mucho más
homogéneo y de movimiento uniforme de lo que podría
pensarse. Los resultados indican que el evento no solo está
concentrado en el sentido de ser dependiente de un peque-
ño número de cuentas con gran centralidad, sino también
que el discurso gravita en torno a unos pocos conceptos
que generan un discurso con cierta cohesión y orientado a
un objetivo marcado y alejado del odio en sentido estricto.
Esto debe llevar a plantearnos que quizás, aunque esta
afirmación debe realizarse con cautela, nos encontramos
ante un evento programado de alguna forma, o bien en
el sentido de ser un evento orquestado por algún actor
con capacidad para coordinar a un pequeño número de
cuentas que «dirigirían» a un buen número de usuarios;
o bien en el sentido de ser producto de la programación
de la propia red social y su tendencia a homogenizar los
discursos y los públicos. Así, al no ser un evento que se
centre inicialmente en un colectivo y al estar tan centrali-
zado, el discurso de odio no parece tener cabida aquí. No
obstante, a lo que no se puede responder es así, en el caso
de que la conspiración hubiera sido de otro tipo e intere-
sara atribuir a alguien una acción orquestada y lesiva de
los intereses de la sociedad, el odio hubiera campado o
no a sus anchas. Pareciera, aunque habrá que investigar
más al respecto para aseverarlo, que los usuarios siguen
en el hashtag de desinformación un camino marcado y
que los discursos se relacionan e instrumentalizan dentro
de ese camino predefinido. Este hecho tiene implicaciones
notables a la hora de dirigir los esfuerzos destinados a
restringir la difusión de ciertos discursos considerados
lesivos en redes sociales, ya que aporta elementos para
dudar del carácter caótico de la comunicación en redes
que suele darse por hecho. Si, como hemos observado
en el caso concreto estudiado, la desinformación en re-
des sociales y los discursos que la conforman tienden a
depender de un número restringido de cuentas con gran
influencia, las actuaciones de respuesta a este fenóme-
no deben tener en cuenta esta circunstancia para que la
respuesta sea efectiva y, fundamentalmente, respetuosa
con los derechos de los ciudadanos. Además, dada esta
capacidad para manifestarse por separado que parecen
tener la desinformación y el odio, los abordajes tanto en el
ámbito de la intervención pública como de la moderación
de contenido deben realizarse de forma diferenciada para
poder aprehender adecuadamente uno y otro fenómeno.
Trabajo financiado por el proyecto #FakePenal (PID2021-
125730OB-I00) concedido por el Ministerio de Ciencia e
Innovación (Proyectos de Generación de Conocimiento
2021) y por la Ayuda FJC2020-042961-I financiada por
MCIN/AEI / 10.13039/501100011033 y por la Unión Euro-
pea «NextGenerationEU/PRTR»
https://idp.uoc.edu
Universitat Oberta de Catalunya
IDP N.º 37 (marzo, 2023) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
12
2023, Jesús C. Aguerri, Fernando Miró-Llinares
de esta edición: 2023, Universitat Oberta de Catalunya
¿Comunicación ofensiva y de odio o desinformación programada? Un análisis de las
características y discurso del evento conspiranoico #ExposeBillGates
Referencias bibliográficas
AHMED, W.; VIDAL-ALABALL, J.; DOWNING, J.; LÓPEZ-SEGUÍ, F. (2020). «COVID-19 and the 5G Cons-
piracy Theory: Social Network Analysis of Twitter Data». Journal of medical internet research, vol.
22, núm. 5, págs. 1-9. DOI: https://doi.org/10.2196/19458
AGUERRI, J.C.; MOLNAR, L.; MIRÓ-LLINARES, F. (2022, en impresión). «Old crimes reported in new
bottles: The disclosure of child sexual abuse on Twitter through the case #MeTooInceste». Social
Network Analysis and Mining.
Alto representante de la unión para asuntos exteriores y política de seguridad (2020). «La lucha contra
la desinformación acerca de la COVID-19: contrastando los datos» [en línea]. Disponible en: https://
bit.ly/3tY4dYu
BALKIN, J. M. (2004). «Digital speech and democratic culture: A theory of freedom of expression for
the information society». New York University Law Review, vol. 79, núm. 1, págs. 1-58. DOI: http://
dx.doi.org/10.2139/ssrn.470842
BASTIAN, M.; HEYMANN, S.; JACOMY, M. (2009). «Gephi: An Open Source Software for Exploring and
Manipulating Networks». En: International AAAI Conference on Web and Social Media [en línea]. Dispo-
nible en: https://gephi.org/publications/gephi-bastian-feb09.pdf. [Fecha de consulta: 2 julio de 2021].
BASTOS, M. T.; MERCEA, D. (2017). «The Brexit Botnet and User-Generated Hyperpartisan News».
Social Sciences Computer Review, vol. 37, núm. 1. DOI: https://doi.org/10.1177/0894439317734157
BENNETT, W. L.; LIVINGSTON, S. (2018). «The disinformation order: Disruptive communication and the
decline of democratic institutions». European Journal of Communication, vol. 33, núm. 2, págs.
122-139. DOI: https://doi.org/10.1177/0267323118760317
BILEWICZ, M.; SORAL, W.; MARCHLEWSKA, M.; WINIEWSKI, M. (2017). «When Authoritarians Confront
Prejudice. Differential Effects of SDO and RWA on Support for Hate-Speech Prohibition». Political
Psychology, vol. 38, núm. 1, págs. 87-99. DOI: https://doi.org/10.1111/pops.12313
BLONDEL, V. D.; GUILLAUME, J.-L.; LAMBIOTTE, R.; LEFEBVRE, E. (2008). «Fast unfolding of commu-
nities in large networks». Journal of Statistical Mechanics: Theory and Experiment, vol. 2008. DOI:
https://doi.org/10.1088/1742-5468/2008/10/P10008
BOECKMANN, R. J.; TURPIN-PETROSINO, C. (2002). «Understanding the harm of hate crime». Journal
of Social Issues, vol. 58, núm. 2, págs. 207-225. DOI: https://doi.org/10.1111/1540-4560.00257
BRUGGER, W. (2002). «The Treatment of Hate Speech in German Constitutional Law (Part I)». German
Law Journal, vol. 3, núm. 12. DOI: https://doi.org/10.1017/S2071832200015698
BOVET, A.; MAKSE, H. A. (2019). «Influence of fake news in Twitter during the 2016 US presidential elec-
tion». Nature Comunications, vol. 10, núm. 7, págs. 1-14. DOI: https://doi.org/10.1038/s41467-018-07761-2
BROWN, A. (2018). «What is so special about online (as compared to offline) hate speech?». Ethnicities,
vol. 18, núm. 3, págs. 297-326. DOI: https://doi.org/10.1177/1468796817709846
CAMMAERTS, B. (2009). «Radical pluralism and free speech in online public spaces The case of North
Belgian extreme right discourses». International Journal of Cultural Studies, vol. 12. núm. 6, págs.
555-575. DOI: https://doi.org/10.1177/1367877909342479
COMISIÓN EUROPEA (2018). «The 2022 Code of Practice on Disinformation» [en línea]. Disponible en:
https://digital-strategy.ec.europa.eu/en/policies/code-practice-disinformation
https://idp.uoc.edu
Universitat Oberta de Catalunya
¿Comunicación ofensiva y de odio o desinformación programada? Un análisis de las
características y discurso del evento conspiranoico #ExposeBillGates
IDP N.º 37 (marzo, 2023) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
13
2023, Jesús C. Aguerri, Fernando Miró-Llinares
de esta edición: 2023, Universitat Oberta de Catalunya
COMISIÓN EUROPEA (2018). «Action Plan Against Desinformation» [en línea]. Disponible en: https://
www.eeas.europa.eu/node/54866_en
COOK, J.; VAN DER LINDEN, S.; LEWANDOWSKY, S.; ECKER, U. K. H. (2020). «How to spot COVID-19 cons-
piracy theories». Center for Climate Change Communication, George Mason University [en línea]. Dis-
ponible en: https://www.climatechangecommunication.org/how-to-spot-covid19-conspiracy-theories/
ERJAVEC, K.; KOVACIC, M. P. (2012). «“You Don’t Understand, This is a New War!” Analysis of Hate
Speech in News Web Sites’ Comments». Mass Communication and Society, vol. 15, núm. 6, págs.
899-920. DOI: https://doi.org/10.1080/15205436.2011.619679
EUROPOL (2020). «Catching the virus cybercrime, disinformation and the COVID-19 pandemic». Eu-
ropol [en línea]. Disponible en: https://www.europol.europa.eu/publications-events/publications/
catching-virus-cybercrime-disinformation-and-covid-19-pandemic
FARKAS, J.; SCHOU, J.; NEUMAYER, C. (2018). «Cloaked Facebook pages: Exploring fake Islamist pro-
paganda in social media». New Media y Society, vol. 20, núm, 5, págs. 1850-1867. DOI: https://doi.
org/10.1177/1461444817707759
FONG, A.; ROOZENBEEK, J.; GOLDWERT, D.; RATHJE, S.; VAN DER LINDEN, S. (2021). «The language of
conspiracy: A psychological analysis of speech used by conspiracy theorists and their followers on
Twitter». Group Processes & Intergroup Relations, vol. 24, núm. 4, págs. 606-623. DOI: https://doi.
org/10.1177/1368430220987596
GERRARD, Y. (2018). «Beyond the hashtag: Circumventing content moderation on social media». New
Media & Society, vol. 20, núm. 12, págs. 4492-4511. DOI: https://doi.org/10.1177/1461444818776611
GERSTENFELD, M. (2020). «Anti-Jewish Coronavirus Conspiracy Theories in Historical Context». En: Efraim
Karsh (ed.). The COVID-19 Crisis: Impacts and Implications. Begin-Sadat Center for Strategic Studies
GOLDSMITH, J.; WU, T. (2006). Who Controls the Internet Illusions of a Borderless World. Oxford: Uni-
versity Press. DOI: https://doi.org/10.1093/oso/9780195152661.001.0001
GOBIERNO DE ESPAÑA (2019). Informe Anual de Seguridad Nacional 2019. Madrid: Ministerio de la
Presidencia, Relaciones con las Cortes y Memoria Democrática [en línea]. Disponible en: https://bit.
ly/3Aur6p6. [Fecha de consulta: 28 de mayo de 2020].
GÓMEZ-QUINTERO, J.; AGUERRI, J.; GIMENO-MONTERDE, C. (2021). «Representaciones mediáticas de
los menores que migran solos: Los MENA en la prensa española». Comunicar, vol. 66, págs. 95-105.
DOI: https://doi.org/10.3916/C66-2021-08
GOODMAN, J.; CARMICHAEL, F. (2020, mayo). «Coronavirus: Bill Gates ‘microchip’ conspiracy theory
and other vaccine claims fact-checked». BBC News [en línea]. Disponible en: https://bbc.in/39ouo1b
GRAY, C.; HANSEN, K. (2021). «Did Covid-19 Lead to an Increase in Hate Crimes Toward Chinese People
in London?». Journal of Contemporary Criminal Justice, vol. 37, núm. 4, págs. 569-588. DOI: ht-
tps://doi.org/10.1177/10439862211027994
GRINBERG, N.; JOSEPH, K.; FRIEDLAND, L.; SWIRE-THOMPSON, B.; LAZER, D. (2019). «Fake news on
Twitter during the 2016 U.S. presidential election». Science, vol. 363, págs. 374-378. DOI: https://
doi.org/10.1126/science.aau2706
GRZESIAK-FELDMAN, M. (2013). «The effect of high-anxiety situations on conspiracy thinking». Cu-
rrent Psychology, vol. 32, págs. 100-118. DOI: https://doi.org/10.1007/s12144-013-9165-6
HELDT, A. (2019). «Let’s Meet Halfway: Sharing New Responsibilities in a Digital Age». Journal of Infor-
mation Policy, vol. 9, págs. 336-369. DOI: https://doi.org/10.5325/jinfopoli.9.2019.0336
https://idp.uoc.edu
Universitat Oberta de Catalunya
¿Comunicación ofensiva y de odio o desinformación programada? Un análisis de las
características y discurso del evento conspiranoico #ExposeBillGates
IDP N.º 37 (marzo, 2023) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
14
2023, Jesús C. Aguerri, Fernando Miró-Llinares
de esta edición: 2023, Universitat Oberta de Catalunya
INTERPOL (2020). «Cybercrime: COVID-19 impact». Lyon: Interpol [en línea]. Disponible en: https://
www.interpol.int/content/download/15526/file/COVID-19%20Cybercrime%20Analysis%20Re-
port-%20August%202020.pdf
JACOBS, J. B.; POTTER, K. A. (1997). «Hate crimes: A critical perspective». En: M. Tonry (ed.). Crime and
Justice: a Review of Justice, vol. 22, págs. 1-50. DOI: https://doi.org/10.1086/449259
JACOMY, M.; VENTURINI, T.; HEYMANN, S.; BASTIAN, M. (2014). «ForceAtlas2, a Continuous Graph
Layout Algorithm for Handy Network Visualization Designed for the Gephi Software». PLoS ONE,
vol. 9, núm. 6. DOI: https://doi.org/10.1371/journal.pone.0098679
KEARNEY, M. W. (2019). «rtweet: Collecting and analyzing Twitter data». Journal of Open Source Softwa-
re, vol. 4, núm. 42. DOI: https://doi.org/10.21105/joss.01829
KLONICK, K. (2018). «The New Governors: The people, rules and processes governing online speech».
Harvard Law Review, vol. 131, núm. 6, págs. 598-670 [en línea]. Disponible en: https://bit.ly/39o23If
KOFTA, M; SEDEK, G. (2005). «Conspiracy stereotypes of Jews during systemic transformation in Po-
land». International Journal of Sociology, vol. 35, págs. 40-64. DOI: https://doi.org/10.1080/00207
659.2005.11043142
KUHN, M. (2008). «Building Predictive Models in R Using the caret Package». Journal of Statistical
Software, vol. 28, núm. 5. DOI: https://doi.org/10.18637/jss.v028.i05
LAMBIOTTE, R.; DELVENNE, J.C.; BARAHONA, M. (2015). «Laplacian Dynamics and Multiscale Modular
Structure in Networks». IEEE Transactions on Network Science and Engineering, vol. 1, núm. 2, págs.
76-90. DOI: https://doi.org/10.48550/arXiv.0812.1770
LAZER, D. et al. (2018). «The science of fake news». Science, vol. 359, núm. 6380, págs. 1094-1096. DOI:
https://doi.org/10.1126/science.aao2998
MANIKONDA, L.; BEIGI, G.; LIU, H.; KAMBHAMPATI, S. (2018). «Twitter for Sparking a Movement, Reddit
for Sharing the Moment: #metoo through the Lens of Social Media». ArXiv:1803.08022. DOI: https://
doi.org/10.48550/arXiv.1803.08022
MATSUDA, M. J. (1989). «Public response to racist speech: Considering the victim’s story». Michigan
Law Review, vol. 87, núm. 8. DOI: https://doi.org/10.2307/1289306
MEDDAUGH, P. M.; KAY, J. (2009). «Hate Speech or “Reasonable Racism?” The Other in Stor-
mfront». Journal of Mass Media Ethics, vol. 24, núm. 4, págs. 251-268. DOI: https://doi.
org/10.1080/08900520903320936
MIRO-LLINARES, F. (2016). «Taxonomy of violent communication and the discourse of hate on the
internet». IDP. Revista de Internet, Derecho y Política, núm. 22, págs. 93-118. DOI: https://doi.
org/10.7238/idp.v0i22.2975
MIRÓ-LLINARES, F. (2017). Cometer Delitos en 140 caracteres: El Derecho penal ante el odio y la radica-
lización en internet. Madrid: Marcial Pons.
MIRÓ-LLINARES, F.,: AGUERRI, J. C. (2021). «Misinformation about fake news: A systematic critical
review of empirical studies on the phenomenon and its status as a ‘threat’». European Journal of
Criminology, vol. 0, núm. 0. DOI: https://doi.org/10.1177/1477370821994059
MIRÓ-LLINARES, F.; GÓMEZ-BELLVÍS, AB (2020). «Freedom of expression in social media and crimina-
lization of hate speech in Spain: evolution, impact and empirical analysis of normative compliance
and self-censorship». Spanish Journal of Legislative Studies, núm. 1, págs. 1-42. DOI: https://doi.
org/10.21134/sjls.v0i1.1837
https://idp.uoc.edu
Universitat Oberta de Catalunya
¿Comunicación ofensiva y de odio o desinformación programada? Un análisis de las
características y discurso del evento conspiranoico #ExposeBillGates
IDP N.º 37 (marzo, 2023) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
15
2023, Jesús C. Aguerri, Fernando Miró-Llinares
de esta edición: 2023, Universitat Oberta de Catalunya
MIRÓ-LLINARES, F.; MONEVA, A.; ESTEVE, M. (2018). «Hate is in the air! But where? Introducing an
algorithm to detect hate speech in digital microenvironments». Crime Sci, vol. 7, núm. 15. DOI:
https://doi.org/10.1186/s40163-018-0089-1
OKSANEN, A.; HAWDON, J.; HOLKERI, E.; NASI, M.; RASANEN, P. (2014). «Exposure to online hate
among young social media users». Soul of Society: a Focus on the Lives of Children & Youth, vol. 18,
págs. 253-273. DOI: https://doi.org/10.1108/s1537-466120140000018021
ORGANICACIÓN DE LAS NACIONES UNIDAS. (2020). United Nations Strategy and Plan of Action on Hate
Speech: Detailed Guidance on Implementation for United Nations Field Presence [en línea]. Disponible
en: https://www.un.org/en/genocideprevention/documents/UN%20Strategy%20and%20PoA%20
on%20Hate%20Speech_Guidance%20on%20Addressing%20in%20field.pdf
PIELEMEIER, J.S. (2020). «Disentangling disinformation: What makes regulating disinformation so
difficult?». Utah Law Review, vol. 917 [en línea]. Disponible en: https://bit.ly/3idegoa
R Development Core Team (2018). R: A Language and Environment for Statistical Computing [en línea].
Diponible en: http://softlibre.unizar.es/manuales/aplicaciones/r/fullrefman.pdf. Vienna: R Founda-
tion for Statistical Computing.
ROBINSON, P. H.; DARLEY, J. M. (1995). Justice, Liability, and Blame: Community Views and the Criminal
Law. Boulder
SHIMIZU, K. (2020). «2019-nCoV, fake news, and racism». The Lancet, vol. 395, núm. 10225, pág. 685-
686. DOI: https://doi.org/10.1016/S0140-6736(20)30357-3
SILGE, J.; ROBINSON, D. (2019). Text Mining with R: A tidy Approach. O´Reilly [en línea]. Disponible en:
https://bit.ly/2ST4UjS
VEGA YON, G.; FÁBREGA LACOA, J.; KUNST, J. (2015). rgexf: Build, import and export GEXF graph files
[en línea]. Disponible en: https://bit.ly/3CyOQZG
VAN LOO, R. (2017). «Rise of the digital regulator». Duke Law Journal, vol. 66, núm. 6, págs. 1267-1329.
DOI: https://bit.ly/39niy7t
VAN PROOIJEN, J. W.; VAN LANGE, P. A. M. (2014). «The social dimension of belief in conspiracy theo-
ries». En: van Prooijen, J.-W., van Lange, P. A. M. (eds.). Power, politics, and paranoia: Why people are
suspicious of their leaders, págs. 237-253. Cambridge University Press. DOI: https://doi.org/10.1017/
CBO9781139565417.017
WORLD HEALTH ORGANIZATION (2020). «Coronavirus disease 2019 (COVID-19) Situation Report –
45» [en línea]. Disponible en: https://www.who.int/publications/m/item/situation-report---45
WICKHAM, H. et al. (2019). «Welcome to the tidyverse». Journal of Open Source Software, vol. 4, núm.
43. DOI: https://doi.org/10.21105/joss.01686
TANDOC, E. C.; LINM, Z. W.; LING, R. (2017). «Defining “Fake News”: A typology of scholarly definitions».
Digital Journalism, vol. 6, núm. 2, págs. 137-153. DOI: https://doi.org/10.1080/21670811.2017.1360143
YBARRA, M. L.; MITCHELL, K. J.; KORCHMAROS, J. D. (2011). «National Trends in Exposure to and
Experiences of Violence on the Internet Among Children». Pediatrics, vol. 128, núm. 6, págs.
e1376-e1386. DOI: https://doi.org/10.1542/peds.2011-0118
WALDRON, J. (2012). The harm in hate speech. Harvard University Press. DOI: https://doi.org/10.4159/
harvard.9780674065086
ZHANG, X.; GHORBANI, A. A. (2020). «An overview of online fake news: Characterization, detection,
and discussion». Information Processing and Management, vol. 57, núm. 2, págs. 1-26. DOI: https://
doi.org/10.1016/j.ipm.2019.03.004
https://idp.uoc.edu
Universitat Oberta de Catalunya
¿Comunicación ofensiva y de odio o desinformación programada? Un análisis de las
características y discurso del evento conspiranoico #ExposeBillGates
IDP N.º 37 (marzo, 2023) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
16
2023, Jesús C. Aguerri, Fernando Miró-Llinares
de esta edición: 2023, Universitat Oberta de Catalunya
Cita recomendada
AGUERRI, Jesús C.; MIRÓ-LLINARES, Fernando (2022). «¿Comunicación ofensiva y de odio o desin-
formación programada?: un análisis de las características y discurso del evento conspiranoico #Expo-
seBillGates». En: «Hate speech, discrimination and online media». IDP. Revista de Internet, Derecho y
Política, núm. 37. UOC [Fecha de consulta: dd/mm/aa]
http://dx.doi.org/10.7238/idp.v0i37.397192
Los textos publicados en esta revista están —si no se indica lo contrario— bajo una licencia
Reconocimiento-Sin obras derivadas 3.0 España de Creative Commons. Puede copiarlos,
distribuirlos y comunicarlos públicamente siempre que cite su autor y la revista y la institu-
ción que los publica (IDP. Revista de Internet, Derecho y Política; UOC); no haga con ellos
obras derivadas. La licencia completa se puede consultar en: http://creativecommons.org/
licenses/by-nd/3.0/es/deed.es.
Sobre el autor
Jesús C. Aguerri
Investigator posdoctoral. Centro Crímina, Universidad Miguel Hernández de Elche
j.aguerri@crimina.es
ORCID: https://orcid.org/0000-0002-7730-8527
Investigador posdoctoral (Juan de la Cierva-Formación en el Centro Crímina para el Análisis y la Pre-
vención de la Delincuencia). Es doctor en Sociología por la Universidad de Zaragoza y ha desarrollado
su trabajo alrededor de la sociología del ciberespacio y la gestión de la libertad de expresión.
Fernando Miró-Llinares
Catedrático de Derecho Penal. Centro Crímina, Universidad Miguel Hernández de Elche
f.miro@crimina.es
ORCID: https://orcid.org/0000-0001-6379-5857
Catedrático de Derecho Penal en la Universidad Miguel Hernández de Elche y director del Centro
Crímina para el Análisis y la Prevención de la Delincuencia. Ha sido investigador principal de múltiples
proyectos nacionales e internacionales, y es autor de numerosas publicaciones de impacto sobre la
gestión del discurso en redes sociales, la radicalización y el ciberespacio.

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR