Cuadernos de Nuestra América/Nueva Época/No. 010 / enero-marzo 2024/

RNPS: 2529 /ISSN: 2959-9849/99 pp.

Investigando Facebook: La independencia permitida. El poder corporativo de Meta y los estudios académicos sobre plataformas digitales en los Estados Unidos

Researching Facebook: Enabling Independence. Meta’s corporate power and academic studies of digital platforms in the United States

Recibido: diciembre 2023.

Aprobado: enero 2024.

Javier Gómez Sánchez1

Licenciado en Arte de los Medios de Comunicación Audiovisual.

ORCID: 0009-0006-1059-8001

e-mail: jgomez@isa.cult.cu

Resumen

La relación entre la comunidad científica estadounidense y las mega corporaciones que manejan las plataformas digitales de redes sociales, —como Meta—, se hace cada vez más compleja, en la medida en que la realización de investigaciones académicas sobre su funcionamiento social y político depende del acceso que permita la compañía a su principal producto: los datos acumulados por la actividad de sus usuarios.

Palabras clave: Mega corporaciones. Redes Sociales. Datos. Usuarios.

Abstract

The relationship between the U.S. scientific community and the mega corporations that manage digital social networking platforms, such as Meta, is becoming increasingly complex, to the extent that the conduct of academic research on their social and political functioning depends on the access that the company allows to its main product: the data accumulated by the activity of its users.

Key words: Mega corporations. Social networks. Data. Users.

¿Qué ocurre entonces cuando los objetivos de la investigación o sus resultados no son convenientes para la empresa?

Pareciera que va quedando atrás la atención motivada por escándalos como el de Cambridge Analytica en 2018, pero el interés en las universidades estadounidenses por investigar sobre Facebook, lejos de disminuir, aumenta. Muestra de esto es que la prestigiosa revista Science, en julio de 2023, estuvo dedicada al estudio del efecto de los algoritmos de esta plataforma en el escenario electoral de los Estados Unidos.

“¿Puede un modelo de negocio que priorice los “algoritmos de participación” representar una amenaza para la democracia?”. Con esta pregunta comienza el Editor Asociado para Ciencias del Comportamiento Social, Ekeoma E. Uzogara, su presentación editorial de ese número, con el título Democracy Intercepted, y a continuación describe una posible respuesta: Los algoritmos recopilan información sobre los intereses de los usuarios para brindarles más de aquello que quieren ver. (…) Sigue siendo muy discutido si este proceso tiene consecuencias en las urnas. En una democracia que funcione correctamente, la gente debe formar creencias políticas a partir de noticias precisas, pero la arquitectura de las redes sociales puede dejar a los partidarios aislados en fuentes de noticias sesgadas, expuestos a información errónea y rodeados de personas con ideas afines que refuerzan sus actitudes. (…) Las empresas de tecnología tienen la responsabilidad pública de comprender cómo las características de diseño de las plataformas pueden afectar a los usuarios y, en última instancia, a la democracia. Y termina con una exhortación: Ahora es el momento de motivar cambios y reformas sustanciales”.

Para conocer la historia tras este número de la revista Science hay que ir varios años atrás. No tanto como para remontarse a los días de la residencia estudiantil de Harvard University donde se creó Facebook, hace casi dos décadas, sino en los salones del Capitolio de Washington a donde la plataforma llevó a su creador, en abril de 2018.

Las citaciones a declarar ante comisiones de investigación del Congreso de los Estados Unidos, a las que han sido llamados los CEO de compañías responsables de plataformas digitales, como Mark Zuckenberg, de Meta (Washington Post, 2018; CNN, 2023), Elon Musk, de Twitter —actualmente llamada X—, y Bill Gates, de Google (CNN, 2023), así como los sucesivos escándalos que involucran el funcionamiento de las plataformas, a lo que se agrega más recientemente la masificación del uso personal de la Inteligencia Artificial desarrollada por estas mismas corporaciones, han hecho que las propias compañías, —especialmente Meta, antiguamente conocida por Facebook Inc.— se interesen por vincularse a estudios académicos sobre el impacto social, psicológico y político de las mismas.

En los últimos años se han escuchado las voces de una creciente comunidad de autores e investigadores, como Shoshana Zuboff, con su libro The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power (2019), Jaron Lenier con You Are Not a Gadget: A Manifesto (2010) y Arguments for Deleting Your Social Media Accounts Right Now (2018), o Cathy O’Neil con Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy (2016).

La mayoría de estas obras resultan negativas para Facebook. Iguales efectos tuvieron los documentales The great hack (Dir. Karim Amer; Jehane Noujaim, 2019) y The social dilemma (Dir. Jeff Orlowski, 2020), este último cuestionado y descalificado por la compañía (Facebook, 2020). Se ha creado así una sólida e intensamente activa comunidad de científicos sociales críticos hacia Meta y la manera en que funciona Facebook.

Sin embargo, todas estas obras, o al menos la mayoría, consisten en investigaciones de carácter cualitativo, pues resulta imposible realizar investigaciones cuantitativas si no se dispone de los datos de millones de usuarios, lo que obviamente, está en poder de la compañía. Así que la posibilidad de que pueda realizarse una investigación de tipo cuantitativa que contradiga los intereses de la empresa, disponiendo de esos volúmenes de datos, es casi nula.

El 9 de abril de 2018, con el proceso de Cambridge Analytica al rojo vivo, y con la compañía puesta en la palestra pública como nunca antes, Facebook anunció el lanzamiento de una iniciativa para apoyar investigaciones sobre el papel de las redes sociales digitales durante las elecciones, así como sobre la democracia en general.

Entre los fundadores de la iniciativa se mencionaron la Laura and John Arnold Foundation, Democracy Fund, la William and Flora Hewlett Foundation, la John S. and James L. Knight Foundation, la Charles Koch Foundation, la Omidyar Network, y la Alfred P. Sloan Foundation. El anuncio estaba firmado por Elliot Schrage, Vice presidente de Comunicación y Política Pública y David Ginsberg, Director de Investigación Científica de la compañía (Meta,2018).

Un día después del anuncio, el 10 de abril de 2018, Mark Zuckerberg declaró como CEO de Facebook ante las Comisiones de Poder Judicial y Comercio, Ciencia y Transporte del Senado de las Estados Unidos para discutir acerca de la privacidad en su red social, la desinformación de origen ruso dirigida al público estadounidense con el uso de esta, así como la disponibilidad y abuso de datos de sus usuarios. (Washington Post, 2018).

Durante la sesión se produjo el siguiente diálogo entreTom Udall, senador demócrata por New México, y el empresario tecnológico (Congress,2023):

“UDALL (A Zuckerberg): Ahora Facebook está creando un grupo independiente para estudiar el abuso de las redes sociales en las elecciones. Usted ha hablado de eso. ¿Se comprometerá a que todos los hallazgos de este grupo se hagan públicos sin importar lo que digan sobre Facebook o su modelo de negocio? Es una respuesta de Sí o No.

ZUCKERBERG: Senador, ese es el propósito de este grupo, que Facebook nopuedacontrolarlo que publican estas personas. Serán académicos independientes y Facebook no tiene control de publicación previo. Podrán realizar los estudios que están haciendo y publicar los resultados.

UDALL: ¿Y le parece bien que sean públicos? ¿Cuál será el momento para sacarlos?

ZUCKERBERG: Senador, estamos iniciando la investigación ahora. Nuestro objetivo es centrarnos en proporcionar ideas para prevenir la interferencia en 2018 y más allá, y también en hacernos responsables de garantizar que las medidas que implementamos tengan éxito en lograrlo. Así que espero que comencemos a ver los primeros resultados a finales de este año.” (Washington Post,2018).

La organización de los proyectos de investigación tomó mucho más tiempo debido a su complejidad, y es solo ahora, en 2023, que se han comenzado a publicar los primeros artículos sobre los resultados.

En este período, Meta ha desarrollado mayores acciones para que cada vez más investigaciones académicas se realicen con el apoyo de la empresa. En 2021, la compañía creó el Facebook Open Research and Transparency Team (FORT), para servir a la comunidad académica proporcionando conjuntos de datos protegidos, así como desarrollando herramientas y procesos de análisis para garantizar que los investigadores obtengan acceso a la información y mejores capacidades analíticas.

FORT también conforma asociaciones para colaboraciones de investigación a largo plazo. (Meta, 2023) De esta manera FORT provee apoyo para proyectos investigativos de más de 100 instituciones en los Estados Unidos. (Engadget,2021).

Pero si bien se ha presentado a FORT como una acción positiva de la compañía para brindar un apoyo transparente e incondicional a la investigación científica, algunos han cuestionado la relación que esto implica, ya que Facebook exige que las instituciones de investigación firmen un contrato antes de acceder a sus datos.

Este establece que los resultados de la investigación no pueden revelar ninguna información confidencial ni personal, y le otorga a Facebook la potestad de revisar los borradores de las publicaciones para identificar cualquier información de este tipo que pueda revelarse. Según el contrato, la Información Confidencial incluye aspectos relacionados con los productos y la tecnología de Facebook, sus sistemas de procesamiento de datos, políticas y plataformas, además de información personal de sus usuarios o socios comerciales (Digiday,2021).

En 2021 un grupo de investigadores de la Princeton University que planeaban estudiar las características de la publicidad electoral en la red social, finalmente retiró el proyecto, citando los términos restrictivos de Facebook. Alegaron que se les impuso un acuerdo “estrictamente no negociable” que les exigía enviar su investigación a Facebook para su revisión antes de publicarla (Engadget,2021).

A los integrantes del equipo de Princeton les preocupaba que, si los resultados de la investigación revelaban la manera en que funcionaban la tecnología y las herramientas de orientación publicitaria de Facebook o la forma en que la empresa determinaba los precios de los anuncios, el contrato le daría a la compañía el derecho de eliminar esos resultados de la investigación antes de su publicación.

Ante este reclamo, Facebook respondió que más de 100 investigadores no habían tenido problemas con firmarlo y realizar sus investigaciones bajo esas condiciones. (Digiday,2021).

Ese mismo año la empresa bloqueó el acceso a sus herramientas a un grupo de investigación de la New York University, que laboraba en el NYU’s Ad Observatory Project, alegando que “los investigadores recopilaron datos creando una extensión de navegador que fue programada para evadir nuestros sistemas de detección y extraer datos como nombres de usuario, anuncios, enlaces a perfiles de usuario y la función “¿Por qué veo este anuncio?”. Esta información no es visible públicamente en Facebook. La extensión también recopiló datos sobre los usuarios de Facebook, los cuales no la instalaron ni dieron su consentimiento para la recopilación. Los investigadores archivaron esta información en una base de datos disponible públicamente.” (Meta,2023).

Por su parte la profesora Laura Edelson, investigadora principal del proyecto Cibersecurity for Democracy de la misma universidad respondió en un comunicado. “Facebook nos silencia porque nuestro trabajo a menudo llama la atención sobre problemas en su plataforma”. (Protocol, 2021).

Otras investigaciones han logrado navegar con más suerte en sus relaciones con la compañía. Uno de los trabajos de investigación acerca de la influencia de Facebook sobre la población estadounidense en relación con su comportamiento electoral, que sí conto con el apoyo de Meta, fue publicado como parte del número especial de Science con el título Asymmetric ideological segregation in exposure to political news on Facebook (2023).

El estudio fue realizado entre 2021 y 2020, por un equipo de académicos liderado por la University of Pennsylvania. El grupo estuvo integrado por 27 investigadores provenientes de 21 universidades en Estados Unidos, entre las que se incluyen, Stanford University, Syracuse University, Washington University, University of Texas at Austin, University of California y la New York University, entre otras. Varios de estos centros incluyeron investigadores provenientes de distintos departamentos, como Ciencias Políticas, Sociología, Psicología y Ciencias de la Comunicación. (Science, 2023).

El acceso a los datos de los usuarios estudiados estuvo facilitado por Meta, y forman parte de un estudio iniciado en 2020 por la propia empresa, a partir de las elecciones presidenciales de ese año. El Facebook Open Research and Transparency Team (FORT) brindó el acceso a estos. (González-Bailón et al., 2023).

Meta pagó los costos asociados con la investigación y parte del apoyo vino de la Democracy Fund, el Hopewell Fund, la Guggenheim Foundation, la John S. and James L. Knight Foundation, la Charles Koch Foundation, la Hewlett Foundation, y la Alfred P. Sloan Foundation.

Los autores aclaran que ninguno de los investigadores académicos ni sus instituciones recibió de Meta compensación financiera o de otro tipo, por su participación en el proyecto. (González-Bailón et al., 2023).

La pregunta de investigación planteada fue la siguiente: ¿Permite Facebook la segregación ideológica en el consumo de noticias políticas? (González-Bailón et al., 2023), y el proceso fue descrito por sus autores de esta manera: “Analizamos la exposición a las noticias durante las elecciones estadounidenses de 2020 utilizando datos agregados de 208 millones de usuarios de Facebook en Estados Unidos.

Comparamos el inventario de todas las noticias políticas que los usuarios podrían haber visto en sus feeds con la información que vieron (después de la curación algorítmica) y la información con la que interactuaron. Mostramos que la segregación ideológica es alta y aumenta a medida que pasamos de una exposición potencial a una exposición real al compromiso; existe una asimetría entre las audiencias conservadoras y liberales, con una parte sustancial del ecosistema de noticias consumida exclusivamente por conservadores; y la mayor parte de la información errónea, identificada por el Programa de verificación de datos de terceros de Meta, existe dentro de este rincón homogéneamente conservador, que no tiene equivalente en el lado liberal.

Las fuentes preferidas por las audiencias conservadoras prevalecieron más en el ecosistema de noticias de Facebook que las favorecidas por los liberales” (González-Bailón et al., 2023).

Como conclusión de la investigación los autores platearon: “Nuestros análisis destacan que Facebook, como entorno social e informativo, está sustancialmente segregado ideológicamente, mucho más de lo que han encontrado investigaciones anteriores sobre el consumo de noticias en Internet basadas en el comportamiento de navegación.

Pero nuestros análisis también muestran que las preferencias individuales y las posibilidades de las plataformas se entrelazan de manera compleja. La segregación ideológica se manifiesta mucho más en el contenido publicado por páginas y grupos que en el contenido publicado por amigos.

El hecho de que las páginas y los grupos estén asociados con niveles más altos de segregación ideológica sugiere que la elección de qué páginas seguir y a qué grupos unirse está impulsada mucho más por la congruencia ideológica que por la elección de con quién ser amigos, como se analizó anteriormente. Una dirección importante para futuras investigaciones es comprender cómo las personas descubren y deciden seguir páginas y unirse a grupos (…).

Nuestros resultados revelan la naturaleza claramente asimétrica de la segregación de noticias políticas en Facebook: el lado derecho de las distribuciones para audiencias potenciales, reales y comprometidas parece rotundamente diferente del lado izquierdo.

Por lo tanto, aunque hay dominios y URL homogéneamente liberales y conservadores, hay dominios y URL mucho más homogéneamente conservadores entre los que circulan. En Facebook esta asimetría es consistente con lo que se ha encontrado en otras plataformas de redes sociales” (González-Bailón et al., 2023).

Esta investigación es uno de los productos de un proyecto superior apoyado por Meta, nombrado Election Research Project (ERP), orientado a estudiar el impacto de Facebook e Instagram en actitudes y comportamientos políticos durante las elecciones estadounidenses de 2020, pero cuyo origen evidentemente está asociado a la intención expuesta ante el Congreso por Zuckerberg en su comparecencia del 2018.

El proyecto está dirigido por profesores del Center for Media Engagement de la University of Texas at Austin, y el Center for Social Media and Politics de la New York University. (2020 Election Research Project, 2023). El equipo incluye a otros 15 integrantes provenientes de 14 universidades, 3 investigadores independientes, mientras que por parte de Facebook interviene un grupo de 9 investigadores de la empresa, junto a 12 especialistas en ingeniería y funcionamiento de redes. El proyecto cuenta con un observador independiente. (Meta,2020).

Como reglas para el proyecto se estableció que Facebook no tendrá ningún derecho de aprobación previa a la publicación, y sólo tendrá derecho a comprobar que los artículos no violan obligaciones legales o de privacidad. Tampoco selecciona los miembros del equipo académico.

Todos los trabajos tendrán como autores principales a académicos, quienes tendrán la última palabra sobre el texto y aunque Facebook cubre los costos asociados con la ejecución del estudio en sí (por ejemplo, pagar al proveedor de la encuesta), ningún miembro del equipo académico recibirá compensación financiera por su participación.

Para cumplir con las obligaciones de privacidad, sólo los empleados de Facebook podrán “tocar” los datos sin procesar, pero ambos equipos trabajarán juntos para diseñar sistemas de monitoreo apropiados para garantizar la integridad científica de la investigación. (Stroud,Tucker, Franco, Jonge, 2020).

Los resultados de la investigación se planificaron para 2021 (Meta,2020). Pero debido al volumen del proyecto fue necesario posponer los resultados hasta 2023. (ERP, 2022).

Recientemente, en julio de 2023 fueron publicados los primeros cuatro textos producidos por el proyecto: El mencionado de la University of Pennsylvania, junto con Reshares on Social Media Amplify Political News but Do Not Detectably Affect Beliefs or Opinions, y How Do Social Media Feed Algorithms Affect Attitudes and Behavior in an Election Campaign? Ambos también publicados en la revista Science por profesores de las universidades de Princeton y Stanford.

El cuarto texto apareció en la revista Nature, con el título Like-minded Sources on Facebook Are Prevalent but Not Polarizing study, por un equipo de Dartmouth University, William & Mary University, Syracuse University y University of California Davis.

Al anunciar la publicación de los artículos, los líderes del Election Research Project declararon en su página web: “Los científicos sociales se han visto limitados en el estudio del impacto de las redes sociales en la democracia estadounidense.

Ahora sabemos cuán influyente es el algoritmo en la configuración de las experiencias de las personas en la plataforma, pero también sabemos que cambiar el algoritmo, aunque sea por unos pocos meses probablemente no cambie las actitudes políticas de las personas.

Lo que no sabemos es por qué. Podría deberse a que el tiempo durante el cual se cambiaron los algoritmos no fue suficiente, o que estas plataformas ya existen desde hace décadas, o que, si bien Facebook e Instagram son fuentes influyentes de información, no son las únicas fuentes de las personas.”

Al mismo tiempo validaron la relación entre los investigadores y Meta: “El equipo académico propuso y seleccionó preguntas de investigación específicas y diseños de estudio con el acuerdo explícito de que las únicas razones por las que Meta podría rechazar tales diseños serían razones legales, de privacidad o logísticas (es decir, inviabilidad). Meta no podía restringir ni censurar los hallazgos, y los autores académicos principales tenían la última palabra sobre las decisiones de redacción e investigación”. (ERP, 2023).

Por la información expuesta en los artículos, indudablemente los estudios están realizados con un notable rigor, por profesionales de gran experiencia y validados por varias de las más prestigiosas universidades de los Estados Unidos. Pudiera considerarse como su principal valor, haber contado con la dedicación y el respaldo personal de una sólida comunidad de profesionales de la investigación.

Pero no es posible dejar de notar que los frutos de las investigaciones resultaron ser de un carácter tolerable por Meta, incluso de cierto alivio ante la carga de cuestionamiento y responsabilidades directas que ha acumulado durante los últimos años, al señalarse que lo que ocurre en Facebook “es consistente con lo que se ha encontrado en otras plataformas de redes sociales”, y que “si bien Facebook e Instagram son fuentes influyentes de información, no son las únicas fuentes de las personas.”

Algunos de esos mismos académicos, que tuvieron la suerte de conseguir hasta hoy una relación feliz con Meta, pudieran chocar mañana con experiencias similares a las de sus colegas que no lograron un entendimiento con la compañía sobre las condiciones para el acceso a los datos, o, como se ha alegado, que esta consideró que sus estudios no resultaban convenientes para la imagen de la empresa.

¿De qué manera podrían entonces acceder a muestras de big data? Las donaciones de volúmenes de datos que realizan a las universidades algunas compañías menores pudiera ser una alternativa, pero difícilmente esta modalidad filantrópica pudiera sustentar para el sector académico una actividad investigativa masiva y permanente.

Si se va más a allá de Facebook, el asunto se torna más complejo aún, pues la relación entre la comunidad académica y Twitter —actualmente nombrada X— se ha tornado cada vez más tensa desde que la plataforma fuera adquirida por el empresario Elon Musk en abril de 2022. Otras plataformas, como Reddit y Tik Tok, también se muestran poco colaborativas para dar acceso a sus datos. En algunos casos el costo que se exige por el uso de herramientas de investigación resulta de un monto prohibitivo para el presupuesto de la mayoría de los proyectos.

En septiembre de 2023, miembros de la Association of Internet Researchers (AoIR) circularon un correo en el que enumeraban estas dificultades y mostraban su temor a que las facilidades que otorga Meta para el trabajo académico con Facebook e Instagram puedan sufrir limitaciones en el futuro próximo, algo que no ha sido respondido hasta ahora por la compañía.

Mientras todo esto ocurre, Michael W. Wagner, quien asumió la carga de responsabilidad de ser el único observador independiente de las investigaciones del Election Research Project impulsado por Meta, y quien es profesor de la School of Journalism and Mass Communication de la University of Wisconsin- Madison, estableció en el mismo número de la revista Science: “Concluyo que el equipo realizó estudios rigurosos, cuidadosamente verificados, transparentes, éticos e innovadores.”

Pero al mismo tiempo señaló: “Aunque el trabajo es digno de confianza, sostengo que el proyecto no es un modelo para futuras colaboraciones entre la industria y la academia. La colaboración resultó en una investigación independiente, pero fue independencia con permiso de Meta”.

Referencias Bibliográficas

Statista (2023) Número de usuarios de Facebook en Estados Unidos de 2018 a 2027 https://es.statista.

Meta (2021) Introducing Meta: A Social Technology Company. 28 de octubre de 2021. https://

Wagner, Michael W (2023) Independence by permission. Industry–academy collaboration explores the 2020 US election. Science,27 Jul 2023,Vol 381, Issue 6656, pp. 388-39. https://www.science.org/doi/10.1126/science.adi2430

Financial Times (2021) Investigating Facebook: a fractious relationship with academia. https://www.

Uzogara, Ekeoma E. (2023) Democracy Intercepted. Science 27 Jul 2023 Vol 381, Issue 6656 pp. 386-387https://www.science.org/doi/10.1126/ science.adj7023

Washington Post (2018) Transcript of Mark Zuckerberg’s Senate hearing. 10 de abril de 2018.https:// www.washingtonpost.com/news/theswitch/

CNN Business (2023) Bill Gates, Elon Musk and Mark Zuckerberg meeting in Washington to discuss future AI regulations. 13 de septiembre de 2023 https://

Facebook (2023) What ‘The Social Dilemma’ Gets Wrong https://about.fb.com/wp-content/ uploads/2020/10/What-The-Social-Dilemma-Gets-Wrong.pdf

Meta (2018) Facebook Launches New Initiative to Help Scholars Assess Social Media’s Impact on Elections. 9 de abril de 2018. https://about.fb.com/news/2018/04/new-elections-initiative/

Congress.gov (2023) Members/Senator Tom Udall. Library of Congress. https://www.congress.gov/

Digiday (2021) Princeton researchers ditch Facebook political ad project after the platform used a debunked FTC privacy defense. Agosto 12, 2021 https://www.google.com/search?cli

Meta (2021) Research Cannot Be the Justification for Compromising People’s Privacy .Agosto 3,2021 https://about.fb.com/news/2021/08/re

Protocol (2021) NYU researchers speak out after Facebook disables their accounts. Agosto 4, 2021 https://www.protocol.com/nyu-research

University of Pennsylvania (2023) Sandra González- Bailón, Ph.D. https://www.asc.upenn.edu/peo

González-Bailón, Sandra et al (2023) Asymmetric ideological segregation in exposure to political news on Facebook. Science 27 Jul 2023 Vol 381, Issue

6656 pp. 392–398. https://www.science.org/ doi/10.1126/science.ade7138

Engadget (2021) The fight to study what happens on Facebook https://www.engadget. com/facebook-data-transparency-researchers-170021370.html

Stroud, Talia; Tucker, Joshua A.; Franco, Annie; Kiewiet de Jonge, Chad P. (2020) A Proposal for Understanding Social Media’s Impact on Elections: Rigorous, Peer-Reviewed Scientific Research. 31 de agosto de 2020. 2020 Election Research Project. Medium https://medium.com/@2020_ election_research_project/a-proposal-for-understanding-social-medias-impact-on-elections-4ca5b7aae10

2020 Election Research Project (2022) Updated Timeline. 24 de octubre de 2022. Medium. https://medium.com/@2020_election_research_ project/updated-timeline-362af8f3b0a5

2020 Election Research Project (2023) First Four Papers from US 2020 Facebook & Instagram Research Election Study Published in Science and Nature. 27 de julio de 2023. Medium. https://me

University of Wisnconsisn-Madison (2023) People/ Michael Wagner. School of Journalism and Mass Communication.https://journalism.wisc.edu/


1 El autor es periodista, realizador audiovisual y profesor cubano. Graduado en Arte de los Medios de Comunicación Audiovisual de la Universidad de las Artes (ISA). Autor de los libros Las flautas de Hamelin. Una batalla en internet por la mente de los cubanos (2020), La Dictadura del Algoritmo. Entrevistas y artículos sobre redes sociales y guerra mediática en Cuba (2021), Los que curan y los que envenenan. Páginas de una pandemia mediática (2022). Es director del documental La Dictadura del Algoritmo (2021). Ha sido Decano de la Facultad de Arte de los Medios de Comunicación Audiovisual (FAMCA) de la Universidad de las Artes y profesor en la misma.