Facebook está obstruyendo nuestro trabajo sobre la desinformación

La hostilidad de la compañía al escrutinio académico limita nuestra capacidad para entender cómo la plataforma amplifica falsedades.

La semana pasada, Facebook desactivó nuestras cuentas personales, obstruyendo así la investigación realizada por la Universidad de Nueva York con el fin de mapear la propagación de la desinformación en la plataforma de la red social. La medida ya ha mermado nuestro trabajo, obligándonos a suspender nuestras investigaciones sobre el papel de Facebook en la amplificación de la desinformación sobre vacunas, la siembra de desconfianza en las elecciones y el fomento de los violentos disturbios en el Capitolio de Estados Unidos el 6 de enero.

La hostilidad de Facebook excede el ámbito de nuestro trabajo. Por lo tanto, es importante establecer el impacto que esta hostilidad de Facebook frente al escrutinio tiene para los muchos otros investigadores y periodistas que intentan estudiar los efectos de Facebook en la sociedad. Ya hemos tenido noticias de otros investigadores que planean proyectos similares y que ahora están dando marcha atrás. Si Facebook se sale con la suya, no habrá investigación independiente de su plataforma.

Nuestra disputa con Facebook se centra en una herramienta de investigación llamada Ad Observer. Ad Observer es una extensión del navegador web que los usuarios de Facebook pueden elegir instalar para compartir con nosotros información limitada y anónima sobre los anuncios que Facebook les muestra. Los datos que comparten con nosotros incluyen las categorías que los anunciantes eligieron al segmentarlos. Algunos ejemplos podrían ser “mujeres casadas” o “interesadas en tener citas” o “vive en Florida”.

Gracias a los datos recogidos a través de Ad Observer, y también a los datos recogidos mediante las herramientas de transparencia que Facebook pone a disposición de los investigadores, hemos podido ayudar al público a entender cómo la plataforma incumple sus promesas, y a esclarecer cómo vende la atención de sus usuarios a los anunciantes.

En un artículo de próxima aparición, demostramos como Facebook no ha incluido en su archivo público más de 100.000 anuncios que cumplen sus propios criterios como anuncios políticos, sociales y temáticos. Por ejemplo, no incluyó anuncios de apoyo a Joe Biden de cara a las elecciones de 2020; anuncios de Amazon sobre el salario mínimo; y un anuncio anti-mascarilla dirigido a los conservadores administrado por un grupo llamado Reopen USA, cuya página de Facebook publica memes anti-vacunas y anti-mascarillas.

También hemos demostrado que las fuentes de noticias altamente politizadas y engañosas obtienen mucha más participación en Facebook que las fuentes de noticias fiables, por lo que publicaremos una versión ampliada de este análisis en otro artículo de próxima publicación.

Pero no somos los únicos investigadores que utilizan los datos de Ad Observer. Durante los últimos tres años, hemos puesto a disposición de otros investigadores y periodistas la información que recopilamos a través de Ad Observer y de las herramientas de Facebook, para que puedan realizar sus propias investigaciones.

Por ejemplo, The Markup ha utilizado nuestros datos para informar sobre cómo los anuncios con contenido de QAnon y mercancía de grupos de milicias extremistas se han colado en los filtros de Facebook, a pesar de las prohibiciones. The Markup también utilizó los datos para demostrar cómo anunciantes corporativos como ExxonMobil y Comcast promueven mensajes aparentemente contradictorios sobre temas candentes a diferentes audiencias. Asimismo, reporteros de Florida, Kentucky y Nuevo México lo utilizaron para informar sobre las tendencias de la publicidad política en sus estados de cara a las elecciones de 2020.

Al desactivar nuestras cuentas la semana pasada, Facebook alegó que estábamos violando sus condiciones de servicio, que estábamos comprometiendo la privacidad de los usuarios y que no tenía otra opción que cerrarnos debido a un acuerdo que tiene con la Comisión Federal de Comercio. Todas estas afirmaciones son falsas. Ad Observer sólo recoge información sobre los anunciantes, no sobre nuestros voluntarios o sus amigos, y la FTC ha declarado que nuestra investigación no viola su acuerdo de consentimiento con Facebook.

Lamentablemente, la campaña de Facebook contra nosotros forma parte de un patrón más amplio de hostilidad hacia el escrutinio externo. El mes pasado, el New York Times informó de que Facebook, tras una controversia interna, estaba desmantelando un equipo que trabajaba en CrowdTangle, su herramienta de transparencia más importante para los investigadores que quieren ver cómo se difunden las publicaciones no pagadas de Facebook y cómo ganan participación en la plataforma. El periódico informó esta semana que la propia Casa Blanca estaba teniendo tantos problemas para obtener una respuesta directa de Facebook sobre la desinformación de las vacunas que los funcionarios pidieron hablar directamente con los científicos de datos de la plataforma, en lugar de sus grupos de presión.

Social Science One, lanzada en 2018 con gran fanfarria, debía proporcionar a los investigadores acceso a los datos de los usuarios de Facebook de forma segura. Pero los datos ofrecidos resultaron ser mucho menos útiles de lo previsto, hasta el punto de que los financiadores del proyecto lo abandonaron. En nuestro trabajo hemos demostrado cómo las herramientas de transparencia de Facebook no cumplen sus promesas.

No podemos dejar que Facebook decida unilateralmente quién puede estudiar la empresa y qué herramientas puede utilizar. Es demasiado lo que está en juego. Lo que ocurre en Facebook afecta a la confianza pública en nuestras elecciones, al curso de la pandemia y a la naturaleza de los movimientos sociales. Necesitamos la mayor comprensión que proporcionan los investigadores, los periodistas y el escrutinio público. Si Facebook no permite este acceso voluntariamente, es hora de que los legisladores lo exijan.

Por Laura Edelson, estudiante de doctorado en ciencias de la computación en la Escuela de Ingeniería Tandon de la Universidad de Nueva York, estudiante de comunicación política online y desarrolladora de métodos para identificar contenidos y actividades no auténticos y Damon McCoy, profesor asociado de informática e ingeniería en la Escuela Tandon de Ingeniería de la Universidad de Nueva York

Este artículo fue publicado originalmente por The Guardian


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022