Desde su postura sobre el contenido extremista, hasta sus vastas memorias caché de datos de usuarios, Facebook es una corporación cuyo poder, finalmente, debe ser controlado.
Después de que los trolls fueron enviar a la cárcel por enviar mensajes amenazantes a la activista Caroline Criado-Perez y MP Stella Creasy, se produjo un debate sobre si los gustos de Facebook y Twitter deberían clasificarse como plataformas o editores. Facebook se trata como si fuera simplemente un conducto de información, lo que significa que no es responsable del contenido que comparten sus usuarios, de la misma manera que BT no puede ser demandado cuando las personas hacen llamadas telefónicas amenazantes.
En 2014 Iain MacKenzie, un portavoz de Facebook, dijo, "Cada parte del contenido en Facebook tiene una opción de" informe "asociada que lo escala a su equipo de operaciones de usuario para su revisión. Además, los individuos pueden bloquear a cualquiera que los esté acosando, asegurando que no podrán interactuar más. Facebook aborda el comportamiento malicioso a través de una combinación de mecanismos sociales y soluciones tecnológicas apropiadas para una oportunidad en línea a gran escala ".
Pero la compañía es evasiva sobre la cantidad de moderadores que emplea, cómo funcionan y cómo se toman las decisiones. Ha comenzado a tomar una línea más firme en el contenido de extrema derecha - recientemente eliminar las primeras páginas de Gran Bretaña del sitio - pero todavía se resiste a muchos intentos legislativos para regular su contenido. El contenido que los usuarios ven luego lo decide un algoritmo que puede cambiar sin ninguna consulta, incluso con el gobierno o las empresas que dependen de Facebook para obtener ingresos, lo que significa que algunos pueden borrarse rápidamente del mapa. En febrero 2018 el sitio web Digiday informó en LittleThings, un sitio de cuatro años que cerró durante la noche después de que Facebook decidió priorizar las publicaciones de los usuarios sobre el contenido del editor. Cien empleos se perdieron.
[the_ad id = "11018 ″]Facebook no fue el único contribuyente a la desaparición de LittleThings, pero aquellos que trabajan en el sitio web dijeron que no había otro lugar a donde ir después del cambio de algoritmo. Y este no es el único ejemplo: en 2013 un cambio de algoritmo redujo a la mitad el tráfico del sitio web de contenido viral Upworthy, algo de lo que el sitio web tiene nunca se recuperó.
El impacto del dominio de Facebook significa que las publicaciones están constantemente luchando para mantenerse al día con la estrategia cambiante de la plataforma. El editor en jefe de Wired, Nick Thompson, dijo recientemente al Digiday podcast que había miedo "Facebook tiene un dial en algún lugar que se puede activar para cortar los medios que se vuelven demasiado optimistas".
Mucho se ha hecho del hecho de que Facebook crea "Burbujas de filtro". Ha sido criticado por priorizar el contenido que les gustará a los usuarios, lo que significa que hay menos diversidad en las noticias que la gente lee, y por no tomar medidas enérgicas contra la propaganda. De hecho, la nueva estrella de extrema derecha de Italia, Matteo Salvini, agradeció explícitamente a Facebook por contribuir al país. resultados de elecciones recientes.
Todo esto de una compañía que en 2016 solo pagó £ 5.1m en impuesto de sociedades sobre sus operaciones en el Reino Unido, a pesar de que las ganancias y los ingresos casi se cuadruplicaron debido al aumento de las ventas de publicidad. En diciembre de 2017, Facebook anunció que comenzaría a reservar ingresos por publicidad en los países donde se obtuvieron, en lugar de redirigirlos a través de Irlanda, aunque: como informó este periódico - es poco probable que la medida resulte en que pague muchos más impuestos ”. Esto a pesar de que Zuckerberg pidió a los gobiernos que comiencen a pagar ingreso básico universal para cada ciudadano como respuesta a la automatización, impulsada en parte por Silicon Valley.