• Desde hace tiempo Facebook y otras plataformas digitales buscan combatir la propagación de mensajes extremistas

  • En total fueron 7 los perfiles que la red social dio de baja

  • El objetivo sería proteger la reputación de Facebook y proyectar una imagen de mayor seguridad tanto para usuarios como para anunciantes

No es nuevo que Facebook emprenda acciones para buscar proyectar una imagen positiva hacia los usuarios y anunciantes, pero pocas veces se ha atrevido a hacer anuncios sobre el cierre de ciertos perfiles que incumplen con sus políticas.

Las redes sociales y, casi todas las plataformas digitales se han vuelto escenarios esenciales para la vida diaria de millones de personas debido a que en ellas se puede socializar, establecer redes profesionales o de negocios, incluso para esparcimiento. Sin embargo, también se han convertido en espacios para expresar temas muy sensibles como el odio, racismo, el acoso o bullying.

Esto es algo que las diferentes plataformas han intentado combatir, como la de Menlo Park.

La lista negra

Esta semana Facebook dio a conocer que cerró siete cuentas consideradas ‘peligrosas’ por el tipo de contenido que publicaban, calificado como de ultra derecha.

Al respecto, la red social co-fundada por Mark Zuckerberg dijo en un mensaje citado por varios medios que: “Siempre hemos prohibido a las personas u organizaciones que promueven la violencia y el odio, independientemente de su ideología”.

En concreto, los perfiles dados de baja son: el del sitio Infowars, una compañía de medios y el de su director Alex Jones, dedicados a difundir noticias de conspiración de extrema derecha -ambos ya habían sido bloqueados en 2018-. En estos casos también fueron eliminados de Instagram.

Asimismo, las páginas de Louis Farrakhan, cuya retórica ha sido llamada antisemita y homofóbica; Laura Loomer, personalidad de los medios de comunicación que ha sido acusada de vender teorías de conspiración de la extrema derecha; Paul Nehlen, un ex candidato al Congreso que también ha sido calificado como antisemita; así como Paul Joseph Watson y Milo Yiannopoulos, también de medios -en estos casos británicos- considerados de derecha.

Aunque Facebook no reveló las razones exactas por las cuales determinó eliminar estas cuentas, sí explicó que fue después de un periodo de revisión, en el que analizaron su comportamiento tanto dentro de las redes sociales como fuera de ellas.

Cuestión de reputación y brand safety

Tanto Facebook como otras plataformas -Twitter, Google y YouTube- llevan al menos un par de años intentando combatir la presencia de publicaciones con temas sensibles como el odio, racismo, el acoso o bullying.

Como mencionamos hace unos párrafos, Infowars y Alex Jones fueron bloqueados de las plataformas antes mencionadas, así como por Apple y Spotify debido a que se le atribuye la propagación de fake news y contenidos de extremistas.

Esto es algo que han buscado combatir, en particular Facebook que sigue luchando por restablecer la reputación corporativa y de marca, así como la confianza de los usuarios.

Al final, se acerca un nuevo periodo electoral en Estados Unidos y estos son temas que están bajo la lupa de las autoridades, los medios y la sociedad en general.

Recordemos que, de acuerdo con el informe Approaching de Future 2018, elaborado por Corporate Excellence y Canvas, las fake news tienen un impacto negativo al nivel que la reputación de marca, corporativa e institucional se ha convertido en un intangible complejo de gestionar.

Esto inexorablemente tendría un impacto en los negocios de Facebook, pues los anunciantes buscarán ser más cuidados en cuanto al tema del brand safety con el objetivo que sus anuncios no estén relacionado o ubicados en perfiles o páginas de este tipo, sobre todo considerando antecedentes como los ocurridos con YouTube en más de una ocasión.