Facebook: jornal revela regras de eliminação de conteúdos sensíveis

O jornal britânico The Guardian inspecionou mais de 100 manuais internos, tabelas e organogramas sobre o modo como o Facebook lida com temas sensíveis como: violência, discurso de ódio, terrorismo, pornografia, racismo e automutilação.
The Guardian front page, Monday 22.05.17 – Revealed: Facebook’s secret rules on sex, violence, hate speech and terror pic.twitter.com/8W3ZN4ck76
— The Guardian (@guardian) May 21, 2017
Os arquivos do Facebook ilustram as dificuldades que seus executivos enfrentam para reagir aos novos desafios da sociedade como, por exemplo, a “pornografia de vingança”. Muitos moderadores (aqueles que decidem o que pode ser ou não publicado) dizem estar sobrecarregados com o volume de trabalho – têm apenas 10 segundos para tomar a decisão de tirar ou não conteúdo.
Com mais de dois mil milhões de utilizadores, a empresa de Mark Zuckerberg permite, por exemplo, que pessoas transmitam, ao vivo tentativas de automutilação, justificando que “não quer censurar ou punir pessoas que já estão em perigo”.
Quanto a vídeos de mortes violentas, como o do tailandês que assassinou a filha e se suicidou, ou o de Steve Stephens, que assassinou um idoso, nos Estados Unidos da América, estes não têm de ser sempre apagados.
O Facebook estipula que podem ajudar a criar a consciência para questões como as doenças mentais.
O Facebook está, atualmente, sob forte pressão dos órgãos reguladores europeus e norte-americanos que pedem maior transparência.