Trabalhar no Facebook realmente é o sonho de muita gente. Atraídos pelo ambiente diferenciado de uma grande companhia, muitos jovens se candidatam as vagas quando elas surgem. Porém, pode ser que nem tudo seja tão maravilhoso quanto imaginamos. Exemplo disso, um jovem relatou em uma matéria da BBC com era sua rotina como revisor de denúncias sobre violência e ódio através da plataforma.

O rapaz, que usa o nome fictício de Sérgio, diz que ele e outros 500 outros colegas do mundo todo tinham um cotidiano semelhante como o de um call center abusivo, ou seja, em seu escritório cada um deles era responsável por avaliar 3,5 mil fotos, vídeos e textos denunciados diariamente, com média de decisão a cada 8,5 segundos. "Eu via vídeos ao vivo para checar se alguém se mataria", conta à reportagem da BBC.

Ex-funcionário do Facebook revela cotidiano dos moderadores de conteúdo.
Ex-funcionário do Facebook revela cotidiano dos moderadores de conteúdo.

Sérgio, igualmente aos seus colegas de trabalho, precisou decorar uma série de normas sobre as publicações, já que cada país lida de forma diferente no que se refere a questões políticas e cultural. Tudo era exercitado constantemente sobre possíveis conteúdos envolvendo pedofilia, nudez, necrofilia, suicídios, assassinatos, assédios, ameaças, armas, drogas e violência animal, publicados em 10 idiomas.

Todo o processo acontecia em um local em que os celulares eram proibidos e as pausas para refeições e idas ao banheiro eram controladas, além de altas multas e ameaças de processos judiciais no caso de vazamento de informações.  "Era como um grande call center, sem os telefones. A gente estava ali para atender ao cliente: no caso, o Facebook e todos os seus usuários."

Os revisores utilizam uma linha alternativa da Linha do Tempo do Facebook para conseguirem examinar as denúncias, isso tudo somente com a publicação e o nome do autor, sem ter acesso ao perfil completo.

O material era apagado, ignorado ou mesmo enviado para avaliação de superiores, especialmente em casos de pedofilia e suicídio, já que estes casos envolvem investigação de autoridades.

Porém, um dos pontos diferenciais era de que os funcionários treinavam as máquinas para que elas ficassem cada vez mais ágeis no processo de reconhecimento do conteúdo violento ou de ódio. "Quanto mais ensinávamos o algoritmo, menos nos tornávamos necessários. Nosso trabalho era tornar o nosso trabalho obsoleto", conta à BBC.

"Ver conteúdos fortes todos os dias te faz perder a sensibilidade para certas coisas. Especialmente em relação à nudez - eram tantas selfies de gente nua, closes em pênis, vaginas e mamilos, que a pornografia perdeu a graça", relatou à BBC.

O Facebook, procurado pela BBC, disse que "não irá comentar" tais relatos. Vale mencionar que, recentemente, a rede social anunciou a contratação de 10 mil novos funcionários para exercerem a mesma de Sérgio.