Oficina da Net Logo

Facebook diz que removeu 8,7 milhões de posts de exploração infantil com inteligência artificial

A nova tecnologia verifica postagens sobre nudez infantil e ainda outros conteúdos em que é encarregada.

Por | @oficinadanet Facebook Pular para comentários

Nesta semana, o Facebook revelou que removeu 8,7 milhões de conteúdos que violam as regras contra exploração infantil da rede social, e tudo isso deve-se a uma nova tecnologia. A tecnologia de Inteligência Artificial e aprendizado de máquina, que foi implantada no ano passado pela companhia, foi responsável pela remoção de 99% de tais posts, disse Antigone Davis, chefe global de segurança do Facebook, através de um blog.

A nova tecnologia verifica postagens sobre nudez infantil e ainda outros conteúdos em é encarregada. Caso necessário, fotos e relatos são direcionados ao Centro Nacional para Crianças Desaparecidas e Exploradas.

Facebook diz que removeu 8,7 milhões de posts de exploração infantil com inteligência artificial.Facebook diz que removeu 8,7 milhões de posts de exploração infantil com inteligência artificial.

A rede social de Mark Zuckerberg já vinha explorando a tecnologia de correspondência de fotos para conseguir comparar fotos recém-enviadas com imagens já conhecidas de exploração infantil e pornografia de vingança. Agora, as novas ferramentas ajudam a impedir que o conteúdo não identificado possa ser disseminado através da plataforma. Leia em destaque: Como baixar vídeos do Facebook sem programas [ATUALIZADO 2018].

De qualquer modo, a tecnologia ainda não é perfeita, sendo que muitos pais reclamaram que as fotos de seus filhos foram removidas, mesmo que elas não fossem consideradas explicitamente impróprias.

Através do post, Davis disse que com a finalidade de "evitar até mesmo o potencial de abuso, tomamos medidas sobre conteúdo não sexual, bem como fotos aparentemente benignas de crianças no banho" e que tal “abordagem abrangente” é uma das razões da remoção de tantos conteúdos.

Como podemos perceber, o uso da IA pode ser bastante útil também aos trabalhadores. Para recordar, recentemente, uma ex-moderadora de conteúdo do Facebook processou a empresa alegando que a exibição de milhares de imagens violentas fez com que ela desenvolvesse transtorno de estresse pós-traumático.

Outros funcionários responsáveis pela operação também comentam sobre os abalos psicológicos do emprego e ainda citam que o Facebook não oferece qualquer tipo e treinamento, apoio ou compensação financeira.

Comentários
Carregar comentários