No experimento mais recente de "segmentação de palavras-chave que deu errado", a BBC conseguiu usar termos como "neonazista" e "supremacia branca" em uma campanha de publicidade no Twitter, apesar da política da plataforma de mídia social de que os anunciantes "podem não selecionar palavras-chave que segmentam categorias sensíveis".

De acordo com as políticas do Twitter, essas categorias sensíveis incluem dados genéticos ou biométricos, saúde, prática de um crime, vida sexual, afiliação ou crenças religiosas e origem racial ou étnica, entre outras.

A BBC publicou um anúncio e diz que foi capaz de atingir usuários interessados ​​nas palavras "supremacia branca", "transfóbica" e "anti-gay", entre outros. Não ficou claro se a BBC estava tentando alcançar usuários interessados ​​nesses termos (como na pesquisa) ou pessoas que se identificaram como tal, apenas observando que "o Twitter permite que os anúncios sejam direcionados aos usuários que postaram ou pesquisaram por tópicos específicos".

O anúncio, que custou cerca de US$5, ficou em exibição apenas por algumas horas, segundo a BBC, durante o qual 37 pessoas o viram e duas pessoas clicaram nele. Uma segunda versão do anúncio foi direcionada a usuários de 13 a 24 anos usando "anorexia", "anoréxica", "bulimia" e "bulímica" como palavras-chave. Foi visto por 255 usuários com 14 cliques antes da própria BBC encerrar o anúncio. Mas, de acordo com a ferramenta do Twitter, tinha potencial para atingir 20.000 pessoas.

Em uma declaração o Twitter parece sugerir que as palavras testadas pela BBC podem não estar na sua lista de palavras sensíveis:

"O Twitter possui políticas específicas relacionadas à segmentação por palavras-chave, que existem para proteger a conversa pública. As medidas preventivas incluem a proibição de certos termos sensíveis ou discriminatórios, que atualizamos continuamente. Nesse caso, alguns desses termos foram permitidos para fins de segmentação. Isso foi um erro. Lamentamos o ocorrido e, assim que fomos informados sobre o problema, o corrigimos."

A empresa afirma que continua aplicando suas políticas de anúncios, "incluindo a restrição da promoção de conteúdo em uma ampla variedade de áreas, incluindo conteúdo inadequado direcionado a menores".

A segmentação de anúncios em plataformas de mídia social está sob análise minuciosa e frequente, levantando questões sobre o potencial de discriminação. A ProPublica descobriu que era possível exibir anúncios no Facebook que essencialmente discriminavam grupos protegidos pela lei federal. Em 2018, o The Guardian descobriu que os anúncios do Facebook poderiam ser usados ​​para segmentar usuários com base em tópicos sensíveis, o que viola as leis de privacidade implementadas na Europa.

O fato é, por mais que se tente criar ferramentas para automatizar análises de conteúdo, as variáveis são tantas que sempre haverão palavras que passarão pelos sistemas verificadores. Esses sistemas estão lá para auxiliar, mas definitivamente isso prova que a necessidade da interação humana está longe de ser descartada.