A Apple anunciou nesta segunda-feira (9) que vai verificar a biblioteca de fotos dos usuários de iPhones com o objetivo de detectar conteúdos ligados a abuso infantil no iCloud. Com esse anúncio, a polêmica instalou-se no ar, já que muitas empresas e especialistas em segurança concordam que essa postura é uma invasão de privacidade e pode ser usada como bisbilhotagem. O WhatsApp, principal aplicativo de mensagens atualmente, se posicionou sobre o caso.

WhatsApp critica Apple por vasculhar fotos em iPhones

Will Cathcart, chefe executivo do WhatsApp, foi ao Twitter criticar a solução desenvolvida pela Apple que pretende vasculhar as fotos no iPhone e encontrar arquivos relacionados a pedofilia. Segundo ele, esta ferramenta é "repleta de problemas", e pode ser utilizada com más intenções, principalmente por governos.

Cathcart fez uma série de publicações na rede social, primeiro, com o objetivo de responder a solicitação de usuários que questionaram se o WhatsApp adotaria esta ferramenta da Apple. O chefe da plataforma foi afirmativo ao responder que o mensageiro não utilizará essa solução, justamente por defender o uso da segurança de privacidade protegida pela criptografia de ponta a ponta - um dos principais orgulhos do WhatsApp.

Ele ainda ressalta que o WhatsApp concorda que "conteúdos relacionados com abuso infantil (ou CSAM) devem ser combatidos", mas acredita que a abordagem da Apple de criar um leitor de arquivos para identificar conteúdo ilegal é "preocupante" e vai além do que é realmente necessário para promover a segurança.

Leitor da Apple pode ser usado por governos

O head do WhatsApp ainda afirma que, por ser um sistema da Apple, o leitor de arquivos precisaria se ajustar conforme a legislação de cada país em que for implementado:

"Esse é um sistema de vigilância operacional que poderia facilmente ser usado para escanear conteúdo privado para detectar qualquer coisa que eles mesmos ou um governo quiser controlar. Países onde iPhones são vendidos terão definições diferentes do que é aceitável."

Assim, os governos, como a China por exemplo, podem utilizar o scanner da Apple de forma indevida do scan feito pela Apple, e assim bisbilhotar outras entidades governamentais e usuários. Um caso recente disso são os backdoors utilizados em apps do iPhone, como o Fotos e o iMessage, que foram exploradas pelo spyware Pegasus para monitorar o celular de jornalistas, ativistas e até chefes de estado.

O que a Apple diz?

A Apple mantém a postura dizendo que a ferramenta é segura e preserva a identidade privada de seus consumidores. Para garantir isso, a fabricante salienta que o leitor não armazena informações de arquivos comuns e as chances de sinalizar material incorretamente são de "1 em 1 trilhão".

Como isso funciona?

A ferramenta é composta por um scanner que lê as informações fornecidas pela imagem e, com base em um banco de códigos fornecido pelo Centro Nacional para Crianças Desaparecidas e Exploradas dos EUA, consegue comparar se o arquivo contém o hash comum com conteúdos relacionados ao abuso infantil - tudo isso antes da foto ser enviada ao iCloud.

Se for identificado os códigos na imagem disponível no iPhone do usuário, o scanner então codifica o resultado como positivo. Neste caso, a Apple afirma que um único caso não determinará alguma restrição ou consequência ao usuário, e que não pode ter acesso a esse resultado até que o usuário do iCloud ultrapasse um limite de ocorrências. Até o momento, a empresa não definiu qual este limite.

Fonte: Mashable