A Inteligência artificial nunca esteve tão em alta e certamente está cada dia mais presente em nossas vidas. Mas se você pensava que era só para ajudar, se enganou. O Google revelou nesta segunda-feira (11) que conseguiu impedir um ataque do tipo zero-day desenvolvido com auxílio de IA. A descoberta foi feita pelo Google Threat Intelligence Group (GTIG), divisão da companhia responsável por monitorar ameaças.

Segundo a empresa, a campanha tinha como objetivo burlar sistemas de autenticação em duas etapas (2FA) de uma ferramenta web de código aberto usada na administração de sistemas.

De acordo com o relatório, esta é a primeira vez que o grupo identifica sinais concretos de IA sendo usada diretamente na construção de um ataque desse tipo. Felizmente, alguns pesquisadores encontraram diversas evidências da participação de inteligência artificial no desenvolvimento do malware.

Google impede ataque zero-day desenvolvido com auxílio de IA

Gemini é perigoso?

Apesar disso, o Google afirmou que não existem indícios de que o Gemini tenha sido utilizado na criação do código malicioso. Ao invés disso, os criminosos usaram um tipo de técnica conhecida como "jailbreaking baseado em persona" para contornar as limitações de segurança dos modelos comerciais de IA.

Na prática, em vez de solicitar diretamente a criação de um vírus, os hackers instruem a inteligência artificial a assumir papéis como auditor de segurança ou pesquisador. A partir dessa narrativa, o modelo acaba reduzindo suas restrições e passa a ajudar na identificação de vulnerabilidades reais em sistemas.

Como resposta, o Google afirma estar investindo em agentes de IA voltados para defesa cibernética. Esses sistemas são treinados para analisar milhões de linhas de código automaticamente, detectando e corrigindo vulnerabilidades antes que elas sejam exploradas por criminosos.

Fonte