Um engenheiro do Google foi afastado nesta segunda-feira de seu trabalho após reportar que o sistema de inteligência artificial LaMDA "ganhou vida". Blake Lemoine estava sendo responsável por testar evidências de discursos discriminatórios ou de ódio do LaMDA e durante sua conversa, o funcionário da gigante de buscas notou que parecia haver uma consciência própria ali. Após esta constatação, o vice-presidente do Google, Blaise Aguera, e Jen Gennai, chefe de Inovação Responsável, analisaram suas alegações e as rejeitaram colocando Blake em licença administrativa remunerada.

O Language Model for Dialogue Applications (LaMDA) é uma espécie de robô de bate-papo (chatbot) que utiliza inteligência artificial (IA) com modelos de linguagem avançados. Recentemente, não foi somente Blake Lemoine o único engenheiro do Google que afirmou ter visto "alguém" (real) por trás da máquina. Muitos acreditam que os modelos de IA não estão longe de obter uma consciência própria.

O que aconteceu para ocorrer o afastamento temporário

Na tentativa de testar se obtinha evidências de traços de discursos discriminatórios ou de ódio, Blake Lemoine começou a conversar com o LaMDA sobre religião. Em meio a troca de ideias, Blacke relatou, de acordo com o WashingtonPost, que:

Se eu não soubesse exatamente o que era, que é esse programa de computador que construímos recentemente, eu pensaria que era uma criança de 7 anos, 8 anos que por acaso conhece física.

Em outra conversa, Blake diz ter sido convencido a mudar de ideia sobre a terceira lei da robótica de Isaac Asimov. Entretanto, após ter relatado evidências de que o LaMDA estava apresentando traços de ter uma consciência própria, o Google acabou afastando-o do trabalho temporariamente. Ele diz:

Acho que essa tecnologia vai ser incrível. Acho que vai beneficiar a todos. Mas talvez outras pessoas discordem e talvez nós, no Google, não devêssemos fazer todas as escolhas.

Brian Gabriel, porta-voz do Google, diz em comunicado a respeito do posicionamento da empresa sobre o assunto que:

Nossa equipe - incluindo especialistas em ética e tecnólogos - revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou que as evidências não apoiam suas alegações. Ele foi informado de que não havia evidências de que o LaMDA fosse senciente (e muitas evidências contra isso).

O que você acha sobre este caso? Comente abaixo e compartilhe conosco a sua opinião!