Já perdi a conta de quantas vezes ouvi a frase "os robôs vão dominar o mundo". Seja em palestras, aulas, rodas de conversa com amigos ou que for. O avanço cada vez mais rápido da tecnologia faz com que as pessoas acreditem que seja possível perder o controle para máquinas.

Mas será que isso realmente pode acontecer? Levando em consideração a Inteligência Artificial - e, portanto, máquinas que pensam sozinhas - a maioria das pessoas diz que sim.

Já eu digo que não. Neste artigo vou tentar explicar mais ou menos esse raciocínio, mas claro, não existe uma verdade absoluta - essa é apenas uma opinião.

Como funciona a IA

O primeiro passo para entender meu raciocínio é entender como funciona a Inteligência Artificial. Lembro quando compareci a um evento da NVIDIA sobre soluções em IA para iniciantes e grandes empresas, em junho deste ano.

Lá, explicaram como funcionava a IA de um jeito bastante fácil de entender - o que me deu ainda mais convicção sobre a minha opinião.

Inteligência Artificial funciona em duas fases: programação e reprodução.
Inteligência Artificial funciona em duas fases: programação e reprodução.

A Inteligência Artificial funciona em duas fases. A primeira consiste em ensinar a máquina o que ela precisa fazer. Para isso, um ser humano precisa passar certo tempo programando, editando e editando mais uma vez até chegar ao seu objetivo. São inúmeras linhas de códigos que são desenvolvidas e passadas à máquina para que ela execute o que a pessoa deseja.

Já a segunda fase consiste em reprodução. Após aprender tudo que poderia, a máquina reproduz aquilo que o ser humano ensinou - só que, dependendo do dispositivo, sem a necessidade de ser acionado por um humano.

Siri, Alexa e Google Assistente precisam de seres humanos para executarem suas ações.
Siri, Alexa e Google Assistente precisam de seres humanos para executarem suas ações.

Vamos usar como exemplo a Siri, a Alexa ou o Google Assistente. Para que nosso dispositivo consiga ligar para determinado contato, por exemplo, um ser humano introduziu no sistema um código que, ao detectar as palavras "ligar" e o nome da pessoa, o dispositivo deve executar aquela ação.

O mesmo serve para enviar mensagens, abrir um aplicativo, mudar de música ou que seja. Inclusive, essa técnica de ensinar os assistentes virtuais foi bastante discutida em 2019 - já que Apple, Amazon e Google tem funcionários que escutam tudo que é dito às assistentes para ensinar os comandos às máquinas - mas esse é assunto pra outro artigo.

O ponto é que sempre há a necessidade de um ser humano.

Máquinas independentes?

E então eu te pergunto: se sempre há a necessidade de um ser humano programar linhas e linhas de códigos para então a máquina reproduzir, terá como a máquina ser 100% independente?

Será possível criar robôs que são 100% independentes de humanos?
Será possível criar robôs que são 100% independentes de humanos?

Claro que neste contexto eu penso somente em pessoas que vão programar uma máquina para fins inofensivos e no domínio da sociedade como robôs governando países. Mas de qualquer forma, será possível desenvolver uma máquina que pense exatamente como um ser humano e consiga tomar decisões - e se programar - sozinha?

Ao meu ver, não. Para que as máquinas se revoltem e dominem a sociedade, seria preciso que elas de fato pensassem como pessoas. Seria preciso criar um humano do zero a partir de linhas de código e fazer com que essas "pessoas artificiais" tivessem vontades próprias.

Em outras palavras, seria preciso criar consciência a partir de uma linha de códigos e introduzir em uma máquina.

Claro que essas são apenas especulações. Não existe certo ou errado até o momento, apenas crenças. O que eu creio, portanto, é que os robôs não vão dominar o mundo.

Robôs não devem dominar o mundo.
Robôs não devem dominar o mundo.

Eles podem dominar algumas áreas, substituir os humanos em algumas atividades específicas, mas de fato governar e mandar em pessoas acho que é pouco provável.

E você? O que acha do assunto?