A tecnologia, como bem sabemos, possui seu lado positivo e também o negativo. Em alguns casos, como veremos a seguir, ainda não temos certeza em qual opção se enquadra, já que, caso caia em mãos erradas, a situação poderá se tornar caótica.

As forças armadas dos Estados Unidos revelou que está desenvolvendo os primeiros drones que são capazes de identificar e atingir veículos e também pessoas através da inteligência artificial. Em suma, a tecnologia será capaz de identificar o alvo sem qualquer envolvimento humano.

Militares estão desenvolvendo drones que podem decidir quem matar.
Militares estão desenvolvendo drones que podem decidir quem matar.

Os drones, assim que estiverem prontos, certamente serão alvo de muitos embates, principalmente no quesito legalidade e ética da tecnologia, já que as máquinas serão capazes de decidir quem devem matar, sem envolvimento humano.

Vale mencionar que, atualmente, existem drones que necessitam a operação de humanos, que possuem responsabilidade ética, legal e operacional sobre a decisão de disparar ou não em um alvo. No entanto, uma máquina decidir isso poderia mudar toda a conversa e, certamente, o embate seria maior.

Além da falta de responsabilizar um extermínio de civis inocentes em um erro operacional, também entra a discussão das emoções humanas relacionadas aos julgamentos e ética. Traumas mentais e estresse pós-traumático (TEPT) entre operadores de drones mostra o impacto psicológico causado no abate remoto. Segundo Ronald Arkin, tal risco seria eliminado com o disparo feito por máquinas.

Além de toda questão sobre a questão psicológica envolvida nisso tudo das partes envolvidas, entra a questão de uma possível guerra desumanizada. Neste último quesito, o modo de agir mudaria os complexos processos de decisão para disparar em um alvo. Toda a responsabilidade, no entanto, ficaria a cargo dos pesquisadores e cientistas que desenvolvera a tecnologia.

Esse tipo de tecnologia usaria Algoritmos de autoaprendizagem, que devem melhorar com o tempo. Assim, no caso dos drones letais, alguém deverá decidir qual é o estágio aceitável de desenvolvimento, ou seja, o quanto ele ainda necessita aprender, e ainda os seus limites.

Em relação a inteligência artificial, Elon Musk, já disse que a Ais são uma ameaça maior do que a Coreia do Norte:

"A 3º Guerra Mundial pode ser iniciada não pelos líderes dos países, mas por uma IA que decida que um ataque preventivo seja o caminho mais provável para a vitória em caso de conflito."

"A não ser que a gente aprenda como se preparar para, e evitar, os riscos em potencial, a IA pode ser o pior evento da história da nossa civilização. Ela traz perigos, como poderosas armas autônomas ou novas maneiras de poucos oprimirem muitos. Ela pode trazer uma grande ruptura para nossa economia", disse Stephen Howking um pouco antes da sua morte.

Bom, agora fica a pergunta: O que a inteligência artificial realmente será benéfica para a humanidade?