Já perdi a conta de quantas vezes ouvi a frase "os robôs vão dominar o mundo". Seja em palestras, aulas, rodas de conversa com amigos ou que for. O avanço cada vez mais rápido da tecnologia faz com que as pessoas acreditem que seja possível perder o controle para máquinas.
Mas será que isso realmente pode acontecer? Levando em consideração a Inteligência Artificial - e, portanto, máquinas que pensam sozinhas - a maioria das pessoas diz que sim.
Já eu digo que não. Neste artigo vou tentar explicar mais ou menos esse raciocínio, mas claro, não existe uma verdade absoluta - essa é apenas uma opinião.
Como funciona a IA
O primeiro passo para entender meu raciocínio é entender como funciona a Inteligência Artificial. Lembro quando compareci a um evento da NVIDIA sobre soluções em IA para iniciantes e grandes empresas, em junho deste ano.
Lá, explicaram como funcionava a IA de um jeito bastante fácil de entender - o que me deu ainda mais convicção sobre a minha opinião.
A Inteligência Artificial funciona em duas fases. A primeira consiste em ensinar a máquina o que ela precisa fazer. Para isso, um ser humano precisa passar certo tempo programando, editando e editando mais uma vez até chegar ao seu objetivo. São inúmeras linhas de códigos que são desenvolvidas e passadas à máquina para que ela execute o que a pessoa deseja.
Já a segunda fase consiste em reprodução. Após aprender tudo que poderia, a máquina reproduz aquilo que o ser humano ensinou - só que, dependendo do dispositivo, sem a necessidade de ser acionado por um humano.
Vamos usar como exemplo a Siri, a Alexa ou o Google Assistente. Para que nosso dispositivo consiga ligar para determinado contato, por exemplo, um ser humano introduziu no sistema um código que, ao detectar as palavras "ligar" e o nome da pessoa, o dispositivo deve executar aquela ação.
O mesmo serve para enviar mensagens, abrir um aplicativo, mudar de música ou que seja. Inclusive, essa técnica de ensinar os assistentes virtuais foi bastante discutida em 2019 - já que Apple, Amazon e Google tem funcionários que escutam tudo que é dito às assistentes para ensinar os comandos às máquinas - mas esse é assunto pra outro artigo.
O ponto é que sempre há a necessidade de um ser humano.
Máquinas independentes?
E então eu te pergunto: se sempre há a necessidade de um ser humano programar linhas e linhas de códigos para então a máquina reproduzir, terá como a máquina ser 100% independente?
Claro que neste contexto eu penso somente em pessoas que vão programar uma máquina para fins inofensivos e no domínio da sociedade como robôs governando países. Mas de qualquer forma, será possível desenvolver uma máquina que pense exatamente como um ser humano e consiga tomar decisões - e se programar - sozinha?
Ao meu ver, não. Para que as máquinas se revoltem e dominem a sociedade, seria preciso que elas de fato pensassem como pessoas. Seria preciso criar um humano do zero a partir de linhas de código e fazer com que essas "pessoas artificiais" tivessem vontades próprias.
Em outras palavras, seria preciso criar consciência a partir de uma linha de códigos e introduzir em uma máquina.
Claro que essas são apenas especulações. Não existe certo ou errado até o momento, apenas crenças. O que eu creio, portanto, é que os robôs não vão dominar o mundo.
Eles podem dominar algumas áreas, substituir os humanos em algumas atividades específicas, mas de fato governar e mandar em pessoas acho que é pouco provável.
E você? O que acha do assunto?
😕 Poxa, o que podemos melhorar?
😃 Boa, seu feedback foi enviado!
✋ Você já nos enviou um feedback para este texto.