Nicholas Agar, um especialista em ética da Universidade Victoria Wellington, dá um aviso: a IA futura pode se vingar das pessoas pelo jeito que tratamos os robôs atualmente.
“Talvez nosso comportamento em relação à IA que não sente hoje deva ser impulsionado pela maneira como esperamos que as pessoas se comportem em relação a qualquer IA senciente futura que possa sentir, que possa sofrer”, escreveu Agar em um ensaio para o The Conversation publicado na terça-feira. “Como poderíamos esperar que as futuras máquinas sencientes reajam a nós?”
Diversos produtos da ficção científica, de livros a filmes como “Westworld”, “Exterminador do Futuro” e “Blade Runner”, retratam como a resposta desses robôs podem ser agressivas por os tratarmos mal no passado.
De acordo com Agar, portanto, devemos parar de xingar a Alexa ou sistemas que nos ouvem e nos atendem.
“Se vamos fazer máquinas com capacidades psicológicas humanas, devemos nos preparar para a possibilidade de que elas se tornem conscientes”, escreveu Agar. “Então, como elas vão reagir ao nosso comportamento em relação a elas?”
Essa questão levanta um discussão de como os humanos tratam outros seres (e até eles mesmos).
Algumas pessoas que defendem bordéis de robôs, po exemplo, dizem que as pessoas com tendências violentas podem agir com seus impulsos sem ferir ninguém. Outros acreditam que isso pode dar um gosto por violência que essa gente busca em pessoas reais.
Agar compara a situação com o fato dos seres humanos matarem por pele ou recursos, como o marfim dos chifres de espécies ameaçadas. As pessoas têm tendências de agir violentamente em relação aos seus inferiores.
“Os animais não podem se vingar”, argumentou ele. “Mas as máquinas sencientes podem”.