
A recente decisão do Google de permitir a inteligência artificial na produção e operação de armas, sistemas de vigilância e produtos potencialmente nocivos a seres humanos alimentou o velho medo de a humanidade ter que enfrentar máquinas superinteligentes criadas para sua destruição. Mas qual a chance de isso sair da ficção e se tornar uma ameaça real?
Estamos distantes disso, mas as preocupações são legítimas. Figuras proeminentes no campo da IA, como os pesquisadores Geoffrey Hinton e Yoshua Bengio, já expressaram apreensão quanto à possibilidade de uma superinteligência artificial "rebelar-se". O paralelo com a Skynet, o sistema militar que se volta contra os humanos em "O Exterminador do Futuro", é inevitável diante do desenvolvimento de sistemas autônomos de combate.
O ponto central do debate é que se trata de armas, produtos cujas únicas funções são destruir e matar. Automatizá-las pode levar a erros fatais, brutalizando ainda mais a guerra, com toda sua complexidade e imprevisibilidade, violando princípios do Direito Internacional. Isso se torna especialmente perigoso em regimes autoritários e com alta tecnologia, que podem usar isso para se impor sobre outros países.
Para minimizar a chance de as coisas darem errado, uma regulamentação internacional deve ser criada, proibindo armas totalmente autônomas e exigindo supervisão humana em decisões letais, além de permitir auditorias independentes. O problema é que militares não reagem bem a isso, e muitos países ignorariam essas regras.
- Assine gratuitamente minha newsletter sobre IA, experiência do cliente, mídia e transformação digital
- Inscreva-se no meu podcast (escolha a plataforma): Spotify, Deezer, Apple Podcasts ou Soundcloud
O risco aumenta com a busca pela superinteligência artificial. Se chegarmos a "máquinas conscientes", elas podem desenvolver instintos de autopreservação, até impedindo seu desligamento caso humanos entendam que estão tomando decisões ruins. Foi isso que fez a fictícia Skynet se rebelar. Contudo, isso exige níveis de subjetividade e intencionalidade muito longe das IAs atuais.
O debate sobre o desenvolvimento da IA militar reflete uma profunda divisão filosófica nessa indústria. Há os "altruístas eficazes", que defendem uma abordagem cautelosa, enfatizando a necessidade de salvaguardas éticas e controles rigorosos. Em contraste, os "aceleracionistas eficazes" adotam uma postura mais radical, chegando ao ponto de defender a possível extinção da humanidade como uma evolução natural do progresso tecnológico. Para muita gente, esse último ponto é, no mínimo, absurdo! Mas essa divergência reflete a complexidade do desafio que enfrentamos.
A perspectiva de uma máquina com superinteligência artificial permanecer submissa ao controle humano fica cada vez mais improvável. Quando atingir uma inteligência significativamente superior à nossa, seria ingênuo esperar que continue seguindo comandos humanos que considere "ruins". Sua capacidade de autoaperfeiçoamento e autonomia tornaria praticamente impossível mantê-la sob controle efetivo.
Valendo-me novamente da ficção, a história do policial Alex Murphy, em "RoboCop", oferece um contraponto interessante. A preservação da sua humanidade, com emoções, memórias e valores, foi crucial para o sucesso ao se tornar um ciborgue. Ele superava sua programação quando necessário, mantendo a ética para a proteção dos inocentes. Isso sugere que qualquer desenvolvimento de IA militar deve priorizar a integração de valores humanos fundamentais.
O verdadeiro desafio não está, portanto, em impedir o avanço dos militares sobre a IA, uma tarefa provavelmente impossível e contraproducente, mas em garantir que esse desenvolvimento preserve e proteja os interesses fundamentais da humanidade. As lições da ficção científica e as advertências dos especialistas indicam os perigos a serem evitados. Resta saber se teremos sabedoria coletiva para aprender com esses avisos antes que a ficção se torne uma realidade perturbadora.
Vídeo relacionado: