O desenvolvimento da IA em 2024 precisa considerar suas implicações éticas; leia análise

Na série sobre o que esperar da inteligência artificial no próximo ano, a pesquisadora Nina da Hora alerta para o fato de que a tecnologia precisa estar fundamentada em princípios de justiça e equidade

PUBLICIDADE

Por Nina da Hora

Quando William Gibson escreveu ‘Neuromancer’ em 1984, ele pintou um futuro onde a inteligência artificial (IA), entrelaçada com o ciberespaço, não apenas desafiava os limites da realidade humana, mas também questionava a própria essência do que significa ser consciente e conectado. Seu mundo de IA onipresente e controladora, habitando uma realidade virtual intrincada, capturou a imaginação de uma geração, influenciando profundamente as percepções sobre o futuro da tecnologia. Esse retrato caótico de Gibson colaborou para as bases de uma narrativa persistente na cultura tecnológica: a ideia de que a inovação, especialmente no campo da IA, é sinônimo de controle. Em muitos aspectos, essa narrativa se enraizou profundamente no imaginário coletivo, influenciando como tanto o público quanto os desenvolvedores percebem a IA. A fascinação por sistemas autônomos capazes de operar independentemente, ou até mesmo sobrepor-se à vontade humana, reflete uma perspectiva onde o domínio tecnológico é frequentemente visto como o ápice da inovação.

Neste cenário acelerado de 2023, a sensação é de que estamos vivendo em um vídeo em velocidade 2.x, onde tudo acontece rapidamente, quase sem tempo para reflexão. Foi um ano emblemático, marcado pela “Corrida pela IA mais Geral”, onde empresas e instituições de pesquisa em todo o mundo competiram para desenvolver os modelos de IA mais avançados e versáteis. Neste frenesi de inovação, o passado parecia distante, quase esquecido, e o presente, um borrão em constante movimento. Testemunhamos uma proliferação (quase) impressionante de modelos de IA generativa. Cada lançamento se esforçou para expandir os limites do possível em termos de criatividade, eficiência e adaptabilidade. Modelos como o GPT-4 da OpenAI e o Bard do Google são exemplos emblemáticos dessa tendência, ambos refletindo a máxima de “lançar primeiro, corrigir depois”. Essa abordagem, embora eficaz em acelerar a indústria e o lucro, levanta questões significativas sobre a responsabilidade e a ética no desenvolvimento tecnológico.

Reconhecimento facial em espaço públicos foi banido na leia da UE para IA  Foto: Damir Sagolj/Reuters

PUBLICIDADE

Retornando ao início do artigo, essa dinâmica nos leva a uma reflexão crítica: até que ponto o desejo de controle, seja através de máquinas ou de outros meios, deve prevalecer sobre o bem-estar que deveríamos almejar para os outros? Esta questão nos conduz diretamente ao coração do debate sobre ética e regulação na IA. A complexidade dessa discussão reside na intersecção de múltiplos interesses e perspectivas. Por um lado, há a busca incessante por avanços tecnológicos que possam impulsionar o progresso humano de alguns humanos. Por outro, existe a necessidade imperativa de garantir que esses avanços sejam seguros e justos.

A regulação da IA avançou significativamente, especialmente na União Europeia, com a aprovação da “Lei da Inteligência Artificial” (EU AI Act). Esta lei categoriza sistemas de IA com base no risco que representam, variando de baixo a inaceitável. Por exemplo, sistemas de pontuação social e reconhecimento facial em tempo real foram classificados como de risco inaceitável. No Brasil, houve discussões sobre a regulação da IA, com o Projeto de Lei 2.338/2023 propondo a proteção dos direitos fundamentais em relação à IA, incluindo a necessidade de transparência e a proibição de discriminação.

A minha preocupação é com a falta de debate em torno da inteligência artificial geral (AGI) nas regulamentações atuais. A AGI, diferentemente das formas de IA mais específicas e limitadas que conhecemos hoje, propõe um modelo de inteligência artificial com habilidades cognitivas comparáveis às humanas. As implicações éticas de tal desenvolvimento são vastas e profundas, e a falta de discussão regulatória sobre este assunto é notável. A conexão entre as ideias subjacentes à AGI e os princípios do eugenismo é particularmente alarmante. O eugenismo, com seu histórico de buscar “melhorar” a composição genética da população, muitas vezes à custa de direitos humanos fundamentais, serve como um lembrete sombrio dos perigos de perseguir a “perfeição” sem considerar as implicações éticas. A preocupação aqui é se os mesmos erros conceituais podem ser inadvertidamente replicados na busca de uma IA perfeita ou superior.

Nina da Hora é cientista da computação e hacker antirracista Foto: Marcelo Chello / Estadão

Este cenário reforça a necessidade de uma mudança paradigmática no desenvolvimento da IA. Em vez de dar continuidade às raízes eugenistas, que focam em uma ideia distorcida de “aperfeiçoamento”, deve-se priorizar a inovação fundamentada nos princípios de justiça e equidade. Isso pode levar tempo, mas não estamos em uma ficção cientifica para congelar a passagem do tempo.

Nina da Hora é mestranda em IA pelo instituto de computação da Unicamp, diretora executiva do Instituto da Hora, cientista da computação e hacker antirracista

Publicidade

Comentários

Os comentários são exclusivos para assinantes do Estadão.