Foto do(a) page

Conheça o Espaço Aberto na editoria de Opinião do Estadão. Veja análises e artigos de opinião em colunas escritas por convidados e publicadas pelo Estadão.

Opinião | GPT-4: desafios éticos e urgência de uma regulação

O avanço dos sistemas de inteligência artificial exige um compromisso rigoroso com a responsabilidade social e a equidade

Por Newton De Lucca e Selma Carloto

O avanço acelerado das tecnologias de Inteligência Artificial (IA), especialmente dos modelos de linguagem como o GPT-4, suscita questões éticas e sociais de alta relevância. Esses sistemas permeiam várias áreas, e suas consequências transcendem a área técnica, alcançando a ética e a filosofia da tecnologia. Sam Altman, CEO da OpenAI, admitiu ter “um pouco de medo” de que essa tecnologia seja usada para “desinformação em grande escala ou ataques cibernéticos”. Em apoio a essa preocupação, uma carta assinada por especialistas e líderes do setor alerta sobre a “corrida descontrolada” dos laboratórios para desenvolver sistemas cada vez mais potentes, que “nem mesmo seus criadores podem entender, prever ou controlar de forma confiável”.

Essa carta, assinada no dia 22 de março de 2023 por mais de 1.300 renomados especialistas e líderes do Vale do Silício e do meio acadêmico, incluindo Elon Musk, Steve Wozniak e Yuval Harari, expressa preocupações profundas com a velocidade e os riscos inerentes ao desenvolvimento de sistemas de IA avançada, como o GPT-4. O documento alerta que, ao atingirem níveis de inteligência comparáveis aos humanos, esses modelos podem representar ameaças significativas para a humanidade, dado seu potencial de gerar transformações irreversíveis e de larga escala. Segundo os signatários, a ausência de um planejamento e de uma governança adequados para o avanço dessas tecnologias expõe todos a mudanças sem precedentes na história da vida na Terra, com consequências quiçá irreversíveis.

Em resposta a essas preocupações, os autores da carta propuseram moratória de seis meses no desenvolvimento de IAs de última geração, com o intuito de criar um espaço de reflexão ética e social sobre essa expansão acelerada. No entanto, a maioria dos laboratórios optou por seguir adiante, justificando suas ações pelo compromisso com a inovação e a competitividade. Essa decisão provocou intensos questionamentos sobre o papel da IA em decisões que afetam diretamente indivíduos e a estrutura social, ressaltando a necessidade urgente de uma regulação ética e responsável para equilibrar o progresso tecnológico com a preservação dos valores humanos fundamentais.

A potência do GPT-4 reside não apenas em sua estrutura, mas em como processa e projeta informações, influenciando percepções e valores éticos. Ele utiliza transformadores, uma arquitetura que permite processar e gerar linguagem de forma natural e que, com treinamento em grandes volumes de dados, identifica padrões, produzindo respostas que simulam interações humanas.

Embora os avanços da IA sejam inquestionáveis, esses sistemas são alimentados por dados frequentemente permeados de vieses históricos, capazes de replicar preconceitos estruturais. Em áreas nas quais decisões automatizadas influenciam diretamente a vida das pessoas, isso se torna crítico, pois há o risco de reforçar discriminações passadas, injustiçando grupos minoritários. Assim, um dos maiores perigos desses modelos é operar sem compreensão de justiça ou equidade, perpetuando injustiças e endossando vieses indevidamente. Esse cenário destaca a urgente necessidade de responsabilidade ética por parte de desenvolvedores e reguladores, uma vez que o uso de algoritmos em decisões automatizadas pode institucionalizar injustiças sob o pretexto de eficiência, permitindo que distorções históricas se consolidem de forma camuflada.

A IA deve ser fundamentada em princípios de transparência e equidade, com monitoramento constante dos dados utilizados em seu treinamento para assegurar conformidade com critérios de justiça e inclusão. A clareza nas decisões automatizadas requer auditoria e compreensão por parte de seres humanos responsáveis, permitindo a identificação e correção de vieses. Esse acompanhamento deve ser rigoroso e avançar no mesmo ritmo dos progressos tecnológicos.

O progresso ético da IA exige regulamentação responsável. Modelos de última geração como o GPT-4 têm o poder de transformar a sociedade, mas essa mudança deve ser orientada por valores que assegurem benefícios coletivos, evitando sua concentração em elites ou corporações.

Uma governança responsável permitirá equilibrar ética e inovação, garantindo que o potencial da IA se concretize sem comprometer direitos humanos. Para isso, desenvolvedores, reguladores, legisladores e sociedade civil devem unir esforços para estabelecer diretrizes que promovam inclusão e justiça. O avanço dos sistemas de IA exige um compromisso rigoroso com a responsabilidade social e a equidade. Somente com uma estrutura sólida será possível moldar uma IA que atue como verdadeiro vetor de inclusão e progresso, em vez de perpetuar desigualdades.

*

SÃO, RESPECTIVAMENTE, PROFESSOR TITULAR SÊNIOR DA FACULDADE DE DIREITO DA USP, PROFESSOR EMÉRITO DA UNINOVE, EX-PRESIDENTE DO TRIBUNAL REGIONAL FEDERAL DA 3.ª REGIÃO; E PROFESSORA AUTORA DE PROTEÇÃO DE DADOS DA FGV DIREITO RIO, PÓS-DOUTORA EM DIREITO PELA UFRGS, DOUTORA EM ENGENHARIA DA INFORMAÇÃO, IA, PELA UFABC.

Opinião por Newton De Lucca

Professor titular sênior da Faculdade de Direito da USP, professor emérito da Uninove, foi presidente do Tribunal Regional Federal da 3.ª Região

Selma Carloto

Professora autora de Proteção de Dados da FGV Direito Rio, é pós-doutora em Direito pela UFRGS e doutora em Engenharia da Informação, IA, pela UFABC