O executivo Nicolas Robinson Andrade se apresentou nesta terça, 30, como o primeiro funcionário da OpenAI, criadora do ChatGPT, na América Latina, onde até então não havia representantes da empresa na região. Procurada, a OpenAI não respondeu.
Andrade entra no cargo de políticas públicas para a América Latina na OpenAI. O executivo trabalhava com relações governamentais na empresa de videoconferências Zoom desde janeiro de 2021. Antes disso, foi gerente de políticas públicas na Meta (dona do Facebook, Instagram e WhatsApp), iniciando em novembro de 2016.
”É um sinal de que o Brasil e o brasileiro têm muito interesse no ChatGPT e na inteligência artificial como um todo”, disse ele ao Estadão.
Antes, ele escreveu no LinkedIn: “Muito honrado de começar uma nova etapa liderando políticas públicas para OpenAI na América Latina. Como o primeiro funcionário da empresa na região, adoraria saber nos comentários sobre experiências e casos de uso interessantes do ChatGPT que você ou seus conhecidos tenham tido!”.
Nicolas Robinson Andrade estudou ciência política com relações internacionais na Universidade de Bath e na Universidade de Oxford, no Reino Unido — nessa última, fez mestrado em estudos latinoamericanos e em políticas públicas entre 2012 e 2014. Em seu perfil no LinkedIn, ele diz que é britânico, canadense e equatoriano.
A OpenAI é uma startup americana dedicada à área de inteligência artificial (IA), fundada por Sam Altman em 2015. Em novembro de 2022, a empresa lançou o robô de bate-papo ChatGPT, que permite gerar conversas fluidas por texto com o usuário e receber comandos específicos, como escrever artigos, conjuntos de códigos de programação, traduções, roteiros e outros formatos.
Regulamentação da inteligência artificial
A contratação de Andrade acontece em meio às discussões de regulamentação da inteligência artificial no Brasil. Parlamentares discutem o tema, ainda sem consenso sobre os termos nem projetos em tramitação nas Casas.
Em dezembro de 2023, após anos de negociações entre eurodeputados, a União Europeia (UE) definiu a proposta de regulamentação para IA no bloco, batizada de Lei de IA da UE (EU AI Act, em inglês). A peça de legislação abrange diversos tipos de inteligência artificial disponíveis no mercado, de algoritmos de redes sociais a sistemas de infraestrutura de cidades inteligentes e softwares de reconhecimento facial.
Para empresas como a OpenAI, a legislação europeia exige mais transparência no desenvolvimento dos algoritmos que abastecem os sistemas de inteligência artificial. Além disso, será exigido, por exemplo, que o material gerado por essas IAs (como textos e imagens) venham com marca d´água, indicando que aquele conteúdo foi gerado por uma máquina. A Lei de IA da UE deve entrar em vigor em 2025.
Leia também
Já o governo do presidente americano Joe Biden definiu algumas diretrizes sobre as quais devem atuar as empresas de tecnologia de inteligência artificial, em sua maior parte sediadas nos Estados Unidos. No projeto, desenvolvedores e empresas devem compartilhar com o governo os testes de seus sistemas, caso apresentem riscos à segurança nacional ou à saúde pública. Leia as diretrizes aqui.
A expectativa de especialistas brasileiros é que a legislação de regulamentação da IA do País tenha inspiração no projeto europeu, aos moldes do que ocorreu entre a Regulamento Geral sobre a Proteção de Dados (GDPR), aprovada na UE em 2016, e a Lei Geral de Proteção de Dados (LGPD), aprovada pelo governo brasileiro em 2018. / COLABOROU BRUNO ROMANI