Um acordo voluntário entre a Casa Branca e sete companhias americanas de inteligência artificial foi firmado nesta sexta-feira, 21. O objetivo do encontro foi forçar um comprometimento dessas firmas, que incluem a OpenAI (dona do ChatGPT), Google e Microsoft, com a segurança e confiança dos sistemas desenvolvidos por essas empresas.
“As empresas que estão desenvolvendo essas tecnologias emergentes têm a responsabilidade de garantir que seus produtos sejam seguros. Para aproveitar ao máximo o potencial da IA, o governo Biden-Harris está incentivando esse setor a manter os mais altos padrões para garantir que a inovação não venha às custas dos direitos e da segurança dos americanos”, diz a Casa Branca em nota à imprensa.
O compromisso é voluntário, diz o governo dos Estados Unidos, e não há perspectiva de multas ou penalidades caso essas empresas desrespeitem o acordo. Ainda, a Casa Branca afirma que deve enviar uma ordem executiva e um projeto de lei bipartidário para regulamentar o mercado de inteligência artificial no país.
Ao todo, as empresas que participaram da reunião são Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI.
Abaixo, entenda o que foi firmado pelas empresas e o governo americano.
Testes internos e externos
Testes de segurança internos e externos dos sistemas de IA devem ser feitos antes do lançamento dos serviços, firmaram as empresas.
“Esses testes, que serão realizados em parte por especialistas independentes, protegem contra algumas das fontes mais significativas de riscos de IA, como a biossegurança e a segurança cibernética, bem como seus efeitos sociais mais amplos”, diz a nota da Casa Branca.
Além disso, as companhias vão compartilhar informações com o setor de tecnologia, governos, sociedade civil e o meio acadêmico, como forma de aumentar o gerenciamento de riscos das IAs.
Segurança cibernética
Investimentos em segurança cibernética e em salvaguardas contra ameaças internas estão entre uma das promessas também.
Ainda, deve haver facilitação na descobertura e comunicação a terceiros de vulnerabilidades nos sistemas desenvolvidos pelas empresas.
“Alguns problemas podem persistir mesmo após o lançamento de um sistema de IA, e um mecanismo robusto de relatório permite que eles sejam encontrados e corrigidos rapidamente”, afirma a nota.
Se gerenciada adequadamente, a IA pode contribuir enormemente para a prosperidade, igualdade e segurança de todos
Casa Branca
Confiança
Para o público geral, as empresas de IA se comprometeram a desenvolver mecanismos para apontar que determinado conteúdo é gerado por IA, como marca d´água. Aqui, o objetivo é reduzir fraudes e enganos, diz a Casa Branca.
As companhias devem também informar publicamente os recursos, limitações e áreas de uso adequado e inadequado de seus sistemas, apontando riscos de segurança e os sociais — como justiça e preconceito, por exemplo.
Outro ponto está nas pesquisas sobre os riscos sociais, que devem ser bancadas e desenvolvidas pelas empresas. “O histórico da IA mostra a insidiosidade e a prevalência desses perigos, e as empresas se comprometem a implementar uma IA que os atenue”, segundo o acordo.
Por fim, as duas partes se comprometeram a desenvolver sistemas que ajudem “a enfrentar os maiores desafios da sociedade”, como prevenção do câncer, mitigação das mudanças climáticas.
“Se gerenciada adequadamente, a IA pode contribuir enormemente para a prosperidade, igualdade e segurança de todos”, diz a Casa Branca.
Os comentários são exclusivos para assinantes do Estadão.