OpenAI ameaça retirar serviços da Europa caso regulação da IA seja ‘inviável’ para empresa


UE está desenvolvendo nova regulamentação para inteligência artificial que pode obrigar a empresa a detalhar banco de dados

Por Alice Labate
Atualização:

Sam Altman, CEO da OpenAI, criadora do ChatGPT, expressou preocupações em relação à regulamentação da inteligência artificial (IA) que está sendo desenvolvida pela União Europeia (UE), durante uma entrevista coletiva em Londres nesta semana. O executivo afirmou que a empresa pode ‘deixar de operar’ no mercado europeu, afirmou o site americano The Verge.

O CEO enfatizou a importância dos detalhes da regulamentação e afirmou que a OpenAI fará o possível para cumprir as exigências. No entanto, ele também alertou que, caso não consigam cumprir esses requisitos, a empresa consideraria a possibilidade de deixar de oferecer seus serviços na Europa. Ele ressaltou que existem limites técnicos para o que é viável no momento.

O projeto propõe que os criadores dos sistemas de IA em grande escala divulguem detalhes sobre o plano de seus sistemas e forneçam resumos dos dados protegidos por direitos autorais usados no treinamento — uma espécie de segredo do funcionamento da tecnologia. No passado, a OpenAI compartilhava esse tipo de informação, mas parou devido ao valor comercial crescente de suas ferramentas. A empresa teme que revelar informações sobre seus métodos de treinamento e fontes de dados possa levar ao uso dos mesmos métodos por parte dos concorrentes.

continua após a publicidade

Além das ameaças comerciais, a exigência de identificar o uso de dados protegidos por direitos autorais pode expor a OpenAI a possíveis ações legais. Os sistemas generativos de IA, como ChatGPT e DALL-E, são treinados usando grandes quantidades de dados coletados da web, muitos dos quais são protegidos por direitos autorais, que, se divulgados, podem processar a empresa.

Sam Altman está em uma “tour mundial” para conversar com autoridades e ativistas sobre IA  Foto: Alastair Grant/AP Photo

Altman também discutiu os detalhes da Lei de IA da União Europeia, que está em processo de finalização pelos legisladores. Essa lei planeja incluir novas obrigações para os fabricantes de sistemas de IA em grande escala que alimentam serviços como ChatGPT e DALL-E 2 — ambos desenvolvidos pela OpenAI. A lei planeja proibir programas de reconhecimento facial em massa em locais públicos e algoritmos de policiamento que tentam identificar futuros criminosos usando dados pessoais.

continua após a publicidade

O presidente da OpenAI está em uma “tour mundial” passando por diversas cidades para conversar com autoridades e ativistas sobre o uso e regulação da inteligência artificial. Na última semana, Altman esteve o Brasil, em um evento no Rio de Janeiro, e afirmou que a IA deve trazer riscos e acabar com algumas profissões que existem hoje.

Sam Altman, CEO da OpenAI, criadora do ChatGPT, expressou preocupações em relação à regulamentação da inteligência artificial (IA) que está sendo desenvolvida pela União Europeia (UE), durante uma entrevista coletiva em Londres nesta semana. O executivo afirmou que a empresa pode ‘deixar de operar’ no mercado europeu, afirmou o site americano The Verge.

O CEO enfatizou a importância dos detalhes da regulamentação e afirmou que a OpenAI fará o possível para cumprir as exigências. No entanto, ele também alertou que, caso não consigam cumprir esses requisitos, a empresa consideraria a possibilidade de deixar de oferecer seus serviços na Europa. Ele ressaltou que existem limites técnicos para o que é viável no momento.

O projeto propõe que os criadores dos sistemas de IA em grande escala divulguem detalhes sobre o plano de seus sistemas e forneçam resumos dos dados protegidos por direitos autorais usados no treinamento — uma espécie de segredo do funcionamento da tecnologia. No passado, a OpenAI compartilhava esse tipo de informação, mas parou devido ao valor comercial crescente de suas ferramentas. A empresa teme que revelar informações sobre seus métodos de treinamento e fontes de dados possa levar ao uso dos mesmos métodos por parte dos concorrentes.

Além das ameaças comerciais, a exigência de identificar o uso de dados protegidos por direitos autorais pode expor a OpenAI a possíveis ações legais. Os sistemas generativos de IA, como ChatGPT e DALL-E, são treinados usando grandes quantidades de dados coletados da web, muitos dos quais são protegidos por direitos autorais, que, se divulgados, podem processar a empresa.

Sam Altman está em uma “tour mundial” para conversar com autoridades e ativistas sobre IA  Foto: Alastair Grant/AP Photo

Altman também discutiu os detalhes da Lei de IA da União Europeia, que está em processo de finalização pelos legisladores. Essa lei planeja incluir novas obrigações para os fabricantes de sistemas de IA em grande escala que alimentam serviços como ChatGPT e DALL-E 2 — ambos desenvolvidos pela OpenAI. A lei planeja proibir programas de reconhecimento facial em massa em locais públicos e algoritmos de policiamento que tentam identificar futuros criminosos usando dados pessoais.

O presidente da OpenAI está em uma “tour mundial” passando por diversas cidades para conversar com autoridades e ativistas sobre o uso e regulação da inteligência artificial. Na última semana, Altman esteve o Brasil, em um evento no Rio de Janeiro, e afirmou que a IA deve trazer riscos e acabar com algumas profissões que existem hoje.

Sam Altman, CEO da OpenAI, criadora do ChatGPT, expressou preocupações em relação à regulamentação da inteligência artificial (IA) que está sendo desenvolvida pela União Europeia (UE), durante uma entrevista coletiva em Londres nesta semana. O executivo afirmou que a empresa pode ‘deixar de operar’ no mercado europeu, afirmou o site americano The Verge.

O CEO enfatizou a importância dos detalhes da regulamentação e afirmou que a OpenAI fará o possível para cumprir as exigências. No entanto, ele também alertou que, caso não consigam cumprir esses requisitos, a empresa consideraria a possibilidade de deixar de oferecer seus serviços na Europa. Ele ressaltou que existem limites técnicos para o que é viável no momento.

O projeto propõe que os criadores dos sistemas de IA em grande escala divulguem detalhes sobre o plano de seus sistemas e forneçam resumos dos dados protegidos por direitos autorais usados no treinamento — uma espécie de segredo do funcionamento da tecnologia. No passado, a OpenAI compartilhava esse tipo de informação, mas parou devido ao valor comercial crescente de suas ferramentas. A empresa teme que revelar informações sobre seus métodos de treinamento e fontes de dados possa levar ao uso dos mesmos métodos por parte dos concorrentes.

Além das ameaças comerciais, a exigência de identificar o uso de dados protegidos por direitos autorais pode expor a OpenAI a possíveis ações legais. Os sistemas generativos de IA, como ChatGPT e DALL-E, são treinados usando grandes quantidades de dados coletados da web, muitos dos quais são protegidos por direitos autorais, que, se divulgados, podem processar a empresa.

Sam Altman está em uma “tour mundial” para conversar com autoridades e ativistas sobre IA  Foto: Alastair Grant/AP Photo

Altman também discutiu os detalhes da Lei de IA da União Europeia, que está em processo de finalização pelos legisladores. Essa lei planeja incluir novas obrigações para os fabricantes de sistemas de IA em grande escala que alimentam serviços como ChatGPT e DALL-E 2 — ambos desenvolvidos pela OpenAI. A lei planeja proibir programas de reconhecimento facial em massa em locais públicos e algoritmos de policiamento que tentam identificar futuros criminosos usando dados pessoais.

O presidente da OpenAI está em uma “tour mundial” passando por diversas cidades para conversar com autoridades e ativistas sobre o uso e regulação da inteligência artificial. Na última semana, Altman esteve o Brasil, em um evento no Rio de Janeiro, e afirmou que a IA deve trazer riscos e acabar com algumas profissões que existem hoje.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.