Empresas adotam governança que consideram ‘apropriada’ para IA, à espera de lei sobre a tecnologia


Com terceiro adiamento da votação do projeto que regulamenta inteligência artificial no País, companhias no Brasil dizem estar adotando práticas para garantir ‘uso correto’ do mecanismo

Por Carolina Maingué Pires

Na ausência de uma regulamentação específica, empresas que utilizam inteligência artificial (IA) no Brasil dizem estar adotando, cada uma a seu modo, práticas de governança para garantir o “uso correto” dessas tecnologias. As políticas internas fazem parte da estratégia de companhias de diferentes tamanhos, de gigantes como Google e IBM até startups nacionais.

Na terça-feira, 9, a votação do projeto de lei (PL) 2.338/2023, que regulamenta a inteligência artificial no País, foi adiada pela terceira vez na Comissão Temporária sobre Inteligência Artificial (CTIA) do Senado. Apesar disso, especialistas avaliam que o Brasil é um dos lugares onde a discussão está mais adiantada.

Mesmo sem uma legislação em vigor, a IBM tem um Conselho de Ética para supervisionar o desenvolvimento de inteligência artificial. Ao Estadão/Broadcast a empresa diz que há três princípios que norteiam a atuação na área.

continua após a publicidade
Google disponibiliza um kit de ferramentas chamado “IA Responsável” para auxiliar desenvolvedores na criação de sistemas Foto: Divulgação/Google

“O propósito da IA é aumentar a inteligência humana; dados e insights pertencem ao seu criador; e as empresas devem ser claras sobre quem treina seus sistemas de inteligência artificial e sobre quais dados foram usados no treinamento”, disse a companhia.

O Google também conta com uma equipe de governança que atua em todos os projetos da empresa e disponibiliza um kit de ferramentas chamado “IA Responsável”, para auxiliar desenvolvedores na criação de sistemas.

continua após a publicidade

Entre as menores, a preocupação com uso de dados está igualmente no radar. A Docket, startup fundada em 2016, usa inteligência artificial para otimizar o acesso a documentos e a extração de informações, sobretudo em operações de crédito. Rodrigo Lopes, diretor de tecnologia (CTO, na sigla em inglês), explica que as práticas são orientadas por previsões contratuais.

A startup utiliza os dados dos clientes para treinar seus modelos, desde que haja acordo formal entre as partes. Já as demais informações que compõem as bases da Docket, segundo Lopes, são públicas. “Estamos tentando entender para onde estamos indo. A partir do momento que existe algo, a gente se adequa. A Lei Geral de Proteção de Dados (LGPD), por exemplo, é levada muito a sério aqui”, afirma.

Além da LGPD

continua após a publicidade

As discussões sobre IA frequentemente giram em torno do uso de dados pessoais. Isso porque os modelos de aprendizagem de máquina (machine learning) se alimentam de informações diversas para “aprender a pensar” de forma parecida com a dos humanos. A geração de produtos também depende de dados, como ocorre com imagens criadas a partir do estilo de algum pintor conhecido, por exemplo.

Na quarta-feira, 10, o Conselho Diretor da Autoridade Nacional de Proteção de Dados (ANPD) decidiu manter uma Medida Preventiva aplicada à Meta, que havia recorrido da decisão após notificação na semana anterior. A ordem é para a empresa interromper o tratamento de dados pessoais de usuários para treinamento da IA do grupo.

Seguindo a discussão extensa sobre dados e IA, o substitutivo do PL que regulamenta a inteligência artificial no Brasil, apresentado pelo senador Eduardo Gomes (PL-TO), propõe justamente que a ANPD seja a autoridade coordenadora do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA).

continua após a publicidade

A Gerente de Relações Governamentais e Políticas Públicas do Google Brasil, Ana Cecília Amarante de Oliveira, levou um posicionamento diferente para a audiência pública realizada em 3 de julho na CTIA do Senado.

“A governança deve ser distribuída, e os órgãos reguladores setoriais deveriam ser valorizados em suas próprias estruturas”, defendeu durante o evento. “Nós apoiamos essa capacitação nas áreas de expertise e sugerimos modelo descentralizado e subsidiário”, falou.

continua após a publicidade

Daniella Caverni, sócia do EFCAN Advogados, concorda que existem outras aplicações da inteligência artificial que precisam ser consideradas de maneira transversal ao uso de dados.

“Pode parecer fazer sentido a ANPD ser a autoridade máxima sobre IA no País porque aparentemente tudo envolvendo IA passa por dados pessoais, mas a verdade é que nem tudo. Temos sistemas agrícolas e meteorológicos, por exemplo”, aponta.

Para Caverni, o ideal seria cada setor regulamentar internamente o uso desta tecnologia. “Obviamente, respeitando a LGPD”, diz.

Na ausência de uma regulamentação específica, empresas que utilizam inteligência artificial (IA) no Brasil dizem estar adotando, cada uma a seu modo, práticas de governança para garantir o “uso correto” dessas tecnologias. As políticas internas fazem parte da estratégia de companhias de diferentes tamanhos, de gigantes como Google e IBM até startups nacionais.

Na terça-feira, 9, a votação do projeto de lei (PL) 2.338/2023, que regulamenta a inteligência artificial no País, foi adiada pela terceira vez na Comissão Temporária sobre Inteligência Artificial (CTIA) do Senado. Apesar disso, especialistas avaliam que o Brasil é um dos lugares onde a discussão está mais adiantada.

Mesmo sem uma legislação em vigor, a IBM tem um Conselho de Ética para supervisionar o desenvolvimento de inteligência artificial. Ao Estadão/Broadcast a empresa diz que há três princípios que norteiam a atuação na área.

Google disponibiliza um kit de ferramentas chamado “IA Responsável” para auxiliar desenvolvedores na criação de sistemas Foto: Divulgação/Google

“O propósito da IA é aumentar a inteligência humana; dados e insights pertencem ao seu criador; e as empresas devem ser claras sobre quem treina seus sistemas de inteligência artificial e sobre quais dados foram usados no treinamento”, disse a companhia.

O Google também conta com uma equipe de governança que atua em todos os projetos da empresa e disponibiliza um kit de ferramentas chamado “IA Responsável”, para auxiliar desenvolvedores na criação de sistemas.

Entre as menores, a preocupação com uso de dados está igualmente no radar. A Docket, startup fundada em 2016, usa inteligência artificial para otimizar o acesso a documentos e a extração de informações, sobretudo em operações de crédito. Rodrigo Lopes, diretor de tecnologia (CTO, na sigla em inglês), explica que as práticas são orientadas por previsões contratuais.

A startup utiliza os dados dos clientes para treinar seus modelos, desde que haja acordo formal entre as partes. Já as demais informações que compõem as bases da Docket, segundo Lopes, são públicas. “Estamos tentando entender para onde estamos indo. A partir do momento que existe algo, a gente se adequa. A Lei Geral de Proteção de Dados (LGPD), por exemplo, é levada muito a sério aqui”, afirma.

Além da LGPD

As discussões sobre IA frequentemente giram em torno do uso de dados pessoais. Isso porque os modelos de aprendizagem de máquina (machine learning) se alimentam de informações diversas para “aprender a pensar” de forma parecida com a dos humanos. A geração de produtos também depende de dados, como ocorre com imagens criadas a partir do estilo de algum pintor conhecido, por exemplo.

Na quarta-feira, 10, o Conselho Diretor da Autoridade Nacional de Proteção de Dados (ANPD) decidiu manter uma Medida Preventiva aplicada à Meta, que havia recorrido da decisão após notificação na semana anterior. A ordem é para a empresa interromper o tratamento de dados pessoais de usuários para treinamento da IA do grupo.

Seguindo a discussão extensa sobre dados e IA, o substitutivo do PL que regulamenta a inteligência artificial no Brasil, apresentado pelo senador Eduardo Gomes (PL-TO), propõe justamente que a ANPD seja a autoridade coordenadora do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA).

A Gerente de Relações Governamentais e Políticas Públicas do Google Brasil, Ana Cecília Amarante de Oliveira, levou um posicionamento diferente para a audiência pública realizada em 3 de julho na CTIA do Senado.

“A governança deve ser distribuída, e os órgãos reguladores setoriais deveriam ser valorizados em suas próprias estruturas”, defendeu durante o evento. “Nós apoiamos essa capacitação nas áreas de expertise e sugerimos modelo descentralizado e subsidiário”, falou.

Daniella Caverni, sócia do EFCAN Advogados, concorda que existem outras aplicações da inteligência artificial que precisam ser consideradas de maneira transversal ao uso de dados.

“Pode parecer fazer sentido a ANPD ser a autoridade máxima sobre IA no País porque aparentemente tudo envolvendo IA passa por dados pessoais, mas a verdade é que nem tudo. Temos sistemas agrícolas e meteorológicos, por exemplo”, aponta.

Para Caverni, o ideal seria cada setor regulamentar internamente o uso desta tecnologia. “Obviamente, respeitando a LGPD”, diz.

Na ausência de uma regulamentação específica, empresas que utilizam inteligência artificial (IA) no Brasil dizem estar adotando, cada uma a seu modo, práticas de governança para garantir o “uso correto” dessas tecnologias. As políticas internas fazem parte da estratégia de companhias de diferentes tamanhos, de gigantes como Google e IBM até startups nacionais.

Na terça-feira, 9, a votação do projeto de lei (PL) 2.338/2023, que regulamenta a inteligência artificial no País, foi adiada pela terceira vez na Comissão Temporária sobre Inteligência Artificial (CTIA) do Senado. Apesar disso, especialistas avaliam que o Brasil é um dos lugares onde a discussão está mais adiantada.

Mesmo sem uma legislação em vigor, a IBM tem um Conselho de Ética para supervisionar o desenvolvimento de inteligência artificial. Ao Estadão/Broadcast a empresa diz que há três princípios que norteiam a atuação na área.

Google disponibiliza um kit de ferramentas chamado “IA Responsável” para auxiliar desenvolvedores na criação de sistemas Foto: Divulgação/Google

“O propósito da IA é aumentar a inteligência humana; dados e insights pertencem ao seu criador; e as empresas devem ser claras sobre quem treina seus sistemas de inteligência artificial e sobre quais dados foram usados no treinamento”, disse a companhia.

O Google também conta com uma equipe de governança que atua em todos os projetos da empresa e disponibiliza um kit de ferramentas chamado “IA Responsável”, para auxiliar desenvolvedores na criação de sistemas.

Entre as menores, a preocupação com uso de dados está igualmente no radar. A Docket, startup fundada em 2016, usa inteligência artificial para otimizar o acesso a documentos e a extração de informações, sobretudo em operações de crédito. Rodrigo Lopes, diretor de tecnologia (CTO, na sigla em inglês), explica que as práticas são orientadas por previsões contratuais.

A startup utiliza os dados dos clientes para treinar seus modelos, desde que haja acordo formal entre as partes. Já as demais informações que compõem as bases da Docket, segundo Lopes, são públicas. “Estamos tentando entender para onde estamos indo. A partir do momento que existe algo, a gente se adequa. A Lei Geral de Proteção de Dados (LGPD), por exemplo, é levada muito a sério aqui”, afirma.

Além da LGPD

As discussões sobre IA frequentemente giram em torno do uso de dados pessoais. Isso porque os modelos de aprendizagem de máquina (machine learning) se alimentam de informações diversas para “aprender a pensar” de forma parecida com a dos humanos. A geração de produtos também depende de dados, como ocorre com imagens criadas a partir do estilo de algum pintor conhecido, por exemplo.

Na quarta-feira, 10, o Conselho Diretor da Autoridade Nacional de Proteção de Dados (ANPD) decidiu manter uma Medida Preventiva aplicada à Meta, que havia recorrido da decisão após notificação na semana anterior. A ordem é para a empresa interromper o tratamento de dados pessoais de usuários para treinamento da IA do grupo.

Seguindo a discussão extensa sobre dados e IA, o substitutivo do PL que regulamenta a inteligência artificial no Brasil, apresentado pelo senador Eduardo Gomes (PL-TO), propõe justamente que a ANPD seja a autoridade coordenadora do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA).

A Gerente de Relações Governamentais e Políticas Públicas do Google Brasil, Ana Cecília Amarante de Oliveira, levou um posicionamento diferente para a audiência pública realizada em 3 de julho na CTIA do Senado.

“A governança deve ser distribuída, e os órgãos reguladores setoriais deveriam ser valorizados em suas próprias estruturas”, defendeu durante o evento. “Nós apoiamos essa capacitação nas áreas de expertise e sugerimos modelo descentralizado e subsidiário”, falou.

Daniella Caverni, sócia do EFCAN Advogados, concorda que existem outras aplicações da inteligência artificial que precisam ser consideradas de maneira transversal ao uso de dados.

“Pode parecer fazer sentido a ANPD ser a autoridade máxima sobre IA no País porque aparentemente tudo envolvendo IA passa por dados pessoais, mas a verdade é que nem tudo. Temos sistemas agrícolas e meteorológicos, por exemplo”, aponta.

Para Caverni, o ideal seria cada setor regulamentar internamente o uso desta tecnologia. “Obviamente, respeitando a LGPD”, diz.

Na ausência de uma regulamentação específica, empresas que utilizam inteligência artificial (IA) no Brasil dizem estar adotando, cada uma a seu modo, práticas de governança para garantir o “uso correto” dessas tecnologias. As políticas internas fazem parte da estratégia de companhias de diferentes tamanhos, de gigantes como Google e IBM até startups nacionais.

Na terça-feira, 9, a votação do projeto de lei (PL) 2.338/2023, que regulamenta a inteligência artificial no País, foi adiada pela terceira vez na Comissão Temporária sobre Inteligência Artificial (CTIA) do Senado. Apesar disso, especialistas avaliam que o Brasil é um dos lugares onde a discussão está mais adiantada.

Mesmo sem uma legislação em vigor, a IBM tem um Conselho de Ética para supervisionar o desenvolvimento de inteligência artificial. Ao Estadão/Broadcast a empresa diz que há três princípios que norteiam a atuação na área.

Google disponibiliza um kit de ferramentas chamado “IA Responsável” para auxiliar desenvolvedores na criação de sistemas Foto: Divulgação/Google

“O propósito da IA é aumentar a inteligência humana; dados e insights pertencem ao seu criador; e as empresas devem ser claras sobre quem treina seus sistemas de inteligência artificial e sobre quais dados foram usados no treinamento”, disse a companhia.

O Google também conta com uma equipe de governança que atua em todos os projetos da empresa e disponibiliza um kit de ferramentas chamado “IA Responsável”, para auxiliar desenvolvedores na criação de sistemas.

Entre as menores, a preocupação com uso de dados está igualmente no radar. A Docket, startup fundada em 2016, usa inteligência artificial para otimizar o acesso a documentos e a extração de informações, sobretudo em operações de crédito. Rodrigo Lopes, diretor de tecnologia (CTO, na sigla em inglês), explica que as práticas são orientadas por previsões contratuais.

A startup utiliza os dados dos clientes para treinar seus modelos, desde que haja acordo formal entre as partes. Já as demais informações que compõem as bases da Docket, segundo Lopes, são públicas. “Estamos tentando entender para onde estamos indo. A partir do momento que existe algo, a gente se adequa. A Lei Geral de Proteção de Dados (LGPD), por exemplo, é levada muito a sério aqui”, afirma.

Além da LGPD

As discussões sobre IA frequentemente giram em torno do uso de dados pessoais. Isso porque os modelos de aprendizagem de máquina (machine learning) se alimentam de informações diversas para “aprender a pensar” de forma parecida com a dos humanos. A geração de produtos também depende de dados, como ocorre com imagens criadas a partir do estilo de algum pintor conhecido, por exemplo.

Na quarta-feira, 10, o Conselho Diretor da Autoridade Nacional de Proteção de Dados (ANPD) decidiu manter uma Medida Preventiva aplicada à Meta, que havia recorrido da decisão após notificação na semana anterior. A ordem é para a empresa interromper o tratamento de dados pessoais de usuários para treinamento da IA do grupo.

Seguindo a discussão extensa sobre dados e IA, o substitutivo do PL que regulamenta a inteligência artificial no Brasil, apresentado pelo senador Eduardo Gomes (PL-TO), propõe justamente que a ANPD seja a autoridade coordenadora do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA).

A Gerente de Relações Governamentais e Políticas Públicas do Google Brasil, Ana Cecília Amarante de Oliveira, levou um posicionamento diferente para a audiência pública realizada em 3 de julho na CTIA do Senado.

“A governança deve ser distribuída, e os órgãos reguladores setoriais deveriam ser valorizados em suas próprias estruturas”, defendeu durante o evento. “Nós apoiamos essa capacitação nas áreas de expertise e sugerimos modelo descentralizado e subsidiário”, falou.

Daniella Caverni, sócia do EFCAN Advogados, concorda que existem outras aplicações da inteligência artificial que precisam ser consideradas de maneira transversal ao uso de dados.

“Pode parecer fazer sentido a ANPD ser a autoridade máxima sobre IA no País porque aparentemente tudo envolvendo IA passa por dados pessoais, mas a verdade é que nem tudo. Temos sistemas agrícolas e meteorológicos, por exemplo”, aponta.

Para Caverni, o ideal seria cada setor regulamentar internamente o uso desta tecnologia. “Obviamente, respeitando a LGPD”, diz.

Na ausência de uma regulamentação específica, empresas que utilizam inteligência artificial (IA) no Brasil dizem estar adotando, cada uma a seu modo, práticas de governança para garantir o “uso correto” dessas tecnologias. As políticas internas fazem parte da estratégia de companhias de diferentes tamanhos, de gigantes como Google e IBM até startups nacionais.

Na terça-feira, 9, a votação do projeto de lei (PL) 2.338/2023, que regulamenta a inteligência artificial no País, foi adiada pela terceira vez na Comissão Temporária sobre Inteligência Artificial (CTIA) do Senado. Apesar disso, especialistas avaliam que o Brasil é um dos lugares onde a discussão está mais adiantada.

Mesmo sem uma legislação em vigor, a IBM tem um Conselho de Ética para supervisionar o desenvolvimento de inteligência artificial. Ao Estadão/Broadcast a empresa diz que há três princípios que norteiam a atuação na área.

Google disponibiliza um kit de ferramentas chamado “IA Responsável” para auxiliar desenvolvedores na criação de sistemas Foto: Divulgação/Google

“O propósito da IA é aumentar a inteligência humana; dados e insights pertencem ao seu criador; e as empresas devem ser claras sobre quem treina seus sistemas de inteligência artificial e sobre quais dados foram usados no treinamento”, disse a companhia.

O Google também conta com uma equipe de governança que atua em todos os projetos da empresa e disponibiliza um kit de ferramentas chamado “IA Responsável”, para auxiliar desenvolvedores na criação de sistemas.

Entre as menores, a preocupação com uso de dados está igualmente no radar. A Docket, startup fundada em 2016, usa inteligência artificial para otimizar o acesso a documentos e a extração de informações, sobretudo em operações de crédito. Rodrigo Lopes, diretor de tecnologia (CTO, na sigla em inglês), explica que as práticas são orientadas por previsões contratuais.

A startup utiliza os dados dos clientes para treinar seus modelos, desde que haja acordo formal entre as partes. Já as demais informações que compõem as bases da Docket, segundo Lopes, são públicas. “Estamos tentando entender para onde estamos indo. A partir do momento que existe algo, a gente se adequa. A Lei Geral de Proteção de Dados (LGPD), por exemplo, é levada muito a sério aqui”, afirma.

Além da LGPD

As discussões sobre IA frequentemente giram em torno do uso de dados pessoais. Isso porque os modelos de aprendizagem de máquina (machine learning) se alimentam de informações diversas para “aprender a pensar” de forma parecida com a dos humanos. A geração de produtos também depende de dados, como ocorre com imagens criadas a partir do estilo de algum pintor conhecido, por exemplo.

Na quarta-feira, 10, o Conselho Diretor da Autoridade Nacional de Proteção de Dados (ANPD) decidiu manter uma Medida Preventiva aplicada à Meta, que havia recorrido da decisão após notificação na semana anterior. A ordem é para a empresa interromper o tratamento de dados pessoais de usuários para treinamento da IA do grupo.

Seguindo a discussão extensa sobre dados e IA, o substitutivo do PL que regulamenta a inteligência artificial no Brasil, apresentado pelo senador Eduardo Gomes (PL-TO), propõe justamente que a ANPD seja a autoridade coordenadora do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA).

A Gerente de Relações Governamentais e Políticas Públicas do Google Brasil, Ana Cecília Amarante de Oliveira, levou um posicionamento diferente para a audiência pública realizada em 3 de julho na CTIA do Senado.

“A governança deve ser distribuída, e os órgãos reguladores setoriais deveriam ser valorizados em suas próprias estruturas”, defendeu durante o evento. “Nós apoiamos essa capacitação nas áreas de expertise e sugerimos modelo descentralizado e subsidiário”, falou.

Daniella Caverni, sócia do EFCAN Advogados, concorda que existem outras aplicações da inteligência artificial que precisam ser consideradas de maneira transversal ao uso de dados.

“Pode parecer fazer sentido a ANPD ser a autoridade máxima sobre IA no País porque aparentemente tudo envolvendo IA passa por dados pessoais, mas a verdade é que nem tudo. Temos sistemas agrícolas e meteorológicos, por exemplo”, aponta.

Para Caverni, o ideal seria cada setor regulamentar internamente o uso desta tecnologia. “Obviamente, respeitando a LGPD”, diz.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.