ChatGPT é investigado pelo governo dos EUA por danos causados pela inteligência artificial


Órgão de comércio questiona se consumidores tiveram ‘danos reputacionais’ com práticas ‘injustas ou enganosas’ da OpenAI

Por Redação

O ChatGPT, robô de conversação (chatbot) da OpenAI, virou nesta semana alvo de investigações da autoridade de comércio dos Estados Unidos, a Federal Trade Comission (FTC), revelou o jornal Washington Post.

O órgão americano está de olho se o serviço causou danos a consumidores e se a companhia realizou práticas “injustas ou enganosas” em termos de privacidade e segurança de dados. Segundo o documento, essas práticas podem ter causado “dano reputacional” às pessoas.

A FTC também solicitou à empresa que fornecesse registros relacionados a um incidente de segurança divulgado em março, quando uma falha em seus sistemas permitiu que alguns usuários vissem informações relacionadas a pagamentos, bem como alguns dados do histórico de bate-papo de outros usuários.

continua após a publicidade

Ainda, a autoridade americana também investiga se as práticas de segurança de dados da OpenAI violam as leis de proteção ao consumidor dos Estados Unidos. A OpenAI disse em um post de blog que o número de usuários cujos dados foram revelados a outras pessoas foi “extremamente baixo”.

Nem a OpenAI nem a FTC responderam ao pedido de comentário realizado pelo Washington Post nesta quinta-feira, 13.

continua após a publicidade

Nos últimos anos, a FTC foi a responsável por impor multas a diversas gigantes da tecnologia, como Meta, Amazon e Twitter, com base nas leis de proteção ao consumidor do país americano.

Governos apertam o cerco contra a IA

O governo dos Estados Unidos não é o único a investigar as práticas de companhias de inteligência artificial generativa, cujos serviços foram treinados com base em bilhões de dados da internet.

continua após a publicidade

Em março, a Itália proibiu o ChatGPT no país, após concluir que dados e informações pessoais eram violados sob a legislação europeia — o serviço foi reestabelecido em uma semana, depois que a OpenAI atendeu às demandas do governo.

Em abril, as autoridades de proteção de dados da Espanha e França iniciaram investigações para entender se esses serviços de inteligência artificial violam a privacidade de usuários.

Ao mesmo tempo, a União Europeia discute uma legislação inédita no mundo para regulamentar os diversos modelos de inteligência artificial, incluindo as IAs generativas que abastecem serviços como o ChatGPT. A previsão é que a peça legislativa entre em vigor em 2024, após aprovação do triálogo europeu. / COM WASHINGTON POST

O ChatGPT, robô de conversação (chatbot) da OpenAI, virou nesta semana alvo de investigações da autoridade de comércio dos Estados Unidos, a Federal Trade Comission (FTC), revelou o jornal Washington Post.

O órgão americano está de olho se o serviço causou danos a consumidores e se a companhia realizou práticas “injustas ou enganosas” em termos de privacidade e segurança de dados. Segundo o documento, essas práticas podem ter causado “dano reputacional” às pessoas.

A FTC também solicitou à empresa que fornecesse registros relacionados a um incidente de segurança divulgado em março, quando uma falha em seus sistemas permitiu que alguns usuários vissem informações relacionadas a pagamentos, bem como alguns dados do histórico de bate-papo de outros usuários.

Ainda, a autoridade americana também investiga se as práticas de segurança de dados da OpenAI violam as leis de proteção ao consumidor dos Estados Unidos. A OpenAI disse em um post de blog que o número de usuários cujos dados foram revelados a outras pessoas foi “extremamente baixo”.

Nem a OpenAI nem a FTC responderam ao pedido de comentário realizado pelo Washington Post nesta quinta-feira, 13.

Nos últimos anos, a FTC foi a responsável por impor multas a diversas gigantes da tecnologia, como Meta, Amazon e Twitter, com base nas leis de proteção ao consumidor do país americano.

Governos apertam o cerco contra a IA

O governo dos Estados Unidos não é o único a investigar as práticas de companhias de inteligência artificial generativa, cujos serviços foram treinados com base em bilhões de dados da internet.

Em março, a Itália proibiu o ChatGPT no país, após concluir que dados e informações pessoais eram violados sob a legislação europeia — o serviço foi reestabelecido em uma semana, depois que a OpenAI atendeu às demandas do governo.

Em abril, as autoridades de proteção de dados da Espanha e França iniciaram investigações para entender se esses serviços de inteligência artificial violam a privacidade de usuários.

Ao mesmo tempo, a União Europeia discute uma legislação inédita no mundo para regulamentar os diversos modelos de inteligência artificial, incluindo as IAs generativas que abastecem serviços como o ChatGPT. A previsão é que a peça legislativa entre em vigor em 2024, após aprovação do triálogo europeu. / COM WASHINGTON POST

O ChatGPT, robô de conversação (chatbot) da OpenAI, virou nesta semana alvo de investigações da autoridade de comércio dos Estados Unidos, a Federal Trade Comission (FTC), revelou o jornal Washington Post.

O órgão americano está de olho se o serviço causou danos a consumidores e se a companhia realizou práticas “injustas ou enganosas” em termos de privacidade e segurança de dados. Segundo o documento, essas práticas podem ter causado “dano reputacional” às pessoas.

A FTC também solicitou à empresa que fornecesse registros relacionados a um incidente de segurança divulgado em março, quando uma falha em seus sistemas permitiu que alguns usuários vissem informações relacionadas a pagamentos, bem como alguns dados do histórico de bate-papo de outros usuários.

Ainda, a autoridade americana também investiga se as práticas de segurança de dados da OpenAI violam as leis de proteção ao consumidor dos Estados Unidos. A OpenAI disse em um post de blog que o número de usuários cujos dados foram revelados a outras pessoas foi “extremamente baixo”.

Nem a OpenAI nem a FTC responderam ao pedido de comentário realizado pelo Washington Post nesta quinta-feira, 13.

Nos últimos anos, a FTC foi a responsável por impor multas a diversas gigantes da tecnologia, como Meta, Amazon e Twitter, com base nas leis de proteção ao consumidor do país americano.

Governos apertam o cerco contra a IA

O governo dos Estados Unidos não é o único a investigar as práticas de companhias de inteligência artificial generativa, cujos serviços foram treinados com base em bilhões de dados da internet.

Em março, a Itália proibiu o ChatGPT no país, após concluir que dados e informações pessoais eram violados sob a legislação europeia — o serviço foi reestabelecido em uma semana, depois que a OpenAI atendeu às demandas do governo.

Em abril, as autoridades de proteção de dados da Espanha e França iniciaram investigações para entender se esses serviços de inteligência artificial violam a privacidade de usuários.

Ao mesmo tempo, a União Europeia discute uma legislação inédita no mundo para regulamentar os diversos modelos de inteligência artificial, incluindo as IAs generativas que abastecem serviços como o ChatGPT. A previsão é que a peça legislativa entre em vigor em 2024, após aprovação do triálogo europeu. / COM WASHINGTON POST

O ChatGPT, robô de conversação (chatbot) da OpenAI, virou nesta semana alvo de investigações da autoridade de comércio dos Estados Unidos, a Federal Trade Comission (FTC), revelou o jornal Washington Post.

O órgão americano está de olho se o serviço causou danos a consumidores e se a companhia realizou práticas “injustas ou enganosas” em termos de privacidade e segurança de dados. Segundo o documento, essas práticas podem ter causado “dano reputacional” às pessoas.

A FTC também solicitou à empresa que fornecesse registros relacionados a um incidente de segurança divulgado em março, quando uma falha em seus sistemas permitiu que alguns usuários vissem informações relacionadas a pagamentos, bem como alguns dados do histórico de bate-papo de outros usuários.

Ainda, a autoridade americana também investiga se as práticas de segurança de dados da OpenAI violam as leis de proteção ao consumidor dos Estados Unidos. A OpenAI disse em um post de blog que o número de usuários cujos dados foram revelados a outras pessoas foi “extremamente baixo”.

Nem a OpenAI nem a FTC responderam ao pedido de comentário realizado pelo Washington Post nesta quinta-feira, 13.

Nos últimos anos, a FTC foi a responsável por impor multas a diversas gigantes da tecnologia, como Meta, Amazon e Twitter, com base nas leis de proteção ao consumidor do país americano.

Governos apertam o cerco contra a IA

O governo dos Estados Unidos não é o único a investigar as práticas de companhias de inteligência artificial generativa, cujos serviços foram treinados com base em bilhões de dados da internet.

Em março, a Itália proibiu o ChatGPT no país, após concluir que dados e informações pessoais eram violados sob a legislação europeia — o serviço foi reestabelecido em uma semana, depois que a OpenAI atendeu às demandas do governo.

Em abril, as autoridades de proteção de dados da Espanha e França iniciaram investigações para entender se esses serviços de inteligência artificial violam a privacidade de usuários.

Ao mesmo tempo, a União Europeia discute uma legislação inédita no mundo para regulamentar os diversos modelos de inteligência artificial, incluindo as IAs generativas que abastecem serviços como o ChatGPT. A previsão é que a peça legislativa entre em vigor em 2024, após aprovação do triálogo europeu. / COM WASHINGTON POST

O ChatGPT, robô de conversação (chatbot) da OpenAI, virou nesta semana alvo de investigações da autoridade de comércio dos Estados Unidos, a Federal Trade Comission (FTC), revelou o jornal Washington Post.

O órgão americano está de olho se o serviço causou danos a consumidores e se a companhia realizou práticas “injustas ou enganosas” em termos de privacidade e segurança de dados. Segundo o documento, essas práticas podem ter causado “dano reputacional” às pessoas.

A FTC também solicitou à empresa que fornecesse registros relacionados a um incidente de segurança divulgado em março, quando uma falha em seus sistemas permitiu que alguns usuários vissem informações relacionadas a pagamentos, bem como alguns dados do histórico de bate-papo de outros usuários.

Ainda, a autoridade americana também investiga se as práticas de segurança de dados da OpenAI violam as leis de proteção ao consumidor dos Estados Unidos. A OpenAI disse em um post de blog que o número de usuários cujos dados foram revelados a outras pessoas foi “extremamente baixo”.

Nem a OpenAI nem a FTC responderam ao pedido de comentário realizado pelo Washington Post nesta quinta-feira, 13.

Nos últimos anos, a FTC foi a responsável por impor multas a diversas gigantes da tecnologia, como Meta, Amazon e Twitter, com base nas leis de proteção ao consumidor do país americano.

Governos apertam o cerco contra a IA

O governo dos Estados Unidos não é o único a investigar as práticas de companhias de inteligência artificial generativa, cujos serviços foram treinados com base em bilhões de dados da internet.

Em março, a Itália proibiu o ChatGPT no país, após concluir que dados e informações pessoais eram violados sob a legislação europeia — o serviço foi reestabelecido em uma semana, depois que a OpenAI atendeu às demandas do governo.

Em abril, as autoridades de proteção de dados da Espanha e França iniciaram investigações para entender se esses serviços de inteligência artificial violam a privacidade de usuários.

Ao mesmo tempo, a União Europeia discute uma legislação inédita no mundo para regulamentar os diversos modelos de inteligência artificial, incluindo as IAs generativas que abastecem serviços como o ChatGPT. A previsão é que a peça legislativa entre em vigor em 2024, após aprovação do triálogo europeu. / COM WASHINGTON POST

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.