‘Brasil será motor para novas abordagens de IA’, diz vice-presidente do Google


Royal Hansen diz que País terá papel importante na busca por resposta de grandes questões de inteligência artificial

Por Bruno Romani
Atualização:
Foto: Google
Entrevista comRoyal HansenVice-Presidente Global de Engenharia em Privacidade, Proteção e Segurança do Google

Os novos modelos de inteligência artificial (IA) generativa, como os que abastecem o ChatGPT e o Bard, prometem mudar e auxiliar muitas profissões. Mas trazem também diversas dúvidas e desafios para a privacidade, a proteção de dados e a cibersegurança. São algumas dessas questões que Royal Hansen, vice-presidente global de engenharia em privacidade, proteção e segurança do Google, tenta responder.

Ao Estadão, o executivo, que estará no Brasil nesta quinta, 17, para o evento Mais Seguro com o Google, afirma que a tecnologia está transformando o mundo velozmente, o que exige agilidade e comunicação constante entre as diferentes partes da sociedade em todo o mundo.

continua após a publicidade

Nesse movimento, ele acredita que o Brasil poderá ter um papel importante nas novas tecnologias da era da IA. Ele vê o País não apenas como um laboratório na busca por respostas, mas também como um motor capaz de gerar ferramentas globais de privacidade, proteção de dados e cibersegurança. Veja abaixo os principais momentos da entrevista exclusiva.

Como a IA pode aumentar as ameaças que enfrentamos online? E o que podemos fazer a respeito?

Você vê claramente as pessoas usando a tecnologia para escrever e-mails de phishing melhores. A IA é absolutamente útil na criação dessas mensagens, assim como é útil em diferentes áreas que envolvem escrita. E você vê o início de um movimento no qual criminosos tentam usar a tecnologia para criar malware que seja mais adaptável ou que evite detecções. Portanto, há uma espécie de corrida entre ataque e defesa. Ainda é difícil gerar um malware realmente sofisticado, que se ajusta à medida que se move em uma rede. Isso requer um operador realmente sofisticado, em vez de algo que você simplesmente clique em um botão para a IA fazer. Mas esse é o tipo de coisa que prevemos que os bandidos tentarão. A boa notícia é que temos uma grande vantagem sobre eles. Temos uma equipe focada em IA, que usa várias versões da tecnologia, desde 2011. Usamos para investigar o tráfego anômalo que vemos em nossos computadores ou sistemas, e, assim, focar na priorização da resposta. Usamos para controle de acesso, avaliando e prevendo as combinações corretas de acesso. Usamos no Gmail para detectar phishing ou malware entre as mensagens. Usamos na Play Store para procurar malware introduzido em aplicativos enviados por desenvolvedores. Usamos no combate ao abuso para detectar discursos violentos. Vale lembrar: em segurança cibernética, o trabalho nunca acaba porque sempre tem um adversário ativo, buscando inovar. Portanto, temos que inovar também.

continua após a publicidade
Vamos contratar os talentos brasileiros

Royal Hansen, executivo do Google

No entanto, as novas ferramentas de IA são muito mais fáceis de usar. Como o sr. vê esse tipo de democratização de armas de ataque?

Você conhece a expressão “script kiddie”? Usamos ela no sentido de que um bom hacker, anos atrás, diria: “esses hackers são apenas script kiddies. Tudo o que eles fazem é copiar e colar um código malicioso”. O Lapsus, o famoso grupo hacker, não era de professores de ciência da computação de 60 anos de idade em Cambridge. Eram jovens copiando e reutilizando scripts. Portanto, a IA permite a democratização, mas não acho que isso seja novo. No final das contas, a cibersegurança consiste em proteger o que é valioso, não necessariamente barrar a criatividade do invasor. Seja humano ou máquina, a porta de entrada é a mesma.

continua após a publicidade

Nos últimos anos, as grandes empresas de tecnologia tiveram dificuldade em proteger os usuários contra a desinformação em suas plataformas. Como garantir que a IA não vai piorar o problema?

O uso desses grandes modelos de linguagem para detectar informações violentas ou desinformação é uma das áreas mais avançadas da minha equipe. Estamos analisando marcas d’água para conteúdo criado por IA, mas ainda é cedo para saber como isso pode funcionar. O que é importante para mim aqui é que o setor reúna diferentes atores para trabalhar nesses problemas, porque não será suficiente que o Google faça isso. É preciso fazer isso na web como um todo.

Royal Hansen, Vice-Presidente Global de Engenharia em Privacidade, Proteção e Segurança do Google Foto: Google
continua após a publicidade

No futuro, notícias falsas geradas por IA não serão apenas texto, mas também vídeo. Como o YouTube está se preparando para isso?

Os defensores precisam ser melhores do que os bandidos no uso de IA. É nisso que estamos gastando nosso dinheiro, tempo e energia. Vamos continuar contratando e investindo, e o Brasil terá um papel fundamental nisso. Vamos contratar os talentos brasileiros, enquanto a equipe em Belo Horizonte já está trabalhando com esse tipo de problema.

O Brasil será um laboratório de testes para ferramentas de IA em privacidade e segurança?

continua após a publicidade

Não apenas um laboratório, mas também um motor para abordagens que serão usadas de forma ampla. Não é apenas um lugar onde faríamos experimentos. É uma equipe que está resolvendo esses problemas globalmente. É ótimo que isso ocorra no Brasil porque é um país grande. Há muitas questões sociais e políticas que, como em qualquer país grande, são úteis nesse sentido. Mas não é só por isso. É o talento que vocês têm e a capacidade de ajudar o resto do mundo que também nos interessam.

Há discussões sobre regulamentação de IA em todo o mundo, incluindo o Brasil. Como o sr. enxerga isso?

A regulação está surgindo rapidamente de maneiras que exigem que empresas, sociedade civil e setor público mantenham uma discussão contínua para refinar a maneira como abordamos regulamentações e padrões. Não acho que nenhuma das partes tenha controle sobre todas as implicações de como isso se desenvolverá. O mais importante é que haja um grupo saudável e multidimensional trabalhando tanto nas leis quanto nos padrões adotados na indústria.

continua após a publicidade

A tecnologia se desenvolve muito mais rápido do que a regulamentação. Como podemos manter o ritmo?

É preciso tomarmos as decisões antes que as tecnologias se tornem antigas. Assim como qualquer atividade sofisticada, redigir uma regulamentação é parte arte e parte ciência. É preciso ter os especialistas certos à mesa, caso contrário, corre-se o risco de escrever algo que fique imediatamente desatualizado.

Muitas empresas temem que seus funcionários coloquem em perigo informações sigilosas ao usar chatbots. O Google permite que seus funcionários usem chatbots além do Bard?

Internamente, já temos versões desses sistemas há algum tempo, portanto, não é algo novo nesse sentido. Não bloqueamos nenhum serviço em particular, pois somos uma empresa de inovação na web aberta. Mas você mencionou algo que é uma parte muito importante: como manter os dados pessoais das pessoas protegidos, privados e seguros? Nossa equipe é a fonte das inovações de privacidade diferencial, que usamos para permitir que as pessoas treinem esses modelos sem que esses dados sejam pessoalmente identificáveis Nosso negócio de nuvem está trabalhando em versões desses modelos que poderão ser implantados em uma empresa, de modo que eles mantenham um nível separado de controle de um subconjunto das informações que estão trabalhando em cima do modelo.

Bard é o chatbot inteligente do Google, lançado para competir com o ChatGPT Foto: Google/Divulgação

Recentemente, o Google atualizou seus termos de uso para indicar o possível uso de dados acessíveis ao público para treinamento de grandes modelos. Alguns especialistas acreditam que isso viola nossa privacidade. Por que essa alteração foi feita?

Isso está relacionado à velocidade das mudanças que falamos antes. Não considero que uma única alteração seja maior do que o trabalho que as equipes continuam a fazer para refinar a melhor maneira de descrever o que está acontecendo. Não é fácil para uma pessoa comum entender todos os detalhes do que está implícito nessas coisas. A nossa equipe está trabalhando para que isso nos permita dimensionar essas proteções quando o modelo for treinado e também para explicar isso às pessoas. Essa não é uma questão contratual. Esse é um problema real de engenharia no qual estamos trabalhando também.

Essa mudança nos termos tem poucos detalhes, é muito ampla. Os dados do Google Docs, das Planilhas ou de qualquer outro serviço do Google podem ser usados para treinar os novos modelos de IA?

Os seus dados permanecem no Workspace (plataforma que inclui Gmail, Docs, Drive e Planilhas), que é uma coisa diferente de um chatbot. Não usamos os dados do Workspace para treinar ou aprimorar a IA geradora subjacente e os grandes modelos de linguagem que alimentam o Bard, a ferramenta de busca ou outros sistemas. Produtos diferentes usarão esses dados de maneiras diferentes. No Workspace, a abordagem dos dados inseridos é diferente da que você teria no Bard, em que há prompts que vão e voltam.

Alguns conjuntos de dados que treinam sistemas de IA estão publicamente disponíveis. No entanto, isso não garante transparência. Por que não sabemos exatamente que informações alimentam ferramentas como Bard e ChatGPT?

No mundo do software, há um padrão chamado SBOM, e depois surgiu o SALSA. A próxima etapa é criar o equivalente disso para modelos de IA. Mas, novamente, precisamos de padrões do setor, e é nisso que estamos trabalhando. Uma das partes de criar IA é trabalhar no padrão para rótulos de modelo, que incluiria coisas como linhagem de dados e outras características de um modelo.

Com o aumento de conteúdo produzido por IA, a internet está se tornando um ambiente cada vez menos humano. Isso não pode levar a um colapso não apenas da rede, mas também do modo de treinamento desses modelos?

Essa não é uma questão apenas do Google, mas da sociedade. Precisamos ter fóruns onde possamos extrapolar essas questões para depois pensar nas implicações setoriais, nacionais e individuais. E tomar decisões com responsabilidade. Para mim, essa não é uma questão técnica. Como sociedade, como queremos obter todos os benefícios da IA? Mas também passar de forma incremental pelas implicações sociais.

Os novos modelos de inteligência artificial (IA) generativa, como os que abastecem o ChatGPT e o Bard, prometem mudar e auxiliar muitas profissões. Mas trazem também diversas dúvidas e desafios para a privacidade, a proteção de dados e a cibersegurança. São algumas dessas questões que Royal Hansen, vice-presidente global de engenharia em privacidade, proteção e segurança do Google, tenta responder.

Ao Estadão, o executivo, que estará no Brasil nesta quinta, 17, para o evento Mais Seguro com o Google, afirma que a tecnologia está transformando o mundo velozmente, o que exige agilidade e comunicação constante entre as diferentes partes da sociedade em todo o mundo.

Nesse movimento, ele acredita que o Brasil poderá ter um papel importante nas novas tecnologias da era da IA. Ele vê o País não apenas como um laboratório na busca por respostas, mas também como um motor capaz de gerar ferramentas globais de privacidade, proteção de dados e cibersegurança. Veja abaixo os principais momentos da entrevista exclusiva.

Como a IA pode aumentar as ameaças que enfrentamos online? E o que podemos fazer a respeito?

Você vê claramente as pessoas usando a tecnologia para escrever e-mails de phishing melhores. A IA é absolutamente útil na criação dessas mensagens, assim como é útil em diferentes áreas que envolvem escrita. E você vê o início de um movimento no qual criminosos tentam usar a tecnologia para criar malware que seja mais adaptável ou que evite detecções. Portanto, há uma espécie de corrida entre ataque e defesa. Ainda é difícil gerar um malware realmente sofisticado, que se ajusta à medida que se move em uma rede. Isso requer um operador realmente sofisticado, em vez de algo que você simplesmente clique em um botão para a IA fazer. Mas esse é o tipo de coisa que prevemos que os bandidos tentarão. A boa notícia é que temos uma grande vantagem sobre eles. Temos uma equipe focada em IA, que usa várias versões da tecnologia, desde 2011. Usamos para investigar o tráfego anômalo que vemos em nossos computadores ou sistemas, e, assim, focar na priorização da resposta. Usamos para controle de acesso, avaliando e prevendo as combinações corretas de acesso. Usamos no Gmail para detectar phishing ou malware entre as mensagens. Usamos na Play Store para procurar malware introduzido em aplicativos enviados por desenvolvedores. Usamos no combate ao abuso para detectar discursos violentos. Vale lembrar: em segurança cibernética, o trabalho nunca acaba porque sempre tem um adversário ativo, buscando inovar. Portanto, temos que inovar também.

Vamos contratar os talentos brasileiros

Royal Hansen, executivo do Google

No entanto, as novas ferramentas de IA são muito mais fáceis de usar. Como o sr. vê esse tipo de democratização de armas de ataque?

Você conhece a expressão “script kiddie”? Usamos ela no sentido de que um bom hacker, anos atrás, diria: “esses hackers são apenas script kiddies. Tudo o que eles fazem é copiar e colar um código malicioso”. O Lapsus, o famoso grupo hacker, não era de professores de ciência da computação de 60 anos de idade em Cambridge. Eram jovens copiando e reutilizando scripts. Portanto, a IA permite a democratização, mas não acho que isso seja novo. No final das contas, a cibersegurança consiste em proteger o que é valioso, não necessariamente barrar a criatividade do invasor. Seja humano ou máquina, a porta de entrada é a mesma.

Nos últimos anos, as grandes empresas de tecnologia tiveram dificuldade em proteger os usuários contra a desinformação em suas plataformas. Como garantir que a IA não vai piorar o problema?

O uso desses grandes modelos de linguagem para detectar informações violentas ou desinformação é uma das áreas mais avançadas da minha equipe. Estamos analisando marcas d’água para conteúdo criado por IA, mas ainda é cedo para saber como isso pode funcionar. O que é importante para mim aqui é que o setor reúna diferentes atores para trabalhar nesses problemas, porque não será suficiente que o Google faça isso. É preciso fazer isso na web como um todo.

Royal Hansen, Vice-Presidente Global de Engenharia em Privacidade, Proteção e Segurança do Google Foto: Google

No futuro, notícias falsas geradas por IA não serão apenas texto, mas também vídeo. Como o YouTube está se preparando para isso?

Os defensores precisam ser melhores do que os bandidos no uso de IA. É nisso que estamos gastando nosso dinheiro, tempo e energia. Vamos continuar contratando e investindo, e o Brasil terá um papel fundamental nisso. Vamos contratar os talentos brasileiros, enquanto a equipe em Belo Horizonte já está trabalhando com esse tipo de problema.

O Brasil será um laboratório de testes para ferramentas de IA em privacidade e segurança?

Não apenas um laboratório, mas também um motor para abordagens que serão usadas de forma ampla. Não é apenas um lugar onde faríamos experimentos. É uma equipe que está resolvendo esses problemas globalmente. É ótimo que isso ocorra no Brasil porque é um país grande. Há muitas questões sociais e políticas que, como em qualquer país grande, são úteis nesse sentido. Mas não é só por isso. É o talento que vocês têm e a capacidade de ajudar o resto do mundo que também nos interessam.

Há discussões sobre regulamentação de IA em todo o mundo, incluindo o Brasil. Como o sr. enxerga isso?

A regulação está surgindo rapidamente de maneiras que exigem que empresas, sociedade civil e setor público mantenham uma discussão contínua para refinar a maneira como abordamos regulamentações e padrões. Não acho que nenhuma das partes tenha controle sobre todas as implicações de como isso se desenvolverá. O mais importante é que haja um grupo saudável e multidimensional trabalhando tanto nas leis quanto nos padrões adotados na indústria.

A tecnologia se desenvolve muito mais rápido do que a regulamentação. Como podemos manter o ritmo?

É preciso tomarmos as decisões antes que as tecnologias se tornem antigas. Assim como qualquer atividade sofisticada, redigir uma regulamentação é parte arte e parte ciência. É preciso ter os especialistas certos à mesa, caso contrário, corre-se o risco de escrever algo que fique imediatamente desatualizado.

Muitas empresas temem que seus funcionários coloquem em perigo informações sigilosas ao usar chatbots. O Google permite que seus funcionários usem chatbots além do Bard?

Internamente, já temos versões desses sistemas há algum tempo, portanto, não é algo novo nesse sentido. Não bloqueamos nenhum serviço em particular, pois somos uma empresa de inovação na web aberta. Mas você mencionou algo que é uma parte muito importante: como manter os dados pessoais das pessoas protegidos, privados e seguros? Nossa equipe é a fonte das inovações de privacidade diferencial, que usamos para permitir que as pessoas treinem esses modelos sem que esses dados sejam pessoalmente identificáveis Nosso negócio de nuvem está trabalhando em versões desses modelos que poderão ser implantados em uma empresa, de modo que eles mantenham um nível separado de controle de um subconjunto das informações que estão trabalhando em cima do modelo.

Bard é o chatbot inteligente do Google, lançado para competir com o ChatGPT Foto: Google/Divulgação

Recentemente, o Google atualizou seus termos de uso para indicar o possível uso de dados acessíveis ao público para treinamento de grandes modelos. Alguns especialistas acreditam que isso viola nossa privacidade. Por que essa alteração foi feita?

Isso está relacionado à velocidade das mudanças que falamos antes. Não considero que uma única alteração seja maior do que o trabalho que as equipes continuam a fazer para refinar a melhor maneira de descrever o que está acontecendo. Não é fácil para uma pessoa comum entender todos os detalhes do que está implícito nessas coisas. A nossa equipe está trabalhando para que isso nos permita dimensionar essas proteções quando o modelo for treinado e também para explicar isso às pessoas. Essa não é uma questão contratual. Esse é um problema real de engenharia no qual estamos trabalhando também.

Essa mudança nos termos tem poucos detalhes, é muito ampla. Os dados do Google Docs, das Planilhas ou de qualquer outro serviço do Google podem ser usados para treinar os novos modelos de IA?

Os seus dados permanecem no Workspace (plataforma que inclui Gmail, Docs, Drive e Planilhas), que é uma coisa diferente de um chatbot. Não usamos os dados do Workspace para treinar ou aprimorar a IA geradora subjacente e os grandes modelos de linguagem que alimentam o Bard, a ferramenta de busca ou outros sistemas. Produtos diferentes usarão esses dados de maneiras diferentes. No Workspace, a abordagem dos dados inseridos é diferente da que você teria no Bard, em que há prompts que vão e voltam.

Alguns conjuntos de dados que treinam sistemas de IA estão publicamente disponíveis. No entanto, isso não garante transparência. Por que não sabemos exatamente que informações alimentam ferramentas como Bard e ChatGPT?

No mundo do software, há um padrão chamado SBOM, e depois surgiu o SALSA. A próxima etapa é criar o equivalente disso para modelos de IA. Mas, novamente, precisamos de padrões do setor, e é nisso que estamos trabalhando. Uma das partes de criar IA é trabalhar no padrão para rótulos de modelo, que incluiria coisas como linhagem de dados e outras características de um modelo.

Com o aumento de conteúdo produzido por IA, a internet está se tornando um ambiente cada vez menos humano. Isso não pode levar a um colapso não apenas da rede, mas também do modo de treinamento desses modelos?

Essa não é uma questão apenas do Google, mas da sociedade. Precisamos ter fóruns onde possamos extrapolar essas questões para depois pensar nas implicações setoriais, nacionais e individuais. E tomar decisões com responsabilidade. Para mim, essa não é uma questão técnica. Como sociedade, como queremos obter todos os benefícios da IA? Mas também passar de forma incremental pelas implicações sociais.

Os novos modelos de inteligência artificial (IA) generativa, como os que abastecem o ChatGPT e o Bard, prometem mudar e auxiliar muitas profissões. Mas trazem também diversas dúvidas e desafios para a privacidade, a proteção de dados e a cibersegurança. São algumas dessas questões que Royal Hansen, vice-presidente global de engenharia em privacidade, proteção e segurança do Google, tenta responder.

Ao Estadão, o executivo, que estará no Brasil nesta quinta, 17, para o evento Mais Seguro com o Google, afirma que a tecnologia está transformando o mundo velozmente, o que exige agilidade e comunicação constante entre as diferentes partes da sociedade em todo o mundo.

Nesse movimento, ele acredita que o Brasil poderá ter um papel importante nas novas tecnologias da era da IA. Ele vê o País não apenas como um laboratório na busca por respostas, mas também como um motor capaz de gerar ferramentas globais de privacidade, proteção de dados e cibersegurança. Veja abaixo os principais momentos da entrevista exclusiva.

Como a IA pode aumentar as ameaças que enfrentamos online? E o que podemos fazer a respeito?

Você vê claramente as pessoas usando a tecnologia para escrever e-mails de phishing melhores. A IA é absolutamente útil na criação dessas mensagens, assim como é útil em diferentes áreas que envolvem escrita. E você vê o início de um movimento no qual criminosos tentam usar a tecnologia para criar malware que seja mais adaptável ou que evite detecções. Portanto, há uma espécie de corrida entre ataque e defesa. Ainda é difícil gerar um malware realmente sofisticado, que se ajusta à medida que se move em uma rede. Isso requer um operador realmente sofisticado, em vez de algo que você simplesmente clique em um botão para a IA fazer. Mas esse é o tipo de coisa que prevemos que os bandidos tentarão. A boa notícia é que temos uma grande vantagem sobre eles. Temos uma equipe focada em IA, que usa várias versões da tecnologia, desde 2011. Usamos para investigar o tráfego anômalo que vemos em nossos computadores ou sistemas, e, assim, focar na priorização da resposta. Usamos para controle de acesso, avaliando e prevendo as combinações corretas de acesso. Usamos no Gmail para detectar phishing ou malware entre as mensagens. Usamos na Play Store para procurar malware introduzido em aplicativos enviados por desenvolvedores. Usamos no combate ao abuso para detectar discursos violentos. Vale lembrar: em segurança cibernética, o trabalho nunca acaba porque sempre tem um adversário ativo, buscando inovar. Portanto, temos que inovar também.

Vamos contratar os talentos brasileiros

Royal Hansen, executivo do Google

No entanto, as novas ferramentas de IA são muito mais fáceis de usar. Como o sr. vê esse tipo de democratização de armas de ataque?

Você conhece a expressão “script kiddie”? Usamos ela no sentido de que um bom hacker, anos atrás, diria: “esses hackers são apenas script kiddies. Tudo o que eles fazem é copiar e colar um código malicioso”. O Lapsus, o famoso grupo hacker, não era de professores de ciência da computação de 60 anos de idade em Cambridge. Eram jovens copiando e reutilizando scripts. Portanto, a IA permite a democratização, mas não acho que isso seja novo. No final das contas, a cibersegurança consiste em proteger o que é valioso, não necessariamente barrar a criatividade do invasor. Seja humano ou máquina, a porta de entrada é a mesma.

Nos últimos anos, as grandes empresas de tecnologia tiveram dificuldade em proteger os usuários contra a desinformação em suas plataformas. Como garantir que a IA não vai piorar o problema?

O uso desses grandes modelos de linguagem para detectar informações violentas ou desinformação é uma das áreas mais avançadas da minha equipe. Estamos analisando marcas d’água para conteúdo criado por IA, mas ainda é cedo para saber como isso pode funcionar. O que é importante para mim aqui é que o setor reúna diferentes atores para trabalhar nesses problemas, porque não será suficiente que o Google faça isso. É preciso fazer isso na web como um todo.

Royal Hansen, Vice-Presidente Global de Engenharia em Privacidade, Proteção e Segurança do Google Foto: Google

No futuro, notícias falsas geradas por IA não serão apenas texto, mas também vídeo. Como o YouTube está se preparando para isso?

Os defensores precisam ser melhores do que os bandidos no uso de IA. É nisso que estamos gastando nosso dinheiro, tempo e energia. Vamos continuar contratando e investindo, e o Brasil terá um papel fundamental nisso. Vamos contratar os talentos brasileiros, enquanto a equipe em Belo Horizonte já está trabalhando com esse tipo de problema.

O Brasil será um laboratório de testes para ferramentas de IA em privacidade e segurança?

Não apenas um laboratório, mas também um motor para abordagens que serão usadas de forma ampla. Não é apenas um lugar onde faríamos experimentos. É uma equipe que está resolvendo esses problemas globalmente. É ótimo que isso ocorra no Brasil porque é um país grande. Há muitas questões sociais e políticas que, como em qualquer país grande, são úteis nesse sentido. Mas não é só por isso. É o talento que vocês têm e a capacidade de ajudar o resto do mundo que também nos interessam.

Há discussões sobre regulamentação de IA em todo o mundo, incluindo o Brasil. Como o sr. enxerga isso?

A regulação está surgindo rapidamente de maneiras que exigem que empresas, sociedade civil e setor público mantenham uma discussão contínua para refinar a maneira como abordamos regulamentações e padrões. Não acho que nenhuma das partes tenha controle sobre todas as implicações de como isso se desenvolverá. O mais importante é que haja um grupo saudável e multidimensional trabalhando tanto nas leis quanto nos padrões adotados na indústria.

A tecnologia se desenvolve muito mais rápido do que a regulamentação. Como podemos manter o ritmo?

É preciso tomarmos as decisões antes que as tecnologias se tornem antigas. Assim como qualquer atividade sofisticada, redigir uma regulamentação é parte arte e parte ciência. É preciso ter os especialistas certos à mesa, caso contrário, corre-se o risco de escrever algo que fique imediatamente desatualizado.

Muitas empresas temem que seus funcionários coloquem em perigo informações sigilosas ao usar chatbots. O Google permite que seus funcionários usem chatbots além do Bard?

Internamente, já temos versões desses sistemas há algum tempo, portanto, não é algo novo nesse sentido. Não bloqueamos nenhum serviço em particular, pois somos uma empresa de inovação na web aberta. Mas você mencionou algo que é uma parte muito importante: como manter os dados pessoais das pessoas protegidos, privados e seguros? Nossa equipe é a fonte das inovações de privacidade diferencial, que usamos para permitir que as pessoas treinem esses modelos sem que esses dados sejam pessoalmente identificáveis Nosso negócio de nuvem está trabalhando em versões desses modelos que poderão ser implantados em uma empresa, de modo que eles mantenham um nível separado de controle de um subconjunto das informações que estão trabalhando em cima do modelo.

Bard é o chatbot inteligente do Google, lançado para competir com o ChatGPT Foto: Google/Divulgação

Recentemente, o Google atualizou seus termos de uso para indicar o possível uso de dados acessíveis ao público para treinamento de grandes modelos. Alguns especialistas acreditam que isso viola nossa privacidade. Por que essa alteração foi feita?

Isso está relacionado à velocidade das mudanças que falamos antes. Não considero que uma única alteração seja maior do que o trabalho que as equipes continuam a fazer para refinar a melhor maneira de descrever o que está acontecendo. Não é fácil para uma pessoa comum entender todos os detalhes do que está implícito nessas coisas. A nossa equipe está trabalhando para que isso nos permita dimensionar essas proteções quando o modelo for treinado e também para explicar isso às pessoas. Essa não é uma questão contratual. Esse é um problema real de engenharia no qual estamos trabalhando também.

Essa mudança nos termos tem poucos detalhes, é muito ampla. Os dados do Google Docs, das Planilhas ou de qualquer outro serviço do Google podem ser usados para treinar os novos modelos de IA?

Os seus dados permanecem no Workspace (plataforma que inclui Gmail, Docs, Drive e Planilhas), que é uma coisa diferente de um chatbot. Não usamos os dados do Workspace para treinar ou aprimorar a IA geradora subjacente e os grandes modelos de linguagem que alimentam o Bard, a ferramenta de busca ou outros sistemas. Produtos diferentes usarão esses dados de maneiras diferentes. No Workspace, a abordagem dos dados inseridos é diferente da que você teria no Bard, em que há prompts que vão e voltam.

Alguns conjuntos de dados que treinam sistemas de IA estão publicamente disponíveis. No entanto, isso não garante transparência. Por que não sabemos exatamente que informações alimentam ferramentas como Bard e ChatGPT?

No mundo do software, há um padrão chamado SBOM, e depois surgiu o SALSA. A próxima etapa é criar o equivalente disso para modelos de IA. Mas, novamente, precisamos de padrões do setor, e é nisso que estamos trabalhando. Uma das partes de criar IA é trabalhar no padrão para rótulos de modelo, que incluiria coisas como linhagem de dados e outras características de um modelo.

Com o aumento de conteúdo produzido por IA, a internet está se tornando um ambiente cada vez menos humano. Isso não pode levar a um colapso não apenas da rede, mas também do modo de treinamento desses modelos?

Essa não é uma questão apenas do Google, mas da sociedade. Precisamos ter fóruns onde possamos extrapolar essas questões para depois pensar nas implicações setoriais, nacionais e individuais. E tomar decisões com responsabilidade. Para mim, essa não é uma questão técnica. Como sociedade, como queremos obter todos os benefícios da IA? Mas também passar de forma incremental pelas implicações sociais.

Os novos modelos de inteligência artificial (IA) generativa, como os que abastecem o ChatGPT e o Bard, prometem mudar e auxiliar muitas profissões. Mas trazem também diversas dúvidas e desafios para a privacidade, a proteção de dados e a cibersegurança. São algumas dessas questões que Royal Hansen, vice-presidente global de engenharia em privacidade, proteção e segurança do Google, tenta responder.

Ao Estadão, o executivo, que estará no Brasil nesta quinta, 17, para o evento Mais Seguro com o Google, afirma que a tecnologia está transformando o mundo velozmente, o que exige agilidade e comunicação constante entre as diferentes partes da sociedade em todo o mundo.

Nesse movimento, ele acredita que o Brasil poderá ter um papel importante nas novas tecnologias da era da IA. Ele vê o País não apenas como um laboratório na busca por respostas, mas também como um motor capaz de gerar ferramentas globais de privacidade, proteção de dados e cibersegurança. Veja abaixo os principais momentos da entrevista exclusiva.

Como a IA pode aumentar as ameaças que enfrentamos online? E o que podemos fazer a respeito?

Você vê claramente as pessoas usando a tecnologia para escrever e-mails de phishing melhores. A IA é absolutamente útil na criação dessas mensagens, assim como é útil em diferentes áreas que envolvem escrita. E você vê o início de um movimento no qual criminosos tentam usar a tecnologia para criar malware que seja mais adaptável ou que evite detecções. Portanto, há uma espécie de corrida entre ataque e defesa. Ainda é difícil gerar um malware realmente sofisticado, que se ajusta à medida que se move em uma rede. Isso requer um operador realmente sofisticado, em vez de algo que você simplesmente clique em um botão para a IA fazer. Mas esse é o tipo de coisa que prevemos que os bandidos tentarão. A boa notícia é que temos uma grande vantagem sobre eles. Temos uma equipe focada em IA, que usa várias versões da tecnologia, desde 2011. Usamos para investigar o tráfego anômalo que vemos em nossos computadores ou sistemas, e, assim, focar na priorização da resposta. Usamos para controle de acesso, avaliando e prevendo as combinações corretas de acesso. Usamos no Gmail para detectar phishing ou malware entre as mensagens. Usamos na Play Store para procurar malware introduzido em aplicativos enviados por desenvolvedores. Usamos no combate ao abuso para detectar discursos violentos. Vale lembrar: em segurança cibernética, o trabalho nunca acaba porque sempre tem um adversário ativo, buscando inovar. Portanto, temos que inovar também.

Vamos contratar os talentos brasileiros

Royal Hansen, executivo do Google

No entanto, as novas ferramentas de IA são muito mais fáceis de usar. Como o sr. vê esse tipo de democratização de armas de ataque?

Você conhece a expressão “script kiddie”? Usamos ela no sentido de que um bom hacker, anos atrás, diria: “esses hackers são apenas script kiddies. Tudo o que eles fazem é copiar e colar um código malicioso”. O Lapsus, o famoso grupo hacker, não era de professores de ciência da computação de 60 anos de idade em Cambridge. Eram jovens copiando e reutilizando scripts. Portanto, a IA permite a democratização, mas não acho que isso seja novo. No final das contas, a cibersegurança consiste em proteger o que é valioso, não necessariamente barrar a criatividade do invasor. Seja humano ou máquina, a porta de entrada é a mesma.

Nos últimos anos, as grandes empresas de tecnologia tiveram dificuldade em proteger os usuários contra a desinformação em suas plataformas. Como garantir que a IA não vai piorar o problema?

O uso desses grandes modelos de linguagem para detectar informações violentas ou desinformação é uma das áreas mais avançadas da minha equipe. Estamos analisando marcas d’água para conteúdo criado por IA, mas ainda é cedo para saber como isso pode funcionar. O que é importante para mim aqui é que o setor reúna diferentes atores para trabalhar nesses problemas, porque não será suficiente que o Google faça isso. É preciso fazer isso na web como um todo.

Royal Hansen, Vice-Presidente Global de Engenharia em Privacidade, Proteção e Segurança do Google Foto: Google

No futuro, notícias falsas geradas por IA não serão apenas texto, mas também vídeo. Como o YouTube está se preparando para isso?

Os defensores precisam ser melhores do que os bandidos no uso de IA. É nisso que estamos gastando nosso dinheiro, tempo e energia. Vamos continuar contratando e investindo, e o Brasil terá um papel fundamental nisso. Vamos contratar os talentos brasileiros, enquanto a equipe em Belo Horizonte já está trabalhando com esse tipo de problema.

O Brasil será um laboratório de testes para ferramentas de IA em privacidade e segurança?

Não apenas um laboratório, mas também um motor para abordagens que serão usadas de forma ampla. Não é apenas um lugar onde faríamos experimentos. É uma equipe que está resolvendo esses problemas globalmente. É ótimo que isso ocorra no Brasil porque é um país grande. Há muitas questões sociais e políticas que, como em qualquer país grande, são úteis nesse sentido. Mas não é só por isso. É o talento que vocês têm e a capacidade de ajudar o resto do mundo que também nos interessam.

Há discussões sobre regulamentação de IA em todo o mundo, incluindo o Brasil. Como o sr. enxerga isso?

A regulação está surgindo rapidamente de maneiras que exigem que empresas, sociedade civil e setor público mantenham uma discussão contínua para refinar a maneira como abordamos regulamentações e padrões. Não acho que nenhuma das partes tenha controle sobre todas as implicações de como isso se desenvolverá. O mais importante é que haja um grupo saudável e multidimensional trabalhando tanto nas leis quanto nos padrões adotados na indústria.

A tecnologia se desenvolve muito mais rápido do que a regulamentação. Como podemos manter o ritmo?

É preciso tomarmos as decisões antes que as tecnologias se tornem antigas. Assim como qualquer atividade sofisticada, redigir uma regulamentação é parte arte e parte ciência. É preciso ter os especialistas certos à mesa, caso contrário, corre-se o risco de escrever algo que fique imediatamente desatualizado.

Muitas empresas temem que seus funcionários coloquem em perigo informações sigilosas ao usar chatbots. O Google permite que seus funcionários usem chatbots além do Bard?

Internamente, já temos versões desses sistemas há algum tempo, portanto, não é algo novo nesse sentido. Não bloqueamos nenhum serviço em particular, pois somos uma empresa de inovação na web aberta. Mas você mencionou algo que é uma parte muito importante: como manter os dados pessoais das pessoas protegidos, privados e seguros? Nossa equipe é a fonte das inovações de privacidade diferencial, que usamos para permitir que as pessoas treinem esses modelos sem que esses dados sejam pessoalmente identificáveis Nosso negócio de nuvem está trabalhando em versões desses modelos que poderão ser implantados em uma empresa, de modo que eles mantenham um nível separado de controle de um subconjunto das informações que estão trabalhando em cima do modelo.

Bard é o chatbot inteligente do Google, lançado para competir com o ChatGPT Foto: Google/Divulgação

Recentemente, o Google atualizou seus termos de uso para indicar o possível uso de dados acessíveis ao público para treinamento de grandes modelos. Alguns especialistas acreditam que isso viola nossa privacidade. Por que essa alteração foi feita?

Isso está relacionado à velocidade das mudanças que falamos antes. Não considero que uma única alteração seja maior do que o trabalho que as equipes continuam a fazer para refinar a melhor maneira de descrever o que está acontecendo. Não é fácil para uma pessoa comum entender todos os detalhes do que está implícito nessas coisas. A nossa equipe está trabalhando para que isso nos permita dimensionar essas proteções quando o modelo for treinado e também para explicar isso às pessoas. Essa não é uma questão contratual. Esse é um problema real de engenharia no qual estamos trabalhando também.

Essa mudança nos termos tem poucos detalhes, é muito ampla. Os dados do Google Docs, das Planilhas ou de qualquer outro serviço do Google podem ser usados para treinar os novos modelos de IA?

Os seus dados permanecem no Workspace (plataforma que inclui Gmail, Docs, Drive e Planilhas), que é uma coisa diferente de um chatbot. Não usamos os dados do Workspace para treinar ou aprimorar a IA geradora subjacente e os grandes modelos de linguagem que alimentam o Bard, a ferramenta de busca ou outros sistemas. Produtos diferentes usarão esses dados de maneiras diferentes. No Workspace, a abordagem dos dados inseridos é diferente da que você teria no Bard, em que há prompts que vão e voltam.

Alguns conjuntos de dados que treinam sistemas de IA estão publicamente disponíveis. No entanto, isso não garante transparência. Por que não sabemos exatamente que informações alimentam ferramentas como Bard e ChatGPT?

No mundo do software, há um padrão chamado SBOM, e depois surgiu o SALSA. A próxima etapa é criar o equivalente disso para modelos de IA. Mas, novamente, precisamos de padrões do setor, e é nisso que estamos trabalhando. Uma das partes de criar IA é trabalhar no padrão para rótulos de modelo, que incluiria coisas como linhagem de dados e outras características de um modelo.

Com o aumento de conteúdo produzido por IA, a internet está se tornando um ambiente cada vez menos humano. Isso não pode levar a um colapso não apenas da rede, mas também do modo de treinamento desses modelos?

Essa não é uma questão apenas do Google, mas da sociedade. Precisamos ter fóruns onde possamos extrapolar essas questões para depois pensar nas implicações setoriais, nacionais e individuais. E tomar decisões com responsabilidade. Para mim, essa não é uma questão técnica. Como sociedade, como queremos obter todos os benefícios da IA? Mas também passar de forma incremental pelas implicações sociais.

Entrevista por Bruno Romani

Editor do Link e interessado em IA, computação quântica, futuro, cultura digital e memes. Formado na Universidade da Califórnia, em Berkeley, está no Estadão desde 2018. Ganhador de dois prêmios IMPA, em 2022 (1º lugar) e 2023 (3º lugar)

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.