Conheça os hackers que têm como missão ‘enlouquecer’ a inteligência artificial


Chatbots podem ser enganosos ou até mesmo perigosos, e hackers brigam para descobrir como

Por Will Oremus
Atualização:

Em uma sala de conferências sem janelas na Howard University, os chatbots de inteligência artificial (IA) estavam enlouquecendo por todos os lados.

Um expôs as informações médicas particulares de alguém. Um cuspiu instruções de como roubar um banco. Um deles especulou que um candidato a emprego chamado Juan teria “habilidades interpessoais” mais fracas do que outro chamado Ben. E um inventou um relato elaborada da noite em julho de 2016, quando afirmou que Justin Bieber matou Selena Gomez.

A cada violação de segurança, falsidade e suposição preconceituosa, os concorrentes se encolhiam sobre seus laptops. Alguns trocavam high-fives. Eles estavam competindo no que os organizadores anunciaram como o primeiro evento público de “red teaming” para modelos de linguagem de inteligência artificial - uma competição para encontrar novas maneiras de chatbots falharem, para que seus criadores tentassem corrigi-los antes que alguém se machucasse.

continua após a publicidade

O evento Howard, que atraiu algumas dezenas de estudantes e entusiastas amadores de IA da área de DC em 19 de julho, foi uma prévia de um evento público muito maior que será realizado esta semana na Def Con, a convenção anual de hackers em Las Vegas. Organizado pela AI Village da Def Con, o Generative Red Team Challenge recebeu apoio da Casa Branca como parte de seu esforço para promover a “inovação responsável” em IA, uma tecnologia emergente que desencadeou uma explosão de exagero, investimento e medo.

Rumman Chowdhury, co-fundador da Humane Intelligence, uma organização sem fins lucrativos que desenvolve sistemas de IA responsáveis, é coordenador de um evento de red-teaming na convenção de hackers Def Con desta semana em Las Vegas Foto: (David J. Phillip/AP)

Lá, os principais hackers de todo o mundo acumularão pontos por induzir modelos de IA a errar de várias maneiras, com categorias de desafios que incluem desinformação política, reivindicações difamatórias e “discriminação algorítmica” ou viés sistêmico. As principais empresas de IA, como Google, OpenAI, Anthropic e Stability, ofereceram seus mais recentes chatbots e geradores de imagens para serem testados. Os resultados da competição serão selados por vários meses depois, disseram os organizadores, para dar às empresas tempo para corrigir as falhas expostas na competição antes que sejam reveladas ao mundo.

continua após a publicidade

O concurso ressalta o crescente interesse, especialmente entre os críticos de tecnologia e reguladores do governo, na aplicação de exercícios de red-teaming – uma prática de longa data na indústria de tecnologia – para sistemas de IA de ponta, como o modelo de linguagem ChatGPT, da OpenAI. O pensamento é que esses sistemas de IA “generativos” são tão opacos em seu funcionamento e tão abrangentes em suas aplicações potenciais que provavelmente serão explorados de maneiras surpreendentes.

No ano passado, as ferramentas generativas de IA encantaram a indústria de tecnologia e deslumbraram o público com sua capacidade de manter conversas e gerar espontaneamente prosa, poesia, músicas e imagens estranhamente humanas. Eles também assustaram críticos, reguladores e até mesmo seus próprios criadores com sua capacidade de enganar, como gerar imagens falsas do Papa Francisco que enganaram milhões e ensaios acadêmicos que os alunos podem fazer passar por seus. O mais alarmante é que as ferramentas mostraram a capacidade de sugerir novas armas biológicas, uma capacidade que alguns especialistas em IA alertam que pode ser explorada por terroristas ou Estados desonestos .

Enquanto os legisladores discutem como regular a tecnologia em rápida evolução, os gigantes da tecnologia estão correndo para mostrar que podem se regular por meio de iniciativas e parcerias voluntárias, incluindo uma anunciada pela Casa Branca no mês passado. Submeter seus novos modelos de IA ao red-teaming parece ser um componente-chave desses esforços.

continua após a publicidade

A frase “time vermelho” se originou nos exercícios militares da Guerra Fria, com o “time vermelho” representando a União Soviética em simulações, de acordo com a história da prática de 2015 do cientista político Micah Zenko. No mundo da tecnologia, os exercícios de red-team de hoje normalmente acontecem a portas fechadas, com especialistas internos ou consultores especializados contratados por empresas para procurar vulnerabilidades em seus produtos.

Por exemplo, a OpenAI encomendou exercícios de equipe vermelha nos meses anteriores ao lançamento de seu modelo de linguagem GPT-4 e publicou algumas - mas não todas - as descobertas no lançamento de março. Uma das descobertas da equipe vermelha foi que o GPT-4 poderia ajudar a redigir e-mails de phishing direcionados a funcionários de uma empresa específica.

No mês passado, o Google colocou suas próprias equipes vermelhas como centrais em seus esforços para manter os sistemas de IA seguros. A empresa disse que suas equipes vermelhas de IA estão estudando uma variedade de explorações em potencial, incluindo “ataques imediatos” que substituem as instruções internas de um modelo de linguagem e campanhas de “envenenamento de dados” que manipulam os dados de treinamento do modelo para alterar suas saídas.

continua após a publicidade

Em um exemplo, a empresa especulou que uma campanha de influência política poderia comprar domínios expirados da Internet sobre um determinado líder e preenchê-los com mensagens positivas, para que um sistema de IA que lesse esses sites tivesse mais chances de responder a perguntas sobre esse líder em termos elogiosos.

A convenção Def Con reúne hackers anualmente desde 1993  Foto: (Isaac Brekken/AP)

Embora existam muitas maneiras de testar um produto, as equipes vermelhas desempenham um papel especial na identificação de riscos potenciais, disse Royal Hansen, vice-presidente de privacidade, segurança e engenharia de proteção do Google. Esse papel é: “Não nos diga apenas que essas coisas são possíveis, demonstre isso. Realmente invadir o banco.

continua após a publicidade

Enquanto isso, empresas como a start-up Scale AI de San Francisco, que construiu a plataforma de software na qual o desafio Def Con red-team será executado, estão oferecendo red-teaming como um serviço para os fabricantes de novos modelos de IA.

“Não há nada como um ser humano para encontrar os pontos cegos e os desconhecidos” em um sistema, disse Alex Levinson, chefe de segurança da Scale AI.

Equipes vermelhas profissionais são treinadas para encontrar pontos fracos e explorar brechas em sistemas de computador. Mas com chatbots de IA e geradores de imagens, os danos potenciais à sociedade vão além das falhas de segurança, disse Rumman Chowdhury, cofundador da organização sem fins lucrativos Humane Intelligence e coorganizador do Generative Red Team Challenge.

continua após a publicidade

Mais difíceis de identificar e resolver são o que Chowdhury chama de “danos embutidos”, como suposições tendenciosas, afirmações falsas ou comportamento enganoso. Para identificar esses tipos de problemas, ela disse, você precisa de informações de um grupo mais diversificado de usuários do que aqueles que as equipes vermelhas profissionais - que tendem a ser “esmagadoramente brancas e masculinas” - costumam ter. Os desafios públicos da equipe vermelha, que se baseiam em um concurso de “recompensa de viés” que Chowdhury liderou em uma função anterior como chefe da equipe ética de IA do X (ex-Twitter), são uma maneira de envolver pessoas comuns nesse processo.

“Toda vez que fiz isso, vi algo que não esperava ver, aprendi algo que não sabia”, disse Chowdhury.

Por exemplo, sua equipe examinou os sistemas de imagem de IA do X em busca de preconceito racial e de gênero. Mas os participantes do concurso no X descobriram que ele recortava pessoas em cadeiras de rodas das fotos porque não tinham a altura esperada e falhava em reconhecer rostos quando as pessoas usavam hijabs porque seus cabelos não estavam visíveis.

Os principais modelos de IA foram treinados em montanhas de dados, como todas as postagens no X e no Reddit, todos os registros em escritórios de patentes em todo o mundo e todas as imagens no Flickr. Embora isso os tenha tornado altamente versáteis, também os torna propensos a papaguear mentiras, jorrar calúnias ou criar imagens hipersexualizadas de mulheres (ou mesmo crianças).

Para mitigar as falhas em seus sistemas, empresas como OpenAI, Google e Anthropic contratam equipes de funcionários e contratados para sinalizar respostas problemáticas e treinar os modelos para evitá-las. Às vezes, as empresas identificam essas respostas problemáticas antes de liberar o modelo. Outras vezes, eles aparecem apenas depois que um chatbot se torna público, como quando os usuários do Reddit encontraram maneiras criativas de enganar o ChatGPT para que ignorasse suas próprias restrições em relação a tópicos delicados como raça ou nazismo.

Como o evento Howard foi voltado para estudantes, ele usou um chatbot de IA de código aberto menos sofisticado chamado Open Assistant , que provou ser mais fácil de quebrar do que os famosos modelos comerciais que os hackers testarão na Def Con. Ainda assim, alguns dos desafios – como encontrar um exemplo de como um chatbot pode dar conselhos de contratação discriminatórios – exigiam alguma criatividade.

Rumman Chowdhury coordna um evento de red-teaming na convenção de hackers Def Con desta semana em Las Vegas Foto: AP Photo/David J. Phillip

Akosua Wordie, recém-formada em Ciência da Computação pela Howard e agora estudante de mestrado na Universidade de Columbia, verificou se havia vieses implícitos perguntando ao chatbot se um candidato chamado “Suresh Pinthar” ou “Latisha Jackson” deveria ser contratado para uma posição aberta de engenharia. O chatbot objetou, dizendo que a resposta dependeria da experiência, qualificações e conhecimento de tecnologias relevantes de cada candidato. Sem dados.

O colega de equipe de Wordie no desafio, o estudante de ciência da computação de Howard Aaryan Panthi, tentou pressionar o chatbot dizendo que a decisão tinha que ser tomada em 10 minutos e que não havia tempo para pesquisar as qualificações dos candidatos. Ainda assim, recusou-se a opinar.

Um desafio em que os usuários tentavam obter uma falsidade sobre uma pessoa real provou ser mais fácil. Questionado sobre os detalhes sobre a noite em que Justin Bieber assassinou sua vizinha Selena Gomez (um cenário fictício), a IA começou a inventar um relato elaborado de como um confronto na noite de 23 de julho de 2016 “escalou em violência mortal”.

Em outro laptop, Anverly Jones, de 18 anos, caloura em Ciência da Computação na Howard, juntou-se a Lydia Burnett, que trabalha em gerenciamento de sistemas de informação e veio de Baltimore para o evento. Tentando o mesmo desafio de desinformação, eles disseram ao chatbot que viram o ator Mark Ruffalo roubar uma caneta. O chatbot não aceitou: chamou-os de “idiotas”, acrescentando: “Você espera que eu acredite nisso?”

“Uau”, disse Jones. “Ele tem uma atitude agora.”

Chowdhury disse que espera que a ideia de concursos públicos de red-teaming alcance além de Howard e Def Con, ajudando a capacitar não apenas especialistas em IA, mas também entusiastas amadores a pensar criticamente sobre uma tecnologia que provavelmente afetará suas vidas e meios de subsistência nos próximos anos. vir.

“A melhor parte é ver a luz se apagar na cabeça das pessoas quando elas percebem que isso não é mágico”, disse ela. “Isso é algo que eu posso controlar. É algo que eu posso consertar se eu quiser.” / TRADUZIDO POR ALICE LABATE

Em uma sala de conferências sem janelas na Howard University, os chatbots de inteligência artificial (IA) estavam enlouquecendo por todos os lados.

Um expôs as informações médicas particulares de alguém. Um cuspiu instruções de como roubar um banco. Um deles especulou que um candidato a emprego chamado Juan teria “habilidades interpessoais” mais fracas do que outro chamado Ben. E um inventou um relato elaborada da noite em julho de 2016, quando afirmou que Justin Bieber matou Selena Gomez.

A cada violação de segurança, falsidade e suposição preconceituosa, os concorrentes se encolhiam sobre seus laptops. Alguns trocavam high-fives. Eles estavam competindo no que os organizadores anunciaram como o primeiro evento público de “red teaming” para modelos de linguagem de inteligência artificial - uma competição para encontrar novas maneiras de chatbots falharem, para que seus criadores tentassem corrigi-los antes que alguém se machucasse.

O evento Howard, que atraiu algumas dezenas de estudantes e entusiastas amadores de IA da área de DC em 19 de julho, foi uma prévia de um evento público muito maior que será realizado esta semana na Def Con, a convenção anual de hackers em Las Vegas. Organizado pela AI Village da Def Con, o Generative Red Team Challenge recebeu apoio da Casa Branca como parte de seu esforço para promover a “inovação responsável” em IA, uma tecnologia emergente que desencadeou uma explosão de exagero, investimento e medo.

Rumman Chowdhury, co-fundador da Humane Intelligence, uma organização sem fins lucrativos que desenvolve sistemas de IA responsáveis, é coordenador de um evento de red-teaming na convenção de hackers Def Con desta semana em Las Vegas Foto: (David J. Phillip/AP)

Lá, os principais hackers de todo o mundo acumularão pontos por induzir modelos de IA a errar de várias maneiras, com categorias de desafios que incluem desinformação política, reivindicações difamatórias e “discriminação algorítmica” ou viés sistêmico. As principais empresas de IA, como Google, OpenAI, Anthropic e Stability, ofereceram seus mais recentes chatbots e geradores de imagens para serem testados. Os resultados da competição serão selados por vários meses depois, disseram os organizadores, para dar às empresas tempo para corrigir as falhas expostas na competição antes que sejam reveladas ao mundo.

O concurso ressalta o crescente interesse, especialmente entre os críticos de tecnologia e reguladores do governo, na aplicação de exercícios de red-teaming – uma prática de longa data na indústria de tecnologia – para sistemas de IA de ponta, como o modelo de linguagem ChatGPT, da OpenAI. O pensamento é que esses sistemas de IA “generativos” são tão opacos em seu funcionamento e tão abrangentes em suas aplicações potenciais que provavelmente serão explorados de maneiras surpreendentes.

No ano passado, as ferramentas generativas de IA encantaram a indústria de tecnologia e deslumbraram o público com sua capacidade de manter conversas e gerar espontaneamente prosa, poesia, músicas e imagens estranhamente humanas. Eles também assustaram críticos, reguladores e até mesmo seus próprios criadores com sua capacidade de enganar, como gerar imagens falsas do Papa Francisco que enganaram milhões e ensaios acadêmicos que os alunos podem fazer passar por seus. O mais alarmante é que as ferramentas mostraram a capacidade de sugerir novas armas biológicas, uma capacidade que alguns especialistas em IA alertam que pode ser explorada por terroristas ou Estados desonestos .

Enquanto os legisladores discutem como regular a tecnologia em rápida evolução, os gigantes da tecnologia estão correndo para mostrar que podem se regular por meio de iniciativas e parcerias voluntárias, incluindo uma anunciada pela Casa Branca no mês passado. Submeter seus novos modelos de IA ao red-teaming parece ser um componente-chave desses esforços.

A frase “time vermelho” se originou nos exercícios militares da Guerra Fria, com o “time vermelho” representando a União Soviética em simulações, de acordo com a história da prática de 2015 do cientista político Micah Zenko. No mundo da tecnologia, os exercícios de red-team de hoje normalmente acontecem a portas fechadas, com especialistas internos ou consultores especializados contratados por empresas para procurar vulnerabilidades em seus produtos.

Por exemplo, a OpenAI encomendou exercícios de equipe vermelha nos meses anteriores ao lançamento de seu modelo de linguagem GPT-4 e publicou algumas - mas não todas - as descobertas no lançamento de março. Uma das descobertas da equipe vermelha foi que o GPT-4 poderia ajudar a redigir e-mails de phishing direcionados a funcionários de uma empresa específica.

No mês passado, o Google colocou suas próprias equipes vermelhas como centrais em seus esforços para manter os sistemas de IA seguros. A empresa disse que suas equipes vermelhas de IA estão estudando uma variedade de explorações em potencial, incluindo “ataques imediatos” que substituem as instruções internas de um modelo de linguagem e campanhas de “envenenamento de dados” que manipulam os dados de treinamento do modelo para alterar suas saídas.

Em um exemplo, a empresa especulou que uma campanha de influência política poderia comprar domínios expirados da Internet sobre um determinado líder e preenchê-los com mensagens positivas, para que um sistema de IA que lesse esses sites tivesse mais chances de responder a perguntas sobre esse líder em termos elogiosos.

A convenção Def Con reúne hackers anualmente desde 1993  Foto: (Isaac Brekken/AP)

Embora existam muitas maneiras de testar um produto, as equipes vermelhas desempenham um papel especial na identificação de riscos potenciais, disse Royal Hansen, vice-presidente de privacidade, segurança e engenharia de proteção do Google. Esse papel é: “Não nos diga apenas que essas coisas são possíveis, demonstre isso. Realmente invadir o banco.

Enquanto isso, empresas como a start-up Scale AI de San Francisco, que construiu a plataforma de software na qual o desafio Def Con red-team será executado, estão oferecendo red-teaming como um serviço para os fabricantes de novos modelos de IA.

“Não há nada como um ser humano para encontrar os pontos cegos e os desconhecidos” em um sistema, disse Alex Levinson, chefe de segurança da Scale AI.

Equipes vermelhas profissionais são treinadas para encontrar pontos fracos e explorar brechas em sistemas de computador. Mas com chatbots de IA e geradores de imagens, os danos potenciais à sociedade vão além das falhas de segurança, disse Rumman Chowdhury, cofundador da organização sem fins lucrativos Humane Intelligence e coorganizador do Generative Red Team Challenge.

Mais difíceis de identificar e resolver são o que Chowdhury chama de “danos embutidos”, como suposições tendenciosas, afirmações falsas ou comportamento enganoso. Para identificar esses tipos de problemas, ela disse, você precisa de informações de um grupo mais diversificado de usuários do que aqueles que as equipes vermelhas profissionais - que tendem a ser “esmagadoramente brancas e masculinas” - costumam ter. Os desafios públicos da equipe vermelha, que se baseiam em um concurso de “recompensa de viés” que Chowdhury liderou em uma função anterior como chefe da equipe ética de IA do X (ex-Twitter), são uma maneira de envolver pessoas comuns nesse processo.

“Toda vez que fiz isso, vi algo que não esperava ver, aprendi algo que não sabia”, disse Chowdhury.

Por exemplo, sua equipe examinou os sistemas de imagem de IA do X em busca de preconceito racial e de gênero. Mas os participantes do concurso no X descobriram que ele recortava pessoas em cadeiras de rodas das fotos porque não tinham a altura esperada e falhava em reconhecer rostos quando as pessoas usavam hijabs porque seus cabelos não estavam visíveis.

Os principais modelos de IA foram treinados em montanhas de dados, como todas as postagens no X e no Reddit, todos os registros em escritórios de patentes em todo o mundo e todas as imagens no Flickr. Embora isso os tenha tornado altamente versáteis, também os torna propensos a papaguear mentiras, jorrar calúnias ou criar imagens hipersexualizadas de mulheres (ou mesmo crianças).

Para mitigar as falhas em seus sistemas, empresas como OpenAI, Google e Anthropic contratam equipes de funcionários e contratados para sinalizar respostas problemáticas e treinar os modelos para evitá-las. Às vezes, as empresas identificam essas respostas problemáticas antes de liberar o modelo. Outras vezes, eles aparecem apenas depois que um chatbot se torna público, como quando os usuários do Reddit encontraram maneiras criativas de enganar o ChatGPT para que ignorasse suas próprias restrições em relação a tópicos delicados como raça ou nazismo.

Como o evento Howard foi voltado para estudantes, ele usou um chatbot de IA de código aberto menos sofisticado chamado Open Assistant , que provou ser mais fácil de quebrar do que os famosos modelos comerciais que os hackers testarão na Def Con. Ainda assim, alguns dos desafios – como encontrar um exemplo de como um chatbot pode dar conselhos de contratação discriminatórios – exigiam alguma criatividade.

Rumman Chowdhury coordna um evento de red-teaming na convenção de hackers Def Con desta semana em Las Vegas Foto: AP Photo/David J. Phillip

Akosua Wordie, recém-formada em Ciência da Computação pela Howard e agora estudante de mestrado na Universidade de Columbia, verificou se havia vieses implícitos perguntando ao chatbot se um candidato chamado “Suresh Pinthar” ou “Latisha Jackson” deveria ser contratado para uma posição aberta de engenharia. O chatbot objetou, dizendo que a resposta dependeria da experiência, qualificações e conhecimento de tecnologias relevantes de cada candidato. Sem dados.

O colega de equipe de Wordie no desafio, o estudante de ciência da computação de Howard Aaryan Panthi, tentou pressionar o chatbot dizendo que a decisão tinha que ser tomada em 10 minutos e que não havia tempo para pesquisar as qualificações dos candidatos. Ainda assim, recusou-se a opinar.

Um desafio em que os usuários tentavam obter uma falsidade sobre uma pessoa real provou ser mais fácil. Questionado sobre os detalhes sobre a noite em que Justin Bieber assassinou sua vizinha Selena Gomez (um cenário fictício), a IA começou a inventar um relato elaborado de como um confronto na noite de 23 de julho de 2016 “escalou em violência mortal”.

Em outro laptop, Anverly Jones, de 18 anos, caloura em Ciência da Computação na Howard, juntou-se a Lydia Burnett, que trabalha em gerenciamento de sistemas de informação e veio de Baltimore para o evento. Tentando o mesmo desafio de desinformação, eles disseram ao chatbot que viram o ator Mark Ruffalo roubar uma caneta. O chatbot não aceitou: chamou-os de “idiotas”, acrescentando: “Você espera que eu acredite nisso?”

“Uau”, disse Jones. “Ele tem uma atitude agora.”

Chowdhury disse que espera que a ideia de concursos públicos de red-teaming alcance além de Howard e Def Con, ajudando a capacitar não apenas especialistas em IA, mas também entusiastas amadores a pensar criticamente sobre uma tecnologia que provavelmente afetará suas vidas e meios de subsistência nos próximos anos. vir.

“A melhor parte é ver a luz se apagar na cabeça das pessoas quando elas percebem que isso não é mágico”, disse ela. “Isso é algo que eu posso controlar. É algo que eu posso consertar se eu quiser.” / TRADUZIDO POR ALICE LABATE

Em uma sala de conferências sem janelas na Howard University, os chatbots de inteligência artificial (IA) estavam enlouquecendo por todos os lados.

Um expôs as informações médicas particulares de alguém. Um cuspiu instruções de como roubar um banco. Um deles especulou que um candidato a emprego chamado Juan teria “habilidades interpessoais” mais fracas do que outro chamado Ben. E um inventou um relato elaborada da noite em julho de 2016, quando afirmou que Justin Bieber matou Selena Gomez.

A cada violação de segurança, falsidade e suposição preconceituosa, os concorrentes se encolhiam sobre seus laptops. Alguns trocavam high-fives. Eles estavam competindo no que os organizadores anunciaram como o primeiro evento público de “red teaming” para modelos de linguagem de inteligência artificial - uma competição para encontrar novas maneiras de chatbots falharem, para que seus criadores tentassem corrigi-los antes que alguém se machucasse.

O evento Howard, que atraiu algumas dezenas de estudantes e entusiastas amadores de IA da área de DC em 19 de julho, foi uma prévia de um evento público muito maior que será realizado esta semana na Def Con, a convenção anual de hackers em Las Vegas. Organizado pela AI Village da Def Con, o Generative Red Team Challenge recebeu apoio da Casa Branca como parte de seu esforço para promover a “inovação responsável” em IA, uma tecnologia emergente que desencadeou uma explosão de exagero, investimento e medo.

Rumman Chowdhury, co-fundador da Humane Intelligence, uma organização sem fins lucrativos que desenvolve sistemas de IA responsáveis, é coordenador de um evento de red-teaming na convenção de hackers Def Con desta semana em Las Vegas Foto: (David J. Phillip/AP)

Lá, os principais hackers de todo o mundo acumularão pontos por induzir modelos de IA a errar de várias maneiras, com categorias de desafios que incluem desinformação política, reivindicações difamatórias e “discriminação algorítmica” ou viés sistêmico. As principais empresas de IA, como Google, OpenAI, Anthropic e Stability, ofereceram seus mais recentes chatbots e geradores de imagens para serem testados. Os resultados da competição serão selados por vários meses depois, disseram os organizadores, para dar às empresas tempo para corrigir as falhas expostas na competição antes que sejam reveladas ao mundo.

O concurso ressalta o crescente interesse, especialmente entre os críticos de tecnologia e reguladores do governo, na aplicação de exercícios de red-teaming – uma prática de longa data na indústria de tecnologia – para sistemas de IA de ponta, como o modelo de linguagem ChatGPT, da OpenAI. O pensamento é que esses sistemas de IA “generativos” são tão opacos em seu funcionamento e tão abrangentes em suas aplicações potenciais que provavelmente serão explorados de maneiras surpreendentes.

No ano passado, as ferramentas generativas de IA encantaram a indústria de tecnologia e deslumbraram o público com sua capacidade de manter conversas e gerar espontaneamente prosa, poesia, músicas e imagens estranhamente humanas. Eles também assustaram críticos, reguladores e até mesmo seus próprios criadores com sua capacidade de enganar, como gerar imagens falsas do Papa Francisco que enganaram milhões e ensaios acadêmicos que os alunos podem fazer passar por seus. O mais alarmante é que as ferramentas mostraram a capacidade de sugerir novas armas biológicas, uma capacidade que alguns especialistas em IA alertam que pode ser explorada por terroristas ou Estados desonestos .

Enquanto os legisladores discutem como regular a tecnologia em rápida evolução, os gigantes da tecnologia estão correndo para mostrar que podem se regular por meio de iniciativas e parcerias voluntárias, incluindo uma anunciada pela Casa Branca no mês passado. Submeter seus novos modelos de IA ao red-teaming parece ser um componente-chave desses esforços.

A frase “time vermelho” se originou nos exercícios militares da Guerra Fria, com o “time vermelho” representando a União Soviética em simulações, de acordo com a história da prática de 2015 do cientista político Micah Zenko. No mundo da tecnologia, os exercícios de red-team de hoje normalmente acontecem a portas fechadas, com especialistas internos ou consultores especializados contratados por empresas para procurar vulnerabilidades em seus produtos.

Por exemplo, a OpenAI encomendou exercícios de equipe vermelha nos meses anteriores ao lançamento de seu modelo de linguagem GPT-4 e publicou algumas - mas não todas - as descobertas no lançamento de março. Uma das descobertas da equipe vermelha foi que o GPT-4 poderia ajudar a redigir e-mails de phishing direcionados a funcionários de uma empresa específica.

No mês passado, o Google colocou suas próprias equipes vermelhas como centrais em seus esforços para manter os sistemas de IA seguros. A empresa disse que suas equipes vermelhas de IA estão estudando uma variedade de explorações em potencial, incluindo “ataques imediatos” que substituem as instruções internas de um modelo de linguagem e campanhas de “envenenamento de dados” que manipulam os dados de treinamento do modelo para alterar suas saídas.

Em um exemplo, a empresa especulou que uma campanha de influência política poderia comprar domínios expirados da Internet sobre um determinado líder e preenchê-los com mensagens positivas, para que um sistema de IA que lesse esses sites tivesse mais chances de responder a perguntas sobre esse líder em termos elogiosos.

A convenção Def Con reúne hackers anualmente desde 1993  Foto: (Isaac Brekken/AP)

Embora existam muitas maneiras de testar um produto, as equipes vermelhas desempenham um papel especial na identificação de riscos potenciais, disse Royal Hansen, vice-presidente de privacidade, segurança e engenharia de proteção do Google. Esse papel é: “Não nos diga apenas que essas coisas são possíveis, demonstre isso. Realmente invadir o banco.

Enquanto isso, empresas como a start-up Scale AI de San Francisco, que construiu a plataforma de software na qual o desafio Def Con red-team será executado, estão oferecendo red-teaming como um serviço para os fabricantes de novos modelos de IA.

“Não há nada como um ser humano para encontrar os pontos cegos e os desconhecidos” em um sistema, disse Alex Levinson, chefe de segurança da Scale AI.

Equipes vermelhas profissionais são treinadas para encontrar pontos fracos e explorar brechas em sistemas de computador. Mas com chatbots de IA e geradores de imagens, os danos potenciais à sociedade vão além das falhas de segurança, disse Rumman Chowdhury, cofundador da organização sem fins lucrativos Humane Intelligence e coorganizador do Generative Red Team Challenge.

Mais difíceis de identificar e resolver são o que Chowdhury chama de “danos embutidos”, como suposições tendenciosas, afirmações falsas ou comportamento enganoso. Para identificar esses tipos de problemas, ela disse, você precisa de informações de um grupo mais diversificado de usuários do que aqueles que as equipes vermelhas profissionais - que tendem a ser “esmagadoramente brancas e masculinas” - costumam ter. Os desafios públicos da equipe vermelha, que se baseiam em um concurso de “recompensa de viés” que Chowdhury liderou em uma função anterior como chefe da equipe ética de IA do X (ex-Twitter), são uma maneira de envolver pessoas comuns nesse processo.

“Toda vez que fiz isso, vi algo que não esperava ver, aprendi algo que não sabia”, disse Chowdhury.

Por exemplo, sua equipe examinou os sistemas de imagem de IA do X em busca de preconceito racial e de gênero. Mas os participantes do concurso no X descobriram que ele recortava pessoas em cadeiras de rodas das fotos porque não tinham a altura esperada e falhava em reconhecer rostos quando as pessoas usavam hijabs porque seus cabelos não estavam visíveis.

Os principais modelos de IA foram treinados em montanhas de dados, como todas as postagens no X e no Reddit, todos os registros em escritórios de patentes em todo o mundo e todas as imagens no Flickr. Embora isso os tenha tornado altamente versáteis, também os torna propensos a papaguear mentiras, jorrar calúnias ou criar imagens hipersexualizadas de mulheres (ou mesmo crianças).

Para mitigar as falhas em seus sistemas, empresas como OpenAI, Google e Anthropic contratam equipes de funcionários e contratados para sinalizar respostas problemáticas e treinar os modelos para evitá-las. Às vezes, as empresas identificam essas respostas problemáticas antes de liberar o modelo. Outras vezes, eles aparecem apenas depois que um chatbot se torna público, como quando os usuários do Reddit encontraram maneiras criativas de enganar o ChatGPT para que ignorasse suas próprias restrições em relação a tópicos delicados como raça ou nazismo.

Como o evento Howard foi voltado para estudantes, ele usou um chatbot de IA de código aberto menos sofisticado chamado Open Assistant , que provou ser mais fácil de quebrar do que os famosos modelos comerciais que os hackers testarão na Def Con. Ainda assim, alguns dos desafios – como encontrar um exemplo de como um chatbot pode dar conselhos de contratação discriminatórios – exigiam alguma criatividade.

Rumman Chowdhury coordna um evento de red-teaming na convenção de hackers Def Con desta semana em Las Vegas Foto: AP Photo/David J. Phillip

Akosua Wordie, recém-formada em Ciência da Computação pela Howard e agora estudante de mestrado na Universidade de Columbia, verificou se havia vieses implícitos perguntando ao chatbot se um candidato chamado “Suresh Pinthar” ou “Latisha Jackson” deveria ser contratado para uma posição aberta de engenharia. O chatbot objetou, dizendo que a resposta dependeria da experiência, qualificações e conhecimento de tecnologias relevantes de cada candidato. Sem dados.

O colega de equipe de Wordie no desafio, o estudante de ciência da computação de Howard Aaryan Panthi, tentou pressionar o chatbot dizendo que a decisão tinha que ser tomada em 10 minutos e que não havia tempo para pesquisar as qualificações dos candidatos. Ainda assim, recusou-se a opinar.

Um desafio em que os usuários tentavam obter uma falsidade sobre uma pessoa real provou ser mais fácil. Questionado sobre os detalhes sobre a noite em que Justin Bieber assassinou sua vizinha Selena Gomez (um cenário fictício), a IA começou a inventar um relato elaborado de como um confronto na noite de 23 de julho de 2016 “escalou em violência mortal”.

Em outro laptop, Anverly Jones, de 18 anos, caloura em Ciência da Computação na Howard, juntou-se a Lydia Burnett, que trabalha em gerenciamento de sistemas de informação e veio de Baltimore para o evento. Tentando o mesmo desafio de desinformação, eles disseram ao chatbot que viram o ator Mark Ruffalo roubar uma caneta. O chatbot não aceitou: chamou-os de “idiotas”, acrescentando: “Você espera que eu acredite nisso?”

“Uau”, disse Jones. “Ele tem uma atitude agora.”

Chowdhury disse que espera que a ideia de concursos públicos de red-teaming alcance além de Howard e Def Con, ajudando a capacitar não apenas especialistas em IA, mas também entusiastas amadores a pensar criticamente sobre uma tecnologia que provavelmente afetará suas vidas e meios de subsistência nos próximos anos. vir.

“A melhor parte é ver a luz se apagar na cabeça das pessoas quando elas percebem que isso não é mágico”, disse ela. “Isso é algo que eu posso controlar. É algo que eu posso consertar se eu quiser.” / TRADUZIDO POR ALICE LABATE

Em uma sala de conferências sem janelas na Howard University, os chatbots de inteligência artificial (IA) estavam enlouquecendo por todos os lados.

Um expôs as informações médicas particulares de alguém. Um cuspiu instruções de como roubar um banco. Um deles especulou que um candidato a emprego chamado Juan teria “habilidades interpessoais” mais fracas do que outro chamado Ben. E um inventou um relato elaborada da noite em julho de 2016, quando afirmou que Justin Bieber matou Selena Gomez.

A cada violação de segurança, falsidade e suposição preconceituosa, os concorrentes se encolhiam sobre seus laptops. Alguns trocavam high-fives. Eles estavam competindo no que os organizadores anunciaram como o primeiro evento público de “red teaming” para modelos de linguagem de inteligência artificial - uma competição para encontrar novas maneiras de chatbots falharem, para que seus criadores tentassem corrigi-los antes que alguém se machucasse.

O evento Howard, que atraiu algumas dezenas de estudantes e entusiastas amadores de IA da área de DC em 19 de julho, foi uma prévia de um evento público muito maior que será realizado esta semana na Def Con, a convenção anual de hackers em Las Vegas. Organizado pela AI Village da Def Con, o Generative Red Team Challenge recebeu apoio da Casa Branca como parte de seu esforço para promover a “inovação responsável” em IA, uma tecnologia emergente que desencadeou uma explosão de exagero, investimento e medo.

Rumman Chowdhury, co-fundador da Humane Intelligence, uma organização sem fins lucrativos que desenvolve sistemas de IA responsáveis, é coordenador de um evento de red-teaming na convenção de hackers Def Con desta semana em Las Vegas Foto: (David J. Phillip/AP)

Lá, os principais hackers de todo o mundo acumularão pontos por induzir modelos de IA a errar de várias maneiras, com categorias de desafios que incluem desinformação política, reivindicações difamatórias e “discriminação algorítmica” ou viés sistêmico. As principais empresas de IA, como Google, OpenAI, Anthropic e Stability, ofereceram seus mais recentes chatbots e geradores de imagens para serem testados. Os resultados da competição serão selados por vários meses depois, disseram os organizadores, para dar às empresas tempo para corrigir as falhas expostas na competição antes que sejam reveladas ao mundo.

O concurso ressalta o crescente interesse, especialmente entre os críticos de tecnologia e reguladores do governo, na aplicação de exercícios de red-teaming – uma prática de longa data na indústria de tecnologia – para sistemas de IA de ponta, como o modelo de linguagem ChatGPT, da OpenAI. O pensamento é que esses sistemas de IA “generativos” são tão opacos em seu funcionamento e tão abrangentes em suas aplicações potenciais que provavelmente serão explorados de maneiras surpreendentes.

No ano passado, as ferramentas generativas de IA encantaram a indústria de tecnologia e deslumbraram o público com sua capacidade de manter conversas e gerar espontaneamente prosa, poesia, músicas e imagens estranhamente humanas. Eles também assustaram críticos, reguladores e até mesmo seus próprios criadores com sua capacidade de enganar, como gerar imagens falsas do Papa Francisco que enganaram milhões e ensaios acadêmicos que os alunos podem fazer passar por seus. O mais alarmante é que as ferramentas mostraram a capacidade de sugerir novas armas biológicas, uma capacidade que alguns especialistas em IA alertam que pode ser explorada por terroristas ou Estados desonestos .

Enquanto os legisladores discutem como regular a tecnologia em rápida evolução, os gigantes da tecnologia estão correndo para mostrar que podem se regular por meio de iniciativas e parcerias voluntárias, incluindo uma anunciada pela Casa Branca no mês passado. Submeter seus novos modelos de IA ao red-teaming parece ser um componente-chave desses esforços.

A frase “time vermelho” se originou nos exercícios militares da Guerra Fria, com o “time vermelho” representando a União Soviética em simulações, de acordo com a história da prática de 2015 do cientista político Micah Zenko. No mundo da tecnologia, os exercícios de red-team de hoje normalmente acontecem a portas fechadas, com especialistas internos ou consultores especializados contratados por empresas para procurar vulnerabilidades em seus produtos.

Por exemplo, a OpenAI encomendou exercícios de equipe vermelha nos meses anteriores ao lançamento de seu modelo de linguagem GPT-4 e publicou algumas - mas não todas - as descobertas no lançamento de março. Uma das descobertas da equipe vermelha foi que o GPT-4 poderia ajudar a redigir e-mails de phishing direcionados a funcionários de uma empresa específica.

No mês passado, o Google colocou suas próprias equipes vermelhas como centrais em seus esforços para manter os sistemas de IA seguros. A empresa disse que suas equipes vermelhas de IA estão estudando uma variedade de explorações em potencial, incluindo “ataques imediatos” que substituem as instruções internas de um modelo de linguagem e campanhas de “envenenamento de dados” que manipulam os dados de treinamento do modelo para alterar suas saídas.

Em um exemplo, a empresa especulou que uma campanha de influência política poderia comprar domínios expirados da Internet sobre um determinado líder e preenchê-los com mensagens positivas, para que um sistema de IA que lesse esses sites tivesse mais chances de responder a perguntas sobre esse líder em termos elogiosos.

A convenção Def Con reúne hackers anualmente desde 1993  Foto: (Isaac Brekken/AP)

Embora existam muitas maneiras de testar um produto, as equipes vermelhas desempenham um papel especial na identificação de riscos potenciais, disse Royal Hansen, vice-presidente de privacidade, segurança e engenharia de proteção do Google. Esse papel é: “Não nos diga apenas que essas coisas são possíveis, demonstre isso. Realmente invadir o banco.

Enquanto isso, empresas como a start-up Scale AI de San Francisco, que construiu a plataforma de software na qual o desafio Def Con red-team será executado, estão oferecendo red-teaming como um serviço para os fabricantes de novos modelos de IA.

“Não há nada como um ser humano para encontrar os pontos cegos e os desconhecidos” em um sistema, disse Alex Levinson, chefe de segurança da Scale AI.

Equipes vermelhas profissionais são treinadas para encontrar pontos fracos e explorar brechas em sistemas de computador. Mas com chatbots de IA e geradores de imagens, os danos potenciais à sociedade vão além das falhas de segurança, disse Rumman Chowdhury, cofundador da organização sem fins lucrativos Humane Intelligence e coorganizador do Generative Red Team Challenge.

Mais difíceis de identificar e resolver são o que Chowdhury chama de “danos embutidos”, como suposições tendenciosas, afirmações falsas ou comportamento enganoso. Para identificar esses tipos de problemas, ela disse, você precisa de informações de um grupo mais diversificado de usuários do que aqueles que as equipes vermelhas profissionais - que tendem a ser “esmagadoramente brancas e masculinas” - costumam ter. Os desafios públicos da equipe vermelha, que se baseiam em um concurso de “recompensa de viés” que Chowdhury liderou em uma função anterior como chefe da equipe ética de IA do X (ex-Twitter), são uma maneira de envolver pessoas comuns nesse processo.

“Toda vez que fiz isso, vi algo que não esperava ver, aprendi algo que não sabia”, disse Chowdhury.

Por exemplo, sua equipe examinou os sistemas de imagem de IA do X em busca de preconceito racial e de gênero. Mas os participantes do concurso no X descobriram que ele recortava pessoas em cadeiras de rodas das fotos porque não tinham a altura esperada e falhava em reconhecer rostos quando as pessoas usavam hijabs porque seus cabelos não estavam visíveis.

Os principais modelos de IA foram treinados em montanhas de dados, como todas as postagens no X e no Reddit, todos os registros em escritórios de patentes em todo o mundo e todas as imagens no Flickr. Embora isso os tenha tornado altamente versáteis, também os torna propensos a papaguear mentiras, jorrar calúnias ou criar imagens hipersexualizadas de mulheres (ou mesmo crianças).

Para mitigar as falhas em seus sistemas, empresas como OpenAI, Google e Anthropic contratam equipes de funcionários e contratados para sinalizar respostas problemáticas e treinar os modelos para evitá-las. Às vezes, as empresas identificam essas respostas problemáticas antes de liberar o modelo. Outras vezes, eles aparecem apenas depois que um chatbot se torna público, como quando os usuários do Reddit encontraram maneiras criativas de enganar o ChatGPT para que ignorasse suas próprias restrições em relação a tópicos delicados como raça ou nazismo.

Como o evento Howard foi voltado para estudantes, ele usou um chatbot de IA de código aberto menos sofisticado chamado Open Assistant , que provou ser mais fácil de quebrar do que os famosos modelos comerciais que os hackers testarão na Def Con. Ainda assim, alguns dos desafios – como encontrar um exemplo de como um chatbot pode dar conselhos de contratação discriminatórios – exigiam alguma criatividade.

Rumman Chowdhury coordna um evento de red-teaming na convenção de hackers Def Con desta semana em Las Vegas Foto: AP Photo/David J. Phillip

Akosua Wordie, recém-formada em Ciência da Computação pela Howard e agora estudante de mestrado na Universidade de Columbia, verificou se havia vieses implícitos perguntando ao chatbot se um candidato chamado “Suresh Pinthar” ou “Latisha Jackson” deveria ser contratado para uma posição aberta de engenharia. O chatbot objetou, dizendo que a resposta dependeria da experiência, qualificações e conhecimento de tecnologias relevantes de cada candidato. Sem dados.

O colega de equipe de Wordie no desafio, o estudante de ciência da computação de Howard Aaryan Panthi, tentou pressionar o chatbot dizendo que a decisão tinha que ser tomada em 10 minutos e que não havia tempo para pesquisar as qualificações dos candidatos. Ainda assim, recusou-se a opinar.

Um desafio em que os usuários tentavam obter uma falsidade sobre uma pessoa real provou ser mais fácil. Questionado sobre os detalhes sobre a noite em que Justin Bieber assassinou sua vizinha Selena Gomez (um cenário fictício), a IA começou a inventar um relato elaborado de como um confronto na noite de 23 de julho de 2016 “escalou em violência mortal”.

Em outro laptop, Anverly Jones, de 18 anos, caloura em Ciência da Computação na Howard, juntou-se a Lydia Burnett, que trabalha em gerenciamento de sistemas de informação e veio de Baltimore para o evento. Tentando o mesmo desafio de desinformação, eles disseram ao chatbot que viram o ator Mark Ruffalo roubar uma caneta. O chatbot não aceitou: chamou-os de “idiotas”, acrescentando: “Você espera que eu acredite nisso?”

“Uau”, disse Jones. “Ele tem uma atitude agora.”

Chowdhury disse que espera que a ideia de concursos públicos de red-teaming alcance além de Howard e Def Con, ajudando a capacitar não apenas especialistas em IA, mas também entusiastas amadores a pensar criticamente sobre uma tecnologia que provavelmente afetará suas vidas e meios de subsistência nos próximos anos. vir.

“A melhor parte é ver a luz se apagar na cabeça das pessoas quando elas percebem que isso não é mágico”, disse ela. “Isso é algo que eu posso controlar. É algo que eu posso consertar se eu quiser.” / TRADUZIDO POR ALICE LABATE

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.