Opinião|A segunda era da IA: oportunidades e sinais de alerta


Nas mãos de pessoas e entidades bem-intencionadas, os novos algoritmos de IA têm ajudado a sociedade. Em mãos erradas, o poder destrutivo dessas ferramentas já tem sido posto em prática

Por Bruno Horta

Do final do século passado até meados da década passada, as aplicações de Inteligência Artificial (IA) se limitavam a tarefas especializadas como classificar dados em categorias ou realizar regressões numéricas. Essas tarefas são amplamente utilizadas na resolução de problemas de negócios e aplicações diversas por atuarem de forma eficiente e em grande volume de dados. Um exemplo disso é o algoritmo de busca do Google, que executa a tarefa de ordenar os tópicos por importância de acordo com as palavras digitadas no campo de busca e é capaz de avaliar rapidamente milhões de descritivos de páginas na internet e retornar aqueles com maior relevância para o usuário.

Pelo volume de informação processada e pela complexidade muito acima da capacidade humana, esses modelos de IA especializados têm gerado grandes benefícios para a sociedade e encontram aplicações em muitas áreas de negócio, como varejo, healthcare, supply chain, mercado financeiro, entre outras. Muitas vezes nem percebemos que estamos utilizando aplicativos e dispositivos que funcionam graças à IA, em suas diferentes formas que processam não apenas dados estruturados em bancos de dados, mas também imagens, como as técnicas de visão computacional, e textos, como os modelos de processamento de linguagem natural que são amplamente aplicados em ferramentas de verificação ortográfica e tradutores de texto.

Estamos entrando numa segunda era da inteligência artificial, em que o mesmo modelo é capaz de realizar tarefas mais gerais e mais complexas. De forma muito resumida, em geral, os modelos de IA aprendem durante uma fase chamada de treinamento, na qual um conjunto de dados é apresentado ao modelo sem necessariamente um programador codificar tudo o que aquele conjunto de dados representa. No caso descrito no parágrafo anterior, os modelos são dedicados a resolver um problema específico e são apresentados a um conjunto de dados representativo daquele problema. Já os modelos da segunda era não têm um propósito específico e utilizam técnicas mais avançadas de treinamento, sendo capazes de aprender a fazer conexões lógicas num imenso volume de dados. Para realizar tal treinamento, a computação paralela massiva (centenas ou milhares de processadores trabalhando em paralelo) é utilizada – um dos motivos pelos quais essas técnicas mais avançadas de IA não surgiram anteriormente, quando nossa capacidade computacional era bem mais limitada.

continua após a publicidade

Boa parte dos avanços da segunda era da IA corresponde a modelos generativos que são capazes de criar conteúdo. Com o DALL-E2, por exemplo, um humano sem habilidades de desenho pode criar ilustrações magníficas apenas digitando num campo o objeto desejado. Nessa nova forma de IA, a ferramenta mais popular atualmente é, sem dúvidas, o ChatGPT, um chatbot capaz de criar conteúdo textual de forma que mesmo o leitor mais crítico muitas vezes não consegue discernir que aquele texto foi gerado por um computador. Isso vale também para músicas, vídeos e até código de computador. Essas novas habilidades da inteligência artificial abrem uma enorme avenida de novas aplicações em negócios, mas também ligam o alerta para potenciais perigos da tecnologia.

O grande problema deste avanço tecnológico tão rápido é que nossa sociedade e nossas instituições não conseguem se adaptar a essas mudanças na velocidade necessária. Ainda estamos tentando entender como os algoritmos da primeira era (ordenação de conteúdo no YouTube, no Facebook, no Twitter e no Google) afetaram o resultado de eleições recentes mundo afora, culminando inclusive em investigações do FBI e de outras instituições policiais, e já estamos entrando numa nova era da tecnologia, cujo potencial construtivo e destrutivo são quase completamente desconhecidos. É importante frisar que a maioria dos usuários de tecnologia e redes sociais ainda está adaptada aos protocolos básicos de segurança digital e muitos estão sujeitos a golpes não muito sofisticados como, por exemplo, pessoas se passando por familiares pedindo depósitos em PIX. Podemos, então, imaginar o nível de sofisticação que esse tipo de golpe poderá alcançar com o uso de áudio e imagens fake gerados automaticamente por IA a partir da voz gravada e de fotos gravadas por malware no smartphone dessas pessoas.

Nas mãos de pessoas e entidades bem-intencionadas, estes novos algoritmos de IA estão ajudando na criação de conteúdo, na solução de problemas de negócios e no bem-estar da sociedade. Porém, em mãos erradas, o poder destrutivo dessas ferramentas já tem sido colocado em prática. Os softwares maliciosos (malwares) estão cada vez mais sendo desenvolvidos com base em IA generativa, e isso tem se refletido num grande aumento de ataques cibernéticos nos EUA e em outros países. Além dos riscos cibernéticos, existem as fraudes. Considerando que já é possível criar conteúdo de áudio com a voz de uma pessoa, não é difícil de imaginar os danos que podem ser causados numa conversa fantasiosa e incriminatória com, por exemplo, um áudio de uma figura pública. Mesmo que seja possível comprovar a inocência do indivíduo, o dano causado pela viralização do conteúdo na internet é irreversível.

continua após a publicidade

Fotos e vídeos comprometedores também poderiam ser criados com essa tecnologia. Pode parecer assustador, mas casos de chamadas e imagens fake já estão rodando a internet. Alguns exemplos famosos são discursos falsos de celebridades como Barack Obama, Tom Cruise e até Volodymyr Zelensky (imagine só uma guerra nuclear sendo causada por uma deepfake).

Em exemplos menos nocivos, porém igualmente fraudulentos, os internautas foram recentemente bombardeados com uma foto do papa vestindo um casaco volumoso e disruptivo. Alguns canais de moda importantes chegaram a creditar a peça ao estilista Filippo Sorcinelli, até que descobrissem que era apenas uma autoria da ferramenta Midjourney, outra inteligência artificial generativa.

É por esses e outros motivos que, recentemente, uma carta aberta foi assinada por vários desenvolvedores da tecnologia, governantes e celebridades com o intuito de frear o desenvolvimento destas tecnologias mais avançadas de IA.

continua após a publicidade

Estamos nos aproximando de um estágio em que a máquina será capaz de realizar a maior parte do trabalho cognitivo que um humano pode realizar. Porém a máquina (ainda) não tem consciência e, portanto, como qualquer ferramenta, está a serviço do ser humano.

O avanço da IA tem sido muito rápido e global, permitindo que a tecnologia ganhe muito espaço em aplicações benéficas à humanidade, mas, em contrapartida, dificultando o controle do seu uso para aplicações maliciosas.

O próprio Sam Altman, CEO da OpenAI, empresa desenvolvedora do ChatGPT, destacou em sua entrevista recente à ABC News que ele mesmo está preocupado com os efeitos indesejáveis do avanço da IA, como a massificação das fake news e o desenvolvimento de novas estratégias de ataque cibernético. Entretanto, ressaltou um aspecto altamente positivo: o ChatGPT criou na sociedade uma preocupação com os próximos passos do desenvolvimento da IA. Essa preocupação pode mudar os rumos do desenvolvimento, levando a protocolos mais seguros e restrições éticas para essas tecnologias, visando a favorecer a criação de mecanismos de proteção ou minimização de efeitos nocivos. Até que ponto surtirá efeito? É uma pergunta que nem mesmo o ChatGPT conseguiria responder.

continua após a publicidade

*

É GERENTE DE CIÊNCIA DE DADOS DA PEERS CONSULTING & TECHNOLOGY

Do final do século passado até meados da década passada, as aplicações de Inteligência Artificial (IA) se limitavam a tarefas especializadas como classificar dados em categorias ou realizar regressões numéricas. Essas tarefas são amplamente utilizadas na resolução de problemas de negócios e aplicações diversas por atuarem de forma eficiente e em grande volume de dados. Um exemplo disso é o algoritmo de busca do Google, que executa a tarefa de ordenar os tópicos por importância de acordo com as palavras digitadas no campo de busca e é capaz de avaliar rapidamente milhões de descritivos de páginas na internet e retornar aqueles com maior relevância para o usuário.

Pelo volume de informação processada e pela complexidade muito acima da capacidade humana, esses modelos de IA especializados têm gerado grandes benefícios para a sociedade e encontram aplicações em muitas áreas de negócio, como varejo, healthcare, supply chain, mercado financeiro, entre outras. Muitas vezes nem percebemos que estamos utilizando aplicativos e dispositivos que funcionam graças à IA, em suas diferentes formas que processam não apenas dados estruturados em bancos de dados, mas também imagens, como as técnicas de visão computacional, e textos, como os modelos de processamento de linguagem natural que são amplamente aplicados em ferramentas de verificação ortográfica e tradutores de texto.

Estamos entrando numa segunda era da inteligência artificial, em que o mesmo modelo é capaz de realizar tarefas mais gerais e mais complexas. De forma muito resumida, em geral, os modelos de IA aprendem durante uma fase chamada de treinamento, na qual um conjunto de dados é apresentado ao modelo sem necessariamente um programador codificar tudo o que aquele conjunto de dados representa. No caso descrito no parágrafo anterior, os modelos são dedicados a resolver um problema específico e são apresentados a um conjunto de dados representativo daquele problema. Já os modelos da segunda era não têm um propósito específico e utilizam técnicas mais avançadas de treinamento, sendo capazes de aprender a fazer conexões lógicas num imenso volume de dados. Para realizar tal treinamento, a computação paralela massiva (centenas ou milhares de processadores trabalhando em paralelo) é utilizada – um dos motivos pelos quais essas técnicas mais avançadas de IA não surgiram anteriormente, quando nossa capacidade computacional era bem mais limitada.

Boa parte dos avanços da segunda era da IA corresponde a modelos generativos que são capazes de criar conteúdo. Com o DALL-E2, por exemplo, um humano sem habilidades de desenho pode criar ilustrações magníficas apenas digitando num campo o objeto desejado. Nessa nova forma de IA, a ferramenta mais popular atualmente é, sem dúvidas, o ChatGPT, um chatbot capaz de criar conteúdo textual de forma que mesmo o leitor mais crítico muitas vezes não consegue discernir que aquele texto foi gerado por um computador. Isso vale também para músicas, vídeos e até código de computador. Essas novas habilidades da inteligência artificial abrem uma enorme avenida de novas aplicações em negócios, mas também ligam o alerta para potenciais perigos da tecnologia.

O grande problema deste avanço tecnológico tão rápido é que nossa sociedade e nossas instituições não conseguem se adaptar a essas mudanças na velocidade necessária. Ainda estamos tentando entender como os algoritmos da primeira era (ordenação de conteúdo no YouTube, no Facebook, no Twitter e no Google) afetaram o resultado de eleições recentes mundo afora, culminando inclusive em investigações do FBI e de outras instituições policiais, e já estamos entrando numa nova era da tecnologia, cujo potencial construtivo e destrutivo são quase completamente desconhecidos. É importante frisar que a maioria dos usuários de tecnologia e redes sociais ainda está adaptada aos protocolos básicos de segurança digital e muitos estão sujeitos a golpes não muito sofisticados como, por exemplo, pessoas se passando por familiares pedindo depósitos em PIX. Podemos, então, imaginar o nível de sofisticação que esse tipo de golpe poderá alcançar com o uso de áudio e imagens fake gerados automaticamente por IA a partir da voz gravada e de fotos gravadas por malware no smartphone dessas pessoas.

Nas mãos de pessoas e entidades bem-intencionadas, estes novos algoritmos de IA estão ajudando na criação de conteúdo, na solução de problemas de negócios e no bem-estar da sociedade. Porém, em mãos erradas, o poder destrutivo dessas ferramentas já tem sido colocado em prática. Os softwares maliciosos (malwares) estão cada vez mais sendo desenvolvidos com base em IA generativa, e isso tem se refletido num grande aumento de ataques cibernéticos nos EUA e em outros países. Além dos riscos cibernéticos, existem as fraudes. Considerando que já é possível criar conteúdo de áudio com a voz de uma pessoa, não é difícil de imaginar os danos que podem ser causados numa conversa fantasiosa e incriminatória com, por exemplo, um áudio de uma figura pública. Mesmo que seja possível comprovar a inocência do indivíduo, o dano causado pela viralização do conteúdo na internet é irreversível.

Fotos e vídeos comprometedores também poderiam ser criados com essa tecnologia. Pode parecer assustador, mas casos de chamadas e imagens fake já estão rodando a internet. Alguns exemplos famosos são discursos falsos de celebridades como Barack Obama, Tom Cruise e até Volodymyr Zelensky (imagine só uma guerra nuclear sendo causada por uma deepfake).

Em exemplos menos nocivos, porém igualmente fraudulentos, os internautas foram recentemente bombardeados com uma foto do papa vestindo um casaco volumoso e disruptivo. Alguns canais de moda importantes chegaram a creditar a peça ao estilista Filippo Sorcinelli, até que descobrissem que era apenas uma autoria da ferramenta Midjourney, outra inteligência artificial generativa.

É por esses e outros motivos que, recentemente, uma carta aberta foi assinada por vários desenvolvedores da tecnologia, governantes e celebridades com o intuito de frear o desenvolvimento destas tecnologias mais avançadas de IA.

Estamos nos aproximando de um estágio em que a máquina será capaz de realizar a maior parte do trabalho cognitivo que um humano pode realizar. Porém a máquina (ainda) não tem consciência e, portanto, como qualquer ferramenta, está a serviço do ser humano.

O avanço da IA tem sido muito rápido e global, permitindo que a tecnologia ganhe muito espaço em aplicações benéficas à humanidade, mas, em contrapartida, dificultando o controle do seu uso para aplicações maliciosas.

O próprio Sam Altman, CEO da OpenAI, empresa desenvolvedora do ChatGPT, destacou em sua entrevista recente à ABC News que ele mesmo está preocupado com os efeitos indesejáveis do avanço da IA, como a massificação das fake news e o desenvolvimento de novas estratégias de ataque cibernético. Entretanto, ressaltou um aspecto altamente positivo: o ChatGPT criou na sociedade uma preocupação com os próximos passos do desenvolvimento da IA. Essa preocupação pode mudar os rumos do desenvolvimento, levando a protocolos mais seguros e restrições éticas para essas tecnologias, visando a favorecer a criação de mecanismos de proteção ou minimização de efeitos nocivos. Até que ponto surtirá efeito? É uma pergunta que nem mesmo o ChatGPT conseguiria responder.

*

É GERENTE DE CIÊNCIA DE DADOS DA PEERS CONSULTING & TECHNOLOGY

Do final do século passado até meados da década passada, as aplicações de Inteligência Artificial (IA) se limitavam a tarefas especializadas como classificar dados em categorias ou realizar regressões numéricas. Essas tarefas são amplamente utilizadas na resolução de problemas de negócios e aplicações diversas por atuarem de forma eficiente e em grande volume de dados. Um exemplo disso é o algoritmo de busca do Google, que executa a tarefa de ordenar os tópicos por importância de acordo com as palavras digitadas no campo de busca e é capaz de avaliar rapidamente milhões de descritivos de páginas na internet e retornar aqueles com maior relevância para o usuário.

Pelo volume de informação processada e pela complexidade muito acima da capacidade humana, esses modelos de IA especializados têm gerado grandes benefícios para a sociedade e encontram aplicações em muitas áreas de negócio, como varejo, healthcare, supply chain, mercado financeiro, entre outras. Muitas vezes nem percebemos que estamos utilizando aplicativos e dispositivos que funcionam graças à IA, em suas diferentes formas que processam não apenas dados estruturados em bancos de dados, mas também imagens, como as técnicas de visão computacional, e textos, como os modelos de processamento de linguagem natural que são amplamente aplicados em ferramentas de verificação ortográfica e tradutores de texto.

Estamos entrando numa segunda era da inteligência artificial, em que o mesmo modelo é capaz de realizar tarefas mais gerais e mais complexas. De forma muito resumida, em geral, os modelos de IA aprendem durante uma fase chamada de treinamento, na qual um conjunto de dados é apresentado ao modelo sem necessariamente um programador codificar tudo o que aquele conjunto de dados representa. No caso descrito no parágrafo anterior, os modelos são dedicados a resolver um problema específico e são apresentados a um conjunto de dados representativo daquele problema. Já os modelos da segunda era não têm um propósito específico e utilizam técnicas mais avançadas de treinamento, sendo capazes de aprender a fazer conexões lógicas num imenso volume de dados. Para realizar tal treinamento, a computação paralela massiva (centenas ou milhares de processadores trabalhando em paralelo) é utilizada – um dos motivos pelos quais essas técnicas mais avançadas de IA não surgiram anteriormente, quando nossa capacidade computacional era bem mais limitada.

Boa parte dos avanços da segunda era da IA corresponde a modelos generativos que são capazes de criar conteúdo. Com o DALL-E2, por exemplo, um humano sem habilidades de desenho pode criar ilustrações magníficas apenas digitando num campo o objeto desejado. Nessa nova forma de IA, a ferramenta mais popular atualmente é, sem dúvidas, o ChatGPT, um chatbot capaz de criar conteúdo textual de forma que mesmo o leitor mais crítico muitas vezes não consegue discernir que aquele texto foi gerado por um computador. Isso vale também para músicas, vídeos e até código de computador. Essas novas habilidades da inteligência artificial abrem uma enorme avenida de novas aplicações em negócios, mas também ligam o alerta para potenciais perigos da tecnologia.

O grande problema deste avanço tecnológico tão rápido é que nossa sociedade e nossas instituições não conseguem se adaptar a essas mudanças na velocidade necessária. Ainda estamos tentando entender como os algoritmos da primeira era (ordenação de conteúdo no YouTube, no Facebook, no Twitter e no Google) afetaram o resultado de eleições recentes mundo afora, culminando inclusive em investigações do FBI e de outras instituições policiais, e já estamos entrando numa nova era da tecnologia, cujo potencial construtivo e destrutivo são quase completamente desconhecidos. É importante frisar que a maioria dos usuários de tecnologia e redes sociais ainda está adaptada aos protocolos básicos de segurança digital e muitos estão sujeitos a golpes não muito sofisticados como, por exemplo, pessoas se passando por familiares pedindo depósitos em PIX. Podemos, então, imaginar o nível de sofisticação que esse tipo de golpe poderá alcançar com o uso de áudio e imagens fake gerados automaticamente por IA a partir da voz gravada e de fotos gravadas por malware no smartphone dessas pessoas.

Nas mãos de pessoas e entidades bem-intencionadas, estes novos algoritmos de IA estão ajudando na criação de conteúdo, na solução de problemas de negócios e no bem-estar da sociedade. Porém, em mãos erradas, o poder destrutivo dessas ferramentas já tem sido colocado em prática. Os softwares maliciosos (malwares) estão cada vez mais sendo desenvolvidos com base em IA generativa, e isso tem se refletido num grande aumento de ataques cibernéticos nos EUA e em outros países. Além dos riscos cibernéticos, existem as fraudes. Considerando que já é possível criar conteúdo de áudio com a voz de uma pessoa, não é difícil de imaginar os danos que podem ser causados numa conversa fantasiosa e incriminatória com, por exemplo, um áudio de uma figura pública. Mesmo que seja possível comprovar a inocência do indivíduo, o dano causado pela viralização do conteúdo na internet é irreversível.

Fotos e vídeos comprometedores também poderiam ser criados com essa tecnologia. Pode parecer assustador, mas casos de chamadas e imagens fake já estão rodando a internet. Alguns exemplos famosos são discursos falsos de celebridades como Barack Obama, Tom Cruise e até Volodymyr Zelensky (imagine só uma guerra nuclear sendo causada por uma deepfake).

Em exemplos menos nocivos, porém igualmente fraudulentos, os internautas foram recentemente bombardeados com uma foto do papa vestindo um casaco volumoso e disruptivo. Alguns canais de moda importantes chegaram a creditar a peça ao estilista Filippo Sorcinelli, até que descobrissem que era apenas uma autoria da ferramenta Midjourney, outra inteligência artificial generativa.

É por esses e outros motivos que, recentemente, uma carta aberta foi assinada por vários desenvolvedores da tecnologia, governantes e celebridades com o intuito de frear o desenvolvimento destas tecnologias mais avançadas de IA.

Estamos nos aproximando de um estágio em que a máquina será capaz de realizar a maior parte do trabalho cognitivo que um humano pode realizar. Porém a máquina (ainda) não tem consciência e, portanto, como qualquer ferramenta, está a serviço do ser humano.

O avanço da IA tem sido muito rápido e global, permitindo que a tecnologia ganhe muito espaço em aplicações benéficas à humanidade, mas, em contrapartida, dificultando o controle do seu uso para aplicações maliciosas.

O próprio Sam Altman, CEO da OpenAI, empresa desenvolvedora do ChatGPT, destacou em sua entrevista recente à ABC News que ele mesmo está preocupado com os efeitos indesejáveis do avanço da IA, como a massificação das fake news e o desenvolvimento de novas estratégias de ataque cibernético. Entretanto, ressaltou um aspecto altamente positivo: o ChatGPT criou na sociedade uma preocupação com os próximos passos do desenvolvimento da IA. Essa preocupação pode mudar os rumos do desenvolvimento, levando a protocolos mais seguros e restrições éticas para essas tecnologias, visando a favorecer a criação de mecanismos de proteção ou minimização de efeitos nocivos. Até que ponto surtirá efeito? É uma pergunta que nem mesmo o ChatGPT conseguiria responder.

*

É GERENTE DE CIÊNCIA DE DADOS DA PEERS CONSULTING & TECHNOLOGY

Opinião por Bruno Horta

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.