Por dentro da rede

Opinião|O bebê da inteligência artificial


Notícias como a do AlphaGo Zero e do caso da tradução errônea do Facebook em Israel levantam novas questões -- surpreendentes e assustadoras -- sobre o poder da IA

Por Demi Getschko

Duas notícias, por inusitadas, chamaram a atenção para aplicações da inteligência artificial (IA) e suas conseqüências, ao longo da última semana. A primeira é sobre jogos. Há tempo lemos sobre um programa que joga Go, jogo de tabuleiro complexo e bastante popular no Oriente. O programa, AlphaGo, aprendeu os movimentos e foi alimentado com a base conhecida de todas as partidas disputadas até hoje. Aproveitou-se a experiência dos humanos, adicionada à enorme capacidade de memorização e de processamento de que se dispõe hoje.

AlphaGo ganhou quase todas as partidas contra os mestres. Das poucas que perdeu, parece que a derrota deveu-se ao fato do jogador humano ter feito lances inusitados e controversos, que confundiram o AlphaGo e sua base de dados.  A estratégia de se valer do que nós, humanos, fizemos até aqui, tem sido usada com sucesso em jogos, diagnósticos, traduções, apoio jurídico, entre outros. E nada há de muito surpreendente aí.

Ocorre que uma nova versão do AlphaGo, a AlphaGo Zero, foi colocada em testes recentemente. A nova versão usa outro tipo de abordagem: apenas ensinam-se as regras do jogo - como movimentar as peças - e colocam-se duas instâncias do programa a jogarem interminavelmente entre si. Esta opção já havia sido tentada, com resultados medíocres, nos anos 70 e 80, mas hoje, com capacidade de processamento disponível milhões de vezes maior, as coisas mudaram: em pouco tempo de treinamento o programa testará uma quantidade impensável de alternativas. Ganhando e perdendo, ele desenvolverá uma estratégia própria de jogo.

continua após a publicidade

Eu nada sei de Go mas, ao que se comentou, mestres humanos, vendo o jogo que o AlphaGo Zero faz, só conseguem classificá-lo como "alienígena". Ou seja, o programa desenvolveu uma forma de jogar que em nada lembra a dos terráqueos. Aprendeu da "tentativa e erro" levada ao extremo e chegou àquilo parece uma "outra realidade, inexplorada". Aparentemente desdizendo Millôr: "é errando que se aprende... a errar!". Tentador e, ao mesmo tempo, assustador.

O segundo caso é mais prosaico, porém preocupante. Releciona-se a um problema de tradução automática, que levou um homem à prisão temporária. Pelo que se soube, uma conhecida rede social trazia a foto de um trabalhador palestino ao lado do seu trator em Israel, com uma legenda que, na linguagem local, significaria "bom dia". O programa de tradução automática da rede social fez do "bom dia" algo como "quero machucar". Numa região conturbada como aquela, iniciou-se busca que terminou com a detenção do "suspeito". Desfeita a confusão, ele foi solto.

Quem seria o real causador do problema? Se um programa que aprende, sozinho ou com a experiência humana, comete um erro grave, até fatal, contra um ser humano, quem é o responsável por isso? O usuário? O desenvolvedor? E, no caso de tentar uma auditoria, como descobrir que caminho levou o programa à conclusão que tomou? Haveria "conserto"?

continua após a publicidade

De volta ao mundo simples, ontem foi a abertura da sexagésima reunião da ICANN (Internet Coorporation for Assigned Names and Numbers), desta vez em Abu Dhabi, Emirados Árabes. Teremos discussões importantes, entre elas a relacionada ao domínio .Amazon, hoje reservado a pedido das comunidades da região, mas fortemente desejado pela empresa homônima. Para que lado a balança penderá, e a que argumentos ela cederá, saberemos em breve.

Duas notícias, por inusitadas, chamaram a atenção para aplicações da inteligência artificial (IA) e suas conseqüências, ao longo da última semana. A primeira é sobre jogos. Há tempo lemos sobre um programa que joga Go, jogo de tabuleiro complexo e bastante popular no Oriente. O programa, AlphaGo, aprendeu os movimentos e foi alimentado com a base conhecida de todas as partidas disputadas até hoje. Aproveitou-se a experiência dos humanos, adicionada à enorme capacidade de memorização e de processamento de que se dispõe hoje.

AlphaGo ganhou quase todas as partidas contra os mestres. Das poucas que perdeu, parece que a derrota deveu-se ao fato do jogador humano ter feito lances inusitados e controversos, que confundiram o AlphaGo e sua base de dados.  A estratégia de se valer do que nós, humanos, fizemos até aqui, tem sido usada com sucesso em jogos, diagnósticos, traduções, apoio jurídico, entre outros. E nada há de muito surpreendente aí.

Ocorre que uma nova versão do AlphaGo, a AlphaGo Zero, foi colocada em testes recentemente. A nova versão usa outro tipo de abordagem: apenas ensinam-se as regras do jogo - como movimentar as peças - e colocam-se duas instâncias do programa a jogarem interminavelmente entre si. Esta opção já havia sido tentada, com resultados medíocres, nos anos 70 e 80, mas hoje, com capacidade de processamento disponível milhões de vezes maior, as coisas mudaram: em pouco tempo de treinamento o programa testará uma quantidade impensável de alternativas. Ganhando e perdendo, ele desenvolverá uma estratégia própria de jogo.

Eu nada sei de Go mas, ao que se comentou, mestres humanos, vendo o jogo que o AlphaGo Zero faz, só conseguem classificá-lo como "alienígena". Ou seja, o programa desenvolveu uma forma de jogar que em nada lembra a dos terráqueos. Aprendeu da "tentativa e erro" levada ao extremo e chegou àquilo parece uma "outra realidade, inexplorada". Aparentemente desdizendo Millôr: "é errando que se aprende... a errar!". Tentador e, ao mesmo tempo, assustador.

O segundo caso é mais prosaico, porém preocupante. Releciona-se a um problema de tradução automática, que levou um homem à prisão temporária. Pelo que se soube, uma conhecida rede social trazia a foto de um trabalhador palestino ao lado do seu trator em Israel, com uma legenda que, na linguagem local, significaria "bom dia". O programa de tradução automática da rede social fez do "bom dia" algo como "quero machucar". Numa região conturbada como aquela, iniciou-se busca que terminou com a detenção do "suspeito". Desfeita a confusão, ele foi solto.

Quem seria o real causador do problema? Se um programa que aprende, sozinho ou com a experiência humana, comete um erro grave, até fatal, contra um ser humano, quem é o responsável por isso? O usuário? O desenvolvedor? E, no caso de tentar uma auditoria, como descobrir que caminho levou o programa à conclusão que tomou? Haveria "conserto"?

De volta ao mundo simples, ontem foi a abertura da sexagésima reunião da ICANN (Internet Coorporation for Assigned Names and Numbers), desta vez em Abu Dhabi, Emirados Árabes. Teremos discussões importantes, entre elas a relacionada ao domínio .Amazon, hoje reservado a pedido das comunidades da região, mas fortemente desejado pela empresa homônima. Para que lado a balança penderá, e a que argumentos ela cederá, saberemos em breve.

Duas notícias, por inusitadas, chamaram a atenção para aplicações da inteligência artificial (IA) e suas conseqüências, ao longo da última semana. A primeira é sobre jogos. Há tempo lemos sobre um programa que joga Go, jogo de tabuleiro complexo e bastante popular no Oriente. O programa, AlphaGo, aprendeu os movimentos e foi alimentado com a base conhecida de todas as partidas disputadas até hoje. Aproveitou-se a experiência dos humanos, adicionada à enorme capacidade de memorização e de processamento de que se dispõe hoje.

AlphaGo ganhou quase todas as partidas contra os mestres. Das poucas que perdeu, parece que a derrota deveu-se ao fato do jogador humano ter feito lances inusitados e controversos, que confundiram o AlphaGo e sua base de dados.  A estratégia de se valer do que nós, humanos, fizemos até aqui, tem sido usada com sucesso em jogos, diagnósticos, traduções, apoio jurídico, entre outros. E nada há de muito surpreendente aí.

Ocorre que uma nova versão do AlphaGo, a AlphaGo Zero, foi colocada em testes recentemente. A nova versão usa outro tipo de abordagem: apenas ensinam-se as regras do jogo - como movimentar as peças - e colocam-se duas instâncias do programa a jogarem interminavelmente entre si. Esta opção já havia sido tentada, com resultados medíocres, nos anos 70 e 80, mas hoje, com capacidade de processamento disponível milhões de vezes maior, as coisas mudaram: em pouco tempo de treinamento o programa testará uma quantidade impensável de alternativas. Ganhando e perdendo, ele desenvolverá uma estratégia própria de jogo.

Eu nada sei de Go mas, ao que se comentou, mestres humanos, vendo o jogo que o AlphaGo Zero faz, só conseguem classificá-lo como "alienígena". Ou seja, o programa desenvolveu uma forma de jogar que em nada lembra a dos terráqueos. Aprendeu da "tentativa e erro" levada ao extremo e chegou àquilo parece uma "outra realidade, inexplorada". Aparentemente desdizendo Millôr: "é errando que se aprende... a errar!". Tentador e, ao mesmo tempo, assustador.

O segundo caso é mais prosaico, porém preocupante. Releciona-se a um problema de tradução automática, que levou um homem à prisão temporária. Pelo que se soube, uma conhecida rede social trazia a foto de um trabalhador palestino ao lado do seu trator em Israel, com uma legenda que, na linguagem local, significaria "bom dia". O programa de tradução automática da rede social fez do "bom dia" algo como "quero machucar". Numa região conturbada como aquela, iniciou-se busca que terminou com a detenção do "suspeito". Desfeita a confusão, ele foi solto.

Quem seria o real causador do problema? Se um programa que aprende, sozinho ou com a experiência humana, comete um erro grave, até fatal, contra um ser humano, quem é o responsável por isso? O usuário? O desenvolvedor? E, no caso de tentar uma auditoria, como descobrir que caminho levou o programa à conclusão que tomou? Haveria "conserto"?

De volta ao mundo simples, ontem foi a abertura da sexagésima reunião da ICANN (Internet Coorporation for Assigned Names and Numbers), desta vez em Abu Dhabi, Emirados Árabes. Teremos discussões importantes, entre elas a relacionada ao domínio .Amazon, hoje reservado a pedido das comunidades da região, mas fortemente desejado pela empresa homônima. Para que lado a balança penderá, e a que argumentos ela cederá, saberemos em breve.

Duas notícias, por inusitadas, chamaram a atenção para aplicações da inteligência artificial (IA) e suas conseqüências, ao longo da última semana. A primeira é sobre jogos. Há tempo lemos sobre um programa que joga Go, jogo de tabuleiro complexo e bastante popular no Oriente. O programa, AlphaGo, aprendeu os movimentos e foi alimentado com a base conhecida de todas as partidas disputadas até hoje. Aproveitou-se a experiência dos humanos, adicionada à enorme capacidade de memorização e de processamento de que se dispõe hoje.

AlphaGo ganhou quase todas as partidas contra os mestres. Das poucas que perdeu, parece que a derrota deveu-se ao fato do jogador humano ter feito lances inusitados e controversos, que confundiram o AlphaGo e sua base de dados.  A estratégia de se valer do que nós, humanos, fizemos até aqui, tem sido usada com sucesso em jogos, diagnósticos, traduções, apoio jurídico, entre outros. E nada há de muito surpreendente aí.

Ocorre que uma nova versão do AlphaGo, a AlphaGo Zero, foi colocada em testes recentemente. A nova versão usa outro tipo de abordagem: apenas ensinam-se as regras do jogo - como movimentar as peças - e colocam-se duas instâncias do programa a jogarem interminavelmente entre si. Esta opção já havia sido tentada, com resultados medíocres, nos anos 70 e 80, mas hoje, com capacidade de processamento disponível milhões de vezes maior, as coisas mudaram: em pouco tempo de treinamento o programa testará uma quantidade impensável de alternativas. Ganhando e perdendo, ele desenvolverá uma estratégia própria de jogo.

Eu nada sei de Go mas, ao que se comentou, mestres humanos, vendo o jogo que o AlphaGo Zero faz, só conseguem classificá-lo como "alienígena". Ou seja, o programa desenvolveu uma forma de jogar que em nada lembra a dos terráqueos. Aprendeu da "tentativa e erro" levada ao extremo e chegou àquilo parece uma "outra realidade, inexplorada". Aparentemente desdizendo Millôr: "é errando que se aprende... a errar!". Tentador e, ao mesmo tempo, assustador.

O segundo caso é mais prosaico, porém preocupante. Releciona-se a um problema de tradução automática, que levou um homem à prisão temporária. Pelo que se soube, uma conhecida rede social trazia a foto de um trabalhador palestino ao lado do seu trator em Israel, com uma legenda que, na linguagem local, significaria "bom dia". O programa de tradução automática da rede social fez do "bom dia" algo como "quero machucar". Numa região conturbada como aquela, iniciou-se busca que terminou com a detenção do "suspeito". Desfeita a confusão, ele foi solto.

Quem seria o real causador do problema? Se um programa que aprende, sozinho ou com a experiência humana, comete um erro grave, até fatal, contra um ser humano, quem é o responsável por isso? O usuário? O desenvolvedor? E, no caso de tentar uma auditoria, como descobrir que caminho levou o programa à conclusão que tomou? Haveria "conserto"?

De volta ao mundo simples, ontem foi a abertura da sexagésima reunião da ICANN (Internet Coorporation for Assigned Names and Numbers), desta vez em Abu Dhabi, Emirados Árabes. Teremos discussões importantes, entre elas a relacionada ao domínio .Amazon, hoje reservado a pedido das comunidades da região, mas fortemente desejado pela empresa homônima. Para que lado a balança penderá, e a que argumentos ela cederá, saberemos em breve.

Duas notícias, por inusitadas, chamaram a atenção para aplicações da inteligência artificial (IA) e suas conseqüências, ao longo da última semana. A primeira é sobre jogos. Há tempo lemos sobre um programa que joga Go, jogo de tabuleiro complexo e bastante popular no Oriente. O programa, AlphaGo, aprendeu os movimentos e foi alimentado com a base conhecida de todas as partidas disputadas até hoje. Aproveitou-se a experiência dos humanos, adicionada à enorme capacidade de memorização e de processamento de que se dispõe hoje.

AlphaGo ganhou quase todas as partidas contra os mestres. Das poucas que perdeu, parece que a derrota deveu-se ao fato do jogador humano ter feito lances inusitados e controversos, que confundiram o AlphaGo e sua base de dados.  A estratégia de se valer do que nós, humanos, fizemos até aqui, tem sido usada com sucesso em jogos, diagnósticos, traduções, apoio jurídico, entre outros. E nada há de muito surpreendente aí.

Ocorre que uma nova versão do AlphaGo, a AlphaGo Zero, foi colocada em testes recentemente. A nova versão usa outro tipo de abordagem: apenas ensinam-se as regras do jogo - como movimentar as peças - e colocam-se duas instâncias do programa a jogarem interminavelmente entre si. Esta opção já havia sido tentada, com resultados medíocres, nos anos 70 e 80, mas hoje, com capacidade de processamento disponível milhões de vezes maior, as coisas mudaram: em pouco tempo de treinamento o programa testará uma quantidade impensável de alternativas. Ganhando e perdendo, ele desenvolverá uma estratégia própria de jogo.

Eu nada sei de Go mas, ao que se comentou, mestres humanos, vendo o jogo que o AlphaGo Zero faz, só conseguem classificá-lo como "alienígena". Ou seja, o programa desenvolveu uma forma de jogar que em nada lembra a dos terráqueos. Aprendeu da "tentativa e erro" levada ao extremo e chegou àquilo parece uma "outra realidade, inexplorada". Aparentemente desdizendo Millôr: "é errando que se aprende... a errar!". Tentador e, ao mesmo tempo, assustador.

O segundo caso é mais prosaico, porém preocupante. Releciona-se a um problema de tradução automática, que levou um homem à prisão temporária. Pelo que se soube, uma conhecida rede social trazia a foto de um trabalhador palestino ao lado do seu trator em Israel, com uma legenda que, na linguagem local, significaria "bom dia". O programa de tradução automática da rede social fez do "bom dia" algo como "quero machucar". Numa região conturbada como aquela, iniciou-se busca que terminou com a detenção do "suspeito". Desfeita a confusão, ele foi solto.

Quem seria o real causador do problema? Se um programa que aprende, sozinho ou com a experiência humana, comete um erro grave, até fatal, contra um ser humano, quem é o responsável por isso? O usuário? O desenvolvedor? E, no caso de tentar uma auditoria, como descobrir que caminho levou o programa à conclusão que tomou? Haveria "conserto"?

De volta ao mundo simples, ontem foi a abertura da sexagésima reunião da ICANN (Internet Coorporation for Assigned Names and Numbers), desta vez em Abu Dhabi, Emirados Árabes. Teremos discussões importantes, entre elas a relacionada ao domínio .Amazon, hoje reservado a pedido das comunidades da região, mas fortemente desejado pela empresa homônima. Para que lado a balança penderá, e a que argumentos ela cederá, saberemos em breve.

Opinião por Demi Getschko

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.