O Futuro dos Negócios

Opinião|O futuro atrasado


Depois de um início marcado por promessas não cumpridas, a área de Inteligência Artificial começa sua inevitável caminhada rumo ao cotidiano pessoal e profissional de todos nós

Por Guy Perelmuter
Atualização:

Cogito, ergo sum - "penso, logo existo". Em sua obra de 1637, "Discurso do Método", o filósofo e matemático René Descartes estabeleceu de forma simples e elegante a relação entre a capacidade de "pensar" e a convicção de uma "existência" absoluta, verdadeira e inquestionável. O ato de pensar diferencia os seres humanos de todas as outras criaturas vivas do planeta - somos capazes de abstrair, deduzir, raciocinar, extrapolar, duvidar, questionar, planejar, projetar.

Desde os tempos da Grécia Antiga há evidências da presença de máquinas pensantes -humanóides ou não - nos mitos e lendas. A obra "Ilíada", de Homero, fala de robôs feitos pelo deus grego dos artesãos, Hefesto (ou Vulcano, de acordo com a mitologia romana), enquanto lendas chinesas do mesmo período falam em máquinas dotadas de inteligência. Ao longo de sua História, a Humanidade sempre ponderou a possibilidade de transferir para criaturas inanimadas a capacidade de pensar (e, portanto, de "existir"). Um dos exemplos mais famosos é a obra de 1818 da escritora inglesa Mary Shelley sobre um cientista - chamado Victor Frankenstein - que dá vida (e rejeita) uma criatura monstruosa, feita a partir de partes inertes.

Foi durante a tumultuada década de quarenta do século passado que Alan Turing, figura central da História da Computação, estabeleceu matematicamente os conceitos fundamentais para o desenvolvimento dos computadores modernos e da área de Inteligência Artificial. Turing provou que um sistema binário - composto por apenas dois símbolos, como "0" e "1" - poderia ser manipulado por uma máquina e realizar deduções anteriormente restritas aos cérebros humanos.

continua após a publicidade

Cerca de sessenta anos depois da conferência que originou a área, na Faculdade de Dartmouth em New Hampshire, Estados Unidos, o mundo assiste ao início de uma explosão das técnicas de machine learning ("aprendizado da máquina") em produtos e serviços como reconhecimento de imagens, reconhecimento de voz, tradução, análise financeira, busca de informações e combate a fraudes eletrônicas. Mas no início do desenvolvimento do campo de IA os próprios pioneiros subestimaram a complexidade dos problemas a serem resolvidos, gerando expectativas que acabaram não se materializando no curto prazo.

Durante a década de 70 - em um mundo profundamente impactado por problemas econômicos sérios - e no final dos anos 80, com equipamentos de uso genérico substituindo máquinas especificamente desenvolvidas para executar tarefas ligadas à IA, muito pouca gente prestava atenção ao que estava ocorrendo na área. Foi o chamado "inverno da IA": um tema promissor que "demorou" a realizar suas promessas, fazendo os investidores (inclusive o governo) perderem a paciência e retirarem os recursos necessários para financiar o trabalho de pesquisa e desenvolvimento necessário.

A situação mudou gradualmente a partir da última década do século XX e no início do século XXI, bem como a percepção do potencial efetivo das chamadas técnicas computacionais inteligentes. Um dos campos que mais se beneficia dos avanços na velocidade de processamento, capacidade de armazenamento e análise de grandes conjuntos de dados é justamente a Inteligência Artificial e suas subcategorias.  Os computadores começaram a vencer partidas de xadrez, "Go", e "Jeopardy!", enfrentando os respectivos campeões humanos em cada uma das modalidades. Ficou claro para o grande público que finalmente a área estava pronta para começar a concretizar as expectativas existentes desde sua origem - criando oportunidades de negócios e mudanças relevantes no mundo. Semana que vem vamos falar dessas mudanças, lideradas pelo campo de machine learning. Até lá.

continua após a publicidade

*Investidor em novas tecnologias, é Engenheiro de Computação e Mestre em Inteligência Artificial 

Cogito, ergo sum - "penso, logo existo". Em sua obra de 1637, "Discurso do Método", o filósofo e matemático René Descartes estabeleceu de forma simples e elegante a relação entre a capacidade de "pensar" e a convicção de uma "existência" absoluta, verdadeira e inquestionável. O ato de pensar diferencia os seres humanos de todas as outras criaturas vivas do planeta - somos capazes de abstrair, deduzir, raciocinar, extrapolar, duvidar, questionar, planejar, projetar.

Desde os tempos da Grécia Antiga há evidências da presença de máquinas pensantes -humanóides ou não - nos mitos e lendas. A obra "Ilíada", de Homero, fala de robôs feitos pelo deus grego dos artesãos, Hefesto (ou Vulcano, de acordo com a mitologia romana), enquanto lendas chinesas do mesmo período falam em máquinas dotadas de inteligência. Ao longo de sua História, a Humanidade sempre ponderou a possibilidade de transferir para criaturas inanimadas a capacidade de pensar (e, portanto, de "existir"). Um dos exemplos mais famosos é a obra de 1818 da escritora inglesa Mary Shelley sobre um cientista - chamado Victor Frankenstein - que dá vida (e rejeita) uma criatura monstruosa, feita a partir de partes inertes.

Foi durante a tumultuada década de quarenta do século passado que Alan Turing, figura central da História da Computação, estabeleceu matematicamente os conceitos fundamentais para o desenvolvimento dos computadores modernos e da área de Inteligência Artificial. Turing provou que um sistema binário - composto por apenas dois símbolos, como "0" e "1" - poderia ser manipulado por uma máquina e realizar deduções anteriormente restritas aos cérebros humanos.

Cerca de sessenta anos depois da conferência que originou a área, na Faculdade de Dartmouth em New Hampshire, Estados Unidos, o mundo assiste ao início de uma explosão das técnicas de machine learning ("aprendizado da máquina") em produtos e serviços como reconhecimento de imagens, reconhecimento de voz, tradução, análise financeira, busca de informações e combate a fraudes eletrônicas. Mas no início do desenvolvimento do campo de IA os próprios pioneiros subestimaram a complexidade dos problemas a serem resolvidos, gerando expectativas que acabaram não se materializando no curto prazo.

Durante a década de 70 - em um mundo profundamente impactado por problemas econômicos sérios - e no final dos anos 80, com equipamentos de uso genérico substituindo máquinas especificamente desenvolvidas para executar tarefas ligadas à IA, muito pouca gente prestava atenção ao que estava ocorrendo na área. Foi o chamado "inverno da IA": um tema promissor que "demorou" a realizar suas promessas, fazendo os investidores (inclusive o governo) perderem a paciência e retirarem os recursos necessários para financiar o trabalho de pesquisa e desenvolvimento necessário.

A situação mudou gradualmente a partir da última década do século XX e no início do século XXI, bem como a percepção do potencial efetivo das chamadas técnicas computacionais inteligentes. Um dos campos que mais se beneficia dos avanços na velocidade de processamento, capacidade de armazenamento e análise de grandes conjuntos de dados é justamente a Inteligência Artificial e suas subcategorias.  Os computadores começaram a vencer partidas de xadrez, "Go", e "Jeopardy!", enfrentando os respectivos campeões humanos em cada uma das modalidades. Ficou claro para o grande público que finalmente a área estava pronta para começar a concretizar as expectativas existentes desde sua origem - criando oportunidades de negócios e mudanças relevantes no mundo. Semana que vem vamos falar dessas mudanças, lideradas pelo campo de machine learning. Até lá.

*Investidor em novas tecnologias, é Engenheiro de Computação e Mestre em Inteligência Artificial 

Cogito, ergo sum - "penso, logo existo". Em sua obra de 1637, "Discurso do Método", o filósofo e matemático René Descartes estabeleceu de forma simples e elegante a relação entre a capacidade de "pensar" e a convicção de uma "existência" absoluta, verdadeira e inquestionável. O ato de pensar diferencia os seres humanos de todas as outras criaturas vivas do planeta - somos capazes de abstrair, deduzir, raciocinar, extrapolar, duvidar, questionar, planejar, projetar.

Desde os tempos da Grécia Antiga há evidências da presença de máquinas pensantes -humanóides ou não - nos mitos e lendas. A obra "Ilíada", de Homero, fala de robôs feitos pelo deus grego dos artesãos, Hefesto (ou Vulcano, de acordo com a mitologia romana), enquanto lendas chinesas do mesmo período falam em máquinas dotadas de inteligência. Ao longo de sua História, a Humanidade sempre ponderou a possibilidade de transferir para criaturas inanimadas a capacidade de pensar (e, portanto, de "existir"). Um dos exemplos mais famosos é a obra de 1818 da escritora inglesa Mary Shelley sobre um cientista - chamado Victor Frankenstein - que dá vida (e rejeita) uma criatura monstruosa, feita a partir de partes inertes.

Foi durante a tumultuada década de quarenta do século passado que Alan Turing, figura central da História da Computação, estabeleceu matematicamente os conceitos fundamentais para o desenvolvimento dos computadores modernos e da área de Inteligência Artificial. Turing provou que um sistema binário - composto por apenas dois símbolos, como "0" e "1" - poderia ser manipulado por uma máquina e realizar deduções anteriormente restritas aos cérebros humanos.

Cerca de sessenta anos depois da conferência que originou a área, na Faculdade de Dartmouth em New Hampshire, Estados Unidos, o mundo assiste ao início de uma explosão das técnicas de machine learning ("aprendizado da máquina") em produtos e serviços como reconhecimento de imagens, reconhecimento de voz, tradução, análise financeira, busca de informações e combate a fraudes eletrônicas. Mas no início do desenvolvimento do campo de IA os próprios pioneiros subestimaram a complexidade dos problemas a serem resolvidos, gerando expectativas que acabaram não se materializando no curto prazo.

Durante a década de 70 - em um mundo profundamente impactado por problemas econômicos sérios - e no final dos anos 80, com equipamentos de uso genérico substituindo máquinas especificamente desenvolvidas para executar tarefas ligadas à IA, muito pouca gente prestava atenção ao que estava ocorrendo na área. Foi o chamado "inverno da IA": um tema promissor que "demorou" a realizar suas promessas, fazendo os investidores (inclusive o governo) perderem a paciência e retirarem os recursos necessários para financiar o trabalho de pesquisa e desenvolvimento necessário.

A situação mudou gradualmente a partir da última década do século XX e no início do século XXI, bem como a percepção do potencial efetivo das chamadas técnicas computacionais inteligentes. Um dos campos que mais se beneficia dos avanços na velocidade de processamento, capacidade de armazenamento e análise de grandes conjuntos de dados é justamente a Inteligência Artificial e suas subcategorias.  Os computadores começaram a vencer partidas de xadrez, "Go", e "Jeopardy!", enfrentando os respectivos campeões humanos em cada uma das modalidades. Ficou claro para o grande público que finalmente a área estava pronta para começar a concretizar as expectativas existentes desde sua origem - criando oportunidades de negócios e mudanças relevantes no mundo. Semana que vem vamos falar dessas mudanças, lideradas pelo campo de machine learning. Até lá.

*Investidor em novas tecnologias, é Engenheiro de Computação e Mestre em Inteligência Artificial 

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.