O Futuro dos Negócios

Opinião|Conversa de máquina


A extração de valor de enormes volumes de dados é o desafio das técnicas de Big Data

Por Guy Perelmuter

A geração incessante de dados é certamente uma das maiores características do mundo amplamente conectado e integrado para o qual estamos inexoravelmente caminhando. Conforme vimos na semana passada, entre 2016 e 2021 o crescimento no tráfego de dados que fluem pela Internet será de 24% ao ano segundo estimativas da fabricante de equipamentos para redes de computadores Cisco. Dispositivos comunicando-se diretamente entre si, sem intervenção humana - uma modalidade conhecida por "Machine to Machine - M2M" (ou "De máquina para máquina") - contabilizavam quase seis bilhões de conexões em 2016, e em 2021 devem chegar a praticamente 14 bilhões. E não será apenas o número de conexões que vai aumentar: a maior aceleração irá ocorrer no volume de dados transmitido. Em 2016, o tráfego M2M foi de cerca de 14 exabytes (o equivalente ao conteúdo completo de cerca de seiscentos milhões de discos Blu-Ray), e estima-se que em 2021 este volume irá atingir quase 100 exabytes.  Ainda segundo o relatório da Cisco, em 2021 praticamente 50% das conexões M2M estarão dentro de nossas moradias, através de equipamentos de automação e segurança doméstica, por exemplo. Em segundo lugar teremos as conexões entre os equipamentos nos locais de trabalho, e a seguir, três segmentos que já discutimos neste espaço: saúde, cidades e carros, todos com crescimento de tráfego de dados estimado em cerca de 30% ao ano entre 2016-2021. Isso explica também a natureza da explosão no volume de dados que as máquinas irão trocar ao longo dos próximos anos - dados médicos, incluindo vídeos e imagens, indicadores de saúde e sistemas de navegação são apenas alguns exemplos. O futuro, portanto, é de um aumento relevante na quantidade de dados gerados e transmitidos - por nós, nossos amigos, parentes, colegas de trabalho e pelas máquinas que nos cercam e que compõem a infraestrutura do mundo moderno. Cada email, tweet, curtida, foto, vídeo, música ou dado contribui para um dos desafios fundamentais que temos que enfrentar em função da tecnologia que se faz onipresente em nossas vidas: como extrair os dados pertinentes desta massa gigantesca de bytes? Como usar de maneira inteligente a quantidade inimaginável de informações valiosas que estão sendo produzidas diariamente pelo conjunto completo de usuários, humanos e artificiais? Este é o desafio que o ramo conhecido como Big Data procura endereçar.  O termo Big Data começou a tornar-se mais conhecido a partir do final da década de 90, e suas características costumam ser associadas aos cinco "V's": volume, variedade, velocidade, variabilidade e veracidade. Em 2016, três pesquisadores italianos (Andrea De Mauro, Marco Greco e Michele Grimaldi) publicaram um artigo no qual definem Big Data como "informações de volume, velocidade e variedade tão grandes que exigem tecnologias e modelos analíticos específicos para agregar valor aos dados". As técnicas de Big Data atuam utilizando todos os dados disponíveis (e não apenas um subconjunto dos mesmos), e são capazes de trabalhar com informações que, no jargão da ciência da computação, são conhecidas como "não-estruturadas". Isso quer dizer que os dados utilizados não precisam ser do mesmo tipo, nem precisam estar organizados da mesma maneira, e frequentemente são processados de forma distribuída e paralelizada (ou seja, simultaneamente por vários processadores). Usando como exemplo os comentários realizados nas mídias sociais a respeito de um determinado evento esportivo, teremos dados de diversos tipos (texto, imagens, vídeos, sons), gerados por múltiplas fontes (espectadores, torcedores, repórteres, jogadores) e produzidos ao longo de segundos ou dias - e com a análise adequada desses dados é possível extrair valor para consumidores e marcas. Na semana que vem iremos apresentar algumas aplicações de Big Data em diversos segmentos de negócios. Até lá.

*Fundador da GRIDS Capital, é Engenheiro de Computação e Mestre em Inteligência Artificial

A geração incessante de dados é certamente uma das maiores características do mundo amplamente conectado e integrado para o qual estamos inexoravelmente caminhando. Conforme vimos na semana passada, entre 2016 e 2021 o crescimento no tráfego de dados que fluem pela Internet será de 24% ao ano segundo estimativas da fabricante de equipamentos para redes de computadores Cisco. Dispositivos comunicando-se diretamente entre si, sem intervenção humana - uma modalidade conhecida por "Machine to Machine - M2M" (ou "De máquina para máquina") - contabilizavam quase seis bilhões de conexões em 2016, e em 2021 devem chegar a praticamente 14 bilhões. E não será apenas o número de conexões que vai aumentar: a maior aceleração irá ocorrer no volume de dados transmitido. Em 2016, o tráfego M2M foi de cerca de 14 exabytes (o equivalente ao conteúdo completo de cerca de seiscentos milhões de discos Blu-Ray), e estima-se que em 2021 este volume irá atingir quase 100 exabytes.  Ainda segundo o relatório da Cisco, em 2021 praticamente 50% das conexões M2M estarão dentro de nossas moradias, através de equipamentos de automação e segurança doméstica, por exemplo. Em segundo lugar teremos as conexões entre os equipamentos nos locais de trabalho, e a seguir, três segmentos que já discutimos neste espaço: saúde, cidades e carros, todos com crescimento de tráfego de dados estimado em cerca de 30% ao ano entre 2016-2021. Isso explica também a natureza da explosão no volume de dados que as máquinas irão trocar ao longo dos próximos anos - dados médicos, incluindo vídeos e imagens, indicadores de saúde e sistemas de navegação são apenas alguns exemplos. O futuro, portanto, é de um aumento relevante na quantidade de dados gerados e transmitidos - por nós, nossos amigos, parentes, colegas de trabalho e pelas máquinas que nos cercam e que compõem a infraestrutura do mundo moderno. Cada email, tweet, curtida, foto, vídeo, música ou dado contribui para um dos desafios fundamentais que temos que enfrentar em função da tecnologia que se faz onipresente em nossas vidas: como extrair os dados pertinentes desta massa gigantesca de bytes? Como usar de maneira inteligente a quantidade inimaginável de informações valiosas que estão sendo produzidas diariamente pelo conjunto completo de usuários, humanos e artificiais? Este é o desafio que o ramo conhecido como Big Data procura endereçar.  O termo Big Data começou a tornar-se mais conhecido a partir do final da década de 90, e suas características costumam ser associadas aos cinco "V's": volume, variedade, velocidade, variabilidade e veracidade. Em 2016, três pesquisadores italianos (Andrea De Mauro, Marco Greco e Michele Grimaldi) publicaram um artigo no qual definem Big Data como "informações de volume, velocidade e variedade tão grandes que exigem tecnologias e modelos analíticos específicos para agregar valor aos dados". As técnicas de Big Data atuam utilizando todos os dados disponíveis (e não apenas um subconjunto dos mesmos), e são capazes de trabalhar com informações que, no jargão da ciência da computação, são conhecidas como "não-estruturadas". Isso quer dizer que os dados utilizados não precisam ser do mesmo tipo, nem precisam estar organizados da mesma maneira, e frequentemente são processados de forma distribuída e paralelizada (ou seja, simultaneamente por vários processadores). Usando como exemplo os comentários realizados nas mídias sociais a respeito de um determinado evento esportivo, teremos dados de diversos tipos (texto, imagens, vídeos, sons), gerados por múltiplas fontes (espectadores, torcedores, repórteres, jogadores) e produzidos ao longo de segundos ou dias - e com a análise adequada desses dados é possível extrair valor para consumidores e marcas. Na semana que vem iremos apresentar algumas aplicações de Big Data em diversos segmentos de negócios. Até lá.

*Fundador da GRIDS Capital, é Engenheiro de Computação e Mestre em Inteligência Artificial

A geração incessante de dados é certamente uma das maiores características do mundo amplamente conectado e integrado para o qual estamos inexoravelmente caminhando. Conforme vimos na semana passada, entre 2016 e 2021 o crescimento no tráfego de dados que fluem pela Internet será de 24% ao ano segundo estimativas da fabricante de equipamentos para redes de computadores Cisco. Dispositivos comunicando-se diretamente entre si, sem intervenção humana - uma modalidade conhecida por "Machine to Machine - M2M" (ou "De máquina para máquina") - contabilizavam quase seis bilhões de conexões em 2016, e em 2021 devem chegar a praticamente 14 bilhões. E não será apenas o número de conexões que vai aumentar: a maior aceleração irá ocorrer no volume de dados transmitido. Em 2016, o tráfego M2M foi de cerca de 14 exabytes (o equivalente ao conteúdo completo de cerca de seiscentos milhões de discos Blu-Ray), e estima-se que em 2021 este volume irá atingir quase 100 exabytes.  Ainda segundo o relatório da Cisco, em 2021 praticamente 50% das conexões M2M estarão dentro de nossas moradias, através de equipamentos de automação e segurança doméstica, por exemplo. Em segundo lugar teremos as conexões entre os equipamentos nos locais de trabalho, e a seguir, três segmentos que já discutimos neste espaço: saúde, cidades e carros, todos com crescimento de tráfego de dados estimado em cerca de 30% ao ano entre 2016-2021. Isso explica também a natureza da explosão no volume de dados que as máquinas irão trocar ao longo dos próximos anos - dados médicos, incluindo vídeos e imagens, indicadores de saúde e sistemas de navegação são apenas alguns exemplos. O futuro, portanto, é de um aumento relevante na quantidade de dados gerados e transmitidos - por nós, nossos amigos, parentes, colegas de trabalho e pelas máquinas que nos cercam e que compõem a infraestrutura do mundo moderno. Cada email, tweet, curtida, foto, vídeo, música ou dado contribui para um dos desafios fundamentais que temos que enfrentar em função da tecnologia que se faz onipresente em nossas vidas: como extrair os dados pertinentes desta massa gigantesca de bytes? Como usar de maneira inteligente a quantidade inimaginável de informações valiosas que estão sendo produzidas diariamente pelo conjunto completo de usuários, humanos e artificiais? Este é o desafio que o ramo conhecido como Big Data procura endereçar.  O termo Big Data começou a tornar-se mais conhecido a partir do final da década de 90, e suas características costumam ser associadas aos cinco "V's": volume, variedade, velocidade, variabilidade e veracidade. Em 2016, três pesquisadores italianos (Andrea De Mauro, Marco Greco e Michele Grimaldi) publicaram um artigo no qual definem Big Data como "informações de volume, velocidade e variedade tão grandes que exigem tecnologias e modelos analíticos específicos para agregar valor aos dados". As técnicas de Big Data atuam utilizando todos os dados disponíveis (e não apenas um subconjunto dos mesmos), e são capazes de trabalhar com informações que, no jargão da ciência da computação, são conhecidas como "não-estruturadas". Isso quer dizer que os dados utilizados não precisam ser do mesmo tipo, nem precisam estar organizados da mesma maneira, e frequentemente são processados de forma distribuída e paralelizada (ou seja, simultaneamente por vários processadores). Usando como exemplo os comentários realizados nas mídias sociais a respeito de um determinado evento esportivo, teremos dados de diversos tipos (texto, imagens, vídeos, sons), gerados por múltiplas fontes (espectadores, torcedores, repórteres, jogadores) e produzidos ao longo de segundos ou dias - e com a análise adequada desses dados é possível extrair valor para consumidores e marcas. Na semana que vem iremos apresentar algumas aplicações de Big Data em diversos segmentos de negócios. Até lá.

*Fundador da GRIDS Capital, é Engenheiro de Computação e Mestre em Inteligência Artificial

A geração incessante de dados é certamente uma das maiores características do mundo amplamente conectado e integrado para o qual estamos inexoravelmente caminhando. Conforme vimos na semana passada, entre 2016 e 2021 o crescimento no tráfego de dados que fluem pela Internet será de 24% ao ano segundo estimativas da fabricante de equipamentos para redes de computadores Cisco. Dispositivos comunicando-se diretamente entre si, sem intervenção humana - uma modalidade conhecida por "Machine to Machine - M2M" (ou "De máquina para máquina") - contabilizavam quase seis bilhões de conexões em 2016, e em 2021 devem chegar a praticamente 14 bilhões. E não será apenas o número de conexões que vai aumentar: a maior aceleração irá ocorrer no volume de dados transmitido. Em 2016, o tráfego M2M foi de cerca de 14 exabytes (o equivalente ao conteúdo completo de cerca de seiscentos milhões de discos Blu-Ray), e estima-se que em 2021 este volume irá atingir quase 100 exabytes.  Ainda segundo o relatório da Cisco, em 2021 praticamente 50% das conexões M2M estarão dentro de nossas moradias, através de equipamentos de automação e segurança doméstica, por exemplo. Em segundo lugar teremos as conexões entre os equipamentos nos locais de trabalho, e a seguir, três segmentos que já discutimos neste espaço: saúde, cidades e carros, todos com crescimento de tráfego de dados estimado em cerca de 30% ao ano entre 2016-2021. Isso explica também a natureza da explosão no volume de dados que as máquinas irão trocar ao longo dos próximos anos - dados médicos, incluindo vídeos e imagens, indicadores de saúde e sistemas de navegação são apenas alguns exemplos. O futuro, portanto, é de um aumento relevante na quantidade de dados gerados e transmitidos - por nós, nossos amigos, parentes, colegas de trabalho e pelas máquinas que nos cercam e que compõem a infraestrutura do mundo moderno. Cada email, tweet, curtida, foto, vídeo, música ou dado contribui para um dos desafios fundamentais que temos que enfrentar em função da tecnologia que se faz onipresente em nossas vidas: como extrair os dados pertinentes desta massa gigantesca de bytes? Como usar de maneira inteligente a quantidade inimaginável de informações valiosas que estão sendo produzidas diariamente pelo conjunto completo de usuários, humanos e artificiais? Este é o desafio que o ramo conhecido como Big Data procura endereçar.  O termo Big Data começou a tornar-se mais conhecido a partir do final da década de 90, e suas características costumam ser associadas aos cinco "V's": volume, variedade, velocidade, variabilidade e veracidade. Em 2016, três pesquisadores italianos (Andrea De Mauro, Marco Greco e Michele Grimaldi) publicaram um artigo no qual definem Big Data como "informações de volume, velocidade e variedade tão grandes que exigem tecnologias e modelos analíticos específicos para agregar valor aos dados". As técnicas de Big Data atuam utilizando todos os dados disponíveis (e não apenas um subconjunto dos mesmos), e são capazes de trabalhar com informações que, no jargão da ciência da computação, são conhecidas como "não-estruturadas". Isso quer dizer que os dados utilizados não precisam ser do mesmo tipo, nem precisam estar organizados da mesma maneira, e frequentemente são processados de forma distribuída e paralelizada (ou seja, simultaneamente por vários processadores). Usando como exemplo os comentários realizados nas mídias sociais a respeito de um determinado evento esportivo, teremos dados de diversos tipos (texto, imagens, vídeos, sons), gerados por múltiplas fontes (espectadores, torcedores, repórteres, jogadores) e produzidos ao longo de segundos ou dias - e com a análise adequada desses dados é possível extrair valor para consumidores e marcas. Na semana que vem iremos apresentar algumas aplicações de Big Data em diversos segmentos de negócios. Até lá.

*Fundador da GRIDS Capital, é Engenheiro de Computação e Mestre em Inteligência Artificial

A geração incessante de dados é certamente uma das maiores características do mundo amplamente conectado e integrado para o qual estamos inexoravelmente caminhando. Conforme vimos na semana passada, entre 2016 e 2021 o crescimento no tráfego de dados que fluem pela Internet será de 24% ao ano segundo estimativas da fabricante de equipamentos para redes de computadores Cisco. Dispositivos comunicando-se diretamente entre si, sem intervenção humana - uma modalidade conhecida por "Machine to Machine - M2M" (ou "De máquina para máquina") - contabilizavam quase seis bilhões de conexões em 2016, e em 2021 devem chegar a praticamente 14 bilhões. E não será apenas o número de conexões que vai aumentar: a maior aceleração irá ocorrer no volume de dados transmitido. Em 2016, o tráfego M2M foi de cerca de 14 exabytes (o equivalente ao conteúdo completo de cerca de seiscentos milhões de discos Blu-Ray), e estima-se que em 2021 este volume irá atingir quase 100 exabytes.  Ainda segundo o relatório da Cisco, em 2021 praticamente 50% das conexões M2M estarão dentro de nossas moradias, através de equipamentos de automação e segurança doméstica, por exemplo. Em segundo lugar teremos as conexões entre os equipamentos nos locais de trabalho, e a seguir, três segmentos que já discutimos neste espaço: saúde, cidades e carros, todos com crescimento de tráfego de dados estimado em cerca de 30% ao ano entre 2016-2021. Isso explica também a natureza da explosão no volume de dados que as máquinas irão trocar ao longo dos próximos anos - dados médicos, incluindo vídeos e imagens, indicadores de saúde e sistemas de navegação são apenas alguns exemplos. O futuro, portanto, é de um aumento relevante na quantidade de dados gerados e transmitidos - por nós, nossos amigos, parentes, colegas de trabalho e pelas máquinas que nos cercam e que compõem a infraestrutura do mundo moderno. Cada email, tweet, curtida, foto, vídeo, música ou dado contribui para um dos desafios fundamentais que temos que enfrentar em função da tecnologia que se faz onipresente em nossas vidas: como extrair os dados pertinentes desta massa gigantesca de bytes? Como usar de maneira inteligente a quantidade inimaginável de informações valiosas que estão sendo produzidas diariamente pelo conjunto completo de usuários, humanos e artificiais? Este é o desafio que o ramo conhecido como Big Data procura endereçar.  O termo Big Data começou a tornar-se mais conhecido a partir do final da década de 90, e suas características costumam ser associadas aos cinco "V's": volume, variedade, velocidade, variabilidade e veracidade. Em 2016, três pesquisadores italianos (Andrea De Mauro, Marco Greco e Michele Grimaldi) publicaram um artigo no qual definem Big Data como "informações de volume, velocidade e variedade tão grandes que exigem tecnologias e modelos analíticos específicos para agregar valor aos dados". As técnicas de Big Data atuam utilizando todos os dados disponíveis (e não apenas um subconjunto dos mesmos), e são capazes de trabalhar com informações que, no jargão da ciência da computação, são conhecidas como "não-estruturadas". Isso quer dizer que os dados utilizados não precisam ser do mesmo tipo, nem precisam estar organizados da mesma maneira, e frequentemente são processados de forma distribuída e paralelizada (ou seja, simultaneamente por vários processadores). Usando como exemplo os comentários realizados nas mídias sociais a respeito de um determinado evento esportivo, teremos dados de diversos tipos (texto, imagens, vídeos, sons), gerados por múltiplas fontes (espectadores, torcedores, repórteres, jogadores) e produzidos ao longo de segundos ou dias - e com a análise adequada desses dados é possível extrair valor para consumidores e marcas. Na semana que vem iremos apresentar algumas aplicações de Big Data em diversos segmentos de negócios. Até lá.

*Fundador da GRIDS Capital, é Engenheiro de Computação e Mestre em Inteligência Artificial

Opinião por Guy Perelmuter

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.