'É preciso entender cada plataforma para manter o debate dentro da realidade', diz pesquisadora


Luiza Bandeira, do Digital Forensic Research Lab, aponta dificuldades para a polícia ou o Judiciário fiscalizarem abusos nas redes sociais e combaterem desinformação

Por Renato Vasconcelos

Quando a rede de desinformação ligada a aliados e familiares do presidente Jair Bolsonaro foi derrubada pelo Facebook, o diretor de Cibersegurança da plataforma, Nathaniel Gleicher, afirmou que foram praticados “comportamentos inautênticos” pelas contas removidas. O termo entrou no debate e ganhou defensores que pretendem incluí-lo no Projeto de Lei das Fake News, que tramita no Congresso Nacional.

Para a pesquisadora Luiza Bandeira, do Digital Forensic Research Lab (DFRLab) – think tank ligado ao Atlantic Council, organização que realiza análise independente de dados –, esse controle de comportamento abusivo é, hoje, uma atribuição das plataformas. “Cada plataforma tem uma estrutura diferente e os comportamentos inautênticos são diferentes em cada uma delas. Quem julga o que é um comportamento inautêntico hoje em dia é o termo de uso de cada empresa”, afirmou.

Luiza Bandeira é pesquisadora do Digital Forensic Research Lab (DFRLab), think tank ligado ao Atlantic Council Foto: divulgação/Atlantic Council
continua após a publicidade

A particularidade de cada termo de uso e da definição dos comportamentos levanta um questionamento sobre a forma de fiscalizá-los, segundo Luiza. “Qual é a ideia da legislação? Quando se fala sobre fiscalizar comportamento estão colocando a responsabilidade na polícia e no Poder Judiciário ou a ideia é regular as redes sociais para que elas continuem fazendo esse trabalho? Quando a gente fala de colocar o comportamento inautêntico na lei, quem é que a gente está colocando como juiz?”, questionou.

O processo para confirmar que um comportamento foi inautêntico passa por uma série de checagens que dependem de análise de dados, que teriam de ser solicitados às plataformas. Além disso, de acordo com Luiza, parte desses processos não é automatizada, o que demandaria habilidades específicas dos investigadores no caso de apurações conduzidas por órgãos públicos. “As plataformas vão mudando as regras de transparência para evitar que maus atores consigam atingir seus objetivos. Mas essa iniciativa atinge quem está tentando investigar, inclusive a gente. Polícia e Judiciário conseguiriam se adaptar a essas mudanças?”

Jurisdições próprias

continua após a publicidade

Luiza avaliou que o debate em torno dos termos de uso de cada plataforma é essencial para que possa ser cobrada uma fiscalização mais transparente por parte das próprias redes ou mesmo para a criação de alguma legislação sobre o tema. “É preciso entender o que é o comportamento inautêntico em cada plataforma para manter o debate dentro da realidade.”

No caso do Facebook, a rede ligada a Bolsonaro, por exemplo, foi desativada porque a rede social considerou que o grupo feriu o termo para comportamento coordenado inautêntico. Quando uma rede organizada é criada com o objetivo de enganar, usando páginas com finalidade falsa, contas falsas ou duplicadas, fere-se o termo de uso.

Para outras redes sociais, no entanto, os parâmetros mudam. No caso do Twitter, a atenção está destinada ao uso de robôs ('bots') e à manipulação do tráfego da plataforma por contas que inflam artificialmente temas em debate na rede. Já no WhatsApp, a preocupação é com o encaminhamento massivo de mensagens, como se fosse um spam.

continua após a publicidade

Transparência, privacidade e liberdade de expressão

A análise dos comportamentos inautênticos, segundo a pesquisadora, apresentam um conflito menor com a liberdade de expressão em comparação com as agências de fact-checking, que trabalham no combate à desinformação a partir do conteúdo. "É menos arriscado agir em cima do comportamento, porque é mais fácil demonstrar, não está no limite de verdadeiro e falso. Por isso que muitas das plataformas vão por esse caminho".

Apesar disso, a fiscalização não está livre de impasses. No caso do comportamento nas redes, o desafio está no grau de transparência que as empresas de tecnologia dão ao processo. De acordo com Luiza, é determinante que as empresas demonstrem com clareza o motivo das remoções de conta e limitação nos conteúdos, mas isso esbarra na própria privacidade dos usuários.

continua após a publicidade

"Certa vez saiu um estudo sobre o reconhecimento de robôs no Twitter, e eles falaram que um dos sinais observados era se a conta analisada postava mais de 50 tuítes por dia. O que as pessoas que criam os 'bots' começaram a fazer? Programaram para que eles tuítassem 49 vezes por dia. Como ter mais transparência, mas evita que eles aproveitem essa informação?."

Medidas combinadas

A pesquisadora opina que o fortalecimento do combate à desinformação necessita de medidas combinadas, que observem tanto comportamento quanto conteúdo. "Olhar para o comportamento é promissor, mas não é uma panaceia. A gente não vai conseguir coibir a degradação do debate público se não olhar um pouco para conteúdo. Um exemplo claro é a difusão de pornografia infantil. Existem leis sobre a proibição desse tipo de conteúdo e cada plataforma vai ter que banir qualquer publicação desse tipo, independentemente do comportamento da conta que o compartilha", explica.

continua após a publicidade

Do mesmo modo, a observação de comportamentos inautênticos é capaz de identificar setores da desinformação que a análise de conteúdo não atinge. "Pode haver desinformação mesmo que não haja informação falsa. Eu posso publicar uma mesma informação verdadeira em várias contas falsas para dar destaque aquele assunto, a fim de encobrir um outro debate. Um exemplo no Twitter, que acontece muito na Venezuela, é que quando sai uma notícia negativa sobre o governo, uma rede de contas, verdadeiras e falsas, é acionada para comentarem uma notícia positiva sobre o governo, muitas vezes verdadeira. Isso altera a percepção da denúncia no debate público."

Legislação depende de debates e parâmetros

A inclusão da análise de comportamentos inautênticos em lei, defende a pesquisadora, depende de um debate mais profundo, que envolva empresas de tecnologia, governo e sociedade civil, e que não pode ser feito apressadamente. No entanto, Luiz opina que um aspecto essencial é contemplar a defesa da privacidade do usuário e, ainda assim, garantir a transparência do processo e a liberdade de expressão.

continua após a publicidade

"Eu acho que a discussão mais importante nesse momento é preservar a privacidade, porque é muito fácil cair nessa tentação e criar uma perseguição de dissidentes, atores políticos, ativistas... O problema está em conseguir aumentar a transparência sem coibir a liberdade de expressão e a privacidade. Esses são os pontos centrais."

Quando a rede de desinformação ligada a aliados e familiares do presidente Jair Bolsonaro foi derrubada pelo Facebook, o diretor de Cibersegurança da plataforma, Nathaniel Gleicher, afirmou que foram praticados “comportamentos inautênticos” pelas contas removidas. O termo entrou no debate e ganhou defensores que pretendem incluí-lo no Projeto de Lei das Fake News, que tramita no Congresso Nacional.

Para a pesquisadora Luiza Bandeira, do Digital Forensic Research Lab (DFRLab) – think tank ligado ao Atlantic Council, organização que realiza análise independente de dados –, esse controle de comportamento abusivo é, hoje, uma atribuição das plataformas. “Cada plataforma tem uma estrutura diferente e os comportamentos inautênticos são diferentes em cada uma delas. Quem julga o que é um comportamento inautêntico hoje em dia é o termo de uso de cada empresa”, afirmou.

Luiza Bandeira é pesquisadora do Digital Forensic Research Lab (DFRLab), think tank ligado ao Atlantic Council Foto: divulgação/Atlantic Council

A particularidade de cada termo de uso e da definição dos comportamentos levanta um questionamento sobre a forma de fiscalizá-los, segundo Luiza. “Qual é a ideia da legislação? Quando se fala sobre fiscalizar comportamento estão colocando a responsabilidade na polícia e no Poder Judiciário ou a ideia é regular as redes sociais para que elas continuem fazendo esse trabalho? Quando a gente fala de colocar o comportamento inautêntico na lei, quem é que a gente está colocando como juiz?”, questionou.

O processo para confirmar que um comportamento foi inautêntico passa por uma série de checagens que dependem de análise de dados, que teriam de ser solicitados às plataformas. Além disso, de acordo com Luiza, parte desses processos não é automatizada, o que demandaria habilidades específicas dos investigadores no caso de apurações conduzidas por órgãos públicos. “As plataformas vão mudando as regras de transparência para evitar que maus atores consigam atingir seus objetivos. Mas essa iniciativa atinge quem está tentando investigar, inclusive a gente. Polícia e Judiciário conseguiriam se adaptar a essas mudanças?”

Jurisdições próprias

Luiza avaliou que o debate em torno dos termos de uso de cada plataforma é essencial para que possa ser cobrada uma fiscalização mais transparente por parte das próprias redes ou mesmo para a criação de alguma legislação sobre o tema. “É preciso entender o que é o comportamento inautêntico em cada plataforma para manter o debate dentro da realidade.”

No caso do Facebook, a rede ligada a Bolsonaro, por exemplo, foi desativada porque a rede social considerou que o grupo feriu o termo para comportamento coordenado inautêntico. Quando uma rede organizada é criada com o objetivo de enganar, usando páginas com finalidade falsa, contas falsas ou duplicadas, fere-se o termo de uso.

Para outras redes sociais, no entanto, os parâmetros mudam. No caso do Twitter, a atenção está destinada ao uso de robôs ('bots') e à manipulação do tráfego da plataforma por contas que inflam artificialmente temas em debate na rede. Já no WhatsApp, a preocupação é com o encaminhamento massivo de mensagens, como se fosse um spam.

Transparência, privacidade e liberdade de expressão

A análise dos comportamentos inautênticos, segundo a pesquisadora, apresentam um conflito menor com a liberdade de expressão em comparação com as agências de fact-checking, que trabalham no combate à desinformação a partir do conteúdo. "É menos arriscado agir em cima do comportamento, porque é mais fácil demonstrar, não está no limite de verdadeiro e falso. Por isso que muitas das plataformas vão por esse caminho".

Apesar disso, a fiscalização não está livre de impasses. No caso do comportamento nas redes, o desafio está no grau de transparência que as empresas de tecnologia dão ao processo. De acordo com Luiza, é determinante que as empresas demonstrem com clareza o motivo das remoções de conta e limitação nos conteúdos, mas isso esbarra na própria privacidade dos usuários.

"Certa vez saiu um estudo sobre o reconhecimento de robôs no Twitter, e eles falaram que um dos sinais observados era se a conta analisada postava mais de 50 tuítes por dia. O que as pessoas que criam os 'bots' começaram a fazer? Programaram para que eles tuítassem 49 vezes por dia. Como ter mais transparência, mas evita que eles aproveitem essa informação?."

Medidas combinadas

A pesquisadora opina que o fortalecimento do combate à desinformação necessita de medidas combinadas, que observem tanto comportamento quanto conteúdo. "Olhar para o comportamento é promissor, mas não é uma panaceia. A gente não vai conseguir coibir a degradação do debate público se não olhar um pouco para conteúdo. Um exemplo claro é a difusão de pornografia infantil. Existem leis sobre a proibição desse tipo de conteúdo e cada plataforma vai ter que banir qualquer publicação desse tipo, independentemente do comportamento da conta que o compartilha", explica.

Do mesmo modo, a observação de comportamentos inautênticos é capaz de identificar setores da desinformação que a análise de conteúdo não atinge. "Pode haver desinformação mesmo que não haja informação falsa. Eu posso publicar uma mesma informação verdadeira em várias contas falsas para dar destaque aquele assunto, a fim de encobrir um outro debate. Um exemplo no Twitter, que acontece muito na Venezuela, é que quando sai uma notícia negativa sobre o governo, uma rede de contas, verdadeiras e falsas, é acionada para comentarem uma notícia positiva sobre o governo, muitas vezes verdadeira. Isso altera a percepção da denúncia no debate público."

Legislação depende de debates e parâmetros

A inclusão da análise de comportamentos inautênticos em lei, defende a pesquisadora, depende de um debate mais profundo, que envolva empresas de tecnologia, governo e sociedade civil, e que não pode ser feito apressadamente. No entanto, Luiz opina que um aspecto essencial é contemplar a defesa da privacidade do usuário e, ainda assim, garantir a transparência do processo e a liberdade de expressão.

"Eu acho que a discussão mais importante nesse momento é preservar a privacidade, porque é muito fácil cair nessa tentação e criar uma perseguição de dissidentes, atores políticos, ativistas... O problema está em conseguir aumentar a transparência sem coibir a liberdade de expressão e a privacidade. Esses são os pontos centrais."

Quando a rede de desinformação ligada a aliados e familiares do presidente Jair Bolsonaro foi derrubada pelo Facebook, o diretor de Cibersegurança da plataforma, Nathaniel Gleicher, afirmou que foram praticados “comportamentos inautênticos” pelas contas removidas. O termo entrou no debate e ganhou defensores que pretendem incluí-lo no Projeto de Lei das Fake News, que tramita no Congresso Nacional.

Para a pesquisadora Luiza Bandeira, do Digital Forensic Research Lab (DFRLab) – think tank ligado ao Atlantic Council, organização que realiza análise independente de dados –, esse controle de comportamento abusivo é, hoje, uma atribuição das plataformas. “Cada plataforma tem uma estrutura diferente e os comportamentos inautênticos são diferentes em cada uma delas. Quem julga o que é um comportamento inautêntico hoje em dia é o termo de uso de cada empresa”, afirmou.

Luiza Bandeira é pesquisadora do Digital Forensic Research Lab (DFRLab), think tank ligado ao Atlantic Council Foto: divulgação/Atlantic Council

A particularidade de cada termo de uso e da definição dos comportamentos levanta um questionamento sobre a forma de fiscalizá-los, segundo Luiza. “Qual é a ideia da legislação? Quando se fala sobre fiscalizar comportamento estão colocando a responsabilidade na polícia e no Poder Judiciário ou a ideia é regular as redes sociais para que elas continuem fazendo esse trabalho? Quando a gente fala de colocar o comportamento inautêntico na lei, quem é que a gente está colocando como juiz?”, questionou.

O processo para confirmar que um comportamento foi inautêntico passa por uma série de checagens que dependem de análise de dados, que teriam de ser solicitados às plataformas. Além disso, de acordo com Luiza, parte desses processos não é automatizada, o que demandaria habilidades específicas dos investigadores no caso de apurações conduzidas por órgãos públicos. “As plataformas vão mudando as regras de transparência para evitar que maus atores consigam atingir seus objetivos. Mas essa iniciativa atinge quem está tentando investigar, inclusive a gente. Polícia e Judiciário conseguiriam se adaptar a essas mudanças?”

Jurisdições próprias

Luiza avaliou que o debate em torno dos termos de uso de cada plataforma é essencial para que possa ser cobrada uma fiscalização mais transparente por parte das próprias redes ou mesmo para a criação de alguma legislação sobre o tema. “É preciso entender o que é o comportamento inautêntico em cada plataforma para manter o debate dentro da realidade.”

No caso do Facebook, a rede ligada a Bolsonaro, por exemplo, foi desativada porque a rede social considerou que o grupo feriu o termo para comportamento coordenado inautêntico. Quando uma rede organizada é criada com o objetivo de enganar, usando páginas com finalidade falsa, contas falsas ou duplicadas, fere-se o termo de uso.

Para outras redes sociais, no entanto, os parâmetros mudam. No caso do Twitter, a atenção está destinada ao uso de robôs ('bots') e à manipulação do tráfego da plataforma por contas que inflam artificialmente temas em debate na rede. Já no WhatsApp, a preocupação é com o encaminhamento massivo de mensagens, como se fosse um spam.

Transparência, privacidade e liberdade de expressão

A análise dos comportamentos inautênticos, segundo a pesquisadora, apresentam um conflito menor com a liberdade de expressão em comparação com as agências de fact-checking, que trabalham no combate à desinformação a partir do conteúdo. "É menos arriscado agir em cima do comportamento, porque é mais fácil demonstrar, não está no limite de verdadeiro e falso. Por isso que muitas das plataformas vão por esse caminho".

Apesar disso, a fiscalização não está livre de impasses. No caso do comportamento nas redes, o desafio está no grau de transparência que as empresas de tecnologia dão ao processo. De acordo com Luiza, é determinante que as empresas demonstrem com clareza o motivo das remoções de conta e limitação nos conteúdos, mas isso esbarra na própria privacidade dos usuários.

"Certa vez saiu um estudo sobre o reconhecimento de robôs no Twitter, e eles falaram que um dos sinais observados era se a conta analisada postava mais de 50 tuítes por dia. O que as pessoas que criam os 'bots' começaram a fazer? Programaram para que eles tuítassem 49 vezes por dia. Como ter mais transparência, mas evita que eles aproveitem essa informação?."

Medidas combinadas

A pesquisadora opina que o fortalecimento do combate à desinformação necessita de medidas combinadas, que observem tanto comportamento quanto conteúdo. "Olhar para o comportamento é promissor, mas não é uma panaceia. A gente não vai conseguir coibir a degradação do debate público se não olhar um pouco para conteúdo. Um exemplo claro é a difusão de pornografia infantil. Existem leis sobre a proibição desse tipo de conteúdo e cada plataforma vai ter que banir qualquer publicação desse tipo, independentemente do comportamento da conta que o compartilha", explica.

Do mesmo modo, a observação de comportamentos inautênticos é capaz de identificar setores da desinformação que a análise de conteúdo não atinge. "Pode haver desinformação mesmo que não haja informação falsa. Eu posso publicar uma mesma informação verdadeira em várias contas falsas para dar destaque aquele assunto, a fim de encobrir um outro debate. Um exemplo no Twitter, que acontece muito na Venezuela, é que quando sai uma notícia negativa sobre o governo, uma rede de contas, verdadeiras e falsas, é acionada para comentarem uma notícia positiva sobre o governo, muitas vezes verdadeira. Isso altera a percepção da denúncia no debate público."

Legislação depende de debates e parâmetros

A inclusão da análise de comportamentos inautênticos em lei, defende a pesquisadora, depende de um debate mais profundo, que envolva empresas de tecnologia, governo e sociedade civil, e que não pode ser feito apressadamente. No entanto, Luiz opina que um aspecto essencial é contemplar a defesa da privacidade do usuário e, ainda assim, garantir a transparência do processo e a liberdade de expressão.

"Eu acho que a discussão mais importante nesse momento é preservar a privacidade, porque é muito fácil cair nessa tentação e criar uma perseguição de dissidentes, atores políticos, ativistas... O problema está em conseguir aumentar a transparência sem coibir a liberdade de expressão e a privacidade. Esses são os pontos centrais."

Quando a rede de desinformação ligada a aliados e familiares do presidente Jair Bolsonaro foi derrubada pelo Facebook, o diretor de Cibersegurança da plataforma, Nathaniel Gleicher, afirmou que foram praticados “comportamentos inautênticos” pelas contas removidas. O termo entrou no debate e ganhou defensores que pretendem incluí-lo no Projeto de Lei das Fake News, que tramita no Congresso Nacional.

Para a pesquisadora Luiza Bandeira, do Digital Forensic Research Lab (DFRLab) – think tank ligado ao Atlantic Council, organização que realiza análise independente de dados –, esse controle de comportamento abusivo é, hoje, uma atribuição das plataformas. “Cada plataforma tem uma estrutura diferente e os comportamentos inautênticos são diferentes em cada uma delas. Quem julga o que é um comportamento inautêntico hoje em dia é o termo de uso de cada empresa”, afirmou.

Luiza Bandeira é pesquisadora do Digital Forensic Research Lab (DFRLab), think tank ligado ao Atlantic Council Foto: divulgação/Atlantic Council

A particularidade de cada termo de uso e da definição dos comportamentos levanta um questionamento sobre a forma de fiscalizá-los, segundo Luiza. “Qual é a ideia da legislação? Quando se fala sobre fiscalizar comportamento estão colocando a responsabilidade na polícia e no Poder Judiciário ou a ideia é regular as redes sociais para que elas continuem fazendo esse trabalho? Quando a gente fala de colocar o comportamento inautêntico na lei, quem é que a gente está colocando como juiz?”, questionou.

O processo para confirmar que um comportamento foi inautêntico passa por uma série de checagens que dependem de análise de dados, que teriam de ser solicitados às plataformas. Além disso, de acordo com Luiza, parte desses processos não é automatizada, o que demandaria habilidades específicas dos investigadores no caso de apurações conduzidas por órgãos públicos. “As plataformas vão mudando as regras de transparência para evitar que maus atores consigam atingir seus objetivos. Mas essa iniciativa atinge quem está tentando investigar, inclusive a gente. Polícia e Judiciário conseguiriam se adaptar a essas mudanças?”

Jurisdições próprias

Luiza avaliou que o debate em torno dos termos de uso de cada plataforma é essencial para que possa ser cobrada uma fiscalização mais transparente por parte das próprias redes ou mesmo para a criação de alguma legislação sobre o tema. “É preciso entender o que é o comportamento inautêntico em cada plataforma para manter o debate dentro da realidade.”

No caso do Facebook, a rede ligada a Bolsonaro, por exemplo, foi desativada porque a rede social considerou que o grupo feriu o termo para comportamento coordenado inautêntico. Quando uma rede organizada é criada com o objetivo de enganar, usando páginas com finalidade falsa, contas falsas ou duplicadas, fere-se o termo de uso.

Para outras redes sociais, no entanto, os parâmetros mudam. No caso do Twitter, a atenção está destinada ao uso de robôs ('bots') e à manipulação do tráfego da plataforma por contas que inflam artificialmente temas em debate na rede. Já no WhatsApp, a preocupação é com o encaminhamento massivo de mensagens, como se fosse um spam.

Transparência, privacidade e liberdade de expressão

A análise dos comportamentos inautênticos, segundo a pesquisadora, apresentam um conflito menor com a liberdade de expressão em comparação com as agências de fact-checking, que trabalham no combate à desinformação a partir do conteúdo. "É menos arriscado agir em cima do comportamento, porque é mais fácil demonstrar, não está no limite de verdadeiro e falso. Por isso que muitas das plataformas vão por esse caminho".

Apesar disso, a fiscalização não está livre de impasses. No caso do comportamento nas redes, o desafio está no grau de transparência que as empresas de tecnologia dão ao processo. De acordo com Luiza, é determinante que as empresas demonstrem com clareza o motivo das remoções de conta e limitação nos conteúdos, mas isso esbarra na própria privacidade dos usuários.

"Certa vez saiu um estudo sobre o reconhecimento de robôs no Twitter, e eles falaram que um dos sinais observados era se a conta analisada postava mais de 50 tuítes por dia. O que as pessoas que criam os 'bots' começaram a fazer? Programaram para que eles tuítassem 49 vezes por dia. Como ter mais transparência, mas evita que eles aproveitem essa informação?."

Medidas combinadas

A pesquisadora opina que o fortalecimento do combate à desinformação necessita de medidas combinadas, que observem tanto comportamento quanto conteúdo. "Olhar para o comportamento é promissor, mas não é uma panaceia. A gente não vai conseguir coibir a degradação do debate público se não olhar um pouco para conteúdo. Um exemplo claro é a difusão de pornografia infantil. Existem leis sobre a proibição desse tipo de conteúdo e cada plataforma vai ter que banir qualquer publicação desse tipo, independentemente do comportamento da conta que o compartilha", explica.

Do mesmo modo, a observação de comportamentos inautênticos é capaz de identificar setores da desinformação que a análise de conteúdo não atinge. "Pode haver desinformação mesmo que não haja informação falsa. Eu posso publicar uma mesma informação verdadeira em várias contas falsas para dar destaque aquele assunto, a fim de encobrir um outro debate. Um exemplo no Twitter, que acontece muito na Venezuela, é que quando sai uma notícia negativa sobre o governo, uma rede de contas, verdadeiras e falsas, é acionada para comentarem uma notícia positiva sobre o governo, muitas vezes verdadeira. Isso altera a percepção da denúncia no debate público."

Legislação depende de debates e parâmetros

A inclusão da análise de comportamentos inautênticos em lei, defende a pesquisadora, depende de um debate mais profundo, que envolva empresas de tecnologia, governo e sociedade civil, e que não pode ser feito apressadamente. No entanto, Luiz opina que um aspecto essencial é contemplar a defesa da privacidade do usuário e, ainda assim, garantir a transparência do processo e a liberdade de expressão.

"Eu acho que a discussão mais importante nesse momento é preservar a privacidade, porque é muito fácil cair nessa tentação e criar uma perseguição de dissidentes, atores políticos, ativistas... O problema está em conseguir aumentar a transparência sem coibir a liberdade de expressão e a privacidade. Esses são os pontos centrais."

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.