Opinião|Anúncio precipitado de resultados da alfabetização põe em risco credibilidade do MEC


Governo precisa mostrar a mesma responsabilidade com os indicadores educacionais do que com o PIB e a inflação

Por Guilherme Lichand

Em 2023, o Brasil finalmente definiu o que significa estar alfabetizado ao final do 2º ano do Ensino Fundamental. O Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (Inep) estabeleceu que o marco equivale a saber ler uma tirinha ou escrever um bilhete, competências materializadas numa pontuação maior ou igual a 743 pontos no exame nacional do Sistema de Avaliação da Educação Básico (Saeb) para alunos dessa série.

Se definir esse parâmetro em 2023 pode parecer pouco (e tarde), esse indicador é o pilar de uma série de esforços que, se bem orquestrados, teriam real potencial de impulsionar a proporção de crianças brasileiras alfabetizadas na idade certa.

Avaliação sobre nível de alfabetização das crianças exige rigor semelhante aos de medição da inflação ou do PIB. Foto: Tiago Queiroz/Estadão
continua após a publicidade

Imagine quão mais difícil seria tentar conter a inflação sem ter indicadores precisos de como os preços de diferentes bens e serviços estão evoluindo mês a mês e, em particular, de como esses preços respondem ao longo do tempo a mudanças na taxa básica de juros controlada pelo Banco Central?

É a mesma lógica na educação. Um indicador unificado de alfabetização compartilhado por governo federal, Estados e municípios permite monitorar sua evolução no tempo e entre diferentes regiões, desenhar políticas capazes de disseminar melhores práticas de sucesso ou endereçar fracassos persistentes, e avaliar se essas políticas estão mostrando resultados.

continua após a publicidade

O cômputo retroativo do indicador para a avaliação do 2º ano realizada em 2021, de forma amostral, logo após a pandemia, mostrou que metade das crianças não sabia ler ao final daquela série – uma estatística que deveria chocar nossa sociedade. Na educação, é como se ainda vivêssemos os tempos de hiperinflação, com maus resultados que teimam em resistir a diferentes planos de governo.

Diferentemente da inflação, contudo, essa medida de alfabetização é cara e complexa de coletar de forma centralizada pelo Inep. O Saeb 2º ano só acontece num subconjunto de escolas, e ainda assim, a cada 2 anos.

Diante disso, veio uma ideia brilhante, costurada com contribuições de diferentes setores da sociedade ao longo dos últimos anos: que o Inep passasse a considerar também avaliações conduzidas pelos Estados de forma descentralizada, a serem realizadas de forma censitária e com maior frequência – complementando os resultados do Saeb.

continua após a publicidade

Compatibilizar avaliações diferentes é possível, mas envolve uma série de desafios estatísticos. Se alunos de um Estado tiverem melhor desempenho que de outro, terá sido porque os alunos do primeiro têm, de fato, maior proficiência, ou será porque a avaliação foi mais fácil naquele do que neste?

Há maneiras de tentar contornar essa incerteza, mas nenhuma é trivial. Mesmo que todas as provas tenham um conjunto de itens comuns, que poderiam ser utilizados para garantir comparabilidade, as condições de aplicação da prova como um todo importam – como a ordem dos itens, a duração total da prova, etc.

continua após a publicidade

2024 teria sido uma oportunidade incrível de validar o exercício de compatibilização, porque, no ano passado, houve aplicação tanto do Saeb 2º ano quanto da avaliação censitária nesta série em 24 Estados. Infelizmente, o Ministério da Educação preferiu sacrificar o rigor estatístico do novo indicador e divulgar às pressas os resultados das avaliações estaduais, 3 semanas antes da data prevista para anúncio dos resultados do Saeb.

Essa divulgação foi completamente opaca, sem esclarecer a metodologia segundo a qual as notas teriam sido compatibilizadas para produzir o indicador nacional – que sugeria que 56% dos alunos do 2º ano estavam alfabetizados em 2023 –, e sem ressalvas de colocar lado a lado bananas e laranjas (médias por Estado do Saeb amostral de 2021 com a das 24 avaliações estaduais censitárias de 2023).

continua após a publicidade

Resultados destoantes do bom senso, como Maranhão próximo do topo do ranking, e São Paulo, Santa Catarina e Rio Grande do Sul abaixo da média nacional, produziram desconfiança sobre o rigor da compatibilização dos resultados das avaliações estaduais.

Não podemos minimizar os custos enormes de divulgar uma medida nova com potencial de forma atabalhoada, opaca e possivelmente inconsistente com a metodologia da avaliação nacional.

Imagine se o Ministério da Fazenda divulgasse uma nova medida do PIB ou da inflação que invertesse o ranking de setores, sem explicar como essa medida foi computada?

continua após a publicidade

E se, meses depois, o indicador oficial do IBGE demonstrasse que a divulgação anterior era claramente inconsistente com os padrões da série histórica? Teríamos protestos na Faria Lima! Na educação, contudo, essa falta de critério passa incólume.

A possibilidade de ter dados robustos sobre a garantia do direito à aprendizagem daqueles que mais precisam foi sacrificada pela pressa de gerar boas notícias num contexto desafiador. Agora, com o adiamento da divulgação dos resultados do Saeb em um mês e meio sem justificativa, confirma-se a falta de compromisso com uma comunicação transparente sobre um indicador crítico para orientar políticas Estaduais e municipais.

Para além de metodologia robusta e transparente, o Inep precisa também, com urgência, tornar a avaliação mais demandante. Ter uma pontuação mínima é insuficiente se os itens da prova não medem efetivamente a competência de leitura, mas só habilidades extremamente rudimentares de decodificação.

Não à toa, nossos alunos da 4ª série tiveram desempenho sofrível no último PIRLS – avaliação internacional de competência de leitura –, muito abaixo daquela sugerida pela métrica do Inep.

O governo precisa mostrar a mesma responsabilidade com os indicadores educacionais do que com o PIB e a inflação.

Em 2023, o Brasil finalmente definiu o que significa estar alfabetizado ao final do 2º ano do Ensino Fundamental. O Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (Inep) estabeleceu que o marco equivale a saber ler uma tirinha ou escrever um bilhete, competências materializadas numa pontuação maior ou igual a 743 pontos no exame nacional do Sistema de Avaliação da Educação Básico (Saeb) para alunos dessa série.

Se definir esse parâmetro em 2023 pode parecer pouco (e tarde), esse indicador é o pilar de uma série de esforços que, se bem orquestrados, teriam real potencial de impulsionar a proporção de crianças brasileiras alfabetizadas na idade certa.

Avaliação sobre nível de alfabetização das crianças exige rigor semelhante aos de medição da inflação ou do PIB. Foto: Tiago Queiroz/Estadão

Imagine quão mais difícil seria tentar conter a inflação sem ter indicadores precisos de como os preços de diferentes bens e serviços estão evoluindo mês a mês e, em particular, de como esses preços respondem ao longo do tempo a mudanças na taxa básica de juros controlada pelo Banco Central?

É a mesma lógica na educação. Um indicador unificado de alfabetização compartilhado por governo federal, Estados e municípios permite monitorar sua evolução no tempo e entre diferentes regiões, desenhar políticas capazes de disseminar melhores práticas de sucesso ou endereçar fracassos persistentes, e avaliar se essas políticas estão mostrando resultados.

O cômputo retroativo do indicador para a avaliação do 2º ano realizada em 2021, de forma amostral, logo após a pandemia, mostrou que metade das crianças não sabia ler ao final daquela série – uma estatística que deveria chocar nossa sociedade. Na educação, é como se ainda vivêssemos os tempos de hiperinflação, com maus resultados que teimam em resistir a diferentes planos de governo.

Diferentemente da inflação, contudo, essa medida de alfabetização é cara e complexa de coletar de forma centralizada pelo Inep. O Saeb 2º ano só acontece num subconjunto de escolas, e ainda assim, a cada 2 anos.

Diante disso, veio uma ideia brilhante, costurada com contribuições de diferentes setores da sociedade ao longo dos últimos anos: que o Inep passasse a considerar também avaliações conduzidas pelos Estados de forma descentralizada, a serem realizadas de forma censitária e com maior frequência – complementando os resultados do Saeb.

Compatibilizar avaliações diferentes é possível, mas envolve uma série de desafios estatísticos. Se alunos de um Estado tiverem melhor desempenho que de outro, terá sido porque os alunos do primeiro têm, de fato, maior proficiência, ou será porque a avaliação foi mais fácil naquele do que neste?

Há maneiras de tentar contornar essa incerteza, mas nenhuma é trivial. Mesmo que todas as provas tenham um conjunto de itens comuns, que poderiam ser utilizados para garantir comparabilidade, as condições de aplicação da prova como um todo importam – como a ordem dos itens, a duração total da prova, etc.

2024 teria sido uma oportunidade incrível de validar o exercício de compatibilização, porque, no ano passado, houve aplicação tanto do Saeb 2º ano quanto da avaliação censitária nesta série em 24 Estados. Infelizmente, o Ministério da Educação preferiu sacrificar o rigor estatístico do novo indicador e divulgar às pressas os resultados das avaliações estaduais, 3 semanas antes da data prevista para anúncio dos resultados do Saeb.

Essa divulgação foi completamente opaca, sem esclarecer a metodologia segundo a qual as notas teriam sido compatibilizadas para produzir o indicador nacional – que sugeria que 56% dos alunos do 2º ano estavam alfabetizados em 2023 –, e sem ressalvas de colocar lado a lado bananas e laranjas (médias por Estado do Saeb amostral de 2021 com a das 24 avaliações estaduais censitárias de 2023).

Resultados destoantes do bom senso, como Maranhão próximo do topo do ranking, e São Paulo, Santa Catarina e Rio Grande do Sul abaixo da média nacional, produziram desconfiança sobre o rigor da compatibilização dos resultados das avaliações estaduais.

Não podemos minimizar os custos enormes de divulgar uma medida nova com potencial de forma atabalhoada, opaca e possivelmente inconsistente com a metodologia da avaliação nacional.

Imagine se o Ministério da Fazenda divulgasse uma nova medida do PIB ou da inflação que invertesse o ranking de setores, sem explicar como essa medida foi computada?

E se, meses depois, o indicador oficial do IBGE demonstrasse que a divulgação anterior era claramente inconsistente com os padrões da série histórica? Teríamos protestos na Faria Lima! Na educação, contudo, essa falta de critério passa incólume.

A possibilidade de ter dados robustos sobre a garantia do direito à aprendizagem daqueles que mais precisam foi sacrificada pela pressa de gerar boas notícias num contexto desafiador. Agora, com o adiamento da divulgação dos resultados do Saeb em um mês e meio sem justificativa, confirma-se a falta de compromisso com uma comunicação transparente sobre um indicador crítico para orientar políticas Estaduais e municipais.

Para além de metodologia robusta e transparente, o Inep precisa também, com urgência, tornar a avaliação mais demandante. Ter uma pontuação mínima é insuficiente se os itens da prova não medem efetivamente a competência de leitura, mas só habilidades extremamente rudimentares de decodificação.

Não à toa, nossos alunos da 4ª série tiveram desempenho sofrível no último PIRLS – avaliação internacional de competência de leitura –, muito abaixo daquela sugerida pela métrica do Inep.

O governo precisa mostrar a mesma responsabilidade com os indicadores educacionais do que com o PIB e a inflação.

Em 2023, o Brasil finalmente definiu o que significa estar alfabetizado ao final do 2º ano do Ensino Fundamental. O Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (Inep) estabeleceu que o marco equivale a saber ler uma tirinha ou escrever um bilhete, competências materializadas numa pontuação maior ou igual a 743 pontos no exame nacional do Sistema de Avaliação da Educação Básico (Saeb) para alunos dessa série.

Se definir esse parâmetro em 2023 pode parecer pouco (e tarde), esse indicador é o pilar de uma série de esforços que, se bem orquestrados, teriam real potencial de impulsionar a proporção de crianças brasileiras alfabetizadas na idade certa.

Avaliação sobre nível de alfabetização das crianças exige rigor semelhante aos de medição da inflação ou do PIB. Foto: Tiago Queiroz/Estadão

Imagine quão mais difícil seria tentar conter a inflação sem ter indicadores precisos de como os preços de diferentes bens e serviços estão evoluindo mês a mês e, em particular, de como esses preços respondem ao longo do tempo a mudanças na taxa básica de juros controlada pelo Banco Central?

É a mesma lógica na educação. Um indicador unificado de alfabetização compartilhado por governo federal, Estados e municípios permite monitorar sua evolução no tempo e entre diferentes regiões, desenhar políticas capazes de disseminar melhores práticas de sucesso ou endereçar fracassos persistentes, e avaliar se essas políticas estão mostrando resultados.

O cômputo retroativo do indicador para a avaliação do 2º ano realizada em 2021, de forma amostral, logo após a pandemia, mostrou que metade das crianças não sabia ler ao final daquela série – uma estatística que deveria chocar nossa sociedade. Na educação, é como se ainda vivêssemos os tempos de hiperinflação, com maus resultados que teimam em resistir a diferentes planos de governo.

Diferentemente da inflação, contudo, essa medida de alfabetização é cara e complexa de coletar de forma centralizada pelo Inep. O Saeb 2º ano só acontece num subconjunto de escolas, e ainda assim, a cada 2 anos.

Diante disso, veio uma ideia brilhante, costurada com contribuições de diferentes setores da sociedade ao longo dos últimos anos: que o Inep passasse a considerar também avaliações conduzidas pelos Estados de forma descentralizada, a serem realizadas de forma censitária e com maior frequência – complementando os resultados do Saeb.

Compatibilizar avaliações diferentes é possível, mas envolve uma série de desafios estatísticos. Se alunos de um Estado tiverem melhor desempenho que de outro, terá sido porque os alunos do primeiro têm, de fato, maior proficiência, ou será porque a avaliação foi mais fácil naquele do que neste?

Há maneiras de tentar contornar essa incerteza, mas nenhuma é trivial. Mesmo que todas as provas tenham um conjunto de itens comuns, que poderiam ser utilizados para garantir comparabilidade, as condições de aplicação da prova como um todo importam – como a ordem dos itens, a duração total da prova, etc.

2024 teria sido uma oportunidade incrível de validar o exercício de compatibilização, porque, no ano passado, houve aplicação tanto do Saeb 2º ano quanto da avaliação censitária nesta série em 24 Estados. Infelizmente, o Ministério da Educação preferiu sacrificar o rigor estatístico do novo indicador e divulgar às pressas os resultados das avaliações estaduais, 3 semanas antes da data prevista para anúncio dos resultados do Saeb.

Essa divulgação foi completamente opaca, sem esclarecer a metodologia segundo a qual as notas teriam sido compatibilizadas para produzir o indicador nacional – que sugeria que 56% dos alunos do 2º ano estavam alfabetizados em 2023 –, e sem ressalvas de colocar lado a lado bananas e laranjas (médias por Estado do Saeb amostral de 2021 com a das 24 avaliações estaduais censitárias de 2023).

Resultados destoantes do bom senso, como Maranhão próximo do topo do ranking, e São Paulo, Santa Catarina e Rio Grande do Sul abaixo da média nacional, produziram desconfiança sobre o rigor da compatibilização dos resultados das avaliações estaduais.

Não podemos minimizar os custos enormes de divulgar uma medida nova com potencial de forma atabalhoada, opaca e possivelmente inconsistente com a metodologia da avaliação nacional.

Imagine se o Ministério da Fazenda divulgasse uma nova medida do PIB ou da inflação que invertesse o ranking de setores, sem explicar como essa medida foi computada?

E se, meses depois, o indicador oficial do IBGE demonstrasse que a divulgação anterior era claramente inconsistente com os padrões da série histórica? Teríamos protestos na Faria Lima! Na educação, contudo, essa falta de critério passa incólume.

A possibilidade de ter dados robustos sobre a garantia do direito à aprendizagem daqueles que mais precisam foi sacrificada pela pressa de gerar boas notícias num contexto desafiador. Agora, com o adiamento da divulgação dos resultados do Saeb em um mês e meio sem justificativa, confirma-se a falta de compromisso com uma comunicação transparente sobre um indicador crítico para orientar políticas Estaduais e municipais.

Para além de metodologia robusta e transparente, o Inep precisa também, com urgência, tornar a avaliação mais demandante. Ter uma pontuação mínima é insuficiente se os itens da prova não medem efetivamente a competência de leitura, mas só habilidades extremamente rudimentares de decodificação.

Não à toa, nossos alunos da 4ª série tiveram desempenho sofrível no último PIRLS – avaliação internacional de competência de leitura –, muito abaixo daquela sugerida pela métrica do Inep.

O governo precisa mostrar a mesma responsabilidade com os indicadores educacionais do que com o PIB e a inflação.

Em 2023, o Brasil finalmente definiu o que significa estar alfabetizado ao final do 2º ano do Ensino Fundamental. O Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (Inep) estabeleceu que o marco equivale a saber ler uma tirinha ou escrever um bilhete, competências materializadas numa pontuação maior ou igual a 743 pontos no exame nacional do Sistema de Avaliação da Educação Básico (Saeb) para alunos dessa série.

Se definir esse parâmetro em 2023 pode parecer pouco (e tarde), esse indicador é o pilar de uma série de esforços que, se bem orquestrados, teriam real potencial de impulsionar a proporção de crianças brasileiras alfabetizadas na idade certa.

Avaliação sobre nível de alfabetização das crianças exige rigor semelhante aos de medição da inflação ou do PIB. Foto: Tiago Queiroz/Estadão

Imagine quão mais difícil seria tentar conter a inflação sem ter indicadores precisos de como os preços de diferentes bens e serviços estão evoluindo mês a mês e, em particular, de como esses preços respondem ao longo do tempo a mudanças na taxa básica de juros controlada pelo Banco Central?

É a mesma lógica na educação. Um indicador unificado de alfabetização compartilhado por governo federal, Estados e municípios permite monitorar sua evolução no tempo e entre diferentes regiões, desenhar políticas capazes de disseminar melhores práticas de sucesso ou endereçar fracassos persistentes, e avaliar se essas políticas estão mostrando resultados.

O cômputo retroativo do indicador para a avaliação do 2º ano realizada em 2021, de forma amostral, logo após a pandemia, mostrou que metade das crianças não sabia ler ao final daquela série – uma estatística que deveria chocar nossa sociedade. Na educação, é como se ainda vivêssemos os tempos de hiperinflação, com maus resultados que teimam em resistir a diferentes planos de governo.

Diferentemente da inflação, contudo, essa medida de alfabetização é cara e complexa de coletar de forma centralizada pelo Inep. O Saeb 2º ano só acontece num subconjunto de escolas, e ainda assim, a cada 2 anos.

Diante disso, veio uma ideia brilhante, costurada com contribuições de diferentes setores da sociedade ao longo dos últimos anos: que o Inep passasse a considerar também avaliações conduzidas pelos Estados de forma descentralizada, a serem realizadas de forma censitária e com maior frequência – complementando os resultados do Saeb.

Compatibilizar avaliações diferentes é possível, mas envolve uma série de desafios estatísticos. Se alunos de um Estado tiverem melhor desempenho que de outro, terá sido porque os alunos do primeiro têm, de fato, maior proficiência, ou será porque a avaliação foi mais fácil naquele do que neste?

Há maneiras de tentar contornar essa incerteza, mas nenhuma é trivial. Mesmo que todas as provas tenham um conjunto de itens comuns, que poderiam ser utilizados para garantir comparabilidade, as condições de aplicação da prova como um todo importam – como a ordem dos itens, a duração total da prova, etc.

2024 teria sido uma oportunidade incrível de validar o exercício de compatibilização, porque, no ano passado, houve aplicação tanto do Saeb 2º ano quanto da avaliação censitária nesta série em 24 Estados. Infelizmente, o Ministério da Educação preferiu sacrificar o rigor estatístico do novo indicador e divulgar às pressas os resultados das avaliações estaduais, 3 semanas antes da data prevista para anúncio dos resultados do Saeb.

Essa divulgação foi completamente opaca, sem esclarecer a metodologia segundo a qual as notas teriam sido compatibilizadas para produzir o indicador nacional – que sugeria que 56% dos alunos do 2º ano estavam alfabetizados em 2023 –, e sem ressalvas de colocar lado a lado bananas e laranjas (médias por Estado do Saeb amostral de 2021 com a das 24 avaliações estaduais censitárias de 2023).

Resultados destoantes do bom senso, como Maranhão próximo do topo do ranking, e São Paulo, Santa Catarina e Rio Grande do Sul abaixo da média nacional, produziram desconfiança sobre o rigor da compatibilização dos resultados das avaliações estaduais.

Não podemos minimizar os custos enormes de divulgar uma medida nova com potencial de forma atabalhoada, opaca e possivelmente inconsistente com a metodologia da avaliação nacional.

Imagine se o Ministério da Fazenda divulgasse uma nova medida do PIB ou da inflação que invertesse o ranking de setores, sem explicar como essa medida foi computada?

E se, meses depois, o indicador oficial do IBGE demonstrasse que a divulgação anterior era claramente inconsistente com os padrões da série histórica? Teríamos protestos na Faria Lima! Na educação, contudo, essa falta de critério passa incólume.

A possibilidade de ter dados robustos sobre a garantia do direito à aprendizagem daqueles que mais precisam foi sacrificada pela pressa de gerar boas notícias num contexto desafiador. Agora, com o adiamento da divulgação dos resultados do Saeb em um mês e meio sem justificativa, confirma-se a falta de compromisso com uma comunicação transparente sobre um indicador crítico para orientar políticas Estaduais e municipais.

Para além de metodologia robusta e transparente, o Inep precisa também, com urgência, tornar a avaliação mais demandante. Ter uma pontuação mínima é insuficiente se os itens da prova não medem efetivamente a competência de leitura, mas só habilidades extremamente rudimentares de decodificação.

Não à toa, nossos alunos da 4ª série tiveram desempenho sofrível no último PIRLS – avaliação internacional de competência de leitura –, muito abaixo daquela sugerida pela métrica do Inep.

O governo precisa mostrar a mesma responsabilidade com os indicadores educacionais do que com o PIB e a inflação.

Opinião por Guilherme Lichand

Professor de Educação da Universidade de Stanford e PhD em Economia Política e Governo pela Universidade de Harvard

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.