Costin: louvor à avaliação

Em artigo em sua coluna da Folha de São Paulo, Claudia Costin recicla um mantra dos reformadores empresariais: a avaliação (levada a sério) gera qualidade na educação.

“Não é por acaso que os estados que levaram mais a sério avaliações de larga escala foram os que tiveram maiores progressos em aprendizagem. Goiás, Espírito Santo e Ceará são casos emblemáticos, assim como municípios como Sobral ou a capital de São Paulo.”

Leia aqui.

De fato o que ela quer dizer é que avaliação gera responsabilização pelos resultados, um mantra repetido à exaustão há 30 anos pelos reformadores. Curiosamente, ela esquece que o Estado de São Paulo foi quem mais implementou a política de avaliação dos reformadores (que agora foi transferida para o governo federal com a Base Nacional Comum Curricular). No entanto, o Estado de São Paulo não foi incluído em sua “análise” dos impactos das políticas de avaliação – apenas a capital do Estado.

Como se explica a combalida educação no Estado de São Paulo a ponto de seu atual secretário estar pensando em reduzir a avaliação para abrir mais espaço para o ensino? E note: as avaliações são bimestrais e ele quer que sejam trimestrais, pasmem. Não estaria o Estado de São Paulo levando a sério a avaliação? Tem até um IDESP (algo com um  IDEB melhorado). É claro que a análise da autora é superficial e há muito mais do que levar ou não a sério a avaliação para se poder falar de “qualidade da educação”.

Leia também.

Os reformadores têm este comportamento frequentemente: “dis costas” para a realidade (como dizia o saudoso personagem “seu boneco”), repetem seus mantras como se a mera repetição os legitimasse. A bobagem vem de longe.

Em 2011, em entrevista a Marta Avancini, Reynaldo Fernandes então presidente do INEP, explicava como havia chegado ao IDEB, depois da implantação da Prova Brasil:

“Antes do No Child Left Behind [lei aprovada em 2002, no governo Bush, que visa à melhoria da qualidade da educação por meio de um sistema de prestação de contas baseado em resultados], a maioria dos Estados já tinha sistema de avaliação. Nos que primeiro criaram um sistema, a evolução do desempenho dos alunos foi mais acentuada. Esses sistemas fazem com que as escolas e os dirigentes dos sistemas (secretários, prefeitos e governadores) se sintam responsáveis pelo desempenho. É a ideia de responsabilização, de accountability.”

A educação americana não melhorou por isso. Ao contrário, o No Child Left Behind foi aposentado por ineficácia. Além disso, a avaliação de larga escala americana nunca foi censitária como no Brasil – foi sempre amostral, embora os estados americanos façam avaliação censitária. E, mesmo com avaliação censitária nos estados, a educação americana está entalada e não avança.

No Brasil, mesmo com a implantação da Prova Brasil (que é censitária) dizem que a educação brasileira está uma tragédia. No Estado de São Paulo, onde se avalia como nunca, também está empacada.

Costin escolhe o estado que lhe convém para ilustrar suas afirmações. Por que a avaliação funcionaria em Sobral e não funciona em São Paulo? É claro que há muito mais do que levar a sério ou não a avaliação. E qual a solução proposta pela autora? Fazer mais avaliação:

“Mas o que falta ao sistema de dados sobre aprendizagem no Brasil são avaliações formativas, aquelas utilizadas pelos próprios professores ou por secretarias, para obter informações sobre o que cada aluno aprendeu e sobre quem está ficando para trás.”

Isso só implementa outro mantra da reforma empresarial: alinhar a avaliação da sala de aula com as avaliações de larga escala. Para eles, “alinhamento” leva à qualidade. É o controle total do professor, responsável pelo assassinato da autonomia e da criatividade em sala de aula.

Avaliar o sucesso ou o fracasso das políticas públicas a partir de se levar ou não a sério a avaliação é um chute que só é possível se confundimos causalidade com correlação. Certamente é possível criar a correlação que se queira entre fenômenos (positivamente ou negativamente). Por este caminho, até a lua cheia pode ser a causa da boa ou má aprendizagem. Correlação não implica, necessariamente, em causalidade.

Políticas públicas são eventos complexos que possuem métodos específicos para serem avaliadas corretamente em seus impactos. O fato da haver correlação entre avaliação em certos estados e índices altos de aprendizagem não esclarece porque os índices altos existem ou deixam de existir.

Avaliando a política de testes e accountability americana, Carlson (2018) considera que embora ela tenha produzido alguma melhoria nas médias de aprendizagem dos estudantes em leitura e matemática, a interpretação destes resultados não é simples e direta.

Segundo ele, existem várias razões para que tais pontuações possam ter aumentado: podem refletir ganhos de aprendizado do aluno naqueles aspectos testados; podem refletir uma maior familiaridade desenvolvida pelo aluno a este tipo de avaliação, sem refletir de fato uma maior aprendizagem; podem refletir uma maior ênfase das escolas e professores na preparação dos alunos para a realização de testes e/ou ensino de estratégias para maximizar seu desempenho nos testes; e finalmente, pode ser que a melhoria nos testes seja produto de manipulação baseada em fraudes de vários tipos. O problema é que não há como saber qual destas possíveis causas para o aumento das notas está atuando em um determinado caso (Carlson, 2018, p. 13).

O balanço que D. Koretz (2017) faz sobre o período corrobora a posição de Carlson. A suposição destas políticas era que medir o desempenho dos estudantes através de testes, permitiria usar tais medidas para criar incentivos para obter um melhor desempenho do aluno. “Se nós recompensamos as pessoas por produzir o que queremos (…) eles produzirão mais daquilo que queremos. As escolas serão melhores e os estudantes aprenderão mais” (Koretz, 2017, posição 141). Contudo este raciocínio não se mostrou, segundo ele, tão simples “e as evidências mostram claramente que esta abordagem falhou”. Isso, continua o autor, não quer dizer que não produziu nenhum resultado, mas eles foram poucos e pequenos. Os poucos resultados foram amplamente contrabalançados por sérios e extensos efeitos negativos (idem, posição 141).

Sobre Luiz Carlos de Freitas

Professor aposentado da Faculdade de Educação da Universidade Estadual de Campinas - UNICAMP - (SP) Brasil.
Esse post foi publicado em Estreitamento Curricular, Meritocracia, Responsabilização/accountability e marcado , , . Guardar link permanente.

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s