Ontem, Pedro Lomba contava no Público que enviara um e-mail à OCDE para confirmar como foram seleccionados os alunos portugueses que participaram no PISA. Motivo: “cumpramos a nossa obrigação democrática de desconfiar. De todos os governos, e deste muito em particular.” Ele, logo ele, que conhece a coisa por dentro.
Mas o próprio Público foi averiguar junto da OCDE os critérios utilizados e a resposta não poderia ter sido mais esclarecedora: «"Portugal obedeceu a todos os critérios estabelecidos pela OCDE para a constituição da amostra, por isso, não houve qualquer investigação", responde Juliet Evans, da EDU/IA, o gabinete de auditoria interna, responsável pela Educação, da OCDE.» Parece, afinal, que a frase de Cavaco reproduzida no título se aplica bem é ao ex-membro da comissão política da sua anterior candidatura à presidência.
5 comentários :
Eu tb tenho dúvidas sobre a constituição da amostra, contudo os scores aumentaram também devido à política de não retenção dos alunos.
Assim um aluno de 15/16 anos retido no 7/8º ano não teria contacto com as matérias do 9º.
Logo no teste PISA obteria resultados mais baixos, sem retenção e tendo contacto os scores aumentam automaticamente.
É isto "adulterar" os resultados? Bem, não é porque vários países fazem o mesmo, logo os resultados anteriores eram menos comparáveis com os actuais.
Claro que outras políticas como o Programa de Leitura Nacional e de Matemática tb ajudaram (e em muito).
Contudo a melhoria é devido a muitas razões (umas melhoria real, outras artefacto estatístico):
- Programa Nacional de Leitura;
- Programa Nacional de Matemática;
- Redução da retenção (merecida ou não);
- Selecção de amostra (se não há dúvidas publiquem-na).
Na verdade o ministério deveria decompor os resultados para atribuir a cada componente a relativa importância até para avaliar os efeitos reais de cada política, por forma a reforçar as que têm impacto positivo e abandonar as outras.
PS: O e-escolas teve impacto positivo, porque estes testes são muito americanizados e feitos para serem corrigidos por meios informáticos, logo o contacto com o meio informático também ajuda, nem que seja com videojogos.
Já agora:
"Dos 6298 jovens que participaram, 60,4 por cento estavam no 10.º ano."
este ano.
E em 2006, qual era a percentagem?
Qual o score destes alunos nos dois anos???
Qual o interesse da questão? Saber se foi o ensino o responsável, se foi o combate à reprovação o responsável pela subida dos scores.
O ano de 2006 é um ano "estranho" estatisticamente falando. Qualquer indicador revela um "outlier" com o passado e o futuro seja na educação, seja na economia.
( Por exemplo na economia comparar 2004-2005-2006-2007-2008 em qualquer indicador revela uma súbita pioria de 2005 para 2006 e uma súbita melhoria de 2006 para 2007 -Será isto o efeito Santana? )
Cada vez me parece mais que as estatísticas de 2006 foram ajustadas o pior possível para parecer que a melhoria seguinte era "assombrosa".
Todos os alunos testados têm 15 anos, independentemente do ano que frequentam. Os alunos foram escolhidos aleatoriamente de entre as escolas (publicas e privadas) escolhidas aleatoriamente.
Quando se fala de escolha aleatória é considerando a representatividade de factores socio-económicos, não fica à sorte escolherem-se apenas escolas urbanas ou só escolas rurais, etc.
"Anónimo disse"
Disse, disse disse,
e não disse nada.....
Enviar um comentário