quarta-feira, dezembro 15, 2010

O desespero não é bom conselheiro

Ontem, Pedro Lomba contava no Público que enviara um e-mail à OCDE para confirmar como foram seleccionados os alunos portugueses que participaram no PISA. Motivo: “cumpramos a nossa obrigação democrática de desconfiar. De todos os governos, e deste muito em particular.” Ele, logo ele, que conhece a coisa por dentro.

Mas o próprio Público foi averiguar junto da OCDE os critérios utilizados e a resposta não poderia ter sido mais esclarecedora: «"Portugal obedeceu a todos os critérios estabelecidos pela OCDE para a constituição da amostra, por isso, não houve qualquer investigação", responde Juliet Evans, da EDU/IA, o gabinete de auditoria interna, responsável pela Educação, da OCDE.» Parece, afinal, que a frase de Cavaco reproduzida no título se aplica bem é ao ex-membro da comissão política da sua anterior candidatura à presidência.

5 comentários :

  1. Eu tb tenho dúvidas sobre a constituição da amostra, contudo os scores aumentaram também devido à política de não retenção dos alunos.
    Assim um aluno de 15/16 anos retido no 7/8º ano não teria contacto com as matérias do 9º.
    Logo no teste PISA obteria resultados mais baixos, sem retenção e tendo contacto os scores aumentam automaticamente.
    É isto "adulterar" os resultados? Bem, não é porque vários países fazem o mesmo, logo os resultados anteriores eram menos comparáveis com os actuais.
    Claro que outras políticas como o Programa de Leitura Nacional e de Matemática tb ajudaram (e em muito).

    Contudo a melhoria é devido a muitas razões (umas melhoria real, outras artefacto estatístico):

    - Programa Nacional de Leitura;
    - Programa Nacional de Matemática;
    - Redução da retenção (merecida ou não);
    - Selecção de amostra (se não há dúvidas publiquem-na).

    Na verdade o ministério deveria decompor os resultados para atribuir a cada componente a relativa importância até para avaliar os efeitos reais de cada política, por forma a reforçar as que têm impacto positivo e abandonar as outras.

    PS: O e-escolas teve impacto positivo, porque estes testes são muito americanizados e feitos para serem corrigidos por meios informáticos, logo o contacto com o meio informático também ajuda, nem que seja com videojogos.

    ResponderEliminar
  2. Já agora:
    "Dos 6298 jovens que participaram, 60,4 por cento estavam no 10.º ano."
    este ano.

    E em 2006, qual era a percentagem?

    Qual o score destes alunos nos dois anos???

    Qual o interesse da questão? Saber se foi o ensino o responsável, se foi o combate à reprovação o responsável pela subida dos scores.

    ResponderEliminar
  3. O ano de 2006 é um ano "estranho" estatisticamente falando. Qualquer indicador revela um "outlier" com o passado e o futuro seja na educação, seja na economia.
    ( Por exemplo na economia comparar 2004-2005-2006-2007-2008 em qualquer indicador revela uma súbita pioria de 2005 para 2006 e uma súbita melhoria de 2006 para 2007 -Será isto o efeito Santana? )
    Cada vez me parece mais que as estatísticas de 2006 foram ajustadas o pior possível para parecer que a melhoria seguinte era "assombrosa".

    ResponderEliminar
  4. Todos os alunos testados têm 15 anos, independentemente do ano que frequentam. Os alunos foram escolhidos aleatoriamente de entre as escolas (publicas e privadas) escolhidas aleatoriamente.
    Quando se fala de escolha aleatória é considerando a representatividade de factores socio-económicos, não fica à sorte escolherem-se apenas escolas urbanas ou só escolas rurais, etc.

    ResponderEliminar
  5. "Anónimo disse"

    Disse, disse disse,
    e não disse nada.....

    ResponderEliminar