Mostrando postagens com marcador avaliação. Mostrar todas as postagens
Mostrando postagens com marcador avaliação. Mostrar todas as postagens

quinta-feira, 10 de setembro de 2020

Promover ou Reter em época de pandemia? O que defender....

  discussão em relação a aprovação ou reprovação deve ser pautada nas questões da aprendizagem, nas oportunidades ofertadas e não na garantia de direitos individuais. Reafirmo não dá para ser contrário ao retorno as aulas e a favor da reprovação. 

Precisa escolher bem o que vc quer defender, o que vc quer alimentar, se quer defender os oprimidos ou alimentar os opressores.

Eu sou contra a reprovação para qualquer ano e qualquer segmento. Que fique claro. 

E por favor não me venha com esse papo que esses dois meses e meio em teletrabalho seria a etapa mais importante, desqualificando tudo que foi feito antes. 

Se por exemplo um aluno que está no ano final do ciclo não aprendeu nada (na fala do Professor) isso não ocorreu de abril a junho, mas sim durante todo o percurso escolar e todo mundo fingiu que não viu.

Aliás inúmeros especialistas já retratam essa questão antes da pandemia, agora então....

 Mas agora como todos são paladinos da educação , e um absurdo aprovar um aluno que está no final de um ciclo, pq justamente esses período de abril a junho e que ele ia aprender tudo que não aprendeu anteriormente. Vamos parar com esse discurso que objetiva o próprio umbigo e na verdade a preocupação com o aluno quase não existe..pq se existisse ela seria desde sempre não exclusivamente agora. 

A pandemia só está reforçando o que cada um é. Não está transformando ninguém.

terça-feira, 16 de agosto de 2011

O quebra-cabeça da avaliação

Não sou contra a avalição, pelo contrário, acredito que seja fundamental para a melhora do processo de ensino e de aprendizagem. Não concordo como os resultados são utilizados hoje para punir e responsabilizar única e exclusivamente os professores, isentando todos os outros envolvidos no processo de construção do conhecimento.
Fonte: REVISTA EDUCAÇÃO - EDIÇÃO 172 - Beatriz Rey
Há aproximadamente um ano o noticiário internacional registra manifestações incipientes contra avaliações externas, reproduzidas no meio educacional de diversos países. O panorama é sempre o mesmo: professores, indignados com o peso desse tipo de provas e preocupados com o mau uso feito com os resultados produzidos por elas (como o ranking), resolvem boicotá-las. Na Inglaterra, o boicote contra o Standart Assessment Test (SAT), prova aplicada nos anos finais do ensino fundamental, atingiu um quarto das escolas em maio de 2010. Um mês antes, docentes australianos optaram pelo mesmo tipo de protesto em relação ao Naplan, avaliação nacional. Nos EUA, além de movimentos organizados por pais e educadores nas universidades e na internet, estava programada para acontecer, no final de julho, em Washington DC, a marcha "Salvem nossas escolas". Uma das bandeiras era justamente o fim dos chamados "testes de alto impacto". Em outubro do ano passado, a onda de insatisfação com o peso das provas chegou ao meio acadêmico brasileiro. Presentes na 33ª reunião da Associação Nacional de Pós-Graduação e Pesquisa em Educação (Anped), em Caxambu (MG), um grupo de educadores criou o "Movimento Contra Testes de Alto Impacto", chancelado por 82 educadores conhecidos no país e dois estrangeiros (Almerindo Afonso, de Portugal, e Juan Casassus, do Chile). O movimento pretende, em primeiro lugar, alertar pais, alunos, administradores e o próprio governo de que os chamados "testes de alto impacto" são imprecisos. Além disso, busca discutir a criação de um código de ética para a elaboração, aplicação e utilização dos dados obtidos por processos avaliativos. "Os testes devem ser usados para diagnóstico e para orientar a aprendizagem, não para fazer ranking de alunos e professores", diz Luiz Carlos de Freitas, da Faculdade de Educação da Unicamp e um dos coordenadores do movimento.
O termo "testes de alto impacto" foi incorporado do inglês (high-stakes testing), expressão concebida na década de 80 no meio acadêmico norte-americano para designar avaliações externas que são atreladas a decisões que dizem respeito a alunos, professores e gestores. Em artigo sobre a história do termo (disponível no link www.hepg.org/document/14/), os pesquisadores Sharon Nichols e David Berliner, respectivamente das universidades do Texas e do Arizona, afirmam que as provas que atrelam consequências de gestão educacional a seus resultados "são dramáticas e capazes de mudar vidas". Como o movimento é incipiente no Brasil, não há consenso sobre a quais avaliações locais o conceito se aplicaria. Ao serem tomados como medida única no processo avaliativo, os resultados desses testes podem definir políticas públicas, como a de bonificação por desempenho (já que os resultados são atrelados ao acréscimo de salário para docentes). Outra aplicação possível do termo é para o Exame Nacional do Ensino Médio (Enem), que passou a ser usado nos processos seletivos das universidades públicas federais. O próprio Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (Inep) usa outro termo para definir seus sistemas de testagem: "avaliações em larga escala".
Antes da instituição do Índice de Desenvolvimento da Educação Básica (Ideb) em 2007, os resultados da Prova Brasil e do Sistema Nacional de Avaliação da Educação Básica (Saeb) eram usados apenas para que as redes tivessem um diagnóstico de seus alunos. Depois do Ideb, os usos para as notas passaram a ser diversos - um deles é justamente a prática de fazer rankings. "Até então, quem iria se preocupar com a média da Prova Brasil por estado ou município? Passamos de baixo para alto impacto", afirma Francisco Soares, coordenador do Grupo de Avaliação e Medidas Educacionais, da Universidade Federal de Minas Gerais (UFMG), que não assina o manifesto, mas concorda parcialmente com ele. "Sou contra usar o Ideb para classificar escolas porque o índice reproduz o nível socioeconômico das escolas em alto nível. Já sabemos que as escolas de periferia vão mal nas provas. Precisamos superar isso", alerta.
Para os integrantes do movimento brasileiro, é justamente este o processo ao qual estão sendo submetidas as redes de ensino locais: a uma pressão para que façam uma medição única no processo avaliativo dos alunos, quando, na verdade, a qualidade de ensino é fruto de diversos fatores. "A recomendação dos especialistas é que cada aluno possa ser alvo de mais de uma medida, preferencialmente que captem áreas de desenvolvimento diferentes", explica Luiz Carlos de Freitas. É preciso levar em conta, por exemplo, o contexto socioeconômico do estudante. Ou a infraestrutura da própria escola que o atende. Nesse sentido, Freitas constata: não é possível deduzir que há boa qualidade de ensino só porque o aluno tem boa nota em português e matemática. Tampouco é cabível pagar bônus a professores a partir do nível de desempenho obtido por seus alunos. "Não se pode separar o efeito dos vários professores pelos quais os alunos passam, simultaneamente e entre anos. Um mau docente pode marcar o aluno por vários anos, não importando quão competente seja o professor do ano seguinte", explica.
A afirmação encontra eco na edição de 2011 do Caderno de Resoluções da Confederação Nacional dos Trabalhadores em Educação (CNTE). Segundo o documento, a entidade endossa a visão de que "a avaliação deve ser processual, qualitativa e de caráter sistêmico e democrático", na contramão "das propostas gerenciais de meritocracia". Assim como em outros países, paralelamente ao que acontece no meio acadêmico, os sindicatos de professores também se manifestam contra os testes de alto impacto. Na Inglaterra, o boicote do Sindicato Nacional dos Professores ao SAT foi motivado, entre outros motivos, pela associação dos resultados da prova à prática de fazer rankings.
Há vozes contra o movimento. O ex-presidente do Inep e professor de economia da USP Reynaldo Fernandes classifica a atitude de protesto contra as avaliações de "petulante". Para ele, nenhuma instituição pode ter o monopólio da interpretação dos resultados. Além disso, crê que o movimento estimula a não divulgação universal dos resultados. "Os estudos apontam que a divulgação de resultados melhora o desempenho dos alunos. Cada rede sabe com quem deve se comparar. Se você gosta de correr como hobby, não vai se colocar no mesmo patamar de quem é maratonista", analisa.
Desvios significativos
Como os resultados dos testes são usados para tomar decisões sobre a rotina escolar e da rede, podem vir acompanhados de um problema difícil de ser contornado: as fraudes. O caso mais recente e que explicita esse tipo de percalço aconteceu na rede de Atlanta, no estado norte-americano da Geórgia. Em julho, após dez meses de investigação, o governo estadual indiciou 100 funcionários de 12 escolas por "violação de protocolo". O relatório concluiu que as situações de cola (encontradas em 44 das 56 escolas avaliadas) aconteceram de maneira generalizada pelo menos a partir de 2009, e que um ambiente de medo e intimidação dominava a rede de Atlanta. "As colas foram decorrentes da pressão para alcançar objetivos dentro de um sistema movido por números", diz o texto.
O caso de Atlanta chama a atenção para uma crítica feita por Freitas em relação ao Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (Inep): não há divulgação dos índices de confiabilidade dos testes aplicados. O desvio padrão das medidas obtidas a partir das provas não está disponível para os pesquisadores. Voltando ao que ocorreu em Atlanta, em 32 das 55 salas de aula da escola de ensino fundamental Connally Elementary, o desvio padrão ultrapassou o valor de 10. Segundo o relatório, um desvio padrão da ordem de 10 nos dados analisados aponta que "a probabilidade de que o aluno tenha mudado a resposta para a alternativa correta sem a intervenção de um adulto é de um em um trilhão". Em outras palavras: sem a cola, seria muito pouco provável que o aluno tivesse acertado as questões da prova. "Todas essas indicações da saúde da prova não são divulgadas no Brasil. É uma questão de polícia", aponta Freitas.
Outro índice de confiabilidade passível de ser calculado é aquele que investiga o quanto a prova reflete os conteúdos aprendidos pelo aluno. "Especialistas no conteúdo da prova são convidados pelos governos para fazer esta análise. É feito um cálculo de concordância entre eles para cada ponto da matriz e dos itens da prova", explica. Esses valores não são divulgados para as provas aplicadas nos âmbitos federal e estadual.
Transparência
Pelos motivos apontados acima, o diálogo com o Inep é considerado pelos pesquisadores como complicado. "Sua estrutura é desorganizada, e o órgão foi colocado na dependência de fornecedores externos da indústria educacional de avaliação", diz Freitas, fazendo referência aos serviços de aplicação de prova, terceirizados pelo Inep. Uma prova da desorganização do órgão seria o fato de os boletins de desempenho da Prova Brasil de 2009 não terem chegado até agora às escolas. O Inep também não divulgou até o momento os microdados da Prova Brasil de 2009, informações que reúnem, entre outras, o perfil do alunado submetido à prova (idade, se foi a primeira vez que fez a prova, etc.) e as questões que foram acertadas. Com essas estatísticas em mãos, os pesquisadores podem investigar questões específicas da prova aplicada, e evidenciar quais são os gargalos de aprendizagem.
Para Francisco Soares, da UFMG, o problema é mais sério: ainda há pouca informação sobre o que os níveis de proficiência dizem sobre o aluno. "Se a escola tem uma média de 250 na Prova Brasil, podemos ter alunos cuja nota foi 400 e outros 100. Além disso, sabemos que alunos com nota 100 'não aprenderam'. Mas o que ele aprendeu nessa faixa?", indaga. Ao mesmo tempo, o pesquisador lembra que o país não pode deixar de avaliar o que os alunos sabem, porque esse processo de verificação faz parte do direito público de aprender. "O que precisamos não é deixar de registrar os resultados, mas dar um sentido pedagógico a eles. Tendo verificado se o aluno aprende, é preciso saber quem é ele", lembra. Da mesma forma, os integrantes do Movimento Contra os Testes de Alto Impacto não se dizem contra a avaliação em si, mas contra os usos que dela têm sido feitos.
O que se torna mais preocupante neste momento é o fato de que analistas situados em locais diversos no espectro político estejam olhando com ressalvas a maneira como as avaliações têm sido utilizadas. As restrições são variadas, indo da crítica ao uso excessivo das provas de larga escala nas políticas públicas a restrições de ordem técnica. Indício de que é hora de colocar o que está sendo feito em perspectiva.

terça-feira, 7 de dezembro de 2010

Brasil cresceu 33 pontos na década, mas ainda está "bem abaixo" da média dos países desenvolvidos

Fonte: 07/12/2010 - Da Redação UOL educação - Em Brasília
Se considerado histórico das médias das notas brasileiras no Pisa (Programa Internacional de Avaliação de Estudantes), o Brasil teve o terceiro melhor crescimento na década. Houve crescimento de 33 pontos da nota geral, o que dá ao país o terceiro lugar no ranking -- Luxemburgo, o 1º, cresceu 38 pontos; e o Chile, que está em 2º, cresceu 37. Os resultados do Pisa 2009 foram divulgados nesta terça-feira (7) pela OCDE (Organização para a Cooperação e Desenvolvimento Econômico).
O maior avanço do país foi em matemática, com 52 pontos - foi de 334 (em 2000) para 386 (em 2009). Em leitura, o patamar de 2009 ficou em 412 - em 2000 era 396, um aumento de 16 pontos. Na área de ciências, que passou a ser avaliada em 2006, o país saiu de 390 para 405. Para se ter uma ideia, os países top da lista ficaram com 539 em leitura (Coreia do Sul), 546 em matemática (Coreia do Sul) e 554 em ciências (Finlândia).
Mesmo com resultados considerados bons pela própria OCDE, que organiza a avaliação, o país ainda está no nível 2 nas disciplinas, numa escala que vai de 1 a 6. Se for feito um ranking com as notas dos países participantes do estudo -- integrantes do mundo desenvolvido mais participantes --, o Brasil fica em 53ª posição em leitura, superando Argentina e Colômbia entre os latino-americanos, 53ª posição entre 65 países em ciências e 57º lugar em matemática.
Para o ministro da Educação, Fernando Haddad, é preciso ponderar que estamos competindo com países mais ricos e desenvolvidos quando elaboramos essas listas. "Temos um século de atraso [para recuperar]", afirma. O MEC qualifica a evolução brasileira, um dos destaques do relatório de 2009, como "considerável". Em linhas gerais, a OCDE credita as melhorias ao aumento de investimento e à criação do Ideb (Índice de Desenvolvimento da Educação).
"[A criação do Ideb] mexeu na educação do Brasil", afirmou Haddad. Segundo ele quando o Inep divulgou os resultados por escola em 2006, mudou o foco do trabalho. "Colocamos um elemento que estava faltando, o aprendizado", disse.
"Bem abaixo" da média
As notas brasileiras ainda se encontram "bem abaixo" da média dos países desenvolvidos. No entanto, Haddad comenta que o crescimento dos integrantes da OCDE na última década foi pequeno, enquanto o Brasil aumentou em 33 pontos sua média geral. "Estamos em ritmo", afirmou. "Aquela história de que estaremos distantes do restante do mundo não está se confirmando." O PDE (Programa de Desenvolvimento das Escolas) estabelece metas de 417 em 2012, 438 (2015), 455 (2018) e 473 (2021). O objetivo de 2021 é atingir a média dos países da OCDE. A "história" a que se refere o ministro é uma crítica às metas de que em 2021 atingiríamos a média do mundo desenvolvido com atraso de 20 anos.
De acordo com a OCDE, na última década, o Brasil “parece ter sido capaz de produzir melhorias mensuráveis no sucesso dos alunos por meio de diferentes áreas de avaliação”. A OCDE cita como exemplo o aumento da relação PIB (Produto Interno Bruto) e investimento em educação, que saiu de 4% em 2000 para “5,2% em 2009” com mais recursos para o pagamento de professores.
No começo do mês, o Ministério da Educação divulgou que esse índice era de 5%. Além do investimento, o órgão diz que repasse direto de dinheiro, via Fundeb (Fundo de Manutenção e Desenvolvimento da Educação Básica), para os “estados mais pobres dá a escolas nesses locais recursos comparáveis às dos estados mais ricos”. Segundo a OCDE, educadores do país também citam o Ideb (Índice de Desenvolvimento da Educação Básica) como peça-chave na melhoria de resultados.
O que é o Pisa
O Pisa busca medir o conhecimento e a habilidade em leitura, matemática e ciências de estudantes com 15 anos de idade tanto de países membro da OCDE quanto de países parceiros. Essa é a quarta edição do exame, que é corrigido pela TRI (Teoria de Resposta ao Item). O método é utilizado também na correção do Enem (Exame Nacional do Ensino Médio): quanto mais distante o resultado ficar da média estipulada, melhor (ou pior) será a nota.
A avaliação já foi aplicada nos anos de 2000, 2003 e 2006. Os dados divulgados hoje foram baseados em avaliações feitas em 2009, com 470 mil estudantes de 65 países. A cada ano é dada uma ênfase para uma disciplina: neste ano, foi a vez de leitura.
Dentre os países membros da OCDE, estão Alemanha, Grécia, Chile, Coreia do Sul, México, Holanda e Polônia, dentre outros. Dentre os países parceiros, estão Argentina, Brasil, China, Peru, Qatar e Sérvia, dentre outros.

terça-feira, 14 de setembro de 2010

Temporários chegam a 46% dos professores em São Paulo

E ainda as pessoas acreditam em promessas... Sempre o mesmo engodo, manipulam dados, investimentos e com isso a população acaba tendo informações distorcidas. Cadê a qualidade do ensino que o ex governador tanto divulgou. Esse é o resultado de ações impositivas, unilateral, autoritarista.
Fonte: Folha de São Paulo, de 14/09/10 FÁBIO TAKAHASHI DE SÃO PAULO
O número de professores temporários na rede estadual de São Paulo chegou neste ano a 46% do total, a maior proporção desde 2005.
No ano passado, o então governo de José Serra (PSDB), hoje candidato à Presidência, anunciou como meta diminuir a taxa para 10% em quatro anos. Àquela época, o número era 42,4%.
Os dados são da própria Secretaria da Educação. Em números absolutos, são hoje 101 mil não efetivos. Um concurso público com 10 mil vagas foi feito em março, mas os aprovados só começarão a trabalhar no ano que vem.
Pesquisadores afirmam que o contingente de temporários tem impacto direto na qualidade de ensino, uma vez que eles tendem a ter uma rotatividade maior nos colégios -os temporários só podem escolher suas escolas depois que todos os concursados já fizeram suas opções.
Os 46% de não efetivos em SP são mais que o dobro da média nacional e superior à Prefeitura de SP (7%). "A dificuldade quando se troca de escola é que os alunos não conhecem meu jeito e ritmo e eu também não conheço o deles. Essa fase leva tempo", diz o professor temporário de ciências Vinicius Vasconsellos, 24, que, em seis anos de rede estadual, já lecionou em nove escolas.
A Secretaria da Educação diz que trabalha para diminuir o número de não efetivos -fez dois concursos desde 2007-, mas que, "apesar dos esforços, ainda ocorrem saídas de efetivos [licenças e afastamentos], que são repostas com os temporários".
FALTA DE INVESTIMENTO
Educadores ouvidos pela Folha afirmam que o Estado já poderia ter diminuído o contingente de temporários. "Com um mínimo de planejamento, você sabe quantos professores vão se aposentar ou sair da rede e pode planejar concursos", diz Ocimar Alavarse, pesquisador da Faculdade de Educação da USP e ex-membro da Secretaria da Educação na gestão Gilberto Kassab (DEM) na prefeitura da capital.
Para Alavarse, há a possibilidade de o Estado não acelerar os concursos porque conta com a continuidade da transferência de parte da rede a municípios. "Mas o processo é lento e não há garantias de que vá se efetivar."
Para o presidente da Udemo (entidade que representa os diretores de escolas), Luiz Gonzaga Pinto, "o Estado só quer saber de economizar".
Segundo ele, o temporário custa 15% a menos, por não ter alguns benefícios.
OUTRO LADO
A Secretaria da Educação de SP diz que hoje há menos temporários que no passado e que trabalha para reduzir a proporção ainda mais.
Em 1996, aponta o governo Alberto Goldman (PSDB), 68% dos docentes eram temporários; hoje são 46%.
"Nossa meta é reduzir, ao máximo, esse patamar. Prova disso foi a realização de um concurso público em março para provimento de 10 mil cargos efetivos", afirma a nota da secretaria.
Os aprovados passam por curso de formação. Os que obtiverem o desempenho mínimo deverão começar a trabalhar no ano que vem. "São Paulo passa a ter professores mais preparados e com melhor qualificação em sala de aula", diz a pasta.
A secretaria afirma na nota que, "mesmo com os concursos, os não efetivos são necessários para as substituições dos impedimentos dos docentes, por motivo de licenças ou afastamentos".
AVALIAÇÕES
Questionada sobre o atual contingente de temporários, a pasta diz que não o considera adequado, "por isso vem realizando concursos ao longo dos anos".
A secretaria afirma também que todos os docentes, inclusive os temporários, recebem capacitação. Sobre a qualidade do ensino, a secretaria diz que "avaliações nacionais e estadual indicam melhora do ensino da rede estadual paulista".
Um dos exemplos citados é o do Idesp, indicador estadual que considera taxas de reprovação e o desempenho dos alunos em provas.
Desde 2007, a média dos alunos da 4ª série subiu de 3,23 para 3,86, "o que significa maior proporção de alunos com níveis adequados de desempenho". (FT)
Estudantes não confiam em docentes novos, diz temporária
Colaboração para a Folha - Raphael Marchiori
Alta rotatividade de escolas, falta de planejamento das aulas e desconfiança dos alunos são alguns dos desafios enfrentados pelos professores não efetivos da rede estadual ouvidos pelaFolha.
"Se a criança não conhece o professor, ela não confia. Se não confia, não aprende", diz a professora Rosângela de Santana, 52, que leciona neste ano pela primeira vez na escola estadual Shinquichi Agari (zona leste de SP), após ficar quatro anos anos em outra unidade da rede.
Santana dá aulas para alunos do 1º ao 5º ano do ensino fundamental, categoria que não contrata por concurso público desde 2005.
Já Maria Aparecida Leite, 49, que está há 20 anos na rede estadual, afirma que lecionou em oito escolas.
Segundo a professora, as mudanças se acentuaram a partir de 2005. De lá para cá, ela conta ter trocado de escola quatro vezes.
"Com os critérios atuais para a atribuição das aulas, vou ficar mudando todos os anos", diz a docente.
Leite não foi aprovada na prova dos temporários, que classificou professores para o processo de atribuição. Hoje ela dá 12 aulas semanais na Shinquichi Agari.
"Os alunos vão melhor com professores mais antigos por conta da confiança entre eles", afirma José Aparecido Barbosa, 52, professor não efetivo da rede estadual há 19 anos.
Até o ano passado, ele lecionava somente na Escola Estadual Silva Jardim, na zona norte. Neste ano, para completar a carga horária, teve de assumir mais aulas, desta vez na Assis José de Ambrósio, no Jardim Peri Alto, também na zona norte.
A falta de planejamento também preocupa os temporários. "Como vou planejar se nem sei se terei aulas no próximo ano?", questiona a professora não efetiva Wanglei Pacini de Passos, 51, da escola Shinquichi Agari.

segunda-feira, 13 de setembro de 2010

1/5 dos estudantes brasileiros sai do colegial com matemática de 4ª série

Isso não é nenhuma novidade. Os dados e resultados das avaliações do Estado de São Paulo - SARESP e da prefeitura de São Paulo - PROVA SÃO PAULO são semelhantes. Isso significa que todos sabem qual é o problema na educação e enquanto colocarem a culpa única e exclusivamente nos professores essa situação não mudara. O governo e os políticos precisam enxergar educação como investimento e não gasto. Precisa ser correto também com os professores, dando condições digna e humana para exercer a docência com seriedade e serenidade, pois hj, do jeito em que se encontra, continuaremos piorando cada vez mais. Pensem antes de votar, cuidado com os palhaços, artistas, eles legislarão sobre educação e me preocupa o excesso de políticos que legislam nesse país sem ao mínimo terem concluído o ensino fundamental. Precisamos de verdade ficar preocupado. Píor que esta, pode ficar sim e muito.
Fonte: ANTÔNIO GOIS DO RIO - Folha de São Paulo - 13/09/2010
Um quinto dos alunos que terminam o ensino médio no Brasil não sabe em matemática nem o que se espera para um estudante do 5º ano (ou 4ª série) do fundamental.
Apenas 11% têm conhecimento adequado para este nível de ensino na disciplina.
No caso dos estudantes com conhecimento abaixo do 5º ano, isso significa que fazem apenas operações básicas como soma e divisão.
Ao se depararem com gráficos com mais de uma coluna ou na hora de converter medidas -como quilogramas em gramas- apresentam dificuldades.
Os dados foram obtidos pela Folha a partir da Prova Brasil e do Saeb, exames do Ministério da Educação que avaliam alunos de escolas públicas e particulares em matemática e português.
Entre todos os níveis analisados -a prova avalia alunos no 5º e 9º anos do fundamental, além da última série do médio-, o pior desempenho foi em matemática no 3º ano do antigo colegial.
Na comparação com 2005, o resultado de 2009 de alunos com nível adequado caiu de 13% para 11% .
Se, ao final do ciclo básico escolar, os resultados são desanimadores, no início há sinais de mudança. Em matemática, aumentou de 20% para 33% o percentual de alunos com conhecimento adequado no 5º ano.
A divisão dos alunos em níveis adequados ou não é feita a partir dos resultados fornecidos pelo Inep (órgão do MEC responsável pelas avaliações), mas usando a escala do movimento Todos Pela Educação, que cobra do poder público metas a serem atingidas até 2022.
O MEC apenas informa a distribuição dos alunos em 14 níveis de aprendizado, sem utilizar termos como adequado ou avançado.
Mozart Neves Ramos, presidente do Todos Pela Educação, destaca que, em português, varia pouco o total de alunos com conhecimento adequado nos três níveis.
Já em matemática, o que se observa é uma queda brutal, com um percentual de 33% nos anos iniciais e de apenas 11% ao final do ensino médio com aprendizado adequado.
"O problema em matemática é que, no início, é mais fácil ensinar as operações básicas. Nos níveis seguintes, no entanto, a matéria fica muito mais complexa, e faltam professores com formação específica", diz Ramos.
IMPACTO DA ESCOLA
Paula Louzano, pesquisadora com doutorado em Política Educacional pela Universidade Harvard (EUA), lembra que a análise do desempenho em matemática costuma refletir mais o impacto da escola, já que, em português, o conhecimento do aluno é mais influenciado pela escolaridade da família.

terça-feira, 17 de agosto de 2010

Programa de avaliação de professores na Bahia prevê aumento de salários

Claro que as avaliações são importantes, mas pensar que isso trará qualidade no ensino é outra coisa. Até pq os estudos já provam que esse tipo de aumento não melhora a educação. Mais um engodo educacional. Qualidade de ensino consegue-se com respeito aos professores, melhores salários e condições dignas para exercer o ofício. Mas nas eleições é o famoso salve-se quem puder e com isso perde os alunos e a educação.
Fonte: 17/08/2010 - 15h16 - Heliana Frazão - Especial para o UOL Educação - Em Salvador
A Secretaria Estadual de Educação da Bahia inicia no dia 19 de setembro um processo de avaliação profissional de professores, que prevê melhoria salarial e progressão na carreira com base nos resultados. O projeto vem sendo elaborado desde 2008, em conjunto com a APLB Sindicato – associação que congrega os professores baianos.
Segundo a secretaria, a progressão será concedida proporcionalmente ao número de inscritos em cada disciplina, num total de 3.000 vagas, a serem preenchidas pelos candidatos que obtiverem as maiores notas. No caso desta primeira avaliação, o valor pago será retroativo ao mês de maio. Os critérios para ter direito a avaliação são: pertencer à carreira do magistério, ou seja ter ao menos licenciatura; ser do quadro e ter cumprido o estágio probatório. Todos os professores em regência, coordenadores pedagógicos, diretores e vice-diretores que integram o quadro efetivo do Magistério Público da Educação Básica do Estado da Bahia podem se candidatar ao benefício.
Os docentes poderão optar pela sua área de formação ou atuação, escolhendo uma entre as seguintes disciplinas: Arte, Biologia, Ciências, Educação Física, Espanhol, Filosofia, Física, Francês, Geografia, História, Inglês, Língua Portuguesa, Matemática, Pedagogia, Química e Sociologia.
O secretário Osvaldo Barreto diz que a avaliação, que será anual, é voluntária. Entretanto, ele afirma que o resultado vai gerar subsídios para promover a melhoria na qualidade do ensino nas escolas baianas e ainda funcionará como um incentivo para que o professor busque o próprio desenvolvimento. A cada aumento de grau, o professor terá um acréscimo de 15% no salário.
Professores
Respondendo pela APLB, a professora Marilene Betros disse que a entidade é favorável à avaliação por desempenho. Entende o projeto como mais uma gratificação para o magistério, mas posiciona-se contrária à limitação de três mil beneficiados.
“No nosso entendimento, todos aqueles que galgassem êxito na avaliação deveriam ser contemplados”, diz ela, que em razão das alegações orçamentárias apresentadas pelo Estado, sugeriu que o benefício alcançasse ao menos 10% do contingente – hoje são 40.100 mil professores. A sugestão não foi atendida.
Especialista em políticas públicas, o professor da Escola de Administração da Universidade Federal da Bahia (Ufba), Paulo Penteado, diz que, embora existam críticos a esse tipo de estímulo com benefícios financeiros, ele considera a medida positiva. “A meu ver, o espírito de dar esse estímulo em prol da qualificação é importante e torna-se ainda mais positivo, sendo a participação voluntária”, avalia.
Para ele, é justo permitir que aqueles que mais se qualifiquem recebam um benefício a mais. “Fazer um esforço maior que os demais e não receber nada a mais por isso é desestimulante para qualquer trabalhador. Por outro lado, quando você premia os que oferecem maior produtividade não desestimula os demais e ainda os incentiva a também almejarem o prêmio”, acredita, a despeito de a medida ter sido regulamentada em julho, em pleno processo de campanha eleitoral, com o governador do Estado, Jaques Wagner (PT), candidato à reeleição.
UnB aplicará provas
As inscrições para os interessados começou nesta terça-feira, 17, e prosseguem até o dia 26 de agosto. O Centro de Seleção e de Promoção de Eventos (Cespe), órgão da Universidade de Brasília (UnB) é a instituição responsável pelo desenvolvimento e aplicação das provas.
O processo de avaliação será composto por duas etapas. A primeira é a Avaliação Individual, que consiste na aplicação de prova com questões objetivas e discursivas, num total de 45 questões, sendo 43 objetivas. Dessas, 15 serão voltadas à prática pedagógica e 30 de conhecimento específico. Quanto à Avaliação Institucional, será considerado o indicador de rendimento do Censo Escolar do ano referência 2008, sendo que a Individual terá peso 8.

sexta-feira, 13 de agosto de 2010

A vergonha da Educação Paulista - Programa MULTIPLICANDO DINHEIRO PÚBLICO

Sinto vergonha de ser professor. O programa Multiplicando Saber deveria chamar MULTIPLICANDO DINHEIRO PÚBLICO. O governo com certeza continua desviando o foco. O cerne desse processo e a relação professor e aluno. Claro que os alunos podem e devem ajudar as outras pessoas, mas dentro de uma situação normal, prevista inclusive na relação ensino e aprendizagem. Isso e desvio de culpa.
Mais uma vez a culpa recai no professor, que sofre com tanta falta de infraestrutura, dignidade, materiais, espaços de aprendizagem, e agora a SALVAÇÃO MILAGROSA, é o aluno que tem um pouco mais de conhecimento para ensinar as outras crianças. O governo então deveria repensar todo o alarde e positivo que foi a carga horária de recuperação atribuída no começo do ano para os professores de língua portuguesa e matemática. Pergunto: eles não estão na escola com essa função? se não esta dando certo, pq continua com o erro? não seria a hora de capacitar ainda mais esses profissionais? Pq mais uma vez o governo não pensa na tão e necessária QUALIDADE NO ENSINO dando condições de trabalho. Melhorando o salário. Quem sabe os professores send0 mais respeitados terão uma melhor auto-estima e com isso um melhor resultado no espaço escolar.
A educação paulista mais vez ERRA e muito, com essa política a curto prazo sem objetivar ganhos a médio e a longo prazo, afinal de contas educação não combina com pastel, que é pedido e servido na hora. EDUCAÇÃO SE CONSTRÓI com respeito, com qualidade e condições na escola e claro com melhores salários.
Esse programa e mais um erro desse governo que há 16 anos consegue cada vez mais piorar o sistema paulista de educação pública. E quero deixar claro que é análise desse período, antes que pensem que estou aqui a fazer propaganda política. É só olhas todos os descaminhos da educação paulista, com tantos programas e legislações que são feitas e votadas na calada da noite e muitas com erros que hoje o próprio governo com o minímo de humildade reconhece.
Outra coisa, dar bônus para coordenador. Isso significa compra? o coordenador é um profissional sério, não é mercadoria que se deixa levar por essa MISÉRIA, pq não valoriza esses profissionais com aumento de salário, que a função vire cargo e com isso concurso público. Além de ter que carregar a escola com todo o fardo que já tem, agora tem que conseguir a meta de alunos, para ganhar o BÔNUS. E o pior se não conseguirem seguir a cartilha do Estado ainda podem perder sua função.
Pq para quem não sabe Coordenador pedagógico é uma função e quem escolhe é o diretor e o supervisor, com isso, ele pode ser ótimo, super profissional, mas se não seguir ao pé da letra a cartilha da SEE pode estar fora e nem pense em discordar.
Então, faço mais uma pergunta. Como desenvolver criticidade nos alunos, se os profissionais da educação são limitados no desenvolvimento da sua criticidade? É uma pena, essa é a política de educação, que mais uma vez da bola fora. Professor, coordenador mais uma vez meu respeito pelo difícil trabalho que vcs tem nas escolas públicas de São Paulo. Acreditem, vcs são vitoriosos.

quarta-feira, 5 de maio de 2010

Professor não aprende a avaliar aluno, diz especialista

E o governo será que sabe utilizar de fato os resultados das avaliações institucionais? Já que todos falam com clareza que o professor não sabe avaliar, se isso é um fato, pq até agora ninguém pensou em dar condições, formação para o professor poder utilizar os elementos da avaliação em seu cotidiano. O problema esta justamente nisso, todos sabem apontar, mas dar caminhos, isso não, assim fica mais fácil jogar a culpa sempre no professor, haja costas largas...
Fonte: 05/05/2010 - 12h33 - Ana Okada - UOL educação - Em São Paulo
Apenas 1% dos cursos de graduação para professores têm matérias específicas sobre provas e avaliações nacionais, afirma Bernardete Gatti, da Fundação Carlos Chagas. "O uso de avaliações por parte de professores depende de conhecimento e não do uso 'cego',", salientou, durante palestra na feira Interdidática, ocorrida no final de abril, em São Paulo.
Ela pesquisou os currículos das licenciaturas e cursos de pedagogia brasileiros por meio de dados oficiais divulgados entre 2001 e 2006. A falta de disciplinas sobre avaliação se reflete em como os docentes avaliam seus alunos. Dentre exames feitos por professores e analisados por Bernardete, a pesquisadora afirma ter encontrado "provas incoerentes, feitas 'no joelho', que não foram pensadas com nenhum referencial didático contemporâneo".
Essa falta de formação --tanto para provas escolares quanto para governamentais (como o Enem (Exame Nacional do Ensino Médio), o Saeb (Sistema de Avaliação da Educação Básica) e a Prova Brasil)-- é problemática, pois os docentes "saem sem formação minima para entender as avaliações e fazer críticas fundadas", aponta.
Os profissionais, de acordo com a professora, usam mais a "sensibilidade" do que conhecimentos acadêmicos para avaliar: "Não basta. Precisamos caminhar para ter processos de avaliação desenvolvidos pelo professor", diz.
Na escola
A pesquisadora explica que as avaliações podem alavancar mudanças no dia a dia escolar. Para isso, "é preciso saber fazer e saber ler os dados, interpretar, levantar aspectos pedagógicos, procurar soluções didáticas e mostrar possibilidades de superação de dificuldades pelos meios que dispomos nas escolas", diz.
E isso "bate" na formação docente: em seu estudo, Bernardete constata ainda que, nos cursos que oferecem formação em avaliações, o conteúdo dado trata-se mais de críticas do que de base teórica para entender seu funcionamento. "Os alunos só tem crítica abstrata daquilo que nem conhecem", diz.
Reformulação de currículo
Para resolver o" grande desafio da educação brasileira", segundo aponta a pesquisadora, é preciso que haja uma reformulação do currículo dado nas licenciaturas --tarefa a ser feita pelo governo e pelas universidades. "Nunca tivemos uma política pública da união em relação a aprimorar a formação das licenciaturas e, hoje, estamos numa situação relativamente caótica".
A docente critica a formação a distância, que exige uma alta capacidade de leitura e estudo que nem todos os estudantes têm e diz que os sindicatos deveriam cobrar a qualidade na formação em suas plataformas.
Outro fator apontado é a dificuldade que os graduandos de licenciatura têm em realizar o estágio obrigatório em escolas. "Como você vai fazer estágio de 1ª a 4ª série em curso noturno? Não existe. Eles fingem que fazem estágio... a maioria não faz", conta. Para evitar isso, a pesquisadora aponta que deveria haver mais bolsas para cursos diurnos em vez de noturnos.
Uso de avaliações
A professora diz que a cultura de avaliações começou a ser pensada no final dos anos 80 e se consolidou nos anos 90, enquanto outros países já tinham sistemas avaliativos. Apesar de hoje estarmos além do pensamento de provas como "punição" ou "seleção", a docente diz que as escolas brasileiras ainda usam avaliações apenas como "sinalizadores".
"Precisamos decifrar esses sinalizadores, isso depende de conhecer metodologicamente esses processos. Não estou dizendo de dominar firulas estatísticas, mas a lógica e seus conteúdos, que permitem interpretar esses processos para usá-los em sala de aula".

segunda-feira, 11 de janeiro de 2010

Projeto prevê exame nacional para professores do ensino básico

Esse tipo de avaliação sim é correta. Qualquer profissional com bom senso entende o propósito da avaliação como instrumento ou mecanismo de diagnóstico para a busca de novos caminhos e NUNCA COMO PUNIÇÃO como acontece com os professores da rede estadual de São Paulo.
Fonte: 11/01/2010 - 11h28 - Da Redação - UOL educação - * - Em São Paulo
Tramita na Câmara projeto que institui o Enameb (Exame Nacional do Magistério da Educação Básica) para avaliar o desempenho de professores em escolas públicas e privadas. Se for aprovado, o projeto de lei 6114/09, do Senado, estimará a habilidade do professor para se ajustar à evolução do conhecimento e também a sua compreensão da realidade brasileira e mundial.
O Enameb, de acordo com o texto, será desenvolvido em cooperação com os sistemas de ensino estaduais e municipais. A cada ano, apenas uma das categorias de docentes deve ser avaliada: os da educação infantil; os dos anos iniciais do ensino fundamental; os dos anos finais do ensino fundamental; os do ensino médio; e os da educação de jovens e adultos e da educação especial. Dessa forma, o ciclo de exames se completaria em cinco anos.
Participação voluntária
A inscrição e a participação no Enameb serão voluntárias e gratuitas. Além disso, os sistemas de ensino poderão utilizar os resultados do exame como parte da avaliação de desempenho do professor e também para progressão na carreira. O exame poderá servir ainda para traçar o perfil dos docentes e suas condições de trabalho.Segundo o autor do projeto, o suplente de senador Wilson Matos, os dados obtidos com a aplicação do exame poderão contribuir para o aperfeiçoamento e a reciclagem dos docentes e para corrigir falhas dos sistemas de ensino.O projeto tramita em caráter conclusivo e será analisado pelas comissões de Educação e Cultura; de Constituição e Justiça; e de Cidadania.
Com informações da Agência Câmara.

domingo, 10 de janeiro de 2010

sexta-feira, 11 de setembro de 2009

Quem tem medo de... prova. Apesar da má fama, ela ainda pode (e deve) ser usada em classe. Saiba aqui como e para quê

Vale apena ler, muito bacana e bem focado no papel da avaliação no espaço escolar.
Fonte: revista nova escola Numa época em que os modelos de avaliação contínua ganham força nas escolas e nos livros de formação, aplicar uma prova tradicional pode parecer um retrocesso. Mas não é bem assim. Com alguns cuidados e uma abordagem planejada, é possível lançar mão das questões dissertativas e objetivas para verificar o aprendizado de fatos, conceitos e ideias. "Mas é essencial ter a noção de que elas não podem ser as únicas formas de avaliar", alerta Jussara Hoffman, autora do livro Avaliar: Respeitar Primeiro, Educar Depois. A ação de diagnosticar o processo de ensino, segundo a consultora, precisa ser cotidiana e contemplar outros instrumentos possíveis, como seminário, debate, relatório e observação. Além disso, é necessário definir muito bem o perfil correto de cada teste: os somativos servem para balanços finais e os formativos devem ser realizados de forma rotineira para ajudar a corrigir rumos e verificar a necessidade de retomar certas explicações. "Os dois tipos são pertinentes, mas o segundo modelo deve ser predominante, pois permite o melhor aperfeiçoamento da prática docente", afirma Domingos Fernandes, professor da Faculdade de Psicologia e de Ciências da Educação da Universidade de Lisboa, em Portugal, e autor do livro Avaliar para Aprender. Outra condição essencial é saber, de antemão, o que exatamente se quer que os alunos respondam. "Para cada questão, faço uma matriz com os conhecimentos, as habilidades e as competências que pretendo verificar (veja um exemplo no quadro abaixo)", conta Selma Moura Braga, professora de Ciências do 6º ano no Centro Pedagógico da Escola de Educação Básica e Profissional da Universidade Federal de Minas Gerais (UFMG), em Belo Horizonte. Objetividade nas questões, clareza nos conteúdos Definidos os momentos adequados e as expectativas, é hora de escolher o que e como cobrar. Para Fernandes, não existem provas infalíveis. "Pesquisas mostram que muitas crianças erram questões porque não entendem o enunciado e não porque ignoram o conteúdo", afirma. "As perguntas devem ser pertinentes, claras, não enigmáticas", recomenda Janssen Felipe da Silva, da Universidade Federal de Pernambuco (UFPE). A linguagem usada precisa estar dentro do nível de leitura dos alunos. Para saber se o texto está acessível, mostrá-lo a outros educadores é uma boa saída. Um erro comum é propor enunciados muito longos para contextualizar o problema (mas que não estão diretamente relacionados à questão). "Isso, na prática, só serve para confundir os alunos", complementa o especialista. Quem determina o tamanho da prova é o tempo disponível para sua resolução (e a quantidade de conhecimentos e competências trabalhados). Não é razoável analisar todo o conteúdo do semestre em uma aula. No Ensino Fundamental, é recomendável que a avaliação dure, no máximo, 40 ou 50 minutos. O diálogo com o que foi feito em sala também é fundamental. Por isso, faz pouco sentido um mesmo modelo ser usado por vários professores. "Questões mais complexas do que as vistas em classe ou pequenos detalhes encontrados em notas de rodapé não devem ser pedidos", alerta Cipriano Luckesi, pesquisador da Universidade Federal da Bahia (UFBA). A armadilha ou a pegadinha é outra estratégia condenada pelos especialistas. Alguns docentes até acreditam que, ao agir assim, estão testando a sagacidade da turma. "Mas, se o aluno cai numa emboscada, como saber se ele realmente aprendeu o conteúdo?", indaga Luckesi. Sem falar que os estudantes precisam encarar a prova com tranquilidade e não como uma punição. Ou seja, o ideal é que todos saibam previamente como serão avaliados, o que você quer verificar e quando o teste será realizado (o que já derruba a proposta das surpresas). "A transparência é a regra de ouro", reforça Domingos Fernandes, da Universidade de Lisboa. Também deve ficar claro que nem toda prova precisa ser sem consulta. Quando a intenção é checar se o aluno consegue pesquisar, essa estratégia pode ser válida, com certeza. A forma deve ser planejada, e a devolução, monitorada O que é melhor: perguntas com múltiplas escolhas ou dissertativas? Os dois tipos. Todo professor deve diversificar a prova para avaliar diferentes coisas. "Nas objetivas, o desafio é fazer uma boa leitura. Nas dissertativas, fazer uma boa escrita", explica Lino de Macedo, psicólogo da Universidade de São Paulo (USP). Após a aplicação em classe, chega a hora de um novo desafio. Não se pode admitir que o resultado seja computado como algo isolado - uma nota que determine a aprovação, por exemplo. "Mais importante é analisar o conjunto das respostas ao longo de um tempo para ter clareza sobre as múltiplas aprendizagens dos alunos", afirma Jussara Hoffman. Por isso, é necessário lançar mão de formas criativas para trabalhar o produto da avaliação. Oferecer comentários por escrito ou criar momentos de "correção" coletiva são boas estratégias. É o que procura fazer a professora Shirley Cristina de Mendonça Rocha, da EMEF Dr. Nelson Paim Terra, em Canoas, na região metropolitana de Porto Alegre. Ela convida os alunos da 5ª série a contar para a turma como responderam às questões. E o momento de "correção" vira um debate em torno do que foi estudado. Aos poucos, os erros de Língua Portuguesa deixam de ser tabu para se tornar oportunidades de aprendizado. "O aluno não tem medo de mostrar para a sala como respondeu uma questão porque sabe que pode perguntar, ouvir ideias diferentes e entender melhor o conteúdo", conta Shirley. Nesses momentos, ela percebe (ou confirma) quais são as maiores dificuldades. Assim, planeja atividades para recuperar essas lacunas. Os especialistas sugerem ainda outra ideia: dividir os alunos em grupos para que, em um debate, encontrem conjuntamente melhores soluções para as questões com respostas erradas. Esse momento também pode ser uma boa oportunidade para confrontar estratégias de resolução, prática muito relevante, sobretudo nas aulas de Matemática. "Quando o aluno toma consciência do que sabe e do que não sabe e o professor intervém para ajudá-lo, há um ganho imenso", resume Tânia Costa, do Centro de Difusão da Ciência da UFMG. Teste seus conhecimentos sobre critérios de elaboração de provas 1) O trecho a seguir é de uma carta de uma coordenadora pedagógica a outra. Leia-o para responder à questão: "Alguns dos alunos da 8ª série que estão com notas vermelhas em História me procuraram para dizer que as provas são fogo! As perguntas exigem informações nem sempre trabalhadas em aula. Observando as atividades de sala, percebi que eram questionários com respostas transcritas do livro didático, exigindo a localização de informações - e não uma reflexão decorrente da análise ou comparação entre os fatos e os conceitos trabalhados. E as provas continham perguntas abertas que exigiam estabelecimento de relações entre fatos, conceitos e dados da realidade. Como o professor pretende que os alunos possam responder a tais questões se as habilidades necessárias para respondê-las não são trabalhadas regularmente? Esses acontecimentos têm me feito pensar: por que será que é tão difícil aceitar que os resultados obtidos por nossos alunos dependem, em boa parte, do trabalho que desenvolvemos em sala de aula?" Trecho adaptado da publicação Cartas aos Professores Coordenadores Pedagógicos: Dilemas da Prática Cotidiana, São Paulo, SE/CENP, 1999. O texto traz algumas concepções sobre a relação entre o processo de ensino e aprendizagem e a avaliação. Identifique a mais adequada e justifique sua escolha. 2) Qual é o melhor formato de prova? Assinale a alternativa correta: a) Só com questões objetivas porque a correção é mais justa e rápida. b) Só com questões dissertativas porque assim é possível avaliar também a produção de texto. c) Maior parte de questões dissertativas para ver o percurso de pensamento dos alunos. d) Depende do conteúdo e do que se quer avaliar. 3) Explique o que NÃO é possível avaliar com uma prova escrita e dê exemplos: 4) Como saber se uma prova é difícil ou fácil demais? Analise as alternativas e assinale a que apresenta o nível de dificuldade e desafio adequado: a) Todos os alunos mal conseguem responder às questões e entregam boa parte em branco. b) Todos os alunos demoram para responder às questões e acabam errando a maioria. c) Todos os alunos fazem a prova no tempo estimado e acertam boa parte das questões. d) Poucos alunos entregam a prova rapidamente e bem resolvida. Outros acertam um número médio de questões. 5) A Prova Brasil estima que os alunos levam, em média, 25 minutos para responder 11 questões de múltipla escolha. Considerando essa informação, diga: a) Quanto tempo o aluno gasta, em média, para responder cada questão? Justifique a resolução. b) Se você quiser colocar 20 questões em uma prova, quanto tempo deve deixar reservado para a resolução? Justifique. 6) Qual resposta mostra um enunciado de prova claro, bem elaborado e que permite a melhor compreensão do que é pedido? Pode haver mais de um item correto ou nenhum: I - Os nutricionistas recomendam o consumo de uma barra de cereal em merendas escolares. Comente. II - Explique por que os nutricionistas recomendam o consumo de uma barra de cereal em merendas escolares. III - Uma barra de cereal é recomendada em merendas escolares. Qual é a sua opinião? a) Somente o I. b) Somente o II. c) Somente o III. d) Nenhum deles Gabarito 1) O professor de História cobra conteúdos diferentes dos que ensina em aula. A coordenadora diz que isso não é possível. A postura mais adequada é a da coordenadora, já que as provas servem para verificar o que o aluno aprendeu daquilo que foi ensinado. 2) D. 3) Não é possível avaliar uma série de conteúdos, habilidades e competências, principalmente as relacionadas a atitudes fora do âmbito da leitura e escrita. Por exemplo: oralidade, experimentação e competências de trabalho em grupo. 4) C. 5) a) 2,3 minutos. 25:11= 2,3 b) 46 minutos, se forem questões de múltiplas escolhas. Perguntas dissertativas tendem a exigir mais tempo. 6) B.