¿qué tiene que decir la investigación acerca de la evaluación?

70
IDEAS DE CEES VAN DER VLEUTEN SOBRE LA EVALUACIÓN DEL APRENDIZAJE 1 ¿Qué tiene que decir la investigación acerca de la evaluación?

Upload: alfredo-martin

Post on 10-Jan-2017

363 views

Category:

Education


0 download

TRANSCRIPT

IDEAS DE CEES VAN DER VLEUTEN SOBRE LA EVALUACIÓN DEL APRENDIZAJE

1

¿Qué tiene que decir la investigación acerca de la

evaluación?

Características de los instrumentos de evaluación

Cada instrumento de evaluación tiene una serie de características :

1. Validez2. Fiabilidad3. Impacto educativo4. Aceptabilidad5. Coste en medios humanos, materiales y económicosEl compromiso es … que no podemos tenerlo todo

tenemos que conformarnos con tener unos puntos fuertes comprometiendo otros menos esenciales.

Función de utilidad de un método de evaluación

U= pf F x pv V x pie IE x pa A /pc CU= UtilidadF = fiabilidad ¿es repetible el resultado?V= validez ¿vale para medir lo que quiero?IE = Impacto educativo ¿cómo afecta al

aprendizaje?A = Aceptabilidad ¿es aceptable para alumnos

profesores y pacientes?C = coste ¿podemos permitírnoslo?P= peso relativoEn Evaluación formativa importa el impacto en

Evaluación acreditativa la fiabilidad y validez

Discusión de la importancia de los elementos

Fiabilidad ¿Es más fiable una medida aislada o la

combinación de muchas?

Validez ¿Es valido evaluar casi todo al nivel inferior

de la pirámide de Miller (Sabe) cuando lo importante está en los niveles superiores de la pirámide de autenticidad?

Sistema tradicional (de input de conocimientos)

Tantas horas de …La mayoría de la evaluación no va mas allá de

la evaluación del conocimiento.Evaluación por asignaturas.Sin evaluación interdisciplinar de progreso en

conocimientos.Sin evaluación interdisciplinar de desarrollo

de competencias.En algunos países tras la finalización de los

estudios, los Colegios Profesionales evalúan la competencia profesional.

Sistemas de resultados (outcomes)

CanMeds(Canada)

Experticia médica

Comunicador Colaborador Gestor Defensor y

consejero de salud

Académico Profesional

ACGME(US)

Conocimiento médico

Cuidado de pacientesAprendizaje y mejora

basada en la prácticaHabilidades de

comunicación interpersonal

ProfesionalismoPráctica basada en

sistemas

•GMC• (UK)• Buen cuidado clínico• Relaciones con

pacientes y familias• Trabajo con colegas• Gestión del lugar de

trabajo• Responsabilidad

social • Profesionalismo

Nuevos currículos orientados al desarrollo de competencias

Énfasis en desarrollo de competencias y en la acreditación de competencias

No son fáciles de evaluar, las competencias son constructos muy complejos que requieren de contextos reales o simulados para ser puestos a prueba.

Debemos confiar en el juicio profesional (subjetivo), pero hay que hacer un muestreo suficiente y proporcionar rúbricas que explicitan criterios y aportan escalas de niveles.

Como un estudiante se comporta en la escuela de medicina, es predictivo sobre como se comportará en su futuro profesional

E VA LUA C I Ó N F O R M AT I VAN O T I E N E A LTA R E P E R C U S I Ó N

SO N I M P O RTA N T E S, E L I M PA C T O E S T I M U L A D O R D E L

E S F U E R Z OY E L F E E D B A C K

P O DE M O S C O M P R O M E T E R F I A B I L I D AD Y VA L I D E Z

A C A M B I O D E P R A C T I C A B I L I D A D

8

La noción de Compromiso en Evaluación de

competenciasEVALUA C IÓ N

AC R EDITATIVATO M A DE DEC IS IO N ES DE

ALTA RE PER C U SIÓ N

IMPO RTA N TE F IABIL IDA D Y VA LI DEZ

N O PODE MO S C O M PRO METER LASSE N EC ESITAN LO S RE C U R SO S DE U N A

FA C U LTAD N O DE UN A AS IGN ATU R A

9

Evaluación formativa

Debemos aprender a usar herramientas para una evaluación continua más eficienteLos cuestionarios on line y las herramientas de evaluación por compañeros

(Taller de moodle) y rúbricas.

La evaluación continua no tiene repercusiones irreparables¿por qué esmerarse tanto tantas veces?

10

Evaluación acreditativa

¿a destajo?

¿o mecanizada (lectores ópticos y e-portafolios)?

Ejemplo competencia para la comunicación

80% de las quejas en atención al paciente están relacionadas con la comunicación

El currículo tradicional no fomenta su desarrollo ni garantiza que los alumnos vayan desarrollándola.

Poner un ECOE al final de los estudios es sólo una pequeña parte de la solución

Tenemos que poner a los alumnos en situaciones en las que tengan que ejercitar su competencia para la comunicación en distintas situaciones profesionales tipo.

Es necesario abordar el desarrollo de esta competencia de un modo transversal desde múltiples asignaturas e incluso crear asignaturas centradas en su fomento.

Impacto en el aprendizaje:“El reduccionismo impera”

Venimos de una cultura:1. “de calificaciones sin feedback”. 2. Obsesionada con la objetividad MCQ OSCE3. Acostumbrada a una enorme pérdida de información

(conversión del multivector en un número escalar.)4. No hay remediación, sino repetición basada en un

modelo educativo desfasado. 1. Repites primero examen y si no vale repites curso

5. Trivialización frecuente del abordaje ante la evaluación “preparación para la prueba”

MCQ estudio sólo respondiendo preguntas a de test OSCE me preparo que hacer en estaciones que puedan caer

La evaluación dirige lo que se aprende y lo que no

You get what you assessYou don’t get what you don’t assess

Si no evalúo precisamente eso que quiero que aprendan

¿Qué podemos concluir?Podemos concluir que, no lo aprenderán la

mayoría de los alumnos.

BASADO EN LA CONFERENCIA DE CEES VAN DER VLEUTEN

¿WHAT RESEARCH HAS TO SAY ABOUT ASESSMENT?

PRONUNCIADA EN RESPUESTA ALA CONCESIÓN DEL PREMIO EN EDUCACIÓN

MÉDICA DEL INSTITUTO KAROLINSKA

¿Qué tiene que decir la investigación acerca de la evaluación del

aprendizaje?14

Visión general

1. Introducción. El ejemplo de la evaluación de las competencias en profesionales sanitarios

2. Instrumentos de evaluación, formato del estimulo, tarea y formato de la respuesta.

3. Conclusiones de la investigación sobre evaluación que se transforman en principios de la evaluación del aprendizaje.

4. Implicaciones para la práctica, ejemplos de cómo usar los principios con sentido común

5. Conclusiones

15

1. Introducción La pirámide de Miller

Modelo sencillo de evaluación de competenciasA

uten

tici

dad

prof

esio

nal Hace

(doesperformance)

demuestra como haría

(shows how competency)Conoce

como hacer(knows how)

Conoce(knows)

Comportamiento

Cognición

Miller GE. The assessment of clinical skills/competence/performance.Academic Medicine (Supplement) 1990; 65: S63-87.

Cuidado diario del paciente: evaluado por observación directa del

desempeño en situaciones clínicas reales

Demostración de habilidades clínicas: Puesto a prueba con simulación

pacientes simulados estandarizados (Incognito, ECOE/OSCE)

Exámenes habilidades clínicasAplica conocimiento:

resolución de problemas clínicos

conocimiento es puesto a prueba en exámenes

orales y escritos

16

Instrumentos de evaluaciónFormato de Estimulo vs. respuesta

Formato del estímulo. Algunos equipos de futbol han ganado más copas de Europa que otros. ¿Cuál de los siguientes equipos ha ganado más copas de Europa?

Formato de la Respuesta A. Real Madrid B. Bayern de

Munich C. FC Barcelona

D. Manchester United

E. Milan

17

Formatos de estímulo y respuesta en evaluación del aprendizaje

Hace(contexto real)

demuestra como haría

(contexto simulado)

Conoce como hacer

(contexto descrito)

Conoce(factual sin contexto)

menú, escrito, abierto,

oral, basado en

ordenador

menú, escrito, abierto, oral, basado en

ordenador

observación directa, lista de comprobación, escalas de calificación,

rúbricas

Formato de respuesta observación, lista de

comprobación, escalas de calificación,

rúbricas, narrativas

18Formato de Estímulo Ejecución, práctica habitual (paciente real)

Escenario práctico de simulación (paciente simulado)

escenario con contexto (paciente)Caso prueba

Orientado a conocer hechos

Estandarización de la evaluación del aprendizaje a distintos niveles

Aut

enti

cida

d pr

ofes

iona

l

Hace en contexto real

demuestra como haría

Demostración en contexto simulado

Conoce como hacerContexto descrito o

ilustrado donde hay que explicar como se hace

Conoce-Sin contexto,

-No hay nada que hacer

Evaluación de desempeño No estandarizada

Evaluación de aprendizaje Estandarizada(administrada de la misma manera a todos los examinandos)

Juicio experto subjetivo, compensación de sesgos, escalasECOETribunalesrúbricas

MCQTest de progreso

Objetividad del método de evaluación

Nivel de estandarización

Evaluando los 3 niveles inferiores de la pirámide:¿Conoce, conoce cómo hacer y demuestra cómo lo haría?

Los seis principios de evaluación estandarizada del aprendizaje1. La competencia es especifica (de ciertos contextos), no

genérica

2. La objetividad no es lo mismo que la fiabilidad

3. El formato del estímulo determina más lo que se mide que el formato de la respuesta que se recoge.

4. La validez puede ser construida e incorporada a nuestro sistema.

5. La evaluación conduce el aprendizaje.

6. Ningún método único puede hacerlo todo.

21

Evaluando el nivel superior (el desempeño): ¿hace?

Los seis principios de evaluación del aprendizaje de manera no estandarizada.

1. Para lograr inferencias fiables se requiere una muestra lo más amplia que sea factible.

2. El sesgo es una característica inherente del juicio experto subjetivo.

3. La validez se debe más a los que usan los instrumentos que a los propios instrumentos.

4. Las funciones formativa y sumativa se combinan.

5. La información narrativa y cualitativa tiene un enorme peso.

6. Decisiones sumativas pueden ser rigurosas usando procedimientos no psicométricos de investigación cualitativa.

22

Primer principio de evaluación de Cees van der Vleuten

La competencia es específica de un contexto, no genérica,

“What we found time and over again is that performance on a particular question situation, essay, station or whatever you have is not very predictive for performance in another context, another station, another problem, so actually performance is very variable.

It means that if you want to make an inference about someone's ability you cannot do it on a very limited sample observations. If performance is very variable you have to have a large sample observations in order to make an inference which is no longer dependent on the particular sample observations.”

Cees van der Vleuten

23

La ejecución de competencia es dependiente del contexto

¿Cómo hacer una evaluación fiable? Si la competencia depende del contexto de

ejecución, entonces la fiabilidad de sus medidas será dependiente del muestreo en diversos contextos.

Debemos examinar una misma competencia en distintos contextos, por distintos profesores, incluso en distintas asignaturas.

24

¿Cómo podemos tomar decisiones fiables?

La repetitividad de medidas en un individuo (par vs. impar) y la correlación entre medidas repetidas de los mismos individuos dentro en el conjunto de la población nos dan medidas de la fiablilidad.

Necesitamos una correlación de al menos r=0,80 para tomar decisiones fiables.

25

¿Depende la fiabilidad del método que usemos?¿Es una característica del método?

¿Cuáles son las metodologías más fiables? ¿Cuáles más factibles?

multiple Choice

questionnaire

Patient management problem

Objective structured ClinicalExamination

Simulated patients

clinical examination

Se representa el coeficiente de correlación entre medidas repetidas de cada candidato en un grupo

26

¿Depende la fiabilidad del método que usemos?¿Es una característica del método?

0,85

Los métodos subjetivos pueden ser tan fiables como los objetivosLa fiabilidad depende del muestreo, no de la objetividad. ¿es fiable la medida en sólo una hora por algún método?

Se representa el coeficiente de correlación entre medidas repetidas de cada candidato en un grupo

multiple Choice

questionnaire

Patient management problem

Objective structured ClinicalExamination

Simulated patients

clinical examination

28

Implicaciones prácticas del primer principio

La competencia es específica del contexto de medida, no genérica Una sola medida no es una buena medida (ej. báscula) Aumenta el muestreo (a través del contenido, examinadores,

pacientes) dentro de las medidas. Combina información entre distintas medidas, replicándolas a lo

largo del tiempo. Estate alerta de la posibilidad de decisiones falsamente positivas

y falsamente negativas ¿cuál es el riesgo de que ocurran? Incluye salvaguardas en las regulaciones sobre evaluación. ¿Cómo

podemos asegurarnos de que el sistema de evaluación es más fiable, válido y no mide trivialidades?

29

30

No.¿Por que?¿Qué debemos hacer?1. debemos reservar un aula más grande o separar entre

si a los alumnos2. Durante mas tiempo 2-3 horas3. Debemos construir una prueba altamente

discriminativa4. Debemos evaluar en base a una serie de pruebas en

lugar de en base a sólo una

Ejemplo de aplicación del primer principio ¿Son fiables los exámenes

realizados en una hora de clase con los alumnos como piojos en

costura?

Segundo principio de evaluaciónObjetividad no es lo mismo que fiabilidad31

BásculaRankingCorrelaciónSensibilidadespecificidad

Fiabilidad se mide con correlación obtenida con una muestra de medidas replicadas

multiple Choice

questionnaire

Patient management problem

Objective structured

ClinicalExaminatio

n

Simulated patientsclinical

examination

Se representa el coeficiente de correlación entre medidas repetidas de cada candidato en un grupo

¿Cuáles son las metodologías más fiables? ¿Cuáles más factibles?

Maneras de aumentar la fiabilidad de las pruebas subjetivas (que requieren juicio subjetivo)

1. Compensa las influencias subjetivas comparando juicios de varios sujetos

Corrección por parejas de correctores (en otros países es la norma) aquí no.

Multiobservadores (tribunales)

2. Fija explícitamente los criterios y niveles de ejecución y valoración

Las Rúbricas fijan los criterios y las descripciones de los niveles. Pero no tengas miedo a un juicio experto holístico

32

Fiabilidad del examen oral (Swanson, 1987)

Mensaje: múltiples evaluaciones subjetivas pueden producir una medida fiableLa fiabilidad depende del muestreo, escoger una muestra suficiente y representativa

33

Implicaciones prácticas

Objetividad no es lo mismo que fiabilidad1. No trivialices la evaluación (y comprometas su

validez) con objetivación y estandarización innecesarias.(ej. en examen oral preguntar lo mismo a todos).

2. No temas la realización de un juicio holístico profesional y experto si es obtenido con un muestreo representativo y amplio.

3. Muestrea ampliamente a través de las fuentes de influencia subjetiva (calificadores, examinadores, pacientes ).

34

Ejemplos de a aplicación del 2ºprincipioObjetividad no es lo mismo que fiabilidad

35

Aumentar la fiabilidad de exámenes escritos de evaluación continua Reserva más tiempo, en un aula más grande Construye pruebas que combinen MCQ (varios modelos

para dificultar la copia) y respuesta escrita Construye pruebas con preguntas de poder

discriminativo contrastado anteriormenteAumentar fiabilidad de la evaluación de

presentaciones Pareja calificadores o mismo calificador para todos. Rubrica como guía y herramienta para escoger puntos

sobre los que retroinformar, no para calificar.

36

Excelente Competente Necesita hacerlo mejor

Conocimiento /comprensión20 sobre 20

Demuestra una comprensión profunda del artículo

Comprenden la mayoría

No comprenden algunos aspectos importantes

Pensamiento /investigación 35 sobre 35

Han investigado más allá del texto asignado y han aprendido sobre los conceptos básicos necesarios para comprenderlo

Han investigado pero no han aprendido todo lo necesario sobre los conceptos básicos

No se observa investigación aparenteEl conocimiento sobre conceptos básicos es claramente insuficiente

Comunicación15 sobre 20

El guión de explicación es claro y estructurado, análisis completo Responde eficazmente a las preguntas de la audiencia

El guión es estructurado pero quedan aspectos sin analizarRespuestas parcialmente correctas

El guión de explicación es con fusoel análisis es incompleto y desestructuradoNo responden a lo que se les pregunta

Uso de ayudas visuales 10 sobre 15

La presentación audiovisual transmite eficazmente diapositivas clarasLa explicación se apoya en ellasAplican ejemplarmente la normas

Buena parte de las diapositivas son clarasPero algunas no lo sonDe vez en cuando lee Incumple algunas normas

La información no esta resumidaDiapositivas confusasLee demasiadoIgnoran las normas

Habilidad para la presentación6,25 sobre 10

Habla claramente con volumen suficiente para ser oído y velocidad apropiada para ser entendido, tono vivo, mantiene contacto visual, lenguaje corporal estimula la atención

Buen volumen pero demasiado veloz , tono poco variado

Poco contacto visual usa buen lenguaje corporal solo a veces

Volumen inaudible, difícil de seguirmonótonoNo intenta interaccionar con la audiencia a través de contacto visual o lenguaje corporal

¿Cómo usar la rubrica?

36

Calificación Feedback

Tercer principio de evaluación

Lo que esta siendo medido por un instrumento de evaluación depende más del formato del estímulo que del formato de la respuesta.

El estimulo que proporcionemos determina más la tarea que el alumno debe realizar, que el tipo de respuesta que recojamos.

Por ejemplo podemos usar MCQ para recoger el resultado de la resolución de un problema científico matemático.

37

38

39

La biblia en elaboración de cuestiones para las ciencias básicas y clínicas

Tutorial interactivo www.nbme.org/IWTutorial

En español: http://www.nbme.org/publications/item-writing-manual-download.html#spanish

40

Implicaciones prácticas

Lo que se mide, depende más del formato del estímulo

que del formato de la respuesta.

1. No te cases sólo con un formato de estímulo-respuesta (por

ejemplo ensayos o MCQ)

2. Preocúpate sobre todo de mejorar el formato del estímulo

3. Haz el estímulo tan (clínicamente) auténtico como

sea posible (ej. En MCQ, OSCEs)

4. Combina distintos formatos de estímulo (caso,

problema) con el formato de respuesta MCQ.

41

Ejemplos de a aplicación del 3er principioEl estimulo es más importante que el modo de recoger la respuesta

42

Preocúpate de los estímulos más que del modo de recoger la respuesta ¿Qué es lo que le voy a pedir al alumno que haga?

Haz que tus MCQ no solo evalúen el nivel “sabe”, sino también el “sabe como” e incluso el “demuestra como”. Haz preguntas con contextos (clínicos, experimentales) y pide operaciones que sirvan para evaluar si el alumno es capaz de interpretar situaciones, resultados de pruebas o experimentos resolver problemas resolver casos clínicos

Haz que tus preguntas escritas evalúen Capacidad de juicio Capacidad de predicción Transferencia a nuevas situaciones Vídeo Mc Tighe what was your critical transformation?

Cuarto principio de la evaluación

La validez puede ser construida, incorporada a nuestro sistema.

1. La validez requiere muestrear realmente todo aquello sobre lo que queremos evaluar

2. La validez depende de un buen aseguramiento de la calidad en

la construcción de los items (Verhoeven et al 1999)

3. Generalmente podríamos hacer preguntas mucho mejores que

las que usamos si invirtiéramos más esfuerzo, y mas gente en ello, (ej. incorporando a asociados y preparando exámenes en

equipo) (Jozewicz et al 2002)

43

44

Alguien supervisa

Algo más modesto. Inmunología AlcaláControl de calidad pretest

Diseño de la prueba

Preguntas Profesor 1

Preguntas Profesor 2

Preguntas Profesor 3

Revisión por compañerosy corrección

45

Inmunología Alcalá Control de calidad postest

Administración de la pruebaArreglos sobre la marcha

Análisis dificultadRevisión y feeedback

Análisis de poder discriminativo (validez

discriminativa)Selección de preguntas más

validas para evaluación acreditativa

Revisión de examen obligatoria

Sacrificio de las preguntas más fifíciles para la

evaluación formativa

Proceso de impugnación de

items(un solo uso)

46

Implicaciones prácticas

La validez puede ser construida, incorporada a nuestro sistema

1. Crear pruebas de calidad La validez de la evaluación llegará a ser tan buena como sea el esfuerzo que estés dispuesto a invertir en su calidad

2. Debemos realizar ciclos de aseguramiento de la calidad alrededor del desarrollo de pruebas

3. Análisis de validez discriminativa y ajuste de dificultad 4. Compartir buen material de pruebas entre instituciones

(ejemplo Holanda 5 escuelas de medicina con 8.000 alumnos progress tests). http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3540387/pdf/40037_2012_Article_7.pdf

5. Se puede empezar compartiendo entre profesores de un mismo área o departamento, entre asignaturas de temática parecida. Ejemplo Medicina-farmacia-biología-biología sanitaria

47

Ejemplos de aplicación del 4º principioLa validez puede ser construida, incorporada a nuestro sistema48

Trabaja en equipo para preparar exámenes Si das sólo tu asignatura, plantea una reciprocidad con un

compañero que lleve otra para ayudaros mutuamenteEstudia la validez de tus preguntas para diferenciar

entre alumnos que comprenden y los que no Estudio de poder discriminativo de las preguntas Resolver casos clínicos

Decide si optas por un sistema de entrega de preguntas o de recuperación (cada cosa tiene sus ventajas) Si las Entregas todas posibilidad impugnación preguntas se

queman pero sirven para orientar estudio alumnos Si las recuperas puedes estudiar su dificultad y poder de

discriminación. Puedes seleccionar unas cuantas que se usarán para dar feedback (difíciles pero poco discriminativa), otras que se podrán reutilizar con ligeras modificaciones en pruebas futuras.

Quinto principio de evaluación La evaluación (conduce al “premio” que) dirige

las acciones que producen el aprendizajeEl ratón aprende a salir del laberinto por que quiere comerse el premio

La evaluación es la fuerza mas poderosa para dirigir el comportamiento del alumno

49

Evaluación Calificación

El punto de vista de los estudiantes¿Cómo perciben el currículo los estudiantes?

Profesor: aquello que es

importante enseñar

Estudiante:Aquello que es

Importante aprender para aprobar (peso en

calificación)

Currículo

Tests

Practicas clínicas y de laboratorio

ECOE

Observación portafolio historias

registros diario

Tests

Practicas clínicas y de laboratorio

ECOE

Observación

portafolio historias registros diario

Evaluación calificación

50

¿Qué partes del currículo no pesan en la calificación y en consecuencia son menospreciadas?

51

¿No serán las que no se evalúan fácilmente con exámenes de papel y lápiz?

¿No serán aquellas que evalúan aprendizajes más sofisticados que

requieren un mejor entrenamiento para que los alumnos no fracasen

masivamente?

Hallazgos empíricos

La relación entre evaluación y aprendizaje es muy fuerte y compleja.

Los sistemas tradicionales sumativos de evaluación final de conocimientos básicos tienen efectos muy negativos sobre el aprendizaje permanente y el desarrollo de competencias.

Los alumnos se esfuerzan principalmente cuando la prueba de evaluación esta al caer y especialmente en aquello que piensan que podrá caer en la prueba.

Cuando sólo se esfuerzan al final y en aprender conocimientos de memoria, luego olvidan muy rápidamente.

52

Es necesario más feedback formativo

Tiene un impacto dramático en la motivación y el aprendizaje. Los aprendizajes más complejos mejoran mucho con el feedback.

Los estudiantes desean más feedback del que reciben, no sólo calificaciones. La calificación desvía la atención del feedback. Es mejor primero

proporcionar feedback y luego mas tarde cuando se ha asimilado este, proporcionar la calificación.

Rotaciones y prácticas clínicas: ¿Les pedimos que hagan cosas, les observamos y les damos feedback en función de lo que hacen? ¿les ponemos en situaciones en las que tienen que tomar decisiones y pueden equivocarse? o ¿ Sólo les dejamos que miren?

Proporcionar tanto feedback puede ser tedioso, pero tenemos que hacerlo. Mucho del aprendizaje de nuestros dependerá de como lo demos: de que sea frecuente inmediato discriminativo y amablemente administrado.

53

Metaevaluación54

Observar el efecto de la evaluación sobre el aprendizaje

Debemos preguntarnos: ¿Cómo la evaluación podría reforzar

estrategias y comportamientos deseables para el aprendizaje?

Debemos preguntarles a nuestros alumnos : ¿Cómo la evaluación podría ayudarte a

aprender mas y mejor?

55

Elementos del aprendizaje complejoHigh expectations

technology

Low stakes Drilling skills Feedback from trainer

Competent practicioner

¿Quién eres aquí como profesor?¿de qué eres responsable?

El fallo es necesario para aprenderNo se aprenden cosas complejas

Sin exponerse a situaciones en las que puedes fallar y Recibir feedback experto sobre los errores que has cometido

56

¿Cuál es la colchoneta?

Cuando se este en la situación real ya no se puede fallar, sin consecuencias. Entonces el error tendrá consecuencias negativas sobre pacientes ,

compañeros.

múltiples intentos Con Feed back

corrector

57

Ever tried, ever failed, No matterTry again, fail again, fail better

Implicaciones prácticas del 5º principio

La evaluación dirige el aprendizaje1. Tercera ley de Newton de la evaluación: Por cada acción evaluativa hay

una reacción estudiantil de magnitud proporcional a su peso en la calificación

2. Verifica y monitoriza el impacto de la evaluación (evalúa el efecto de la evaluación). Muchos efectos pretendidos no son logrados. Por el contrario, se logran otros no pretendidos.

3. Nunca evaluar sin pensar en qué feedback se puede extraer aunque este sea administrado de manera colectiva.

4. Intercala la evaluación en el programa de aprendizaje, adelanta la evaluación al principio de los temas. (ejemplo: team based learning)

5. Usa la evaluación estratégicamente para reforzar aquellas acciones y comportamientos deseables para el aprendizaje. (gamificación)

58

Ejemplos de aplicación del 5º principioLa evaluación conduce el aprendizaje

59

1. Es necesario alinear la evaluación con la comprobación de aquellos resultados de aprendizaje que más deseamos.

2. Aprovecha el potencial de la evaluación para dirigir los esfuerzos del alumno a todo aquello que quieres que haga para aprender

3. Da un peso proporcional a aquello que más valoras De lo contrario ellos lo infravalorarán

4. Usa el poder de las pequeñas recompensas para fomentar

El estudio previo de los temas antes de que sean tratados en clase Trabajo en proyectos en equipo mediante evaluación en tutorías Ofrece posibilidad de repescas y segundas oportunidades para

mejorar nota Formar equipos y recompensar a los que mejoren su rendimiento

Más ejemplos de aplicación del 5º principio

60Feedback1. Aprovecha cualquier evaluación para producir

el máximo feedback formativo posible Discusión en clase de respuestas de exámenes y corrección de

tareas Discute tareas y preguntas para comprobación del estudio

previo Prevé los atajos que pueden tomar tus alumnos

Si discutes preguntas para dar feedback retíralas del siguiente examen y no las reutilices hasta que pasen tres años

Si pides que te formulen preguntas urgentes y se las respondes diles que alguna caerá (pero sólo alguna)

Puedes pedir a los alumnos que creen preguntas corregirlas y usar algunas en los exámenes.

Equilibrio en el nivel de orientación del esfuerzo de estudio de nuestros alumnos

61Extremos indeseables Si no das ninguna indicación sobre lo que es más importante

aprender. Estarán desorientados. Si das indicaciones demasiado explícitas, sólo se dedicarán a

esforzarse en lo que les has indicado.

Lo ideal es un punto intermedio que les lleve a esforzarse más en aquellas cosas importantes pero sin dejar de trabajar lo demás.

Si das indicaciones variadas se esforzaran en todas aquellas cosas que les indiques

A la larga, mantener esto dependerá de la exhaustividad del muestreo que hagas en tus pruebas de evaluación.

NingunaIndicación = desorientación

Indicaciones Variadas =orientación

indicaciones demasiado

explícitas= Trivialización

Métodos de fomento del estudio previoa cambio de pequeñas recompensas

(low stakes assessment) PEPEOLA/TBL/Peer instruction

Proporcionan feedback formativo inmediatoA posteriori se traducen en una bonificación que estimula

a que los alumnos se lo tomen más en serioEvaluación formativa con valor calificativo, pero reducido La repercusión en la calificación es baja (10-15% del

total) pero no despreciable (low stakes asessment).En nuestras asignaturas mejoran los resultados de los

exámenes de medida de aprendizaje en una SD.

62

Sexto principio de la evaluación

Ningún único método de evaluación puede hacerlo todo.

El mejor método es la combinación de varios métodos que logren objetivos específicos y puntuales con validez y fiabilidad.

Esta información será integrada en nuestra valoración.

63

Hallazgos empíricos

1. Ningún único método puede hacerlo todo.2. Una medida sola no vale.3. Todos los métodos de evaluación tienen limitaciones

(no existe un método superior).4. Distintos métodos pueden servir para funciones

diferentes.5. En combinación, la información de varios métodos

proporciona una imagen más completa y combina funciones formativas y sumativas.

6. Debemos crear esa combinación intencionadamente con lo mejor de aquí y allí. Incluyo esta evaluación para que los alumnos hagan esto.

64

Implicaciones prácticas

Ningún único método puede hacerlo todoUsa un cocktail de métodos a través de la pirámide

de competenciasDispón los métodos en un programa de evaluación Cualquier método puede tener utilidad (incluso los

viejos métodos de evaluación, si sabemos aprovecharlo bien para maximizar su utilidad en el programa)

Compara el diseño de la evaluación con el diseño del currículo

Comité de gente responsable Crea una estructura global que lo englobe Implica a todas las partes implicadas Implementa, monitoriza y cámbialo para irlo mejorando

65

Ejemplos de aplicación del 6º principio Ningún único método puede hacerlo todo

66

Combina múltiples métodos.Escrito, oral (presentación proyecto), MCQ,

respuestas escritas, tareas, evaluación en tutorías

Asigna peso en función del valor que concedes a cada cosa.

No regales demasiados puntos en unas cosas o tus alumnos aprobarán tu asignatura sin aprender otras.

El más difícil todavía Evaluando como “hacen” (I)

Principios de evaluación para este nivel (difícilmente

estandarizable)

1. Para hacer inferencias fiables se requiere una muestra

lo más fiable que sea factible obtener (amplia, muchas

observaciones, múltiples observadores).

2. El sesgo es una característica inherente del juicio

experto. No se puede eliminar sólo se puede

reducir con rúbricas de consenso y compensar

integrando distintos juicios.

67

El más difícil todavía Evaluando como “hacen” (II)

Principios de evaluación para este nivel (difícilmente

estandarizable)

3. La validez reside más en los evaluadores (los usuarios de los instrumentos) que en los

instrumentos mismos. Un buen instrumento mal

usado dará resultados poco validos y fiables. Hay que

invertir en el entrenamiento de los evaluadores.

4. Las funciones formativa y la sumativa deben estar

sabiamente combinadas

68

El más difícil todavía Evaluando como “hacen” (III)

Principios de evaluación para este nivel (difícilmente

estandarizable)

5. La información narrativa cualitativa tiene un

gran peso, no es fácil de obtener, pero es muy

importante.

6. Decisiones sumativas pueden ser rigurosas usando

procedimientos no psicométricos de análisis de información propios de la investigación

cualitativa.

69

Finalmente

1. La evaluación en educación médica tiene una rica historia de investigación y desarrollo con claras implicaciones prácticas.

2. Dominada por psicometría. Mucho menos sobre como usar evaluación para forma o sobre diseñar un programa de evaluación que favorezca el aprendizaje.

3. La evaluación es mucho más que psicometría.

4. La planificación de la evaluación es una parte esencial del diseño de la educación y la instrucción.

70