Lo que funciona en formación… ¿o no?

Lo que funciona en formación de adultos

Leo en The Learning Scientist cómo fracasó un intento, en principio bastante bien diseñado, de incluir actividades basadas en la práctica de recuperación en un curso universitario. La práctica de recuperación es uno de los factores mejor estudiados y teóricamente más sólidos que pueden incluirse en la un diseño instruccional para mejorar tanto la cantidad como la profundidad del aprendizaje… y sin embargo, también puede ir mal. 

¿Y por qué puede ir mal? Como dicen en el mismo artículo, hay muchas variables que pueden quedar fuera de control. Las condiciones de un entorno de formación son, desde luego, menos predecibles que las del laboratorio, y cuando el contexto cambia en factores cuyo impacto desconocemos, todo lo que creemos saber puede flaquear.

En educación no hay nada que "funcione" sin más, el contexto lo es todo

No es la primera vez que lo comento

La conclusión a sacar no es que la práctica de recuperación no funciona, porque una posibilidad es que la intervención funcionase pero otros factores anulasen su efecto, sino que debemos ser precavidos incluso al aplicar técnicas de enseñanza consolidadas (no hablamos ya de modas y mitos, que en educación y formación laboral campan a sus anchas). La investigación sobre aprendizaje y docencia es imprescindible, y no se puede vivir de espaldas a ella aferrándose a un corpus teórico sin más o, peor aún, sin más guía que la propia experiencia. Sin embargo, los estudios se desarrollan en un contexto que, por definición, debe ser controlado y, en un campo con tanta variabilidad, la validez externa es limitada. Basar la práctica docente en los resultados de investigaciones realizadas en contextos inconexos, dispares o muy alejados de aquel en el que queremos aplicar las técnicas impide llegar a una formulación comprensiva de cómo funcionan realmente los procesos de aprendizaje y enseñanza. Las técnicas de instrucción deben agruparse en un modelo que relacione las conclusiones de laboratorio, modelo que puede derivarse de una teoría pedagógica o de un marco de menor nivel, pero que en cualquier caso sirva para relacionar los grupos de datos, dotándolos de significado en todos los contextos.

Esta reflexión, que parece tan alejada de las preocupaciones de la formación corporativa en la que me muevo, debería estar en la base de todo diseño instruccional. Como consultores, como diseñadores de capacitación laboral, debemos dar cada cierto tiempo ese paso atrás que permite reflexionar sobre el porqué de las técnicas que empleamos.

 

Uso y evaluación de prototipos en e-learning

Uso de prototipos en e-learning

El trabajo con prototipos en diseño instruccional proporciona validaciones tempranas, en estadios en los que a veces el análisis de necesidades formativas ni siquiera está finalizado (la triste e inevitable frecuencia del fast tracking es uno de los motivos por los que ADDIE no me gusta), pero sí tenemos ya información suficiente para hacer propuestas concretas de formato y estructura de contenidos didácticos. Aunque lo idóneo es hacer esta validación con usuarios finales, no es raro que en este primer momento solo participen usuarios avanzados, o a veces incluso directivos.

Los problemas de evaluar un prototipo con usuarios finales son varios (genera expectativas sobre el resultado final, suelen fijarse en detalles y buscan contenido más que uso y presentación) pero prescindir de ellos lo pone más difícil aún. Cuando son usuarios avanzados, expertos y directivos los que validan este trabajo temprano, su atención suele estar en qué cuentas y cómo, en lugar de qué problemas resuelves (que suele ser el foco de los usuarios finales).

Expectativas frente a prototipos en diseño instruccional

Típico resultado de una mala gestión de expectativas ante un prototipo

En estas condiciones, ¿qué tipo de evaluación tiene sentido para un prototipo?

  • Objetivos: normalmente será pronto para una validación de contenidos, pero sí puede verse si los materiales responden a los objetivos de aprendizaje perseguidos. Si quieres que aprendan a hacer una tarea necesitarás recursos para transmitir su lógica, para ver ejemplos y para practicarla, y cada función puede hacerse con un tipo diferente de material (infografías, estudios de caso, prácticas guiadas, escenarios…).
  • Usabilidad: si los usuarios se pierden en el prototipo, seguramente se perderán en los recursos finales (aquí tienes algunas pautas para evitarlo)
  • Estructura del contenido: resulta muy sencillo preparar un prototipo para mostrar cómo será la navegación no ya desde el punto de vista de la usabilidad, sino cómo y cuándo se incluirán conceptos, práctica, evaluaciones, feedback, recapitulaciones, esquemas…
  • Estructura de la información: muy relacionada con la anterior, muestra cómo distintos tipos de información se transmiten de distinta forma: qué va en un esquema (aunque el esquema en sí sea ilustrativo solamente), qué en forma de estudio de caso, qué en forma de ejemplo…

¿Cómo facilitar la evaluación?

  • Crea un prototipo enfocado a los objetivos de aprendizaje que quieres evaluar. Si vas a centrarte en usabilidad y estructura, por ejemplo, que esos dos factores estén bien trabajados, aunque dejes otros por el camino. Recuerda que un prototipo siempre es provisional y deberías tardar en producirlo el tiempo justo para que no te frustre descartarlo, si es necesario. Eso implica recortes.
  • Escoge los indicadores apropiados para medir esos objetivos de aprendizaje, y planea una tarea de evaluación que esté enfocada a recoger esas medidas.
  • Controla las expectativas: deja claro a los usuarios, desde el principio (quizá con un mensaje en el propio material), que es un prototipo, que está incompleto y que procuren centrarse en los objetivos de esta tarea concreta.
  • Automatiza la recogida de datos: si haces el prototipo en una herramienta de wireframes plana (o en powerpoint sin ir más lejos) no podrás sacar mucha información, pero si haces el prototipo directamente con la herramienta de autor que vayas a usar al final, puedes usar los datos que recoja. Es bastante laborioso y solo recomiendo hacerlo si el prototipo está avanzado y la evaluación debe ser muy exhaustiva.

Recuerda que los resultados de la evaluación serán tan fiables como avanzado esté el prototipo, por lo que es importante usarlo para validar solo aquello que refleja claramente (o sea, no tengas en cuenta comentarios sobre el diseño gráfico en un prototipo de estructura de la información, porque va a ser feo seguro). Y sobre todo, calibra el esfuerzo que dedicas a los prototipos con el resultado que vas a obtener, para que te sea más fácil superar la aversión a la pérdida.

Cómo traducir competencias a contenidos: análisis de tareas cognitivas para el diseño instruccional

Empezando el diseño instruccional de un nuevo curso, organizas una reunión con los expertos en la materia, que van a explicarte los objetivos y pormenores de las tareas sobre las que hay que formar… y a) lo primero que recibes es un manual que se disponen a repasar diligentemente, para asegurarse de que “lo entiendes todo” o b) te empiezan a contar cómo hacen las cosas mientras tú tomas nota a toda velocidad. ¿Te suena?

Trabajar con expertos (SMEs) en proyectos de formación y gestión del cambio es necesario para definir los objetivos de aprendizaje y desglosar las tareas que hay que enseñar a hacer. A partir de la información que dan se extraen las competencias que se traducen en recursos didácticos. Pero los expertos suelen tener su propia idea de cómo va a ser ese proceso, y no siempre te facilitará el trabajo. Este es un paso clave en el que el diseño de un curso o plan de formación puede irse al traste, sin que tú te enteres hasta un buen tiempo después, cuando empiezas a ver que la formación no funciona como debería.

Esto es algo muy estudiado en formación sanitaria, donde el análisis de tareas en campos como la cirugía tiene una importancia crucial. El método habitual es que uno o varios expertos desglosen las tareas en pasos que puedan ser comprendidos por un aprendiz, y a partir de esos pasos se genere la secuencia que debe trasladarse a los recursos didácticos. Sin embargo, la evidencia muestra que buena parte del conocimiento de los expertos es implícito, y no son capaces de describir el total de pasos de una tarea o toma de decisiones: tienen automatizada buena parte de la tarea (de otra forma no podrían aumentar la complejidad), y por eso les resulta difícil contar a otros cómo la hacen exactamente.

Típica sesión de trabajo con un SME

Para compensar este déficit en la definición operativa de tareas, una técnica usada es el análisis de tareas cognitivas (o CTA, cognitive task analysis). Consiste en una recogida de información sistemática que ayuda a los expertos a recuperar los pasos de una tarea con menos omisiones de las que tendrían de forma natural. Un aspecto en el que se hace bastante hincapié es que los expertos NO deben ser formadores a su vez, sino profesionales consistentemente buenos en la tarea en cuestión. El resultado se valida después con otros expertos (de 4 a 6 idóneamente) para mejorar la precisión.

Los resultados comparados de usar CTA contra la simple evocación de pasos por los expertos son francamente buenos, así que me gusta usar variantes de esta técnica en función de las circunstancias (no siempre tengo tantos expertos a mano, para empezar). Es útil cuando un diseño didáctico está basado en objetivos de desempeño, centra la teoría en la lógica de los procesos (en lugar de inundar de datos a los alumnos) y trabaja sobre escenarios reales. Lo que debería ser la norma, vaya.

Hay muchos artículos de investigación sobre el tema, pero me gusta el trabajo de Clark et al (2011) porque reúne lo esencial de los modelos principales. Tiene un resumen de cómo extraer información de un experto en seis pasos que me sirve de guía para mis adaptaciones:

  1. Define la secuencia de tareas en el puesto de trabajo (“describe en 30 segundos las acciones y decisiones para lograr el objetivo”):
    1. de fácil a difícil
    2. conocimientos previos que necesitan
    3. riesgos de seguridad
  2. Para cada tarea, describe (con verbos de acción):
    1. contexto (dónde y cuándo)
    2. condiciones y disparadores (qué hace que deba iniciarse la tarea)
    3. secuencia de acciones y decisiones (cómo)
  3. Dime lo que puedas de:
    1. estándares y buenas prácticas
    2. errores de novato
    3. motivación (riesgos y beneficios personales)
  4. Identifica conocimientos conceptuales, si es que son necesarios:
    1. conceptos (terminología y ejemplos)
    2. procesos (cómo se producen los eventos)
    3. principios (qué inicia los eventos)
  5. Lista 5 casos a resolver:
    1. uno para hacer una exposición o demostración
    2. dos más para ejercicios prácticos
    3. otros dos para evaluaciones
  6. Da el documento de CTA a otros expertos para corregirlo.

Aunque no siempre puedo aplicar todos los pasos, o no completamente, sí sistematizan mi recogida de información de manera que al finalizar el proceso tengo cubierta una tabla con:

  1. Objetivos y definición operativa de la tarea
  2. Riesgos y beneficios
  3. Prerrequisitos
  4. Conceptos, procesos y principios relacionados
  5. Acciones y decisiones (pasos)
  6. Problemas

Finalmente, encuentro útil un último paso en el que transformo esta tabla en un checklist, con los pasos, a los que asocio los prerrequisitos, los riesgos y beneficios que puedan reflejarse en resultados, y los problemas que pueden anticiparse. Esta lista me sirve de referencia para el guion de los contenidos formativos, ayudándome a no dejar en el tintero nada importante.

Referencias:

Clark, R.E., Feldon, D., & Yates, K. (2011, April) Using Cognitive Task Analysis to capture expert knowledge and skills for research and instructional design. Workshop presented at the American Educational Research Association, New Orleans, LA

Pasos críticos en el diseño de formación

He hablado anteriormente de los factores que inevitablemente tengo en cuenta al planificar una formación. A pesar de que en su momento los llamé esenciales, no quiero decir que solo con esos lleguemos a algún lado: escribí la entrada pensando en el momento en que ya estás con las manos en la masa, cuando cosas como el análisis de necesidades o el intercambio de documentación con los expertos han quedado atrás.

¿Dónde empieza el proceso de diseño?

Debo confesar que, cuando me hice la pregunta, asumí que el proceso de diseño como tal empezaba tras las fases preliminares de cualquier proyecto. Fases igualmente importantes, claro, pero que están fuera de la imagen que me viene a la cabeza cuando pienso en qué es crear un material didáctico.

Esta reflexión viene a raíz de una investigación de Kirschner (de quien ya he hablado por su crítica al aprendizaje por descubrimiento), que podéis encontrar revisada por Clark Quinn en la excelente serie Research for practitioners de Learning Solutions (en serio, es una gozada de leer). Brevemente, viene a decir que hay quien enfoca el tema más o menos como yo, y quien empieza en un nivel anterior al responder a la misma pregunta: ¿qué factores son más importantes al diseñar un curso? Por resumir brevemente lo que comentan en la revisión, el experimento de Kirschner intenta ver en qué se diferencian los diseñadores de formación del ámbito académico y los del corporativo. Centrándome en el top 4 de prioridades, aparentemente los académicos:

  1. académicodan más importancia a buscar una aproximación menos centrada en el contenido y más en cubrir necesidades de los alumnos
  2. buscan soluciones alternativas, incluso cuando ya han encontrado una que parece buena.
  3. usan prototipos en las etapas iniciales del proyecto
  4. dividen el proceso de diseño en fases.

Los del entorno corporativo coinciden en los puntos 1 y 3, aunque en distinto puesto (4 y 1 respectivamente), pero además incluyen otros dos. Su top 4 es:

  1. usconsultoran prototipos en las etapas iniciales del proyecto.
  2. intentan ganarse al cliente para el proceso de diseño y desarollo.
  3. buscan una aproximación menos centrada en el contenido y más en cubrir necesidades de los alumnos.
  4. enseñan al cliente muestras de otros proyectos como referencia, para que elija lo que le interesa.

Las prioridades 2 y 3 de esta lista están también entre las de los académicos, pero ya en los puestos 5 y 7. Mi impresión es que la segunda lista está más orientada al cliente que al usuario final, o que al propio proceso de diseño.

¿Orientación al cliente o a la tarea?

No creo que pueda aportar mucho más de lo que dice Quinn, pero sí me parece interesante que los diseñadores corporativos (que sería mi grupo natural) pongan más énfasis en aspectos relacionados con la gestión del proyecto, y que, sin embargo, los diseñadores académicos se centren más en la parte que yo abordé en mi anterior entrada. Hay zonas grises, porque aunque
conozco la importancia de los prototipos tempranos (y he hablado de ellos) me cuesta verlos como un elemento de gestión. Ganarse al cliente, estimar tiempos y esfuerzo, coordinarse con otros profesionales; todas esas tareas propias de un jefe de proyecto son necesarias, pero creo que son cualitativamente diferentes del trabajo de diseño didáctico, que es el de un técnico que aporta su saber hacer.

La gestión es otro animal diferente, y es importante saber en qué papel estamos en cada momento, especialmente para tener claro cuándo estamos tomando una decisión por criterios técnicos y cuándo por criterios de negocio.

Patrones de diseño para e-learning

Los patrones son soluciones reutilizables para problemas habituales. Se usan habitualmente en diseño de software y, traducidos al campo de la formación corporativa, si tienes una necesidad de aprendizaje concreta, puedes usar un patrón como base para planificar la intervención. Este patrón incluirá respuestas predefinidas para las cuestiones que habitualmente hay que abordar en esa situación.

Por ejemplo, si un grupo de personas deben aprender a usar una aplicación informática nueva y compleja (esta sería la necesidad formativa recurrente), un patrón adecuado incluirá directrices sobre los tipos de recursos adecuados: fichas para ayudar a entender la lógica de las pantallas, ejemplos guiados para entender por qué la aplicación funciona como funciona, y simulaciones prácticas para ejercitarse y evaluarse son las opciones más típicas (nótese como los habituales tutoriales no serían un recurso de primera elección para este tipo de aprendizaje).

Los diseñadores didácticos creamos cientos de cursos a lo largo del tiempo, pero lo que hacemos en realidad son distintas versiones de un puñado de cursos, una y otra vez. Un patrón permite ahorrar tiempo y, especialmente, facilita que las buenas prácticas se apliquen consistentemente.

Ejemplo de patrón de contenido para la estructura de un recurso e-learning (adaptado de Cammy Bean)

Obviamente es necesaria una labor de ajuste, considerando las particularidades de la situación. Por eso los patrones deben ser estructuras de nivel alto, en las que los detalles están por dibujar, y flexibles, de forma que cuando hay más de una forma de abordar una cuestión, pueda optarse por la más apropiada para cada caso.

Siguiendo con el ejemplo del curso para usar una aplicación, puedo hacer simulaciones de software interactivas, basadas en escenarios realistas, que permitan practicar en un entorno seguro, perderle el miedo al programa, ver cómo se mueve y cómo reacciona a nuestras exploraciones y comprobar cómo se integra en el trabajo habitual. Sin embargo, si los usuarios tienen poco tiempo para practicar antes de empezar a usar la aplicación real, convendrá dar feedback sobre los resultados obtenidos en el ejercicio directamente al terminar este, y procurar que concentren mucha práctica en el tiempo del que dispongan. Si, por el contrario, tienen un periodo de adaptación que da pie a consolidar el aprendizaje, sería más efectivo demorar ese feedback unas horas o un día, y conjugarlo con prácticas de refuerzo espaciadas varios días. Ambas opciones tendrán que estar contempladas en el patrón, o contar con un patrón diferente para cada una.

Además, el patrón puede incluir plantillas para los tipos de recursos que predefine, con la navegación básica y los elementos fundamentales. Los beneficios de las plantillas, en realidad, son análogos a los de los patrones, y es de suponer que todos los diseñadores didácticos del mundo las usan. Los patrones simplemente aplican el mismo concepto a un nivel superior de diseño, con las mismas ventajas… y la misma prudencia en su aplicación, para evitar que se conviertan en el martillo que hace que todas las necesidades de formación sean clavos.

¿Es bueno guiar paso a paso?

Una de las primeras decisiones al diseñar un plan de formación afecta al tipo de experiencia que vivirán los participantes; es decir, definir cómo se relacionarán con los recursos disponibles. La ortodoxia del momento exige que esa aproximación sea constructivista, es decir, que no haya tanto una guía como una facilitación. Normalmente, esto quiere decir que se dan una serie de premisas de partida y asistencia bajo demanda, pero se deja la extracción de conclusiones y conceptos al alumno. Pero, ¿es siempre la mejor opción?

Cómo enseñar a dar dos pasos en cinco pasos

“Aprenda a dar dos pasos en cuatro sencillos pasos”

Lo que dice la evidencia

La investigación al respecto sugiere que es más eficiente alternar esa resolución de problemas con prácticas guiadas, incluyendo explicaciones que el alumno pueda relacionar con sus conocimientos previos y que ayuden a hacer más explícita esa comprensión de conceptos. El problema viene en los mil matices que hay al decidir cuántas indicaciones son muchas, y cuándo “facilitar” se convierte en “guiar”.

El artículo “How much is too much? Learning and motivation effects of adding instructional explanations to worked examples” arrojó algo de luz en este campo, con una serie de conclusiones sobre de hasta qué punto se podía incentivar el aprendizaje de conceptos, mediante la omisión de instrucciones en esas prácticas guiadas (worked examples). Las conclusiones sugieren que omitir las instrucciones, siempre que existan suficientes conocimientos previos, favorece el desarrollo de auto-explicaciones y una mejor comprensión de los conceptos, a través de inferencias, conexión de ideas y re-estructuración del conocimiento.

El matiz de que son necesarios conocimientos previos es importante, porque el papel de la instrucción directa en aprendices sin experiencia previa en una competencia también tiene base empírica (como el provocador y, francamente, tendencioso artículo de Kirschner sobre por qué se supone que el aprendizaje por descubrimiento no funciona). Por tanto, ¿cuándo son necesarias las explicaciones, y cuántas son demasiadas?

Como es habitual, la conclusión que se desprende de las distintas evidencias es que una sola aproximación metodológica, sea constructivista o instrucción directa, no es una buena idea (o “las llamadas teorías y metodologías del aprendizaje son, en el mejor de los casos, orientaciones, y, en el peor, charlatanería”). La instrucción directa tiene su papel, pero el movimiento más sensato parece ser ofrecerla únicamente en prácticas guiadas para aprendices de nivel elemental, y eliminarlas para aprendices con conocimientos previos suficientes, volcando en ambos casos el peso didáctico en la resolución de casos sin guía.

Entonces, ¿nada de instrucción directa?

La evidencia pedagógica siempre está fuertemente influenciada por las condiciones en que se obtiene, por lo que, más que dictar cómo diseñar una acción formativa, debe servir de orientación, teniendo en cuenta las diferencias de contexto.

La ausencia de instrucción directa es un enfoque que me gusta, y me parece que una retroalimentación bien planteada debería ser suficiente; sin embargo, estamos tan habituados a que nos cuenten cómo hacer las cosas, que dejar de hacerlo da cierto vértigo. Para suavizar esa sensación que pueden tener los alumnos de estar trabajando sin red, suelo compensar la falta de instrucción directa con tres recursos:

  • Recapitulación final: tras cada caso, la retroalimentación sobre el resultado incluye poner negro sobre blanco la lógica subyacente al problema, normalmente en forma de diagrama, para facilitar la comprensión de los pasos básicos. Es importante que refleje el camino del aprendiz, variando en función de cómo haya resuelto el caso, y que ofrezca explorar alternativas más eficientes, si las hubiera.
  • Repetición: la práctica demorada no solo sirve para afianzar el recuerdo, sino que en este caso obliga a redescubrir esa auto-explicación y, frecuentemente, perfeccionarla.
  • Material informativo de libre disposición: nunca será el núcleo del curso, pero cubrir la posibilidad de que alguien no tenga los conocimientos de partida que dabas por supuestos con algunos recursos para consultar (accesibles donde y cuando puedan ser necesarios) puede echarle la mano que necesita.

Hacerlo de este modo lleva a tener más práctica formal durante la formación y más información disponible bajo demanda, estrictamente para cuando haga falta, que es el modelo general en el que confío.

Cómo gestionar un proyecto de formación: dejando atrás ADDIE (II) – SAM1

El Modelo de Aproximaciones Sucesivas (SAM) para la gestión de proyectos e-learning, y que ya comenté en una entrada anterior, proporciona una estructura ágil para sustituir a ADDIE como esquema de trabajo. SAM tiene dos variaciones sobre el mismo tema: SAM1 para pequeños proyectos unipersonales (y en mi caso también para gestionar mi parte de trabajo en proyectos compartidos), y SAM2 para aquellos casos en los que es complicado integrar diseño y desarrollo; normalmente proyectos de tamaño considerable.

Ciclo de trabajo

SAM1 es el que uso habitualmente, y responde a un esquema muy sencillo:

Un ciclo de SAM-1

Un ciclo de SAM-1

Este proceso se repite al menos tres veces, comenzando y terminando con la evaluación:

  • En la primera iteración evalúo la situación, necesidades, objetivos y opciones, que luego organizo en la fase de diseño para trasladarlas a distintas posibilidades de formato y medios de distribución. En la fase de desarrollo transformo estas decisiones en prototipos básicos, sin trabajar aún la presentación del contenido sino únicamente la estructura. Finalmente, lo presento a las partes implicadas para que lo fusilen a críticas.
  • La segunda iteración es, con diferencia, la más laboriosa: evalúo hasta qué punto la primera cumplió sus objetivos y recojo los puntos a cambiar o mejorar. A continuación traslado esos cambios a un nuevo diseño (o una variación del primero si he tenido buen ojo), y lo aplico a un nuevo prototipo en la fase de desarrollo. A menos que haya tenido que empezar de cero, que a veces ocurre, en este punto el prototipo da una idea clara de cómo va a ser el contenido final, ya con textos, interacciones y demás. También es el momento de hacer pruebas de distribución, usabilidad y seguimiento, y de validar el contenido y los conceptos tratados.
  • La tercera y posteriores iteraciones son básicamente repeticiones de la segunda hasta conseguir un producto final adecuado. En general se trata de diseñar cambios en función de los resultados de las pruebas de uso y de los comentarios de los expertos en la materia. El peso de las iteraciones lo lleva la producción más que el diseño, y en mi caso tienden a ser ciclos cada vez más cortos.

Problemas

Allen dice que más de tres iteraciones no deberían ser necesarias en la mayoría de los casos, porque el equilibrio entre esfuerzo y resultados disminuye con cada una de más. Le doy la razón en esto último, pero hasta ahora siempre he necesitado al menos un par de ciclos más para quedar contento. Concuerdo en que a partir de ahí se entra en una espiral de perfeccionamiento que alarga los plazos a lo tonto. Desde luego, la situación ideal es poder lanzar el producto final, recoger datos durante un tiempo, y hacer un nuevo ciclo a partir de ahí para pulir todo lo que se quedó en el tintero… pero pocos proyectos se permiten ese lujo.

El otro gran riesgo, que desde mi punto de vista es el mayor, es poner demasiado esfuerzo en la primera iteración, especialmente en el diseño. Descartar prototipos siempre es complicado; al fin y al cabo, los has hecho así porque parecía una buena opción. No es fácil encontrar el equilibrio para que el prototipo se entienda y a la vez no se haya comido más tiempo del que estoy dispuesto a tirar por la ventana (la dichosa aversión a la pérdida), pero es la clave para no frustrarse nada más empezar.

Conclusiones

SAM1 es sencillo, fácil de explicar a los clientes (a todo el mundo le encantan los prototipos, aunque a la hora de revisar se haga un poco cuesta arriba) y, si se vigilan los dos problemas explicados arriba, sobre todo es práctico. Sin dobleces, sin procesos largos y con una reducción de la incertidumbre que, en mi opinión, es su mayor ventaja. Lo he adoptado como metodología por defecto, así que mi valoración es claramente positiva. Si no te preocupa trabajar con algunos desajustes entre el modelo y la ejecución puedes usar la versión iterativa de ADDIE,y seguramente no notarás mucha diferencia; pero si te gusta que teoría y práctica encajen, SAM1 es para ti.

Cómo gestionar un proyecto de formación: dejando atrás ADDIE (I)

Análisis-Diseño-Desarrollo-Implementación-Evaluación es una cantinela que todos los que diseñamos formación nos hemos aprendido en algún momento. Es un método directo y sin complejos de gestión de proyectos de e-learning, posiblemente el más extendido, pero se le pueden hacer críticas muy válidas. La mía se basa sobre todo en que es un modelo de fases en el que faltan procesos.

¿Cuál es el problema de ADDIE?

Borradores blog - Google Docs - Google Chrome_2

A nadie se le escapa que comprobar si estás avanzando en la dirección correcta mientras trabajas es importante. Medir resultados al final y ver qué tal lo has hecho es fundamental, pero es francamente un mal momento para descubrir que tu idea no era buena desde el principio. Incluso si haces esa evaluación al final de cada fase, como sugieren las últimas variaciones de la secuencia A-D-D-I-E, sigue habiendo un riesgo muy alto de que sea demasiado tarde para hacer todas las correcciones necesarias, no digamos ya para cambiar de enfoque. Por eso la mayoría incluimos pequeños ciclos de diseño, desarrollo y evolución dentro de cada una de las fases, probablemente incluso para cada entregable de cada fase. No es exactamente una novedad: los métodos ágiles de gestión de proyectos van por ahí. Pero en este campo por algún motivo lo hacemos escondiendo esos ciclos dentro de ADDIE y sin documentarlo, como si romper la ortodoxia del modelo no mereciera figurar en nuestros informes. Puede que me equivoque generalizando, pero creo que casi nadie aplica ADDIE en su forma más pura, sino que proliferan los apaños caseros.

El título de esta entrada no es, por tanto, exacto: nunca he aplicado ADDIE tal cual, así que no puedo abandonarlo. En algún proyecto de largo recorrido ni siquiera he estado cerca, y he trabajado con un modelo ad hoc, pero ese es un lujo viable únicamente cuando tienes muchos meses para pulirlo.

El modelo de aproximaciones sucesivas (SAM).

Una metodología fiable permite empezar con paso firme, sabiendo que no te vas a dejar nada por el camino. Y buscando algo que no fuera un nuevo parche dí con SAM, desarrollado por Michael Allen. Allen es un habitual en los círculos de debate del e-learning y la formación corporativa, y tiene un discurso sensato, así que parecía una buena apuesta. Lo es en términos generales, porque pone negro sobre blanco lo que describía al principio de la entrada: cómo incluir pequeños ciclos de trabajo en las distintas etapas de un proyecto, para generar y validar entregables que permitan ver si vas por buen camino o no. Allen se pasa medio libro diciendo que su modelo no es un ADDIE con iteraciones, pero la verdad es que no me ha convencido de ello, y creo que los paralelismos son fáciles de encontrar:

Borradores blog - Google Docs - Google Chrome

Tampoco es raro, porque las fases de ADDIE son tan obvias, quizá tan naturales, que no creo que haya que romperlas necesariamente: simplemente hacía falta que alguien describiera lo que todos hacemos.

No llego tan lejos como el autor, achacando a un mal modelo de gestión el origen de los males de la formación corporativa. De hecho creo que la mayor parte de la responsabilidad cae sobre el diseño didáctico. Pero sí le doy la razón en que una mala gestión de los riesgos y poca flexibilidad, especialmente en la producción, tienden a generar resultados muy poco adaptados a las necesidades de los alumnos. Me gusta especialmente el énfasis que pone en la exploración de diseños alternativos, y en el análisis de necesidades continuado (que obviamente van de la mano).

Las bases de una buena gestión.

Allen considera que hay cuatro criterios fundamentales en los que debe basarse cualquier proceso de gestión de proyectos:

  1. Debe ser iterativo, para hacer las correcciones que toquen cuando suponen menos coste
  2. Debe facilitar la colaboración, no tanto para mejorar el resultado final sino para acortar los tiempos.
  3. Debe ser eficiente y efectivo (menuda sorpresa), lo que implica tanto evitar el perfeccionismo como detectar cuándo vale la pena invertir un esfuerzo extra para mejorar el resultado final.
  4. Debe ser manejable, en el sentido de que deje claro quién hace cada cosa y permita predecir el impacto de los cambios hechos sobre la marcha.

Son criterios de sentido común y bastante amplios; posiblemente, sobre el papel, cualquier modelo de gestión cumple con ellos. Sin embargo, me parece interesante cómo SAM logra convertirlo en acciones concretas con sencillez. Como estos objetivos no dependen de las mismas variables en proyectos grandes y pequeños, SAM tiene dos variantes: un nivel uno (SAM1) apropiado para proyectos o equipos pequeños y sin demasiadas complicaciones tecnológicas, y un nivel dos (SAM2) para los que tienen más miga.

En una próxima entrada repasaré SAM1, que está ya en mi vida en plan no-sé-cómo-no-lo-he-hecho-así-siempre-porque-es-de-cajón. SAM2 son palabras mayores y no he tenido ocasión para probarlo en condiciones, así que dejaré su revisión para más adelante.