Patrones de diseño para e-learning

Los patrones son soluciones reutilizables para problemas habituales. Se usan habitualmente en diseño de software y, traducidos al campo de la formación corporativa, si tienes una necesidad de aprendizaje concreta, puedes usar un patrón como base para planificar la intervención. Este patrón incluirá respuestas predefinidas para las cuestiones que habitualmente hay que abordar en esa situación.

Por ejemplo, si un grupo de personas deben aprender a usar una aplicación informática nueva y compleja (esta sería la necesidad formativa recurrente), un patrón adecuado incluirá directrices sobre los tipos de recursos adecuados: fichas para ayudar a entender la lógica de las pantallas, ejemplos guiados para entender por qué la aplicación funciona como funciona, y simulaciones prácticas para ejercitarse y evaluarse son las opciones más típicas (nótese como los habituales tutoriales no serían un recurso de primera elección para este tipo de aprendizaje).

Los diseñadores didácticos creamos cientos de cursos a lo largo del tiempo, pero lo que hacemos en realidad son distintas versiones de un puñado de cursos, una y otra vez. Un patrón permite ahorrar tiempo y, especialmente, facilita que las buenas prácticas se apliquen consistentemente.

Ejemplo de patrón de contenido para la estructura de un recurso e-learning (adaptado de Cammy Bean)

Obviamente es necesaria una labor de ajuste, considerando las particularidades de la situación. Por eso los patrones deben ser estructuras de nivel alto, en las que los detalles están por dibujar, y flexibles, de forma que cuando hay más de una forma de abordar una cuestión, pueda optarse por la más apropiada para cada caso.

Siguiendo con el ejemplo del curso para usar una aplicación, puedo hacer simulaciones de software interactivas, basadas en escenarios realistas, que permitan practicar en un entorno seguro, perderle el miedo al programa, ver cómo se mueve y cómo reacciona a nuestras exploraciones y comprobar cómo se integra en el trabajo habitual. Sin embargo, si los usuarios tienen poco tiempo para practicar antes de empezar a usar la aplicación real, convendrá dar feedback sobre los resultados obtenidos en el ejercicio directamente al terminar este, y procurar que concentren mucha práctica en el tiempo del que dispongan. Si, por el contrario, tienen un periodo de adaptación que da pie a consolidar el aprendizaje, sería más efectivo demorar ese feedback unas horas o un día, y conjugarlo con prácticas de refuerzo espaciadas varios días. Ambas opciones tendrán que estar contempladas en el patrón, o contar con un patrón diferente para cada una.

Además, el patrón puede incluir plantillas para los tipos de recursos que predefine, con la navegación básica y los elementos fundamentales. Los beneficios de las plantillas, en realidad, son análogos a los de los patrones, y es de suponer que todos los diseñadores didácticos del mundo las usan. Los patrones simplemente aplican el mismo concepto a un nivel superior de diseño, con las mismas ventajas… y la misma prudencia en su aplicación, para evitar que se conviertan en el martillo que hace que todas las necesidades de formación sean clavos.

Calidad percibida del e-learning

Hace un tiempo, a cuento de la interactividad, hablaba de la calidad general del e-learning. Siempre recuerdo que Íñigo Babot, que era una referencia en formación corporativa, sostenía que la mala calidad de los contenidos era coyuntural. De esto hace unos 10 años, y aunque el buen e-learning es hoy mejor que entonces, ¿ha cambiado la percepción general de esa calidad? ¿Ha mejorado algo la media, o es en realidad un problema estructural?

Mi opinión es que posiblemente la curva se haya desplazado un poco a la derecha, y que es más frecuente ver materiales de mejor calidad, pero el e-learning malo sigue siendo igual de malo, y sigue siendo mayoritario.

Podría pensarse que lo que pasa es que se oye demasiado a gente como yo hablar de lo malo que es el e-learning en general :). Sin embargo, acabo de cruzarme en ResearchGate con un artículo sobre este tema, en el que las conclusiones no dan muy buena espina:

"The results reveal that workers perceive e-learning as a more 
flexible and up-to-date training methodology. On the other hand, face-to-face training continues to be perceived as a more motivating 
methodology compared to virtuality and with better explanations from 
the course trainers. [...]Such results state that while the benefits 
of distance methodology can be clearly identified from the company’s 
point of view (i.e., as a flexible and efficient methodology to 
develop the employees’ skills and knowledge), from the employees’ 
standpoint, the advantages of virtual training are not so clear and 
depend to a great extent on their attitude towards the use of 
virtuality."

O sea, que a los trabajadores el e-learning les parece cómodo pero, salvo que estén habituados al medio virtual, prefieren las formaciones presenciales en cuanto a variables relacionadas con el aprendizaje, y no con la agenda. Lo cual es paradójico, porque entonces las empresas están incentivando, por motivos de coste, una modalidad de formación que no es muy buena para desarrollar habilidades, siempre según quienes la reciben.

Formador payaso

¿Qué tendrá la formación presencial?

En el artículo hay datos que posiblemente apuntan a dónde está el problema. Un 65 % de los participantes piensa que el e-learning está peor orientado a la práctica, un ¡83 %! que las explicaciones de los tutores son de peor calidad, y otro 65 % que es más motivadora la presencial. Sin embargo, ambas parecen estar a la par en cuanto a facilitación del aprendizaje, lo cual es consistente con los resultados del conjunto de investigaciones sobre el tema.

Las conclusiones de los estudios más relevantes apuntan, precisamente, a que e-learning y presencial son equivalentes cuando el primero está bien diseñado (se entiende que el segundo debe estarlo también, claro, aunque creo que hay algo de complejo de inferioridad en esa asunción, como si el gold standard de la formación fuera presencial, y la virtual tuviera que demostrar cosas que en la otra se dan -equivocadamente- por hechas). Si acaso, al primer puesto del podio deberían encaramarse los formatos mixtos, que son los que se llevan el gato al agua en cuanto a eficacia; algo que tampoco es para sorprenderse.

Conclusiones

El diseño didáctico, tanto de la formación presencial como del e-learning, probablemente sigue haciéndose por inercia, cayendo en las mismas trampas habituales (enfoque erróneoobjetivos de aprendizaje absurdos, interactividad mal entendida, temas sin interésrestricciones a la exploración…). Si la metodología (por llamarlo de algún modo) que predomina en ambas modalidades es el volcado de contenidos, la presencial tiene ventaja y puede salvar la cara con un buen formador, capaz de atender a las necesidades particulares de cada alumno. En e-learning esa posibilidad siempre es más complicada, y no hay más remedio que diseñarlo de forma adaptada para que pueda ponerse a la par de la presencial. La talla única, que en presencial es engañosa precisamente gracias al factor humano, es claramente la estrategia equivocada.

Referencias

Batalla-Busquets, JM y Martínez-Argüelles, MJ (2014). Determining factors in online training in companies. The International Journal of Management Education 12(2):68–79

Pei-Chen Sun et al (2006). What drives a successful e-Learning? An empirical investigation
of the critical factors influencing learner satisfaction.  Computers & Education 50 (2008) 1183–1202.

Pantazis, C.  (2001) Maximizing E-Learning To Train the 21st Century Workforce. Public personnel management 12/2001; 31(1).

Hacerse un hueco en el mercado del e-learning

Los pronósticos son unánimes, desde hace años, en apuntar a un ascenso continuado del e-learning corporativo. Varían los porcentajes concretos y en la fecha en la que finalmente superará a la formación presencial en cada sector, pero la tendencia es clara.

Lo cierto es que, al margen de proyecciones, la forma en la que está penetrando en el mercado es en combinación con la presencial. Esto tiene sentido si consideramos que, por el momento, la demanda de los usuarios no es la que tira del carro: son los departamentos de formación y, más aún, las gerencias, las que demandan esa transición, siguiendo una lógica de ahorro de costes y muchas veces contra el criterio (posiblemente desconfiado en exceso) de los usuarios finales.

Formatos mixtos

El alumno, por lo general, aún desconfía de los formatos que le quitan sensación de control, y tener delante a un responsable-formador es una palanca muy clara para influir sobre la calidad y dirección de un curso. Si el tutor se convierte en virtual, los grados de libertad que tienen para influir sobre él decrecen.

Desde el punto de vista del tutor ocurre otro tanto: es más fácil actuar sobre un alumno de cuerpo presente, tanto para ajustarse a sus necesidades como para tomar el pulso a la clase. La tutorización en línea supone otra forma de recibir retroalimentación, con algunas contrapartidas pero, desde luego, diferente.

Los formatos mixtos, blended, tienen por lo general el visto bueno de todos los implicados; el problema está en que cada uno tiene una idea distinta de lo que significa exactamente. No es lo mismo material didáctico multimedia con tutorías, que clases presenciales con material de apoyo en línea, que materiales y grupos de trabajo virtuales con sesiones de debate y estudio de casos cara a cara. De cualquier manera, el principal nicho de estos es aún la educación reglada, más atada que ninguna a las aulas de ladrillo.

El papel de los proveedores

No es ninguna sorpresa que las grandes organizaciones públicas y privadas sean el objetivo principal de los proveedores generalistas de e-learning. Empresas como Avanzo, Netex o TLS se pelean en España por las grandes cuentas, aunque el sector está todavía lo bastante atomizado como para que pequeños actores se lleven contratos considerables.

Este es un modelo que se apoya en buena medida en los formadores y diseñadores freelance, generalmente competentes y rápidos a la hora de apropiarse de un curso o plan de formación, que abordamos como si fuera nuestro y solo nuestro. Esto hace que seamos una elección frecuente para colaboraciones limitadas en el tiempo, tanto en aspectos concretos (instalación de LMS, producción de materiales didácticos, diseño didáctico y gráfico, tutorización online e impartición de cursos cara a cara o, más infrecuentemente, diseño de planes de formación y consultoría pedagógica).

Para estos pequeños proveedores, buena parte del negocio está en las subcontratas de las grandes compañías, bien para proyectos concretos, bien como colaboradores habituales de los departamentos de formación internos. Las medianas empresas tienen aún capacidad de competir, especialmente en coste, en terrenos como el desarrollo de cursos y píldoras o el despliegue de entornos de formación más o menos estándar. Las grandes compañías, por el contrario, tienen su punto fuerte en la formación asociada a grandes proyectos y en el desarrollo de productos específicos para el mercado educativo.

Perspectivas

Típico alineamiento de la formación con las necesidades de la empresa

Típico alineamiento de la formación con las necesidades de la empresa

Las PYMEs son el gran mercado por explotar, al que los proveedores llegamos sobre todo a través de programas públicos muy específicos, o a través del catálogo de la FTFE (en este caso frecuentemente con intermediarios). Se plantean la capacitación como una molesta necesidad inicial para que un trabajador empiece a ser útil, o como una forma de obtener servicios de asesorías a cambio del crédito de formación bonificada. No es una sorpresa, por tanto, que ésta se considere un trámite desagradable y, por tanto, importe poco su calidad real. No es un medio para formarse, sino un medio para obtener un servicio gratuito. En el mejor de los casos será una forma de hacer una concesión a los trabajadores, si lo demandan.

Pero ¿son ellas las responsables de no buscar más allá, es la oferta que no les da lo que necesitan, o es que se les vende mal? Aunque todos los factores tienen algo de peso, el segundo es probablemente el que sigue teniendo más parte de culpa.

5 ideas para diseñar mejores exámenes sacadas de los test psicológicos

La evaluación del aprendizaje siempre es compleja. Su misión es asegurar que el aprendizaje tiene cierta persistencia y podrá ser trasladado a situaciones reales; por eso es conveniente evaluar a lo largo de un tiempo, sobre el terreno, y no ceñirse a los datos recogidos durante el tiempo de formación. Todo eso, en principio, tiene poco que ver con hacer un examen.

¿Examen sí o no?

Normalmente tenemos una idea de examen tipo cuestionario como el peor ejemplo de evaluación memorística. Aunque siempre tiene limitaciones importantes, cuando está bien hecho puede exigir comprensión de conceptos, no solo memoria. Eso sí, debe centrarse en lo que no pueda distribuirse en ayudas de trabajo, o no se va a poder consultar cuando haga falta; es decir, en lo que no hay más remedio que conocer y entender. Lo que, en definitiva, debe estar en la cabeza del aprendiz. No es la única ni la mejor manera de medir el aprendizaje (mejor un escenario que transforme las preguntas directas en factores de decisión en una situación realista, o un entregable que exija poner en práctica lo aprendido), pero normalmente es la más barata y la más sencilla de procesar y, si tengo que tener lista una evaluación en poco tiempo, mejor esta que ninguna. Si tienes que hacer un cuestionario de examen, Cathy Moore explica aquí las cuestiones básicas a tener en cuenta, y además lo enseña elegantemente en un ejercicio práctico. Tengo poco que añadir ahí, así que voy a ir un paso más allá.

Test psicológicos

Test1

Pro tip: elige bien los tests en los que te inspiras.

Si hay un tipo de cuestionario al que se le ha dedicado tiempo y tinta en investigación psicológica básica son los que miden rasgos y estados psicológicos. Obviamente no estoy hablando de cuestionarios de revista, sino de encuestas cuya fiabilidad y validez se mira con lupa y que tienen como fin usarse en contextos clínicos, como escalas de ansiedad o de depresión. Las preguntas se formulan para que cada opción tenga, de forma natural, el mismo número de probabilidades de ser elegida por azar, de forma que solo el rasgo que están midiendo influirá en una persona a la hora de seleccionar una u otra. Eso (que es básicamente imposible, pero la meta es acercarse) implica eliminar todos los sesgos posibles y tratar de localizar cualquier desequilibrio para asegurar una decisión pura, y no inconsciente o conscientemente alterada.

Claves que pueden trasladarse al diseño de preguntas de examen

Por lo general ningún examen de contenido va a someterse a ese proceso, que es complejo y largo. Sin embargo es interesante apuntar en la misma dirección, tratando de que todas las opciones sean igualmente atractivas. Aquí van, por tanto, algunos de los sesgos más importantes que podemos intentar evitar, sacados del campo de la psicometría:

  • Cuidado con el efecto halo: la primera opción suele convertirse en el criterio de comparación, y las otras serán juzgadas como mejores o peores que esa, antes que entre ellas.
  • Intenta que todas las opciones (o ninguna) sean socialmente deseables. Es decir, que parezcan lo que un buen profesional haría.
  • Todas las respuestas deben ser útiles. No sirve de nada que sean plausibles si el alumno no puede relacionarlas con la resolución de un problema, y tenderá a escoger aquella más aplicable, frente a las que se basen en afirmaciones generales.
  • Ten en cuenta los sesgos ideológicos. Las personas tendemos a elegir respuestas cercanas a nuestra postura personal, lo que en ocasiones puede eclipsar lo correctas que sean. Si una respuesta incorrecta refleja una actitud o creencia próxima a la que yo tengo, mientras que la correcta no lo hace, es fácil que me decante por la primera.
  • Que la memoria de trabajo no sea un factor decisivo. Todos tenemos un límite en el número de opciones que somos capaces de comparar a la vez. Los ítems largos o los bloques grandes (normalmente de más de 4 o 5 opciones) incrementan la complejidad y fuerzan a simplificar la decisión desechando algunos factores. Es preferible un enunciado más detallado y respuestas más simples que a la inversa.

Estas variables pueden cambiar mucho la dificultad de un examen, y merece la pena incluirlas en el diseño de las preguntas y respuestas. Será raro que podamos contrastar si estamos siendo rigurosos, pero se nos colarán menos sesgos que si no las tenemos en cuenta.

Referencias:

Crear recursos didácticos interactivos: menos es más

Cuando se discuten las bases de un proyecto de formación suele haber una demanda permanente de “cursos interactivos”. Ahora, tengo la sensación de que si pregunto a alguien que nunca ha visto un curso e-learning a qué se refiere exactamente con interactividad, voy a tener una respuesta muy distinta a la de alguien habituado a ellos.

No es oro todo lo que reluce

En las últimas dos décadas hemos asociado interactividad a cualquier tipo de clic de ratón, posiblemente por la aplicación de una lógica como la siguiente:

  1. en una pantalla, la interacción con el contenido necesariamente se traduce en clics de ratón o pulsaciones con el dedo.
  2. por tanto, cualquier pulsación es una interacción.

Técnicamente es cierto, pero en nuestro terreno la interacción es un medio para un fin: el aprendizaje. Incluimos interacción, y los clientes la demandan, porque se supone que capta la atención de los alumnos y da mejores resultados. Si no hace eso, no tiene sentido llamarlo interactivo. Interaccionamos con todo lo que nos rodea, pero cuando me como un filete no digo que el cuchillo y el tenedor son interactivos.

El criterio de significatividad

El matiz está en el carácter significativo de esta interactividad: si ese clic no responde a una toma de decisiones relevante, es decir, si el usuario no está haciendo un esfuerzo cabal por averiguar dónde debe pulsar (y no porque el botón esté escondido), entonces es simplemente una acción mecánica irrelevante. Por tanto, hay interacciones relevantes y no relevantes.

El curso de acción que sigue a este descubrimiento lo dan los manuales de usabilidad web: cuantos menos clics te lleve llegar a donde quieres ir, mucho mejor. Por tanto, poda los clics irrelevantes hasta reducirlos al mínimo, y potencia los que son significativos.

Supongo que en ocasiones SÍ tienen sentido

Supongo que en ocasiones SÍ tienen sentido

Pero entonces, ¿cómo sigo leyendo?

Resulta complicado hacer ese trabajo de poda en un material basado en texto y publicado en formato de presentación; al fin y al cabo, necesitas un botón de “Siguiente” para avanzar… y pasar página no es la interacción más relevante que se me ocurre. Parte del problema es seguramente que ese tipo de materiales se etiquetan como “didácticos”; sin embargo, es exactamente lo mismo que hacen aplicaciones como Slideshare, o cualquier Power Point en formato de presentación. Estos formatos, como los libros electrónicos, tienen su lugar como material de consulta o de estudio, pero no son cursos.

Hace ya tiempo encontré por la red los resultados de una encuesta (via Ebolo) que, entre otras cosas, reforzaba la idea de que los usuarios prefieren ejercicios y casos prácticos al contenido expositivo. Nada nuevo ni difícil de entender, y, sin embargo, choca con uno de los aparentes principios inquebrantables del e-learning: la reducción de costes. De nuevo aplicando esta lógica absurda:

  1. El e-learning es barato.
  2. Lo más barato que puedo hacer es coger una presentación que ya tengo de un curso presencial y añadirle unos botones para que puedan navegarla.
  3. Por tanto, las presentaciones navegables son e-learning.

Ayuda a este silogismo que las herramientas de autoría más habituales tienen como función más básica, precisamente, ese paso de un formato de presentación a otro navegable. Si lo haces con una herramienta para crear e-learning, será que es e-learning, ¿no?

¿Cuánto me va a costar esa interactividad?

Abandonar este razonamiento no implica que el e-learning sea caro; en los casos en que los materiales sean reutilizables varias veces, hagan falta actualizaciones frecuentes y la audiencia objetivo sea numerosa o esté geográficamente dispersa, seguirá siendo más barato que la formación presencial. Sin embargo, si queremos que sea efectivo sí será, posiblemente, más caro de lo que suele esperarse. Clark Quinn lo explica muy bien en su blog: cualquier aprendizaje formal debe ser caro. Construir materiales con interacciones relevantes, retroalimentación significativa y adaptado al usuario lleva tiempo y esfuerzo. Simplemente, algunas veces no es necesario algo tan complejo, y la situación demanda otro tipo de recursos: breves presentaciones informativas, checklists, guías paso a paso, una charla con un experto, construir una wiki o alimentar la conexión entre las personas implicadas, para que se ayuden unas a otras.

Pero cuando hay que rascarse el bolsillo, no está de más recordar que el resultado habitual del low cost son demasiadas horas perdidas por usuario, y unas cuantas encuestas de satisfacción que rezuman satisfacción, pero no dicen nada sobre aprendizaje.

Conclusiones

No asumas que un curso es la solución más apropiada; pero si efectivamente lo es, haz uno que valga la pena y consigue que los recursos dedicados sean una inversión, y no un coste perdido. Si decides que necesitas un material interactivo haz que el contenido sea relevante, y añade la interactividad como parte integral de la experiencia, no como una forma de navegar por la pantalla.

¿Que es un curso obligatorio (léase por ley), y de lo que se trata es de que salga barato, y que esté ahí por si acaso? Pues también hay alternativas.

4 principios de usabilidad en e-learning.

Hace ya bastantes años que leí “No me hagas pensar”, de Steve Krug. Era una edición de 2000 en la que hoy día seguramente cambiarían unas cuantas cosas, porque el formato de las páginas web también lo ha hecho, pero la lógica de partida y las pautas generales siguen teniendo plena vigencia.

En e-learning, como en diseño web, una de las decisiones recurrentes es la estructura que darle a un curso o a un conjunto de recursos. Hay bastantes recomendaciones al respecto, (como cualquier cosa que diga Julie Dirksen) pero aquí voy a comentar cuatro principios clave que extraje de aquel manual y que desde entonces trato de poner en práctica:

Principio 1: No uses más de 3 niveles de profundidad.

Esto es especialmente cierto si hacemos coincidir -más o menos- la estructura del curso con el mapa conceptual que queremos que el aprendiz tenga en la cabeza. Normalmente el primer y segundo nivel están claros, porque corresponden a categorías generales. Pero a partir del tercer nivel la estructura tiende a atomizarse y la navegación por los recursos no suele responder a un esquema, sino que se planifica ad hoc. Si con tres niveles no te llega, prueba a disfrazar alguno de ellos convirtiéndolo en un curso diferente… o plantéate si no estás intentando abarcar demasiado.

Principio 2: Haz “la prueba del maletero”.

Krug llama así a lo siguiente: imagina que te han metido en el maletero de un coche, te han dado varias vueltas y te han sacado en un lugar al azar de tu curso. No importa dónde estés; con lo que tengas a la vista deberías ser capaz de responder rápidamente a varias preguntas.

    • ¿De qué va este curso?
    • ¿Qué secciones tiene?
    • ¿Dónde estoy en el esquema general?
    • ¿De qué trata este apartado concreto?
    • ¿Qué opciones tengo?
    • ¿Cómo busco algo?

Si no es así, seguramente tengas que darle una vuelta a tu diseño.

Principio 3: No transformes tus preferencias en normas universales.

Cuando hago un material multimedia me gusta integrar la navegación en pantalla (algo que va bastante ligado a que suelo presentar opciones contextualizadas), y no me gustan las barras de navegación externas porque creo que reducen la sensación de inmersión en el contenido. Sin embargo seguro que hay quien las ve más prácticas porque son fiables y no dan pie a confusiones sobre qué tengo que hacer para seguir adelante. No me consta que haya evidencia en un sentido ni en otro, y de haberla no tengo claro que pudiera zanjar si las ventajas de uno u otro superan sus inconvenientes, por lo que asumo que es una preferencia personal. Si alguien me pregunta trataré de exponer mis argumentos a favor de mi preferencia, pero sin caer en el error de pensar que ese razonamiento es una verdad inmutable.

Las pruebas de uso proporcionan momentos de iluminación

Las pruebas de uso proporcionan momentos de iluminación.

Principio 4: Prueba tu diseño.

En realidad es la única forma de estar seguro de si has acertado en el diseño de un curso, porque lo que funcionó para una audiencia concreta puede no hacerlo para otra. La recomendación de Krug es no hacer una sola prueba, sino escalonarlas: prueba un primer diseño con unas pocas personas, corrígelo según los resultados y vuelve a probarlo con otro grupo distinto. Es una buena idea, porque es fácil que los problemas de diseño más importantes estén ocultando otros menores que pasarán desapercibidos hasta que no resuelvas los primeros. Y una idea clave: es mejor probar con un solo usuario que con ninguno.

Por cierto, Krug sacó en 2014 una edición actualizada de su libro. Si no has leído nada sobre usabilidad, tanto ese como su web son buenos sitios donde empezar.

Cómo planificar formación en el sector sanitario

Hace ya unos cuantos años que planifico, diseño y desarrollo medios didácticos para organizaciones sanitarias. Hospitales, centros de salud y clínicas tienen algunas características particulares que es importante conocer.

Dos escenarios posibles.

El planteamiento de un plan de formación en este entorno es muy diferente si se trata de desarrollo profesional continuo o de la introducción de nuevas herramientas y procesos de gestión.

En general, el primero tiene demanda, y está relacionado directamente con la competencia percibida que médicos y enfermeros tienen en sus tareas habituales; en general, es un colectivo muy consciente de los cambios constantes en su área de trabajo, que busca activamente estar al día. No es casual que entre las recomendaciones más sólidas de la Organización Mundial de la Salud para la formación de profesionales sanitarios esté la inclusión de programas de formación continuada, con énfasis en que se trate de capacitación integrada en el puesto de trabajo, es decir, específica y contextualizada para cada perfil y contexto profesional. La adaptación al contexto concreto es crucial, porque el trabajo clínico cambia mucho en función de la población a la que se asiste, y los sanitarios son por lo general muy sensibles a esto.

En cuanto a la introducción de nuevas herramientas, constantemente hay procesos nuevos en los que formar: protocolos de seguridad del paciente, uso de materiales de última generación, recomendaciones clínicas cambiantes, TIC… Posiblemente el mejor ejemplo reciente es la implantación generalizada de las historias clínicas electrónicas (HCE) y las aplicaciones asociadas, de gestión de prescripción, control de vacunación y una miríada de soluciones para las múltiples tareas asociadas a la labor asistencial.

Mucho hecho en un plazo francamente breve.

Mucho hecho en un plazo francamente breve.

La financiación entre 2009 y 2012 dejó prácticamente implantada en toda España la sanidad electrónica. En este terreno, una de las quejas más frecuentes fue (y sigue siendo) la falta de formación adecuada, tanto durante las implantaciones iniciales, como una vez la HCE estuvo consolidada y se le fueron añadiendo nuevas funcionalidades y mejoras (prescripción electrónica, control de vacunación, gestión de costes…). Incluso la HCE más robusta encuentra problemas para adaptarse a la diversidad de funciones y prácticas diferentes, y no es raro oir que “esto está muy bien para los [rellénese con lo que se quiera: médicos generalistas, especialistas, enfermeros…], pero no  para lo que yo hago”.

La adaptación al cambio es un músculo que necesita entrenamiento.

Al introducir cambios en la gestión de la información, la estrategia formativa dependerá en buena medida del historial de adaptación a cambios similares de la organización. Primeras implantaciones o cambios significativos en las herramientas y procesos exigen un enfoque más centrado en la aceptación, en el que expertos internos sirvan como puntas de lanza y den apoyo de tú a tú a sus compañeros. En cambio, cuando ya hay una cultura de innovación, es frecuente que esos expertos estén ya identificados de manera informal y, apoyándose en ellos, el esfuerzo puede centrarse en el desarrollo de recursos formativos que den apoyo a las redes de aprendizaje internas.

Ayudas de trabajo y recursos a mano antes que cursos.

El tiempo escasea en los centros sanitarios, y los profesionales solo se lo dedicarán a lo que vean que les reporta un beneficio directo: más seguridad para los pacientes, menos eventos adversos, más facilidad para hacer informes, altas y bajas más rápidas, control de citas más fiable… Este contexto es especialmente sensible a la formación irrelevante o que no va al grano. Cualquier proyecto de formación debe empezar por buscar qué necesitan, y dárselo de la forma más directa posible.

Imagen de la portada por Dr. Farouk

¿Es bueno guiar paso a paso?

Una de las primeras decisiones al diseñar un plan de formación afecta al tipo de experiencia que vivirán los participantes; es decir, definir cómo se relacionarán con los recursos disponibles. La ortodoxia del momento exige que esa aproximación sea constructivista, es decir, que no haya tanto una guía como una facilitación. Normalmente, esto quiere decir que se dan una serie de premisas de partida y asistencia bajo demanda, pero se deja la extracción de conclusiones y conceptos al alumno. Pero, ¿es siempre la mejor opción?

Cómo enseñar a dar dos pasos en cinco pasos

«Aprenda a dar dos pasos en cuatro sencillos pasos»

Lo que dice la evidencia

La investigación al respecto sugiere que es más eficiente alternar esa resolución de problemas con prácticas guiadas, incluyendo explicaciones que el alumno pueda relacionar con sus conocimientos previos y que ayuden a hacer más explícita esa comprensión de conceptos. El problema viene en los mil matices que hay al decidir cuántas indicaciones son muchas, y cuándo “facilitar” se convierte en “guiar”.

El artículo “How much is too much? Learning and motivation effects of adding instructional explanations to worked examples” arrojó algo de luz en este campo, con una serie de conclusiones sobre de hasta qué punto se podía incentivar el aprendizaje de conceptos, mediante la omisión de instrucciones en esas prácticas guiadas (worked examples). Las conclusiones sugieren que omitir las instrucciones, siempre que existan suficientes conocimientos previos, favorece el desarrollo de auto-explicaciones y una mejor comprensión de los conceptos, a través de inferencias, conexión de ideas y re-estructuración del conocimiento.

El matiz de que son necesarios conocimientos previos es importante, porque el papel de la instrucción directa en aprendices sin experiencia previa en una competencia también tiene base empírica (como el provocador y, francamente, tendencioso artículo de Kirschner sobre por qué se supone que el aprendizaje por descubrimiento no funciona). Por tanto, ¿cuándo son necesarias las explicaciones, y cuántas son demasiadas?

Como es habitual, la conclusión que se desprende de las distintas evidencias es que una sola aproximación metodológica, sea constructivista o instrucción directa, no es una buena idea (o “las llamadas teorías y metodologías del aprendizaje son, en el mejor de los casos, orientaciones, y, en el peor, charlatanería”). La instrucción directa tiene su papel, pero el movimiento más sensato parece ser ofrecerla únicamente en prácticas guiadas para aprendices de nivel elemental, y eliminarlas para aprendices con conocimientos previos suficientes, volcando en ambos casos el peso didáctico en la resolución de casos sin guía.

Entonces, ¿nada de instrucción directa?

La evidencia pedagógica siempre está fuertemente influenciada por las condiciones en que se obtiene, por lo que, más que dictar cómo diseñar una acción formativa, debe servir de orientación, teniendo en cuenta las diferencias de contexto.

La ausencia de instrucción directa es un enfoque que me gusta, y me parece que una retroalimentación bien planteada debería ser suficiente; sin embargo, estamos tan habituados a que nos cuenten cómo hacer las cosas, que dejar de hacerlo da cierto vértigo. Para suavizar esa sensación que pueden tener los alumnos de estar trabajando sin red, suelo compensar la falta de instrucción directa con tres recursos:

  • Recapitulación final: tras cada caso, la retroalimentación sobre el resultado incluye poner negro sobre blanco la lógica subyacente al problema, normalmente en forma de diagrama, para facilitar la comprensión de los pasos básicos. Es importante que refleje el camino del aprendiz, variando en función de cómo haya resuelto el caso, y que ofrezca explorar alternativas más eficientes, si las hubiera.
  • Repetición: la práctica demorada no solo sirve para afianzar el recuerdo, sino que en este caso obliga a redescubrir esa auto-explicación y, frecuentemente, perfeccionarla.
  • Material informativo de libre disposición: nunca será el núcleo del curso, pero cubrir la posibilidad de que alguien no tenga los conocimientos de partida que dabas por supuestos con algunos recursos para consultar (accesibles donde y cuando puedan ser necesarios) puede echarle la mano que necesita.

Hacerlo de este modo lleva a tener más práctica formal durante la formación y más información disponible bajo demanda, estrictamente para cuando haga falta, que es el modelo general en el que confío.

Cómo gestionar un proyecto de formación: dejando atrás ADDIE (II) – SAM1

El Modelo de Aproximaciones Sucesivas (SAM) para la gestión de proyectos e-learning, y que ya comenté en una entrada anterior, proporciona una estructura ágil para sustituir a ADDIE como esquema de trabajo. SAM tiene dos variaciones sobre el mismo tema: SAM1 para pequeños proyectos unipersonales (y en mi caso también para gestionar mi parte de trabajo en proyectos compartidos), y SAM2 para aquellos casos en los que es complicado integrar diseño y desarrollo; normalmente proyectos de tamaño considerable.

Ciclo de trabajo

SAM1 es el que uso habitualmente, y responde a un esquema muy sencillo:

Un ciclo de SAM-1

Un ciclo de SAM-1

Este proceso se repite al menos tres veces, comenzando y terminando con la evaluación:

  • En la primera iteración evalúo la situación, necesidades, objetivos y opciones, que luego organizo en la fase de diseño para trasladarlas a distintas posibilidades de formato y medios de distribución. En la fase de desarrollo transformo estas decisiones en prototipos básicos, sin trabajar aún la presentación del contenido sino únicamente la estructura. Finalmente, lo presento a las partes implicadas para que lo fusilen a críticas.
  • La segunda iteración es, con diferencia, la más laboriosa: evalúo hasta qué punto la primera cumplió sus objetivos y recojo los puntos a cambiar o mejorar. A continuación traslado esos cambios a un nuevo diseño (o una variación del primero si he tenido buen ojo), y lo aplico a un nuevo prototipo en la fase de desarrollo. A menos que haya tenido que empezar de cero, que a veces ocurre, en este punto el prototipo da una idea clara de cómo va a ser el contenido final, ya con textos, interacciones y demás. También es el momento de hacer pruebas de distribución, usabilidad y seguimiento, y de validar el contenido y los conceptos tratados.
  • La tercera y posteriores iteraciones son básicamente repeticiones de la segunda hasta conseguir un producto final adecuado. En general se trata de diseñar cambios en función de los resultados de las pruebas de uso y de los comentarios de los expertos en la materia. El peso de las iteraciones lo lleva la producción más que el diseño, y en mi caso tienden a ser ciclos cada vez más cortos.

Problemas

Allen dice que más de tres iteraciones no deberían ser necesarias en la mayoría de los casos, porque el equilibrio entre esfuerzo y resultados disminuye con cada una de más. Le doy la razón en esto último, pero hasta ahora siempre he necesitado al menos un par de ciclos más para quedar contento. Concuerdo en que a partir de ahí se entra en una espiral de perfeccionamiento que alarga los plazos a lo tonto. Desde luego, la situación ideal es poder lanzar el producto final, recoger datos durante un tiempo, y hacer un nuevo ciclo a partir de ahí para pulir todo lo que se quedó en el tintero… pero pocos proyectos se permiten ese lujo.

El otro gran riesgo, que desde mi punto de vista es el mayor, es poner demasiado esfuerzo en la primera iteración, especialmente en el diseño. Descartar prototipos siempre es complicado; al fin y al cabo, los has hecho así porque parecía una buena opción. No es fácil encontrar el equilibrio para que el prototipo se entienda y a la vez no se haya comido más tiempo del que estoy dispuesto a tirar por la ventana (la dichosa aversión a la pérdida), pero es la clave para no frustrarse nada más empezar.

Conclusiones

SAM1 es sencillo, fácil de explicar a los clientes (a todo el mundo le encantan los prototipos, aunque a la hora de revisar se haga un poco cuesta arriba) y, si se vigilan los dos problemas explicados arriba, sobre todo es práctico. Sin dobleces, sin procesos largos y con una reducción de la incertidumbre que, en mi opinión, es su mayor ventaja. Lo he adoptado como metodología por defecto, así que mi valoración es claramente positiva. Si no te preocupa trabajar con algunos desajustes entre el modelo y la ejecución puedes usar la versión iterativa de ADDIE,y seguramente no notarás mucha diferencia; pero si te gusta que teoría y práctica encajen, SAM1 es para ti.

Cómo gestionar un proyecto de formación: dejando atrás ADDIE (I)

Análisis-Diseño-Desarrollo-Implementación-Evaluación es una cantinela que todos los que diseñamos formación nos hemos aprendido en algún momento. Es un método directo y sin complejos de gestión de proyectos de e-learning, posiblemente el más extendido, pero se le pueden hacer críticas muy válidas. La mía se basa sobre todo en que es un modelo de fases en el que faltan procesos.

¿Cuál es el problema de ADDIE?

Borradores blog - Google Docs - Google Chrome_2

A nadie se le escapa que comprobar si estás avanzando en la dirección correcta mientras trabajas es importante. Medir resultados al final y ver qué tal lo has hecho es fundamental, pero es francamente un mal momento para descubrir que tu idea no era buena desde el principio. Incluso si haces esa evaluación al final de cada fase, como sugieren las últimas variaciones de la secuencia A-D-D-I-E, sigue habiendo un riesgo muy alto de que sea demasiado tarde para hacer todas las correcciones necesarias, no digamos ya para cambiar de enfoque. Por eso la mayoría incluimos pequeños ciclos de diseño, desarrollo y evolución dentro de cada una de las fases, probablemente incluso para cada entregable de cada fase. No es exactamente una novedad: los métodos ágiles de gestión de proyectos van por ahí. Pero en este campo por algún motivo lo hacemos escondiendo esos ciclos dentro de ADDIE y sin documentarlo, como si romper la ortodoxia del modelo no mereciera figurar en nuestros informes. Puede que me equivoque generalizando, pero creo que casi nadie aplica ADDIE en su forma más pura, sino que proliferan los apaños caseros.

El título de esta entrada no es, por tanto, exacto: nunca he aplicado ADDIE tal cual, así que no puedo abandonarlo. En algún proyecto de largo recorrido ni siquiera he estado cerca, y he trabajado con un modelo ad hoc, pero ese es un lujo viable únicamente cuando tienes muchos meses para pulirlo.

El modelo de aproximaciones sucesivas (SAM).

Una metodología fiable permite empezar con paso firme, sabiendo que no te vas a dejar nada por el camino. Y buscando algo que no fuera un nuevo parche dí con SAM, desarrollado por Michael Allen. Allen es un habitual en los círculos de debate del e-learning y la formación corporativa, y tiene un discurso sensato, así que parecía una buena apuesta. Lo es en términos generales, porque pone negro sobre blanco lo que describía al principio de la entrada: cómo incluir pequeños ciclos de trabajo en las distintas etapas de un proyecto, para generar y validar entregables que permitan ver si vas por buen camino o no. Allen se pasa medio libro diciendo que su modelo no es un ADDIE con iteraciones, pero la verdad es que no me ha convencido de ello, y creo que los paralelismos son fáciles de encontrar:

Borradores blog - Google Docs - Google Chrome

Tampoco es raro, porque las fases de ADDIE son tan obvias, quizá tan naturales, que no creo que haya que romperlas necesariamente: simplemente hacía falta que alguien describiera lo que todos hacemos.

No llego tan lejos como el autor, achacando a un mal modelo de gestión el origen de los males de la formación corporativa. De hecho creo que la mayor parte de la responsabilidad cae sobre el diseño didáctico. Pero sí le doy la razón en que una mala gestión de los riesgos y poca flexibilidad, especialmente en la producción, tienden a generar resultados muy poco adaptados a las necesidades de los alumnos. Me gusta especialmente el énfasis que pone en la exploración de diseños alternativos, y en el análisis de necesidades continuado (que obviamente van de la mano).

Las bases de una buena gestión.

Allen considera que hay cuatro criterios fundamentales en los que debe basarse cualquier proceso de gestión de proyectos:

  1. Debe ser iterativo, para hacer las correcciones que toquen cuando suponen menos coste
  2. Debe facilitar la colaboración, no tanto para mejorar el resultado final sino para acortar los tiempos.
  3. Debe ser eficiente y efectivo (menuda sorpresa), lo que implica tanto evitar el perfeccionismo como detectar cuándo vale la pena invertir un esfuerzo extra para mejorar el resultado final.
  4. Debe ser manejable, en el sentido de que deje claro quién hace cada cosa y permita predecir el impacto de los cambios hechos sobre la marcha.

Son criterios de sentido común y bastante amplios; posiblemente, sobre el papel, cualquier modelo de gestión cumple con ellos. Sin embargo, me parece interesante cómo SAM logra convertirlo en acciones concretas con sencillez. Como estos objetivos no dependen de las mismas variables en proyectos grandes y pequeños, SAM tiene dos variantes: un nivel uno (SAM1) apropiado para proyectos o equipos pequeños y sin demasiadas complicaciones tecnológicas, y un nivel dos (SAM2) para los que tienen más miga.

En una próxima entrada repasaré SAM1, que está ya en mi vida en plan no-sé-cómo-no-lo-he-hecho-así-siempre-porque-es-de-cajón. SAM2 son palabras mayores y no he tenido ocasión para probarlo en condiciones, así que dejaré su revisión para más adelante.