Gamificación de una experiencia de aprendizaje (I)

En 2013, en plena escalada de popularidad de los MOOC y de la gamificación, Coursera lanzó un curso sobre este tema, a cargo de Kevin Werbach y la universidad de Pensilvania. Me apunté para comprobar cuánto de viejo había en la nueva tendencia (los juegos aplicados a la capacitación no son exactamente una novedad), y acabé haciéndolo de principio a fin, arrastrado por el entusiasmo de Kevin. Me gustó cómo se esforzaba en transmitir la idea de que la gamificación no puede ser una táctica de enganche sin más, atraer gente a base de una política facilona de recompensas y competición (a pesar de su crítica simplona del modelo conductista, que da para bastante más de lo que él afirma). Apelaba a estos elementos dentro de un plan, mucho más sensato, en el que las mecánicas de juego sirven para guiar a los usuarios en su avance, en lugar de para conseguir una motivación efímera. Algo coherente, teniendo en cuenta que el mismo concepto de motivación es difícilmente medible y sus supuestos correlatos (como la implicación en una tarea) son un mal predictor de aprendizaje.

El ejercicio final del curso consistía en diseñar la gamificación de una plataforma de consumo colaborativo llamada ShareAll, en la que los usuarios intercambiaban bienes y servicios usando una moneda propia, los “Shares”. Hace poco reencontré la propuesta que remití y, aunque el diseño instruccional gamificado ya es una constante en mi trabajo, me ha parecido un ejemplo bastante completo de cómo implementar elementos de juego en un sistema no lúdico. Total, que decidí traerlo al blog y usarlo de hilo conductor para esta serie de entradas sobre el tema.

De la economía colaborativa a la formación empresarial

El contexto del ejercicio era muy diferente a la puesta en marcha de un plan de formación corporativa, pero el modelo aplicado es genérico y puede trasladarse sin mucho esfuerzo. Además, las estrategias de gamificación están basadas en la psicología del aprendizaje, puesto que su cometido es generar y mantener determinados comportamientos. Desde ese punto de vista, no solo son extensibles a cualquier campo, sino que muchos de sus elementos tienen más vinculación con el mundo de la capacitación en la empresa que con cualquier otro.

El fin de la gamificación es mantener la motivación y reforzar patrones de comportamiento que lleven a conseguir los objetivos de negocio. Aprender tiene normalmente un componente de mejora personal asociado a comportamientos de exploración e interacción con fuentes de nuevos aprendizajes, lo que ya proporciona cierta motivación por defecto. Sin embargo, en la capacitación laboral, la dificultad de integrar aprendizaje y trabajo introduce un elemento, los cursos, que de entrada no motiva ningún tipo de comportamiento favorable a su uso (“hacer un curso” por sí mismo no tiene valor, ya que es su consecuencia lo que buscamos y hay otras formas de aprender -por ensayo y error, o sencillamente preguntando a alguien que sepa-). Dicho en corto, nuestro objetivo es que aprendan a hacer algo con nuestro curso, no por su cuenta, asumiendo que es más eficiente. Un curso es un medio, no un fin en sí mismo, pero que sirva para el fin real depende de su uso, tanto extendido y regular -para evitar que el abandono- como apropiado y significativo -para evitar la falta de efectividad-.

Nuestra estrategia debe por tanto asegurar que los cursos son un elemento significativo para el aprendizaje en el puesto de trabajo. Lo más complejo es que los usuarios perciban que los resultados son proporcionales al esfuerzo invertido, y ahí es donde tenemos que conseguir que los cursos aporten valor. La gamificación puede ayudar doblemente en este caso, reduciendo la percepción de esfuerzo y retroalimentando sobre el progreso.

El “modelo D”

Werbach ha desarrollado su propio modelo para gamificar un proceso, el “D framework”, que tiene 5 pasos, o 5 “D”, porque todos empiezan por esa letra (lo que, dicho sea de paso, no es una mnemotécnica muy buena, porque son verbos bastante intercambiables):

  • Define los objetivos de negocio.
  • Define los comportamientos de los usuarios en los que se basa el modelo de negocio.
  • Describe a tus jugadores.
  • Diseña los bucles de actividad.
  • Diversión (don’t forget the fun).
  • Despliega los elementos apropiados

Es fácil ver que los primeros cuatro elementos tienen una correspondencia casi directa con los de un modelo ágil de diseño instruccional (como el diseño inverso o el Action Mapping); es decir, se puede integrar el modelo de gamificación directamente aprovechando el trabajo ya hecho en el diseño general de la experiencia formativa. Algunos pasos, como la descripción de los jugadores, pueden divergir de la descripción de los usuarios finales que haría para un diseño no gamificado, porque el prisma desde el que se atribuyen las características cambia, pero no tanto como para que no puedan hacerse a la par. A su vez, el diseño de los bucles de actividad es una parte inseparable del diseño de actividades que tendría lugar en el diseño instruccional no gamificado, por lo que es importante tratarlos como un único proceso.

El último paso del diseño de gamificación de Werbach pasa por “contar la historia” de un usuario tipo, es decir, describir su progresión básica por el sistema, en la línea de la descripción del ciclo de vida de un usuario en un entorno de aprendizaje. Hay muchos paralelismos entre un diseño instruccional gamificado y uno que no lo está, porque ambos se basan en la misma premisa: facilitar la experiencia del usuario para maximizar el uso de los medios formativos. La diferencia es sutil, pero importante: una estrategia explícitamente lúdica usa recursos culturalmente asociados con juegos, y esto requiere a su vez conseguir una actitud favorable por parte del usuario.

En una entrada próxima contaré cómo fue mi ejercicio, intentando hacer un paralelismo directo con el diseño de un plan de formación laboral.

El equilibrio entre teoría y práctica en el diseño instruccional

Equilibrio entre teoría y práctica en formación

Conociendo cómo funciona el aprendizaje, probablemente la mejor forma de adquirir nuevas habilidades es practicándolas de forma repetida y espaciada. Conociendo cómo piensan la mayoría de clientes y SMEs, sé que me van a pedir que cualquier experiencia formativa incluya información, “teoría”, de forma explícita.

La práctica por sí sola puede resultar en un aprendizaje mecánico, pero la comprensión de los conceptos emerge si ponemos los medios para que se reflexione sobre ella, a través de preguntas o de afrontar los resultados: si he tenido un desempeño mediocre, lo mejor que puede pasarme (en términos de aprendizaje) es tener que resolver los problemas que esa falta de competencia ha causado.

Este es el modelo tras el aprendizaje basado en problemas, en el que la práctica lleva a la teoría. La teoría tiene su papel, pero es la práctica la que la convierte en operativa. De lo contrario es solo información inconexa. Así que, si necesitas teoría, empieza por la práctica.

Asegúrate de poder justificar bien por qué dejas fuera parte de la teoría. Si es así, no cedas.

Gestiona las expectativas de los SME para prevenir microinfartos

Por supuesto, también pueden comprenderse conceptos a partir de explicaciones, pero entonces hará falta una estrategia de repetición independiente para afianzarlos mejor (al no aparecer en un contexto relevante y generador de interés) y un esfuerzo adicional para enlazarlos con la práctica. En resumen, la transferencia es más laboriosa y requerirá de medios adicionales. En mi experiencia, el uso del análisis de tareas cognitivas para extraer la teoría facilita engarzarla en la práctica de forma fluida. Su estructura permite recoger la información necesaria de un experto con vistas a convertirla directamente en elementos de práctica.

La experiencia de aprendizaje se ve aumentada por la teoría, es decir, por la comprensión de la lógica subyacente a la práctica. No basta con saber hacer, sino que es necesario saber por qué hacerlo así. La forma de conseguirlo es a través de la práctica deliberada, es decir, dirigida a un objetivo concreto, intensiva (practicando no hasta que salga bien, sino hasta que ya no salga mal) y en la que la instrucción va dirigida a la reflexión, no tanto a la acción. Aquí entra en juego el andamiaje, la complejidad progresiva retirando ayudas, la automatización de las habilidades básicas para desarrollar otras más complejas sobre ellas, siendo consciente de cuál es el objetivo, cómo se consigue y por qué hacerlo de una forma y no de otra. Entender la lógica de una tarea permite generalizarla y no paralizarse cuando las circunstancias de ejecución cambian, algo que normalmente ocurre en cualquier entorno laboral.

 

Lo construí y no vienen, o cómo prevenir y combatir el abandono en e-learning

Cómo combatir el abandono en e-learning

El abandono es un problema común en e-learning, y lo normal es achacarlo a cursos de baja calidad, que no responden a necesidades reales de los profesionales. Cuando diseñas una experiencia de aprendizaje buena, de la que estás orgulloso, piensas que nadie la va a dejar pasar, pero eso es obviar la situación real de los usuarios. En un entorno laboral la formación es importante para todos, pero pocas veces urgente, y aprietan más las tareas inmediatas. Un profesional que se las apaña, aun siendo ineficiente, se conforma. Otro que no se apaña ni de lejos, a su vez, está demasiado ocupado apagando fuegos como para tomarse un respiro. En ambos casos hace falta cierta sangre fría para hacer un alto y dedicarle unas horas a un curso.

Desde luego, la primera medida para involucrar a la gente es que la formación sea útil: ayúdales a ser buenos en lo que hacen (o, en una traducción libre de Cathy Sierra, conviérteles en el mínimo usuario molón. Si tu curso no ayuda a la gente, cualquier estrategia de diseño persuasivo no va a ser más que una venta de humo. Dicho esto, hay otros factores que pueden hacer que una formación corporativa no sea popular.

No basta con que esté ahí, ni siquiera si es bueno

Construye tu LMS, pero además difunde su contenido y, sobre todo, haz que sirva para algo.

LMS de sueños

Para que un evento formativo se difunda debe superar un punto de inflexión en el que un número significativo de personas ya ha participado, de forma que el resto perciba que la norma social del grupo es hacerlo. Una buena manera de fomentarlo es dar publicidad a la experiencia de los primeros usuarios, jugando con el heurístico de representatividad del resto. No confundas esta maniobra con exagerar las bondades de la formación: unas expectativas irreales contribuirán al abandono en cuanto no se vean cumplidas. Simplemente recoge la experiencia real de los pioneros y conviértela en mensajes motivadores.

El otro factor clave es el soporte a los usuarios. El e-learning corporativo cada vez se hace más colaborativo, pero hay una buena parte del proceso de aprendizaje que sigue siendo trabajo individual, y no saber por dónde empezar es algo común. Incluye breves instrucciones de orientación o, si es necesario, pequeñas sesiones en vivo. También el aislamiento puede ser un problema cuando algo no queda claro: que haya tutores de referencia para estos casos, presenciales o virtuales, generalmente es una buena idea. El soporte también puede ayudarles a convertirse en aprendices autónomos (favoreciendo la autodisciplina, la gestión del tiempo…), complementando un diseño instruccional que lo favorezca (contenidos breves, suscripción a novedades, recordatorios espaciados…). Estas medidas de soporte requieren monitorizar regularmente la actividad de alumnos y tutores, y hacer seguimiento de las personas en riesgo de abandono o que no se incorporan de entrada. Así se pueden detectar los casos y tener preparadas intervenciones sistemáticas ante alertas concretas.

Por último, la pertenencia a una comunidad de aprendizaje en la que hay interacción frecuente a todos los niveles es uno de los factores que más facilitan la adherencia a la formación corporativa. El aprendizaje social, desde mi punto de vista, puede ser problemático cuando se utiliza como modelo por defecto para todas las experiencias formativas, pero la red de apoyo que genera es probablemente su mejor virtud.

Uso y evaluación de prototipos en e-learning

Uso de prototipos en e-learning

El trabajo con prototipos en diseño instruccional proporciona validaciones tempranas, en estadios en los que a veces el análisis de necesidades formativas ni siquiera está finalizado (la triste e inevitable frecuencia del fast tracking es uno de los motivos por los que ADDIE no me gusta), pero sí tenemos ya información suficiente para hacer propuestas concretas de formato y estructura de contenidos didácticos. Aunque lo idóneo es hacer esta validación con usuarios finales, no es raro que en este primer momento solo participen usuarios avanzados, o a veces incluso directivos.

Los problemas de evaluar un prototipo con usuarios finales son varios (genera expectativas sobre el resultado final, suelen fijarse en detalles y buscan contenido más que uso y presentación) pero prescindir de ellos lo pone más difícil aún. Cuando son usuarios avanzados, expertos y directivos los que validan este trabajo temprano, su atención suele estar en qué cuentas y cómo, en lugar de qué problemas resuelves (que suele ser el foco de los usuarios finales).

Expectativas frente a prototipos en diseño instruccional

Típico resultado de una mala gestión de expectativas ante un prototipo

En estas condiciones, ¿qué tipo de evaluación tiene sentido para un prototipo?

  • Objetivos: normalmente será pronto para una validación de contenidos, pero sí puede verse si los materiales responden a los objetivos de aprendizaje perseguidos. Si quieres que aprendan a hacer una tarea necesitarás recursos para transmitir su lógica, para ver ejemplos y para practicarla, y cada función puede hacerse con un tipo diferente de material (infografías, estudios de caso, prácticas guiadas, escenarios…).
  • Usabilidad: si los usuarios se pierden en el prototipo, seguramente se perderán en los recursos finales (aquí tienes algunas pautas para evitarlo)
  • Estructura del contenido: resulta muy sencillo preparar un prototipo para mostrar cómo será la navegación no ya desde el punto de vista de la usabilidad, sino cómo y cuándo se incluirán conceptos, práctica, evaluaciones, feedback, recapitulaciones, esquemas…
  • Estructura de la información: muy relacionada con la anterior, muestra cómo distintos tipos de información se transmiten de distinta forma: qué va en un esquema (aunque el esquema en sí sea ilustrativo solamente), qué en forma de estudio de caso, qué en forma de ejemplo…

¿Cómo facilitar la evaluación?

  • Crea un prototipo enfocado a los objetivos de aprendizaje que quieres evaluar. Si vas a centrarte en usabilidad y estructura, por ejemplo, que esos dos factores estén bien trabajados, aunque dejes otros por el camino. Recuerda que un prototipo siempre es provisional y deberías tardar en producirlo el tiempo justo para que no te frustre descartarlo, si es necesario. Eso implica recortes.
  • Escoge los indicadores apropiados para medir esos objetivos de aprendizaje, y planea una tarea de evaluación que esté enfocada a recoger esas medidas.
  • Controla las expectativas: deja claro a los usuarios, desde el principio (quizá con un mensaje en el propio material), que es un prototipo, que está incompleto y que procuren centrarse en los objetivos de esta tarea concreta.
  • Automatiza la recogida de datos: si haces el prototipo en una herramienta de wireframes plana (o en powerpoint sin ir más lejos) no podrás sacar mucha información, pero si haces el prototipo directamente con la herramienta de autor que vayas a usar al final, puedes usar los datos que recoja. Es bastante laborioso y solo recomiendo hacerlo si el prototipo está avanzado y la evaluación debe ser muy exhaustiva.

Recuerda que los resultados de la evaluación serán tan fiables como avanzado esté el prototipo, por lo que es importante usarlo para validar solo aquello que refleja claramente (o sea, no tengas en cuenta comentarios sobre el diseño gráfico en un prototipo de estructura de la información, porque va a ser feo seguro). Y sobre todo, calibra el esfuerzo que dedicas a los prototipos con el resultado que vas a obtener, para que te sea más fácil superar la aversión a la pérdida.

Cómo traducir competencias a contenidos: análisis de tareas cognitivas para el diseño instruccional

Empezando el diseño instruccional de un nuevo curso, organizas una reunión con los expertos en la materia, que van a explicarte los objetivos y pormenores de las tareas sobre las que hay que formar… y a) lo primero que recibes es un manual que se disponen a repasar diligentemente, para asegurarse de que “lo entiendes todo” o b) te empiezan a contar cómo hacen las cosas mientras tú tomas nota a toda velocidad. ¿Te suena?

Trabajar con expertos (SMEs) en proyectos de formación y gestión del cambio es necesario para definir los objetivos de aprendizaje y desglosar las tareas que hay que enseñar a hacer. A partir de la información que dan se extraen las competencias que se traducen en recursos didácticos. Pero los expertos suelen tener su propia idea de cómo va a ser ese proceso, y no siempre te facilitará el trabajo. Este es un paso clave en el que el diseño de un curso o plan de formación puede irse al traste, sin que tú te enteres hasta un buen tiempo después, cuando empiezas a ver que la formación no funciona como debería.

Esto es algo muy estudiado en formación sanitaria, donde el análisis de tareas en campos como la cirugía tiene una importancia crucial. El método habitual es que uno o varios expertos desglosen las tareas en pasos que puedan ser comprendidos por un aprendiz, y a partir de esos pasos se genere la secuencia que debe trasladarse a los recursos didácticos. Sin embargo, la evidencia muestra que buena parte del conocimiento de los expertos es implícito, y no son capaces de describir el total de pasos de una tarea o toma de decisiones: tienen automatizada buena parte de la tarea (de otra forma no podrían aumentar la complejidad), y por eso les resulta difícil contar a otros cómo la hacen exactamente.

Típica sesión de trabajo con un SME

Para compensar este déficit en la definición operativa de tareas, una técnica usada es el análisis de tareas cognitivas (o CTA, cognitive task analysis). Consiste en una recogida de información sistemática que ayuda a los expertos a recuperar los pasos de una tarea con menos omisiones de las que tendrían de forma natural. Un aspecto en el que se hace bastante hincapié es que los expertos NO deben ser formadores a su vez, sino profesionales consistentemente buenos en la tarea en cuestión. El resultado se valida después con otros expertos (de 4 a 6 idóneamente) para mejorar la precisión.

Los resultados comparados de usar CTA contra la simple evocación de pasos por los expertos son francamente buenos, así que me gusta usar variantes de esta técnica en función de las circunstancias (no siempre tengo tantos expertos a mano, para empezar). Es útil cuando un diseño didáctico está basado en objetivos de desempeño, centra la teoría en la lógica de los procesos (en lugar de inundar de datos a los alumnos) y trabaja sobre escenarios reales. Lo que debería ser la norma, vaya.

Hay muchos artículos de investigación sobre el tema, pero me gusta el trabajo de Clark et al (2011) porque reúne lo esencial de los modelos principales. Tiene un resumen de cómo extraer información de un experto en seis pasos que me sirve de guía para mis adaptaciones:

  1. Define la secuencia de tareas en el puesto de trabajo (“describe en 30 segundos las acciones y decisiones para lograr el objetivo”):
    1. de fácil a difícil
    2. conocimientos previos que necesitan
    3. riesgos de seguridad
  2. Para cada tarea, describe (con verbos de acción):
    1. contexto (dónde y cuándo)
    2. condiciones y disparadores (qué hace que deba iniciarse la tarea)
    3. secuencia de acciones y decisiones (cómo)
  3. Dime lo que puedas de:
    1. estándares y buenas prácticas
    2. errores de novato
    3. motivación (riesgos y beneficios personales)
  4. Identifica conocimientos conceptuales, si es que son necesarios:
    1. conceptos (terminología y ejemplos)
    2. procesos (cómo se producen los eventos)
    3. principios (qué inicia los eventos)
  5. Lista 5 casos a resolver:
    1. uno para hacer una exposición o demostración
    2. dos más para ejercicios prácticos
    3. otros dos para evaluaciones
  6. Da el documento de CTA a otros expertos para corregirlo.

Aunque no siempre puedo aplicar todos los pasos, o no completamente, sí sistematizan mi recogida de información de manera que al finalizar el proceso tengo cubierta una tabla con:

  1. Objetivos y definición operativa de la tarea
  2. Riesgos y beneficios
  3. Prerrequisitos
  4. Conceptos, procesos y principios relacionados
  5. Acciones y decisiones (pasos)
  6. Problemas

Finalmente, encuentro útil un último paso en el que transformo esta tabla en un checklist, con los pasos, a los que asocio los prerrequisitos, los riesgos y beneficios que puedan reflejarse en resultados, y los problemas que pueden anticiparse. Esta lista me sirve de referencia para el guion de los contenidos formativos, ayudándome a no dejar en el tintero nada importante.

Referencias:

Clark, R.E., Feldon, D., & Yates, K. (2011, April) Using Cognitive Task Analysis to capture expert knowledge and skills for research and instructional design. Workshop presented at the American Educational Research Association, New Orleans, LA

¿Qué es más eficaz al diseñar e-learning para sanitarios?

Recomendaciones en e-learning para sanitarios

La formación en entornos sanitarios responde mejor a ciertos planteamientos, por la propia naturaleza del trabajo de sus profesionales, y el e-learning lleva años siendo una herramienta de uso común. Yo mismo he tenido y tengo la suerte de participar en iniciativas de mucho interés tanto desde el punto de vista técnico como metodológico, que reflejan el interés sostenido que suscita y sus posibilidades de integración en el puesto de trabajo del personal sanitario.

En particular, a la hora de diseñar recursos didácticos, hay una serie de variables que el artículo Instructional Design Variations in Internet-Based Learning for Health Professions Education: A Systematic Review and Meta-Analysis de Cook et al (2010) señala como particularmente eficientes. Los autores realizaron una revisión sistemática de 51 estudios (incluyendo 30 aleatorizados) que cuantificaban el efecto de una intervención basada en teleformación, concluyendo que determinados factores parecen estar asociados con mejores resultados de aprendizaje:

  • Interactividad, entendida como implicación cognitiva en la tarea a través de autoevaluaciones, modelos interactivos o actividades que inciten a la reflexión.
  • Ejercicios prácticos, entendidos como aplicación de conceptos para resolver problemas y casos.
  • Repetición, considerada como experiencia reiterada con los contenidos
  • Feedback como resultado de respuestas a preguntas o de acciones del alumno.

En esta figura presente en el estudio puede verse el efecto agregado de cada uno de los factores:

Tomado de Cook et al (2010)

Tomado de Cook et al (2010)

Son conclusiones que hay que tomar con cautela porque la muestra reveló mucha inconsistencia (como se aprecia en el gráfico), pero no parece descabellado usarlo como referencia teniendo en cuenta que cuadra bien con lo que sabemos acerca del aprendizaje activo y los efectos de la repetición y el feedback en la curva del olvido.

Los autores son prudentes y califican de no concluyentes los resultados sobre otros factores, que me parece interesante valorar aquí:

  • Debates en línea
  • Uso de audio en tutoriales de vídeo
  • Síntesis de la información

Estos tres factores presentan una variabilidad en los resultados que impide concluir un efecto positivo. Lo que sugiere, sin embargo, es que el efecto puede ser positivo si se realiza de forma adecuada. El estudio no entra en este terreno, pero la distribución del efecto en el eje X apunta a que son factores que pueden mejorar mucho los resultados si se usan correctamente. Y, también, que existe un riesgo considerable de usarlas incorrectamente.

Tanto la síntesis de la información como el uso de audio siguen reglas específicas que responden a criterios generales de diseño instruccional, lo que nos da una idea del camino a tomar para caer en la parte derecha del efecto de esas variables. Es interesante ver que el metaanálisis devuelve efectos positivos en las medidas de satisfacción para el uso de audio y la discusión online , y efectivamente es una de las características demandadas por los profesionales.

Como nota final, me gustaría llamar la atención sobre el efecto de los juegos y simulaciones y del debate en línea. Aunque hay una ligera tendencia positiva, lo cierto es que la variabilidad es grande y, a juzgar por el efecto agregado, las posibilidades de hacerlo mal son bastante altas. Parece que la gamificación y las comunidades de aprendizaje son herramientas fáciles de usar mal, lo cual no sorprenderá a nadie teniendo en cuenta lo frecuentemente que se transforma la primera en un mero conjunto de puntos, clasificaciones y logros a desbloquear, y las segundas en unos foros solitarios en los que el debate se ve poco.

Ayudas para traducir la pedagogía al diseño instruccional: checklists

Checklists para control de calidad en e-learning

Al diseñar materiales didácticos, en el fragor de las pequeñas decisiones sobre cómo redactar una frase o dónde colocar un botón, a veces se pierde la visión de conjunto. No es sencillo traducir los principios pedagógicos generales a un diseño instruccional, y eso favorece caer en lugares comunes y formas de hacer que huelen un poco a rancio. ¿Cómo escribir objetivos que transmitan “qué van a sacar de este recurso sobre facturación” en lugar de “qué les voy a contar en este recurso sobre facturación”?

Por este motivo, además de trabajar con prototipos tempranos, encuentro que resulta útil mantener listas de comprobación para repasarlas cada vez que termino una fase de trabajo sobre el contenido. Suelo hacer una para guiar y auditar el diseño de los contenidos y otra para el de los materiales de evaluación, como este par de ejemplos que uso en formación para la gestión del cambio en implantación de aplicaciones informáticas:

Indicadores de calidad en formación en aplicaciones informáticas

Checklist de las pautas para diseño de contenidos

  • Tiene un título sugerente, que relaciona el contenido con necesidades reales.
  • No tiene introducciones innecesarias (no incluye cortinillas repetitivas).
  • Da objetivos del tipo “por qué me conviene ver esto”, que generan interés (por ejemplo aludiendo a un error común, o con una pregunta)
  • Recapitula conceptos anteriores jerárquicamente.
  • Incluye una explicación de la lógica subyacente a los flujos de trabajo que se tratan.
  • Incluye pequeñas actividades sobre contenidos relacionados y jerárquicamente anteriores (bien tratados en el mismo objeto de aprendizaje algo antes, bien en otros), para forzar la recuperación activa y espaciar la práctica. 
  • Tiene una estructura visible y una secuencia de orden clara, tanto en los contenidos como en los textos.
  • Cierra respondiendo a las preguntas planteadas en los objetivos.

Checklist de las pautas de evaluación

  • Evalúa comprensión y no depende de reconocer una respuesta correcta entre otras incorrectas. Por ejemplo: “¿Hay algo mal en esta pantalla?”.
  • Plantea problemas en lugar de preguntas de respuesta simple.
  • Las preguntas obligan a hacer un esfuerzo de evocación.
  • El feedback aparece demorado para forzar a evocar el problema.

En estas listas no aparecen elementos básicos que tengo muy interiorizados (como usar estilo directo y frases cortas, mantener las partes expositivas por debajo de los 5 minutos, seguir los principios básicos de diseño gráfico o dar feedback significativo), sino que se centran en aspectos en los que es más fácil caer en tópicos por demanda del cliente o inercia. Me resultan útiles para mantener la visión de los dos niveles de abstracción: las premisas de “alto nivel”, que orientan el formato, la estructura y el estilo generales de recursos y textos,  y los factores específicos para tomar decisiones concretas de diseño y redacción. Desde luego son una herramienta muy recomendable como apoyo al diseño didáctico, y ayudan a combatir los lugares comunes en el desarrollo de recursos para la formación en el puesto de trabajo.

Impacto de los sistemas de ayuda en el aprendizaje

Sistemas de ayuda al aprendizaje en el puesto de trabajo

Los sistemas de ayuda en el puesto de trabajo (performance support systems) son estructuras de recursos disponibles en el momento y lugar de necesidad, para resolver dudas o problemas que surgen durante las tareas propias de un perfil laboral. He hablado anteriormente de cómo diseñarlos para favorecer la autonomía y reducir la dependencia de formaciones iniciales y de refuerzo.

Si hacemos caso al modelo 70:20:10, la mayoría del aprendizaje se realiza directamente sobre las tareas, a través de la práctica y la corrección de errores. Esto tiene mucho sentido si consideramos que en un entorno real tenemos feedback inmediato y relevante sobre lo que hacemos, y el nivel de activación al acometer tareas nuevas es superior al de un entorno de formación corporativo.

Procesos de aprendizaje mediados por un sistema de ayuda

Más allá del ajuste teórico de los sistemas de ayuda a la forma en que aprendemos en el trabajo, hay varios principios del aprendizaje extraídos de la investigación de campo (eso que llamamos pedagogía basada en la evidencia) que tienen impacto directo en una solución de este tipo:

  • Curva del olvido: cualquier cosa que aprendas se perderá irremediablemente en un tiempo francamente breve a menos que la practiques periódicamente. Si hace dos días que aprendiste a hacer algo y no lo has usado desde entonces, más vale que tengas una guía a mano.
  • Carga cognitiva: hay un límite a lo que podemos hacer a la vez. Tener una parte de ese trabajo en forma de guía reduce las posibilidades de error por distracción.
  • Orden y fragmentación: cuando los recursos están estructurados de forma minimalista y homogénea, ordenados en función de cómo se interrelacionan y son breves, resultan más potentes didácticamente.
  • Atención y contextualización: nada guía mejor la atención que la necesidad, y nada da más relevancia a un contenido que usarlo en el contexto en que es necesario.
  • Aprendizaje activo: un contenido diseñado para usarse sobre la marcha, en plena tarea, estará orientado a la acción y generará aprendizajes más duraderos.
  • Aprendizaje colaborativo: usar el grupo de pares como referencia para ayudar a cada profesional a establecer sus metas de aprendizaje, mediante clasificaciones de carácter no competitivo e identificación de usuarios avanzados que puedan funcionar como mentores.

Precauciones a tener en cuenta

Los sistemas de ayuda no están exentos de riesgos, y su diseño debe estar orientado a reducirlos todo lo posible:

  • Deterioro del aprendizaje: tener un recurso de ayuda siempre a mano reduce la necesidad de recuperación activa, que es una actividad clave para reducir el olvido. Esto puede prevenirse analizando la actividad de los usuarios del sistema, y desencadenando acciones automáticas. Por ejemplo, cuando alguien accede más de 3 veces en una semana al mismo recurso se le puede ofrecer un ejercicio que le permita practicar la tarea sin ayudas y en un entorno seguro.
  • No actualización: un sistema de ayuda supone recursos muy atomizados que requieren actualizaciones frecuentes, y un contenido obsoleto puede llevar a errores. La prevención pasa por una organización concienzuda y procesos sistemáticos de revisión para controlar que todo está al día.

Los sistemas de ayuda son un ajuste necesario para compensar el hecho de que las personas tendemos a fallar al hacer las cosas de memoria. Es un diseño que cubre la parte de errores correspondiente a despistes y a aprendizajes incompletos. Por el contrario, no resuelve errores debidos a malos aprendizajes, malas prácticas o conceptos erróneos, porque cuando una persona consigue su objetivo, aunque sea de forma chapucera, no es habitual que busque cómo hacerlo mejor. Para resolver ese tipo de problemas es mejor tirar de estrategias formales de formación, que pueden proporcionar oportunidades de práctica deliberada en entornos seguros.

¿Qué es xAPI? Resumen no técnico para diseñadores instruccionales

el estándar xAPI en diseño instruccional

Hace ya varios años que xAPI se perfiló como un estándar potente para trazar la actividad de aprendizaje. A lo largo del tiempo se le ha conocido como TinCan o Experience API, y habitualmente se habla de ella como un sustituto de SCORM. Y aunque ha pasado el tiempo aún es habitual encontrarse con perfiles -sobre todo no muy técnicos- que tienen dudas sobre su funcionamiento y, en realidad, sobre qué es exactamente. Aquí recopilo algunos datos generales que pueden ayudar a tomar decisiones sobre ese tipo de trazabilidad en un proyecto de formación corporativa.

xAPI vs SCORM

Que xAPI es un sustituto de SCORM es cierto solo parcialmente. SCORM viene de una época en la que el análisis de datos de formación equivalía a registrar lo que se hacía dentro de un LMS, un paradigma anterior a la demanda masiva de interoperabilidad de hoy día. Es un estándar casi universalmente aceptado, pero tiene muy limitado el tipo de información que transmite. xAPI permite, en potencia, registrar todo lo que se hace fuera del LMS: cursos presenciales, búsquedas en Google, consulta de páginas web, actividad en redes sociales… Además, facilita conectar sistemas externos para que el aprendizaje formal no quede circunscrito a un LMS corporativo.

Así pues, xAPI va sobre interconectar sistemas, no hacer seguimiento de contenidos. Con SCORM puedes saber en qué punto está una persona respecto a un objetivo que, normalmente, se mide en actividades superadas (con más o menos nivel de detalle) dentro de un LMS. Con xAPI es posible conectar esa actividad con otros sistemas que registren, por ejemplo, lo que hace una persona en su trabajo (una aplicación cualquiera que utilice para trabajar). Esto permite relacionar ambas fuentes de datos de dos formas:

  • vincular el rendimiento con la formación: si una persona supera el curso X, es de esperar que se vea una mejora en los registros de las tareas relacionadas con lo aprendido.
  • vincular la formación con el rendimiento: si hay registros que indican que una persona tiene problemas para hacer una tarea (por ejemplo, ha llamado varias veces a un servicio de soporte para preguntar por ella), se le puede ofrecer automáticamente una actividad formativa para reforzarla.

Vale, pero ¿qué es?

xAPI no es software, no es nada instalable ni configurable. Es una especificación, un documento que describe un lenguaje común para comunicar sistemas. La terminología que incluye se refiere a eventos relacionados con el aprendizaje y la formación. Por tanto, un sistema que registre algo que ha hecho un usuario (un vídeo que haya visto, una clase presencial a la que haya asistido…) puede convertirlo en una “sentencia” de este lenguaje común y enviarlo a otro sistema que sea capaz de entenderla.

Para que los sistemas puedan traducir sus datos al estándar xAPI deben contar con una API que entienda esas especificaciones, un elemento de software que pueda hacer de intérprete para los datos que salen y entran. Ese elemento puede existir ya desarrollado (varios LMS incluyen ya una API que lee xAPI), pero muchas veces habrá que desarrollarlo para que nuestros sistemas se hablen entre ellos.

Por ejemplo, si tengo una aplicación de RRHH donde se registra la gente que acude a un seminario, tendré que desarrollar una API que transforme ese dato al estándar xAPI y lo envíe a, pongamos, mi LMS, donde queda registrado junto al resto de información de eventos de aprendizaje de cada persona.

En resumen, mientras que SCORM hace que un paquete de software (un objeto de aprendizaje) se comunique con un LMS, xAPI permite que cualquier sistema se comunique con otro, siempre que ambos cuenten con una API que sepa traducir sentencias a este estándar.

Este envío puede producirse dentro de un sistema corporativo (dentro de un firewall) o a través de internet con una conexión segura, por lo que teóricamente pueden recogerse datos de cualquier sitio que disponga de una API que entienda este estándar.

¿Qué tipo de información maneja?

Básicamente cualquier cosa. Las sentencias de xAPI siguen un esquema persona-verbo-objeto-complementos que puede transmitir virtualmente lo que sea:

  • Alicia abrió el excel “Parte horario”
  • Alicia preguntó “¿Alguien sabe poner contraseña a un excel?” en Yammer
  • Alicia consulto la ayuda de trabajo ‘Cómo cubrir un parte horario‘”
  • Alicia llamó al servicio de soporte técnico el día D a la hora H.
  • Alicia consultó “Manual básico de excel” en la intranet
  • Alicia buscó ‘Cómo poner contraseña a un excel’ en Google
  • Alicia se matriculó en el curso “Excel básico”

Siguiendo la pauta habitual con SCORM, tendríamos los datos del LMS sobre la matrícula y resultados del curso, y los datos que pudiéramos extraer de fuentes indirectas. Sin embargo, con los distintos sistemas enviando información, el conjunto cuenta una historia relevante para el diseño didáctico.

Es importante ver que no estamos hablando exclusivamente de actividades de formación: haciendo que los sistemas hablen entre ellos vinculamos formación con práctica. Esto da alas al apoyo al trabajo in situ, porque puedes, teóricamente, hacer que un sistema informe de que alguien ha hecho mal un determinado flujo de trabajo, para que otro sistema lea eso y ofrezca una ayuda de trabajo adecuada en el momento en que hace falta.

¿Y cuáles son las desventajas?

La principal es el desarrollo que necesita. Al ser un estándar de codificación, si quieres que tus sistemas lo usen tendrás que tener una API que traduzca los datos que manejan de forma nativa a ese estándar. Ya hay APIs para sistemas populares, pero dependiendo de los datos que manejes quizá no se ajusten a lo que necesitas. Si tu sistema dice “Fulanito ha asistido al curso X” y la API está preparada para recibir “Fulanito ha realizado el curso X”, ya no se van a entender. De hecho, el problema más grande es el esfuerzo que requiere para unificar la terminología de cada sistema.

También requiere un sistema de almacenamiento para todos esos datos llamado LRS. El LRS es software que recibe e interpreta las sentencias enviadas por las API y las traduce al estándar xAPI. Puede usarse con conectividad ocasional, y puede registrar cualquier cosa (por ejemplo información de un giroscopio o de un acelerómetro). Puede funcionar como un componente añadido en un LMS, así que no es necesariamente una pieza más a añadir, pero en ese caso posiblemente esté limitado a las posibilidades de explotación de datos que ofrezca el LMS.

Algo a tener en cuenta (realmente no es una desventaja sino una precaución) es que al cruzar los datos de sentencias referidas a aprendizaje con las de resultados de trabajo vamos a encontrar muchas relaciones espurias. “Diez personas asistieron a un seminario y han subido sus ventas” es una conclusión tentadora, pero hay muchas variables que pueden estar mediando en esa relación. Es importante recordar que correlación y causa no son lo mismo, y someter los datos a un análisis riguroso.

Entonces, ¿vale la pena?

En términos de aprendizaje adaptado y de evaluación de impacto es un cambio enorme. Por otro lado, el esfuerzo de construcción es grande también. Desde mi punto de vista, tiene sentido si:

  • tienes varios sistemas que pueden recoger información relevante para la formación.
  • tienes una estrategia de aprendizaje adaptado que pasa por automatizar determinadas sugerencias y recursos personalizados en función de determinadas acciones de un trabajador.
  • tienes una estrategia de evaluación de impacto real.
  • si trabajas con proveedores externos y sus sistemas se ajustan al estándar (para que puedan reportar directamente a tu LRS).

Si tienes interés en profundizar más sobre xAPI, termino con dos recomendaciones: este estupendo MOOC para una visión completa, y este detallado artículo para una visión realista de las posibilidades.

4 consejos más para crear vídeos formativos (tutoriales)

Cómo hacer videotutoriales

Hace tiempo publiqué ocho consejos para crear vídeos didácticos. Eran pautas de diseño instruccional enfocadas a vídeos formativos en general, así que voy a añadir unos pocos más enfocados a tutoriales de ayuda para ofimática.

Uso mucho y desde hace años este tipo de recursos para formación en tecnología sanitaria (uso de historias clínicas electrónicas, por ejemplo), y a estas alturas creo que cuatro simples factores determinan buena parte de la calidad final:

1. Usa una herramienta de autor que te permita editar

No hay nada peor que un puntero de ratón dando vueltas por la pantalla y distrayendo. No te conformes con grabar lo que hay en pantalla y ajusta velocidad y acciones. A veces no basta con recortar, sino que es bueno poder cambiar el movimiento del ratón, acelerar la escritura o intercalar pausas. Captivate es mi elección habitual, pero hay bastantes más y prácticamente cualquiera vale para este tipo de vídeos que no incluyen interacciones complejas.

2. Sustituye el guion por un prototipo

Me gusta trabajar con prototipos: normalmente llevan menos tiempo que escribir un guion y dan una idea mucho más fiel del resultado final. En videotutoriales es especialmente cierto: tardas en grabarlo lo que tardas en ejecutar el flujo en pantalla, y a partir de ahí incluir una locución provisional y algunas etiquetas orientativas es cuestión de poco. Sobre todo, ves claramente si tu idea inicial estaba bien enfocada o no.

3. Graba primero, locuta después

Una voz que va atropellada intentando seguir el ritmo del vídeo, o un vídeo que se para a esperar a que el locutor diga todo lo que tiene que decir, quedan francamente mal. Si sigues el consejo 1 puedes ajustar la velocidad del vídeo para que imagen y sonido fluyan. Graba la locución por partes, pero asegúrate de que no se notan estos cortes (no grabes en distintos lugares, con distinto micro o ruido de ambiente). Practica la locución y prepárate para repetir varias veces la misma frase hasta que quede como te gustaría oirla.

4. No crees un Frankenstein

Tanto si estás guiando paso a paso (ma non troppo) como si quieres mostrar varios caminos posibles, no hagas cortes abruptos ni des saltos no naturales de una pantalla a otra. Si un flujo de trabajo requiere usar más de una aplicación, o distintas partes de la misma, es buena idea intercalar pantallas explicando brevemente este cambio y dando datos de contexto. Procura que estas explicaciones se basen en un caso de ejemplo (que idealmente estarás siguiendo durante todo el vídeo). Puedes plantearte incluir una pequeña secuencia de acción real o animada que deje claro el por qué del cambio.

Recuerda que el resultado final tiene que dejar clara tanto la secuencia de pasos como la lógica que hay detrás (no se trata de que aprendan a pulsar como palomas amaestradas, sino de que entiendan por qué las acciones son esas y no otras)