Planes de formación basados en casos de uso

Un análisis de necesidades siempre es delicado, pero quizá uno de los pasos menos claros es cómo documentarlo adecuadamente para trasladarlo a un plan de formación. Ya he comentado en otras entradas que más que un análisis de necesidades se trata de hacer un análisis de problemas, del que saldrán cuatro cosas:

  • El desfase entre competencias requeridas y actuales.
  • Indicadores para medir el impacto de la formación.
  • Necesidades futuras, previendo carencias a corto y medio plazo.
  • Vías para integrar la formación en el flujo diario de la organización.

Para que salga bien tendremos que contar con buenos interlocutores (fiables y relevantes para darnos la información que nos hace falta: personas con cargo, representantes de colectivos, profesionales de referencia o incluso muestras aleatorias) y trabajar bien los métodos de recogida de información y el procesamiento de los datos.

Extraer los datos relevantes de las distintas herramientas es laborioso, especialmente en el caso de la información recogida en entrevistas y grupos focales, y siempre ayuda un trabajo previo de  estructuraciónm, teniendo en cuenta que lo que buscamos con los datos finales:

  1. Desglosar las competencias genéricas (capacidades y actitudes) y las competencias técnicas requeridas para abordar una tarea específica. Esto es normalmente asimilable a un mapa de puestos de trabajo.
  2. Identificar y cuantificar el desfase entre las competencias requeridas y las actuales.
  3. Determinar cuántos y cuáles de esos desfases pueden abordarse con formación/gestión del conocimiento.
  4. Fijar unos objetivos cuantificables de reducción de ese desfase.
  5. Hacer una segmentación funcional por perfiles, agrupando usuarios según sus necesidades comunes.

Los pasos del 1 al 4, aunque suponen esfuerzo, están bastante claros y tienen buenas guías metodológicas disponibles. El paso 5, en cambio, tiene mucha miga y está menos explorado. Consiste en encontrar puntos comunes entre las necesidades formativas de los distintos perfiles profesionales, de forma que establezcamos una estructura funcional, que puede o no coincidir con el organigrama. Es lo que hace que la formación sea transversal donde debe y específica donde se necesita, y que los recursos sean reutilizables y más eficientes. Permite, por ejemplo, generar recursos de aprendizaje genéricos para  cubrir los conceptos esenciales, y reforzarlos con prácticas dirigidas específicamente.

Si tus competencias no son reales tu plan no vale nada

Yo suelo hacerlo con una doble tarea: primero identificando los flujos de trabajo basándome en el Análisis de Tareas Cognitivas, y, después, extrayendo de esos flujos las competencias, para crear agrupaciones (al estilo de los clusters para la secuenciación de contenidos) que me sirvan como criterio para agrupar también flujos de trabajo relacionados. Es decir, uso los flujos de trabajo como casos de uso de las competencias, y al final tengo una tabla tal que así:

P1 P2 P3 A1 A2 A3 A4 A5 A6
F1 c1 x
c2 x
F2 c1 x
c3 x
F3 c1 c1 c1 x
c4 c4 x
F4 c5 c5 x
c6 x

En este ejemplo, todos los perfiles profesionales (P1, P2 y P3) necesitan una misma competencia c1 para tres flujos de trabajo distintos (F1, F2 y F3). Sin embargo, solo la aplican conjuntamente en F3, que es el único flujo en el que participan todos. Por tanto, esa competencia puede entrenarse conjuntamente para todos usando el flujo de trabajo 3 como hilo conductor del entrenamiento, pero habrá que diseñar entrenamiento específico para los profesionales con perfiles P1 y P2, por separado, puesto que la usan en flujos independientes. Esto quiere decir que, si es posible, diseñaremos primero el entrenamiento del flujo F3 (A1 en la tabla), para que tanto P1 como P2 lleguen al entrenamiento respectivo de F1 y F2 con la competencia c1 ya trabajada. Esto nos permitirá centrarnos en las competencias c2 y c3 para esos flujos, ahorrándonos la parte común de c1 (para la que ese entrenamiento serviría como refuerzo y evaluación). Hay que recordar que en general el aprendizaje es contextualizado y la generalización a otros contextos no es necesariamente fácil.

El lado peligroso de este enfoque es que, al partir de flujos de trabajo, puede acabar demasiado centrado en tareas y perder el enfoque de competencias. Estando pendiente de esa cuestión, tiene la gran ventaja de generar una estructura lógica de la formación, sugiriendo un orden en el trabajo de las competencias y una progresión enlazada directamente con los flujos de trabajo reales, y permite establecer casos de uso transversales, con flujos comunes para distintos perfiles.

 

Planes de formación que cumplen objetivos

Planes de formación que cumplen objetivos

A estas alturas está relativamente extendida la idea de que los planes de formación corporativa no pueden medirse en horas de gente sentada en un aula, sino que deben conseguir algún tipo de impacto en la organización. Es decir, el objetivo de la formación en el puesto de trabajo es conseguir un cambio en el desempeño de unas funciones, y un plan de formación es una hoja de ruta para conseguir un determinado impacto en una organización. Ese impacto se mide en términos de:

  •   Eficacia: la mejora reportada en el desempeño.
  •   Eficiencia: número de horas necesarias (cuanto más bajo, mejor) y calidad percibida (índice de satisfacción).

Las horas empleadas por los profesionales son recursos, igual que las empleadas por el equipo de formación, así que deben plantearse como un indicador a reducir, no a aumentar. Que un plan de formación aumente las horas impartidas puede justificarse porque más gente acceda a los cursos, o porque haya habido un cambio importante que requiera una capacitación masiva. De otra forma, el trabajo de diseño debe tender a optimizar las horas por alumno, es decir, a conseguir impactos significativos con una dedicación cada vez menor por parte de los profesionales. Obviamente esa función tiempo-resultados tiene una asíntota y normalmente habrá un número mínimo de horas necesarias, pero que no sea porque los diseñadores instruccionales nos acomodamos.

La planificación por horas es uno de los varios vicios del diseño de planes formativos, pero hay más:

La organización en cursos es lógica, estructurada y permite compartimentar contenidos, pero cuando trabajamos con competencias las interdependencias resultan complicadas de encasillar. Aún así, como la mayoría de la gente está acostumbrada a ese formato, posiblemente los problemas que causa se resuelven bien. La mayor dificultad es insertar el uso de una estructura por cursos en el día a día laboral, en el que las necesidades se cubren mejor con herramientas que faciliten el aprendizaje informal (comunicación con expertos, herramientas sociales o ayudas de trabajo).

Los objetivos de desempeño son importantes porque evitan caer en el volcado de información, que no es que sea simplemente una mala estrategia, es que puede ser contraproducente si no va, al menos, acompañada de práctica suficiente y bien diseñada. Que alguien tenga ciertas nociones sobre una tarea, no contrastadas mediante la práctica sistemática y monitorizada, puede darle una idea equivocada sobre su propia competencia, haciéndole creer que sabe más de lo que sabe y dando pie a errores y malas prácticas. La medida de una competencia es lo que haces, no lo que presuntamente sabes, así que ese riesgo queda anulado si medimos impacto y no aprendizaje.

Unas pocas acciones ayudan mucho a potenciar esos tres puntos:

  • Dedicar recursos a rastrear problemas de desempeño. Buzones de sugerencias y cuestionarios periódicos, entrevistas con perfiles de coordinación… Lo que es un buen análisis de necesidades. Sobre este tema tienen buen material en la Diputación de Alicante, con la complejidad que tiene la formación en el sector público.
  • Basar el aprendizaje en la práctica con expertos. Los talleres y estudios de caso (presenciales o remotos) tienen mejor tasa de transferencia al puesto de trabajo que las ponencias y presentaciones.
  • Potenciar el uso de herramientas colaborativas. El aprendizaje informal surge en buena medida del contacto entre profesionales, y las oportunidades de mejora aparecen cuando puedes ver cómo hacen las cosas los demás. Por no hablar de las comunidades de práctica, que desde mi punto de vista son el mejor ejemplo de qué pasa cuando la estrategia de formación se enfoca a la solución de problemas y no al aprendizaje per se.
  • Orientar los cursos a la evaluación de impacto: La formación, formal o informal, debe concluir solo cuando ya no hay fallos (no cuando un flujo sale bien una vez durante una evaluación). Para saber cuándo ocurre esto es imprescindible tener indicadores de resultados (no de aprendizaje) que permitan medir la estabilidad de los cambios, tanto percibidos como efectivos, con recogidas de información al mes, semestre y año de la primera capacitación, por ejemplo. Espacia la práctica para reducir el olvido y recuerda que lo que no se usa se pierde.

Sobre todo este tema no puedo dejar de recomendaros que sigáis a Jesús Martínez Marín, a quien tuve ocasión de conocer en 2012, durante un congreso en el que también estaba nada menos que Charles Jennings. Trabaja, por cierto, en el sector público, en el que la innovación en formación parece moverse con más soltura que en algunos departamentos empresariales de L&D.

El papel del soporte en la formación

Formación y sistemas de ayuda en implantación de aplicaciones

Trabajo a menudo con aplicaciones de historia clínica electrónica, y últimamente hay una tendencia muy fuerte a incluir funcionalidades de apoyo a la toma de decisiones clínicas; es decir, cómo aprovechar toda la información contenida en la historia de un paciente para ayudar al personal clínico a elegir cursos de acción. Este apoyo normalmente se integra de forma sutil en los sistemas, como opciones recomendadas a la hora de procesar órdenes médicas o como avisos ante determinadas situaciones (interacciones medicamentosas y alergias son los más comunes, pero básicamente cualquier condición previa del paciente puede ser tenida en cuenta).

La parte interesante desde el punto de vista formativo está en la completa inmersión de la ayuda en el sistema con el que se trabaja, un modelo de cuyo diseño hablé hace un tiempo. Tener ayuda a mano tiene varias ventajas, se identifica de forma consistente como un factor de éxito en las implantaciones de aplicaciones informáticas y, en mi experiencia, tiene el mismo peso específico en la adopción de cualquier nuevo proceso, aunque no esté relacionado con el manejo de ordenadores. En general, la gestión del cambio que mejor resultado obtiene da, al menos, tanto peso al soporte tras el arranque como a la formación anterior a él.

La formación para la gestión del cambio tecnológico es un proceso continuado en el que los mecanismos de retroalimentación y mejora deben estar activos todo el tiempo, alimentando nuevas iniciativas y recursos de mejora de competencias. Tanto las nuevas incorporaciones como el avance de los usuarios veteranos hacia el uso óptimo y la adopción completa conforme a mejores prácticas requieren de un circuito permanente de formación y soporte en el que estos se complementan.

Contenidos específicos y al día

En sistemas complejos, como la historia clínica electrónica, el grado de adaptación a cada organización es tan grande que hasta resulta complicado comparar datos de uso de un mismo sistema entre distintos hospitales. Aunque los proveedores suelen ofrecer algún tipo de formación o materiales genéricos, estos suelen estar creados sobre una versión estándar de los flujos de trabajo, que se parecerá a la que se termina usando, desde luego, pero solo hasta un punto en que esos materiales pueden ser útiles para formar a perfiles técnicos (de soporte, por ejemplo), pero no a usuarios finales. Cada organización tiene sus propios flujos de trabajo que obligan a adaptar los procedimientos estándar. Y, desde luego, un buen diseño didáctico está basado en tareas, por lo que al final será necesario dar igualmente formación específica para explicar qué cosas no están bien en la formación genérica, y el resultado será mediocre como mínimo (por no hablar de los problemas de seguridad que surgen de este tipo de situaciones ambiguas).

Este planteamiento es extensivo a toda la formación, pero especialmente relevante en el caso de las ayudas de trabajo. Estas son específicas por definición (la ayuda es más útil cuanto mejor definido está el flujo de trabajo al que da soporte), por lo que es inevitable desarrollarlas acerca de tareas concretas y, con frecuencia, la mayoría de ellas acaban abordando casos de uso de frecuencia media o baja. La forma de gestionar esos casos, además, tiende a cambiar bastante con el tiempo a medida que se regulan las excepciones y se incorporan a flujos de trabajo generales. Por este motivo unas ayudas de trabajo que no están al día afectan a un número elevado de usuarios a los que, además, se hace menos seguimiento. A las nuevas incorporaciones siempre se las vigila más de cerca y es relativamente fácil ver si están cometiendo errores de uso, pero ¿quién se ocupa de comprobar cómo usa el sistema una persona que lleva años trabajando con él?

La complejidad de un sistema integrado de ayuda está, por tanto, en la detección de necesidades de apoyo, que puede hacerse de forma bastante eficiente con una supervisión proactiva a través de un sistema de explotación de datos de uso de las aplicaciones. El nivel de análisis tiene que ser realmente fino para que malas prácticas no pasen desapercibidas, y complementado con métodos analógicos (las encuestas de toda la vida), pero permite no solo detectar la necesidad de ayudas de trabajo sino identificar los puntos más adecuados donde insertar accesos a documentación específica.

Referencias

Ash, J. S., Stavri, P. Z., & Kuperman, G. J. (2003). A Consensus Statement on Considerations for a Successful CPOE Implementation. Journal of the American Medical Informatics Association : JAMIA10(3), 229–234. 

Estudio de caso: formación en sistemas de información

formación en sistemas informáticos

Durante los últimos meses he trabajado en un piloto de formación en línea en sistemas de información en una organización de gran tamaño. La situación era común: un sistema informático implantado desde hace tiempo pero con deficiencias en su uso, tanto por las nuevas incorporaciones (que reciben formación desigual y no equivalente a la que se proporcionaba cuando se implantó) como por las esperables desviaciones de los flujos de trabajo estándar, a medida que cada profesional resuelve los problemas que van surgiendo como mejor sabe o puede.

Por tanto, el reto no era proporcionar formación de inicio (nunca lo es), sino algo más complejo: reconducir malas prácticas y asegurar que cualquier nuevo profesional se incorpora a su área de trabajo con una competencia mínima suficiente para permitirle progresar de forma autónoma. La formación, por tanto, no va dirigida a generalizar el uso de un sistema, sino a mejorar cómo se usa. Un caso perfecto para poner en práctica un plan de formacion con impacto real, alejado de la estrategia habitual de montar algunos cursos y cruzar los dedos.

Este tipo de proyectos no son habituales, sospecho que por esa tendencia a considerar la formación como un evento con principio y fin dentro de la gestión de un cambio organizacional. Es decir, formas a la gente, aprenden a trabajar según los nuevos procedimientos, y te echas a dormir; algo que solo pasa cuando ni los flujos de trabajo ni el personal cambian (o sea, nunca). Dejar atrás esta mentalidad requiere que alguien en la dirección entienda de que la formación es un proceso longitudinal, con sus etapas y sus formas para cada momento, pero que debe estar ahí mientras haya rotaciones y modificaciones. Algo que felizmente ocurría en este caso.

Diseño de dos vías

Con esa intención de impactar el uso significativo de la herramienta, mi trabajo se centró en diseñar una formación piloto para profesionales que ya la usaban desde hacía años, pero que tenían lagunas considerables, reveladas por las auditorías periódicas. El objetivo que me marqué fue abordar, por un lado, los déficit más obvios, y por otro procurar que el personal fuera lo más autónomo posible para resolver las dificultades que les pudieran surgir, sin comprometer las mejores prácticas a seguir.

Una vez resuelta la ingente labor del análisis de necesidades y de elaborar un mapa de competencias ad hoc (recogiendo información mediante el análisis de tareas cognitivas), el reto principal para reconducir malas prácticas es propiciar el suficiente entrenamiento contextualizado (para facilitar la transferencia) sin reforzar las pautas erróneas que ya están asentadas. Por eso centré el esfuerzo de desarrollo de recursos didácticos en prácticas guiadas sobre situaciones habituales, reconduciendo la forma en que se resolvían y aumentando la autonomía progresivamente. La producción y validación se llevó a cabo mediante prototipos, siguiendo un esquema similar al modelo de aproximaciones sucesivas.

Por otro lado, para reducir el riesgo de nuevas desviaciones opté por un sistema de ayudas de trabajo, accesible desde la propia historia clínica, que diera apoyo en el momento de necesidad, de forma que ante una dificultad no fuera necesario inventarse una solución sobre la marcha.

Este doble planteamiento, pensado especialmente para los usuarios veteranos, es perfectamente válido igualmente para los usuarios nuevos, porque la práctica guiada es muy útil para construir competencias desde cero, y las ayudas just in time (que no van encaminadas al aprendizaje, sino a solución de problemas) proporcionan seguridad.

Además del planteamiento estrictamente formativo diseñé un plan de comunicación y seguimiento, y una evaluación de impacto apoyada en indicadores de uso del sistema, tomando una línea base de uso de varias semanas previas al curso, y comprobando tanto el impacto inmediato tras la formación como la tendencia en las semanas y meses siguientes. Debo decir que pocas veces he visto aumentos porcentuales (¡y estables!) de cuatro dígitos en un indicador, así que estoy particularmente orgulloso de lo conseguido.

Limitaciones y carta a los Reyes Magos

Como en todos los proyectos, el presupuesto marcó ciertos (bastantes) límites. ¿Qué hubiera hecho de forma diferente de tener más medios? La parte estrictamente formativa la hubiera planteado de forma similar, quizá haciendo escenarios más elaborados, pero esencialmente el planteamiento es el correcto en ese contexto, y eso no hay presupuesto que lo altere. Pero tanto ahí como en la parte de ayudas de trabajo, incluir un componente de inteligencia artificial seguramente hubiera aumentado el impacto del proyecto (que ya fue bastante bueno de por sí):

  • Un chatbot como vínculo entre la aplicación y las ayudas de trabajo, para resolver dudas formuladas como preguntas naturales, que resuelva el eterno problema de que la gente busca las cosas desde distintas perspectivas, con expectativas diferentes y usando palabras clave muy variadas. ¿Qué mejor que una pequeña IA que reconoce lo que quieres y te lo trae a la mano, o al menos te señala dónde mirar?
  • Un LMS predictivo, vinculado a las estadísticas de uso del sistema, que sugiera recursos formativos en función de las necesidades actuales y previstas de cada profesional. Esto cada vez es más fácil de alcanzar y facilita incluir elementos de gamificación de la buena, así que un poco más de potencia en la parte de learning analytics no hubiera venido nada mal.

La continuidad de un proyecto así pasa por ampliar su escala para atender las necesidades de las nuevas incorporaciones. La forma en que está planteado hace que el escalado sea relativamente sencillo, siendo la mayor dificultad mantener un nivel adecuado de eficiencia en la producción: maximizar los recursos compartidos por varios tipos de profesionales, y reducir al mínimo los específicos sin perder la imprescindible contextualización. Espero poder hacer una entrada dentro de un tiempo contando los resultados, y que sean igualmente satisfactorios 🙂

 

El andamiaje en los planes de formación corporativa

Andamiaje en plan de formación corporativa

Resulta bastante intuitivo hacer un diseño instruccional por niveles de dificultad (siguiendo a Reigeluth, o el axioma piagetiano de ir de lo general a lo específico). Sin embargo, no todo el mundo tiene claro por qué debe ser así. ¿Sería problemático trabajar primero con tareas específicas para luego engranarlas en una estructura mayor? Al fin y al cabo, el pensamiento formal sobre una temática también se construye a partir de conceptos específicos (no solo tienes que entender la lógica de la tarea, sino tener los conocimientos concretos que te permiten ponerla en práctica).

Posiblemente el razonamiento más válido para no romper con este principio es que facilita andamiar el progreso de los aprendices. Una vez dominado un proceso simple, mediante prácticas guiadas y ejemplos, resulta fácil quitar progresivamente apoyos para sustituirlas por otras dedicadas a profundizar en niveles o casuísticas más difíciles de ejecutar. De esta forma, mantenemos la asistencia mientras es necesaria, pero procuramos la automatización de los flujos de trabajo ya practicados, centrando el apoyo en los nuevos.

Ahora, ¿qué tipo de asistencia puedo dar y retirar en cada momento? Si necesito establecer niveles de dificultad para planificar el andamiaje, puedo organizar los contenidos siguendo un gradiente de complejidad dependiente del tipo de procesamiento que trabajan:

  • conceptual (¿qué es esto?)
  • estructural (¿cómo es?)
  • causal (¿cómo funciona?)

Así, si quiero ir retirando paulatinamente apoyos en los contenidos, para que los aprendices ganen autonomía y se hagan con la tarea, empezaré quitando ayudas conceptuales, luego las estructurales y, finalmente, las causales. Con este último paso no solo tengo una lista de recursos, sino una guía para su estructura interna: primero trabajo el concepto, luego la estructura y luego el funcionamiento.

El andamiaje tiene valor propio como facilitador del proceso de aprendizaje, pero tiene la ventaja adicional de que arrastra de forma muy natural hacia un diseño instruccional basado en la construcción progresiva de habilidades, en la automatización creciente y en la práctica deliberada. Además, encaja muy bien con la definición de flujos de trabajo a través del análisis de tareas cognitivas, a partir del que pueden diseñarse casi directamente los apoyos para cada tarea. Es una buena muestra de que las técnicas de un buen diseño instruccional no se implementan de forma aislada, sino que se retroalimentan unas a otras para dar una solución con sentido global.

El diseño instruccional en la gestión del cambio

Diseño instruccional y gestión del cambio

Me gusta trabajar en proyectos de gestión del cambio, apoyando al cliente para que aprenda a volar solo. La formación es uno de los pilares de la gestión del cambio, y todo el mundo tiene claro que debe estar incluida, pero hay una tendencia a tratarla como una intervención con principio y fin: se enseña (en el mejor de los casos, en el peor simplemente se muestra) a la gente cómo trabajar bajo las nuevas circunstancias, y a correr. Sin embargo, simplemente por la incorporación y movimiento de profesionales, necesariamente es una labor sostenida; con otra intensidad, desde luego, pero sin final.

Para traspasar a un cliente el peso de la formación, la estrategia habitual es localizar a un número de profesionales de la organización con ciertas características y habilidades (competentes, con capacidad de liderazgo, empáticos…) para convertirles en expertos en el nuevo entorno de trabajo (con la etiqueta de internal champions, superusuariosreferentes). Mi postura es que no solo necesitas profesionales competentes, sino divulgadores competentes capaces de planificar una formación siguiendo prácticas eficaces de diseño instruccional. Es decir, no solo tienen que conocer los nuevos procesos y tareas, sino ser capaces de transmitirlos de modo eficiente y juzgar si una formación está bien estructurada o no. Esto implica que deben entender y saber cómo actuar sobre los mecanismos de aprendizaje, tomando decisiones razonadas sobre cómo usar las herramientas que tengan disponibles.

Darles la competencia mínima necesaria

¿Cuáles son los principios elementales que deberían quedarles grabados a fuego? Independientemente del tipo de proyecto y de la naturaleza de las tareas, hay ciertas formas de plantear la formación que tienen sentido siempre. Nuestro trabajo es que estas personas de referencia se empapen bien de ellas y sepan cuándo y cómo aplicarlas convenientemente, para que cuando termine nuestro trabajo puedan tomar decisiones fundamentadas.

Aunque hay muchos factores importantes yo, normalmente, pongo el foco en estos cuatro conceptos que, tomados como guía, producen planes de formación con impacto relevante. Pueden trasladarse a la práctica de varias formas; aquí hago algunas sugerencias que dan buen resultado:

  1. El sentido de la formación es conseguir resultados. Cuando planifiquen un nuevo curso, que establezcan objetivos de trabajo, es decir, resultados comprobables directamente relacionados con las tareas de los profesionales. Luego tendrán que identificar qué tienen que saber hacer para conseguirlo. Estas competencias constituirán los objetivos de aprendizaje.
  2. El aprendizaje se construye y se consolida con la práctica. Que la formación proporcione oportunidades de práctica, con la teoría en un papel subordinado. Acción y reflexión en lugar de recepción de información.
  3. Lo aprendido se olvida, así que conviene que la práctica esté espaciada. Hay que reservar un porcentaje de sesiones de formación para distribuirlas en el tiempo, con intervalos de días primero y de semanas después. Que no den por aprendido un tema solo porque llegó la fecha de cerrarlo.
  4. Solucionar errores es una buena forma de aprender. Proporciona un entorno seguro en el que cometerlos y, más que prevenirlos, muéstrales sus consecuencias y su resolución. Luego repite la práctica las veces que sea hasta que no haya errores.

Hay varios más que podrían incluirse (diseñar escenarios realistas, hacer seguimiento y dar soporte, incluir interactividad significativa en materiales e-learning, incluir sistemas de ayuda bien diseñados, evaluar indicadores relevantes…) pero estos cuatro dan cuenta, probablemente, del mayor porcentaje de éxito de la formación para la gestión del cambio. Aunque no hay por qué pasar por alto los demás, si tengo que escoger en cuáles centrar mi esfuerzo, la lista es esa.

Incorporar esta perspectiva a los procesos de trabajo

La mejor manera de formar al grupo de expertos, desde luego, es a través de la práctica. Su propia formación debe responder a este conjunto de principios, de manera que los interioricen, y además conviene que tomen parte en el desarrollo de la estrategia de formación para los usuarios de a pie. La metacognición, es decir, que sean conscientes de sus propios procesos de aprendizaje durante el entrenamiento inicial, es la vía para que luego puedan aplicarlos adecuadamente.

El mensaje más importante, que debe quedar grabado a fuego, es que un plan de formación no es un curso en un aula, o unos manuales en un repositorio, o unos vídeos en un LMS, y que no se mide por cuántas de esas cosas se hacen. Se mide por sus consecuencias sobre el día a día de los trabajadores, así que debe incluir lo que sea necesario para que tenga impacto. Cualquier otra opción es tirar el dinero.

Los riesgos de la gamificación

Para terminar con esta pequeña serie sobre diseño instruccional gamificado (puedes ver mi planteamiento aquí y aquí), creo que es importante dedicar un espacio a los problemas que genera confundir motivación y superación de actividades con aprendizaje.

El diseño persuasivo es útil porque aumenta la actividad y la adherencia, el enganche. Sin embargo, tenemos que tomar dos precauciones:

  • El tipo de actividad: no necesitamos solo más actividad, sino mejor actividad. Se trata de mejorar la implicación cognitiva, el compromiso con la tarea que tienen delante. No se trata simplemente de añadir diversión para que aguanten más tiempo, sino de añadir dificultades que generen interés, es decir, el tipo de actividad que requiere más esfuerzo pero que, a la vez, hace que quieran dedicar ese esfuerzo.
  • La medición de esa actividad: los puntos, insignias y clasificaciones nos dan una medida de lo que el usuario progresa en el sistema, pero no de cuánto aprende. La medida relevante son siempre los resultados del aprendizaje, es decir, los indicadores de negocio que nos dicen si alguien hace su trabajo mejor que antes o no. Por tanto, medir la actividad en el sistema nos sirve únicamente para después establecer correlaciones entre esos valores y las competencias, ayudándonos a saber si la gamificación aportó algo al aprendizaje; pero la actividad en el juego no es una medida de competencia en sí misma.

Lástima que «salvar el mundo de invasores alienígenas» no esté entre las competencias del puesto

Un entorno de formación gamificado da tanta información sobre avances y actividad, y proporciona una imagen tan detallada del estado de un usuario, que es fácil perder la perspectiva y creerse que eso tiene valor real. Con todo, sí es posible que un diseño lúdico sí contribuya directamente al aprendizaje, como parte de una inteligencia artificial de bajo nivel que use el registro de actividad para sugerir recursos e itinerarios, proponer retos y prever la probable progresión futura. En este contexto, los puntos y los requisitos para avanzar en el sistema, las insignias y demás son solo la cara visible y el alimento de este análisis predictivo.

Lo más importante es no perder de vista que la gamificación del diseño instruccional es un medio para conseguir competencias profesionales, no para mejorar la adherencia a la formación como fin último. Si a base de puntos e insignias todo el mundo hace nuestros cursos pero eso no se traslada a las habilidades profesionales, estamos perdiendo el tiempo.

¿Es bueno guiar paso a paso?

Una de las primeras decisiones al diseñar un plan de formación afecta al tipo de experiencia que vivirán los participantes; es decir, definir cómo se relacionarán con los recursos disponibles. La ortodoxia del momento exige que esa aproximación sea constructivista, es decir, que no haya tanto una guía como una facilitación. Normalmente, esto quiere decir que se dan una serie de premisas de partida y asistencia bajo demanda, pero se deja la extracción de conclusiones y conceptos al alumno. Pero, ¿es siempre la mejor opción?

Cómo enseñar a dar dos pasos en cinco pasos

«Aprenda a dar dos pasos en cuatro sencillos pasos»

Lo que dice la evidencia

La investigación al respecto sugiere que es más eficiente alternar esa resolución de problemas con prácticas guiadas, incluyendo explicaciones que el alumno pueda relacionar con sus conocimientos previos y que ayuden a hacer más explícita esa comprensión de conceptos. El problema viene en los mil matices que hay al decidir cuántas indicaciones son muchas, y cuándo “facilitar” se convierte en “guiar”.

El artículo “How much is too much? Learning and motivation effects of adding instructional explanations to worked examples” arrojó algo de luz en este campo, con una serie de conclusiones sobre de hasta qué punto se podía incentivar el aprendizaje de conceptos, mediante la omisión de instrucciones en esas prácticas guiadas (worked examples). Las conclusiones sugieren que omitir las instrucciones, siempre que existan suficientes conocimientos previos, favorece el desarrollo de auto-explicaciones y una mejor comprensión de los conceptos, a través de inferencias, conexión de ideas y re-estructuración del conocimiento.

El matiz de que son necesarios conocimientos previos es importante, porque el papel de la instrucción directa en aprendices sin experiencia previa en una competencia también tiene base empírica (como el provocador y, francamente, tendencioso artículo de Kirschner sobre por qué se supone que el aprendizaje por descubrimiento no funciona). Por tanto, ¿cuándo son necesarias las explicaciones, y cuántas son demasiadas?

Como es habitual, la conclusión que se desprende de las distintas evidencias es que una sola aproximación metodológica, sea constructivista o instrucción directa, no es una buena idea (o “las llamadas teorías y metodologías del aprendizaje son, en el mejor de los casos, orientaciones, y, en el peor, charlatanería”). La instrucción directa tiene su papel, pero el movimiento más sensato parece ser ofrecerla únicamente en prácticas guiadas para aprendices de nivel elemental, y eliminarlas para aprendices con conocimientos previos suficientes, volcando en ambos casos el peso didáctico en la resolución de casos sin guía.

Entonces, ¿nada de instrucción directa?

La evidencia pedagógica siempre está fuertemente influenciada por las condiciones en que se obtiene, por lo que, más que dictar cómo diseñar una acción formativa, debe servir de orientación, teniendo en cuenta las diferencias de contexto.

La ausencia de instrucción directa es un enfoque que me gusta, y me parece que una retroalimentación bien planteada debería ser suficiente; sin embargo, estamos tan habituados a que nos cuenten cómo hacer las cosas, que dejar de hacerlo da cierto vértigo. Para suavizar esa sensación que pueden tener los alumnos de estar trabajando sin red, suelo compensar la falta de instrucción directa con tres recursos:

  • Recapitulación final: tras cada caso, la retroalimentación sobre el resultado incluye poner negro sobre blanco la lógica subyacente al problema, normalmente en forma de diagrama, para facilitar la comprensión de los pasos básicos. Es importante que refleje el camino del aprendiz, variando en función de cómo haya resuelto el caso, y que ofrezca explorar alternativas más eficientes, si las hubiera.
  • Repetición: la práctica demorada no solo sirve para afianzar el recuerdo, sino que en este caso obliga a redescubrir esa auto-explicación y, frecuentemente, perfeccionarla.
  • Material informativo de libre disposición: nunca será el núcleo del curso, pero cubrir la posibilidad de que alguien no tenga los conocimientos de partida que dabas por supuestos con algunos recursos para consultar (accesibles donde y cuando puedan ser necesarios) puede echarle la mano que necesita.

Hacerlo de este modo lleva a tener más práctica formal durante la formación y más información disponible bajo demanda, estrictamente para cuando haga falta, que es el modelo general en el que confío.