Indicadores de aprendizaje en entornos virtuales

Este post empieza mal, porque realmente no habla de indicadores de aprendizaje, sino de indicadores de formación, y tampoco es que sean reflexiones que solo afectan a entornos virtuales. El aprendizaje tal y como lo entendemos en este contexto no es fácilmente medible, como mucho podemos tener sustitutos (proxies), medidas relacionadas que nos dan una idea sobre si efectivamente se produjo o no. Pero, igualmente, en formación corporativa el aprendizaje tampoco es nuestra meta: lo que buscamos es el desempeño, la mejora en la forma en que se llevan a cabo las tareas y que, a su vez, repercute en los objetivos que se alcanzan. Queremos que la gente sea buena en lo que hace y para eso, a veces, lo que hace falta es que aprendan. Y para que aprendan, a veces, hay que formarles.

Una evaluación no mide, por tanto, el aprendizaje, sino la capacidad de una persona para poner en práctica una habilidad en un contexto concreto. O, como escribe Will Thalheimer, “la capacidad para recordar información específica sobre antenas mientras están sentados con sus compañeros en el aula azul el 1 de abril de 3 a 4 de la tarde”.

Dicho esto, esas medidas sustitutas pueden ser suficientemente buenas como para informar el diseño instruccional y conseguir mejoras. El uso de herramientas y materiales, la implicación en las tareas, los resultados obtenidos y el uso de recursos de apoyo son algunos grandes grupos de los que podemos intentar sacar conclusiones, siempre teniendo en cuenta que el indicador se basa en evidencia, es decir, tenemos que tener pruebas de que ocurrió lo que decimos. La implicación en las tareas o el seguimiento de una conferencia solo pueden medirse si tenemos un producto de ese proceso (como puede ser un entregable, una colección de mensajes, un historial de ediciones de un documento…).

Los indicadores, en cualquier caso, deben estar alineados con la aproximación pedagógica que se sigue, por dos motivos: comprobar que la estamos aplicando correctamente, y saber si funciona. Es decir, como mi concepción del proceso de aprendizaje va a determinar el tipo de recursos y herramientas que utilizo (si creo que la interacción con pares lo facilita procuraré que las tareas tengan una vertiente social), tendré que establecer indicadores que midan esa alineación (veré si interactuaron o no entre sí y trataré de comprobar cómo impactó eso en el resultado).

Con esta información recogida podemos tomar decisiones sobre el tipo de actividades didácticas que se requieren. Así, poco uso de los recursos de apoyo puede querer decir que no los necesitan (si el resto de indicadores son buenos) o que no son suficientes o no están bien planteados (si los resultados son pobres, es decir, si necesitan ayuda pero no la piden). Una recurrencia alta en el uso de las actividades puede sugerir que son demasiado complejas o que se usan como material de referencia, lo que puede ser bueno o malo dependiendo de si era lo que se pretendía.

Ya se ve que el indicador por sí mismo no dice gran cosa, porque siempre tiene que tener una medida de comparación. Una línea base o una distribución esperada de las mediciones pueden funcionar como criterios de contraste a la hora de sacar conclusiones. Las líneas base suelen ser más sencillas de conseguir, pero también resulta más complicado determinar si el impacto es adecuado o no; es decir, sí podemos saber si ha habido un impacto significativo, pero no (o más difícilmente) cuánto se parece al óptimo que queríamos conseguir. Contar con un modelo al que aspiramos que se parezcan nuestros resultados nos puede dar esa información verificando el ajuste entre él y nuestros resultados. El problema es que estos modelos son difíciles de determinar a menos que tengamos datos de experiencias anteriores. No hay mucha investigación sobre patrones de seguimiento de cursos, menos que proporcionen relaciones causales con el resultado, y menos aún que se refieran a cursos de corta duración. Sin embargo no es descabellado establecer una relación tentativa entre seguimiento y resultados dados ciertos parámetros (ajuste a conocimientos previos y validez interna de la evaluación, al menos) que nos puede ayudar a dibujar un patrón esperado y a tomar medidas cuando hay desviaciones individuales que no responden a otros factores identificables.

En cualquier caso, el indicador definitivo nos lo debe dar la transferencia del aprendizaje, y este es quizá el más complicado de obtener. Se trata esencialmente de comprobar si el presunto aprendizaje puede saltar del contexto en el que se produjo al contexto en el que la habilidad es necesaria. Hay habilidades que se prestan más a recoger mediciones cuantitativas, pero encuentro que métodos de evaluación cualitativa como el del caso de éxito de Brinkerhoff son de gran ayuda para estimar el impacto real de un programa formativo en más dimensiones que la de estricto incremento productivo a corto plazo.

Planes de formación que cumplen objetivos

Planes de formación que cumplen objetivos

A estas alturas está relativamente extendida la idea de que los planes de formación corporativa no pueden medirse en horas de gente sentada en un aula, sino que deben conseguir algún tipo de impacto en la organización. Es decir, el objetivo de la formación en el puesto de trabajo es conseguir un cambio en el desempeño de unas funciones, y un plan de formación es una hoja de ruta para conseguir un determinado impacto en una organización. Ese impacto se mide en términos de:

  •   Eficacia: la mejora reportada en el desempeño.
  •   Eficiencia: número de horas necesarias (cuanto más bajo, mejor) y calidad percibida (índice de satisfacción).

Las horas empleadas por los profesionales son recursos, igual que las empleadas por el equipo de formación, así que deben plantearse como un indicador a reducir, no a aumentar. Que un plan de formación aumente las horas impartidas puede justificarse porque más gente acceda a los cursos, o porque haya habido un cambio importante que requiera una capacitación masiva. De otra forma, el trabajo de diseño debe tender a optimizar las horas por alumno, es decir, a conseguir impactos significativos con una dedicación cada vez menor por parte de los profesionales. Obviamente esa función tiempo-resultados tiene una asíntota y normalmente habrá un número mínimo de horas necesarias, pero que no sea porque los diseñadores instruccionales nos acomodamos.

La planificación por horas es uno de los varios vicios del diseño de planes formativos, pero hay más:

La organización en cursos es lógica, estructurada y permite compartimentar contenidos, pero cuando trabajamos con competencias las interdependencias resultan complicadas de encasillar. Aún así, como la mayoría de la gente está acostumbrada a ese formato, posiblemente los problemas que causa se resuelven bien. La mayor dificultad es insertar el uso de una estructura por cursos en el día a día laboral, en el que las necesidades se cubren mejor con herramientas que faciliten el aprendizaje informal (comunicación con expertos, herramientas sociales o ayudas de trabajo).

Los objetivos de desempeño son importantes porque evitan caer en el volcado de información, que no es que sea simplemente una mala estrategia, es que puede ser contraproducente si no va, al menos, acompañada de práctica suficiente y bien diseñada. Que alguien tenga ciertas nociones sobre una tarea, no contrastadas mediante la práctica sistemática y monitorizada, puede darle una idea equivocada sobre su propia competencia, haciéndole creer que sabe más de lo que sabe y dando pie a errores y malas prácticas. La medida de una competencia es lo que haces, no lo que presuntamente sabes, así que ese riesgo queda anulado si medimos impacto y no aprendizaje.

Unas pocas acciones ayudan mucho a potenciar esos tres puntos:

  • Dedicar recursos a rastrear problemas de desempeño. Buzones de sugerencias y cuestionarios periódicos, entrevistas con perfiles de coordinación… Lo que es un buen análisis de necesidades. Sobre este tema tienen buen material en la Diputación de Alicante, con la complejidad que tiene la formación en el sector público.
  • Basar el aprendizaje en la práctica con expertos. Los talleres y estudios de caso (presenciales o remotos) tienen mejor tasa de transferencia al puesto de trabajo que las ponencias y presentaciones.
  • Potenciar el uso de herramientas colaborativas. El aprendizaje informal surge en buena medida del contacto entre profesionales, y las oportunidades de mejora aparecen cuando puedes ver cómo hacen las cosas los demás. Por no hablar de las comunidades de práctica, que desde mi punto de vista son el mejor ejemplo de qué pasa cuando la estrategia de formación se enfoca a la solución de problemas y no al aprendizaje per se.
  • Orientar los cursos a la evaluación de impacto: La formación, formal o informal, debe concluir solo cuando ya no hay fallos (no cuando un flujo sale bien una vez durante una evaluación). Para saber cuándo ocurre esto es imprescindible tener indicadores de resultados (no de aprendizaje) que permitan medir la estabilidad de los cambios, tanto percibidos como efectivos, con recogidas de información al mes, semestre y año de la primera capacitación, por ejemplo. Espacia la práctica para reducir el olvido y recuerda que lo que no se usa se pierde.

Sobre todo este tema no puedo dejar de recomendaros que sigáis a Jesús Martínez Marín, a quien tuve ocasión de conocer en 2012, durante un congreso en el que también estaba nada menos que Charles Jennings. Trabaja, por cierto, en el sector público, en el que la innovación en formación parece moverse con más soltura que en algunos departamentos empresariales de L&D.

El papel del soporte en la formación

Formación y sistemas de ayuda en implantación de aplicaciones

Trabajo a menudo con aplicaciones de historia clínica electrónica, y últimamente hay una tendencia muy fuerte a incluir funcionalidades de apoyo a la toma de decisiones clínicas; es decir, cómo aprovechar toda la información contenida en la historia de un paciente para ayudar al personal clínico a elegir cursos de acción. Este apoyo normalmente se integra de forma sutil en los sistemas, como opciones recomendadas a la hora de procesar órdenes médicas o como avisos ante determinadas situaciones (interacciones medicamentosas y alergias son los más comunes, pero básicamente cualquier condición previa del paciente puede ser tenida en cuenta).

La parte interesante desde el punto de vista formativo está en la completa inmersión de la ayuda en el sistema con el que se trabaja, un modelo de cuyo diseño hablé hace un tiempo. Tener ayuda a mano tiene varias ventajas, se identifica de forma consistente como un factor de éxito en las implantaciones de aplicaciones informáticas y, en mi experiencia, tiene el mismo peso específico en la adopción de cualquier nuevo proceso, aunque no esté relacionado con el manejo de ordenadores. En general, la gestión del cambio que mejor resultado obtiene da, al menos, tanto peso al soporte tras el arranque como a la formación anterior a él.

La formación para la gestión del cambio tecnológico es un proceso continuado en el que los mecanismos de retroalimentación y mejora deben estar activos todo el tiempo, alimentando nuevas iniciativas y recursos de mejora de competencias. Tanto las nuevas incorporaciones como el avance de los usuarios veteranos hacia el uso óptimo y la adopción completa conforme a mejores prácticas requieren de un circuito permanente de formación y soporte en el que estos se complementan.

Contenidos específicos y al día

En sistemas complejos, como la historia clínica electrónica, el grado de adaptación a cada organización es tan grande que hasta resulta complicado comparar datos de uso de un mismo sistema entre distintos hospitales. Aunque los proveedores suelen ofrecer algún tipo de formación o materiales genéricos, estos suelen estar creados sobre una versión estándar de los flujos de trabajo, que se parecerá a la que se termina usando, desde luego, pero solo hasta un punto en que esos materiales pueden ser útiles para formar a perfiles técnicos (de soporte, por ejemplo), pero no a usuarios finales. Cada organización tiene sus propios flujos de trabajo que obligan a adaptar los procedimientos estándar. Y, desde luego, un buen diseño didáctico está basado en tareas, por lo que al final será necesario dar igualmente formación específica para explicar qué cosas no están bien en la formación genérica, y el resultado será mediocre como mínimo (por no hablar de los problemas de seguridad que surgen de este tipo de situaciones ambiguas).

Este planteamiento es extensivo a toda la formación, pero especialmente relevante en el caso de las ayudas de trabajo. Estas son específicas por definición (la ayuda es más útil cuanto mejor definido está el flujo de trabajo al que da soporte), por lo que es inevitable desarrollarlas acerca de tareas concretas y, con frecuencia, la mayoría de ellas acaban abordando casos de uso de frecuencia media o baja. La forma de gestionar esos casos, además, tiende a cambiar bastante con el tiempo a medida que se regulan las excepciones y se incorporan a flujos de trabajo generales. Por este motivo unas ayudas de trabajo que no están al día afectan a un número elevado de usuarios a los que, además, se hace menos seguimiento. A las nuevas incorporaciones siempre se las vigila más de cerca y es relativamente fácil ver si están cometiendo errores de uso, pero ¿quién se ocupa de comprobar cómo usa el sistema una persona que lleva años trabajando con él?

La complejidad de un sistema integrado de ayuda está, por tanto, en la detección de necesidades de apoyo, que puede hacerse de forma bastante eficiente con una supervisión proactiva a través de un sistema de explotación de datos de uso de las aplicaciones. El nivel de análisis tiene que ser realmente fino para que malas prácticas no pasen desapercibidas, y complementado con métodos analógicos (las encuestas de toda la vida), pero permite no solo detectar la necesidad de ayudas de trabajo sino identificar los puntos más adecuados donde insertar accesos a documentación específica.

Referencias

Ash, J. S., Stavri, P. Z., & Kuperman, G. J. (2003). A Consensus Statement on Considerations for a Successful CPOE Implementation. Journal of the American Medical Informatics Association : JAMIA10(3), 229–234. 

Estudio de caso: formación en sistemas de información

formación en sistemas informáticos

Durante los últimos meses he trabajado en un piloto de formación en línea en sistemas de información en una organización de gran tamaño. La situación era común: un sistema informático implantado desde hace tiempo pero con deficiencias en su uso, tanto por las nuevas incorporaciones (que reciben formación desigual y no equivalente a la que se proporcionaba cuando se implantó) como por las esperables desviaciones de los flujos de trabajo estándar, a medida que cada profesional resuelve los problemas que van surgiendo como mejor sabe o puede.

Por tanto, el reto no era proporcionar formación de inicio (nunca lo es), sino algo más complejo: reconducir malas prácticas y asegurar que cualquier nuevo profesional se incorpora a su área de trabajo con una competencia mínima suficiente para permitirle progresar de forma autónoma. La formación, por tanto, no va dirigida a generalizar el uso de un sistema, sino a mejorar cómo se usa. Un caso perfecto para poner en práctica un plan de formacion con impacto real, alejado de la estrategia habitual de montar algunos cursos y cruzar los dedos.

Este tipo de proyectos no son habituales, sospecho que por esa tendencia a considerar la formación como un evento con principio y fin dentro de la gestión de un cambio organizacional. Es decir, formas a la gente, aprenden a trabajar según los nuevos procedimientos, y te echas a dormir; algo que solo pasa cuando ni los flujos de trabajo ni el personal cambian (o sea, nunca). Dejar atrás esta mentalidad requiere que alguien en la dirección entienda de que la formación es un proceso longitudinal, con sus etapas y sus formas para cada momento, pero que debe estar ahí mientras haya rotaciones y modificaciones. Algo que felizmente ocurría en este caso.

Diseño de dos vías

Con esa intención de impactar el uso significativo de la herramienta, mi trabajo se centró en diseñar una formación piloto para profesionales que ya la usaban desde hacía años, pero que tenían lagunas considerables, reveladas por las auditorías periódicas. El objetivo que me marqué fue abordar, por un lado, los déficit más obvios, y por otro procurar que el personal fuera lo más autónomo posible para resolver las dificultades que les pudieran surgir, sin comprometer las mejores prácticas a seguir.

Una vez resuelta la ingente labor del análisis de necesidades y de elaborar un mapa de competencias ad hoc (recogiendo información mediante el análisis de tareas cognitivas), el reto principal para reconducir malas prácticas es propiciar el suficiente entrenamiento contextualizado (para facilitar la transferencia) sin reforzar las pautas erróneas que ya están asentadas. Por eso centré el esfuerzo de desarrollo de recursos didácticos en prácticas guiadas sobre situaciones habituales, reconduciendo la forma en que se resolvían y aumentando la autonomía progresivamente. La producción y validación se llevó a cabo mediante prototipos, siguiendo un esquema similar al modelo de aproximaciones sucesivas.

Por otro lado, para reducir el riesgo de nuevas desviaciones opté por un sistema de ayudas de trabajo, accesible desde la propia historia clínica, que diera apoyo en el momento de necesidad, de forma que ante una dificultad no fuera necesario inventarse una solución sobre la marcha.

Este doble planteamiento, pensado especialmente para los usuarios veteranos, es perfectamente válido igualmente para los usuarios nuevos, porque la práctica guiada es muy útil para construir competencias desde cero, y las ayudas just in time (que no van encaminadas al aprendizaje, sino a solución de problemas) proporcionan seguridad.

Además del planteamiento estrictamente formativo diseñé un plan de comunicación y seguimiento, y una evaluación de impacto apoyada en indicadores de uso del sistema, tomando una línea base de uso de varias semanas previas al curso, y comprobando tanto el impacto inmediato tras la formación como la tendencia en las semanas y meses siguientes. Debo decir que pocas veces he visto aumentos porcentuales (¡y estables!) de cuatro dígitos en un indicador, así que estoy particularmente orgulloso de lo conseguido.

Limitaciones y carta a los Reyes Magos

Como en todos los proyectos, el presupuesto marcó ciertos (bastantes) límites. ¿Qué hubiera hecho de forma diferente de tener más medios? La parte estrictamente formativa la hubiera planteado de forma similar, quizá haciendo escenarios más elaborados, pero esencialmente el planteamiento es el correcto en ese contexto, y eso no hay presupuesto que lo altere. Pero tanto ahí como en la parte de ayudas de trabajo, incluir un componente de inteligencia artificial seguramente hubiera aumentado el impacto del proyecto (que ya fue bastante bueno de por sí):

  • Un chatbot como vínculo entre la aplicación y las ayudas de trabajo, para resolver dudas formuladas como preguntas naturales, que resuelva el eterno problema de que la gente busca las cosas desde distintas perspectivas, con expectativas diferentes y usando palabras clave muy variadas. ¿Qué mejor que una pequeña IA que reconoce lo que quieres y te lo trae a la mano, o al menos te señala dónde mirar?
  • Un LMS predictivo, vinculado a las estadísticas de uso del sistema, que sugiera recursos formativos en función de las necesidades actuales y previstas de cada profesional. Esto cada vez es más fácil de alcanzar y facilita incluir elementos de gamificación de la buena, así que un poco más de potencia en la parte de learning analytics no hubiera venido nada mal.

La continuidad de un proyecto así pasa por ampliar su escala para atender las necesidades de las nuevas incorporaciones. La forma en que está planteado hace que el escalado sea relativamente sencillo, siendo la mayor dificultad mantener un nivel adecuado de eficiencia en la producción: maximizar los recursos compartidos por varios tipos de profesionales, y reducir al mínimo los específicos sin perder la imprescindible contextualización. Espero poder hacer una entrada dentro de un tiempo contando los resultados, y que sean igualmente satisfactorios 🙂

 

El andamiaje en los planes de formación corporativa

Andamiaje en plan de formación corporativa

Resulta bastante intuitivo hacer un diseño instruccional por niveles de dificultad (siguiendo a Reigeluth, o el axioma piagetiano de ir de lo general a lo específico). Sin embargo, no todo el mundo tiene claro por qué debe ser así. ¿Sería problemático trabajar primero con tareas específicas para luego engranarlas en una estructura mayor? Al fin y al cabo, el pensamiento formal sobre una temática también se construye a partir de conceptos específicos (no solo tienes que entender la lógica de la tarea, sino tener los conocimientos concretos que te permiten ponerla en práctica).

Posiblemente el razonamiento más válido para no romper con este principio es que facilita andamiar el progreso de los aprendices. Una vez dominado un proceso simple, mediante prácticas guiadas y ejemplos, resulta fácil quitar progresivamente apoyos para sustituirlas por otras dedicadas a profundizar en niveles o casuísticas más difíciles de ejecutar. De esta forma, mantenemos la asistencia mientras es necesaria, pero procuramos la automatización de los flujos de trabajo ya practicados, centrando el apoyo en los nuevos.

Ahora, ¿qué tipo de asistencia puedo dar y retirar en cada momento? Si necesito establecer niveles de dificultad para planificar el andamiaje, puedo organizar los contenidos siguendo un gradiente de complejidad dependiente del tipo de procesamiento que trabajan:

  • conceptual (¿qué es esto?)
  • estructural (¿cómo es?)
  • causal (¿cómo funciona?)

Así, si quiero ir retirando paulatinamente apoyos en los contenidos, para que los aprendices ganen autonomía y se hagan con la tarea, empezaré quitando ayudas conceptuales, luego las estructurales y, finalmente, las causales. Con este último paso no solo tengo una lista de recursos, sino una guía para su estructura interna: primero trabajo el concepto, luego la estructura y luego el funcionamiento.

El andamiaje tiene valor propio como facilitador del proceso de aprendizaje, pero tiene la ventaja adicional de que arrastra de forma muy natural hacia un diseño instruccional basado en la construcción progresiva de habilidades, en la automatización creciente y en la práctica deliberada. Además, encaja muy bien con la definición de flujos de trabajo a través del análisis de tareas cognitivas, a partir del que pueden diseñarse casi directamente los apoyos para cada tarea. Es una buena muestra de que las técnicas de un buen diseño instruccional no se implementan de forma aislada, sino que se retroalimentan unas a otras para dar una solución con sentido global.

El diseño instruccional en la gestión del cambio

Diseño instruccional y gestión del cambio

Me gusta trabajar en proyectos de gestión del cambio, apoyando al cliente para que aprenda a volar solo. La formación es uno de los pilares de la gestión del cambio, y todo el mundo tiene claro que debe estar incluida, pero hay una tendencia a tratarla como una intervención con principio y fin: se enseña (en el mejor de los casos, en el peor simplemente se muestra) a la gente cómo trabajar bajo las nuevas circunstancias, y a correr. Sin embargo, simplemente por la incorporación y movimiento de profesionales, necesariamente es una labor sostenida; con otra intensidad, desde luego, pero sin final.

Para traspasar a un cliente el peso de la formación, la estrategia habitual es localizar a un número de profesionales de la organización con ciertas características y habilidades (competentes, con capacidad de liderazgo, empáticos…) para convertirles en expertos en el nuevo entorno de trabajo (con la etiqueta de internal champions, superusuariosreferentes). Mi postura es que no solo necesitas profesionales competentes, sino divulgadores competentes capaces de planificar una formación siguiendo prácticas eficaces de diseño instruccional. Es decir, no solo tienen que conocer los nuevos procesos y tareas, sino ser capaces de transmitirlos de modo eficiente y juzgar si una formación está bien estructurada o no. Esto implica que deben entender y saber cómo actuar sobre los mecanismos de aprendizaje, tomando decisiones razonadas sobre cómo usar las herramientas que tengan disponibles.

Darles la competencia mínima necesaria

¿Cuáles son los principios elementales que deberían quedarles grabados a fuego? Independientemente del tipo de proyecto y de la naturaleza de las tareas, hay ciertas formas de plantear la formación que tienen sentido siempre. Nuestro trabajo es que estas personas de referencia se empapen bien de ellas y sepan cuándo y cómo aplicarlas convenientemente, para que cuando termine nuestro trabajo puedan tomar decisiones fundamentadas.

Aunque hay muchos factores importantes yo, normalmente, pongo el foco en estos cuatro conceptos que, tomados como guía, producen planes de formación con impacto relevante. Pueden trasladarse a la práctica de varias formas; aquí hago algunas sugerencias que dan buen resultado:

  1. El sentido de la formación es conseguir resultados. Cuando planifiquen un nuevo curso, que establezcan objetivos de trabajo, es decir, resultados comprobables directamente relacionados con las tareas de los profesionales. Luego tendrán que identificar qué tienen que saber hacer para conseguirlo. Estas competencias constituirán los objetivos de aprendizaje.
  2. El aprendizaje se construye y se consolida con la práctica. Que la formación proporcione oportunidades de práctica, con la teoría en un papel subordinado. Acción y reflexión en lugar de recepción de información.
  3. Lo aprendido se olvida, así que conviene que la práctica esté espaciada. Hay que reservar un porcentaje de sesiones de formación para distribuirlas en el tiempo, con intervalos de días primero y de semanas después. Que no den por aprendido un tema solo porque llegó la fecha de cerrarlo.
  4. Solucionar errores es una buena forma de aprender. Proporciona un entorno seguro en el que cometerlos y, más que prevenirlos, muéstrales sus consecuencias y su resolución. Luego repite la práctica las veces que sea hasta que no haya errores.

Hay varios más que podrían incluirse (diseñar escenarios realistas, hacer seguimiento y dar soporte, incluir interactividad significativa en materiales e-learning, incluir sistemas de ayuda bien diseñados, evaluar indicadores relevantes…) pero estos cuatro dan cuenta, probablemente, del mayor porcentaje de éxito de la formación para la gestión del cambio. Aunque no hay por qué pasar por alto los demás, si tengo que escoger en cuáles centrar mi esfuerzo, la lista es esa.

Incorporar esta perspectiva a los procesos de trabajo

La mejor manera de formar al grupo de expertos, desde luego, es a través de la práctica. Su propia formación debe responder a este conjunto de principios, de manera que los interioricen, y además conviene que tomen parte en el desarrollo de la estrategia de formación para los usuarios de a pie. La metacognición, es decir, que sean conscientes de sus propios procesos de aprendizaje durante el entrenamiento inicial, es la vía para que luego puedan aplicarlos adecuadamente.

El mensaje más importante, que debe quedar grabado a fuego, es que un plan de formación no es un curso en un aula, o unos manuales en un repositorio, o unos vídeos en un LMS, y que no se mide por cuántas de esas cosas se hacen. Se mide por sus consecuencias sobre el día a día de los trabajadores, así que debe incluir lo que sea necesario para que tenga impacto. Cualquier otra opción es tirar el dinero.

Calidad percibida del e-learning

Hace un tiempo, a cuento de la interactividad, hablaba de la calidad general del e-learning. Siempre recuerdo que Íñigo Babot, que era una referencia en formación corporativa, sostenía que la mala calidad de los contenidos era coyuntural. De esto hace unos 10 años, y aunque el buen e-learning es hoy mejor que entonces, ¿ha cambiado la percepción general de esa calidad? ¿Ha mejorado algo la media, o es en realidad un problema estructural?

Mi opinión es que posiblemente la curva se haya desplazado un poco a la derecha, y que es más frecuente ver materiales de mejor calidad, pero el e-learning malo sigue siendo igual de malo, y sigue siendo mayoritario.

Podría pensarse que lo que pasa es que se oye demasiado a gente como yo hablar de lo malo que es el e-learning en general :). Sin embargo, acabo de cruzarme en ResearchGate con un artículo sobre este tema, en el que las conclusiones no dan muy buena espina:

"The results reveal that workers perceive e-learning as a more 
flexible and up-to-date training methodology. On the other hand, face-to-face training continues to be perceived as a more motivating 
methodology compared to virtuality and with better explanations from 
the course trainers. [...]Such results state that while the benefits 
of distance methodology can be clearly identified from the company’s 
point of view (i.e., as a flexible and efficient methodology to 
develop the employees’ skills and knowledge), from the employees’ 
standpoint, the advantages of virtual training are not so clear and 
depend to a great extent on their attitude towards the use of 
virtuality."

O sea, que a los trabajadores el e-learning les parece cómodo pero, salvo que estén habituados al medio virtual, prefieren las formaciones presenciales en cuanto a variables relacionadas con el aprendizaje, y no con la agenda. Lo cual es paradójico, porque entonces las empresas están incentivando, por motivos de coste, una modalidad de formación que no es muy buena para desarrollar habilidades, siempre según quienes la reciben.

Formador payaso

¿Qué tendrá la formación presencial?

En el artículo hay datos que posiblemente apuntan a dónde está el problema. Un 65 % de los participantes piensa que el e-learning está peor orientado a la práctica, un ¡83 %! que las explicaciones de los tutores son de peor calidad, y otro 65 % que es más motivadora la presencial. Sin embargo, ambas parecen estar a la par en cuanto a facilitación del aprendizaje, lo cual es consistente con los resultados del conjunto de investigaciones sobre el tema.

Las conclusiones de los estudios más relevantes apuntan, precisamente, a que e-learning y presencial son equivalentes cuando el primero está bien diseñado (se entiende que el segundo debe estarlo también, claro, aunque creo que hay algo de complejo de inferioridad en esa asunción, como si el gold standard de la formación fuera presencial, y la virtual tuviera que demostrar cosas que en la otra se dan -equivocadamente- por hechas). Si acaso, al primer puesto del podio deberían encaramarse los formatos mixtos, que son los que se llevan el gato al agua en cuanto a eficacia; algo que tampoco es para sorprenderse.

Conclusiones

El diseño didáctico, tanto de la formación presencial como del e-learning, probablemente sigue haciéndose por inercia, cayendo en las mismas trampas habituales (enfoque erróneoobjetivos de aprendizaje absurdos, interactividad mal entendida, temas sin interésrestricciones a la exploración…). Si la metodología (por llamarlo de algún modo) que predomina en ambas modalidades es el volcado de contenidos, la presencial tiene ventaja y puede salvar la cara con un buen formador, capaz de atender a las necesidades particulares de cada alumno. En e-learning esa posibilidad siempre es más complicada, y no hay más remedio que diseñarlo de forma adaptada para que pueda ponerse a la par de la presencial. La talla única, que en presencial es engañosa precisamente gracias al factor humano, es claramente la estrategia equivocada.

Referencias

Batalla-Busquets, JM y Martínez-Argüelles, MJ (2014). Determining factors in online training in companies. The International Journal of Management Education 12(2):68–79

Pei-Chen Sun et al (2006). What drives a successful e-Learning? An empirical investigation
of the critical factors influencing learner satisfaction.  Computers & Education 50 (2008) 1183–1202.

Pantazis, C.  (2001) Maximizing E-Learning To Train the 21st Century Workforce. Public personnel management 12/2001; 31(1).