Planes de formación que cumplen objetivos

Planes de formación que cumplen objetivos

A estas alturas está relativamente extendida la idea de que los planes de formación corporativa no pueden medirse en horas de gente sentada en un aula, sino que deben conseguir algún tipo de impacto en la organización. Es decir, el objetivo de la formación en el puesto de trabajo es conseguir un cambio en el desempeño de unas funciones, y un plan de formación es una hoja de ruta para conseguir un determinado impacto en una organización. Ese impacto se mide en términos de:

  •   Eficacia: la mejora reportada en el desempeño.
  •   Eficiencia: número de horas necesarias (cuanto más bajo, mejor) y calidad percibida (índice de satisfacción).

Las horas empleadas por los profesionales son recursos, igual que las empleadas por el equipo de formación, así que deben plantearse como un indicador a reducir, no a aumentar. Que un plan de formación aumente las horas impartidas puede justificarse porque más gente acceda a los cursos, o porque haya habido un cambio importante que requiera una capacitación masiva. De otra forma, el trabajo de diseño debe tender a optimizar las horas por alumno, es decir, a conseguir impactos significativos con una dedicación cada vez menor por parte de los profesionales. Obviamente esa función tiempo-resultados tiene una asíntota y normalmente habrá un número mínimo de horas necesarias, pero que no sea porque los diseñadores instruccionales nos acomodamos.

La planificación por horas es uno de los varios vicios del diseño de planes formativos, pero hay más:

La organización en cursos es lógica, estructurada y permite compartimentar contenidos, pero cuando trabajamos con competencias las interdependencias resultan complicadas de encasillar. Aún así, como la mayoría de la gente está acostumbrada a ese formato, posiblemente los problemas que causa se resuelven bien. La mayor dificultad es insertar el uso de una estructura por cursos en el día a día laboral, en el que las necesidades se cubren mejor con herramientas que faciliten el aprendizaje informal (comunicación con expertos, herramientas sociales o ayudas de trabajo).

Los objetivos de desempeño son importantes porque evitan caer en el volcado de información, que no es que sea simplemente una mala estrategia, es que puede ser contraproducente si no va, al menos, acompañada de práctica suficiente y bien diseñada. Que alguien tenga ciertas nociones sobre una tarea, no contrastadas mediante la práctica sistemática y monitorizada, puede darle una idea equivocada sobre su propia competencia, haciéndole creer que sabe más de lo que sabe y dando pie a errores y malas prácticas. La medida de una competencia es lo que haces, no lo que presuntamente sabes, así que ese riesgo queda anulado si medimos impacto y no aprendizaje.

Unas pocas acciones ayudan mucho a potenciar esos tres puntos:

  • Dedicar recursos a rastrear problemas de desempeño. Buzones de sugerencias y cuestionarios periódicos, entrevistas con perfiles de coordinación… Lo que es un buen análisis de necesidades. Sobre este tema tienen buen material en la Diputación de Alicante, con la complejidad que tiene la formación en el sector público.
  • Basar el aprendizaje en la práctica con expertos. Los talleres y estudios de caso (presenciales o remotos) tienen mejor tasa de transferencia al puesto de trabajo que las ponencias y presentaciones.
  • Potenciar el uso de herramientas colaborativas. El aprendizaje informal surge en buena medida del contacto entre profesionales, y las oportunidades de mejora aparecen cuando puedes ver cómo hacen las cosas los demás. Por no hablar de las comunidades de práctica, que desde mi punto de vista son el mejor ejemplo de qué pasa cuando la estrategia de formación se enfoca a la solución de problemas y no al aprendizaje per se.
  • Orientar los cursos a la evaluación de impacto: La formación, formal o informal, debe concluir solo cuando ya no hay fallos (no cuando un flujo sale bien una vez durante una evaluación). Para saber cuándo ocurre esto es imprescindible tener indicadores de resultados (no de aprendizaje) que permitan medir la estabilidad de los cambios, tanto percibidos como efectivos, con recogidas de información al mes, semestre y año de la primera capacitación, por ejemplo. Espacia la práctica para reducir el olvido y recuerda que lo que no se usa se pierde.

Sobre todo este tema no puedo dejar de recomendaros que sigáis a Jesús Martínez Marín, a quien tuve ocasión de conocer en 2012, durante un congreso en el que también estaba nada menos que Charles Jennings. Trabaja, por cierto, en el sector público, en el que la innovación en formación parece moverse con más soltura que en algunos departamentos empresariales de L&D.

El papel del soporte en la formación

Formación y sistemas de ayuda en implantación de aplicaciones

Trabajo a menudo con aplicaciones de historia clínica electrónica, y últimamente hay una tendencia muy fuerte a incluir funcionalidades de apoyo a la toma de decisiones clínicas; es decir, cómo aprovechar toda la información contenida en la historia de un paciente para ayudar al personal clínico a elegir cursos de acción. Este apoyo normalmente se integra de forma sutil en los sistemas, como opciones recomendadas a la hora de procesar órdenes médicas o como avisos ante determinadas situaciones (interacciones medicamentosas y alergias son los más comunes, pero básicamente cualquier condición previa del paciente puede ser tenida en cuenta).

La parte interesante desde el punto de vista formativo está en la completa inmersión de la ayuda en el sistema con el que se trabaja, un modelo de cuyo diseño hablé hace un tiempo. Tener ayuda a mano tiene varias ventajas, se identifica de forma consistente como un factor de éxito en las implantaciones de aplicaciones informáticas y, en mi experiencia, tiene el mismo peso específico en la adopción de cualquier nuevo proceso, aunque no esté relacionado con el manejo de ordenadores. En general, la gestión del cambio que mejor resultado obtiene da, al menos, tanto peso al soporte tras el arranque como a la formación anterior a él.

La formación para la gestión del cambio tecnológico es un proceso continuado en el que los mecanismos de retroalimentación y mejora deben estar activos todo el tiempo, alimentando nuevas iniciativas y recursos de mejora de competencias. Tanto las nuevas incorporaciones como el avance de los usuarios veteranos hacia el uso óptimo y la adopción completa conforme a mejores prácticas requieren de un circuito permanente de formación y soporte en el que estos se complementan.

Contenidos específicos y al día

En sistemas complejos, como la historia clínica electrónica, el grado de adaptación a cada organización es tan grande que hasta resulta complicado comparar datos de uso de un mismo sistema entre distintos hospitales. Aunque los proveedores suelen ofrecer algún tipo de formación o materiales genéricos, estos suelen estar creados sobre una versión estándar de los flujos de trabajo, que se parecerá a la que se termina usando, desde luego, pero solo hasta un punto en que esos materiales pueden ser útiles para formar a perfiles técnicos (de soporte, por ejemplo), pero no a usuarios finales. Cada organización tiene sus propios flujos de trabajo que obligan a adaptar los procedimientos estándar. Y, desde luego, un buen diseño didáctico está basado en tareas, por lo que al final será necesario dar igualmente formación específica para explicar qué cosas no están bien en la formación genérica, y el resultado será mediocre como mínimo (por no hablar de los problemas de seguridad que surgen de este tipo de situaciones ambiguas).

Este planteamiento es extensivo a toda la formación, pero especialmente relevante en el caso de las ayudas de trabajo. Estas son específicas por definición (la ayuda es más útil cuanto mejor definido está el flujo de trabajo al que da soporte), por lo que es inevitable desarrollarlas acerca de tareas concretas y, con frecuencia, la mayoría de ellas acaban abordando casos de uso de frecuencia media o baja. La forma de gestionar esos casos, además, tiende a cambiar bastante con el tiempo a medida que se regulan las excepciones y se incorporan a flujos de trabajo generales. Por este motivo unas ayudas de trabajo que no están al día afectan a un número elevado de usuarios a los que, además, se hace menos seguimiento. A las nuevas incorporaciones siempre se las vigila más de cerca y es relativamente fácil ver si están cometiendo errores de uso, pero ¿quién se ocupa de comprobar cómo usa el sistema una persona que lleva años trabajando con él?

La complejidad de un sistema integrado de ayuda está, por tanto, en la detección de necesidades de apoyo, que puede hacerse de forma bastante eficiente con una supervisión proactiva a través de un sistema de explotación de datos de uso de las aplicaciones. El nivel de análisis tiene que ser realmente fino para que malas prácticas no pasen desapercibidas, y complementado con métodos analógicos (las encuestas de toda la vida), pero permite no solo detectar la necesidad de ayudas de trabajo sino identificar los puntos más adecuados donde insertar accesos a documentación específica.

Referencias

Ash, J. S., Stavri, P. Z., & Kuperman, G. J. (2003). A Consensus Statement on Considerations for a Successful CPOE Implementation. Journal of the American Medical Informatics Association : JAMIA10(3), 229–234. 

Estudio de caso: formación en sistemas de información

formación en sistemas informáticos

Durante los últimos meses he trabajado en un piloto de formación en línea en sistemas de información en una organización de gran tamaño. La situación era común: un sistema informático implantado desde hace tiempo pero con deficiencias en su uso, tanto por las nuevas incorporaciones (que reciben formación desigual y no equivalente a la que se proporcionaba cuando se implantó) como por las esperables desviaciones de los flujos de trabajo estándar, a medida que cada profesional resuelve los problemas que van surgiendo como mejor sabe o puede.

Por tanto, el reto no era proporcionar formación de inicio (nunca lo es), sino algo más complejo: reconducir malas prácticas y asegurar que cualquier nuevo profesional se incorpora a su área de trabajo con una competencia mínima suficiente para permitirle progresar de forma autónoma. La formación, por tanto, no va dirigida a generalizar el uso de un sistema, sino a mejorar cómo se usa. Un caso perfecto para poner en práctica un plan de formacion con impacto real, alejado de la estrategia habitual de montar algunos cursos y cruzar los dedos.

Este tipo de proyectos no son habituales, sospecho que por esa tendencia a considerar la formación como un evento con principio y fin dentro de la gestión de un cambio organizacional. Es decir, formas a la gente, aprenden a trabajar según los nuevos procedimientos, y te echas a dormir; algo que solo pasa cuando ni los flujos de trabajo ni el personal cambian (o sea, nunca). Dejar atrás esta mentalidad requiere que alguien en la dirección entienda de que la formación es un proceso longitudinal, con sus etapas y sus formas para cada momento, pero que debe estar ahí mientras haya rotaciones y modificaciones. Algo que felizmente ocurría en este caso.

Diseño de dos vías

Con esa intención de impactar el uso significativo de la herramienta, mi trabajo se centró en diseñar una formación piloto para profesionales que ya la usaban desde hacía años, pero que tenían lagunas considerables, reveladas por las auditorías periódicas. El objetivo que me marqué fue abordar, por un lado, los déficit más obvios, y por otro procurar que el personal fuera lo más autónomo posible para resolver las dificultades que les pudieran surgir, sin comprometer las mejores prácticas a seguir.

Una vez resuelta la ingente labor del análisis de necesidades y de elaborar un mapa de competencias ad hoc (recogiendo información mediante el análisis de tareas cognitivas), el reto principal para reconducir malas prácticas es propiciar el suficiente entrenamiento contextualizado (para facilitar la transferencia) sin reforzar las pautas erróneas que ya están asentadas. Por eso centré el esfuerzo de desarrollo de recursos didácticos en prácticas guiadas sobre situaciones habituales, reconduciendo la forma en que se resolvían y aumentando la autonomía progresivamente. La producción y validación se llevó a cabo mediante prototipos, siguiendo un esquema similar al modelo de aproximaciones sucesivas.

Por otro lado, para reducir el riesgo de nuevas desviaciones opté por un sistema de ayudas de trabajo, accesible desde la propia historia clínica, que diera apoyo en el momento de necesidad, de forma que ante una dificultad no fuera necesario inventarse una solución sobre la marcha.

Este doble planteamiento, pensado especialmente para los usuarios veteranos, es perfectamente válido igualmente para los usuarios nuevos, porque la práctica guiada es muy útil para construir competencias desde cero, y las ayudas just in time (que no van encaminadas al aprendizaje, sino a solución de problemas) proporcionan seguridad.

Además del planteamiento estrictamente formativo diseñé un plan de comunicación y seguimiento, y una evaluación de impacto apoyada en indicadores de uso del sistema, tomando una línea base de uso de varias semanas previas al curso, y comprobando tanto el impacto inmediato tras la formación como la tendencia en las semanas y meses siguientes. Debo decir que pocas veces he visto aumentos porcentuales (¡y estables!) de cuatro dígitos en un indicador, así que estoy particularmente orgulloso de lo conseguido.

Limitaciones y carta a los Reyes Magos

Como en todos los proyectos, el presupuesto marcó ciertos (bastantes) límites. ¿Qué hubiera hecho de forma diferente de tener más medios? La parte estrictamente formativa la hubiera planteado de forma similar, quizá haciendo escenarios más elaborados, pero esencialmente el planteamiento es el correcto en ese contexto, y eso no hay presupuesto que lo altere. Pero tanto ahí como en la parte de ayudas de trabajo, incluir un componente de inteligencia artificial seguramente hubiera aumentado el impacto del proyecto (que ya fue bastante bueno de por sí):

  • Un chatbot como vínculo entre la aplicación y las ayudas de trabajo, para resolver dudas formuladas como preguntas naturales, que resuelva el eterno problema de que la gente busca las cosas desde distintas perspectivas, con expectativas diferentes y usando palabras clave muy variadas. ¿Qué mejor que una pequeña IA que reconoce lo que quieres y te lo trae a la mano, o al menos te señala dónde mirar?
  • Un LMS predictivo, vinculado a las estadísticas de uso del sistema, que sugiera recursos formativos en función de las necesidades actuales y previstas de cada profesional. Esto cada vez es más fácil de alcanzar y facilita incluir elementos de gamificación de la buena, así que un poco más de potencia en la parte de learning analytics no hubiera venido nada mal.

La continuidad de un proyecto así pasa por ampliar su escala para atender las necesidades de las nuevas incorporaciones. La forma en que está planteado hace que el escalado sea relativamente sencillo, siendo la mayor dificultad mantener un nivel adecuado de eficiencia en la producción: maximizar los recursos compartidos por varios tipos de profesionales, y reducir al mínimo los específicos sin perder la imprescindible contextualización. Espero poder hacer una entrada dentro de un tiempo contando los resultados, y que sean igualmente satisfactorios 🙂

 

El diseño instruccional en la gestión del cambio

Diseño instruccional y gestión del cambio

Me gusta trabajar en proyectos de gestión del cambio, apoyando al cliente para que aprenda a volar solo. La formación es uno de los pilares de la gestión del cambio, y todo el mundo tiene claro que debe estar incluida, pero hay una tendencia a tratarla como una intervención con principio y fin: se enseña (en el mejor de los casos, en el peor simplemente se muestra) a la gente cómo trabajar bajo las nuevas circunstancias, y a correr. Sin embargo, simplemente por la incorporación y movimiento de profesionales, necesariamente es una labor sostenida; con otra intensidad, desde luego, pero sin final.

Para traspasar a un cliente el peso de la formación, la estrategia habitual es localizar a un número de profesionales de la organización con ciertas características y habilidades (competentes, con capacidad de liderazgo, empáticos…) para convertirles en expertos en el nuevo entorno de trabajo (con la etiqueta de internal champions, superusuariosreferentes). Mi postura es que no solo necesitas profesionales competentes, sino divulgadores competentes capaces de planificar una formación siguiendo prácticas eficaces de diseño instruccional. Es decir, no solo tienen que conocer los nuevos procesos y tareas, sino ser capaces de transmitirlos de modo eficiente y juzgar si una formación está bien estructurada o no. Esto implica que deben entender y saber cómo actuar sobre los mecanismos de aprendizaje, tomando decisiones razonadas sobre cómo usar las herramientas que tengan disponibles.

Darles la competencia mínima necesaria

¿Cuáles son los principios elementales que deberían quedarles grabados a fuego? Independientemente del tipo de proyecto y de la naturaleza de las tareas, hay ciertas formas de plantear la formación que tienen sentido siempre. Nuestro trabajo es que estas personas de referencia se empapen bien de ellas y sepan cuándo y cómo aplicarlas convenientemente, para que cuando termine nuestro trabajo puedan tomar decisiones fundamentadas.

Aunque hay muchos factores importantes yo, normalmente, pongo el foco en estos cuatro conceptos que, tomados como guía, producen planes de formación con impacto relevante. Pueden trasladarse a la práctica de varias formas; aquí hago algunas sugerencias que dan buen resultado:

  1. El sentido de la formación es conseguir resultados. Cuando planifiquen un nuevo curso, que establezcan objetivos de trabajo, es decir, resultados comprobables directamente relacionados con las tareas de los profesionales. Luego tendrán que identificar qué tienen que saber hacer para conseguirlo. Estas competencias constituirán los objetivos de aprendizaje.
  2. El aprendizaje se construye y se consolida con la práctica. Que la formación proporcione oportunidades de práctica, con la teoría en un papel subordinado. Acción y reflexión en lugar de recepción de información.
  3. Lo aprendido se olvida, así que conviene que la práctica esté espaciada. Hay que reservar un porcentaje de sesiones de formación para distribuirlas en el tiempo, con intervalos de días primero y de semanas después. Que no den por aprendido un tema solo porque llegó la fecha de cerrarlo.
  4. Solucionar errores es una buena forma de aprender. Proporciona un entorno seguro en el que cometerlos y, más que prevenirlos, muéstrales sus consecuencias y su resolución. Luego repite la práctica las veces que sea hasta que no haya errores.

Hay varios más que podrían incluirse (diseñar escenarios realistas, hacer seguimiento y dar soporte, incluir interactividad significativa en materiales e-learning, incluir sistemas de ayuda bien diseñados, evaluar indicadores relevantes…) pero estos cuatro dan cuenta, probablemente, del mayor porcentaje de éxito de la formación para la gestión del cambio. Aunque no hay por qué pasar por alto los demás, si tengo que escoger en cuáles centrar mi esfuerzo, la lista es esa.

Incorporar esta perspectiva a los procesos de trabajo

La mejor manera de formar al grupo de expertos, desde luego, es a través de la práctica. Su propia formación debe responder a este conjunto de principios, de manera que los interioricen, y además conviene que tomen parte en el desarrollo de la estrategia de formación para los usuarios de a pie. La metacognición, es decir, que sean conscientes de sus propios procesos de aprendizaje durante el entrenamiento inicial, es la vía para que luego puedan aplicarlos adecuadamente.

El mensaje más importante, que debe quedar grabado a fuego, es que un plan de formación no es un curso en un aula, o unos manuales en un repositorio, o unos vídeos en un LMS, y que no se mide por cuántas de esas cosas se hacen. Se mide por sus consecuencias sobre el día a día de los trabajadores, así que debe incluir lo que sea necesario para que tenga impacto. Cualquier otra opción es tirar el dinero.

Uso y evaluación de prototipos en e-learning

Uso de prototipos en e-learning

El trabajo con prototipos en diseño instruccional proporciona validaciones tempranas, en estadios en los que a veces el análisis de necesidades formativas ni siquiera está finalizado (la triste e inevitable frecuencia del fast tracking es uno de los motivos por los que ADDIE no me gusta), pero sí tenemos ya información suficiente para hacer propuestas concretas de formato y estructura de contenidos didácticos. Aunque lo idóneo es hacer esta validación con usuarios finales, no es raro que en este primer momento solo participen usuarios avanzados, o a veces incluso directivos.

Los problemas de evaluar un prototipo con usuarios finales son varios (genera expectativas sobre el resultado final, suelen fijarse en detalles y buscan contenido más que uso y presentación) pero prescindir de ellos lo pone más difícil aún. Cuando son usuarios avanzados, expertos y directivos los que validan este trabajo temprano, su atención suele estar en qué cuentas y cómo, en lugar de qué problemas resuelves (que suele ser el foco de los usuarios finales).

Expectativas frente a prototipos en diseño instruccional

Típico resultado de una mala gestión de expectativas ante un prototipo

En estas condiciones, ¿qué tipo de evaluación tiene sentido para un prototipo?

  • Objetivos: normalmente será pronto para una validación de contenidos, pero sí puede verse si los materiales responden a los objetivos de aprendizaje perseguidos. Si quieres que aprendan a hacer una tarea necesitarás recursos para transmitir su lógica, para ver ejemplos y para practicarla, y cada función puede hacerse con un tipo diferente de material (infografías, estudios de caso, prácticas guiadas, escenarios…).
  • Usabilidad: si los usuarios se pierden en el prototipo, seguramente se perderán en los recursos finales (aquí tienes algunas pautas para evitarlo)
  • Estructura del contenido: resulta muy sencillo preparar un prototipo para mostrar cómo será la navegación no ya desde el punto de vista de la usabilidad, sino cómo y cuándo se incluirán conceptos, práctica, evaluaciones, feedback, recapitulaciones, esquemas…
  • Estructura de la información: muy relacionada con la anterior, muestra cómo distintos tipos de información se transmiten de distinta forma: qué va en un esquema (aunque el esquema en sí sea ilustrativo solamente), qué en forma de estudio de caso, qué en forma de ejemplo…

¿Cómo facilitar la evaluación?

  • Crea un prototipo enfocado a los objetivos de aprendizaje que quieres evaluar. Si vas a centrarte en usabilidad y estructura, por ejemplo, que esos dos factores estén bien trabajados, aunque dejes otros por el camino. Recuerda que un prototipo siempre es provisional y deberías tardar en producirlo el tiempo justo para que no te frustre descartarlo, si es necesario. Eso implica recortes.
  • Escoge los indicadores apropiados para medir esos objetivos de aprendizaje, y planea una tarea de evaluación que esté enfocada a recoger esas medidas.
  • Controla las expectativas: deja claro a los usuarios, desde el principio (quizá con un mensaje en el propio material), que es un prototipo, que está incompleto y que procuren centrarse en los objetivos de esta tarea concreta.
  • Automatiza la recogida de datos: si haces el prototipo en una herramienta de wireframes plana (o en powerpoint sin ir más lejos) no podrás sacar mucha información, pero si haces el prototipo directamente con la herramienta de autor que vayas a usar al final, puedes usar los datos que recoja. Es bastante laborioso y solo recomiendo hacerlo si el prototipo está avanzado y la evaluación debe ser muy exhaustiva.

Recuerda que los resultados de la evaluación serán tan fiables como avanzado esté el prototipo, por lo que es importante usarlo para validar solo aquello que refleja claramente (o sea, no tengas en cuenta comentarios sobre el diseño gráfico en un prototipo de estructura de la información, porque va a ser feo seguro). Y sobre todo, calibra el esfuerzo que dedicas a los prototipos con el resultado que vas a obtener, para que te sea más fácil superar la aversión a la pérdida.

Cómo traducir competencias a contenidos: análisis de tareas cognitivas para el diseño instruccional

Empezando el diseño instruccional de un nuevo curso, organizas una reunión con los expertos en la materia, que van a explicarte los objetivos y pormenores de las tareas sobre las que hay que formar… y a) lo primero que recibes es un manual que se disponen a repasar diligentemente, para asegurarse de que «lo entiendes todo» o b) te empiezan a contar cómo hacen las cosas mientras tú tomas nota a toda velocidad. ¿Te suena?

Trabajar con expertos (SMEs) en proyectos de formación y gestión del cambio es necesario para definir los objetivos de aprendizaje y desglosar las tareas que hay que enseñar a hacer. A partir de la información que dan se extraen las competencias que se traducen en recursos didácticos. Pero los expertos suelen tener su propia idea de cómo va a ser ese proceso, y no siempre te facilitará el trabajo. Este es un paso clave en el que el diseño de un curso o plan de formación puede irse al traste, sin que tú te enteres hasta un buen tiempo después, cuando empiezas a ver que la formación no funciona como debería.

Esto es algo muy estudiado en formación sanitaria, donde el análisis de tareas en campos como la cirugía tiene una importancia crucial. El método habitual es que uno o varios expertos desglosen las tareas en pasos que puedan ser comprendidos por un aprendiz, y a partir de esos pasos se genere la secuencia que debe trasladarse a los recursos didácticos. Sin embargo, la evidencia muestra que buena parte del conocimiento de los expertos es implícito, y no son capaces de describir el total de pasos de una tarea o toma de decisiones: tienen automatizada buena parte de la tarea (de otra forma no podrían aumentar la complejidad), y por eso les resulta difícil contar a otros cómo la hacen exactamente.

Típica sesión de trabajo con un SME

Para compensar este déficit en la definición operativa de tareas, una técnica usada es el análisis de tareas cognitivas (o CTA, cognitive task analysis). Consiste en una recogida de información sistemática que ayuda a los expertos a recuperar los pasos de una tarea con menos omisiones de las que tendrían de forma natural. Un aspecto en el que se hace bastante hincapié es que los expertos NO deben ser formadores a su vez, sino profesionales consistentemente buenos en la tarea en cuestión. El resultado se valida después con otros expertos (de 4 a 6 idóneamente) para mejorar la precisión.

Los resultados comparados de usar CTA contra la simple evocación de pasos por los expertos son francamente buenos, así que me gusta usar variantes de esta técnica en función de las circunstancias (no siempre tengo tantos expertos a mano, para empezar). Es útil cuando un diseño didáctico está basado en objetivos de desempeño, centra la teoría en la lógica de los procesos (en lugar de inundar de datos a los alumnos) y trabaja sobre escenarios reales. Lo que debería ser la norma, vaya.

Hay muchos artículos de investigación sobre el tema, pero me gusta el trabajo de Clark et al (2011) porque reúne lo esencial de los modelos principales. Tiene un resumen de cómo extraer información de un experto en seis pasos que me sirve de guía para mis adaptaciones:

  1. Define la secuencia de tareas en el puesto de trabajo («describe en 30 segundos las acciones y decisiones para lograr el objetivo»):
    1. de fácil a difícil
    2. conocimientos previos que necesitan
    3. riesgos de seguridad
  2. Para cada tarea, describe (con verbos de acción):
    1. contexto (dónde y cuándo)
    2. condiciones y disparadores (qué hace que deba iniciarse la tarea)
    3. secuencia de acciones y decisiones (cómo)
  3. Dime lo que puedas de:
    1. estándares y buenas prácticas
    2. errores de novato
    3. motivación (riesgos y beneficios personales)
  4. Identifica conocimientos conceptuales, si es que son necesarios:
    1. conceptos (terminología y ejemplos)
    2. procesos (cómo se producen los eventos)
    3. principios (qué inicia los eventos)
  5. Lista 5 casos a resolver:
    1. uno para hacer una exposición o demostración
    2. dos más para ejercicios prácticos
    3. otros dos para evaluaciones
  6. Da el documento de CTA a otros expertos para corregirlo.

Aunque no siempre puedo aplicar todos los pasos, o no completamente, sí sistematizan mi recogida de información de manera que al finalizar el proceso tengo cubierta una tabla con:

  1. Objetivos y definición operativa de la tarea
  2. Riesgos y beneficios
  3. Prerrequisitos
  4. Conceptos, procesos y principios relacionados
  5. Acciones y decisiones (pasos)
  6. Problemas

Finalmente, encuentro útil un último paso en el que transformo esta tabla en un checklist, con los pasos, a los que asocio los prerrequisitos, los riesgos y beneficios que puedan reflejarse en resultados, y los problemas que pueden anticiparse. Esta lista me sirve de referencia para el guion de los contenidos formativos, ayudándome a no dejar en el tintero nada importante.

Referencias:

Clark, R.E., Feldon, D., & Yates, K. (2011, April) Using Cognitive Task Analysis to capture expert knowledge and skills for research and instructional design. Workshop presented at the American Educational Research Association, New Orleans, LA

Hacerse un hueco en el mercado del e-learning

Los pronósticos son unánimes, desde hace años, en apuntar a un ascenso continuado del e-learning corporativo. Varían los porcentajes concretos y en la fecha en la que finalmente superará a la formación presencial en cada sector, pero la tendencia es clara.

Lo cierto es que, al margen de proyecciones, la forma en la que está penetrando en el mercado es en combinación con la presencial. Esto tiene sentido si consideramos que, por el momento, la demanda de los usuarios no es la que tira del carro: son los departamentos de formación y, más aún, las gerencias, las que demandan esa transición, siguiendo una lógica de ahorro de costes y muchas veces contra el criterio (posiblemente desconfiado en exceso) de los usuarios finales.

Formatos mixtos

El alumno, por lo general, aún desconfía de los formatos que le quitan sensación de control, y tener delante a un responsable-formador es una palanca muy clara para influir sobre la calidad y dirección de un curso. Si el tutor se convierte en virtual, los grados de libertad que tienen para influir sobre él decrecen.

Desde el punto de vista del tutor ocurre otro tanto: es más fácil actuar sobre un alumno de cuerpo presente, tanto para ajustarse a sus necesidades como para tomar el pulso a la clase. La tutorización en línea supone otra forma de recibir retroalimentación, con algunas contrapartidas pero, desde luego, diferente.

Los formatos mixtos, blended, tienen por lo general el visto bueno de todos los implicados; el problema está en que cada uno tiene una idea distinta de lo que significa exactamente. No es lo mismo material didáctico multimedia con tutorías, que clases presenciales con material de apoyo en línea, que materiales y grupos de trabajo virtuales con sesiones de debate y estudio de casos cara a cara. De cualquier manera, el principal nicho de estos es aún la educación reglada, más atada que ninguna a las aulas de ladrillo.

El papel de los proveedores

No es ninguna sorpresa que las grandes organizaciones públicas y privadas sean el objetivo principal de los proveedores generalistas de e-learning. Empresas como Avanzo, Netex o TLS se pelean en España por las grandes cuentas, aunque el sector está todavía lo bastante atomizado como para que pequeños actores se lleven contratos considerables.

Este es un modelo que se apoya en buena medida en los formadores y diseñadores freelance, generalmente competentes y rápidos a la hora de apropiarse de un curso o plan de formación, que abordamos como si fuera nuestro y solo nuestro. Esto hace que seamos una elección frecuente para colaboraciones limitadas en el tiempo, tanto en aspectos concretos (instalación de LMS, producción de materiales didácticos, diseño didáctico y gráfico, tutorización online e impartición de cursos cara a cara o, más infrecuentemente, diseño de planes de formación y consultoría pedagógica).

Para estos pequeños proveedores, buena parte del negocio está en las subcontratas de las grandes compañías, bien para proyectos concretos, bien como colaboradores habituales de los departamentos de formación internos. Las medianas empresas tienen aún capacidad de competir, especialmente en coste, en terrenos como el desarrollo de cursos y píldoras o el despliegue de entornos de formación más o menos estándar. Las grandes compañías, por el contrario, tienen su punto fuerte en la formación asociada a grandes proyectos y en el desarrollo de productos específicos para el mercado educativo.

Perspectivas

Típico alineamiento de la formación con las necesidades de la empresa

Típico alineamiento de la formación con las necesidades de la empresa

Las PYMEs son el gran mercado por explotar, al que los proveedores llegamos sobre todo a través de programas públicos muy específicos, o a través del catálogo de la FTFE (en este caso frecuentemente con intermediarios). Se plantean la capacitación como una molesta necesidad inicial para que un trabajador empiece a ser útil, o como una forma de obtener servicios de asesorías a cambio del crédito de formación bonificada. No es una sorpresa, por tanto, que ésta se considere un trámite desagradable y, por tanto, importe poco su calidad real. No es un medio para formarse, sino un medio para obtener un servicio gratuito. En el mejor de los casos será una forma de hacer una concesión a los trabajadores, si lo demandan.

Pero ¿son ellas las responsables de no buscar más allá, es la oferta que no les da lo que necesitan, o es que se les vende mal? Aunque todos los factores tienen algo de peso, el segundo es probablemente el que sigue teniendo más parte de culpa.

Cómo planificar formación en el sector sanitario

Hace ya unos cuantos años que planifico, diseño y desarrollo medios didácticos para organizaciones sanitarias. Hospitales, centros de salud y clínicas tienen algunas características particulares que es importante conocer.

Dos escenarios posibles.

El planteamiento de un plan de formación en este entorno es muy diferente si se trata de desarrollo profesional continuo o de la introducción de nuevas herramientas y procesos de gestión.

En general, el primero tiene demanda, y está relacionado directamente con la competencia percibida que médicos y enfermeros tienen en sus tareas habituales; en general, es un colectivo muy consciente de los cambios constantes en su área de trabajo, que busca activamente estar al día. No es casual que entre las recomendaciones más sólidas de la Organización Mundial de la Salud para la formación de profesionales sanitarios esté la inclusión de programas de formación continuada, con énfasis en que se trate de capacitación integrada en el puesto de trabajo, es decir, específica y contextualizada para cada perfil y contexto profesional. La adaptación al contexto concreto es crucial, porque el trabajo clínico cambia mucho en función de la población a la que se asiste, y los sanitarios son por lo general muy sensibles a esto.

En cuanto a la introducción de nuevas herramientas, constantemente hay procesos nuevos en los que formar: protocolos de seguridad del paciente, uso de materiales de última generación, recomendaciones clínicas cambiantes, TIC… Posiblemente el mejor ejemplo reciente es la implantación generalizada de las historias clínicas electrónicas (HCE) y las aplicaciones asociadas, de gestión de prescripción, control de vacunación y una miríada de soluciones para las múltiples tareas asociadas a la labor asistencial.

Mucho hecho en un plazo francamente breve.

Mucho hecho en un plazo francamente breve.

La financiación entre 2009 y 2012 dejó prácticamente implantada en toda España la sanidad electrónica. En este terreno, una de las quejas más frecuentes fue (y sigue siendo) la falta de formación adecuada, tanto durante las implantaciones iniciales, como una vez la HCE estuvo consolidada y se le fueron añadiendo nuevas funcionalidades y mejoras (prescripción electrónica, control de vacunación, gestión de costes…). Incluso la HCE más robusta encuentra problemas para adaptarse a la diversidad de funciones y prácticas diferentes, y no es raro oir que “esto está muy bien para los [rellénese con lo que se quiera: médicos generalistas, especialistas, enfermeros…], pero no  para lo que yo hago”.

La adaptación al cambio es un músculo que necesita entrenamiento.

Al introducir cambios en la gestión de la información, la estrategia formativa dependerá en buena medida del historial de adaptación a cambios similares de la organización. Primeras implantaciones o cambios significativos en las herramientas y procesos exigen un enfoque más centrado en la aceptación, en el que expertos internos sirvan como puntas de lanza y den apoyo de tú a tú a sus compañeros. En cambio, cuando ya hay una cultura de innovación, es frecuente que esos expertos estén ya identificados de manera informal y, apoyándose en ellos, el esfuerzo puede centrarse en el desarrollo de recursos formativos que den apoyo a las redes de aprendizaje internas.

Ayudas de trabajo y recursos a mano antes que cursos.

El tiempo escasea en los centros sanitarios, y los profesionales solo se lo dedicarán a lo que vean que les reporta un beneficio directo: más seguridad para los pacientes, menos eventos adversos, más facilidad para hacer informes, altas y bajas más rápidas, control de citas más fiable… Este contexto es especialmente sensible a la formación irrelevante o que no va al grano. Cualquier proyecto de formación debe empezar por buscar qué necesitan, y dárselo de la forma más directa posible.

Imagen de la portada por Dr. Farouk

Cómo gestionar un proyecto de formación: dejando atrás ADDIE (II) – SAM1

El Modelo de Aproximaciones Sucesivas (SAM) para la gestión de proyectos e-learning, y que ya comenté en una entrada anterior, proporciona una estructura ágil para sustituir a ADDIE como esquema de trabajo. SAM tiene dos variaciones sobre el mismo tema: SAM1 para pequeños proyectos unipersonales (y en mi caso también para gestionar mi parte de trabajo en proyectos compartidos), y SAM2 para aquellos casos en los que es complicado integrar diseño y desarrollo; normalmente proyectos de tamaño considerable.

Ciclo de trabajo

SAM1 es el que uso habitualmente, y responde a un esquema muy sencillo:

Un ciclo de SAM-1

Un ciclo de SAM-1

Este proceso se repite al menos tres veces, comenzando y terminando con la evaluación:

  • En la primera iteración evalúo la situación, necesidades, objetivos y opciones, que luego organizo en la fase de diseño para trasladarlas a distintas posibilidades de formato y medios de distribución. En la fase de desarrollo transformo estas decisiones en prototipos básicos, sin trabajar aún la presentación del contenido sino únicamente la estructura. Finalmente, lo presento a las partes implicadas para que lo fusilen a críticas.
  • La segunda iteración es, con diferencia, la más laboriosa: evalúo hasta qué punto la primera cumplió sus objetivos y recojo los puntos a cambiar o mejorar. A continuación traslado esos cambios a un nuevo diseño (o una variación del primero si he tenido buen ojo), y lo aplico a un nuevo prototipo en la fase de desarrollo. A menos que haya tenido que empezar de cero, que a veces ocurre, en este punto el prototipo da una idea clara de cómo va a ser el contenido final, ya con textos, interacciones y demás. También es el momento de hacer pruebas de distribución, usabilidad y seguimiento, y de validar el contenido y los conceptos tratados.
  • La tercera y posteriores iteraciones son básicamente repeticiones de la segunda hasta conseguir un producto final adecuado. En general se trata de diseñar cambios en función de los resultados de las pruebas de uso y de los comentarios de los expertos en la materia. El peso de las iteraciones lo lleva la producción más que el diseño, y en mi caso tienden a ser ciclos cada vez más cortos.

Problemas

Allen dice que más de tres iteraciones no deberían ser necesarias en la mayoría de los casos, porque el equilibrio entre esfuerzo y resultados disminuye con cada una de más. Le doy la razón en esto último, pero hasta ahora siempre he necesitado al menos un par de ciclos más para quedar contento. Concuerdo en que a partir de ahí se entra en una espiral de perfeccionamiento que alarga los plazos a lo tonto. Desde luego, la situación ideal es poder lanzar el producto final, recoger datos durante un tiempo, y hacer un nuevo ciclo a partir de ahí para pulir todo lo que se quedó en el tintero… pero pocos proyectos se permiten ese lujo.

El otro gran riesgo, que desde mi punto de vista es el mayor, es poner demasiado esfuerzo en la primera iteración, especialmente en el diseño. Descartar prototipos siempre es complicado; al fin y al cabo, los has hecho así porque parecía una buena opción. No es fácil encontrar el equilibrio para que el prototipo se entienda y a la vez no se haya comido más tiempo del que estoy dispuesto a tirar por la ventana (la dichosa aversión a la pérdida), pero es la clave para no frustrarse nada más empezar.

Conclusiones

SAM1 es sencillo, fácil de explicar a los clientes (a todo el mundo le encantan los prototipos, aunque a la hora de revisar se haga un poco cuesta arriba) y, si se vigilan los dos problemas explicados arriba, sobre todo es práctico. Sin dobleces, sin procesos largos y con una reducción de la incertidumbre que, en mi opinión, es su mayor ventaja. Lo he adoptado como metodología por defecto, así que mi valoración es claramente positiva. Si no te preocupa trabajar con algunos desajustes entre el modelo y la ejecución puedes usar la versión iterativa de ADDIE,y seguramente no notarás mucha diferencia; pero si te gusta que teoría y práctica encajen, SAM1 es para ti.

Cómo gestionar un proyecto de formación: dejando atrás ADDIE (I)

Análisis-Diseño-Desarrollo-Implementación-Evaluación es una cantinela que todos los que diseñamos formación nos hemos aprendido en algún momento. Es un método directo y sin complejos de gestión de proyectos de e-learning, posiblemente el más extendido, pero se le pueden hacer críticas muy válidas. La mía se basa sobre todo en que es un modelo de fases en el que faltan procesos.

¿Cuál es el problema de ADDIE?

Borradores blog - Google Docs - Google Chrome_2

A nadie se le escapa que comprobar si estás avanzando en la dirección correcta mientras trabajas es importante. Medir resultados al final y ver qué tal lo has hecho es fundamental, pero es francamente un mal momento para descubrir que tu idea no era buena desde el principio. Incluso si haces esa evaluación al final de cada fase, como sugieren las últimas variaciones de la secuencia A-D-D-I-E, sigue habiendo un riesgo muy alto de que sea demasiado tarde para hacer todas las correcciones necesarias, no digamos ya para cambiar de enfoque. Por eso la mayoría incluimos pequeños ciclos de diseño, desarrollo y evolución dentro de cada una de las fases, probablemente incluso para cada entregable de cada fase. No es exactamente una novedad: los métodos ágiles de gestión de proyectos van por ahí. Pero en este campo por algún motivo lo hacemos escondiendo esos ciclos dentro de ADDIE y sin documentarlo, como si romper la ortodoxia del modelo no mereciera figurar en nuestros informes. Puede que me equivoque generalizando, pero creo que casi nadie aplica ADDIE en su forma más pura, sino que proliferan los apaños caseros.

El título de esta entrada no es, por tanto, exacto: nunca he aplicado ADDIE tal cual, así que no puedo abandonarlo. En algún proyecto de largo recorrido ni siquiera he estado cerca, y he trabajado con un modelo ad hoc, pero ese es un lujo viable únicamente cuando tienes muchos meses para pulirlo.

El modelo de aproximaciones sucesivas (SAM).

Una metodología fiable permite empezar con paso firme, sabiendo que no te vas a dejar nada por el camino. Y buscando algo que no fuera un nuevo parche dí con SAM, desarrollado por Michael Allen. Allen es un habitual en los círculos de debate del e-learning y la formación corporativa, y tiene un discurso sensato, así que parecía una buena apuesta. Lo es en términos generales, porque pone negro sobre blanco lo que describía al principio de la entrada: cómo incluir pequeños ciclos de trabajo en las distintas etapas de un proyecto, para generar y validar entregables que permitan ver si vas por buen camino o no. Allen se pasa medio libro diciendo que su modelo no es un ADDIE con iteraciones, pero la verdad es que no me ha convencido de ello, y creo que los paralelismos son fáciles de encontrar:

Borradores blog - Google Docs - Google Chrome

Tampoco es raro, porque las fases de ADDIE son tan obvias, quizá tan naturales, que no creo que haya que romperlas necesariamente: simplemente hacía falta que alguien describiera lo que todos hacemos.

No llego tan lejos como el autor, achacando a un mal modelo de gestión el origen de los males de la formación corporativa. De hecho creo que la mayor parte de la responsabilidad cae sobre el diseño didáctico. Pero sí le doy la razón en que una mala gestión de los riesgos y poca flexibilidad, especialmente en la producción, tienden a generar resultados muy poco adaptados a las necesidades de los alumnos. Me gusta especialmente el énfasis que pone en la exploración de diseños alternativos, y en el análisis de necesidades continuado (que obviamente van de la mano).

Las bases de una buena gestión.

Allen considera que hay cuatro criterios fundamentales en los que debe basarse cualquier proceso de gestión de proyectos:

  1. Debe ser iterativo, para hacer las correcciones que toquen cuando suponen menos coste
  2. Debe facilitar la colaboración, no tanto para mejorar el resultado final sino para acortar los tiempos.
  3. Debe ser eficiente y efectivo (menuda sorpresa), lo que implica tanto evitar el perfeccionismo como detectar cuándo vale la pena invertir un esfuerzo extra para mejorar el resultado final.
  4. Debe ser manejable, en el sentido de que deje claro quién hace cada cosa y permita predecir el impacto de los cambios hechos sobre la marcha.

Son criterios de sentido común y bastante amplios; posiblemente, sobre el papel, cualquier modelo de gestión cumple con ellos. Sin embargo, me parece interesante cómo SAM logra convertirlo en acciones concretas con sencillez. Como estos objetivos no dependen de las mismas variables en proyectos grandes y pequeños, SAM tiene dos variantes: un nivel uno (SAM1) apropiado para proyectos o equipos pequeños y sin demasiadas complicaciones tecnológicas, y un nivel dos (SAM2) para los que tienen más miga.

En una próxima entrada repasaré SAM1, que está ya en mi vida en plan no-sé-cómo-no-lo-he-hecho-así-siempre-porque-es-de-cajón. SAM2 son palabras mayores y no he tenido ocasión para probarlo en condiciones, así que dejaré su revisión para más adelante.