Témoignage : expérimentation de la formation « Travailler autrement : les astuces à connaître, les biais à éviter » à la DITP
Paru dans le N°3 - Mai 2023
LA VIE DE LA COMMUNAUTÉ
« La DITP vient de publier une nouvelle formation, « Travailler autrement : les astuces à connaître, les biais à éviter ». Celle-ci a pour objectif de faire découvrir et comprendre les limites naturelles de notre cerveau, et de proposer de nouvelles pratiques de travail plus efficaces. Destinée à tous les agents, elle s’appuie fortement sur les enseignements issus de la recherche en sciences cognitives et comportementales. Cette formation a fait l’objet, au printemps dernier, d’une expérimentation auprès d’un millier d’agents appartenant à 8 organisations différentes.
Expérimenter suppose au préalable de définir ce que l’on attend de l’expérimentation, et donc mettre en place le dispositif d’évaluation adéquat, mais aussi être prêt, en conséquence, à modifier ce qui ressortira de l’évaluation. Ici, ce qui intéressait la DITP, c’était bien évidemment le fond, les contenus, mais aussi la forme, l’expérience-usager, et notamment la fluidité des parcours.
La DITP a d’abord mis en place un dispositif d’écoute léger sous la forme d’un questionnaire très court (3 questions) à la fin de chaque module permettant de suivre « en direct » les réactions des utilisateurs. Nous avons également exploité les commentaires et questions des agents sur le forum. Il était aussi intéressant de suivre l’activité des premiers expérimentateurs pour vérifier qu’elle correspondait bien à ce qui était attendu et, dans le cas contraire, effectuer quelques relances ciblées auprès des organisations. Pour ça, l’exploitation des journaux d’activité a été très utile.
La phase d’évaluation proprement dite doit être centrée sur ce qui est réellement utile à l’évaluateur, sans superflu. Ça peut être l’amélioration des connaissances sur un sujet donné (ici, le niveau de maîtrise de certains comportements) ou ce qui permettra de prendre des décisions (modification de contenu ou de présentation). À la fin de la période d’expérimentation, nous avons donc lancé un questionnaire afin de savoir comment la formation avait été utilisée (mesure du niveau d’engagement à chaque étape), comment elle avait été perçue (mesure de la satisfaction des agents et de la pertinence des contenus, et si elle pouvait initier des changements de comportements (perception de l’impact à travers les intentions de mise en pratique et l’adoption de nouveaux modes de travail). Un questionnaire Sphinx (3 questions) a également été adressé aux inscrits qui n’avaient réalisé aucun module. Des relances ciblées ont permis d’assurer une bonne diversité des retours (agents à forte/faible activité).
Les réponses aux questionnaires et les données d’utilisation extraites de Mentor nous ont fait prendre conscience des changements à apporter : casser l’« effet liste » des modules par l’utilisation des formats « tiles » et « cards », insérer des fichiers de synthèse des messages-clés, ajouter un guide de l’utilisateur ou tout simplement modifier l’intitulé de la formation. »
Expérimenter suppose au préalable de définir ce que l’on attend de l’expérimentation, et donc mettre en place le dispositif d’évaluation adéquat, mais aussi être prêt, en conséquence, à modifier ce qui ressortira de l’évaluation. Ici, ce qui intéressait la DITP, c’était bien évidemment le fond, les contenus, mais aussi la forme, l’expérience-usager, et notamment la fluidité des parcours.
La DITP a d’abord mis en place un dispositif d’écoute léger sous la forme d’un questionnaire très court (3 questions) à la fin de chaque module permettant de suivre « en direct » les réactions des utilisateurs. Nous avons également exploité les commentaires et questions des agents sur le forum. Il était aussi intéressant de suivre l’activité des premiers expérimentateurs pour vérifier qu’elle correspondait bien à ce qui était attendu et, dans le cas contraire, effectuer quelques relances ciblées auprès des organisations. Pour ça, l’exploitation des journaux d’activité a été très utile.
La phase d’évaluation proprement dite doit être centrée sur ce qui est réellement utile à l’évaluateur, sans superflu. Ça peut être l’amélioration des connaissances sur un sujet donné (ici, le niveau de maîtrise de certains comportements) ou ce qui permettra de prendre des décisions (modification de contenu ou de présentation). À la fin de la période d’expérimentation, nous avons donc lancé un questionnaire afin de savoir comment la formation avait été utilisée (mesure du niveau d’engagement à chaque étape), comment elle avait été perçue (mesure de la satisfaction des agents et de la pertinence des contenus, et si elle pouvait initier des changements de comportements (perception de l’impact à travers les intentions de mise en pratique et l’adoption de nouveaux modes de travail). Un questionnaire Sphinx (3 questions) a également été adressé aux inscrits qui n’avaient réalisé aucun module. Des relances ciblées ont permis d’assurer une bonne diversité des retours (agents à forte/faible activité).
Les réponses aux questionnaires et les données d’utilisation extraites de Mentor nous ont fait prendre conscience des changements à apporter : casser l’« effet liste » des modules par l’utilisation des formats « tiles » et « cards », insérer des fichiers de synthèse des messages-clés, ajouter un guide de l’utilisateur ou tout simplement modifier l’intitulé de la formation. »
Vincent LAHUEC – Chef de projet innovation et accompagnement managérial
Direction interministérielle de la Fonction Publique
Direction interministérielle de la Fonction Publique