Journée scientifique du LICEF

Transcription

Journée scientifique du LICEF
Journée du LICEF 2016
Journée scientifique du LICEF
Modélisation d’environnements
fonctionnels
9 juin 2016
www.licef.ca
Journée du LICEF 2016
Table des matières
PartieI.............................................................................................................................................2
I. Assistanceàlaconceptiondecoursenligneouvertsetmassifs(CLOM)soutenantun
apprentissagepersonnalisé......................................................................................................................3
II. Estimationdelacinématiquetridimensionnelledugenoubaséesurl’optimisationparessaimde
particules................................................................................................................................................10
III. Modélisationfonctionnelledel’aidedeWikipédiadansl’acquisitiondeconceptsàpartirde
textes......................................................................................................................................................14
IV. Hybridbattery-friendlymobilesolutionforextractingusers’visitedplaces................................17
V. CARTON:Do-It-Yourselfapproachtoturnasmartphoneintoasmarteyewear............................21
Acknowledge...........................................................................................................................................26
VI. Conceptiond’unearchitecturedegénérationautomatiquepourlesjeuxsérieuxéducatifs:lecas
deGameofHomes..................................................................................................................................27
VII. Mieuxprédirelaréponsedelaforêtauxchangementsclimatiquesviaunemeilleure
compréhensiondesinteractionsentrelesespècesd’arbre:Lecasdel’érableàsucre........................33
VIII. AméliorerlapersévérancedanslesCLOM
parl'applicationdesmeilleurespratiquesen
conceptionpédagogique........................................................................................................................35
IX. Gamebasedlearning:acasestudyondesigninganeducationalgameforchildrenoutof
schooling.................................................................................................................................................40
X. Planificationdesservicespédagogiquespourlagénérationdesscénariosd’apprentissages
personnalisésdanslejeusérieuxKSMS..................................................................................................46
XI.
Ducurriculumaujeu,quelmodèle?.............................................................................................50
XII. STI-DICO:unsystèmetutorielintelligentpourledéveloppementdesconnaissanceset
compétencesdictionnairiqueschezlesfutursmaîtresauprimaire.......................................................57
XIII. Déterminationd’unpatronreprésentatifdelacinématique3Ddugenouàl’aided’uneanalyse
fonctionnelledesdonneés......................................................................................................................61
XIV.
Analysedecomplexitédesdonnéescinématiquestridimensionnellesdugenou.....................66
PartieII..........................................................................................................................................71
I. DBR,uneméthodologiederecherchepourledesignd’environnementsd’apprentissage.............72
Journée du LICEF 2016
II.
Utilisationdelathéoriedesréseauxpourévaluerlarésilienceécologiquedesforêtsfragmentées
75
III. Versdesorthèsescognitivesgrandspublics:lacombinaisondelasensibilitéaucontexte,dela
reconnaissanced’activitéetdelaréalitéaugmentée............................................................................78
IV.
LesMOOCetévolutiondel’ingénieriepédagogique....................................................................82
V. OntoCASE4GOWL:Versunoutilsémantiqued’éditiongraphiqued’ontologiesOWLdansle
contextedesutilitésélectriqueschezHydro-Québec............................................................................85
VI.
Conceptiond’unpatronnomméLearningGameScenario...........................................................89
VII.
Personnalisationdanslescoursenligneouvertsetmassifs........................................................94
VIII. LapréventiondestroublesmusculosquelettiqueschezlepersonnelinfirmierauQuébec:
l’explicationdesthéoriesdutransfertdeconnaissances.......................................................................98
Journée du LICEF 2016
Le mot de la direction du LICEF
Bienvenue à la première édition des journées scientifiques du LICEF organisée sous le thème
de modélisation d’environnements fonctionnels.
Le centre de recherche LICEF, créé en 1992 sous l’appellation Laboratoire d’informatique
cognitive et environnements de formation, a subit au cours des années une évolution de ces
thèmes. Il s'affirme de plus en plus comme une plateforme de services de haut niveau qui
rassemble des savoirs à la fine pointe de l'évolution technologique pouvant révolutionner
plusieurs domaines de recherche dans lesquels les chercheurs sont actifs et sur laquelle leurs
projets s’appuient.
Aujourd’hui, le LICEF a pour mission la réalisation d’activités de recherche et de
développement/innovation en vue du progrès des modèles, des méthodes et des
environnements technologiques facilitant l’apprentissage et la gestion des connaissances chez
l’individu, dans les organisations et dans divers types d’environnements.
Face à ce développement, nous avons mis en avant dans cette première édition de la journée du
LICEF le thème de modélisation d’environnements fonctionnels qui couvrent, entre autres, les
environnements technologiques de support à l’apprentissage, à la prise de décision dans divers
domaines dont la santé et l’environnement, la sécurité routière, le télé monitoring et
l’élaboration d’architectures technologiques ouvertes et mobiles.
Ce large spectre met en évidence l’aspect interdisciplinaire et même intersectoriel des activités
de recherche au LICEF. Dans ce contexte les défis rencontrés sollicitent notre capacité à créer
des synergies entre les différents domaines et disciplines. Ainsi, cette journée est
particulièrement l’occasion d’affronter les enjeux pour relever ces défis.
Nous remercions tous les auteurs qui ont soumis des propositions d’articles d’avoir contribué à
enrichir le programme scientifique de cette journée. Ce programme couvre des présentations
orales et par affiche des étudiants (Partie I de ces actes), des présentations orales des
chercheurs (Partie II de ces actes) ainsi que des kiosques et démonstrations thématiques des
réalisations des équipes de recherches.
Nous voudrions, aussi, remercier le comité d’évaluation des articles formé par les professeurs
Wassim Bouachir (Pr. en informatique), Charles Gouin-Vallerand (Pr. en informatique),
Daniel Lemire (Pr. en informatique), Marcello Maina (Pr. en éducation) et Évelynes Vallières
(Pre. en psychologie) d’avoir participé au processus de relecture. Ils ont effectué un excellent
travail malgré les échéances très courtes.
Journée du LICEF 2016
Nous remercions également les services de communications, plus particulièrement, Mesdames
Nathalie Letendre, Isabelle Pelletier et Jacynthe Guillemette pour leur support à la
communication. Ce fut un plaisir de collaborer avec elles tout au long de l’organisation de cet
événement.
Finalement, nous ne serions passer sous licence l’excellente collaboration des services technopédagogiques qui ont pris à leur charge l’impression de ces actes.
Nous souhaitons à tous les participants une journée de recherche riche en échanges
scientifiques.
Neila Mezghani
Directrice Scientifique du LICEF
Journée du LICEF 2016
Partie I
2
Journée du LICEF 2016
I.
Assistance à la conception de cours en ligne ouverts et massifs (CLOM)
soutenant un apprentissage personnalisé
Rim Bejaoui, Gilbert Paquette et Josianne Basque
Centre de recherche LICEF, TÉLUQ, Québec, Canada.
1. Contexte et problématique
Dans la littérature, on déplore le manque de soutien fourni aux concepteurs de CLOM (AlarioHoyos, Pérez-Sanagustín, Cormier, & Delgado-Kloos, 2014), alors que ce type de formation en
ligne pose des défis nouveaux aux plans pédagogique, logistique, technologique et
administratif. Certains chercheurs travaillent à développer des instruments qui permettraient
d’analyser dans quelle mesure les CLOM respectent des principes associés à un design
pédagogique de qualité (Raposo-Rivas, Martinez-Figueira et Sarmiento Campos, 2015 ; Yousef
et al., 2014), mais ces travaux demeurent exploratoires et leurs fondements théoriques peu
explicités. En particulier, la personnalisation de l’apprentissage offerte dans les CLOM
demeure encore peu abordée dans ces travaux. Il s’agit d’une question qui se pose pourtant
avec acuité compte tenu du grand nombre d’apprenants (massivité) dans un CLOM. Plusieurs
auteurs soulèvent ainsi le besoin urgent de personnaliser davantage l’apprentissage dans les
CLOM (Kravcik, Santos et Boticario, 2014), notamment pour pallier leur faible qualité
pédagogique et augmenter la rétention des participants (Blanco, García-Peñalvo et SeinEchaluce, 2013 ; Miranda et al., 2013). Les études menées à ce jour définissent sommairement un
ensemble de pratiques pédagogiques visant à améliorer la qualité pédagogique dans les
CLOM, notamment en y soutenant un apprentissage personnalisé, mais sans approfondir cette
dernière dimension. D'autres études décrivent des démarches plus ou moins opérationnelles
pour la conception de CLOM adaptatifs (Blanco, García-Peñalvo et Sein-Echaluce, 2013 ;
Santos, Boticario et Pérez-Marín, 2014) et d'autres encore proposent des solutions de
personnalisation mais qui n'ont pas encore été expérimentées dans des plateformes de CLOM
(Clerc, 2014 ; Halimi, Seridi-Bouchelaghem et Faron-Zucker, 2014 ; Henning et al., 2014 ; Mott,
2010 ; Paquette et al., 2015 ; Pedro et al., 2012 ; Shaw, 2013 ; Szafir et Mutlu, 2013 ; Yang et al., 2014).
Il y a donc un besoin d’outiller le concepteur de CLOM afin de l’assister dans sa prise de
décision quant aux options de personnalisation de l’apprentissage qu’il peut envisager. C’est à
ce besoin que notre projet de recherchei vise à répondre.
2. Cadre théorique et méthodologie
Notre cadre théorique est fondé sur les principes de la pédagogie ouverte, sur les méthodes
d'ingénierie pédagogique (en particulier, la méthode d'ingénierie des systèmes d'apprentissage
3
Journée du LICEF 2016
MISA), sur les avancées en matière de personnalisation des apprentissages dans des
environnements numériques d’apprentissage (ENA) et sur les ontologies en tant qu’outil de
modélisation formelle pour l'analyse, la conception et le développement d’ENA. Dans cette
recherche, nous avons adopté une démarche itérative de type recherche-développement
appliquée à l’informatique cognitive (Harvey et Loiselle, 2009 ; Paquette, 2010) mettant en
œuvre cinq phases de recherche : (1) l'analyse du problème, (2) la modélisation d'une ontologie
d'un scénario pédagogique de CLOM soutenant un apprentissage personnalisé (CLOMp), (3) la
construction d’une grille d’évaluation du niveau de personnalisation dans un CLOM, (4) la
construction d’un prototype d’un système d'assistance à la conception de CLOMp et (5)
l'évaluation des résultats de la recherche, incluant une validation de la grille d’analyse auprès
de quatre experts en ingénierie pédagogique et en personnalisation de l’apprentissage et une
mise à l’essai du prototype du système d’assistance à la conception de CLOMp auprès de
quatre autres experts dans le même domaine.
3. Résultats
Groupes de propriétés soutenant la personnalisation de l’apprentissage dans un CLOM
La personnalisation de l'apprentissage dans un CLOM est favorisée par la présence de deux
groupes de propriétés, à savoir :
1) des propriétés d’adaptation des composantes du scénario pédagogique du CLOM, faisant
référence au niveau d'adaptabilité (ou de modificabilité) de certaines composantes du
scénario pour convenir aux besoins spécifiques des apprenants. Ces adaptations peuvent
être accomplies par l'un des quatre principaux acteurs du CLOM (facilitateur, agent
logiciel, apprenant ou groupe d'apprenants) et portent, par exemple, sur les compétences
visées dans le CLOM, le moment de démarrage d’une activité d'apprentissage, le mode de
collaboration entre les apprenants ;
2) des propriétés d'assistance et d'aide à l'autogestion de l’apprentissage, faisant référence au
niveau avec lequel le CLOM offre des ressources d'assistance et d'aide à l'autogestion de
l’apprentissage (ressources 4A), aidant les apprenants tant à acquérir des compétences
disciplinaires liées au CLOM qu’à améliorer leur autonomie dans leur expérience
éducative. Ceci inclut la mise à disposition de l'apprenant, par un agent logiciel ou un
acteur humain du CLOM, de ressources variées telles qu'un outil d’autodiagnostic des
compétences, un outil de planification du travail, en e-portfolio, etc.
Ontologie d'un scénario pédagogique de CLOM soutenant un apprentissage personnalisé
Ces deux groupes de propriétés ont servi à définir une ontologie décrivant un scénario
pédagogique de CLOMp. La figure 1 présente le niveau supérieur de notre ontologie. Les
composantes adaptables du scénario y sont représentées à l’aide des rectangles roses foncé.
Certaines composantes s’appliquent sur le scénario global (voir encadré rouge dans la figure 1)
et d’autres sur les activités incluses dans le scénario (voir encadré vert dans la figure 1). Les
ressources d'assistance et d'aide à l'autogestion de l’apprentissage sont représentées à l'aide du
rectangle Ressource-4A. Ces dernières sont spécifiées dans un sous-modèle de l’ontologie. La
classe Propriétés de personnalisation de l’apprentissage englobe l’ensemble des propriétés définies
dans la section 3.1 et permet d’associer un certain niveau de personnalisation de
l’apprentissage au scénario pédagogique du CLOM. Ce niveau est représenté, dans l’ontologie,
par la classe Niveau de personnalisation de l’apprentissage.
4
Journée du LICEF 2016
Figure 1 : Niveau supérieur de l'ontologie d'un scénario pédagogique de CLOMp
Grille d’analyse du niveau de personnalisation de l’apprentissage dans un CLOM
Notre grille d’analyse quantifiée du niveau de personnalisation de l’apprentissage dans un
CLOM (la figure 2 montre un extrait de la grille produit lors de l’analyse du CLOM ds106.us)
porte sur les différentes composantes adaptables et ressources 4-A qui ont été définies dans
notre ontologie et sert à déterminer si elles sont présentes et jusqu’à quel point elles
soutiennent la personnalisation de l’apprentissage. Pour ce faire, notre grille se base sur une
méthode de calcul (non détaillée dans cet article) du niveau de personnalisation du CLOM
analysé, qui tient compte à la fois :(1) de la présence/absence des différentes propriétés
d’adaptation des composantes du scénario et ressources-4A dans le CLOM analysé et (2) d’une
valeur de pondération qui est associée à chaque propriété d’adaptation de composante et à
chaque ressources-4A du CLOM. Les valeurs de pondération, définies à l’aide de règles que
nous ne présentons pas dans cet article, peuvent aller de « 0 » à « 4 »,« 0 » signifiant que la
propriété d’adaptation de la composante ou la ressource-4A qui se trouve dans le CLOM
analysé n’est pas du tout importante pour la personnalisation de l'apprentissage et « 4 » signifiant
qu’elle est très importante pour la personnalisation de l'apprentissage. Le tableau 1 montre les
résultats d'analyse du CLOM DS106, incluant les scores de personnalisation de l'apprentissage
obtenus par ce dernier.
5
Journée du LICEF 2016
Figure 2 : Extrait de la grille d’analyse du niveau de personnalisation de l’apprentissage dans un CLOM
appliquée à DS106
Tableau 1 : Résultats d'analyse du CLOM DS106
Score
Interprétation
42.91%
A.1. Adaptabilité des CHN par un agent externe
0.00%
Moyennement
présente
Moyennement
présente
Absente
A.2. Adaptabilité des CHN par l’apprenant
72.73%
Assez présente
46.09%
Moyennement
présente
B.1. Adaptabilité des CAA par un agent externe
0.00%
Absente
B.2. Adaptabilité des CAA par l’apprenant
69.44%
Assez présente
37.78%
Moyennement
présentes
C.1. Guides-4A
66.67%
Assez présents
C.2. Instruments-4A
0.00%
Absents
C.3. Outils-4A
37.50%
C.4.Services-4A
50.00%
Moyennement
présents
Moyennement
présents
Personnalisation de l'apprentissage (PA) globale
A. Adaptabilité des Composantes de Haut Niveau (CHN)
B. Adaptabilité des Composantes liées aux activités
d’apprentissage (CAA)
C. Ressources d’Assistance et Aide à l’Autogestion de
l’Apprentissage (Ressources-4A)
44.44%
6
Journée du LICEF 2016
Prototype d'un système d’assistance à la conception de CLOMp
Notre ontologie et notre grille d’analyse ont été intégrés dans un prototype d'assistance à la
conception pédagogique, prenant la forme d'un scénario exécutable sur la plateforme
TELelearning Operating System (TELOS) (Paquette et al., 2007). Ce scénario propose à son
principal acteur, le concepteur, un ensemble de tâches à réaliser dans le but de concevoir une
solution préliminaire de CLOM, entre autres, l'identification et la définition des composantes
adaptables du CLOM et des ressources d'assistance et d'aide à l'autogestion qui seront mises à
la disposition des apprenants. Il résulte de l'exécution du scénario un devis préliminaire de
CLOM incluant, d'une part une analyse de son niveau de personnalisation de l'apprentissage
et, d'autre part, des conseils pour améliorer ce niveau. Notre prototype, dont nous montrons
un aperçu dans la figure 3, peut être utilisé tôt dans le processus de conception, afin de
constituer une solution préliminaire de CLOM, tout en ayant en tête les possibilités de
personnalisation de l'apprentissage. Il peut aussi être utile plus tard dans le processus de
conception, lorsqu'on s'approche de la diffusion du CLOM, pour organiser et faire un retour
réflexif sur des décisions de conception prises préalablement.
Figure 3 : Aperçu de l’interface du prototype d’assistance à la conception de CLOMp à l’étape
« Visualiser les ressources-4A manquantes »
4. Conclusion
Nos travaux ont permis, d’une part, de clarifier les diverses propriétés de personnalisation de
l’apprentissage qui peuvent s’appliquer dans les CLOM et, d’autre part, de montrer qu’un
système d’assistance, dont nous avons développé un prototype innovateur intégrant une grille
d’analyse de ces propriétés, pourrait être un outil utile pour guider le concepteur de CLOM
dans sa prise de décision en matière de personnalisation de l’apprentissage. Nous pensons
qu’il serait judicieux d’envisager l’intégration de notre grille d’analyse et de notre prototype à
des plateformes de développement de CLOM répandues (ex. l’outil Studio de la plateforme
7
Journée du LICEF 2016
OpenEdx) afin d’évaluer leur intérêt auprès de concepteurs pédagogiques en situation
authentique et aussi d’évaluer si effectivement, la présence des propriétés de personnalisation
de l'apprentissage dans les CLOM permet d’assurer un apprentissage significatif à l’apprenant,
d’augmenter la rétention des apprenants et de favoriser l'ouverture (pédagogique) du CLOM.
Références bibliographiques
Alario-Hoyos, C., Pérez-Sanagustín, M., Cormier, D., & Delgado-Kloos, C. (2014). Proposal for a
Conceptual Framework for Educators to Describe and Design MOOCs. Journal of Universal Computer
Science, 20(1), 6‑23.
Amo, D. (2013). MOOCs: experimental approaches for quality in pedagogical and design fundamentals.
Dans Proceedings of the First International Conference on Technological Ecosystem for Enhancing
Multiculturality (pp. 219–223). ACM. Repéré à http://dl.acm.org/citation.cfm?id=2536570
Blanco, Á. F., García-Peñalvo, F. J., & Sein-Echaluce, M. (2013). A methodology proposal for developing
adaptive cMOOC. Dans Proceedings of the First International Conference on Technological Ecosystem for
Enhancing Multiculturality (pp. 553–558). ACM. Repéré à http://dl.acm.org/citation.cfm?id=2536621
Clerc, F. (2014). Mise en Place de la Personnalisation Dans le Cadre des MOOCs (Rapport de stage M2
Recherche). Laboratoire LIRIS, CNRS de l’Université Lyon 1. Repéré à http://elearning-dev.univlyon1.fr/persua2mooc/manuals/rapport.pdf
Halimi, K., Seridi-Bouchelaghem, H., & Faron-Zucker, C. (2014). An enhanced personal learning
environment using social semantic web technologies. Interactive Learning Environments, 22(2), 165–187.
Harvey, S., & Loiselle, J. (2009). Proposition d’un modèle de recherche développement. Recherches
qualitatives, 28(2), 95–117.
Henning, P., Heberle, F., Streicher, A., Swertz, C., Bock, J., & Zander, S. (2014). Personalized Web
Learning: Merging Open Educational Resources into Adaptive Courses for Higher Education. In
proceedings of the 4th Workshop on Personalization Approaches for Learning Environments (PALE
2014). Kravcik, M., Santos, OC and Boticario, JG. Dans 22nd conference on User Modeling, Adaptation, and
Personalization (UMAP 2014), CEUR workshop proceedings, this volume (pp. 55–62).
Kravcik, M., Santos, O. C., & Boticario, J. G. (2014). Preface (pp. 1‑6). Communication présentée au 4th
International Workshop on Personalization Approaches in Learning Environments (PALE 2014).
Repéré à http://ceur-ws.org/Vol-1181/pale2014_preface.pdf
Miranda, S., Mangione, G. R., Orciuoli, F., Gaeta, M., & Loia, V. (2013). Automatic generation of
assessment objects and Remedial Works for MOOCs. Dans 2013 International Conference on Information
Technology Based Higher Education and Training (ITHET) (pp. 1‑8). doi :10.1109/ITHET.2013.6671018
Mott, J. (2010). Envisioning the post-LMS era: the Open Learning Network. Educause Quarterly, 33(1), 1–9.
Paquette, G. (2010). Modeling for Research and Communication. Dans Visual Knowledge Modeling for
Semantic Web Technologies: Models and Ontologies (pp. 439–465). (S.l.) : IGI Global. Repéré à
http://services.igi-global.com/resolvedoi/resolve.aspx?doi=10.4018/978-1-61520-839-5
Paquette, G., Mariño, O., Rogozan, D., & Léonard, M. (2015). Competency-based personalization for
massive online learning. Smart Learning Environments, 2(1), 4. doi :10.1186/s40561-015-0013-z
Paquette, G., Rosca, I., Mihaila, S., & Masmoudi, A. (2007). TELOS: A service-oriented framework to
support learning and knowledge management. Dans E-Learning Networked Environments and
Architectures
(pp.
79–109).
(S.l.) :
Springer.
Repéré
à
http://link.springer.com.tlqprox.teluq.uquebec.ca/chapter/10.1007/978-1-84628-758-9_4
Pedro, L., Santos, C., Almeida, S., & Koch-Grünberg, T. (2012). Building a Shared Personal Learning
Environment with SAPO Campus. Dans PLE Conference Proceedings (Vol. 1). Repéré à
http://revistas.ua.pt/index.php/ple/article/view/1426/1312
Raposo-Rivas, M., Martinez-Figueira, E., & Sarmiento Campos, J.-A. (2015). A Study on the Pedagogical
Components of MOOC. Comunicar, 44. doi :10.3916/C44-2015-03
Santos, O. C., Boticario, J. G., & Pérez-Marín, D. (2014). Extending web-based educational systems with
personalised support through User Centred Designed recommendations along the e-learning life cycle.
Science of Computer Programming, 88, 92‑109. doi :10.1016/j.scico.2013.12.004
8
Journée du LICEF 2016
Shaw, C. J. (2013). System design and architecture of an online, adaptive, and personalized learning platform.
Massachusetts Institute of Technology. Repéré à http://dspace.mit.edu/handle/1721.1/81128
Szafir, D., & Mutlu, B. (2013). ARTFul: adaptive review technology for flipped learning. Dans Proceedings
of the SIGCHI Conference on Human Factors in Computing Systems (pp. 1001–1010). ACM. Repéré à
http://dl.acm.org/citation.cfm?id=2466128
Yang, D., Piergallini, M., Howley, I., & Rose, C. (2014). Forum thread recommendation for massive open
online courses. Dans Proceedings of 7th International Conference on Educational Data Mining. Repéré à
http://educationaldatamining.org/EDM2014/uploads/procs2014/short%20papers/257_EDM-2014Short.pdf
Yousef, A. M. F., Chatti, M. A., Schroeder, U., & Wosnitza, M. (2014). What Drives a Successful MOOC?
An Empirical Examination of Criteria to Assure Design Quality of MOOCs. Dans Proceedings of the 2014
IEEE 14th International Conference on Advanced Learning Technologies (pp. 44–48). IEEE Computer
Society. Repéré à http://dl.acm.org/citation.cfm?id=2672199
9
Journée du LICEF 2016
II.
Estimation de la cinématique tridimensionnelle du genou basée sur
l’optimisation par essaim de particules
Badreddine Ben Nouma1, Neila Mezghani2,3, Youssef Ouakrim3, Amar Mitiche1
1
Énergie Matériaux Télécommunications - INRS, Institut national de la recherche scientifique,
Montréal,
2
Centre de recherche LICEF, TELUQ, Montréal, Québec,
3
Laboratoire de recherche en imagerie et orthopédie, CRCHUM, Montréal, Québec
Résumé :
Cette approche se repose sur le principe de la minimisation de la variance toute en
conservant la forme réelle des courbes acquises. Le test de l’approche proposée a été
appliqué sur une base de données de 42 patients répartie équitablement sur 2 classes :
les sujets asymptomatiques (AS) et les patients souffrant de l’arthrose du genou (OA).
L’évaluation de notre approche est assurée à travers la méthode d’ajustement linéaire.
La validation de cette dernière est réalisée en fonction des instruments de mesure
suivants : justesse, sensitivité, sensibilité et la fiabilité.
Mots clés : Estimation, OEP, genou, arthrose, asymptomatique
1. Introduction
De nos jours, l'analyse des données biomécaniques et particulièrement des données
cinématiques de la locomotion du genou est devenu le centre d'intérêt de plusieurs
chercheurs. Le but de cet intérêt est l'automatisation de la classification des pathologies. Les
données cinématiques du genou sont définies dans les trois plans suivants : le plan frontal qui
correspond à la rotation de flexion-extension principale du genou, le plan sagittal qui
représente la rotation interne et externe de cette articulation et le plan transversal qui
représente la rotation d'abduction et adduction. Ces données sont collectées durant plusieurs
cycle de marche à l'aide d'un exosquelette. L'acquisition des données cinématiques est
confrontée à une variabilité interclasse c’est-à-dire au sein d'une même classe à cause de
nombreux facteurs. La tendance s'oriente vers l'aboutissement à un ensemble d'essais, pour un
seul candidat, relativement superposés. Par conséquent, le défi de la classification de formes
est la recherche de la forme la plus représentative d'une classe et aussi bien d'un candidat.
Deux méthodes fréquemment utilisées dans le domaine de la biomécanique du genou pour le
choix du cycle de marche. La première consiste à prendre la moyenne des courbes d'essais,
d'un seul sujet acquis dans les mêmes conditions, comme courbe représentative du candidat.
La deuxième se repose sur le principe du coefficient de corrélation intraclasse pour
10
Journée du LICEF 2016
déterminer les cycles les plus représentatifs (1). Ces méthodes ne sont pas adaptées à la
complexité des signaux cinématiques.
Le but de cette étude est d'attaquer à la problématique de l'estimation de cycle de marche afin
d'améliorer la qualité de représenter un sujet. Pour ce faire, nous emploierons la méthode de
OEP pour la minimisation bi-objective d'une fonction de fitnesse. Cette dernière permet la
minimisation simultanée de la variance et de la distance avec les courbes originales.
Autrement dit, l'objective est de construire des courbes les plus proches à leur moyenne et les
plus semblables aux courbes originales pour conserver la forme réelle des données.
L'évaluation de nos résultats est basée sur le degré de similitude de nos courbes avec les
originaux. Nous testons la similitude entre les courbes à travers une méthode d'ajustement
linéaire (2).
2. Méthode
Optimisation par essaim de particules
L'optimisation par essaim de particules est une méthode d'optimisation stochastique
développée par (3) et (4). Elle est caractérisée par un ensemble de variables 𝑃1 , …, 𝑃𝑁
appelées des particules. Cet algorithme permet, itérativement, de modifier les valeurs des
particules afin de trouver les meilleures valeurs qui représentent les solutions optimales par
rapport à la fonction de fitness suivante (1).
1
𝑓 𝐸𝐶 =
𝑁
4
/56
1
𝜖 ∗ 𝑑(𝐸𝐶/ − 𝐶/ ) +
𝑁
4
/56
1
1 − 𝜖 ∗ 𝑑(𝐸𝐶/ −
𝑁
4
𝐸𝐶3 )
356
(1)
EC est le patron représentatif à estimer (le cycle de marche à estimer), N le nombre des courbes
cinématiques, 𝐶/ les courbes cinématiques collectées (originales) avec i l'indice du cycle et 𝜖 un
paramètre qui contrôle la pondération des deux termes à minimiser. Nous avons fixé la valeur
de 𝜖 à 0.5 afin d'assurer la parité entre ces deux termes.
Base de données
L'estimation de la cinématique du genou en utilisant l'optimisation par essaim de particules a
été testée sur une base de données contenant quarante-deux participants : 21 sujets ayant une
arthrose au genou (OA) et 21 sujets asymptomatiques (AS). Les données cinématiques 3D
(flexion-extension, adduction-abduction et la rotation interne-externe), de chaque sujet durant
plusieurs cycles de marche, ont été enregistrées lors de la marche à une vitesse confortable sur
un tapis roulant et en utilisant des marqueurs de mouvement fixés au genou à l'aide du
système d'attache KneeKG [4].
11
Journée du LICEF 2016
Figure 1: Illustration graphique de la correction d’un exemple
Validation
La validation de la méthode proposée est basée sur les mesures suivantes : la justesse, la
sensibilité et la spécificité et la fiabilité. La justesse est définie comme l'étroitesse de l'accord
entre le patron représentatif estimé et l'ensemble des courbes cinématiques collectées. La
sensibilité et la spécificité permettent, respectivement, de mesurer le taux d'une bonne
classification pour les patients OA et le taux d'une bonne classification pour les sujets AS.
Finalement, la fiabilité consiste à évaluer l'ensemble des données résultant en fonction de
coefficient de corrélation inter-cycles (CCI).
3. Résultats
Le tableau 1 résume la justesse des données. La valeur de 𝑅8 = 0,99 élevée démontre la
robustesse de la méthode utilisée. Pour la mesure de sensibilité et la spécificité, nous avons
utilisé un perceptron multi-couche. Nous avons également comparé les résultats obtenus en
utilisant le patron estimé par la méthode PSO à ceux obtenus en utilisant les méthodes
standards telles que celles utilisant la moyenne des courbes ou le coefficient de corrélation
intra-classe. Le tableau 2 résume les résultats de classification. Le taux de bonne classification
s'élève à 78% avec une spécificité de 76% et une sensibilité de 81%. Ces résultats se comparent
favorablement à ceux obtenus avec les méthodes standard (ligne 3 et 4 du tableau 2).
Finalement, le tableau 3 montre une corrélation importante entre l'ensemble de courbes
estimées par la méthode PSO et l'ensemble des courbes collectées (CCI = 0,99).
Table1: Les paramètres de justesse
𝑅2
𝑎1
𝑎𝑞
OA subjects
Moyenne
±𝐸𝑇
0.99±0.0097
0.06±0.009
0.9±0.097
AS subjects
Moyenne ± ET
0.99±0.0094
0.03±0.007
0.99±0.0094
12
Journée du LICEF 2016
Table 2 : Taux de classification
Taux de bonne classification (%)
Patron représentatif en utilisant la méthode PSO
Moyenne des courbes cinématiques
Moyenne des courbes cinématiques les plus
corrélées
OA
76
71
66
AS
81
71
76
Total
78
71
71
Table 3 : Coefficient de corrélation intra-class
r ± écart type
Base de données OA
(0.99±0.012)
Base de données AS
(0.99±0.0052)
4. Conclusion
Dans cette étude, nous avons développé une nouvelle approche qui permet d'estime un patron
représentatif de la cinématique tridimensionnelle du genou en utilisant l'optimisation par
essaim de particules. La méthode proposée a été testée et validée sur une base de données
contenant deux classes : une classe de sujets asymptomatiques et une classe de sujets
arthrosiques. Les résultats obtenus démontrent la pertinence, la justesse et la fiabilité de la
méthode développée. Ils démontrent également de meilleures performances par rapport aux
méthodes standards telles que celles utilisant la moyenne des courbes ou le coefficient de
corrélation intra-classe.
Références bibliographiques
[1] A. Duhamel, et al., Gait & posture 20, 204 (2004).
[2] M. Iosa, et al., BioMed research international 2014 (2014).
[3] J. Kenndy, R. Eberhart, Proceedings of IEEE International Conference on Neural Networks (1995),
vol. 4, pp. 1942–1948.
[4] S. Lustig, R. A. Magnussen, L. Cheze, P. Neyret, Knee Surgery, Sports Traumatology,
Arthroscopy 20, 633 (2012).
13
Journée du LICEF 2016
III.
Modélisation fonctionnelle de l’aide de Wikipédia dans l’acquisition de
concepts à partir de textes
Ludovic Bocken et Daniel Lemire
Centre de recherche LICEF, TÉLUQ, Québec, Canada
Résumé :
Cet exposé présente les grandes lignes méthodologiques et les résultats préliminaires
d’un projet de recherche doctoral en cotutelle en informatique cognitive (TELUQUQAM) et en traitement automatique des langues naturelles (UFC). Celui-ci se focalise
sur l’évaluation de l’aide apportée par Wikipédia dans l’acquisition de concepts
structurés à partir de textes. L’objectif principal de cette présentation est de montrer
comment une problématique multidisciplinaire d’apprentissage hybride (humain et
machine) peut être analysée d’un point de vue fonctionnel. L’importance de cette phase
d’analyse et de modélisation se justifie par la complexité et la grande quantité de
données incertaines, textuelles et non structurées à gérer dans notre projet de
recherche. Face au rasoir d’Ockham, le nombre d’or est décrit comme un moyen
séduisant, pertinent mais problématique.
1. Problématique :
Grâce au web, de plus en plus de connaissances sont disponibles sous la forme de textes.
Cependant, on ne peut pour autant en déduire qu'ils soient "cognitivement" accessibles pour
tous. En effet, la compréhension d'un texte requiert des connaissances antérieures à activer et
des raisonnements. Ainsi un texte avec des mots inconnus sera moins facilement
compréhensible qu'avec des mots fréquents. Les métriques de lisibilité fournissent des
approximations de ce coût cognitif. Or la multidisciplinarité augmente la fréquence et la
complexité des situations d'acquisition de nouveaux concepts. De par sa couverture
thématique, Wikipédia est très utilisée par les internautes et par des algorithmes. Cependant,
son exploitation reste problématique de par l'incertitude de la qualité de la plupart de ses
articles. Il est dès lors utile de recommander les situations optimales d'acquisition de concepts
à partir de Wikipédia. Notre projet de recherche évalue un cadre simplifié pour
l'interprétation et la computation de cette problématique.
2. Méthodologie computationnelle
Nous examinons d'abord des solutions standards dans la recommandation et la classification
de textes. Les métriques de similarité sont d'abord examinées comme représentatives d'un
vocabulaire partagé. Elles permettent une première extraction d'articles Wikipédia candidats
14
Journée du LICEF 2016
pour faciliter la lecture de textes cibles. Ainsi l'analyse sémantique latente nous donne des
indices de similarité par corrélation entre deux textes. Cependant, ces métriques et
algorithmes sont symétriques et ne tiennent pas compte de l'ordre de lecture. Des mesures de
complexité inspirées de mesures de probabilités conditionnelles constituent une alternative
complémentaire. Le dénominateur de ces métriques fonde les relations d'ordre entre les
mesures conditionnelles. On analysera dès lors les relations de complexité entre les deux
textes sous la forme de rapports proportionnels. Cette analyse prendra la forme de séries de
nombres décrivant différents rapports de complexité.
3. Méthodologie cognitive
Pour résumer des séries de données, il est économique de mesurer une fonction d'agrégation
représentative. Un point de vue ergonomique singulier peut être fondé à la fois en sciences
cognitives, mathématiques et sciences naturelles. Le nombre d'or constitue un point de repère
fascinant, car présent dans plus d'une structure biologique. On se demandera dès lors si cette
proportion peut résumer une complexité conditionnelle utile. Cette hypothèse de
classification et de recommandation naïve constituera un guide pour articuler cognition
humaine et artificielle. Des hypothèses cognitives différentielles seront définies en regard de
cette métrique unique. Des stratégies de contrôle qualité nous permettront de définir des
limites standards. Nous évaluerons ces rapports au sein de hiérarchies sémantiques dans
Wikipédia. Plusieurs théories cognitives suggèrent en effet que l'acquisition de nouveaux
concepts s'ancre sur celle de concepts plus généraux. Dans Wikipédia, on peut distinguer de
façon générique plusieurs niveaux conceptuels. Des concepts peuvent être hiérarchisés selon
leur statut de portail, de catégorie ou seulement d'article. Pour comprendre un texte cible, on
pourrait consulter un portail Wikipédia, une catégorie, et un article.
4. Validation et résultats préliminaires
Nous étudierons systématiquement ce scénario d'acquisition pour pouvoir comparer un
maximum de données. Une performance de classification constitue un étalon pour articuler
cognition humaine et apprentissage machine. Les concepts et les textes sont étudiés selon
plusieurs dimensions cognitives à partir de questionnaires. Nous présenterons des scénarios
de validation dans le formalisme proposé dans GMOT. Nous définirons un modèle conceptuel
en MOT représentatif des grandes lignes de notre état de l'art en sciences cognitives. Nous
expliciterons notre problématique à partir de deux types de visualisation de données. Des
diagrammes ternaires nous permettent d'illustrer une analyse compositionnelle et non
supervisée de données. Des courbes de croissance et de décroissance seront présentées dans le
cadre d'un contrôle qualité.
5. Conclusion
Cet exposé est prospectif au sens où il donne les grandes lignes méthodologiques d’un projet
de recherche en cours. Cependant, nous espérons avoir montré les enjeux multidisciplinaires
de cette phase de modélisation et l’intérêt de nos questions de recherche pour leur simplicité
et leur potentiel en informatique cognitive et en traitement automatique des langues
naturelles. Le nombre d’or constitue en effet un guide de recommandation déjà thématisé
dans d’autres disciplines. Au vu de la quantité d’information diffusée sur Wikipédia, il
pourrait ainsi être considéré comme un indice de qualité générique universel. Nos recherches
15
Journée du LICEF 2016
ultérieures présenteront une analyse détaillée de la « présence » ou non de ce rapport dans la
combinatoire de mesures de complexité de textes.
Références bibliographiques
Bren, M., & Batagelj, V. (2003). Compositional data analysis with R. Universitat de Girona.
Departament d’Informàtica i Matemàtica Aplicada.
Cano, E. L., Moguerza, J. M., & Corcoba, M. P. (2015). Quality Control with R: An ISO Standards
Approach. Springer.
Kenett, R., & Salini, S. (2011). Modern analysis of customer surveys: with applications using R (Vol. 117).
John Wiley & Sons.
Markowsky, G. (1992). Misconceptions about the golden ratio. The College Mathematics Journal, 23(1),
2-19.
Tuzzi, A., Popescu, I. I., & Altmann, G. (2010). The golden section in texts. ETC–Empirical Text and
Culture Research, 4, 30-41.
16
Journée du LICEF 2016
IV.
Hybrid battery-friendly mobile solution for extracting users’ visited
places
Mehdi Boukhechba,1 Abdenour Bouzouane,1 Sebastien Gaboury,1 Charles GouinVallerand,2 Sylvain Giroux,3 Bruno Bouchard1
1 LIARA Laboratory, University of Quebec at Chicoutimi, Chicoutimi, Quebec, Canada
2 LICEF Research Center, Tele-Universite of Quebec, Quebec, Quebec, Canada
3 DOMUS Laboratory, University of Sherbrooke, Sherbrooke, Quebec, Canada
Extracting and analyzing outdoor humans’ activities represent a strong support for
several applications fields, ranging from traffic management to marketing and social
studies. Mobile users take their devices with them everywhere which leads to an
increasing availability of persons’ traces used to recognize their activities. However,
mobile environment is distinguished from one to another by its resources limitations.
In this work, we present a novel hybrid approach that combines activity recognition
and prediction algorithms in order to online recognize users’ outdoor activities without
draining the mobile resources. Our approach minimizes activity computations by
wisely reducing the search frequency of activities, and adapting the algorithms
complexity in function of the user behavior and the remaining battery level.
We assume the person is traceable via a smartphone, the type of users’ traces is not
important to us since the proposed approach works for any movements type (GPS,
WIFI positioning, WIFI, Bluetooth or GSM triangulation, pedestrian dead-reckoning,
etc.). We will analyze incrementally a user’s motility to extract his performed activities.
The main idea of our approach is to minimize the calculation during the analysis
process by using a mixture of activity recognition and prediction algorithms.
Our system is divided into three parts; the first part aims to recognize users’ activities
when they visit places for the first time, the second part is activity prediction where we
predict the next activity to avoid processing the activities already recognized, and
finally, activity verification which is a post-processing step that aims to verify if the
predicted activity is the right one. Suppose that the user has gone from home to work
(see Figure 1-A), for the first time when the user visits these locations, we will recognize
the two POI linked to the activities staying at home and working in the office by using
our activity recognition model presented later.
17
Journée du LICEF 2016
Figure 1: The three parts of our hybrid approach. (1) Home, (2) Work,
The next time that the user will go from home to work, our approach will not use the
activity recognition model to recognize the activity since it represents a significant
source of power consumption, nevertheless, it will use only the association rules driven
from the prediction model to estimate the next destination, meanwhile, all the position
points between home and work will be stored without any processing until we confirm
that the predicted activity is that one performed by the user by using the verification
model (see Figure 1-B ).
If we confirm that the predicted activity is that one performed by the user, we delete
the recorded position points between home and work because the prediction was made
successfully, otherwise, we apply the activity recognition model for the whole recorded
points to figure out where the user has gone from home. We are going to detail in the
following, the three parts of our system.
1. Activity recognition
This step aims to explore a user’s activities for the first time, like discovering where he
lives and works. We propose a novel approach that recognizes not only stationary
activities but moving ones too. We use in the first step an online classification method
based on K-means to classify every new position data according to the three families
(stops, moves, and activity with moving) by using two variables; the user speed and
bearing [2]. In parallel, we observe the accumulation of types of clusters, such that, after
a certain threshold calculated automatically of the same cluster’s accumulation, we
conclude that the person is probably doing something interesting. For the second step,
we summarize the accumulated clusters to one probable POI (Point Of Interest) and we
start a geospatial research for the closest and the most meaningful geographical entity.
If the research process succeeds, we declare this point as a POI. We propose a novel
self-adaptive clustering approach that adjusts the computational complexity of the
algorithm in function of the remaining battery level. The goal is to prevent the massive
draining of the mobile resources in order to capture users’ movements for the longest
time possible. Our mining method is based on a new version of online K-means, where
we propose a temporal data window characterized by a variable size in function of a
person’s travel behaviour and his phones’ remaining resources [3].
18
Journée du LICEF 2016
2. Activity prediction
We propose in this section a new algorithm based on the online learning of users’
habits to predict users’ next locations taking into account the changes that can occur in
their routines, our original contribution includes a new algorithm of online mining
association rules that support the concept drift. Our approach begins by constructing a
sequence of 𝑃𝑂𝐼 that represents the tracking of users’ daily habits, every sequence is
stored incrementally in a tree structure called Habits' Tree ‘HT’. On every sequence
arrival, our algorithm checks for a drift in the distribution of sequences and allocates a
new weight to the sequence concerned. Finally, the algorithm predicts the next POI
using the association rules drawn from HT [1].
3. Activity verification
After predicting the next activity, we need to confirm that the predicted activity is that
one performed by the user, for this purpose we introduce a new structure of POIs. A
POI will become not only a geographic place where the user carry out an activity, but a
geographic entity that is characterized by a minimum duration 𝑑𝑚𝑖𝑛that represents the
minimum duration of an activity, and a distance 𝑟 that represents a ray where the
activity can be performed. Unlike the related works, we will learn these parameters by
adjusting them incrementally and dynamically in function of a user’s behaviours (see
Fig. 2).
Figure 2 . The 𝑑𝑚𝑖𝑛and r characteristics of a POI
Figure 3. Activities’ duration clustering
inside a POI, for instance, activity 1 can be
going to convenience store, activity 2 going
to fast food, activity 3 shopping.
The verification process is designed to figure out if our prediction was right and correct
it when needed by re- running the activity recognition model. The prediction error can
fall under two cases: the user didn’t go to the predicted place and the user has gone to
the predicted place but he performed other activities meanwhile. To detect these errors
we introduce two types of tests: trajectory duration test and activity duration test.
The first test is to compare the duration of the user trajectory and the maximum of
trajectories’ durations between the two POIs (the source POI and the predicted POI) to
test if the user has gone to the estimated location, if the user’s trajectory duration
exceeds the maximum of durations we can say that the user has probably gone
19
Journée du LICEF 2016
somewhere else (because he spent more time than usual to reach the predicted POI),
consequently, we reapply the activity recognition model because our prediction was
probably wrong.
The second test compares the duration of the activity, if the duration of the user’s
staying in the POI’s perimeter (defined by r) is less than 𝑑𝑚𝑖𝑛 we can conclude that the
user just passed by the area (see Fig. 3).
References
[1] M. Boukhechba, A. Bouzouane, B. Bouchard, C. Gouin-Vallerand and S. Giroux: Online prediction
of people’s next Point-of- Interest: Concept drift support. Proc. 6th international workshop on Human
Behavior Understanding, UBICOMP 2015, Osaka.
[2] M. Boukhechba, A. Bouzouane, B. Bouchard, C. Gouin-Vallerand, S. Giroux: Online recognition of
people's activities from raw GPS data: Semantic Trajectory Data Analysis. Proc. The 8th ACM PETRAE
Conference, July 2015, Greece.
[3] M. Boukhechba, A. Bouzouane, S. Gaboury, C. Gouin-Vallerand, S. Giroux, B. Bouchard: Energy
Optimization for Outdoor Activity Recognition. Journal of Sensors 2016:1-15 · December 2015.
20
Journée du LICEF 2016
V.
CARTON: Do-It-Yourself approach to turn a smartphone into a smart
eyewear
Damien Brun, Suzan Ferreira, Charles Gouin-Vallerand, Sébastien George2
1
2
Centre de recherche LICEF, TÉLUQ, Québec, Canada
Laboratoire d’informatique de l’université du maine, France
Abstract
This paper presents a tool to transform a smartphone into a smart eyewear, named
“CARTON”, following a Do-It-Yourself (DIY) approach. The hardware prototype is
made with very simple materials and regular tools we could find anywhere. It also
includes a Software Development Kit (SDK) with samples in order to easily adapt or
develop new mobile app compatible with this kind of device. By providing everything
open-source and open-hardware, we intend to solve the reachability of technologies
related to smart eyewear and aim to accelerate research around it. Users experiments
were conducted in which participants were asked to create, by them-self, the
CARTON’s hardware part and perform usability tests with their own creation.
Qualitative user feedback and quantitative results prove that CARTON is functional
and feasible by anyone.
Keywords
Wearable; Mobile; DIY; Eyewear; Augmented Reality.
1. Introduction
Nowadays, smart eyewear and others assimilate Optical Head-Mounted Display (OHMD) are
still very expensive or worst, sometimes even unavailable or hard to get depending on the
location. This lack of availability slows the broad utilization of such technology with the
population and hardener to conduct research and develop prototypes with smart eyewear. For
instance, conducting research on collaborative augmented reality systems for schools, in an
entire class would be currently hard to obtain a numerous among of smart eyewear devices.
Few researches focused on solving this problem. Some projects intended to reduce costs by
applying smartphones to create an inexpensive AR (Augmented Reality) headset.
Unfortunately, previous research applying the smartphone approach for developing smart
eyewear could not solve the problem yet. Whether their solutions were closer to a virtual
reality headset [1] with a large amount of initial manual adjustment, or they lacked
reachability [6, 15]: also, no SDK is provided despite adaptations needed to use their solutions,
and the process of creation is not open or it includes tools/materials not yet widely available.
21
Journée du LICEF 2016
Do-It-Yourself and Open-Source
In this study, we aim to solve these issues by designing a DIY smart eyewear prototype which
requires only simple material and regular tools that mostly everyone has access around the
world. By using standard material and tools we create favorable conditions to knowledgesharing with instructions easy to follow [16]. Information and knowledge exchange is a core
value to the motivations for contributing in the DIY community [10]: receiving feedback,
educating others and showcasing projects, among others. In order to make it truly reachable,
we naturally decided to make it open-hardware. Thus, all guides and blueprints are available
directly on the Internet (http://carton.mobi). “CARTON”, as a complete toolkit also includes an
open-source SDK which aims to accelerate and simplify the adaptation, or development, of
existing and new mobile app compatible with our device. The open-source community based
on knowledge-sharing are quite similar to the DIY community sharing some identical cores.
Furthermore, open-source practices have already proved to be effective in software
development [19]. The toolkit also contains a full documentation and two sample apps used
during our experiments. Indeed, we conducted experiments with 16 participants to confirm
that this DIY smart eyewear is feasible, usable and functional following the guide, the
blueprint and its utilization with real applications. Therefore, the contribution of this paper is
double: (i) providing blueprints and guidelines to build a low-cost, open source and easy to do
DIY smart eyewear devices and (ii) providing an SDK to support the development and the
adaptation of mobile apps for eye-wearable.
2. Carton
Based on an analysis of the related works we are proposing the CARTON project which aims a
broader use of smart eyewear following a DIY approach.
Hardware
Inspired in more consolidated products, such as Meta Vision 2 [11], we use Pepper’s ghost effect
[4] to add a layer on the reality. The smartphone’s screen is projected directly into the
transparent plastic sheet, which is positioned in front of the user’s eyes. The rear camera of the
mobile phone faces the ceiling so we use a small mirror piece to track the view in front of the
user’s eyes it is placed on the top of the mobile phone at 45° as presented in Fig. 1 (at the end).
We separated the mirror module from the main part for two reasons:
1. Tracking the user’s view is optional for many use cases. For instance, to receive contextawareness notification we could use other mobile’s features and sensors.
2. The mirror is the hardest piece of material to acquire, so we can still create and use the
CARTON without it.
Taking into account facial anthropometric [13], we tilted down the main structure to 15°,
because the forehead is not perfectly perpendicular to the straight-ahead look of the eyes and
to correcting the upper position of the smartphone and its camera from the horizontal eye line.
Extra articles were added to the toolkit aiming to improve its design and comfort (sponge,
rubber band, etc.). In overall, the total cost of the material and tools is around $13 USD when
not already owned or found for free, just as the main material: cardboard. All the blueprint (as
22
Journée du LICEF 2016
shown in Fig. 2) has been designed using the open-source software LibreOffice Draw. The
final blueprint is on scale and adapted to be printed on regular paper size Letter and A4.
Figure 1. Pepper’s ghost configuration and forehead slope
Figure 2. Full CARTON’s blueprint
Software
Our motivation to create an SDK with two samples mobile apps is deeply linked with its
reachability and can be downloaded from the project related GitHub repository and includes
the following features:
• auto-adaptive screen (size, position, brightness, mirrored effect, etc.)
• A default launcher
• Head Gesture Recognition. It helps to integrate a spherical tracking and a head gesture
recognition such as tilt and nod. These two gestures are considered as a natural and intuitive
interaction, which can be performed without disturbing a primary activity [12].
• Finger Gesture Recognition with common patterns: swipe/fling to left/right and
forward/backward (Fig. 3)
23
Journée du LICEF 2016
• Voice Recognition
Figure 3. Tilt gesture detection and finger touch interaction
The first sample includes six features accessible from a menu composed of simple tiles which
provide: Clock, Compass (adapted from Google Glass), Live Subtile (create subtitles on-live for
hearing-impaired people), Origami (shows each step), Tutorial, and Compatible App. We can
navigate through it with different kinds of interactions: fingers, head gesture and voice
commands. The second application is used to create an AR (Augmented Reality) experience.
The view of the phone camera is projected to the screen of CARTON, then the user is able to
focus at different selected posters and get additional information about them. The poster
tracking and recognition is supported by the AR technology Vuforia [17]. The sample apps
were successfully tested with multiple popular phones.
3. Evaluation
Is it feasible? Is it functional? The main objective of this evaluation is to make sure this project
is appropriate and reachable to a wide community. Firstly, we aimed to evaluate the whole
Do-It-Yourself creation process, including the quality of blueprints, guide, tools and materials
used. In a second part, we aimed to evaluate CARTON’s functionality and usability with
sample apps. We recruited 16 participants for the experiments, in exchange for their
participation in the study, they received their CARTON creation and $10, as a lump sum
refund for public transport. Our aim was attracting people without specific skills, which could
advantage them to create a CARTON prototype. We managed 4 sessions of 4 participants each,
in which we provided all the material and tools required to create the CARTON following
guide and then to test it with precedent samples apps. Out of the 16 participants, 4 took part in
a pre-test in order to update the guide and blueprint. Thus, the main evaluation group
included 12 participants, which is considered enough participants to identify around 95.0% of
significant usability problems [3].
4. Results
The results from the participants’ observation and questionnaire show positive outcomes
regarding the CARTON construction process. Most participants could successfully create their
own smart eyewear using the CARTON toolkit and all of them have been proud of using a
product they build by themselves. Participants’ satisfaction in the creation process was rated as
24
Journée du LICEF 2016
4.33/5 (1 unsatisfied / 5 satisfied). Regarding the user guide and blueprint, most participants
considered both as good, 91.7% and 83.3% respectively. The tools’ choice was also rated
positively, 100% of the participants considered it suitable/adequate. Participants affirmed that
building the headset was not so easy 2.66/5 (1: hard, 5: easy). The results of the experimentation
highlighted several improving aspects regarding the CARTON’s comfort and aesthetics.
Measure of the easiness to put on and take off the device was rated 3.33/5 (1: hard, 5: easy),
which is correct. The utility stretch straps were “too small”, not big enough for some heads, or
even it sticks with long hairs. The headset comfort was judged to 3.5/5 (1: bad, 5: good), still
correct but not perfect score that is linked with the precedent problem or the sponge was “too
harsh”. The size of the display was judged large enough by 66.7% (8/12) of the participants and
its render quality get 3.25/5, which is correct considering that 2 participants had some trouble
because their eyes have refractive errors and some participants had issues with a distorted
plastic sheet that makes the result a bit blurred. In the survey, participants were asked to mark
some characteristics, between 1 (bad) and 10 (good) regarding their experience on using
CARTON as a smart eyewear device. The users rated all characteristics of the demos above 6
except “Visibility” which shows some limits depending on the environment. How easy it was
to aim a target was judged to 4.0/5, which is good enough to considering this kind of hardware
compatible with AR technologies. Interesting fact, even if it was not designed to, and not
intended to be used in a production level, half of the participants were likely to wear CARTON
in a museum.
5. Future work
With all the data collected during the experiment, we already improved CARTON. A video
and tutorial are accessible on YouTube (https://youtu.be/3ww5lE8PVsc) and Instructables
(http://instructables.com/id/Carton-DIY-Smart-Eyewear/) to facilitate the distributed
knowledge sharing [10, 16]. The Carton SDK for Android has been updated with a calibration
feature for the Head Gesture Recognition. The sample apps are in the process of publication
on the Google Play Store, to make it easier for everyone to test it. We want to go further into
the domain of accessibility by following guidelines to design accessible wearable technology
[e.g.: 18]. It would be interesting to go deeper into gesture recognition research, for instance, we
could use the mirror module to add hand gesture recognition, a natural and intuitive
interaction in AR systems [14]. We hope to create a community around CARTON, which could
eventually develop an iOS SDK, Unity Package and sample apps with other AR technology
such as ARToolKit [2].
6. Conclusion
This paper presents an initiative, the CARTON project, to create a reachable smart eyewear
device based on a DIY approach. Moreover, this initiative includes an SDK to support the
creation or the adaptation of existing Android apps for the CARTON device. We conduct a
study to evaluate the effectiveness of the guidelines for building a CARTON device, while
testing at the same time the usability of the proposed device through manipulation of provided
sample apps. The results showed that all participants were able to create an effective
CARTON with simple material and tools despite minor issues appeared due to heterogeneity
of people physiognomy and skills. By providing all of our works openly, it makes much easier
to reproduce experimentation, improvements, and to involve a community in producing a new
version of CARTON.
25
Journée du LICEF 2016
Acknowledge
Thanks to my advisors and all the participants.
Refrences
1. Ahmed, A., and Peralez P. Affordable Altered Perspectives: Making Augmented and Virtual Reality
Technology Accessible. In Proc. IEEE GHTC, (2014), 603–8.
2. ARToolKit SDK website: http://artoolkit.org/
3. Bastien, J.M. C., and Scapin D. L. Ergonomic Criteria for the Evaluation of Human-Computer
Interfaces. INRIA, (1993).
4. Bimber O., Raskar R., Alternative Augmented Reality Approaches: Concepts, Techniques, and
Applications. Eurographics, (2003).
5. Buechley L., Rosner D. K., Paulos E., and Williams A. DIY for CHI: Methods, Communities, and
Values of Reuse and Customization. Ext. Abstracts CHI 2009, ACM Press (2009), 4823–26.
6. De Angeli, D., and O’Neill E. J. Development of an Inexpensive Augmented Reality (AR) Headset. In
Proc. CHI 2015, ACM Press (2015), 971–76.
7. Genaro Motti V., and Caine K. Understanding the Wearability of Head-Mounted Devices from a
Human-Centered Perspective. In Proc. ISWC 2014, ACM Press (2014), 83–86.
8. Google Cardboard website: http://google.com/cardboard
9. Google, September Press Event 2015, YouTube video: https://www.youtube.com/watch?v=JcLEGOT_4c
10. Kuznetsov S., and Paulos E. Rise of the Expert Amateur: DIY Projects, Communities, and Cultures.
In Proc. NordiCHI 2010, ACM Press (2010), 295–304.
11. Metavision device website: http://metavision.com/
12. Morency L.-P., and Darrell T. Head Gesture Recognition in Intelligent Interfaces: The Role of
Context in Improving Recognition. In Proc. IUI 2006, ACM Press (2006) 32–38.
13. Naini, Farhad B. Facial Aesthetics: Concepts and Clinical Diagnosis. John Wiley & Sons, 2011.
14. Piumsomboon T., Clark A., Billinghurst M., and Cockburn A. User-Defined Gestures for
Augmented Reality. Ext. Abstracts CHI 2013, ACM Press (2013).
15. Seebright device website: http://seebright.com/
16. Tanenbaum J. G., Williams A. M., Desjardins A., and Tanenbaum K. Democratizing Technology:
Pleasure, Utility and Expressiveness in DIY and Maker Practice. In Proc. CHI 2013. ACM Press (2013),
2603–12.
17. Vuforia AR platform website: http://www.vuforia.com/
18. Wentzel J., Velleman E., and Geest T. Wearables for All: Development of Guidelines to Stimulate
Accessible Wearable Technology Design. In W4A 2016.
19. Yamauchi Y., Yokozawa M., Shinohara T., and Ishida T. Collaboration with Lean Media: How OpenSource Software Succeeds. In Proc. CSCW 2000. ACM Press (2000), 329–38
26
Journée du LICEF 2016
VI.
Conception d’une architecture de génération automatique pour les jeux
sérieux éducatifs: le cas de Game of Homes
Sophie Callies (1), Eric Beaudry(2) et Josianne Basque (1)
1
2
Université du Québec à Montréal (UQAM)
Centre de recherche LICEF, TÉLUQ, Québec, Canada.
Résumé
En tant qu’environnements informatiques pour l’apprentissage humain (EIAH), les
jeux sérieux éducatifs (JSÉ) doivent adapter leur contenu à la progression de
l’apprentissage chez le joueur-apprenant (JA) et, en tant que jeux vidéo, ils doivent
chercher à maintenir son engagement dans cette expérience d’apprentissage. Cette
étude se focalise sur l’adaptation des scénarios pédagogiques de jeu (SPJ) à la
progression de l’apprentissage du JA, tout en le maintenant engagé, et son objectif
principal était de concevoir une architecture de génération automatique des SPJ pour
les JSÉ de type simulation. Pour répondre à cet objectif, nous avons au préalable adapté
une méthode de design pédagogique, la MISA, afin de modéliser les différentes
compétences, connaissances, concepts et principes que le JA aura à développer dans le
JSÉ. Cette méthode nous a également permis de concevoir les premiers éléments de
game design implémentés dans le JSÉ. Au terme de ce travail de modélisation, nous
avons conçu une architecture de génération automatique des SPJ dont le système de
JSÉ est principalement composé (a) d’un modèle du JA dont le rôle est d’estimer la
progression de l’apprentissage en cours de jeu et (b) d’un module d’adaptation qui
génère le contenu du SPJ à partir de cette estimation. Nous avons mis en œuvre notre
architecture dans un JSÉ de simulation appelé Game of Homes, visant le
développement de compétences de base en vente immobilière chez des apprenants
adultes.
1. Introduction
Les jeux sérieux, dans un contexte d’apprentissage et de formation, visent à guider la
démarche d’apprentissage de joueurs adultes dans le but de les amener à développer des
compétences dans un domaine d’expertise complexe. Ces joueurs trouvent une motivation
supplémentaire à apprendre, en étant plongés dans des environnements divertissants où un
apprentissage fortement contextualisé leur permet d’exercer des habiletés de résolution de
problèmes qui pourront leur être utiles dans le monde réel. Dans un jeu sérieux éducatif (JSÉ),
les tâches que réalise le joueur-apprenant (JA) ainsi que les rétroactions que fournit le système
forment le scénario pédagogique de jeu (SPJ).
27
Journée du LICEF 2016
Dans la littérature, les chercheurs se questionnent sur la possibilité d’apprendre en jouant à
un JSÉ, mais aussi sur la valeur du JSÉ en pédagogie et sur son intégration dans un cadre
d’apprentissage plus large, dans un cours par exemple (De Freitas et Jarvis, 2007; Fournier et
al., dans Sauvé et Kaufman, 2010; Pelletier et Olivier, 2006, dans Sauvé et Kaufman, 2010;
Squire, 2003). Par ailleurs, les méthodes de conception des JSÉ restent peu documentées, ainsi
que le contenu précis des architectures des systèmes de JSÉ. Plusieurs auteurs soutiennent que
la valeur pédagogique et engageante des EIAH, dont les JSÉ, réside dans la capacité
d’adaptation des systèmes à la progression de l’apprenant (Lopes et Bidarra, 2011; Beaudry et
al., 2010; Niehaus et Riedl, 2009). Notre objectif était de concevoir une architecture de JSÉ qui
permet la génération automatique des SPJ dont les contenus s’adaptent en direct à la
progression des JA assure un apprentissage à la fois motivant et efficace.
Au sein de notre équipe de recherche, nous avons conçu Game of Homes (Game of Homes est
disponible gratuitement en cliquant sur ce lien : http://gdac2.uqam.ca/goh/#download), un JSÉ
de type simulation, qui a aussi des caractéristiques d’un jeu de stratégie en temps réel. Le JA
joue le rôle d’un courtier immobilier dont l’objectif est de devenir le meilleur courtier de la
ville de Montréal. Le JA est en compétition avec d’autres courtiers contrôlés par le système de
jeu, et doit gagner le plus d’argent possible tout en gardant élevée sa réputation en tant que
courtier. Il doit déplacer son avatar sur la carte en double-cliquant sur la localisation désirée.
Le JA doit offrir ses services aux propriétaires qui souhaitent vendre leur bien immobilier. Il
doit négocier avec les propriétaires afin d’obtenir le contrat de courtage, estimer la valeur de la
propriété, gérer la vente en effectuant de la publicité, organiser des visites de la propriété à des
acheteurs potentiels, éventuellement modifier le prix de vente et enfin négocier avec les
acheteurs les offres d’achats qu’il recommande aux propriétaires. La Figure 1 montre une
capture d’écran du jeu Game of Homes.
Figure 1 Capture de l’écran principal de Game of Homes
28
Journée du LICEF 2016
Nous présentons dans une première section notre méthode de conception de Game of Homes.
Nous présenterons dans une seconde section notre architecture de JSÉ de type simulation que
nous avons élaborée qui permet la génération automatique des SPJ grâce à deux modules : le
module de l’apprenant et le module d’adaptation.
2. Game of Homes : un jeu sérieux éducatif ciblant le domaine de compétences de la vente
immobilière
La démarche d’implémentation de notre architecture de JSÉ a été inspirée par la MISA
(Paquette, 2002), que nous avons adaptée à notre contexte de recherche. La phase de
conception de la MISA consiste à spécifier le contenu de la formation (donc du JSÉ), les
objectifs d’apprentissage et de jeu ainsi que les modalités d’évaluation du JA, de même que de
concevoir le scénario pédagogique (le SPJ, qui, dans notre cas, sera généré de manière
automatique) et les éléments médiatiques (décrivant les matériels et les infrastructures requis).
La MISA recommande de produire différents modèles lors de la phase de conception; dans
notre cas, nous avons pris l’initiative d’élaborer un unique modèle, que nous appelons modèle
de connaissances, mais qui regroupe en fait le modèle des connaissances procédurales associées
aux compétences visées, le modèle pédagogique et le modèle médiatique du JSÉ. Les éléments
médiatiques à préciser sont au niveau micro et sont étroitement liés au gameplay choisi pour le
jeu. Quant au modèle de scénario, il est déterminé par l’exercice à plusieurs reprises des
connaissances procédurales associées aux compétences visées dans le but de devenir un
meilleur vendeur.
L’activité de modélisation a été réalisée avec le logiciel G-MOT (http://poseidon.licef.ca/gmot/),
et le plus haut niveau de notre modèle de connaissances est représenté dans la Figure 2. Les
connaissances procédurales modélisées (ovales mauves) représentent, une fois appliquées par
le JA, les compétences à développer dans le JSÉ, qui reflètent en partie, selon nous, les
compétences issues du vrai métier de courtier immobilier. Dans le cas de Game of Homes,
l’objectif principal d’apprentissage est d’être capable de vendre une propriété. Plus
particulièrement, les objectifs spécifiques d’apprentissage du jeu sont d’amener le JA à être
capable, à la fin du jeu :
•
•
•
de sélectionner et d’obtenir un contrat de courtage auprès d’un vendeur (dont
l’application représente la compétence 1),
d’estimer le prix de vente d’une propriété (dont l’application représente la compétence
2),
de gérer et conclure la vente d’une propriété (dont l’application représente la
compétence 3).
Dans la Figure 2, le JA est représenté par l’acteur « Courtier JA ». Les autres acteurs
représentés - « Courtier PNJ », « Vendeur (propriétaire) PNJ », « Acheteur PNJ » - sont contrôlés
par le système de jeu. Chacune de ces connaissances procédurales se détaille en sousconnaissances ou sous-objectifs de jeu. À titre d’illustration, la Figure 3 présente le détail de la
connaissance procédurale représentant la compétence 2 « Estimer le prix de vente de la
propriété ». Dans ce sous-modèle, les ressources intrantes (concepts) deviennent les éléments
du jeu avec lesquels le JA doit interagir (en vert foncé), et les ressources extrantes représentent
les actions du JA qui deviennent des produits de l’interaction du JA avec le jeu (en vert clair).
La modélisation des connaissances nous a enfin permis de réfléchir sur les aspects stratégiques
29
Journée du LICEF 2016
du domaine de l’immobilier, sous la forme de principes (losanges blancs) qui vont devenir des
stratégies à exécuter pour résoudre les problèmes en cours de jeu. Comme les autres types de
connaissances, ces stratégies devront être développées par l’apprenant dans le jeu. Les
principes peuvent également être des tactiques liées au gameplay qui sont utilisées pour gagner
dans le jeu. Ces principes ont été modélisés un peu plus tard dans la phase de conception, car
il faut avoir eu une première réflexion sur le type de gameplay du JSÉ.
Figure 2 Modèle de connaissances global de Game of Homes (Légende des liens: R: Régule, C: se
Compose de, P: Précède)
Figure 3 Modèle de la connaissance procédurale représentant la compétence 2 « Estimer le prix de
vente de la propriété » (Légende des liens: R: Régule, C: se Compose de, I/P: Intrant/Produit ou
Extrants)
3. Une architecture de génération automatique de scénarios pédagogiques de jeu
30
Journée du LICEF 2016
La Figure 4 représente notre architecture de JSÉ. En partant de notre modélisation des
connaissances du domaine de la vente immobilière, nous avons conçu un réseau bayésien (RB)
inclu dans le modèle du JA dont l’objectif est d’estimer les états de développement des
connaissances relatives à la vente immobilière et de mettre à jour en temps réel cette
estimation. Dans Game of Homes, le RB est composé de variables d’évidence, c’est-à-dire
qu’elles sont directement observables par le système de jeu (p. ex. : niveau d’exigence du
vendeur, type de contrat de courtage), et des variables d’interrogation qui font référence aux
compétences à développer dans le jeu représentées par des probabilités conditionnelles que le RB
doit estimer : Compétence 1 « Sélectionner un contrat de courtage pertinent » et Compétence 2
« Estimer le prix de vente de la propriété ».
Figure 4 Architecture génération automatique de SPJ dans les JSÉ de simulation
Le module d’adaptation mis en œuvre dans Game of Homes a pour rôle de générer
automatiquement le contenu des SPJ en fonction de l’état d’estimation des connaissances
fourni par le RB. La génération est possible grâce à la technique de la planification classique
utilisée en IA. Le module d’adaptation peut ainsi planifier différentes actions ou activités
pédagogiques différentes. Le contenu de ces actions consiste à prédéterminer des valeurs
approximatives des paramètres de simulations, qui sont les suivants :
•
•
•
rétroactions sous forme d’aide données au JA: aides sur les stratégies qui s’appliquent
sur les compétences à développer et aides sur les tactiques de jeu;
comportements des PNJ : agressivité des courtiers PNJ et exigence des Vendeurs quant
au prix de vente prêt à accepter;
contextes d’apprentissage: modification de l’état du marché ou du ratio
Acheteurs/Vendeurs.
31
Journée du LICEF 2016
Au niveau du fonctionnement du module d’adaptation, ce dernier interroge le modèle du JA,
afin de connaître les probabilités des compétences. Ces informations permettent au module
d’adaptation de générer un plan pédagogique unique pour chaque JA et composé d’une
séquence d’actions optimales compte tenu de l’état de progression du JA. Ces modifications de
paramètres de simulation permettent au système de JSÉ de modifier en cours de jeu
l’environnement dans lequel le JA continue d’évoluer, et de proposer ainsi des activités dont le
contexte et le niveau de difficulté varient. Chacune des actions ne peut s’activer que si les
préconditions sont remplies; dans notre cas, il s’agit de pourcentages précis d’estimation des
compétences à développer dans Game of Homes. Si les préconditions d’une des actions du plan
ne sont pas remplies, parce que finalement la progression de l’apprentissage du JA s’est faite
plus lentement ou bien plus rapidement que prévu, alors un nouveau plan est généré, tenant
davantage compte de l’état actuel de la progression de l’apprentissage et de la progression
passée. Le module d’adaptation interroge alors une seconde fois le RB, et le processus
recommence. Une fois la partie de jeu terminée, le ou les plans exécutés forment le SPJ.
4. Conclusion
Notre architecture permet au système du jeu Game of Homes de générer des rétroactions
adaptées aux actions du JA, de modifier le comportement des PNJ afin de maintenir le JA
engagé et de modifier le contexte d’apprentissage afin de favoriser chez le JA la découverte et
l’exécution de différentes stratégies. Deux évaluations empiriques de notre architecture ont
été réalisées et ont été publiées (Callies et al., 2015; Callies et al., 2016, soumis).
Références bibliographiques
Beaudry, E., Bisson, F., Chamberland, S., et Kabanza, F. (2010). Using markov decision theory to provide
a fair challenge in a roll-and-move board game. Dans IEEE Computational Intelligence and Games (CIG),
1-8.
Callies, S., Sola, N., Beaudry, E., et Basque, J. (2015). An empirical evaluation of a serious simulation
game architecture for automatic adaptation. Dans R. Munkvold & L. Kolas, Proceedings of the 9th
European Conference on Games Based Learning (ECGBL 2015), pp. 107-116. Reading, UK: Academic
Conferences and Publishing International Limited.
Callies, S., Gravel, M., et Beaudry, E. (soumis). Analysis of Game of Homes' logs: A comparison between
scripted-based and automatically generated scenarios. 10th European Conference on Games Based
Learning (ECGBL 2016).
De Freitas, S., et Jarvis, S. (2007). Serious games-engaging training solutions: A research and
development project for supporting training needs. British Journal ofEducational Technology, 38(3), 523525.
Lopes, R., et Bidarra, R. (2011). Adaptivity challenges in games and simulations: A survey. IEEE
Transactions on Computational Intelligence and AI in Games 3(2), 85-99.
Niehaus, J. et Riedl, M. (2009a). Toward scenario adaptation for learning. Dans Proceedings of the
Conference on Artificial Intelligence in Education (AIED): Building Learning Systems that Care : From
Knowledge Representation to Affective Modelling, 3, 686–688.
Paquette, G. (2002). L'ingénierie pédagogique: Pour construire l'apprentissage en réseaux. Sainte-Foy, Canada:
Presses de l'Université du Québec.
Sauvé, L., et Kaufman, D. (2010). Jeux et simulations éducatifs. Presses de l'Université du Québec.
Squire, K. (2003). Video Games in Education. International Journal of Intelligent Simulations and Gaming,
2(1), 49-62.
32
Journée du LICEF 2016
VII.
Mieux prédire la réponse de la forêt aux changements climatiques via
une meilleure compréhension des interactions entre les espèces
d’arbre : Le cas de l’érable à sucre
Alexandre Collin1, Christian Messier1,2 et Nicolas Bélanger1,3
1
Centre d’étude de la forêt, UQAM
Institut des sciences de la forêt tempérée, UQO
3
Centre de recherche LICEF, TÉLUQ, Québec, Canada.
2
La discipline de l’écologie souffre actuellement d’un manque de savoir pour prédire les
réponses de la forêt face aux changements climatiques (CC). De nombreux processus et
facteurs écologiques autres que le climat vont contrôler la migration latitudinale des arbres.
En premier lieu, les espèces migrantes devront interagir de plus en plus avec de nouvelles
espèces et s’adapter à de nouvelles conditions de sol. Ainsi, les prochains modèles de
simulation de la réponse des forêts aux CC devront être construits autant à partir du climat
que des observations locales des interactions et des mécanismes de rétroaction entre espèces
ainsi que de leur croissance le long de gradients climatiques. L’étude de l’adaptation de
l’érable à sucre (Acer saccharum) aux CC pour le développement d’un modèle conceptuel est un
cas modèle en raison de son importance commerciale au Canada. L’érable à sucre (ÉS) et le
sapin baumier (Abies balsamea) coexistent à la transition entre la forêt tempérée et boréale. La
présence d’îlots isolés d’ÉS au-delà de sa limite nordique suggère qu’il n’est pas seulement
limité par le climat. Il est aussi établit que la survie et la bonne croissance de l’ÉS est contrôlé
par la disponibilité en calcium dans le sol. Certaines recherches suggèrent que les sols boréaux
acides, pauvres en calcium et composés d’une litière épaisse peuvent limiter la migration de
l’ÉS sous les CC en affectant l’établissement de ses semis. D’un autre côté, il est suggéré que
d’autres pressions affectent la santé et la compétitivité de l’ÉS, pouvant ainsi mener à une
contraction de son amplitude de distribution. Entre autres, le hêtre à grandes feuilles (Fagus
sylvatica) remplace lentement l’ÉS au sud de sa distribution, possiblement à cause de
l’acidification du sol par les dépositions atmosphériques acides et d'autres perturbations
comme les tempêtes de verglas, l’herbivorie ou encore les maladies associées au hêtre.
Nous présentons ici les résultats d’une série d’études qui ont permis de déterminer si l’ÉS a un
désavantage compétitif pour l’acquisition de nutriments du sol par rapport à d’autres espèces,
affectant sa capacité d’adaptation aux CC. Les résultats préliminaires vont en faveur d’un
modèle basé sur l’acidité du sol créée par les conifères, ce qui a un effet important sur le
prélèvement du calcium et du magnésium, des cations cruciaux pour la santé des érablières.
Le hêtre semble aussi créer trop d’ombrage et des effets allélopathiques qui nuisent à la
régénération de l’ÉS (Figure 1). Une importante subvention d’infrastructure visant la mise en
place d’un réseau de suivi de haute résolution de la santé de l’ÉS dans nos parcelles générera
33
Journée du LICEF 2016
de nouvelles données qui pourront alimenter les modèles pour prédire si l’amplitude
écologique de l’ÉS va bouger, s’étendre ou au contraire se réduire.
Érablière à hêtre
Érablière à
bouleau
jaune
Mixte
dominance
feuillue
Mixte
dominance
résineuse
Forêt de conifères
Figure 1 : Dispositif expérimental mis en place pour tester les effets adverses du hêtre et des conifères
(lumière, herbivorie, allélopathie, acidité et disponibilité des nutriments du sol) sur la vigueur des
semis d’érable à sucre.
34
Journée du LICEF 2016
VIII.
Améliorer la persévérance dans les CLOM
par l'application des
meilleures pratiques en conception pédagogique.
Claude Coulombe, Gilbert Paquette, Neila Mezghani
Centre de recherche LICEF, TÉLUQ, Québec, Canada
Résumé
Le taux d'abandon élevé des participants demeure, encore aujourd'hui, la principale
critique exprimée à l'égard des CLOM (cours en ligne ouverts et massifs ­ en anglais
MOOCs). En effet, la littérature scientifique situe dans une fourchette de 5 à 10% le
pourcentage des participants inscrits qui terminent un CLOM.
Dans cette perspective, les deux CLOM réalisés lors de l'initiative Ulibre de la TÉLUQ
affichent d'excellentes performances en terme de persévérance des participants, avec
des taux d’achèvement de plus de 33%.
L'engagement exceptionnel des participants d'Ulibre, leur forte participation aux
forums de discussions et leurs taux d’achèvement élevés ne sont pas dus au hasard,
mais seraient du moins en partie, le résultat de l'application d'un ensemble de
meilleures pratiques et de règles simples de conception que nous partageons dans le
présent article.
1. Introduction
Les taux d'abandon élevés et les faibles taux d'achèvement sont des problèmes bien connus en
enseignement à distance. C’est également le problème central des CLOM, depuis leur
émergence et encore aujourd'hui.
2. CLOM, les caractéristiques essentielles
L'aspect massif est certainement la principale caractéristique d'un CLOM. La partie invisible
des CLOM est la collecte massive de données sur le comportement des apprenants. Nous
reconnaissons là une pratique courante du Web 2.0. Grâce à l’analytique d’apprentissage, les
données des usagers sont une véritable mine d'or [Norvig, 2013], [Koller, 2012].
Les caractéristiques secondaires de tout bon CLOM sont: le libre accès, la gratuité, la flexibilité
qui permet à tout le monde, à tout moment et en tout lieu d’avoir accès aux cours, dans la
mesure où il dispose d'un appareil connecté à Internet, l’interactivité riche, la facilité
d'utilisation, la facilité d'accès aux contenus par l'utilisation de contenus vidéos.
3. Comment expliquer la faible persévérance des participants aux CLOM
35
Journée du LICEF 2016
Premièrement, il suffit généralement de quelques clics pour s'inscrire à un CLOM. Par
conséquent, les CLOM attirent un grand nombre de curieux. Beaucoup de gens qui
s'inscrivent à un CLOM n'y reviennent jamais (en anglais no­show), soit 50% [Jordan, 2014] de
décrocheurs précoces. Certains participants n'ont pas l'intention de terminer le cours. Il y a
aussi des auditeurs libres qui explorent des cours sans faire les quiz [Reich, 2014]. Le fait que la
presque totalité des CLOM n'accorde ni diplôme, ni crédit universitaire explique en partie le
manque d'engagement de nombreux participants.
4. L’expérience Ulibre
À la fin de 2013, un projet pilote sur les CLOM a été lancé à la TÉLUQ qui devint le portail
Ulibre à l'automne 2014 avec le lancement de ses deux premiers CLOM sur la plate­forme en
logiciel libre Open edX [OPEN EDX 2016].
5. Méthodologie ­ Les lignes directrices de conception des CLOM pour Ulibre
Dans tout processus de conception, c'est toujours une question de prise de décision. Ces
décisions sont fondées sur les objectifs souhaités et l'un de ces objectifs, pour Ulibre, était de
favoriser la persévérance des participants, notamment en raison de la mauvaise réputation des
CLOM dans ce domaine [Jordan, 2014]. Dans un article plus long, nous expliquons plus en
détail les règles de conception qui ont guidé notre travail.

Figure 1 ­ Le portail Ulibre avec ses deux premiers CLOM
6. Résultats
Tout d'abord, nous devons définir le terme «apprenant actif» (en anglais active learner). Dans
le cas d'Ulibre, les apprenants actifs désignent les participants qui ont répondu au sondage «
Profil du participant ».
36
Journée du LICEF 2016
Figure 2 ­ Évolution de l’engagement des participants dans les CLOM d’Ulibre
Considérons la courbe qui illustre l'évolution de l’engagement des participants dans les CLOM
d’Ulibre pendant toute la durée des cours (figure 2). On remarque une courbe en «S»
caractéristique (une sigmoïde) qui montre une baisse de participation d'abord lente au début,
puis le décrochage s'accélère jusqu'à un point d'inflexion après la 2ème semaine, puis nous
voyons un ralentissement progressif du taux d'abandon du CLOM jusqu'à la fin du cours.
Table 1 ­ Taux de persévérance d’Ulibre comparativement aux données de la littérature
scientifique
37
Journée du LICEF 2016
Pour Ulibre nous comptons environ 60% d'apprenants actifs (CTF 54%, IHPQ 65%). Ceci est un
excellent résultat en regard de la littérature qui rapporte 30% d'apprenants actifs (donc 70% de
non­actifs et de décrocheurs précoces) [Hill, 2013]. Ainsi, Ulibre se positionne clairement dans
le haut de la fourchette en ce qui concerne la participation des apprenants dans ses deux
CLOM, CTF et IHPQ.
Plus impressionnant encore, les deux CLOM d'Ulibre montrent des taux d'achèvement, par
ailleurs soulignés par des certificats, qui sont respectivement de 18% (CTF) et 23% (IHPQ) des
participants inscrits. Cela signifie des taux de certification de plus de 33%, si l'on considère
seulement les «apprenants actifs». Nous pouvons comparer ces chiffres aux taux de 6,5% et 5%
pour les participants inscrits et 9,8% et 9% pour les «apprenants actifs» dans deux études
récentes [Ho et al, 2015] et [Jordan, 2014].
7. Discussion
Les taux élevés d'engagement et de certification de Ulibre ne sont pas dûs au hasard, mais sont
le résultat de l'application d'un ensemble des meilleures pratiques et de règles de conception
simples.
Par exemple, une contrainte majeure est le «manque de temps» des participants à un CLOM.
Afin de résoudre ce problème, de nombreuses règles de conception simples peuvent être
appliquées: limiter la durée du CLOM à environ un mois [Haber, 2013], demander une charge
de travail raisonnable [Jordan, 2014], [Mock & Vázquez­ Cognet, 2014], présenter
essentiellement des contenus sous forme vidéo [Choi & Johnson, 2005], réduire la granularité
des activités, prévoir deux semaines supplémentaires pour les retardataires.
D'autres règles de conception permettront d'améliorer la motivation et l'engagement dans le
CLOM: appliquer la technique du pied­dans­la porte [Burger, 1999], découper le contenu en
courts vidéoclips [Guo, 2013], mettre l'accent sur l'interactivité et la pratique active [Hake, 1998],
donner une rétroaction immédiate, offrir le certificat d'achèvement [Leong Son, 2015], initier la
participation aux forums de discussion avec le truc du forum «Je me présente!», modérer les
forums, envoyer une infolettre hebdomadaire. Cela dit, il pourrait y avoir des biais et des
erreurs dans notre expérience.
8. Conclusion
Nous avons montré que les concepteurs de CLOM peuvent améliorer l'engagement et la
réussite des participants par l'application des meilleures pratiques et de lignes directrices de
conception somme toute assez simples.
Les CLOM actuels, y compris ceux d'Ulibre sont confinés dans la transmission des
connaissances et négligent le passage indispensable vers les compétences. Nous pensons que
l'apprentissage basé sur les compétences sera un catalyseur du changement dans le modèle
économique de l'enseignement supérieur.
Cela dit, la promesse ultime des CLOM émergera de l'application efficace de l'analytique
d'apprentissage (en anglais learning analytics) qui permettra de personnaliser l'enseignement
à chaque apprenant [Norvig, 2013].
38
Journée du LICEF 2016
Références bibliographiques
[Burger, 1999] Burger, J. M. (1999). The foot­in­the­door compliance procedure: A multiple­process
analysis and review. Personality and Social Psychology Review, 3(4), 303–325.http://goo.gl/JaX79i
[Choi & Johnson, 2005] Choi, H. J., & Johnson, S. D. (2005). The effect of context­based video
instruction on learning and motivation in online courses. 19(4), 215-227.
[Guo, 2013] Guo, P. (2013, October 29). Optimal Video Length for Student Engagement.
https://goo.gl/n51KS5
[Haber, 2013] Haber, J. (2013, November 4). How Long Should a MOOC Go On? [Blog].h
ttp://goo.gl/TI7sdf
[Hake, 1998] Hake, R. R. (1998). Interactive­engagement versus traditional methods: A
six­thousand­student survey of mechanics test data for introductory physics courses. American journal
of Physics, 66(1), 64­74.http://goo.gl/fsbpKe
[Hill, 2013] Hill, P. (2013, March 10). Emerging Student Patterns in MOOCs: A (Revised) Graphical View
­http://goo.gl/9s6yOm
[Ho & al, 2015] Ho, A. D., Chuang, I., Reich, J., Coleman, C. A., Whitehill, J., Northcutt, C. G., ... Petersen,
R. (2015). HarvardX and MITx: Two Years of Open Online Courses Fall 2012­Summer 2014 (SSRN
Scholarly Paper No. ID 2586847). Rochester, NY: Social Science Research Network.http://goo.gl/jaevqy
[Jordan, 2014] Jordan, K. (2014). Initial trends in enrolment and completion of massive open online
courses. The International Review of Research in Open and Distance Learning, 15 (1).
http://goo.gl/eXhWH4
[Koller, 2012] Daphne Koller: What we’re learning from online education | Video on TED.com (2012).
http://goo.gl/zYqCkR
[Leong Son, 2015] Leong Son, J. (2015).Massive Open Online Courses (MOOCs) 2014(p. 48). University of
London. http://goo.gl/bUxVbg
[Mock & VázquezCognet, 2014] Mock, J., & VázquezCognet, J. (n.d.). Effects of Course Length in a
MOOC.http://goo.gl/LQMn32 [Norvig, 2013] Norvig, P. (2013, July 18). How to Make Online Courses
Massively Personal: Scientific American. Scientific American, (August 2013 issue).
http://goo.gl/EGWhDN
[OPEN EDX, 2016] The Open edX platform.https://open.edx.org/
39
Journée du LICEF 2016
IX.
Game based learning: a case study on designing an educational game for
children out of schooling
Susan M. Ferreira, Charles Gouin-Vallerand, Richard Hotte
Centre de recherche LICEF, TÉLUQ, Québec, Canada
Abstract
Despite the efforts and global policies to achieve universal primary education, there
are still 58 million children, roughly between the ages of 6 and 11, out of school globally.
Although previous studies showed the value of serious games for learning, not enough
efforts were made to apply serious games to reduce children illiteracy. Understanding
the complexity of this problem, we putted together a multidisciplinary research team,
and an industrial partner, to work on the design of a serious game for children without
access to school. In this paper, we present the preliminary results of our case study,
showing the main design challenges faced to develop such tool and proposing solution
to overcome those issues. We aim to call the attention of the research community about
the urgent need of more studies in this field and we argue that our results could be
used as starting point for taking forward future work in this direction.
Keywords - Serious games; children education; mobile learning; game learning scenario;
ICTD
1. INTRODUCTION
Despite the efforts and global policies to achieve universal primary education, humanitarian
agencies call attention to the fact that there are still 58 million children, roughly between the
ages of 6 and 11, out of school globally [1]. Although the increasing penetration of technologies
in developing countries could provide more access to education in poor and rural areas, a core
concern among ICTD (Information and Communication Technologies and Development)
scholars is that there is a disproportionate emphasis into providing physical access to
computers and Internet without adequate attention on how these technologies could be used
to actually impacts human development [2], [3] & [4].
With the advance of computer and mobile technologies a vast amount of educational
serious games have being design to contribute for children education. Previous studies had
stated that “in the past 10 years, the field of learning games has grown dramatically” [5], that
“serious Games (SGs) are gaining ever more interest as an instructional tool” [6] and that
“Educational game are being backed up in the Technology-Enhanced Learning domain as
strategies that can lead to worthy learning outcomes.” [7]. Unfortunately, most of current
efforts in this area aimed to complement the daily school learning or focus only in a particular
40
Journée du LICEF 2016
learning content, not offering strong solutions for providing children education in lieu of
availability of regular schooling.
In this research, we aim to contribute to solving these issues by designing a serious game for
tablet devices that will be adapted to the individual self-learning, particularly for children in
developing countries. The overall goal is to adapt the contents of math and English subjects,
offered from Kindergarten to Grade 12, in a standard Indian Curriculum onto an application
embedded within a tablet PC. The application would be applied in both learning scenarios, as
a supplement to daily school learning or in lieu of availability of regular schooling, raising the
challenge to offer a high level of motivation and user-friendliness for a student to effectively
educate him/herself.
This is an interdisciplinary project that joins together an industrial partner, that produce low
cost tablet devices to developing countries, and researchers from Game Design, Education,
Learning system engineering, Cognitive computing, Human-Computer Interaction and ICTD.
In the first stage of the project we conducted a literature review in the different specialties,
performed a collaborative interdisciplinary design process and developed three low fidelity
prototypes, in order to illustrate our initial design ideas. Next we present a summary on our
main objective, a discussion on the initial key design challenges and present strategies we
applied to overcome these issues.
2. CASE STUDY: A SERIOUS GAME FOR CHILDREN WITHOUT ACCESS TO SCHOOL
Objective and target audience
The main objective of the presented serious game is to provide a learning tool for children
from 6 to 17 years old that have no or limited access to education resources. Therefore, such
serious game must take into account a series of parameters about the profile of the learners,
the technology background of the children, their culture, their level of education, etc.
Moreover, such game must manage at some point their motivation, which is normally
managed by the teachers in physical schools.
For the first stage of the project, the target audience is children from India and we focus on the
Indian’s school Curriculum related to learning math and English. In the second stage of the
project, we aim to expand our target adapting the tool for children from other developing
countries.
Key design challenges and proposed solutions
As a result of the literature review and collaborative multidisciplinary design process, we
identified, and proposed solutions, to key challenges to design a serious game for children out
of schooling. The main challenge identified in this study is the lack of teacher, and possibly
also a lack of literate family member, to guide the learners through their education process.
This issue is treated in this study regarding three different aspects: motivation and
engagement, identifying children’s previous knowledge and knowledge transfer. Adding to it,
other key design challenges were identified regarding learning and gaming balance,
collaborative learning and Curriculum and children cognitive development. We present next,
a summary of each challenge and our proposed solutions.
41
Journée du LICEF 2016
1) Maintain learner’s motivation and engagement
Since our target audience is children without access to school one of the main challenges for
our serious game was to maintain children engagement with the application and their
motivation to self-learning. From the literature review we understood the high potential of
serious gaming for learning [6] and value of RPG (Role Playing Games) to offer a motivating
context that elicits engagement into language learning [8].
Based in our literature review and collaborative design process, in this study we propose
applying a RPG game mechanics as a strategy to motivate and engage students into selflearning English and Mathematics. Aiming to do so, we combined RPG quest base structure
[9] with the Quest based learning methodology [10] into the designing of an educational
serious game. Each level of the game correspond to one year of the school Curriculum and the
learning scenarios are presented as quests (i.e. tasks that the player must complete in order to
gain a reward) in a RPG game.
2) Identify children previous knowledge
As mentioned previously, the aim of our learning tool is to take into account children from
different ages. From our literature review we identified a high inequality level in educational
opportunities in India [11], with children leaving the school in different ages. In order to bring
those children back to education is crucial to allow players to start playing the game from
different levels, ranging from preschoolers to more advanced high-school years.
One challenge into this direction is to identify the correct educational level for each student, as
each of them may have different formal and informal previous learning experiences. The
solution we suggest for this issue is to design a self-assessment activity, objectifying to identify
players’ previous knowledge, skills and age. This activity should be composed by short
puzzles, presented to children when they start playing the game for the first time. The
outcomes of the activity should then be applied as input to personalize and propose the
appropriate game level, and learning competences, for each child.
3) Knowledge transfer
In our literature review we found different perspectives regarding whether children learn
differently when information is presented in a fantastical context vs. a realistic context.
Previous researchers pointed out the fact that young children may have difficulties to transfer
solution from fantasy world into the real worlds [12], [13]. Other recent study evaluated the
performance of pre-school children into learning new words in real word and fantasy contexts.
Their results suggests that stories focusing on fantastical elements encourage greater learning
[14].
Taking both perspectives into account, our design solution incorporated fantasy aspects (e.g.
history line and game objects) with strategies that support learning transfer. Adapting to each
learning scenario, we defined special quests containing activities to promote debriefing and
knowledge transfer. Those activities are incorporated in bridge quests connecting different
learning scenarios, they may include a debriefing activity, a video showing a similar learning
42
Journée du LICEF 2016
content in a real word context or an activity where the learner needs to apply his knowledge to
build a project (virtually or uploading a picture from a creation in the real world).
4) Learning and gaming balance
Related work showed that a key challenge in serious game design is to find the correct balance
among learning and gaming [6], [15]. Perhaps due the multidisciplinarity of the research team,
strategies focusing on learning and gaming came up from the initial stages of our study and
during all the design process (literature review, collaborative brainstorming section and
prototype discussions).
Following recommendations from previous research [15] we focused in both aspects, learning
and gaming, from the beginning of the design process. The result of this strategy was to design
learning gaming scenarios and game mechanics that include both gaming and learning
aspects. An example of this approach is the development of two key game objects, one
focusing in the learning aspects of the tool (student portfolio) and the other focusing on
gaming (artifact repository).
5) Collaborative learning
Collaborative learning have been studied in the education field for decades (e.g. [16], [17]). In
gaming, the value of massive multiplayers online role-playing games (MMORPGs), to foster
social interaction and to facilitate collaborative learning, have also being discussed (e.g. [18],
[19]). Further more, a recent ICTD research, on technology-enhanced learning, showed a high
collaborative aspect of children tablet interaction in developing countries [20].
These previous works impulse us to propose a serious game strategy that support online
collaboration and collaborative learning. This strategy faced two limitations, first regarding
how to guaranty children’s safety online without an adult supervision [21] and second,
regarding developing countries communication networks infrastructures. In distant rural
villages in developing countries we cannot rely on strong data connections, for that reason, our
tool needs to operate with 2G communication networks and low rate of data transfer. Taking
those issues in consideration, we developed an initial multi-player strategy, by including a
game ranking showing the best players inside of each community. As a next step we aim to
explore other strategies of collaboration, as sharing an object in the game [22] or applying
Bluetooth wireless technology.
6) School Curriculum and Children Cognitive development
Since our target audience varies from 6 to 17 years old our design strategy must take into
consideration children from different ages. As previous researchers stated, children cognitive
development (e.g. [23], [24]) and consequently tablet interaction (e.g. [25], [26], [27]) varies
intensely in this age range. Further more, the learning content and competences presented in
the game should be adapted to the different ages and school curriculum.
Our strategy for this challenge is to create a game architecture that can be adapted to different
ages and learning content. We defined 12 game levels, which will increase its complexity in
43
Journée du LICEF 2016
relation to the learning content (according to school curriculum), game mechanics, game
instructions, aesthetics and user interaction.
3. CONCLUSIONS AND FUTURE WORK
This study calls attention to the value of technology enhancing learning and serious games
into contributing in enriching lives of citizens in developing countries. More specifically, this
study aims to call the attention of the research community for the lack of studies and the
opportunity to apply serious games to contribute in reducing the children and adults illiteracy
in developing countries.
Our preliminary results, from the literature review and multidisciplinary design process,
identified key challenges for developing serious games for children without access to
schooling. We proposed design solutions aiming to address this challenges and argue that this
initial understanding of the problem could be used as starting point for future work in this
field.
We are currently working in the next step of this study, which refers to conducting user
studies with children. In the first stage we aim to evaluate the design ideas using a low fidelity
prototype and discussing with children aspects that could be improved in the tool. These
outcomes will be applied as input for developing a high fidelity prototype, which will be
applied in the second round of evaluation.
REFERENCES
[1] UNESCO Institute for Statistics (UIS) and UNICEF, “Fixing the broken promise of education for all:
Findings from the Global initiative on Out-of-School Children,” Montreal, 2015.
[2] M. Warschauer, Technology and Social Inclusion: Rethinking the Digital Divide. The MIT Press;
New Ed edition, 2004.
[3] A. Johri and J. Pal, “Capable and convivial design (CCD): a framework for designing information
and communication technologies for human development,” Inf. Technol. Dev., vol. 18, no. 1, pp. 61–75,
Jan. 2012.
[4] S. M. Ferreira, S. Sayago, and J. Blat, “Going Beyond Telecenters to Foster the Digital Inclusion of
Older People in Brazil: Lessons Learned from a Rapid Ethnographical Study,” Inf. Technol. Dev., vol.
(in press), p. 21, 2016.
[5] J. Groff, J. Clark-Midura, V. E. Owen, L. Rosenheck, and M. Beall, “Better learning in games: A
balanced design lens for a new generation of learning games,” 2015.
[6] S. Arnab, T. Lim, M. B. Carvalho, F. Bellotti, S. de Freitas, S. Louchart, N. Suttie, R. Berta, and A. De
Gloria, “Mapping learning and game mechanics for serious games analysis,” Br. J. Educ. Technol., vol.
46, no. 2, pp. 391–411, Mar. 2015.
[7] J. Melero and D. Hernández-Leo, “A Model for the Design of Puzzle-based Games Including Virtual
and Physical Objects,” J. Educ. Technol. Soc., 2014.
[8] M. Peterson, “Massively multiplayer online role-playing games as arenas for second language
learning,” Comput. Assist. Lang. Learn., vol. 23, no. 5, pp. 429–439, Dec. 2010.
[9] G.
Smith,
“RPG
Design
Patterns,”
2009.
[Online].
Available:
https://rpgpatterns.soe.ucsc.edu/doku.php?id=start. [Accessed: 22-Mar-2016].
[10] C. C. Haskell, Design Variables of Attraction in Quest-based Learning. Boise State University,
2012.
[11] M. N. Asadullah and G. Yalonetzky, “Inequality of Educational Opportunity in India: Changes Over
Time and Across States,” World Dev., vol. 40, no. 6, pp. 1151–1163, Jun. 2012.
44
Journée du LICEF 2016
[12] R. A. Richert, A. B. Shawber, R. E. Hoffman, and M. Taylor, “Learning From Fantasy and Real
Characters in Preschool and Kindergarten,” J. Cogn. Dev., vol. 10, no. 1–2, pp. 41–66, Apr. 2009.
[13] R. A. Richert and E. I. Smith, “Preschoolers’ quarantining of fantasy stories.,” Child Dev., vol. 82,
no. 4, pp. 1106–19, Jan. 2009.
[14] D. S. Weisberg, H. Ilgaz, K. Hirsh-Pasek, R. Golinkoff, A. Nicolopoulou, and D. K. Dickinson,
“Shovels and swords: How realistic and fantastical themes affect children’s word learning,” Cogn. Dev.,
vol. 35, pp. 1–14, Jul. 2015.
[15] E. Klopfer, S. Osterweil, and K. Salen, “Moving Learning Games Forward,” Cambridge, MA,
2009.
[16] M. Warschauer, “Computer-Mediated Collaborative Learning: Theory and Practice,” Mod. Lang.
J., vol. 81, no. 4, pp. 470–481, Dec. 1997.
[17] K. A. Bruffee, “Collaborative Learning: Higher Education, Interdependence, and the Authority of
Knowledge. Second Edition.,” Nov. 1998.
[18] M. D. Childress and R. Braswell, “Using Massively Multiplayer Online Role‐Playing Games for
Online Learning,” Distance Educ., vol. 27, no. 2, pp. 187–196, Aug. 2006.
[19] H. Cole and M. D. Griffiths, “Social interactions in massively multiplayer online role-playing
gamers.,” Cyberpsychol. Behav., vol. 10, no. 4, pp. 575–83, Aug. 2007.
[20] A. Chang, L. Tilahun, and C. Breazeal, “Visualisations of Data from the Literacy Tablet Reading
Project in Rural Ethiopia,” in Proceedings of the EVA London 2014 on Electronic Visualisation and the
Arts, 2014, pp. 142–149.
[21] A. Bruckman and A. Bandlow, “Human-computer interaction for kids,” in The human-computer
interaction handbook, L. Erlbaum Associates Inc., 2002, pp. 428–440.
[22] A. N. Antle, “Exploring how children use their hands to think: an embodied interactional
analysis,” Behav. Inf. Technol., vol. 32, no. 9, pp. 938–954, Sep. 2013.
[23] Piaget and Jean, The Psychology Of Intelligence. Taylor & Francis, 1999.
[24] A. De Ribaupierre, “Piaget’s theory of child development,” in International Encyclopedia of the
Social and Behavioral Sciences., Oxford, 2001, pp. 11434–11437.
[25] L. Anthony, Q. Brown, J. Nias, B. Tate, and S. Mohan, “Interaction and recognition challenges in
interpreting children’s touch and gesture input on mobile devices,” in Proceedings of the 2012 ACM
international conference on Interactive tabletops and surfaces - ITS ’12, 2012, p. 225.
[26] L. Anthony, Q. Brown, J. Nias, and B. Tate, “Examining the need for visual feedback during
gesture interaction on mobile touchscreen devices for kids,” in Proceedings of the 12th International
Conference on Interaction Design and Children - IDC ’13, 2013, pp. 157–164.
[27] R.-D. Vatavu, G. Cramariuc, and D. M. Schipor, “Touch interaction for children aged 3 to 6 years:
Experimental findings and relationship to motor skills,” Int. J. Hum. Comput. Stud., vol. 74, pp. 54–76,
Feb. 2015.
45
Journée du LICEF 2016
X.
Planification des services pédagogiques pour la génération des scénarios
d’apprentissages personnalisés dans le jeu sérieux KSMS
Ramzi Gannouni (1), Richard Hotte (1), Gilbert Paquette (1) et Hakim Lounis (2)
1
2
Centre de recherche LICEF, TÉLUQ, Québec, Canada.
Université du Québec à Montréal (UQAM)
Résumé
La conception des parcours pédagogiques dans les systèmes d’apprentissage en ligne en
générale et dans les jeux sérieux en particulier représente une étape cruciale dans le
processus d’apprentissage. Automatiser cette conception dynamiquement mais surtout
d’une façon personnalisée afin de répondre aux besoins des apprenants, de maintenir
leurs intérêts et de leur assurer un apprentissage efficace, représente un défi
important. Dans l’optique d’une ingénierie pédagogique orientée services Web et
guidée par des objectifs, nous proposerons une méthode de composition dynamique
des services pédagogiques en fonction du profil cognitif de l’apprenant (ses pré requis
et son objectif en terme de compétences, ainsi que ses préférences), afin de générer des
scénarios d’apprentissage personnalisés. Pour décrire les services pédagogiques et
formuler les objectifs pédagogiques des apprenants, des ontologies relatives au
domaine de connaissance et à l’ingénierie pédagogique ont été réalisés ainsi qu’un
système de planification PORSCE II (Hatzi et al. 2013) a été adapté pour la composition
de services pédagogiques adéquats.
1. Introduction et contexte
Nos recherches s’inscrivent dans un contexte d’apprentissage mobile au sein du projet Kids’
Smart Mobile School (KSMS). KSMS a pour finalité le développement d’une application
mobile dédiée aux enfants dans les pays en développement n’ayant pas accès à l’école. Notre
contribution consiste à réaliser un système qu’on l’appelle PSP (Planificateur des Scénarios
Pédagogiques). Plus spécifiquement, nos travaux tendent à l’automatisation de la génération
des scénarios d’apprentissage (soit la séquence d’éléments à compléter pour atteindre une
étape dans le système d’apprentissage) d’une façon dynamique, personnalisée et en temps
opportun.
Dans les fais, nous visons à générer automatiquement et semi automatiquement des scénarios
d’apprentissage adaptés et personnalisés pour l’apprenant et le contexte d’apprentissage, en
composant des services pédagogiques par l’utilisation d’un planificateur dynamique. Pour
relever ce défi, nous nous intéressons plus spécifiquement à concevoir des ontologies pour
46
Journée du LICEF 2016
intégrer la gestion des connaissances et des compétences et à intégrer les standards du web
sémantique et du e-Learning afin de permettre la création, la description et la réutilisation des
services pédagogiques sur mesure.
Dans les prochaines sections, nous-nous intéresserons aux technologies susceptibles de nous
aider à satisfaire notre problématique, soit l’élaboration et la modification automatique de
scénarios pédagogiques en composant éventuellement les services pédagogiques adéquats.
2. Scénario pédagogique
Un scénario d’apprentissage que ce soit en e-Learning ou au sein d’un jeu sérieux, est composé
d’une série de sous-processus pédagogiques structurés par des processus centraux. Lors de la
modélisation d’un scénario pédagogique, nous définissons les sous-processus d’apprentissage
comme étant des éléments s’intégrant à l’environnement de l’apprenant et l’assistant dans
l’acquisition de compétences, de connaissances ou de comportements visés.
Le design du scénario d’apprentissage est conçu de sorte que les séquences d’apprentissage,
soit des expériences consécutives menant l’individu vers un niveau plus élevé de
connaissances et de compétences. Lors de la mise en place d’un scénario pédagogique, les
habilités et les connaissances de l’apprenant sont évaluées par une unité centrale, soit le
tuteur. Le concepteur, PSP dans notre cas, pourra ainsi générer un curriculum pour
l’apprenant, lui permettant de répondre à ses besoins de connaissances ou de compétences
ainsi que ses préférences.
En général, le scénario doit être élaboré par un concepteur chargé de la conception et de la
personnalisation de chacun des scénarios d’apprentissage, afin de répondre aux besoins de
chacun des apprenants. En revanche, la génération du plan spécifique à chaque apprenant est
une tâche qui requiert un temps de traitement important. Afin que le processus
d’apprentissage mobile soit pertinent, nous devons être capables de générer des plans
personnalisés plus rapidement que la progression de l’apprenant à l’intérieur du plan. Ceci
pourrait se faire lorsque certains sous-processus pédagogiques sont complétés, l’apprenant
pouvant être évalué et le résultat de chacune des évaluations permettra au système d’adapter
le scénario pédagogique selon les forces et les faiblesses de l’apprenant, cela tout le long du
curriculum d’apprentissage. Par exemple, si on déterminait que l’apprenant n’a pas bien saisi
une sous-tâche précise et importante, lors du processus pédagogique, PSP pourrait modifier la
séquence des prochaines étapes d’apprentissage en fonction de ce besoin et ainsi aider
l’apprenant à pallier à cette mauvaise compréhension.
Dans notre cas, ces étapes se font par l’entremise du profil de l’apprenant à travers la
validation de son niveau ainsi son intention par rapport à l’ontologie de l’objectif (ontologie de
compétences (Paquette 2007), associée à l’ontologie de domaine de connaissance
(Mathématiques pour notre cas)).
Ceci permet au PSP d’élaborer un scénario pédagogique, soit les séquences d’apprentissages
(sous-processus) nécessaires pour que l’apprenant puisse atteindre le niveau de connaissances
et de compétences escomptés.
47
Journée du LICEF 2016
3. Les services pédagogiques
Dans notre système, on vise à mettre à la disposition de l’apprenant des composants
pédagogiques de type services en se référant aux services web. Ce choix d’approche émane des
nombreux avantages offerts par cette architecture. En effet, centrés sur la définition d’un
objectif, les services pédagogiques peuvent être réutilisés dans différents contextes et agrégés
de différentes manières tout en facilitant l’invocation et la composition de solutions adaptées
aux intentions de l’apprenant (Zniber and Cauvet 2007).
Les services pédagogiques sont décrits par la spécification détaillée de leurs objectifs et de
leurs contextes. De plus, chacun fournit un processus utilisant un ou plusieurs ressources afin
d’atteindre un objectif particulier. Ces processus en question seront ainsi assemblés selon le
besoin de l’apprenant pour élaborer ses parcours d’apprentissage.
Quant aux ontologies, elles sont utilisées pour décrire sémantiquement les services, afin de
faciliter leurs recherches et leurs compositions. Par ailleurs, elles offrent également un moyen
de partage et de réutilisation de la connaissance tout en facilitant la mise en correspondance
des services pédagogiques disponibles et des besoins de l’apprenant.
Nous avons utilisé OWL-S (Ontology Web Language for Services) pour décrire les services
pédagogiques. Ce dernier propose une ontologie de services qui décrit chaque service selon 3
dimensions:
•
•
•
ServiceProfile : décrit les informations concernant les services offerts (ses
fonctionnalités et les pré-conditions pour son utilisation). Elle spécifie aussi le but du
service pédagogique.
ServiceModel: c’est la partie « structure » du service. elle définit des processus types
pour réaliser le but.
ServiceGrounding: c’est la partie « comportement » du service. Elle présente le
processus à un niveau opérationnel ou exécutable par un apprenant.
Après l’exécution d’un service, une évolution est supposée être déclenchée chez l’apprenant à
travers l’acquisition de nouvelles compétences. Cette variation est exprimée à travers
l’expression de prérequis et d’acquis, en termes de compétences et de niveaux, de façon à ce
que le niveau renseigne sur le degré de la compétence atteint.
Les prérequis sont les pré-conditions nécessaires à l’utilisation de ce service, et les acquis
correspondent au résultat en terme de compétences acquises (Zniber 2009). La description de
ces services par les ontologies de tâche et de domaine est alors utilisée par la plateforme
PORSCE II (Hatzi et al. 2013) afin de générer des parcours pédagogiques personnalisés.
4. Conclusion
Étant très dynamiques et imprévisibles, les environnements d’apprentissage à distance
requièrent des méthodes utiles et plus adaptées à la création de composition dynamique de
services pédagogiques.
48
Journée du LICEF 2016
Basée sur la planification en IA et enrichie par des techniques du web sémantique, le système
PSP (Planification de Services Pédagogiques) proposé dans cet article, permet l’élaboration
d’un plan d’apprentissage, correspondant le mieux aux préférences des utilisateurs, ainsi
qu’une rapidité et flexibilité remarquables.
Figure 1. Description du PSP (Planificateur des Services Pédagogiques)
Référence bibliographique
Bloom, Benjamin Samuel, and David R Krathwohl. 1956. "Taxonomy of educational objectives: The
classification of educational goals. Handbook I: Cognitive domain." Review of.
El-Kechaï, Naïma, Javier Melero, and Jean-Marc Labat. 2015. Quelques enseignements tirés de
l'application de la Competence-based Knowledge Space Theory aux Serious Games. Paper presented at
the IC2015.
Hatzi, O., D. Vrakas, N. Bassiliades, D. Anagnostopoulos, and I. Vlahavas. 2013. "The PORSCE II
framework: using AI planning for automated Semantic Web service composition." Review of.
Knowledge Engineering Review 28 (2):137-56. doi: Doi 10.1017/S0269888912000392.
Hocine, Nadia, Abdelkader Gouaïch, Ines Di Loreto, and Lylia Abrouk. 2011. "Techniques d'adaptation
dans les jeux ludiques et sérieux." Review of. Revue d'Intelligence Artificielle 25 (2):253-80.
Melero, Javier, Naïma El-Kechaï, and Jean-Marc Labat. 2015. "Comparing Two CbKST Approaches for
Adapting Learning Paths in Serious Games." In Design for Teaching and Learning in a Networked
World, 211-24. Springer.
Paquette, Gilbert. 2002. Modélisation des connaissances et des compétences: un langage graphique
pour concevoir et apprendre: PUQ.
———. 2007. "An ontology and a software framework for competency modeling and management."
Review of. Educational Technology & Society 10 (3):1-21.
———. 2016. "Competency-based Personalization Process for Smart Learning Environments." In
Learning, Design, and Technology. An International Compendium of Theory, Research, Practice, and
Policy. AECT and Springer
Zniber, Najlaa. 2009. "Modèle orienté service pour la conception de parcours pédagogiques
personnalisés." Université Paul Cézanne-Aix-Marseille III.
Zniber, Najlaa, and Corine Cauvet. 2007. "Des composants aux services pédagogiques." Review of.
International Journal of Information Sciences for Decision Making (TICE Méditerranée; 2007;
Marseille). ISDM (29).
49
Journée du LICEF 2016
XI.
Du curriculum au jeu, quel modèle ?
Eric Le Magoariec (1) et Richard Hotte (2)
(1)
(2)
Université Pierre et Marie Curie
Centre de recherche LICEF, TÉLUQ, Québec, Canada.
Résumé :
L’objectif de ce travail est de contribuer à la création et au développement d’une
application mobile dédiée aux apprentissages pour l'éducation des enfants dans les
pays en développement. La réalisation du projet, nommé Kids’ Smart Mobile
School (KSMS) est l’œuvre d’une équipe interdisciplinaire au sein de laquelle notre
contribution consiste à concevoir et modéliser un type de scénario d’apprentissage
pour guider une équipe de développeurs informatiques dans le transfert d’un
curriculum d’enseignement sous forme de Serious Game dédié à l’apprentissage.
1. Introduction
Au sein de l’équipe interdisciplinaire de KSMS, notre travail est volontairement limité au
CBSE-i Curriculum1, dans sa partie Mathématiques en Class I (tableau 1). Dans le cadre de
cette présentation, je ne m’intéresserai qu’à la partie sur l’apprentissage des nombres.
Tableau 1. CBSE-i : Objectifs spécifiques des mathématiques en CLASS I
Résoudre une énigme ou des problèmes en utilisant des nombres.
Développer et utiliser le vocabulaire de comparaison des nombres (plus, moins et égal à)
Trier, classer et décrire l'objet sur la base du nombre des objets.
Assembler les puzzles et les objets en fonction de la spécification donnée.
Observer et décrire le nombre d'objets dans leur environnement.
Compter dans l'ordre croissant et décroissant
Regrouper les objets en groupes de deux, trois ou dix chacun.
Visualiser et utiliser le langage courant pour décrire la forme et l'orientation de l'objet.
Compter de façon fiable jusqu'à 50 objets, en reconnaissant que le nombre d'objets correspond au
nombre.
Estimer le nombre d'objets qui peuvent être vérifiés par comptage.
Comparer et ordonner les nombres
(Traduit de l’anglais)
50
Journée du LICEF 2016
Un rapide coup d’œil sur les objectifs spécifiques des mathématiques en Class I (tableau 1)
permet de se rendre compte qu’ils ne sont pas réellement utilisables tels que formulés. Ils sont
de trop haut niveau et non mesurables pour certains d’entre eux.
Tableau 2. MEN : Cours préparatoire - Nombres et calcul
Connaître (savoir écrire et nommer) les nombres entiers naturels inférieurs à 100.
Produire et reconnaître les décompositions additives des nombres inférieurs à 20 (“table d’addition”).
Comparer, ranger, encadrer ces nombres.
Écrire une suite de nombres dans l’ordre croissant ou décroissant.
Connaître les doubles des nombres inférieurs à 10 et les moitiés des nombres pairs inférieurs à 20
Connaître la table de multiplication par 2.
Calculer mentalement des sommes et des différences.
Calculer en ligne des sommes, des différences, des opérations à trous.
Connaître et utiliser les techniques opératoire de l'addition et commencer à utiliser celles de la
soustraction (sur les nombres inférieurs à 100).
Résoudre des problèmes simples à une opération.
Avant toutes choses, nous avons traduit ces objectifs en une progression pédagogique de façon
à faire émerger les connaissances et compétences sous-jacentes et, ainsi, définir une
progressivité. Ainsi, en suivant cette progression, l’apprenant pourra atteindre ces objectifs et
l’acquisition de ses connaissances pourra être évaluée.
2. Construire la progression
Il est à noter que le curriculum du Central Board of Secondary Education-International (CBSE-i)
est assez proche des curriculums occidentaux. Nous nous sommes donc appuyés sur les
propositions de progression proposées par l’éducation nationale2 française (tableau 2) en
prenant soin d’apporter les adaptations nécessaires, le cas échéant, par exemple les noms des
nombres ne sont pas construits de façon identique en français et en anglais.
Cependant, il s’avère nécessaire de redécouper chacun de ces items en plus petites unités de
façon à se rapprocher le plus possible des activités que réalisera l’apprenant. En effet, seul ce
découpage nous permettra de valider ou non la progression de la construction de
connaissances ou de compétences chez l’apprenant.
Figure 1 : Progressivité pour apprendre les nombres
51
Journée du LICEF 2016
De plus, il faut garder en mémoire que la finalité est la réalisation d’un jeu par l’intermédiaire
duquel l’apprenant aura à y réaliser des activités ! Le défi est donc d’amalgamer, au maximum,
les activités du jeu aux activités pédagogiques de la progression.
3. Traduire en scénario
Pour illustrer le propos, je vais expliciter la démarche que j’ai décidé de suivre pour modéliser
et faciliter le passage vers le jeu.
La figure 1 montre le découpage choisi pour amener l’apprenant à « Connaître (savoir écrire et
nommer) les nombres entiers naturels inférieurs à 100 », « Comparer, ranger, encadrer ces
nombres », « Écrire une suite de nombres dans l’ordre croissant ou décroissant ». Je les ai
regroupés dans la fonction « Apprendre les nombre ». Ce regroupement n’est pas fortuit. Il est
issu de discussion avec des enseignants du primaire mais aussi de documents glanés sur le web
comme par exemple sur les sites « L’école de Julie » 3 ou bien « Le petit cartable de Sanléane » 4.
Une fois que les connaissances et compétences à construire mais aussi la progressivité
définies, il reste à choisir la ou les stratégies pour arriver à les transmettre à l’apprenant. Le
choix s’est porté sur l’approche constructiviste de Maria Montessori (1912) qui, comme
l’affirme David Elkind (2003)5 dans son article Montessori and Constructivism, englobe les trois
épistémologies qui continuent à avoir une influence en pédagogie.
La stratégie que nous avons suivi pour réaliser nos modèles est qu’ils placent l’apprenant, à
tour de rôle, dans les trois postures (figures 2 à 4) soit, comme un mime qui imite, un logicien
qui déduit ou un architecte qui construit. A l’issue, nous le placerons dans une optique d’autoévaluation (figures 5) ou, au minimum, devant un débriefing, compris ici comme un retour
réflexif sur l’activité.
Figure 2 : Apprenant comme Mime 1
Figure 4 : Apprenant comme Architecte 1
Figure 3 : Apprenant comme Logicien 1
Figure 5 : L'apprenant s'auto-évalue
52
Journée du LICEF 2016
Les activités de la progression prennent donc en compte cette stratégie et, comme le montre la
Figure 6, pour chaque compétence à construire, l’apprenant passera par les quatre étapes
mentionnées.
Figure 6 : Connaitre les nombre de 1 à 5
Figure 7 : Reconnaître les nombres en
tant que Mime
Les premières activités (Figure 7) porte sur la reconnaissance des nombres de 1 à 5. Dans un
premier temps, l’apprenant (mime) est invité à reproduire des actions de façons à relier une
collection d’objets au cardinal correspondant. Dans un deuxième temps (Figure 8), la stratégie
évolue, il (logicien) doit appliquer et déduire de ses erreurs de façon à arriver à la bonne
réponse. Si l’apprenant fait une erreur, la solution lui est montrée. Pour le troisième rôle
(Figure 9), l’apprenant (architecte) est placé dans une situation de résolution de problème de
façon à valider ce qu’il vient d’apprendre et s’il peut le mobiliser pour produire une solution.
Pour terminer, une activité d’auto-évaluation lui est proposée (Figure 10). À ce niveau, c’est un
simple débriefing qui lui proposé mais en prenant soin de lui faire un retour ses points forts et
autres.
Figure 3 : Reconnaître les nombres en tant que
logicien
Figure 2 : Reconnaître les nombres en tant
qu’Architecte
53
Journée du LICEF 2016
Figure 4 : Reconnaître les nombres en tant qu’Architecte
Figure 5 : Débriefing de l’activité reconnaître les nombres
4. Du scénario au jeu
Le concept de jeu choisi par l’équipe interdisciplinaire de KSMS est un jeu de rôle axé sur
l’apprentissage à base de quête. L’apprenant est donc invité à accomplir différentes quêtes
auxquelles sont associés des contenus mathématiques ou anglais langue seconde (ESL).
A ce niveau, le travail consiste à s’appuyer sur les scénarios de progression développés afin de
créer les situations de jeu qui permettront à l’apprenant de vivre et réaliser les quêtes et donc
apprendre. Pour illustrer mon propos, voici l’exemple de la première quête :
Quête 1 : Réaliser la potion signalant les artéfacts magiques
Objectif d’apprentissage global : Reconnaître les nombres jusque 5.
Contexte général de la quête :
Le Troll maléfique a caché les artéfacts magiques sous la forme d’objets usuels. Afin de
pouvoir les récupérer, le magicien décide de réaliser une potion qui les signalera à l’apprenti
lorsqu’il sera proche d’eux.
Activité 1 : Faire inventaire de l’armoire à préparation de potion.
Objectif d’apprentissage : Identifier un nombre par sa quantité.
Contexte :
L’apprenti doit dénombrer les ingrédients présents dans l’armoire afin que le magicien sache
ce qu’il a et ce qu’il manque pour réaliser la potion. L’apprenti se rend donc devant l’armoire
et l’ouvre. Des collections d’éléments se présente à lui (une dizaine), il devra associer le nombre
correspondant à la quantité d’éléments dans la collection. (Ex: * * * * => 4)
Stratégie :
L’apprenant est, dans un premier temps, guidé dans les actions qu’il doit réaliser. Il n’a pas de
choix, il a le rôle de mime. Ensuite il passe au rôle de logicien et a donc la possibilité de
choisir parmi les possibilités. Des erreurs sont possibles.
Lors d’un clic sur un nombre, il est verbalisé ; s’il tarde à associer le bon, il clignote.
Quand le choix est correct, on verbalise de 1 en 1 jusqu’à la quantité de la collection et, en
même temps, la collection est symbolisée (groupement et nombre). Ex : verbalisation de 4 puis
54
Journée du LICEF 2016
1, 2, 3 et 4 ; de façon synchrone, 1 objet, 2 objets, 3 objets et enfin 4 objets sont entourés ceci tout
en mettant en surbrillance le nombre associé => accentuation de l’association)
Activité 2 : Récupérer les éléments manquants.
Objectif d’apprentissage : Identifier un nombre par sa verbalisation - Activité liée avec l’Anglais langue
seconde
Contexte :
Le magicien demande à l’apprenti de se rendre dans le jardin afin d’aller récupérer les
ingrédients (une dizaine d’ingrédients différents) nécessaires pour établir la potion qu’il veut
réaliser. Une fois dans le jardin, le magicien lui dicte ce qu’il a besoin. L’apprenti devra donc
sélectionner autant d’éléments que de besoin pour réaliser la collection dictée.
Stratégie :
S’il tarde, l’objet désiré clignote, puis un autre, … jusqu’à la quantité désirée.
(Ex : 4 pommes => il clique sur 4 pommes dans le jardin (chaque pomme se démarque pour
visualiser la collection) - A chaque clic le nombre est verbalisé et symbolisé => accentuation de
l’association)
Activité 3 : Vérifier que maintenant les ingrédients nécessaires sont présents.
Objectif d’apprentissage : Associer un nombre à la quantité correspondante.
Même principe
Activité 4 : Réaliser la potion.
Objectif : Evaluation – Situation problème.
Contexte :
Le magicien demande à l’apprenti de réaliser la potion de signalisation. Il lui donne une
recette mais malheureusement celle ci est déchirée, il manque les derniers ingrédients. Le
magicien le rassure, il lui dictera la fin en temps voulu.
Stratégie :
L’apprenant a le rôle de l’Architecte. Il doit mobiliser ses connaissances et s’en servir pour
construire la solution.
1er temps : A partir d’une image représentant un ingrédient et le nombre représentant la
quantité souhaitée, l’apprenti doit récupérer et verser dans le chaudron les ingrédients
nécessaires.
2eme temps : A partir des consignes verbales du magicien, l’apprenti récupère et verse dans le
chaudron les ingrédients nécessaires.
Activité de débriefing :
Un écran synthétique est présenté à l’apprenant/joueur.
Potion réussi : tout est ok => BRAVO => FIN QUETE 1, (Mise à jour du portfolio) => il peut
passer à la quête suivante
Problème détecté : Feedback de l’erreur ou des erreurs et il recommence la potion
Si encore des erreurs => retour activité 2 (il n’y a plus assez d’ingrédients) puis activité 3 et
enfin évaluation
5. Conclusions
Cette première étape nous permet de valider notre hypothèse de travail. Nous venons de
démontrer qu’il est possible d’amalgamer les activités du jeu aux activités pédagogiques d’une
progression à partir d’un scénario d’apprentissage de base. Néanmoins, pour ce faire, il ressort
que le travail de modélisation doit être suffisamment fin et les activités de suffisamment bas
niveau, à la ressemblance des activités que nous pourrions mettre en œuvre avec des élèves en
55
Journée du LICEF 2016
classe. Le challenge devient alors de réussir à développer le design du jeu de façon aussi fine
pour intégrer les activités à l’histoire, à la situation narrative.
Références bibliographiques :
1
http://cbse-international.com/upload/documents/upload/22f23fs23fs/level-1/l-1_c-91_1347248928655.pdf
http://eduscol.education.fr/cid58402/progressions-pour-ecole-elementaire.html
3
http://www.ecoledejulie.fr/progression-maths-cp-2012-2013-a47162463
4
http://www.sanleane.fr/construire-les-notions-mathematiques-au-cp-sans-fichier-a95460359
5
ELKIND, David. Montessori and constructivism. Montessori life, 2003, vol. 15, no 1, p. 26.
2
56
Journée du LICEF 2016
XII.
STI-DICO : un système tutoriel intelligent pour le développement des
connaissances et compétences dictionnairiques chez les futurs maîtres
au primaire
Alexandra Luccioni, Gilbert Paquette et Jacqueline Bourdeau
1
Centre de recherche LICEF, TÉLUQ, Québec, Canada
Résumé
Les systèmes tutoriels intelligents (STI) sont des environnements d’apprentissage
informatisés dont l'efficacité est comparable aux tuteurs humains dans une variété de
domaines [6, 7]. Dans le cadre de notre projet de recherche, nous avons développé STIDICO, un STI conçu pour les futurs enseignants du français au Québec afin de les
guider dans l'acquisition des connaissances théoriques et des compétences pratiques
nécessaires pour l'utilisation du dictionnaire. Via une modélisation formelle des
connaissances et compétences dictionnairiques, couplé avec des activités
d'apprentissage authentiques, STI-DICO sera déployé via une interface Web à des
futurs enseignants du français au primaire en formation à l'UQAM, leur fournissant un
apprentissage adapté grâce à des boucles de rétroactions, des explications et des
indices.
1. Introduction
Les dictionnaires jouent un rôle important dans le développement du vocabulaire, un
indicateur clé de la réussite scolaire [8]. Dans les dernières années, les dictionnaires
électroniques tels qu’Antidote (Cognitive Tutor Authoring Tools: ctat.pact.cs.cmu.edu/) ont vu
le jour, offrant de nouvelles fonctionnalités, des fonctions de recherche complexes et des
interfaces interactives, résultant en un changement de paradigme qui a fondamentalement
changé le processus de consultation du dictionnaire. [3]. L’habileté d'utiliser un dictionnaire
électronique a été définie comme une compétence à viser par le Ministère de l'éducation du
Québec [4]; malgré cela, des études ont montré que les dictionnaires électroniques sont
rarement utilisés autant par les étudiants que les enseignants en salle de classe,
principalement en raison du manque d'instruction appropriée [12].
Afin de contribuer à combler cette lacune, notre projet vise à créer STI-DICO, un système
tutoriel intelligent (STI) visant la nouvelle génération d'enseignants en formation à l'UQAM.
Le but de STI-DICO sera de guider ces futurs enseignants à acquérir les compétences et les
connaissances dont ils ont besoin pour exploiter les dictionnaires électroniques de manière
appropriée et efficace, autant en salle de classe qu'ailleurs. STI-DICO sera développé en
57
Journée du LICEF 2016
utilisant des technologies de pointe afin de concevoir un environnement d'apprentissage
intelligent avancé qui sera en mesure de fournir des services de tutorats adaptés à l'état de
connaissance de l'apprenant à chaque étape de son processus d'apprentissage [6].
2. Méthodologie
La démarche méthodologique de ce projet de recherche s’inspire de l’approche Design-Based
Research (DBR) [8], une méthodologie fortement située dans un contexte éducationnel réel
qui renforce la validité des résultats de la recherche en insistant sur un partenariat entre
chercheurs et acteurs du domaine. DBR comprend un processus par itérations, chaque
itération apportant à la fois un progrès dans le système développé, ainsi qu'un avancement de
connaissances théoriques.
Les itérations de notre projet sont les suivantes:
1. L'analyse du contexte d'application, identification de la problématique de recherche et la
formulation d'hypothèses de recherche ;
2. La création d’un référentiel de connaissances et de compétences dictionnairiques, basé sur
des études existantes sur la consultation des dictionnaires [3, 5, 12]. et ancré via une ontologie
de concepts lexicaux [10];
3. Le développement d’une banque de tâches d'apprentissages authentiques [3], liant chaque
tâche avec les compétences et connaissances qu'elle mobilise ;
4. L’élaboration des explications théoriques, des rétroactions et des indices pour accompagner
les apprenants lors de la complétion des activités ;
5. Le développement de l'interface de STI-DICO en utilisant les technologies Web,
notamment la plateforme Open edX pour servir d'interface ;
La création des composants adaptatifs de STI-DICO (moteur de raisonnement, modèle de
l'apprenant, module tuteur) en employant la suite CTAT (Cognitive Tutor Authoring Tools
(Cognitive Tutor Authoring Tools: ctat.pact.cs.cmu.edu/)) et en les connectant à l'interface en
utilisant le protocole LTI.
Les deux premières itérations du projet ont été complétées et évaluées, et les itérations 3 et 4
sont en cours de complétion. Conformément avec l'approche DBR, chaque itération sera
évalué par des praticiens du domaine, que ce soit des chercheurs en lexicologie, des experts de
la didactique des langues ou des futurs enseignants eux-mêmes, afin d'assurer de garder le lien
avec le contexte d'application de notre système.
3. Le référentiel de connaissances et compétences dictionnairiques
Le cœur de STI est le référentiel de connaissances et de compétences dictionnairiques, qui
représente toutes les connaissances du domaine que l’apprenant est amené à acquérir via le
STI. Il s’agit d’une structure multicouches, composé de 125 items (compétences et
connaissances), chacun relié à un ou plusieurs des 25 concepts lexicaux (tirés de l'ontologie
GTN), structuré autour de 4 pôles de situations (lecture, rédaction, amélioration de texte, et
correction de texte).
Afin d'assurer notre correspondance étroite avec notre contexte éducatif cible, nous avons fait
une analyse approfondie des exigences du Ministère de l'Éducation en ce qui concerne les
enseignants et les étudiants, couplé avec une revue des écrits extensive des études existantes
58
Journée du LICEF 2016
sur la consultation des dictionnaires [3, 5, 12], en faisant des liens entre les étapes de
consultation du dictionnaire et les compétences qu'elles sollicitent. Nous avons également
établi des liens entre notre référentiel et GTN, une ontologie des savoirs linguistiques [10], ce
qui nous a permis de relier les concepts lexicaux sollicités par les compétences avec leurs
définitions et leurs liens hiérarchiques tels que définis dans l'ontologie.
Afin de rester fidèle à la méthodologie DBR, nous avons évalué la totalité de notre référentiel
avec trois experts dans les domaines de la linguistique, la lexicologie et la didactique des
langues. Les résultats de l'évaluation ont été très encourageants et le traitement des
commentaires et des suggestions des évaluateurs nous a permis d'affiner davantage nos
définitions et ajouter de nouveaux éléments au référentiel. Suite à l'évaluation des experts,
nous avons restructuré notre référentiel pour mettre en avant le lien entre les compétences et
les situations qui les mobilisent, y compris les étapes de consultation du dictionnaire dans
lesquelles chaque compétence est utilisée. Ceci a mené à la création d'ensembles d'activités
d'apprentissage authentiques visant à favoriser le développement de ces compétences. Pour
valider ces activités empiriquement. nous avons conçu un protocole de verbalisation [2] dans
lequel on demandera à des scripteurs de niveau différents d'effectuer différents types de
tâches en verbalisant les étapes suivis, leurs réflexions et leurs processus cognitifs. Ceci va
nous permettre de confirmer les liens que nous avons établi entre connaissances et
compétences, ainsi que de rajouter des compétences manquantes à notre modèle. Cette
expérimentation est une nouvelle approche à l'étude de la consultation du dictionnaire, et est
prévue pour juin 2016.
4. L’implémentation informatique et la suite du projet
Nous sommes en plein développement informatique du prototype de STI-DICO, en utilisant
des technologies Web et open-source, et inspirés des architectures modulaires traditionnelles
des STI [6] et de l'adaptation à double boucle proposée par Van Lehn [11]. Cependant, nous
nous sommes inspirées de propositions récentes qui visent à rendre les STI plus légers et plus
modulaires, afin de faciliter leur diffusion sur le Web et leur adaptabilité aux contenus variés
[1, 7]. Nous travaillons présentement à rendre notre prototype plus performant et d’y rajouter
des composantes, notamment le modèle de l’étudiant, qui représentera la progression de
l’apprenant à travers le temps, et le module tuteur, qui déterminera le comportement du STI
au sein des activités d’apprentissage.
Une fois complété, STI-DICO sera déployé via Open edX, une plateforme d’apprentissage,
intégrant l’interface et les fonctionnalités de ce dernier avec des composantes intelligentes que
nous aurons crées. En se servant de notre référentiel de connaissances et de compétences
dictionnairiques, STI-DICO sera en mesure d’effectuer le diagnostic cognitif de l’apprenant et
de lui fournir un guidage adapté à son niveau et à ses besoins. Grâce à son architecture
modulaire, STI-DICO pourra par la suite être adapté pour d'autres domaines de la
connaissance, d'autres clientèles, et d'autres langues, et déployé via le Web afin d'atteindre des
apprenants sur une échelle mondiale.
Références bibliographiques
1. Aleven, V., Sewall, J., Popescu, O., Xhakaj, F., Chand, D., Baker, R., Wang, Y., Siemens, G., Rosé, C.,
Gasevic, D. (2015) The Beginning of a Beautiful Friendship? Intelligent Tutoring Systems and MOOCs.
Proceedings of the 17th International Conference on Artificial Intelligence in Education, 525-528
59
Journée du LICEF 2016
2. Ericsson, A.K. et Simon, H. A. (1993). Protocol Analysis : Verbal Reports As Data. Cambridge : MIT
Press.
3. Lew, R. (2013). From paper to electronic dictionaries: Evolving dictionary skills, dans Kwary, D.A.,
Wulan, N. et Musyahda, L. (eds.), Lexicography and Dictionaries in the Information Age. Selected
papers from the 8th ASIALEX international conference. Surabaya: Airlangga University Press, 79–84.
4. Ministère de l’Éducation du Québec. (2006). Programme de formation de l’école québécoise du
niveau préscolaire et primaire. Québec : MEQ.
5. Nesi, H. (1999). The Specification of Dictionary Reference Skills in Higher Education. Dans
Hartmann, R. R. K. (ed.). Dictionaries in Language Learning. Recommendations, National Reports and
Thematic Reports from the Thematic Network Project in the Area of Languages, Sub-Project 9:
Dictionaries, 53-67. Berlin : Freie Universitat Berlin.
6. Nkambou, R., Bourdeau, J., & Mizoguchi, R. (2010), Studies in Computational Intelligence: Vol. 308.
Advances in Intelligent Tutoring Systems. Berlin, Heidelberg: Springer
7. Nye, Benjamin D. (2015) AIED Is Splitting Up (Into Services) and the Next Generation Will Be All
Right. Proceedings of the Workshops at the 17th International Conference on Artificial Intelligence in
Education
8. Reeves, T., Herrington, J. and Oliver, R. (2005) Design Research: A Socially Responsible Approach to
Instructional Technology Research in Higher Education. Journal of Computing in Higher Education,
16(2), 97-116.
9. Scott, J., Nagy, B. et Flinspach, S. (2008). More than merely words: Redefining vocabulary learning
in a culturally and linguistically diverse society. Dans A. Farstrup et J. Samuels (dir.). What Research
Has to Say About Vocabulary Instruction. 182-210.
10. Tremblay, O. et Polguère, A. (2014). Une ontologie des savoirs linguistiques au service de la
didactique du lexique. Actes du Congrès Mondial de Linguistique Française.
11. Van Lehn, K. (2006) The Behavior of Tutoring Systems. International Journal of Artificial
Intelligence in Education 16, 227–265.
12. Wingate, U. (2004). Dictionary use — the need to teach strategies, The Language Learning Journal,
29(1), 5-11
60
Journée du LICEF 2016
XIII.
Détermination d’un patron représentatif de la cinématique 3D du genou
à l’aide d’une analyse fonctionnelle des donneés
Imen Mechmeche, Amar Mitiche, Youssef Ouakrim, Jacques A. De Guise
et Neila Mezghani
1
Institut National de la Recherche Scientifique, INRS-EMT, Montréal, Quebec, Canada,
Laboratoire de recherche en Imagerie et Orthopédie, École de technologie supérieure,
Centre de recherche du Centre hospitalier de l’Université de Montréal, Montréal, Canada,
3
Centre de Recherche LICEF, TELUQ university, Montreal, Canada,
2
Résumé
Le but de cette étude est de déterminer un patron représentatif des signaux cinématiques
tridimensionnels (3D) du genou. Ces signaux correspondent à des courbes continues décrivant la
variation en fonction du temps des angles de rotation du genou dans les plans sagittal, frontal et
transverse durant un cycle de marche. La détermination d’un patron représentatif à partir de ces courbes
est confrontée à une grande complexité qui est due principalement à la présence des courbes aberrantes
et à la variabilité en phase entre les différentes courbes. Nous proposons une approche basée sur
l’analyse fonctionnelle des données cinématiques qui consiste à (1) éliminer les courbes aberrantes à
l’aide de l’indice MBD (Modified Band Depth Index) et (2) à minimiser la variabilité à l’aide de la technique
curve registration. Finalement le patron retenu est défini par une moyenne des courbes traitées.
1. Introduction
L’analyse des données cinématiques du genou est une nouvelle approche qui a permis une
meilleure compréhension de son mode fonctionnement en état de mouvement. Ce type
d’analyse permet également d’effectuer un diagnostic non invasive des différentes pathologies
musculosquelettiques du genou [1]. En effet, plusieurs études dans la littérature ont permis
d’effectuer une classification des patients saints et arthrosiques en se basant sur l’analyse de
ces données cinématiques [2] [3].
Une telle analyse se base généralement sur un patron représentatif, qui décrit la variation de
chacun des trois angles de rotation (flexion, abduction, rotation) durant un cycle de marche.
Ce patron est déduit à partir d’une quarantaine d’observations pour chaque sujet, qui
constituent les variations des angles de rotation du genou durant plusieurs cycles de marche.
Cependant, l’extraction de ce patron est une tâche complexe. En effet les courbes observées
souffrent d’une part de la présence de données aberrantes, et d’autre part de la variabilité en
phase entre les cycles superposés. Ceci est traduit par un décalage remarquable des
61
Journée du LICEF 2016
extremums, ce qui fausse naturellement la moyenne (Généralement considérée comme le
patron représentatif) suite à une perte de données au niveau de la forme et de ces valeurs clés.
Généralement la méthode la plus fréquente dans la littérature c’est de moyenner les cycles les
plus répétitifs: ceux qui maximisent le coefficient d’intercorrelation [4]. Cette méthode ne tient
pas compte de l’aspect continu des courbes et de la corrélation temporelle existante. Ainsi, ce
que nous proposons dans ce travail c’est d’utiliser l’analyse fonctionnelle de données (FDA)
pour un traitement des observations avant de les moyenner.
2. Méthode
L’approche proposée est composée de deux étapes comme expliqué dans la Fig. 1. La première
consiste à éliminer les courbes aberrantes en utilisant l’indice MBD [5] [6] , puis la deuxième
permet de minimiser la variabilité en phase entre les courbes en effectuant un alignement
temporel (curve registration) [7]. Ces deux outils utilisés sont propre à l’analyse fonctionnelle de
données (FDA): un outil statistique avancé qui représente une continuation de l’analyse
multivariée dans le cas des courbes fonctionnelles. L’avantage étant de permettre l’utilisation
des informations caractéristiques des signaux continus (forme de la courbe, déphasage,
dérivée) généralement perdus avec les outils de la statistique classique.
Figure 1 : Diagramme en bloc de l’approche proposée
Le patron proposé est obtenu finalement par une simple moyenne des données traitées. La
validation est effectuée à l’aide de la distance de Frechet, en mesurant le degré de similarité
entre le patron proposé et les données d’origine.
Base de données
Les données cinématiques ont été collectées à l’aide de l’outil KneeKGTM (Emovi Inc., Laval,
QC, Canada) durant un enregistrement qui dure 45 s. Pour chaque angle, la courbe complète
de l’essai est filtrée [8] et découpée pour séparer les différents cycles de marche. Nos
observations sont ainsi constituées par la superposition de ces cycles découpés.
4
62
Journée du LICEF 2016
Elimination des courbes aberrantes
Nous proposons d’identifier les données aberrantes à l’aide d’un outil de l’analyse
fonctionnelle qui est l’indice MBD (Modified band depth index). Cet indice permet de mesurer la
centralité de chaque courbe parmi les observations. Il correspond à la moyenne parmi toutes
les bandes possibles de la proportion du temps que puisse passer une courbe à l’intérieur
d’une bande. Mathématiquement cet indice est calculé comme suit [9]:
𝑛
𝑀𝐵𝐷L 𝑥 =
2
N6
U
U
/56 35/V6
𝜆 𝑡𝜖𝐼|𝛼/3 ≤ 𝑥(𝑡) ≤ 𝛽/3
𝜆(𝐼)
ou 𝛼/3 = 𝑚𝑖𝑛 𝑥/ 𝑡 , 𝑥3 (𝑡) , 𝛽/3 = 𝑚𝑎𝑥 𝑥/ 𝑡 , 𝑥3 (𝑡) , et 𝜆(. ) est la mesure de Lebesgue ℝ [9].
Les courbes aberrantes sont par la suite identifiées par un tri des observations selon la valeur
de l’indice MBD, de la courbe la plus centrale (la médiane) à la courbe la moins centrale. Le
diagramme en boite [10] de la statistique classique nous permettra de les identifier comme les
valeurs extrêmes se situant à une distance supérieur à 1.5 fois l’interquartile (voir Fig. 2).
Figure 2: Diagramme en boite pour le cycle de flexion
Réduction de la variabilité en phase
Pour la réduction de la variabilité en phase, nous avons opté pour la technique curve
registration qui consiste à effectuer des transformations non linéaires de l’échelle temporelle de
chaque courbe de façon à ce que les extremums et les passages par zéro se produisent au
même temps. Mathématiquement parlant cette procédure se résume dans les étapes suivantes:
1) Exprimer les courbes sous forme de fonctions continues à l’aide des combinaisons
linéaires de fonctions de bases. Dans ce contexte nous avons opté pour les splines vu
que nos signaux ne sont pas périodiques [7]: 𝑓 𝑡 = Y
/56 𝐶/ 𝜙/ (𝑡)
2) Calculer la courbe moyenne des observations û 𝑡
3) Pour chaque observation calculer la fonction de déformation temporelle [11] qui
minimise la fonction objective suivante :
63
Journée du LICEF 2016
ème
8
4) 𝐽 = 4
/56 ` 𝑌/ 𝑤/ (𝑡) − û[𝑡] , ou N est le nombre de courbes retenues et 𝑌/ la i
courbe. En d’autres termes, nous essayons d’aligner chaque courbe avec la moyenne
des observations
On réitère les étapes 2 et 3 jusqu’à convergence. Le résultat de cette étape est illustré par la
Fig. 3.
Figure 3 : Effet de l’alignement avec la technique : curve regisration
3. Résultats et validation
Pour valider notre approche nous avons comparé notre patron définit par la moyenne des
observations traitées à deux autres patrons utilisés dans la littérature qui sont la moyenne des
données brutes et la moyenne des 15 cycles les plus répétitifs. La comparaison est faite en se
basant sur l’hypothèse suivante : Le patron le plus représentatif est celui qui ressemble le plus
aux données d’origines retenus après la suppression des données aberrantes. Cette
ressemblance est évaluée à l’aide de la distance de Frechet [12]. Ainsi, pour chaque patient de
la base de données on calcule 3 moyennes qui correspondent à la moyenne des distances de
chaque patron par rapport aux données valides retenues pour ce patient. Le patron le plus
représentatif est celui qui correspondra à la distance minimale entre ces 3. Le Tableau 1
résume les résultats obtenus et la Fig. 4 illustre la différence entre les 3 patrons.
Figure 4 : Différence entre les différents patrons
l’abduction/adduction et (c) la rotation interne/externe.
pour
la
(a)
flexion/extension,
(b)
64
Journée du LICEF 2016
Tableau 1: Pourcentage des cas ou le patron proposé est plus représentatif que la moyenne des données
brutes et la moyenne des 15 observations les plus corrélées.
Flexion
Abduction
Rotation
Moyenne des données brutes
70%
65%
78%
Moyenne des 15 observations
les plus corrélées
72%
75%
76%
4. Conclusion
L’objectif de cette étude était de déterminer un patron représentatif des données cinématiques
tridimensionnelles du genou. L’approche proposée consiste à effectuer un prétraitement des
observations afin d’obtenir une moyenne plus robuste et représentative. Le traitement consiste
à éliminer les courbes aberrantes en utilisant l’indice MBD, puis à minimiser la variabilité à
l’aide de la technique curve registration. L’apport de ce travail réside essentiellement dans
l’exploitation des outils de l’analyse fonctionnelle pour l’extraction du patron, d’autant plus,
nous estimons que l’amélioration de la précision obtenue permettra une meilleure analyse et
de meilleurs résultats de classification.
Références bibliographiques
[1] V. Medved, Measurement of Human Locomotion. CRC Press, 2000.
[2] N. Mezghani, S. Husse, K. Boivin, K. Turcot, R. Aissaoui, N. Hagemeister, J. De Guise, et al.,
“Automatic classification of asymptomatic and osteoarthritis knee gait patterns using kinematic data
features and the nearest neighbor classifier,” Biomedical Engineering, IEEE Transactions on, vol. 55, no. 3,
pp. 1230–1232, 2008.
[3] N. Mezghani, Y. Ouakrim, A. Fuentes, N. Hagemeister, R. Aissaoui, M. Pelletier, and J. de Guise,
“Knee osteoarthritis severity assessment using knee kinematic data classification,” Osteoarthritis and
Cartilage, vol. 20, p. S97, 2012.
[4] A. Duhamel, J. Bourriez, P. Devos, P. Krystkowiak, A. Destee, P. Derambure, and L. Defebvre,
“Statistical tools for clinical gait analysis,” Gait & posture, vol. 20, no. 2, pp. 204–212, 2004.
[5] S. López-Pintado and J. Romo, “On the concept of depth for functional data,” Journal of the American
Statistical Association, vol. 104, no. 486, pp. 718–734, 2009.
[6] M. Febrero, P. Galeano, and W. González-Manteiga, “Outlier detection in functional data by depth
measures, with application to identify abnormal nox levels,” Environmetrics, vol. 19, no. 4, pp. 331–345,
2007.
[7] J. Ramsay and X. Li, “Curve registration,” Journal of the Royal Statistical Society. Series B, Statistical
Methodology, pp. 351–363, 1998.
[8] R. Aissaoui, S. Husse, H. Mecheri, G. Parent, and J. De Guise, “Automatic filtering techniques for
three-dimensional kinematics data using 3d motion capture system,” in Industrial Electronics, 2006 IEEE
International Symposium on, vol. 1, pp. 614–619, IEEE, 2006.
[9] A. Arribas-Gil and J. Romo, “Shape outlier detection and visualization for functional data: the
outliergram,” Biostatistics, vol. 15, no. 4, pp. 603–619, 2014.
[10] Y. Sun and M. G. Genton, “Functional boxplots,” Journal of Computational and Graphical Statistics,
vol. 20, no. 2, 2011.
[11] M. Müller, “Dynamic time warping,” Information retrieval for music and motion, pp. 69–84, 2007.
[12] H. Alt and M. Godau, “Computing the fréchet distance between two polygonal curves,”
International Journal of Computational Geometry & Applications, vol. 5, no. 01n02, pp. 75–91, 1995.
65
Journée du LICEF 2016
XIV.
Analyse de complexité des données cinématiques tridimensionnelles
du genou
Imen Mechmeche1,2, Amar Mitiche1, Youssef Ouakrim2,3, Jacques A. De Guise2 et
Neila Mezghani2,3
1
Institut National de la Recherche Scientifique, INRS-EMT, Montréal, Quebec, Canada,
Laboratoire de recherche en Imagerie et Orthopédie, École de technologie supérieure,
Centre de recherche du Centre hospitalier de l’Université de Montréal, Montréal, Canada,
3
Centre de recherche LICEF, TÉLUQ, Québec, Canada.
2
Résumé
L'analyse de la marche à partir des données cinématiques du genou offre des informations importantes
sur la fonction de la locomotion humaine. Ces données ont été récemment promues pour le diagnostic
des pathologies de genou à travers leur classification. Le but de cette étude est d'analyser la complexité
intrinsèque des données cinématiques en vue de leur classification. Nous proposons d'évaluer deux
mesures : le chevauchement entre les attributs et la séparabilité des classes. Les résultats obtenues
prouvent que l'ordre de complexité des données cinématiques est assez élevé comparé à celui d'autres
ensembles de données utilisées dans la littérature comme données de référence.
1. Introduction
L’analyse de la marche à partir de données cinématiques du genou (angles de
flexion/extension, d’abduction/adduction et de rotation interne/externe) offre des
informations sur la fonction de locomotion humaine [1] [2] . Plusieurs études ont montré la
valeur ajoutée et la pertinence d’une analyse cinématique pour l’aide au diagnostic de
pathologie de genou à travers leur classification [3] [4]. Cependant, une telle classification est
difficile pour deux raisons. Premièrement, les données cinématiques de chaque sujet sont
fournies sous la forme d’un vecteur de mesures de grande dimension rendant l’analyse
vulnérable à la malédiction de la dimensionnalité [5]. Deuxièmement, ces données présentent
une grande variabilité intra-classe et une petite variabilité inter-classe [6]. La figure 1 illustre
les données cinématiques tridimensionnelles de deux classes: une classe de données
asymptomatiques (AS) et une classe de données arthrosiques (OA). Plusieurs travaux de
recherche ont appréhendés la classification de données cinématiques pour discriminer une
classe de sujets sains d’une classe de sujets pathologiques [7]. Cependant aucune n’a investigué
l’analyse de la complexité intrinsèque de ces données. Le but de cette étude est d’analyser la
complexité des données cinématiques tridimensionnelles du genou et ce indépendamment de
la méthode de classification à étudier. Il s’agit de la première étude qui aborde la
problématique de la complexité de ce type de données avant d’investiguer leur classification.
66
Journée du LICEF 2016
Figure 1: Illustration des données cinématiques tridimensionnelles des deux classes: asymptomatiques
(AS) et arthrosiques (OA) : (a) la flexion/extension, (b) l’abduction/adduction et (c) la rotation
interne/externe
2. Mesures de complexité
La mesure de la complexité s’est basée sur l’évaluation des frontières des classes de point de vu
séparabilité, chevauchement et caractéristiques géométriques. Nous avons évalué deux
groupes de mesures: (1) Mesure de chevauchement entre les points d’intérêt et (2) Mesure de la
séparabilité des classes [8].
Mesure de chevauchement entre les attributs
Cette mesure évalue la capacité des attributs à séparer les instances des différentes classes [9].
Dans notre étude, ces attributs sont constitués d’un ensemble de facteurs biomécaniques
mesurés sur les courbes de la cinématique. Le chevauchement a été évalué via plusieurs
paramètres notamment : Le ratio maximal de Fisher (Maximum Fisher’s discriminant ratio) F1, le
chevauchement interclasses (Overlap of the per-class bounding boxes) F2, et l’efficacité maximale
des points d’intérêts (maximum individuel feature efficiency) F3.
Le paramètre F1 quantifie la distance entre les centres des deux classes, en se basant sur
chacun des attributs individuellement comme décrit par l’équation 1.
𝐹6 = 𝑚𝑎𝑥/
𝜇/6 − 𝜇/8 8
8
8
𝜎/6
+ 𝜎/8
(1)
67
Journée du LICEF 2016
où 𝜇/6 et 𝜎/6 sont la moyenne et la variance des de la 1ere classe par rapport au ieme attribut. Une
valeur élevée de ce paramètre permet de déduire que les classes sont fort probablement
séparable au moins par un attribut. Cependant, la géométrie des classes intervient aussi car les
classes peuvent chevaucher même si les centres sont éloignés, ainsi ce paramètre seul ne suffit
pas pour trancher. Le paramètre F2 mesure le chevauchement entre les distributions des deux
classes. Il est défini par le ratio de l’intervalle de chevauchement contenant des attributs
appartenant aux deux classes par l’intervalle entier des attributs :
l
𝐹8 =
/56
min 𝑚𝑎𝑥 𝑓/ , 𝑐6 , 𝑚𝑎𝑥 𝑓/ , 𝑐8 − max 𝑚𝑖𝑛 𝑓/ , 𝑐6 , 𝑚𝑖𝑛 𝑓/ , 𝑐8 max 𝑚𝑎𝑥 𝑓/ , 𝑐6 , 𝑚𝑎𝑥 𝑓/ , 𝑐8 − min 𝑚𝑖𝑛 𝑓/ , 𝑐6 , 𝑚𝑖𝑛 𝑓/ , 𝑐8 (2)
où l est le nombre d’attributs, 𝑓/ est le ieme attribut, et 𝑐6 , 𝑐8 les deux classes. Contrairement à F1
une faible valeur de ce paramètre qui est aussi appelé volume de chevauchement (Volume of
Overlap Region) permet de conclure que les attributs permettent de discriminer les données de
chaque classe. Le 3eme paramètre F3, calcule l’efficacité de discrimination de chaque attribut et
retourne la valeur maximale. Ainsi pour chaque attribut on calcule ratio du nombre
d’instances non contenu dans la région de chevauchement par le nombre total des instances.
La valeur maximale correspond par la suite au paramètre F3.
Mesure de la séparabilité des classes
La mesure de séparabilité examine les frontières de chaque classe afin d’estimer la complexité
de séparer les instances des différentes classes. Elle peut être évaluée via plusieurs paramètres,
notamment : la fraction des points sur la frontière de la classe (The fraction of points on the class
boundary) N1 et le ratio de la moyenne de la distance du voisin le plus proche dans la même
classe par la distance du voisin le plus proche de l’autre classe (Ration of Average Intra/Inter
Class Nearest Neighbour Distance) N2 [10]. Le calcul de N1 est effectué à l’aide de l’arbre
couvrant (minimum spanning tree) à travers toute la base de données. Ce paramètre correspond
au ratio du nombre de nœuds de cet arbre qui sont connectés et appartiennent à différentes
classes par le nombre des instances de la base de données. Si un nœud est connecté à plusieurs
nœuds de classes différentes, il est compté juste une fois. Une valeur élevée de N1indique que
la majorité des instances sont situées à la frontière de la classe ce qui rend la sa séparation plus
difficile. Le paramètre N2 compare l’étalement des instances de la même classe par rapport à
la distance des plus proches voisins appartenant aux autres classes. Une faible valeur de N2
permet de conclure que les instances de la même classe sont assez proches dans l’espace des
attributs.
𝑁2 =
4p
/5q 𝑖𝑛𝑡𝑟𝑎𝐷𝑖𝑠𝑡(𝑒𝑥/ )
4p
/5q 𝑖𝑛𝑡𝑒𝑟𝐷𝑖𝑠𝑡(𝑒𝑥/ )
(3)
où 𝑒𝑥/ est une instance et 𝑁r est le nombre d’exemples dans la base de données.
3. Application aux données cinématiques
68
Journée du LICEF 2016
Le tableau 1 résume les résultats de l’analyse de complexité. Les mesures de complexité
permettent de déduire l’aspect assez complexe du problème de classification des données
cinématiques du genou. Nous remarquons que le paramètre F1 est assez faible ce qui reflète un
chevauchement important entre les instances des classes dans l’espace des attributs. Une forte
valeur de N2 prouve aussi que les instances de la même classe sont assez dispersées. Les trois
bases de données Iris, Abalone et Wine, nous ont servi comme références pour avoir une idée
sur l’ordre de grandeur de ces paramètres. La base Abalone qui donne de très bons résultats de
classification suit parfaitement le comportement que doivent avoir ces paramètres comme
décrit précédemment.
Table 1: Mesures de complexité des données cinématiques 3D du genou ainsi que pour d’autres bases
de données de référence
F1
Données cinématiques 3D
0,38
du genou
Iris
16,82
Abalone
14,03
Wine
4,29
F2
F3
N1
N2
8,57 10-14
0,065
0,5
0,94
0,0048
0
3,9 10-5
0,57
0,99
0,76
0,013
4,7 10-4
0,06
0,095
0,025
0,49
4. Conclusion
Dans cette étude nous avons analysé la complexité intrinsèque des données cinématiques en
utilisant les mesures de chevauchement entre les attributs et la séparabilité des classes. Les
résultats obtenus démontrent une grande complexité de ces données comparativement à des
bases de données de références. Ces résultats nous orientent vers le besoin d’utiliser des
méthodes de prétraitement des données cinématiques avant leur classification et vers
l’utilisation de méthodes de classification avancées où les données ne sont pas linéairement
séparables.
5. References and Notes
[1] J. De Guise, N. Mezghani, A. Fuentes, É. Szmutny, G. Grimard, P. Ranger, N. Hagemeister,
R. Aissaoui, T. Cresson, J. Clément, et al., “Method and system for human joint treatment plan and
personalized surgery planning using 3-d kinematics, fusion imaging and simulation,” Jan. 16 2013. US
Patent App. 13/743,057.
[2] V. Medved, Measurement of Human Locomotion. CRC Press, 2000.
[3] N. Mezghani, S. Husse, K. Boivin, K. Turcot, R. Aissaoui, N. Hagemeister, J. De Guise, et al.,
“Automatic classification of asymptomatic and osteoarthritis knee gait patterns using kinematic data
features and the nearest neighbor classifier,” Biomedical Engineering, IEEE Transactions on, vol. 55,
no. 3, pp. 1230–1232, 2008.
[4] N. Mezghani, Y. Ouakrim, A. Fuentes, N. Hagemeister, R. Aissaoui, M. Pelletier, and J. de Guise,
“Knee osteoarthritis severity assessment using knee kinematic data classification,” Osteoarthritis and
Cartilage, vol. 20, p. S97, 2012.
[5] R. O. Duda, P. E. Hart, et al., Pattern classification and scene analysis, vol. 3. Wiley New York, 1973.
[6] N. Mezghani, N. Gaudreault, A. Fuentes, A. Mitiche, N. Hagemeister, R. Aissaoui, and J. de Guise,
“Identification des patrons de la cinématique du genou par une analyse en composantes principales
identification of knee kinematic patterns in normal gait by principal component analysis,”
[7] N. Mezghani, K. Boivin, K. Turcot, R. Aissaoui, N. Hagmeister, and J. A. De Guise, “Hierarchical
analysis and classification of asymptomatic and knee osteoarthritis gait patterns using a wavelet
representation of kinetic data and the nearest neighbor classifier,” Journal of Mechanics in Medicine
and Biology, vol. 8, no. 01, pp. 45–54, 2008.
69
Journée du LICEF 2016
[8] T. K. Ho and M. Basu, “Measuring the complexity of classification problems,” in Pattern
Recognition, 2000. Proceedings. 15th International Conference on, vol. 2, pp. 43–47, IEEE, 2000.
[9] J. Sotoca, J. Sanchez, and R. Mollineda, “A review of data complexity measures and their
applicability to pattern classification problems,” Actas del III Taller Nacional de Mineria de Datos y
Aprendizaje. TAMIDA, pp. 77–83, 2005.
[10] J.-R. Cano, “Analysis of data complexity measures for classification,” Expert Systems with
Applications, vol. 40, no. 12, pp. 4820–4831, 2013.
70
Journée du LICEF 2016
Partie II
71
Journée du LICEF 2016
I.
DBR, une méthodologie de recherche pour le design d’environnements
d’apprentissage
Jacqueline Bourdeau
Professeur en technologie éducative, Département Science de l’éducation, Télé-université du
Québec, Montréal, Canada.
Chercheur au Centre de recherche LICEF Télé-université du Québec, Montréal, Canada.
Résumé
Le Design-Based Research (DBR) est une méthodologie de recherche relativement
récente mais à présent bien reconnue pour sa pertinence dans des projets de design
d’environnements technologiques en éducation. Comme son nom l’indique, elle
s’inspire de la science du design, et est orientée vers la conception d’artefacts; elle
réunit les préoccupations théoriques et les considérations de terrain pour le
développement de solutions. Un bref rappel historique sera suivi de l’exposé des
caractéristiques propres à cette méthodologie, complété par des exemples qui illustrent
sa mise en application.
1. Historique
La préhistoire du DBR se situe dans les années 1990, principalement avec l’article précurseur
d’Ann Brown intitulé Design Experiments (Brown, A. L., 1992), et les travaux fondateurs ont
débuté dans les années 2000, principalement grâce au collectif DBR en 2003 (The Design-Based
Research Collective, 2003), à l’article paru dans le Journal of the Learning Sciences (Barab, S. &
Squire, K., 2004), celui de Wang & Hannafin (2005), intitulé Design-based research and
technology-enhanced learning environments, et celui de Herrington et al. (2007). Depuis 2010,
DBR a gagné ses lettres de noblesse comme en attestent par exemple les articles de Hannafin
(2011) et de Anderson et Shattuck (2012). Certains articles spécialisés en apprentissage des
sciences méritent également une mention (Sandoval et Bell, 2004).
Au LICEF, dès 2007, un groupe informel s’est constitué avec Marcelo Maina, Isabelle Savard et
Rivki Rosenberg sous la responsabilité de Jacqueline Bourdeau, pour une étude collective du
DBR. Une série de discussions nous a permis de nous approprier cette méthodologie,
particulièrement indiquée pour plusieurs projets du LICEF.
2. Caractéristiques
La première caractéristique de la DBR est le double but recherché : l’avancement des
connaissances théoriques et la conception itérative d’une solution, les deux éléments étant
72
Journée du LICEF 2016
considéré un ensemble unique; DBR considère fondamental de développer la théorie en lien
étroit avec la pratique, et de développer les nouvelles solutions pratiques en lien avec la
théorie. La deuxième caractéristique est le mode in situ pratiqué tant au titre de la
collaboration avec les acteurs du terrain que pour les tests et micro-expérimentations conduits
lors des différentes phases. Ce que l’on pourrait appeler le ‘moteur’ du DBR sont les itérations,
qui permettent de questionner les résultats préliminaires et intermédiaires, et de tester de
nouvelles idées (théoriques et de conception) lors de l’itération suivante. Ainsi, l’extrant d’une
itération devient l’intrant de la suivante, jusqu’à ce que les résultats obtenus soient
satisfaisants en lien avec la question de départ. Enfin, DBR se veut flexible au titre des
techniques de recherche mises en œuvre lors des différentes itérations, mettant l’accent sur
leur pertinence rigoureuse pour le résultat recherché.
DBR se distingue de la recherche-action (problème issu du terrain et résolu de concert avec les
chercheurs), et de la recherche-développement (pas de prétention théorique, et peut se faire
en laboratoire); elle se distingue également des méthodes itératives en génie logiciel ou
industriel, qui n’ont pas de prétention de faire avancer les connaissances théoriques. DBR peut
être qualifiée de méthodologie microsystémique, en raison des principes de la science des
systèmes qui sont mis en œuvre, notamment les boucles d’itération et de la prise en compte de
la complexité d’une situation.
3. Exemples
Les exemples d’application de la DBR ne manquent pas dans la littérature scientifique. Les
exemples qui suivent émanent de projets de recherche et de doctorat auxquels j’ai participé
activement.
Le projet MazCalc porte sur l’apprentissage des sciences en contextes contrastés afin de mettre
en lumière le rôle du contexte en science. Il se déroule depuis 2012 dans le cadre d’une
collaboration entre la Guadeloupe et le Québec, et en est à sa troisième itération (Forissier,
T.et al., 2013; Forissier, T.et al., 2014; Bourdeau, J. et al.2015)
Le projet de doctorat d’Alain Stockless, intitulé ‘Le processus d’adoption d’une innovation
pédagogique avec les TIC par les enseignants’ (soutenance le 6 juin 2016), propose une
illustration de la DBR en Intégration des TIC en milieu scolaire. Le projet de doctorat d’Olavo
Mendes (dépôt final en 2016) applique la méthodologie au design d’un système adaptatif, et le
projet de doctorat d’Alexandra Luccioni (dépôt final en 2017), au design d’un système pour
développer les compétences dictionnairiques. La thèse de doctorat d’Isabelle Savard (2014, Rlibre) fournit un processus détaillé et rigoureux de la DBR à l’adaptation de la conception
pédagogique aux variables culturelles.
Références bibliographiques
Anderson, T., & Shattuck, J. (2012). Design-based research a decade of progress in education research?.
Educational researcher, 41(1), 16-25.
Barab, S., Squire, K. (2004) Design based research: Putting a stake in the ground. The Journal of the
Learning Sciences, 13(1): 1-14.
Brown, A. L. (1992). Design experiments: Theoretical and methodological challenges in creating
complex interventions in classroom settings. The journal of the learning sciences, 2(2), 141-178.
73
Journée du LICEF 2016
Forissier, T., Bourdeau, J., Mazabraud, Y. et Nkambou R. (2014). Computing the Context Effect for
Science Learning. Dans P. Brézillon et J. Avelino (dir.) Context in Computing. Springer Science ISBN
978-1-4939-1886-7. 17p.
Forissier, T., Bourdeau, J., Mazabraud, Y., Nkambou R. (2013). Modeling Context Effects in Science
Learning:The CLASH Model. Dans Modeling and Using Context. Proceedings of the 8th International
and Interdisciplinary Conference (CONTEXT 2013) (p. 330-335). Berlin, Heidelberg : Springer Verlag,
coll. « Lecture Notes in Computer Science », vol. 8175.
Bourdeau, J., Forissier, T., Mazabraud, Y., Nkambou R. (2015). Web-Based Context-Aware Science
Learning. Dans Proceedings of the 24th International Conference on World Wide Web Companion (p.
1415-1418). Association for Computer Machinery (ACM).
Herrington, J., McKenney, S., Reeves, T., & Oliver, R. (2007). Design-based research and doctoral
students: Guidelines for preparing a dissertation proposal. Murdoch University,
http://researchrepository.murdoch.edu.au/6762/
Sandoval, W., Bell, P. (2004) Design-Based Research Methods for Studying Learning in Context:
Introduction. Educational Psychologist, 39(4): 199–201.
Reimann, P. (2011) Design-based research. In Methodological Choice and Design (pp. 37-50). Springer
Netherlands.
The Design-Based Research Collective. (2003). Design-based research: An emerging paradigm for
educational inquiry. Educational Researcher, 5-8.
Wang, F., & Hannafin, M. J. (2005). Design-based research and technology-enhanced learning
environments. Educational technology research and development, 53(4), 5-23.
74
Journée du LICEF 2016
II.
Utilisation de la théorie des réseaux pour évaluer la résilience
écologique des forêts fragmentées
Élise Filotas1,3, Dylan Craven2, Virginie Angers3, Christian Messier3,4
1
LICEF, TELUQ
German Centre for Integrative Biodiversity Research (iDiv)
3
Centre d’étude de la forêt, UQAM
4
Institut des sciences de la forêt tempérée, UQO
2
Les changements globaux exercent une pression croissante sur les écosystèmes forestiers,
particulièrement dans les régions de densification de la population humaine et des activités
agricoles. Les plans d’aménagement des paysages forestiers ignorent souvent l’effet combiné
des perturbations locales et de la fragmentation de l’habitat sur la résilience écologique à
différentes échelles. La diversité de réponse fonctionnelle (DF) a été proposée comme un
indicateur permettant de quantifier la résilience écologique étant donné sa capacité de
représenter la variabilité de réponses d’une communauté à une gamme de perturbations. Dans
cette étude, nous évaluons dans quelle mesure la connectivité fonctionnelle de forêts
fragmentées, une propriété à l’échelle du paysage, peut limiter les impacts des perturbations
anthropiques sur la DF à l’échelle locale. Nous avons échantillonné des parcelles de forêt dans
le paysage agricole du Centre-du-Québec, et calculé la DF pour quantifier l’effet de l’intensité
de l’utilisation de la forêt sur la résilience écologique. Nous avons ensuite construit une carte
régionale de DF et en avons extrait un réseau spatial.
Figure 1. a) Carte de la région des Bois-Francs dans le Centre-du-Québec. Les triangles rouges
indiquent les sites d’échantillonnage. b) Construction du réseau spatial. Chaque nœud du réseau
75
Journée du LICEF 2016
représente une parcelle de forêt et leur taille est proportionnelle à la superficie de celle-ci. Les liens
représentent la dispersion potentielle de graines entre les parcelles de forêt.
Pour évaluer les effets de la fragmentation sur la DF à l’échelle du paysage, nous avons
examiné comment la connectivité fonctionnelle du paysage, mesurée avec la probabilité de
connectivité (PC), varie en fonction de la distance maximale de dispersion des graines.
Figure 2. Probabilité de connectivité (PC) en fonction des seuils de dispersion maximale des graines.
∗
PC = U/56 U356 𝑓/ 𝑓3 𝑝/3
où fi est la diversité fonctionnelle de la parcelle i et pij est la plus grande
probabilité que les graines de i se dispersent jusqu’à j.
Finalement, nous avons évalué l’importance de chaque parcelle de forêts au maintien de la DF
à l’échelle du paysage en mesurant les fractions de connectivité de PC.
Figure 3. Réseau spatiale démontrant l’importance de chaque parcelle de forêt pour le maintien de la
diversité fonctionnelle (DF) à l’échelle du paysage. Chaque nœud représente une parcelle de forêt. La
couleur des nœuds est fonction de la DF et leur taille est proportionnelle à la fraction de connection de
la probabilité de connectivité.
76
Journée du LICEF 2016
Notre analyse a permis de déterminer que dans notre région d’étude la DF est maintenue à
l’échelle du paysage par des parcelles qui agissent comme relais intermédiaires dans le
transfert des graines. Cette étude met de l’avant une application nouvelle des réseaux spatiaux
en forêt fragmentée et illustre le besoin de considérer les effets des perturbations anthropiques
simultanément aux échelles locales et du paysage lors de l’élaboration de plans
d’aménagement.
77
Journée du LICEF 2016
III.
Vers des orthèses cognitives grands publics : la combinaison de la
sensibilité au contexte, de la reconnaissance d’activité et de la réalité
augmentée
Charles Gouin-Vallerand
Professeur en informatique, Département Science et Technologie Télé-université du Québec,
Montréal, Canada.
Chercheur au Centre de recherche LICEF Télé-université du Québec, Montréal, Canada.
Chercheur au centre de recherche LICEF, TÉLUQ, Québec, Canada
L’intelligence ambiante, une approche visant la mise en place de milieux sensibles aux
utilisateurs par des réseaux d’objets communicants (internet of things), est de plus en plus une
réalité [1], avec entre autres les environnements intelligents tels que les villes intelligentes et
les habitats intelligents. Grâce à la sensibilité au contexte (context awareness) [2], il est possible
de construire des systèmes informatiques qui s'adaptent au contexte d'utilisation, aux
utilisateurs et à la nature des milieux. De tels systèmes peuvent être utilisés pour assister des
utilisateurs dans leurs activités de la vie quotidienne (AVQ), permettant d'améliorer leur
productivité, leur autonomie et l'expérience d'interaction avec les systèmes informatiques des
environnements intelligents. D’une part, cette intelligence ambiante est décuplée par nos
appareils mobiles qui collectent de l’information sur nos activités de la vie quotidienne via les
capteurs embarqués et nos interactions avec ces appareils. D’autre part, les nouveaux
dispositifs d’interaction humain-machine tels que la réalité augmentée (e.g. Microsoft
Hololens, Projet Carton) permettent d’exploiter à fonds cette intelligence ambiante par
l’apport d’information en lien avec l’environnement visités par les utilisateurs et les activités
en cours.
Dans le cadre de cette présentation, j’utiliserai mon programme de recherche portant sur la
modélisation et la conception de systèmes sensibles aux contextes, la conception de systèmes
de reconnaissance d’activités et la conception d’applications de réalités augmentées, afin
d’entrevoir les possibilités technologiques provenant de la combinaison de ces trois champs de
recherche. J’orienterai plus particulièrement cette exploration vers la création d’orthèses
cognitives grand publics.
1. La sensibilité au contexte
Par sensibilité au contexte, nous entendons la capacité d’un système de capter, modéliser et
exploiter l’information propre à l’environnement entourant le système, tel que la localisation,
le temps, l’identité des utilisateurs [3]. Au cours des dernières années, la grande majorité de
78
Journée du LICEF 2016
mes projets de recherche se sont inscrits dans cette approche de l’informatique, plus
particulièrement au niveau de l’intelligence ambiante et de l’informatique mobile. J’ai entre
autres proposé un modèle de système sensible au contexte basé sur une approche
multicouches macroscopique et microscopique [4] que j’ai appliqué dans plusieurs de mes
travaux. Ce modèle propose de diviser le contexte d'un environnement en entités associées : le
macro-contexte correspondant aux données agrégées/fusionnées provenant de plusieurs
entités d’un milieu, alors que le micro-contexte correspond à une vision intrinsèque et
correspondant aux données internes d’une entité (e.g. capteurs, trace d’utilisation, journaux,
etc.).
2. La reconnaissance d’activités
La reconnaissance d’activité est une discipline de l’intelligence artificielle visant à déterminer
et prédire les activités humaines à partir de l’information contextuelle collectée par les
systèmes informatiques. À partir de ces modèles de reconnaissance, il est possible de mieux
assister les utilisateurs dans leurs tâches, détecter des erreurs ou situations anormales ou bien
améliorer les interactions humain- machine. Au cours des dernières recherches, j’ai pu
appliquer et créer différentes approches de reconnaissance d’activités. Par exemple, j’ai
travaillé à l’analyse de l’usage des applications mobiles, plus particulièrement les transitions
d’applications mobiles, basé sur une approche markovienne [5]. Les résultats de ces travaux
ont permis de prédire les prochaines applications mobiles chez des utilisateurs de téléphones
mobiles, pavant la voie à une amélioration de l’utilisation des applications mobiles par des
stratégies de recommandation et de réorganisation des espaces de travail. D’autre part, j’ai
travaillé à la reconnaissance des macro-activités à partir de l’emplacement géographique des
utilisateurs et de leurs déplacements [6]. Dans le cadre de ces travaux, nous avons été en
mesure de reconnaître et prédire en ligne et en temps réels des activités en cours. De plus, ces
travaux ont également permis de supporter les changements d’habitude chez les utilisateurs
[7]. Enfin, nous avons proposé dernièrement des techniques afin de réduire la consommation
énergétique de notre système de reconnaissance d’activité par des algorithmes de régulation
du traitement de l’information en fonction du niveau des piles électriques des téléphones
intelligents [8].
3. La réalité augmentée
Avec l’essor de nouvelles technologies mobiles et intelligentes et la connectivité des objets tels
que les téléphones intelligents, les tablettes et les lunettes intelligentes (e.g. Epson Glass,
Google Glass, Microsoft Hololens ), la réalité augmentée [9] est à la portée de plus en plus de la
population. Celle-ci permet l’apport d’informations associées à l’environnement des
utilisateurs, par l’apposition de contenus sur les objets physiques réels. Par exemple, par
l’apport d’informations virtuelles juxtaposées à des œuvres artistiques réelles au cours d’une
visite muséale, via les technologies d’affichage de lunettes intelligentes. Il y a actuellement une
effervescence dans le développement des technologies de réalité augmentée et leurs
applications aux activités humaines. Dans le cadre de mes recherches actuelles, je travaille à la
création de systèmes de réalité augmentée (e.g. Projet Carton) [10] et d’applications de réalité
augmentée intégrant la sensibilité au contexte, afin de livrer et apporter du contenu ou des
services aux utilisateurs. Cette livraison de services est incomplète sans la reconnaissance
d’activités qui permet de déterminer le meilleur contenu ou service à apporter aux utilisateurs.
79
Journée du LICEF 2016
4. Défis et perspectives
Ainsi, la combinaison de ces trois domaines de recherche permet de créer une synergie,
démarrant de la collecte de l’information contextuelle, de la reconnaissance et la prédiction
des activités humaines et enfin de l’utilisation de la réalité augmentée comme médium
d’interaction entre l’utilisateur et son environnement. Une telle combinaison laisse entrevoir
un potentiel énorme quant à la création d’orthèse cognitive en support aux activités humaines.
Traditionnellement, le concept d’orthèse cognitive [11] vise principalement les technologies de
l’information permettant d’améliorer l’autonomie des utilisateurs ayant des déficits cognitifs
(e.g. maladie d’Alzheimer). Toutefois, avec la quantité d’information accessible à partir des
systèmes mobiles et les puissances de calcul disponible, nous pouvons entrevoir l’utilisation de
ce trio technologique dans des contextes où il serait possible d’améliorer les fonctionnalités
cognitives d’utilisateurs en santé dans le cadre de leurs activités de la vie quotidienne. À titre
d’exemple, en assistant des travailleurs, en milieu industriel, en leur donnant en temps réel
des informations sur leurs tâches à réaliser et sur les conditions de leur environnement, il est
possible d’améliorer la productivité et la sécurité au travail. En second exemple, avec un
système permettant de détecter les activités de conduite et d’assister les conducteurs en les
informant des risques et conditions de conduite, il est possible de réduire les risques associés à
la conduite automobile.
Enfin, des défis sociétaux et des questions éthiques existent en lien avec de telles orthèses
cognitives. Quels sont les impacts sur les fonctions cognitives même des utilisateurs ou quelles
sont les charges cognitives que de tels systèmes apportent? D’autre part, de tels orthèses ne
peuvent que renforcer le concept du digital divide, où chacun reçoit son information et ses
services dans son environnement personnalisé, isolant les utilisateurs de plus en plus les uns
des autres.
Références bibliographiques
G. D. Abowd. 2012. What next, ubicomp?: celebrating an intellectual disappearing act. In Proceedings
of the 2012 ACM Conference on Ubiquitous Computing (UbiComp '12).
Anind K. Dey. 2001. Understanding and Using Context. Personal Ubiquitous Comput. 5, 1 (January
2001), 4-7.
Ryan, N., J. Pascoe and D. Morse. Enhanced Reality Fieldwork: the Context Aware Archaeological
Assistant, Archaeology in the Age of the Internet. CAA97. Computer Applications and Quantitative
Methods in Archaeology. Proceedings of the 25th Anniversary Conference, University of Birmingham,
April 1997
C. Gouin-Vallerand, P. Roy, B. Abdulrazak, S. Giroux, et A. K. Dey. 2012. A macro and micro context
awareness model for the provision of services in smart spaces. 10th international smart homes and
health telematics conference (ICOST '12).
C. Gouin-Vallerand and N. Mezghani. 2014. An analysis of the transitions between mobile application
usages based on markov chains. In Proceedings of the 2014 ACM International Joint Conference on
Pervasive and Ubiquitous Computing: Adjunct (UbiComp '14 Adjunct).
M. Boukhechba, A. Bouzouane, B. Bouchard, C. Gouin-Vallerand, S. Giroux: Online recognition of
people's activities from raw GPS data: Semantic Trajectory Data Analysis. Proc. The 8th ACM PETRAE
Conference, July 2015, Greece.
M. Boukhechba, A. Bouzouane, B. Bouchard, C. Gouin-Vallerand and S. Giroux: Online prediction of
people’s next Point-of-Interest: Concept drift support. Proc. 6th international workshop on Human
Behavior Understanding, UBICOMP 2015, Osaka
80
Journée du LICEF 2016
M. Boukhechba, A. Bouzouane, S. Gaboury, C. Gouin-Vallerand, S. Giroux, B. Bouchard: Energy
Optimization for Outdoor Activity Recognition. Journal of Sensors 2016:1-15 · December 2015.
Kato, H., Billinghurst, M. Marker Tracking and HMD Calibration for a video-based Augmented Reality
Conferencing System. In Proceedings of the 2nd International Workshop on Augmented Reality
(IWAR 99). October 1999, San Francisco, USA.
Projet Carton : http://www.carton.mobi/
Martha E. Pollack, Laura Brown, Dirk Colbry, Colleen E. McCarthy, Cheryl Orosz, Bart Peintner,
Sailesh Ramakrishnan, Ioannis Tsamardinos, Autominder: an intelligent cognitive orthotic system for
people with memory impairment, Robotics and Autonomous Systems, Volume 44, Issues 3–4, 30
September 2003, Pages 273-282
81
Journée du LICEF 2016
IV.
Les MOOC et évolution de l’ingénierie pédagogique
France Henri
Professeure associée en technologie éducative, Département Science et Technologie Téléuniversité du Québec, Montréal, Canada.
Chercheuse au centre de recherche LICEF, TÉLUQ, Québec, Canada
Résumé
Notre contribution s’intéresse aux problèmes d’ingénierie pédagogique des MOOC et à
leur arrimage avec une nouvelle logique de conception émanant de l’évolution des
technologies. Fondée sur une planification rigoureuse, l’ingénierie pédagogique vise
l’efficacité de l’enseignement pour la réalisation d’apprentissages prescrits. Elle
s’appuie essentiellement sur l’analyse d’un ensemble de données sur l’apprenant, ses
besoins et son contexte pour concevoir des environnements d’apprentissages. Or
l’étape d’analyse apparaît difficilement réalisable dans le contexte des MOOC en raison
de l’hétérogénéité d’un public de masse, de la diversité des besoins d’apprentissage et
de la variété des contextes des participants. Sans ces données, les MOOC peuvent-ils
être rigoureusement conçus? Peuvent-ils prétendre à l’efficacité ? Quelle logique de
conception devrait s’appliquer? Les logiques de conception, fortement influencées par
l’évolution du web, ont été classées sous trois catégories (Bourdet, 2014). La logique du
web 1.0, informationnel, réunit un acteur et des ressources associées à des activités; la
logique web 2.0, social, ouvre à la relation sociale, à l’utilisateur connecté et à la coconstruction des connaissances; la logique du web 3.0, permanent, ambiant, est fondée
sur l’interprétation plus que sur la construction et centrée sur la personnalisation de
l’apprentissage. Cette dernière logique étant à se construire, quelle évolution est à
prévoir pour l’ingénierie pédagogique MOOC?
1. Introduction
La conception d’un MOOC fait appel à l’ingénierie pédagogique, un domaine à la croisée du
design pédagogique, de l’ingénierie cognitive et de l’ingénierie des systèmes d’information.
L’ingénierie pédagogique applique une méthodologie soutenant l’analyse, la conception, la
réalisation et la planification de l’utilisation des systèmes d’apprentissage (Paquette, 2002, p. 106). Elle
renouvelle le design pédagogique pour le rendre capable de traiter la complexité des systèmes
d’apprentissage basés sur les technologies. Les techniques de modélisation cognitive
empruntées à l’ingénierie cognitive sont dès lors mobilisées pour procurer une vue explicite de
l’ensemble du système. L’ingénierie des systèmes d’information renvoie aux méthodes de
génie logiciel au service du développement de systèmes informatisés efficaces, modifiables et
réutilisables. Tout en insistant sur les principes fondamentaux du design pédagogique de
systématicité et de cohérence, l’ingénierie pédagogique entend suppléer les faiblesses des
82
Journée du LICEF 2016
méthodes de conception traditionnelles et de développement artisanales qui ne suffisent plus
pour traiter la complexité des environnements technopédagogiques. L’ingénierie pédagogique
se veut garante d’efficacité, de robustesse, de fiabilité et de réutilisabilité du produit de la
conception. Sa démarche prescriptive vise la qualité et la prévisibilité des résultats.
2.
Limites de l’ingénierie pédagogique traditionnelle pour la conception des MOOC
L’ingénierie pédagogique procède typiquement en cinq phases : analyse, conception,
développement, implantation et évaluation du dispositif. L’analyse, pierre d’angle de la
conception, porte essentiellement sur le contexte dans lequel le dispositif sera utilisé :
contraintes à prendre en compte, besoins d’apprentissage et d’accompagnement à satisfaire.
Les données d’analyse permettent au concepteur d’identifier les compétences à développer, les
contenus pertinents, les stratégies pédagogiques et les ressources médiatiques et les
technologiques à déployer. La conception se décline ainsi en une cascade de choix. Toutefois,
dans le cas d’un MOOC, la phase d’analyse s’avère difficile à réaliser en raison de
l’hétérogénéité du public de masse. La variété des contextes, la diversité des contraintes et les
besoins multiples ne peuvent être pris en compte. Appliquée au MOOC, l’ingénierie
pédagogique que nous connaissons atteint ses limites.
Une réflexion est en cours pour revoir les pratiques d’ingénierie pédagogique dans le but de
donner au participant inscrit à un MOOC une part de responsabilité dans son apprentissage et
de l’instrumenter pour le rendre capable de faire ses choix (Bejaoui et al., 2015). Ces travaux
mettent à contribution l’analytique des apprentissages et les systèmes de recommandations
pour permettre au participant d’adapter le scénario d’apprentissage proposé par le MOOC,
d’identifier l’accompagnement et l’aide à l’autogestion à recevoir et le soutien désiré pour la
construction de son environnement personnel d’apprentissage. Selon cette approche plus
ouverte, la logique de conception demeure basée sur le scénario d’apprentissage qui articule
contenus, activités et ressources. Comment aller plus loin dans la réflexion?
3. De la logique de l’offre à la logique de l’utilisateur
Bourdet (2014) situe la logique des MOOC par rapport à celle qui domine en formation à
distance. Le concept moteur de cette logique est celui de la modélisation qui renvoie à une
démarche d’ingénierie permettant aux concepteurs de cerner les profils d’apprentissage,
d’anticiper les besoins et les ressources nécessaires et d’établir la base de la construction du
dispositif. Les paramètres de cette logique sont ceux qui structurent la logique de l’offre. Cette
logique orientée par la demande ou les attentes des utilisateurs propose des dispositifs de
formation ouverts et adaptables. Toutefois cette malléabilité ne réussit pas à contrer les taux
d’abandons importants. L’incapacité à juguler l’abandon serait, toujours selon Bourdet, la
cause du déplacement de la responsabilité du système d’offre vers celle des utilisateurs eux-mêmes,
comme le montre le développement exponentiel des MOOC. L’accompagnement qui, en formation à
distance, constitue un élément fort de la responsabilité pédagogique des institutions se voit
reportée sur les utilisateurs. Cette logique de l’utilisateur mise sur la connectivité, sur le
réseautage entre participants sans toutefois qu’il ne soit construit et instrumenté. Elle propose
un changement dans la manière de concevoir les MOOC; elle amène à dépasser la notion de
ressource et à ne plus gérer la notion de scénario d’apprentissage. Cette évolution prend sa
source dans un nouveau rapport aux technologies.
83
Journée du LICEF 2016
4. Nouveau rapport aux technologies
Bourdet identifie trois logiques de conception associées à l’évolution du web de l’Internet : la
logique du web 1.0, informationnel, qui réunit un acteur et un champ de ressources travaillées sous
forme d’activités; la logique web 2.0, social, qui ouvre à la relation sociale comme fin en soi, à
l’utilisateur connecté, à la co-construction des connaissances; et la logique du web 3.0,
permanent, ambiant, qui travaille sur l’interprétation plus que sur la construction, centrée sur une
individualisation des trajets d’apprentissage de plus en plus forte supportée par des technologies de
plus en plus puissantes. Cette dernière logique, qui reste à construire, pourrait prendre appui
sur l’approche du méta-design issue du domaine des technologies de l’information en relation
avec le développement de logiciels participatifs.
Le méta-design témoigne d’une culture de la participation qui abolit les frontières entre
développeurs et utilisateurs de logiciels. En milieu éducatif, cette approche vise le
développement d’environnements d’apprentissage ouverts dont la conception évolutive
continue lors de l’utilisation (Fisher, 2012; dePaula et al. 2001). Considérés comme coconcepteurs, les apprenants deviennent des contributeurs à part entière. Une part importante
du travail de conception consiste à concevoir le cadre qui permettra à l’apprenant de concevoir
son apprentissage. Le méta-design s’emploie ainsi à concevoir la conception. Il s’inspire d’une
logique d’émergence, de co-création, de co-évolution et de conception évolutive. Il abolit les
frontières entre concepteurs et apprenants. Animé par une culture de participation active, le
méta-design exploite la puissance des réseaux et les contenus produits par les apprenants qui
ne sont pas pris en compte dans la conception de cours et qui ne sont pas intégrés dans les
dispositifs dits innovants comme les MOOC.
Plus qu’un changement dans la manière de concevoir les MOOC, ou tout autre type de cours,
la logique de l’utilisateur et la conscience d’un rapport nouveau aux technologies promeuvent
de nouvelles valeurs et une évolution de notre conception de l’apprentissage comme celle d’un
participant Sujet.
Références bibliographiques
Bourdet, J.-F. (2014). Les problématiques de conception en formation à distance : Logiques et contextes
du web, Distancesetmédiationsdessavoirs [En ligne], http://dms.revues.org/808
dePaula, R. et al. (2001). Courses as Seeds: Expectations and Realities. Dans P. Dillenbourg, A.
Eurelings, & K. Hakkarainen (éds.), Proceedings of the European Conference on Computer-Supported
Collaborative Learning, Maastricht, Netherlands, pp. 494-501.
Fischer, G. (2012). Meta-Design: Empowering All Stakeholder as Co-Designers. Handbook on Design in
Educational Computing, Routledge, London.
Paquette, G. (2002). L’ingénierie pédagogique. Pour construire l'apprentissage en réseau. Québec, PUQ.
Bejaoui, R., et a. (2015). Comment personnaliser l’apprentissage dans un cours en ligne ouvert et massif
(CLOM) ? Colloque CIRT@ 2015, Université de Sherbrooke 13 octobre.
84
Journée du LICEF 2016
V.
OntoCASE4GOWL : Vers un outil sémantique d’édition graphique
d’ontologies OWL dans le contexte des utilités électriques chez HydroQuébec
Michel Héon
Professeur associé, Département Science et Technologie, Télé-université du Québec,
Montréal, Canada.
Chercheur associé au Centre de recherche LICEF Télé-université du Québec, Montréal,
Canada.
Résumé
Hydro-Québec par son centre de recherche l’IREQ a entrepris depuis plusieurs années
un virage important vers les technologies du web sémantique. Afin de faciliter
l’intégration de ce nouveau paradigme technologique au sein de son organisation,
l’IREQ s’est engagé à fournir à ses utilisateurs ingénieurs électriques des outils
graphiques de manipulation et d’interrogations des diverses ontologies réparties dans
l’entreprise. Dans ce contexte, OntoCASE4GOWL est notre projet de recherche
postdoctoral qui vise à fournir un environnement graphique de modélisation
d’ontologie dans le domaine des utilités électrique et qui utilise la syntaxe graphique GOWL qui est polymorphique et typée et qui est aussi conçu pour ce projet.
1. Introduction
Hydro-Québec cumule chaque jour une somme gigantesque de données fournies par les
équipements de son réseau électrique. Les données sont réparties dans plusieurs bases de
données de technologies hétérogènes et interopérabilités par l’utilisation des technologies du
web sémantique. À l’étape de sémantisation des données, l’enlignement à l’ontologie commun
Information Model (CIM) permet d’associer aux données un vocabulaire commun aux utilités
électriques d’Amérique du Nord. L’objectif du projet de recherche de l’IREQ auquel nous
sommes attachés est de fournir aux ingénieurs électriques d’HQ, un outil permettant d’éditer
des données ontologiques profilées avec le vocabulaire du CIM qui tient compte de deux
contraintes importantes au sujet des utilisateurs finaux, soit : 1) les utilisateurs ne sont pas
familiers avec les technologies du web sémantique, 2) l’outil doit dialoguer avec les utilisateurs
dans le vocabulaire du CIM. Pour l’atteinte de l’objectif, le projet de recherche est divisé en
trois étapes : 1) concevoir une syntaxe graphique de l’OWL (G-OWL) qui est polymorphique et
typée pour simplifier la modélisation d’une ontologie de type OWL-2; 2) implanter le langage
dans un éditeur graphique intégré à l’environnement d’ingénierie ontologique TopBraid
Composer; 3) étendre la syntaxe G-OWL pour la modélisation d’ontologie profilée avec le
vocabulaire CIM.
2. Conception de la syntaxe Graphical-OWL (G-OWL)
85
Journée du LICEF 2016
Extrait de (Héon, Nkambou et al. 2016) le tableau 1 et 2 présente l’alphabet partiel des entités et
des relations de G-OWL. Pour minimiser le nombre de symboles de la syntaxe du G-OWL une
surcharge sémantique de chaque symbole a été réalisée en utilisant la technique du
polymorphisme et de la typologie des symboles. Ces techniques seront traitées plus en détail
lors de la présentation. Une première validation conceptuelle de G-OWL a consisté à associer
une représentation graphique G-OWL à chacun des éléments d’expressivité du OWL 2 Primer
(W3C 2012). La spécification complète de la syntaxe G- OWL est disponible dans (Héon 2014).
3. Implantation du langage dans OntoCASE4GOWL
Présentée à la figure 1, l’architecture 3 tiers d’OntoCASE4GOWL se subdivise en trois
segments principaux. La couche Tiers Technologies englobe les modules technologiques
nécessaires à la pérennisation des données. La couche Graphiqcal semantic framwork englobe
les modules technologiques nécessaires à la visualisation graphique de la syntaxe de G-OWL.
86
Journée du LICEF 2016
Quant à la couche CIM Console framework est englobé par les éléments graphiques permettant
d’éditer des ontologies dans le vocabulaire graphique du CIM.
Figure 1: Architecture 3 tiers d'OntoCASE4GOWL
4. Extension de la syntaxe G-OWL vers le vocabulaire du CIM
Cette étape du projet de recherche qui a débuté depuis peu vise à personnaliser le langage GOWL en vue d’offrir aux ingénieurs un outil d’édition d’ontologies dans le vocabulaire du
CIM. La figure 2 présente les différents pictogrammes qui seront implantés dans la syntaxe. La
propriété de réflexivité propre aux ontologies sera utilisée pour réaliser l’implantation du
vocabulaire CIM.
5. État d’avancement des travaux
Présenté à la figure 3, le tableau permet de comparer les diverses représentations graphiques
de l’élément Château d‘Ychem Sauterne de l’ontologie wine.owl. On y constate qu’en
comparaison avec la représentation avec la Syntaxe Graph et OntoGraph, la syntaxe G-OWL
utilise moins de symboles pour représenter l’ontologie. Pour compléter la présentation, une
démonstration de l’utilisation d’OntoCASE4GOWL sera présentée.
Figure 3 : Tableau comparatif de la représentation du Château d’Yquem Sauterne de l’ontologie
Wine.owl
87
Journée du LICEF 2016
Figure 2 : Liste des pictogrammes utilisés chez HQ pour représenter les entités CIM
6. Conclusion
Cette présentation aura permis de présenter OntoCASE4GOWL, un outil d’édition graphique
d’ontologie de type OWL dans la syntaxe du Graphical-OWL. Le logiciel et la syntaxe G-OWL
ont été développés dans le cadre d’un projet de recherche conjoint entre l’UQAM et l’IREQ
d’Hydro-Québec. Les résultats préliminaires laissent entrevoir que le logiciel et son langage
atteindront la maturité et la viabilité nécessaires à une exploitation future par les ingénieurs
d’Hydro-Québec.
Références bibliographiques
Héon, M. (2014). Web sémantique et modélisation ontologique (avec G-OWL): Guide du développeur
Java sous Eclipse, Editions ENI.
Héon, M., R. Nkambou, et al. (2016). Toward G-OWL: A Graphical, Polymorphic And Typed Syntax For
Building Formal OWL2 Ontologies. Proceedings of the 25th International Conference Companion on
World Wide Web. Montréal, Québec, Canada, International World Wide Web Conferences Steering
Committee: 39-40.
W3C (2012). "OWL 2 Web Ontology Language Primer (Second Edition)." W3C Recommendation 11
December 2012. from http://www.w3.org/TR/owl2-primer/.
88
Journée du LICEF 2016
VI.
Conception d’un patron nommé Learning Game Scenario
Richard Hotte
Professeur en technologie de l’information, Département Science et Technologie Téléuniversité du Québec, Montréal, Canada.
Chercheur au centre de recherche LICEF, TÉLUQ, Québec, Canada
Résumé
La conception de Serious Games (SG) dédiés à l’apprentissage est une opération difficile
qui requiert un tissage serré entre les pratiques en ingénierie pédagogique (Instructional
Design) et ingénierie du jeu (Game Design) pour être efficace. Malgré d’excellents
travaux dans le domaine, le problème de l’équilibre se pose toujours et cela, avec
nettement plus d’acuité, dans le cas du développement de l’application mobile
d’apprentissage comme celle de Kids Smart Mobile School (KSMS) sous forme d’un SG,
car KSMS est en fait une école qui vise à proposer des apprentissages de la maternelle à
la fin du secondaire en mathématique et anglais langue seconde. Ce court papier
propose une solution par la conception d’un Pattern de Learning Game Scenario
applicable aux diverses phases composant la structure pédagogique de KSMS.
1. Introduction
Aussi étonnant que cela soit, il existe encore aujourd’hui des populations dans le monde au
sein desquelles les enfants n’ont pas accès à l’école (primaire et secondaire) pour des diverses
raisons dont, entre autres, des raisons économiques, sociales, familiales, géographiques, de
discriminations raciales et, enfin, de disparités des genres comme l’indiquent (Ardt, Hastings,
Hopkins, Knebel, Loh et Woods, 2005) pour le Bangladesh. Les travaux de (Kim, Miranda et
Olaciregui, 2008; Kim (2009) notent des situations similaires chez les indigènes d’ Amérique du
Sud dont celle des travailleurs saisonniers ou itinérants. Il en va de même pour les travaux de
(Achoka, Odebero, Maiyo et Mualuko, 2007) concernant l’échec de l’accès des jeunes enfants
du Kenya à l’éducation primaire en raison de la pauvreté, des inégalités dans les genres, des
disparités régionales.
Il est désormais admis que les technologies de l’information peuvent contribuer à atténuer
l’impact du problème de l’accessibilité à l’éducation en proposant des applications
d’apprentissage mobiles comme une alternative à l’école présentielle à l’intention d’enfants de
pays en voie de développement. Plus est, pour Corti, 2006; Squire et Jenkins, 2003, les SG
89
Journée du LICEF 2016
peuvent avoir des impacts positifs sur le développement d’un certain nombre d’habiletés chez
l’apprenant, surtout par le caractère métacognitif des SG.
2. Problématique
Bien que la documentation scientifique du domaine fasse état de travaux de conception
(Moreno-Ger et al. 2008), de bonnes histoires (Prensky, 2001), d’exemples, de prototypes
relatifs à la conception de SG appliquée à l’apprentissage ou de Learning Games (LG), une sorte
de SG davantage appliqué à des jeux de type de formations professionnelles liées à la gestion
de projets ou d’entreprises (Marsifi-Schottman, 2012), leur conception est toujours une
opération difficile et mal contrôlée qui, pour être efficace, nécessite un amalgame serré entre
les pratiques en ingénierie pédagogique (Instructional Design) et ingénierie du jeu (Game
Design). Pour George et al (2013), les Learning Games sont des environnements d’apprentissage
numériques qui intègrent des scénarios efficaces fondés sur des stratégies métacognitives. «
Pour qu’un LG soit réellement au service de l’apprentissage, ses activités pédagogiques doivent être
soigneusement tissées avec le scénario du jeu pour que l’apprenant ressente une motivation intrinsèque
à apprendre » (Marsifi-Schottman, 2012).
C’est le point critique de la conception d’un SG, car le nœud du problème réside toujours dans
l'intégration du contenu pédagogique dans le jeu ou du jeu dans la scénarisation pédagogique
sollicitant une collaboration multidisciplinaire entre, minimalement, concepteurs
pédagogiques et concepteurs de jeu (Game Designers). Déjà, Moreno-Ger et al. (2008) posaient
le problème lorsqu’ils écrivaient que « The motivational and immersive traits of game-based
learning have been deeply studied in the literature, but the systematic design and implementation of
educational games remain an elusive topic ». Plus exactement, c’est cette question de l’amalgame
réussie entre jeu et apprentissage qui pose problème. Effectivement, il est difficile de
déterminer quel type de scénarisation pédagogique est le plus approprié à la conception d’un
SG, c’est-à-dire susceptible d’offrir toutes les conditions requises à une réelle construction des
connaissances chez le joueur-apprenant sans que le jeu prenne le dessus par ses artifices
visuels et son dynamisme ou, à l’inverse, que l’aspect pédagogique trop scolaire rende le jeu
ennuyeux démotivant le joueur-apprenant.
Moreno-Ger et al. (2008) écrivent que « The debate is actually starting to focus more on issues such
as the cost of development, the complexity of integrating the games into the curriculum or the need to
assess the quality of the learning process ». Dans ces conditions, comment concevoir et réaliser un
environnement numérique d’apprentissage fondé sur un scénario efficient, mixant jeu et
apprentissage, qui permette au joueur-apprenant de contrôler son apprentissage, c’est-à-dire
d’être en mesure d’identifier ce qu’il apprend et comment il apprend et, cela, dans un contexte
aussi large que celui d’une école numérique mobile sous forme de SG comme KSMS ?
3. Méthodologie
Le scénario pédagogique adapté au jeu devient le point névralgique de la conception d’un SG
appliquée à l’apprentissage et constitue le pilier de l’architecture pédagogique d’un
environnement d’apprentissage comme KSMS.
Alors, comment concevoir jeu et
apprentissage comme une seule et même activité du SG KSMS ? La conception des scénarios
pédagogiques sur lesquels reposent l’architecture pédagogique de KSMS est guidée par la
prise en compte de situations d’autoapprentissage individuel puisque KSMS est une école sans
90
Journée du LICEF 2016
professeurs et de stratégies métacognitives dont celles de l’auto observation, de
l’autoévaluation et, plus particulièrement, du debriefing défini dans le contexte d’un SG comme
«the processing of game experience to turn it into learning.»(Crookal 2008).
Inspiré du constructivisme à la Montessori (1912), la conception de scénarios est orientée sur
l’apprenant plutôt que l’enseignant, sur l’interaction de l’apprenant avec son environnement
et sur la construction des connaissances dans l’action. The learner constructs his own designs and
finds his own solutions to problems and behaves autonomous and independent. According to
constructivists, learning is a result of individual meta construction » (Ültanır 2012).
Toute approche en éducation présuppose une épistémologie, c’est-à-dire un ensemble de
principes théoriques qui la justifie. Dans Montessori and Constructivism, David Elkind (2003)
affirme que « Montessori education encompasses all three epistemologies that it has survived and
continued to grow as a pedagogical influence ». Ce sont l’empirisme, le nativisme et le
constructivisme. On les associe, réciproquement, en éducation, au béhaviorisme, socratisme
et au constructivisme. Dans l’approche béhavioriste, l’apprenant explore son milieu naturel
pour apprendre, dans la pédagogie socratique on manipule les concepts et les objets pour en
déduire des apprentissages et dans l’approche constructiviste pour une mise en opération des
connaissances dans une démarche personnelle. En fonction de son activité, l’apprenant est, à
tour de rôle, un mime qui imite, un logicien qui déduit ou un architecte qui construit. Cette
prise en compte permet d’assurer une progression dans la construction de la connaissance
chez l’apprenant.
Tableau 1. Les trois positions épistémologiques de base de l’approche constructiviste de Montessori
Théorie
épistémologique
Empirisme
Approche
éducative
Behaviorisme
Nativisme
Socratisme
Constructivisme
Constructivisme
Activité de haut niveau
Rôle
l’apprenant
son Mime
de
Explorer
environnement
Manipuler les objets et Logicien
concepts, déduire
Mettre en opération, Architecte (de son
construire
propre
apprentissage
L’approche constructiviste de Montessori est au cœur de notre conception du pattern Learning
Game Scenario permettant la fusion du jeu et de l’apprentissage dans une seule activité. C’est à
travers les quatre activités de base que sont explorer, manipuler, opérer et, finalement,
s’autoréguler (activité métacognitive) que convergent jeu (aspect ludique) et apprentissage
(aspect sérieux) en une activité intégrée. Ce pattern est applicable tout au long du
développement de l’architecture cognitive et pédagogique de l’école KSMS à laquelle il donne
sa cohérence.
La figure 1 représente la modélisation du pattern Learning Game Scenario réalisée avec le
langage de modélisation G-MOT, développé par une équipe du Centre de recherche LICEF
(Paquette, 2007). L’utilisation de l’approche par objets typés (MOT) a assuré la cohérence du
modèle.
91
Journée du LICEF 2016
Figure 1. Le patron nommé Learning Game Scenario
4. Conclusion
Les travaux menés dans le projet KSMS qui vise à développer une application d’apprentissage
mobile dédiée aux enfants qui n’ont pas accès à l’école sous forme d’un SG ont rapidement mis
en évidence le problème de la conception de scénarios d’apprentissage sous forme de SG
intégrant jeu et apprentissage dans une même activité à un tel point que l’apprenant joueur les
confonde.
Pour résoudre ce problème, nous avons créé un pattern de Learning Game Scenario inspiré de
l’approche constructiviste de Montessori fondée sur un mixte des théories empiriste, nativiste
et constructivisme (à la Piaget) et positionnant l’apprenant au centre de la conception des
apprentissages. L’approche Montessori a permis une conception d’assez haut niveau pour
fusionner jeu et apprentissage avec les mêmes mécaniques.
De point de vue de la conception pédagogique, ce pattern permet d’assurer une progression
dans l’apprentissage et de lier étroitement l’activité à l’univers du jeu justement à cause de son
niveau d’abstraction. Mais qu’en est-il vraiment du point de vue de l’ingénierie du jeu ? Les
travaux de développement d’un prototype de KSMS en cours permettront de mesurer son
utilisabilité et son utilité dans la conception globale du SG.
Références bibliographiques
Achoka, J. S. K., Odebero, S. O., Maiyo, J. K., Mualuko, N. J. (Oct. 2007). Access to basic education in
Kenya: inherent concerns. In Educational Research and Review, 2(10), 275-284.
Available online at http://www.academicjournals.org/ERR. ISSN 1990-3839 © 2007 Academic Journals.
92
Journée du LICEF 2016
Ardt, K., Hastings, C., Hopkins, K., Knebel, R., Loh J., Woods, R., (2005). Report on Primary Education in
Bangladesh: Challenges and Successes. Produced by Bangladesh Bureau of Education Information
and Statistics (BANBEIS), and Bangladesh Ministry of Women and Children Affairs (MWCA), 22.
Corti, K., (2006). Games based Learning; a serious business application. PIXELearning Limited, 20.
Crookal David (2010). Serious Games, Debriefing, and Simulation/Gaming as a Discipline. In
Simulation & Gaming, vol. 41 no. 6 898-920.
Elkind, D. (2003). Montessori and Constructivism. Montessori life, 15(1), 26.
George, S., Lavoué, E., Monterrat, B. (2013). Vers une ludification personnalisée dans une plateforme
d'ancrage mémoriel. In Atelier "Serious games, jeux épistémiques numériques", 6ème Conférence Nationale sur
les Environnements Informatiques pour l'Apprentissage Humain (EIAH 2013), Toulouse, France, 19-23. <hal00854622>.
Kim, P., Miranda, T., Olaciregui, C. (2008). Pocket school: Exploring mobile technology as a sustainable
literacy education option for underserved indigenous children in Latin America. In International
Journal of Educational Development. 28(4), 435-445.
Kim, P-H. (2009). Action research approach on mobile learning design for the underserved. In
Educational Technology Research and Development. 57(3), 415-435
Marfisi-Schottman, I. (2012). Méthodologie, modèles et outils pour la conception de Learning Games.
Thèse de doctorat en Informatique. Institut National des Sciences Appliquées de Lyon (France), 339.
Montessori, M. (1912). The Montessori Method. (A. E. George, trans). New York: Stokes.
Moreno-Ger, P., Burgos, D., Martínez-Ortiz, I., Sierra, J-L., Fernández-Manjón. B. (2008), Educational
game design for online education.
In Computers in Human Behavior. 24(6), 2530–2540.
doi:10.1016/j.chb.2008.03.012.
Paquette, G. (2007) Ingénierie des connaissances et des compétences. PUF Ste-Foy
Prensky, M. (2001) ; Digital Natives, Digital Immigrants Part 1. On the Horizon, Vol. 9 (5), 1-6.
Squire, K., and Jenkins, H., (2003). Harnessing the Power of Games in Education. Vol. 3, VISION 8. 33.
Ultanir, E., (2012). An Epistemological Glance at the Constructivist Approach: Constructivist Learning
in Dewey, Piaget, and Montessori. International Journal of Instruction, 5(2), 195-212.
93
Journée du LICEF 2016
VII.
Personnalisation dans les cours en ligne ouverts et massifs
Gilbert Paquette
Professeur associé en informatique, Département sciences et technologie, Télé-université du
Québec, Montréal, Canada.
Chercheur au laboratoire LICÉ, entre de recherche LICEF, TÉLUQ, Québec, Canada
1. Introduction : Le défi de la personnalisation
Les cours en ligne ouverts et massifs (CLOM) se développent rapidement, partout dans le monde.
Le plus grand défi à relever consiste à la personnaliser les apprentissages pour chaque participant,
compte tenu de leur grand nombre, jusqu’à plusieurs dizaines de milliers d’apprenants, tous de
compétences et de provenances très diversifiées.
Avec cet objectif en tête, nous avons entrepris un programme de recherche pour la
personnalisation dans les CLOM qui vise notamment à :
1. Modéliser les composantes de divers types de CLOM et les processus d'ingénierie
pédagogique utilisés pour les concevoir ;
2. Décrire et analyser les environnements personnels d’apprentissage (EPA) des participants,
l’usage qu’ils en font et les stratégies qu’ils mettent en œuvre pour apprendre ;
3. Analyser l’usage des compétences dans les CLOM et leur rôle dans l’évaluation et la
personnalisation des activités d’apprentissage ;
4. Mettre en place une instrumentation et une méthode d’analyse des données
d’apprentissage des CLOM pour guider la personnalisation des apprentissages.
Ces objectifs utilisent des résultats de travaux antérieurs qui ont produit des méthodes et des
outils pour la modélisation des connaissances et des compétences des apprenants (MOTplus,
GMOT), pour la scénarisation pédagogique des environnements en ligne (Explora, Concepta,
Telos), ainsi que pour pour la gestion des ressources éducatives libres (Paloma, Comète).
Nous résumons ici quatre projets, ayant fait l’objet de travaux récents ou en cours de réalisation,
visant à favoriser la personnalisation dans les CLOM.
2. Persistance dans les CLOM et analytique des apprentissages
94
Journée du LICEF 2016
Un projet pilote (Ulibre) a été réalisé à la TÉLUQ dans lequel deux cours ont été produits et
diffusés à l’international en mode CLOM à la fin de 2014 (et repris en février 2016). Les
objectifs de ce projet consistaient à évaluer les possibilités offertes par la plateforme Open-edX, à
établir un processus d’adaptation des cours en ligne pour une diffusion massive et à définir un
modèle de diffusion cible pour les CLOM.
En plus du rapport déposé aux instances de la TÉLUQ, nous avons présenté un retour
d’expérience de ce projet pilote dans le numéro spécial consacré aux CLOM de la revue
internationale RITPU. Nous y avons explicité les principes d’ingénierie pédagogique et le modèle
de diffusion des CLOM qui en a résulté (Paquette, Coulombe et Carpentier, 2016).
Une analyse des données de l’expérience pilote a été acceptée à la conférence EISTA 2016
(Coulombe, Paquette et Mezghani, 2016). Les données recueillies auprès des quelques 5000
participants tendent à démontrer que l’utilisation de bonnes pratiques et de principes d’ingénierie
pédagogique favorisent grandement la participation et la persévérance dans les deux cours. En
effet, quant aux nombre d’apprenant actifs, quant à la complétion des cours ou quant aux nombre
de messages dans les forums de discussion, on note une augmentation de la participation de près
du triple par rapport à la moyenne rapportée dans la littérature.
Les recherches se poursuivent avec un plus grand nombre de données, à l’aide de méthodes
d’apprentissage statistique et de traitement du langage naturel, dans le cadre du projet de doctorat
de Claude Coulombe. La poursuite des recherches dans le domaine de l’analytique des
apprentissages sera favorisée par l’implantation du Laboratoire de conception et de diffusion
infonuagique (Projet LACDI, FCI) qui offrira d’ici septembre une plateforme matérielle et
logicielle pour l’analyse des données massives.
3. La personnalisation des scénarios CLOM
À partir d’une modélisation du concept « scénario pédagogique » (compétences visées, activités,
acteurs, ressources, etc.), nous avons identifié deux groupes de propriétés favorisant la
personnalisation, que nous avons intégrées, sous la forme d’un modèle G-MOT, dans une
ontologie des CLOM personnalisés. Cette ontologie a servi de base à une grille d’analyse
quantifiée des forces et des faiblesses d’un scénario quant à la personnalisation.
Cette ontologie et la grille d’analyse ont été intégrés dans un prototype d'assistance à la
conception pédagogique sous la forme d'un scénario exécutable sur la plateforme TELOS. Ce
scénario propose à son principal acteur, le concepteur pédagogique (qui peut aussi être un
apprenant), un ensemble de tâches à réaliser (scénario de conception) dans le but de concevoir
une solution préliminaire de CLOM, spécifiant les composantes adaptables du CLOM et des
ressources d'assistance et d'aide à l'autogestion qui seront mises à la disposition des apprenants. Il
résulte de l'exécution de ce scénario de conception un devis préliminaire de CLOM incluant,
d'une part une analyse de son niveau de personnalisation de l'apprentissage et, d'autre part, des
conseils pour augmenter ce niveau.
Ce prototype peut être utilisé tôt dans le processus de conception, afin de constituer une solution
préliminaire de CLOM en ayant en tête les possibilités de personnalisation de l'apprentissage. Il
95
Journée du LICEF 2016
peut aussi être utile plus tard dans le processus de conception, faire un retour réflexif et revoir les
décisions de conception prises préalablement.
Ces travaux ont été publiés dans les colloques CIRTA 2015, ENS-Cachan 2016 et CRIFPE 2016
(Béjaoui, Paquette, Basque et Henri, 2016 ; Henri, Paquette, Bejaoui et Basque 2016). Ils ont
servi de base à la thèse déposée au DIC par Rim Bejaoui en mai 2016. Cette recherche a permis,
d’une part, de clarifier les diverses propriétés de personnalisation de l’apprentissage dans les
CLOM et, d’autre part, de montrer qu’un système d’assistance intégrant une ontologie et une
grille d’analyse de ces propriétés, pourrait guider utilement le concepteur de CLOM dans sa prise
de décision en matière de personnalisation de l’apprentissage. Nous pensons qu’il serait judicieux
d’envisager l’intégration d’une tel système d’assistance à des plateformes de développement de
CLOM répandues tel que l’outil Studio de la plateforme Open-edX.
4. L’intégration de la gestion sémantique des ressources
Un aspect important de la personnalisation dans les CLOM réside dans le choix des ressources
qui servent de base à la réalisation des activités d’apprentissage. D’une part, le concepteur
pédagogique doit pouvoir bénéficier d’un outil de recherche intelligent pour identifier des
ressources à intégrer à ses scénarios, surtout s’il désire offrir des options personnalisées aux
apprenants. D’autres part, l’apprenant, en cours d’apprentissage, doit pouvoir sélectionner des
ressources en fonction de ses compétences et de ses objectifs, personnalisant ainsi ses
apprentissages.
Le laboratoire LICÉ a développé un logiciel de deuxième génération, COMÈTE (Paquette,
Miara, Bergeron 2015), pour l’indexation et la recherche sémantique des ressources éducatives et
des formations sur le Web. Ce logiciel utilise les technologies du Web de données liées (RDF,
RDFS, SPARQL, SKOS). Il est actuellement en usage dans les Collèges d’enseignement général
et professionnels du Québec (Cegep) et il a été utilisé avec succès dans le projet REFRER de
l’OIF en Tunisie et au Maroc. Un devis (Paquette, Colmant, Héon 2016) financé par l’AUF vient
d’être déposé pour l’intégration de COMÈTE dans le portail IDNEUF de cette institution qui vise
le partage des ressources dans l’ensemble de la francophonie.
Lors de la conférence Open Education Global (OEG-2015), j’ai présenté une proposition pour
intégrer dans les plateformes de CLOM comme Open-edX, des outils pour le référencement et la
recherche des ressources éducatives libres sur le Web de données liées, ainsi que pour le
référencement des CLOM eux-mêmes sur des portails comme Ulibre ou IDNEUF pour la
recherche de cours en ligne adaptés (Paquette 2015).
5. La personnalisation orientée compétence
Nos travaux antérieurs sur l’adaptation des cours en ligne en fonction des compétences
actuelles et visées ont été appliqués à la personnalisation dans les CLOM dans l’article de
revue « Competency-based personalization for massive on line learning » (Paquette, Marino,
Rogozan, Léonard 2015). Cet article se situe dans le domaine du Web sémantique adaptatif.
Nous y proposons des solutions pour la personnalisation des CLOM à partir d’un profil des
compétences visées et d’un modèle du scénario d’apprentissage du cours.
96
Journée du LICEF 2016
Pour adapter l’apprentissage par des recommandations aux apprenants, on doit pouvoir comparer
leurs compétences et celles visées par les ressources et les activités dans le scénario. Nous
présentons une méthode de calcul des relations entre compétences sur la base d’un modèle
structuré de compétences publié précédemment. Nous utilisons cette méthode pour définir des
agents d’assistance que l’on peut intégrer dans tout scénario TELOS, ce qui fournit alors un
prototype opérationnel pour l’assistance aux apprenants. Puis nous présentons un processus de
personnalisation des CLOM et nous identifions les outils existants ou à construire pour
l’implémentation de ce processus.
6. Conclusion
Nos travaux sur la personnalisation dans les CLOM sont à leurs débuts mais des orientations
claires se dégagent comme base de recherches à venir. Nous sommes convaincus que la qualité
de ce type d’environnement d’apprentissage à de grands groupes passe par ce type de processus
de personnalisation, que celle-ci soit prévue à priori ou réaliser en cours d’apprentissage par les
formateurs et les apprenants.
Références bibliographiques
Bejaoui, R., Paquette G., Basque J. et Henri, F. (2016) Assistance à la conception de cours en ligne
ouverts et massifs soutenant un apprentissage personnalisé. Colloque CRIFPE, 7 mai 2016.
Coulombe C., Paquette G. et Mezghani N. (Accepted paper 2016) Improving MOOCs’ Perseverance and
Completion Rates Using Best Practice Design Principles. EISTA 20016, July 5-8, 2016
Henri, F., Paquette G., Bejaoui, R. et Basque, J. Les MOOC et l’évolution de l’ingénierie pédagogique.
Colloque CRIFPE, Montréal 7 mai 2016.
Paquette G., Coulombe, C. et Charpentier, M. (Article accepté 2016) Les cours en ligne ouverts
massivement (CLOM) dans une université à distance. Revue international des technologies en pédagogie
universitaire (RITPU), Montréal.
Paquette, G. Opening up MOOCs for OER management on the Web of linked data. Open Education
Global Conference 2015, Banff, April 23rd, 2015
Paquette, G., Colmant, Y. et Héon, M. (2016) Vers un portail sémantique pour IDNEUF – synthèse
opérationnelle d’un devis de mise en oeuvre. Rapport présenté à l’AUF, 9 mai 2016
Paquette, G., Marino, O., Rogozan, D. et Léonard, M. (2015) Competency-based Personalization for
Massive Online Learning. Springer’s Smart Learning Environments Journal, 2015
Paquette, G., Miara A. and Bergeron. F. (2015), COMETE – An Educational Search Engine on the Web
of Linked Data. IEEE Bulletin of the Technical Committee on Learning Technology, Special Issue on
eLearning and Linked Open Data.
97
Journée du LICEF 2016
VIII.
La prévention des troubles musculosquelettiques chez le personnel
infirmier au Québec : l’explication des théories du transfert de
connaissances.
Saliah Ziam
Professeure en gestion des services de santé et des services sociaux, École des sciences de
l'administration, Télé-université du Québec, Montréal, Canada.
Chercheuse au Centre de recherche LICEF Télé-université du Québec, Montréal, Canada.
Résumé
La disponibilité des données probantes sur les mesures préventives ne garantit pas en
soi leur utilisation par le personnel soignant. Bon nombre de chercheurs soulignent
l’importance de bien documenter les conditions du transfert et de l’application de ces
données dans le contexte réel des travailleurs. L’objectif de cette étude est d’identifier
et d’analyser les barrières à l’application des mesures préventives des troubles
musculosquelettiques chez le personnel infirmier du réseau de la santé et des services
sociaux au Québec.
1. Problématique
Les troubles musculosquelettiques (TMS) liées au travail constituent un problème majeur
chez le personnel infirmier et ce, malgré la disponibilité de solides recherches sur les pratiques
préventives en santé et en sécurité du travail (SST) (Faurie et al., 2013). Au Québec, en 2013, le
secteur de la santé et des services sociaux enregistre, à lui seul, 6590 cas (soit 41,5%) de
blessures de type musculosquelettique. Ces cas représentent 28,8% de l'ensemble des
nouvelles réclamations pour des lésions professionnelles avec perte de temps (CSST, 2014).
Ces données ne seraient que la pointe de l'iceberg, puisque ces statistiques ne considèrent pas
les événements sans perte de temps et non déclarés, ni les travailleurs non assurés (ACATC,
2015). Dans ce secteur, le personnel infirmier, un groupe de plus de 65 000 travailleurs, est
particulièrement touché par ces blessures liées au travail. Chez ce personnel, les TMS
touchent principalement la région du dos et sont souvent causés par le déplacement des
patients et des mauvaises postures exerçant une charge excessive sur l’appareil locomoteur
(Denis et al., 2009, Alexopoulos et al., 2003, Bernal, 2015). Ces risques pourraient être évités si
les infirmières appliquaient de façon plus effective les pratiques de prévention recommandées
par la recherche telles des méthodes de travail sécuritaires et l’utilisation de matériel pour les
déplacements et pour les soins donnés aux bénéficiaires (Bos et al, 2006, Thomas et al, 2014).
Toutefois la disponibilité des recherches sur les mesures préventives, ne garantit pas en soi
leur application (Faurie et al., 2013). Bon nombre de ces chercheurs, ont souligné le besoin
98
Journée du LICEF 2016
primordial de mieux diffuser les connaissances issues de la recherche dans ce domaine
(Kramer et Cole, 2003) et notamment l'importance de bien documenter les conditions facilitant
l’application des pratiques de prévention lorsqu’implantées dans le contexte réel des
travailleurs.
2. Objectif
Identifier les facteurs facilitant l’application des pratiques préventives chez le personnel
infirmier du réseau de la santé
3. Méthode
Un sondage en ligne a été réalisé entre le 16 février et le 30 mars 2015, auprès des infirmières
auxiliaires, des assistantes infirmières chefs, les infirmières cliniciennes ou conseillères en
soins infirmiers et les infirmières praticiennes exerçant dans les différents établissements du
réseau public de la SSS du Québec. 399 questionnaires complétés ont été retenus pour analyse.
Aussi, deux focus group ont été réalisés pour enrichir l’interprétation des résultats du sondage.
4. Résultats
Les premières analyses descriptives montrent que les infirmières : 1) appliquent souvent les
principes de déplacements des bénéficiaires (PDSB) mais référent davantage à leur expérience
qu’aux données probantes sur les pratiques préventives, 2) souhaitent avoir plus de
sensibilisation et de rappel sur leur le lieu de travail, 3) indiquent qu’un expert(e)s en santé et
sécurité au travail (ergonome, conseiller(e) en SST, comité de la SST) ou formateur PDSB
comme premier choix de sources d’information sur les PP.
Par ailleurs, les analyses comparatives de moyennes montrent que l’application des pratiques
préventives par le personnel infirmier varie selon le poste, la mission de l’établissement
d’affiliation, la formation de base et la formation sur la prévention des TMS offerte par
l’employeur. Enfin, les focus group ont permis d’identifier plusieurs barrières à l’application
des mesures préventives des TMS sur les lieux de travail tel que : les contraintes temporelles,
l’organisation des espaces de travail et la difficulté d’accéder à des équipes de prévention en
bon état, une culture de prévention réactive, etc.
Références bibliographiques
Alexopoulos, E. C., Burdorf, A., & Kalokerinou, A. (2003). « Risk factors for musculoskeletal disorders
among nursing personnel in Greek hospitals ». International archives of occupational and environmental
health, doi: 10.1007/s00420-003-0442-9.
Bernal, D., Campos-Serna, J., Tobias, A., Vargas-Prada, S., Benavides, F. G., & Serra, C. (2015). « Workrelated psychosocial risk factors and musculoskeletal disorders in hospital nurses and nursing aides: a
systematic review and meta-analysis ». International journal of nursing studies, doi:
http://dx.doi.org/10.1016/j.ijnurstu.2014.11.003
Bos, E. H., Krol, B., Van Der Star, A., & , & Groothoff, J. W. (2006). The effects of occupational
interventions on reduction of musculoskeletal symptoms in the nursing profession. Ergonomics, vol.49,
nº7, p.706-723.
Blando, J.D., O’hagan, E., Casteel, C., Nocera, M.-A. et Peel-Asa, C. (2013). Impact of hospital security
programmes and workplace aggression on nurse perceptions of safety, Journal of Nursing Management,
vol.21, nº3, p.491-498.
99
Journée du LICEF 2016
Chan, C.C-L, Ho, P-W L., Khoo, L-M et Hong, M-S. (2010). Nurses’ perceptions on the impact of health
information system usage in their workplace. Singapoure Nursing Journal, vol.37, nº2, p.19-24.
Costa, V.T., Meirelles, B.H.S., Erdmann, A.L. (2013). Best practice of nurse managers in risk
management, Revista latino-americana de Enfermagem, vol.21, nº5, p.1165-1171.
Cummings, G.G., Estabrooks, C.A., Midodzi, W. K., Wallin, L. et Hayduk, L. (2007). Influence of
organizational characteristics and context on research utilization. Nursing Research, vol.56, nº4S, p.S24S39.
CSST. (2014). Statistiques sur les lésions attribuables aux TMS en milieu de travail 2010-2013. Commission
de la santé et de la sécurité au travail du Québec.
Denis, D., St-Vincent, M., Imbeau, D., Jette, C., & Nastasia, I. (2008). « Intervention practices in
musculoskeletal disorder prevention: a critical literature review ». Applied Ergonomics, doi:
http://dx.doi.org/10.1016/j.apergo.2007.02.002
Estabrooks, C.A., Thompson, D.S., Lovely, J.J.E. et Hofmeyer, A. (2006). A guide to knowledge
translation theory. The Journal of Continuing Education in the Health Professions, vol.26, nº1, p.25-36.
Faurie, I., Frédéric Planché, Serge Deltor, Camille Ricaud, Anaïs Grau et Céline Guy. (2013). Mieux
comprendre le transfert de connaissances en SST : propositions pour une typologie des guides de
prévention, Perspectives interdisciplinaires sur le travail et la santé.
Grimshaw, J. (2013). Organizational readiness for knowledge translation in chronic care : a review of
theoritical composents, vol.8, nº138, p.1-9. Repéré à
http://www.implementationscience.com/content/8/1/138
Kramer, D. M., & Cole, D., C. (2003). Sustained, Intensive Engagement to Promote health and Safety
Knowledge Transfer and Utilization by Workplaces. Science Communication, 25(1), 56-82.
Thomas, D. R., & , & Thomas, Y. L. N. (2014). Interventions to reduce injuries when transferring
patients: A critical appraisal of reviews and a realist synthesis. International journal of nursing studies,
vol.51, nº10, p.1381-1394.
100
Journée du LICEF 2016
101