Journée scientifique du LICEF
Transcription
Journée scientifique du LICEF
Journée du LICEF 2016 Journée scientifique du LICEF Modélisation d’environnements fonctionnels 9 juin 2016 www.licef.ca Journée du LICEF 2016 Table des matières PartieI.............................................................................................................................................2 I. Assistanceàlaconceptiondecoursenligneouvertsetmassifs(CLOM)soutenantun apprentissagepersonnalisé......................................................................................................................3 II. Estimationdelacinématiquetridimensionnelledugenoubaséesurl’optimisationparessaimde particules................................................................................................................................................10 III. Modélisationfonctionnelledel’aidedeWikipédiadansl’acquisitiondeconceptsàpartirde textes......................................................................................................................................................14 IV. Hybridbattery-friendlymobilesolutionforextractingusers’visitedplaces................................17 V. CARTON:Do-It-Yourselfapproachtoturnasmartphoneintoasmarteyewear............................21 Acknowledge...........................................................................................................................................26 VI. Conceptiond’unearchitecturedegénérationautomatiquepourlesjeuxsérieuxéducatifs:lecas deGameofHomes..................................................................................................................................27 VII. Mieuxprédirelaréponsedelaforêtauxchangementsclimatiquesviaunemeilleure compréhensiondesinteractionsentrelesespècesd’arbre:Lecasdel’érableàsucre........................33 VIII. AméliorerlapersévérancedanslesCLOM parl'applicationdesmeilleurespratiquesen conceptionpédagogique........................................................................................................................35 IX. Gamebasedlearning:acasestudyondesigninganeducationalgameforchildrenoutof schooling.................................................................................................................................................40 X. Planificationdesservicespédagogiquespourlagénérationdesscénariosd’apprentissages personnalisésdanslejeusérieuxKSMS..................................................................................................46 XI. Ducurriculumaujeu,quelmodèle?.............................................................................................50 XII. STI-DICO:unsystèmetutorielintelligentpourledéveloppementdesconnaissanceset compétencesdictionnairiqueschezlesfutursmaîtresauprimaire.......................................................57 XIII. Déterminationd’unpatronreprésentatifdelacinématique3Ddugenouàl’aided’uneanalyse fonctionnelledesdonneés......................................................................................................................61 XIV. Analysedecomplexitédesdonnéescinématiquestridimensionnellesdugenou.....................66 PartieII..........................................................................................................................................71 I. DBR,uneméthodologiederecherchepourledesignd’environnementsd’apprentissage.............72 Journée du LICEF 2016 II. Utilisationdelathéoriedesréseauxpourévaluerlarésilienceécologiquedesforêtsfragmentées 75 III. Versdesorthèsescognitivesgrandspublics:lacombinaisondelasensibilitéaucontexte,dela reconnaissanced’activitéetdelaréalitéaugmentée............................................................................78 IV. LesMOOCetévolutiondel’ingénieriepédagogique....................................................................82 V. OntoCASE4GOWL:Versunoutilsémantiqued’éditiongraphiqued’ontologiesOWLdansle contextedesutilitésélectriqueschezHydro-Québec............................................................................85 VI. Conceptiond’unpatronnomméLearningGameScenario...........................................................89 VII. Personnalisationdanslescoursenligneouvertsetmassifs........................................................94 VIII. LapréventiondestroublesmusculosquelettiqueschezlepersonnelinfirmierauQuébec: l’explicationdesthéoriesdutransfertdeconnaissances.......................................................................98 Journée du LICEF 2016 Le mot de la direction du LICEF Bienvenue à la première édition des journées scientifiques du LICEF organisée sous le thème de modélisation d’environnements fonctionnels. Le centre de recherche LICEF, créé en 1992 sous l’appellation Laboratoire d’informatique cognitive et environnements de formation, a subit au cours des années une évolution de ces thèmes. Il s'affirme de plus en plus comme une plateforme de services de haut niveau qui rassemble des savoirs à la fine pointe de l'évolution technologique pouvant révolutionner plusieurs domaines de recherche dans lesquels les chercheurs sont actifs et sur laquelle leurs projets s’appuient. Aujourd’hui, le LICEF a pour mission la réalisation d’activités de recherche et de développement/innovation en vue du progrès des modèles, des méthodes et des environnements technologiques facilitant l’apprentissage et la gestion des connaissances chez l’individu, dans les organisations et dans divers types d’environnements. Face à ce développement, nous avons mis en avant dans cette première édition de la journée du LICEF le thème de modélisation d’environnements fonctionnels qui couvrent, entre autres, les environnements technologiques de support à l’apprentissage, à la prise de décision dans divers domaines dont la santé et l’environnement, la sécurité routière, le télé monitoring et l’élaboration d’architectures technologiques ouvertes et mobiles. Ce large spectre met en évidence l’aspect interdisciplinaire et même intersectoriel des activités de recherche au LICEF. Dans ce contexte les défis rencontrés sollicitent notre capacité à créer des synergies entre les différents domaines et disciplines. Ainsi, cette journée est particulièrement l’occasion d’affronter les enjeux pour relever ces défis. Nous remercions tous les auteurs qui ont soumis des propositions d’articles d’avoir contribué à enrichir le programme scientifique de cette journée. Ce programme couvre des présentations orales et par affiche des étudiants (Partie I de ces actes), des présentations orales des chercheurs (Partie II de ces actes) ainsi que des kiosques et démonstrations thématiques des réalisations des équipes de recherches. Nous voudrions, aussi, remercier le comité d’évaluation des articles formé par les professeurs Wassim Bouachir (Pr. en informatique), Charles Gouin-Vallerand (Pr. en informatique), Daniel Lemire (Pr. en informatique), Marcello Maina (Pr. en éducation) et Évelynes Vallières (Pre. en psychologie) d’avoir participé au processus de relecture. Ils ont effectué un excellent travail malgré les échéances très courtes. Journée du LICEF 2016 Nous remercions également les services de communications, plus particulièrement, Mesdames Nathalie Letendre, Isabelle Pelletier et Jacynthe Guillemette pour leur support à la communication. Ce fut un plaisir de collaborer avec elles tout au long de l’organisation de cet événement. Finalement, nous ne serions passer sous licence l’excellente collaboration des services technopédagogiques qui ont pris à leur charge l’impression de ces actes. Nous souhaitons à tous les participants une journée de recherche riche en échanges scientifiques. Neila Mezghani Directrice Scientifique du LICEF Journée du LICEF 2016 Partie I 2 Journée du LICEF 2016 I. Assistance à la conception de cours en ligne ouverts et massifs (CLOM) soutenant un apprentissage personnalisé Rim Bejaoui, Gilbert Paquette et Josianne Basque Centre de recherche LICEF, TÉLUQ, Québec, Canada. 1. Contexte et problématique Dans la littérature, on déplore le manque de soutien fourni aux concepteurs de CLOM (AlarioHoyos, Pérez-Sanagustín, Cormier, & Delgado-Kloos, 2014), alors que ce type de formation en ligne pose des défis nouveaux aux plans pédagogique, logistique, technologique et administratif. Certains chercheurs travaillent à développer des instruments qui permettraient d’analyser dans quelle mesure les CLOM respectent des principes associés à un design pédagogique de qualité (Raposo-Rivas, Martinez-Figueira et Sarmiento Campos, 2015 ; Yousef et al., 2014), mais ces travaux demeurent exploratoires et leurs fondements théoriques peu explicités. En particulier, la personnalisation de l’apprentissage offerte dans les CLOM demeure encore peu abordée dans ces travaux. Il s’agit d’une question qui se pose pourtant avec acuité compte tenu du grand nombre d’apprenants (massivité) dans un CLOM. Plusieurs auteurs soulèvent ainsi le besoin urgent de personnaliser davantage l’apprentissage dans les CLOM (Kravcik, Santos et Boticario, 2014), notamment pour pallier leur faible qualité pédagogique et augmenter la rétention des participants (Blanco, García-Peñalvo et SeinEchaluce, 2013 ; Miranda et al., 2013). Les études menées à ce jour définissent sommairement un ensemble de pratiques pédagogiques visant à améliorer la qualité pédagogique dans les CLOM, notamment en y soutenant un apprentissage personnalisé, mais sans approfondir cette dernière dimension. D'autres études décrivent des démarches plus ou moins opérationnelles pour la conception de CLOM adaptatifs (Blanco, García-Peñalvo et Sein-Echaluce, 2013 ; Santos, Boticario et Pérez-Marín, 2014) et d'autres encore proposent des solutions de personnalisation mais qui n'ont pas encore été expérimentées dans des plateformes de CLOM (Clerc, 2014 ; Halimi, Seridi-Bouchelaghem et Faron-Zucker, 2014 ; Henning et al., 2014 ; Mott, 2010 ; Paquette et al., 2015 ; Pedro et al., 2012 ; Shaw, 2013 ; Szafir et Mutlu, 2013 ; Yang et al., 2014). Il y a donc un besoin d’outiller le concepteur de CLOM afin de l’assister dans sa prise de décision quant aux options de personnalisation de l’apprentissage qu’il peut envisager. C’est à ce besoin que notre projet de recherchei vise à répondre. 2. Cadre théorique et méthodologie Notre cadre théorique est fondé sur les principes de la pédagogie ouverte, sur les méthodes d'ingénierie pédagogique (en particulier, la méthode d'ingénierie des systèmes d'apprentissage 3 Journée du LICEF 2016 MISA), sur les avancées en matière de personnalisation des apprentissages dans des environnements numériques d’apprentissage (ENA) et sur les ontologies en tant qu’outil de modélisation formelle pour l'analyse, la conception et le développement d’ENA. Dans cette recherche, nous avons adopté une démarche itérative de type recherche-développement appliquée à l’informatique cognitive (Harvey et Loiselle, 2009 ; Paquette, 2010) mettant en œuvre cinq phases de recherche : (1) l'analyse du problème, (2) la modélisation d'une ontologie d'un scénario pédagogique de CLOM soutenant un apprentissage personnalisé (CLOMp), (3) la construction d’une grille d’évaluation du niveau de personnalisation dans un CLOM, (4) la construction d’un prototype d’un système d'assistance à la conception de CLOMp et (5) l'évaluation des résultats de la recherche, incluant une validation de la grille d’analyse auprès de quatre experts en ingénierie pédagogique et en personnalisation de l’apprentissage et une mise à l’essai du prototype du système d’assistance à la conception de CLOMp auprès de quatre autres experts dans le même domaine. 3. Résultats Groupes de propriétés soutenant la personnalisation de l’apprentissage dans un CLOM La personnalisation de l'apprentissage dans un CLOM est favorisée par la présence de deux groupes de propriétés, à savoir : 1) des propriétés d’adaptation des composantes du scénario pédagogique du CLOM, faisant référence au niveau d'adaptabilité (ou de modificabilité) de certaines composantes du scénario pour convenir aux besoins spécifiques des apprenants. Ces adaptations peuvent être accomplies par l'un des quatre principaux acteurs du CLOM (facilitateur, agent logiciel, apprenant ou groupe d'apprenants) et portent, par exemple, sur les compétences visées dans le CLOM, le moment de démarrage d’une activité d'apprentissage, le mode de collaboration entre les apprenants ; 2) des propriétés d'assistance et d'aide à l'autogestion de l’apprentissage, faisant référence au niveau avec lequel le CLOM offre des ressources d'assistance et d'aide à l'autogestion de l’apprentissage (ressources 4A), aidant les apprenants tant à acquérir des compétences disciplinaires liées au CLOM qu’à améliorer leur autonomie dans leur expérience éducative. Ceci inclut la mise à disposition de l'apprenant, par un agent logiciel ou un acteur humain du CLOM, de ressources variées telles qu'un outil d’autodiagnostic des compétences, un outil de planification du travail, en e-portfolio, etc. Ontologie d'un scénario pédagogique de CLOM soutenant un apprentissage personnalisé Ces deux groupes de propriétés ont servi à définir une ontologie décrivant un scénario pédagogique de CLOMp. La figure 1 présente le niveau supérieur de notre ontologie. Les composantes adaptables du scénario y sont représentées à l’aide des rectangles roses foncé. Certaines composantes s’appliquent sur le scénario global (voir encadré rouge dans la figure 1) et d’autres sur les activités incluses dans le scénario (voir encadré vert dans la figure 1). Les ressources d'assistance et d'aide à l'autogestion de l’apprentissage sont représentées à l'aide du rectangle Ressource-4A. Ces dernières sont spécifiées dans un sous-modèle de l’ontologie. La classe Propriétés de personnalisation de l’apprentissage englobe l’ensemble des propriétés définies dans la section 3.1 et permet d’associer un certain niveau de personnalisation de l’apprentissage au scénario pédagogique du CLOM. Ce niveau est représenté, dans l’ontologie, par la classe Niveau de personnalisation de l’apprentissage. 4 Journée du LICEF 2016 Figure 1 : Niveau supérieur de l'ontologie d'un scénario pédagogique de CLOMp Grille d’analyse du niveau de personnalisation de l’apprentissage dans un CLOM Notre grille d’analyse quantifiée du niveau de personnalisation de l’apprentissage dans un CLOM (la figure 2 montre un extrait de la grille produit lors de l’analyse du CLOM ds106.us) porte sur les différentes composantes adaptables et ressources 4-A qui ont été définies dans notre ontologie et sert à déterminer si elles sont présentes et jusqu’à quel point elles soutiennent la personnalisation de l’apprentissage. Pour ce faire, notre grille se base sur une méthode de calcul (non détaillée dans cet article) du niveau de personnalisation du CLOM analysé, qui tient compte à la fois :(1) de la présence/absence des différentes propriétés d’adaptation des composantes du scénario et ressources-4A dans le CLOM analysé et (2) d’une valeur de pondération qui est associée à chaque propriété d’adaptation de composante et à chaque ressources-4A du CLOM. Les valeurs de pondération, définies à l’aide de règles que nous ne présentons pas dans cet article, peuvent aller de « 0 » à « 4 »,« 0 » signifiant que la propriété d’adaptation de la composante ou la ressource-4A qui se trouve dans le CLOM analysé n’est pas du tout importante pour la personnalisation de l'apprentissage et « 4 » signifiant qu’elle est très importante pour la personnalisation de l'apprentissage. Le tableau 1 montre les résultats d'analyse du CLOM DS106, incluant les scores de personnalisation de l'apprentissage obtenus par ce dernier. 5 Journée du LICEF 2016 Figure 2 : Extrait de la grille d’analyse du niveau de personnalisation de l’apprentissage dans un CLOM appliquée à DS106 Tableau 1 : Résultats d'analyse du CLOM DS106 Score Interprétation 42.91% A.1. Adaptabilité des CHN par un agent externe 0.00% Moyennement présente Moyennement présente Absente A.2. Adaptabilité des CHN par l’apprenant 72.73% Assez présente 46.09% Moyennement présente B.1. Adaptabilité des CAA par un agent externe 0.00% Absente B.2. Adaptabilité des CAA par l’apprenant 69.44% Assez présente 37.78% Moyennement présentes C.1. Guides-4A 66.67% Assez présents C.2. Instruments-4A 0.00% Absents C.3. Outils-4A 37.50% C.4.Services-4A 50.00% Moyennement présents Moyennement présents Personnalisation de l'apprentissage (PA) globale A. Adaptabilité des Composantes de Haut Niveau (CHN) B. Adaptabilité des Composantes liées aux activités d’apprentissage (CAA) C. Ressources d’Assistance et Aide à l’Autogestion de l’Apprentissage (Ressources-4A) 44.44% 6 Journée du LICEF 2016 Prototype d'un système d’assistance à la conception de CLOMp Notre ontologie et notre grille d’analyse ont été intégrés dans un prototype d'assistance à la conception pédagogique, prenant la forme d'un scénario exécutable sur la plateforme TELelearning Operating System (TELOS) (Paquette et al., 2007). Ce scénario propose à son principal acteur, le concepteur, un ensemble de tâches à réaliser dans le but de concevoir une solution préliminaire de CLOM, entre autres, l'identification et la définition des composantes adaptables du CLOM et des ressources d'assistance et d'aide à l'autogestion qui seront mises à la disposition des apprenants. Il résulte de l'exécution du scénario un devis préliminaire de CLOM incluant, d'une part une analyse de son niveau de personnalisation de l'apprentissage et, d'autre part, des conseils pour améliorer ce niveau. Notre prototype, dont nous montrons un aperçu dans la figure 3, peut être utilisé tôt dans le processus de conception, afin de constituer une solution préliminaire de CLOM, tout en ayant en tête les possibilités de personnalisation de l'apprentissage. Il peut aussi être utile plus tard dans le processus de conception, lorsqu'on s'approche de la diffusion du CLOM, pour organiser et faire un retour réflexif sur des décisions de conception prises préalablement. Figure 3 : Aperçu de l’interface du prototype d’assistance à la conception de CLOMp à l’étape « Visualiser les ressources-4A manquantes » 4. Conclusion Nos travaux ont permis, d’une part, de clarifier les diverses propriétés de personnalisation de l’apprentissage qui peuvent s’appliquer dans les CLOM et, d’autre part, de montrer qu’un système d’assistance, dont nous avons développé un prototype innovateur intégrant une grille d’analyse de ces propriétés, pourrait être un outil utile pour guider le concepteur de CLOM dans sa prise de décision en matière de personnalisation de l’apprentissage. Nous pensons qu’il serait judicieux d’envisager l’intégration de notre grille d’analyse et de notre prototype à des plateformes de développement de CLOM répandues (ex. l’outil Studio de la plateforme 7 Journée du LICEF 2016 OpenEdx) afin d’évaluer leur intérêt auprès de concepteurs pédagogiques en situation authentique et aussi d’évaluer si effectivement, la présence des propriétés de personnalisation de l'apprentissage dans les CLOM permet d’assurer un apprentissage significatif à l’apprenant, d’augmenter la rétention des apprenants et de favoriser l'ouverture (pédagogique) du CLOM. Références bibliographiques Alario-Hoyos, C., Pérez-Sanagustín, M., Cormier, D., & Delgado-Kloos, C. (2014). Proposal for a Conceptual Framework for Educators to Describe and Design MOOCs. Journal of Universal Computer Science, 20(1), 6‑23. Amo, D. (2013). MOOCs: experimental approaches for quality in pedagogical and design fundamentals. Dans Proceedings of the First International Conference on Technological Ecosystem for Enhancing Multiculturality (pp. 219–223). ACM. Repéré à http://dl.acm.org/citation.cfm?id=2536570 Blanco, Á. F., García-Peñalvo, F. J., & Sein-Echaluce, M. (2013). A methodology proposal for developing adaptive cMOOC. Dans Proceedings of the First International Conference on Technological Ecosystem for Enhancing Multiculturality (pp. 553–558). ACM. Repéré à http://dl.acm.org/citation.cfm?id=2536621 Clerc, F. (2014). Mise en Place de la Personnalisation Dans le Cadre des MOOCs (Rapport de stage M2 Recherche). Laboratoire LIRIS, CNRS de l’Université Lyon 1. Repéré à http://elearning-dev.univlyon1.fr/persua2mooc/manuals/rapport.pdf Halimi, K., Seridi-Bouchelaghem, H., & Faron-Zucker, C. (2014). An enhanced personal learning environment using social semantic web technologies. Interactive Learning Environments, 22(2), 165–187. Harvey, S., & Loiselle, J. (2009). Proposition d’un modèle de recherche développement. Recherches qualitatives, 28(2), 95–117. Henning, P., Heberle, F., Streicher, A., Swertz, C., Bock, J., & Zander, S. (2014). Personalized Web Learning: Merging Open Educational Resources into Adaptive Courses for Higher Education. In proceedings of the 4th Workshop on Personalization Approaches for Learning Environments (PALE 2014). Kravcik, M., Santos, OC and Boticario, JG. Dans 22nd conference on User Modeling, Adaptation, and Personalization (UMAP 2014), CEUR workshop proceedings, this volume (pp. 55–62). Kravcik, M., Santos, O. C., & Boticario, J. G. (2014). Preface (pp. 1‑6). Communication présentée au 4th International Workshop on Personalization Approaches in Learning Environments (PALE 2014). Repéré à http://ceur-ws.org/Vol-1181/pale2014_preface.pdf Miranda, S., Mangione, G. R., Orciuoli, F., Gaeta, M., & Loia, V. (2013). Automatic generation of assessment objects and Remedial Works for MOOCs. Dans 2013 International Conference on Information Technology Based Higher Education and Training (ITHET) (pp. 1‑8). doi :10.1109/ITHET.2013.6671018 Mott, J. (2010). Envisioning the post-LMS era: the Open Learning Network. Educause Quarterly, 33(1), 1–9. Paquette, G. (2010). Modeling for Research and Communication. Dans Visual Knowledge Modeling for Semantic Web Technologies: Models and Ontologies (pp. 439–465). (S.l.) : IGI Global. Repéré à http://services.igi-global.com/resolvedoi/resolve.aspx?doi=10.4018/978-1-61520-839-5 Paquette, G., Mariño, O., Rogozan, D., & Léonard, M. (2015). Competency-based personalization for massive online learning. Smart Learning Environments, 2(1), 4. doi :10.1186/s40561-015-0013-z Paquette, G., Rosca, I., Mihaila, S., & Masmoudi, A. (2007). TELOS: A service-oriented framework to support learning and knowledge management. Dans E-Learning Networked Environments and Architectures (pp. 79–109). (S.l.) : Springer. Repéré à http://link.springer.com.tlqprox.teluq.uquebec.ca/chapter/10.1007/978-1-84628-758-9_4 Pedro, L., Santos, C., Almeida, S., & Koch-Grünberg, T. (2012). Building a Shared Personal Learning Environment with SAPO Campus. Dans PLE Conference Proceedings (Vol. 1). Repéré à http://revistas.ua.pt/index.php/ple/article/view/1426/1312 Raposo-Rivas, M., Martinez-Figueira, E., & Sarmiento Campos, J.-A. (2015). A Study on the Pedagogical Components of MOOC. Comunicar, 44. doi :10.3916/C44-2015-03 Santos, O. C., Boticario, J. G., & Pérez-Marín, D. (2014). Extending web-based educational systems with personalised support through User Centred Designed recommendations along the e-learning life cycle. Science of Computer Programming, 88, 92‑109. doi :10.1016/j.scico.2013.12.004 8 Journée du LICEF 2016 Shaw, C. J. (2013). System design and architecture of an online, adaptive, and personalized learning platform. Massachusetts Institute of Technology. Repéré à http://dspace.mit.edu/handle/1721.1/81128 Szafir, D., & Mutlu, B. (2013). ARTFul: adaptive review technology for flipped learning. Dans Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (pp. 1001–1010). ACM. Repéré à http://dl.acm.org/citation.cfm?id=2466128 Yang, D., Piergallini, M., Howley, I., & Rose, C. (2014). Forum thread recommendation for massive open online courses. Dans Proceedings of 7th International Conference on Educational Data Mining. Repéré à http://educationaldatamining.org/EDM2014/uploads/procs2014/short%20papers/257_EDM-2014Short.pdf Yousef, A. M. F., Chatti, M. A., Schroeder, U., & Wosnitza, M. (2014). What Drives a Successful MOOC? An Empirical Examination of Criteria to Assure Design Quality of MOOCs. Dans Proceedings of the 2014 IEEE 14th International Conference on Advanced Learning Technologies (pp. 44–48). IEEE Computer Society. Repéré à http://dl.acm.org/citation.cfm?id=2672199 9 Journée du LICEF 2016 II. Estimation de la cinématique tridimensionnelle du genou basée sur l’optimisation par essaim de particules Badreddine Ben Nouma1, Neila Mezghani2,3, Youssef Ouakrim3, Amar Mitiche1 1 Énergie Matériaux Télécommunications - INRS, Institut national de la recherche scientifique, Montréal, 2 Centre de recherche LICEF, TELUQ, Montréal, Québec, 3 Laboratoire de recherche en imagerie et orthopédie, CRCHUM, Montréal, Québec Résumé : Cette approche se repose sur le principe de la minimisation de la variance toute en conservant la forme réelle des courbes acquises. Le test de l’approche proposée a été appliqué sur une base de données de 42 patients répartie équitablement sur 2 classes : les sujets asymptomatiques (AS) et les patients souffrant de l’arthrose du genou (OA). L’évaluation de notre approche est assurée à travers la méthode d’ajustement linéaire. La validation de cette dernière est réalisée en fonction des instruments de mesure suivants : justesse, sensitivité, sensibilité et la fiabilité. Mots clés : Estimation, OEP, genou, arthrose, asymptomatique 1. Introduction De nos jours, l'analyse des données biomécaniques et particulièrement des données cinématiques de la locomotion du genou est devenu le centre d'intérêt de plusieurs chercheurs. Le but de cet intérêt est l'automatisation de la classification des pathologies. Les données cinématiques du genou sont définies dans les trois plans suivants : le plan frontal qui correspond à la rotation de flexion-extension principale du genou, le plan sagittal qui représente la rotation interne et externe de cette articulation et le plan transversal qui représente la rotation d'abduction et adduction. Ces données sont collectées durant plusieurs cycle de marche à l'aide d'un exosquelette. L'acquisition des données cinématiques est confrontée à une variabilité interclasse c’est-à-dire au sein d'une même classe à cause de nombreux facteurs. La tendance s'oriente vers l'aboutissement à un ensemble d'essais, pour un seul candidat, relativement superposés. Par conséquent, le défi de la classification de formes est la recherche de la forme la plus représentative d'une classe et aussi bien d'un candidat. Deux méthodes fréquemment utilisées dans le domaine de la biomécanique du genou pour le choix du cycle de marche. La première consiste à prendre la moyenne des courbes d'essais, d'un seul sujet acquis dans les mêmes conditions, comme courbe représentative du candidat. La deuxième se repose sur le principe du coefficient de corrélation intraclasse pour 10 Journée du LICEF 2016 déterminer les cycles les plus représentatifs (1). Ces méthodes ne sont pas adaptées à la complexité des signaux cinématiques. Le but de cette étude est d'attaquer à la problématique de l'estimation de cycle de marche afin d'améliorer la qualité de représenter un sujet. Pour ce faire, nous emploierons la méthode de OEP pour la minimisation bi-objective d'une fonction de fitnesse. Cette dernière permet la minimisation simultanée de la variance et de la distance avec les courbes originales. Autrement dit, l'objective est de construire des courbes les plus proches à leur moyenne et les plus semblables aux courbes originales pour conserver la forme réelle des données. L'évaluation de nos résultats est basée sur le degré de similitude de nos courbes avec les originaux. Nous testons la similitude entre les courbes à travers une méthode d'ajustement linéaire (2). 2. Méthode Optimisation par essaim de particules L'optimisation par essaim de particules est une méthode d'optimisation stochastique développée par (3) et (4). Elle est caractérisée par un ensemble de variables 𝑃1 , …, 𝑃𝑁 appelées des particules. Cet algorithme permet, itérativement, de modifier les valeurs des particules afin de trouver les meilleures valeurs qui représentent les solutions optimales par rapport à la fonction de fitness suivante (1). 1 𝑓 𝐸𝐶 = 𝑁 4 /56 1 𝜖 ∗ 𝑑(𝐸𝐶/ − 𝐶/ ) + 𝑁 4 /56 1 1 − 𝜖 ∗ 𝑑(𝐸𝐶/ − 𝑁 4 𝐸𝐶3 ) 356 (1) EC est le patron représentatif à estimer (le cycle de marche à estimer), N le nombre des courbes cinématiques, 𝐶/ les courbes cinématiques collectées (originales) avec i l'indice du cycle et 𝜖 un paramètre qui contrôle la pondération des deux termes à minimiser. Nous avons fixé la valeur de 𝜖 à 0.5 afin d'assurer la parité entre ces deux termes. Base de données L'estimation de la cinématique du genou en utilisant l'optimisation par essaim de particules a été testée sur une base de données contenant quarante-deux participants : 21 sujets ayant une arthrose au genou (OA) et 21 sujets asymptomatiques (AS). Les données cinématiques 3D (flexion-extension, adduction-abduction et la rotation interne-externe), de chaque sujet durant plusieurs cycles de marche, ont été enregistrées lors de la marche à une vitesse confortable sur un tapis roulant et en utilisant des marqueurs de mouvement fixés au genou à l'aide du système d'attache KneeKG [4]. 11 Journée du LICEF 2016 Figure 1: Illustration graphique de la correction d’un exemple Validation La validation de la méthode proposée est basée sur les mesures suivantes : la justesse, la sensibilité et la spécificité et la fiabilité. La justesse est définie comme l'étroitesse de l'accord entre le patron représentatif estimé et l'ensemble des courbes cinématiques collectées. La sensibilité et la spécificité permettent, respectivement, de mesurer le taux d'une bonne classification pour les patients OA et le taux d'une bonne classification pour les sujets AS. Finalement, la fiabilité consiste à évaluer l'ensemble des données résultant en fonction de coefficient de corrélation inter-cycles (CCI). 3. Résultats Le tableau 1 résume la justesse des données. La valeur de 𝑅8 = 0,99 élevée démontre la robustesse de la méthode utilisée. Pour la mesure de sensibilité et la spécificité, nous avons utilisé un perceptron multi-couche. Nous avons également comparé les résultats obtenus en utilisant le patron estimé par la méthode PSO à ceux obtenus en utilisant les méthodes standards telles que celles utilisant la moyenne des courbes ou le coefficient de corrélation intra-classe. Le tableau 2 résume les résultats de classification. Le taux de bonne classification s'élève à 78% avec une spécificité de 76% et une sensibilité de 81%. Ces résultats se comparent favorablement à ceux obtenus avec les méthodes standard (ligne 3 et 4 du tableau 2). Finalement, le tableau 3 montre une corrélation importante entre l'ensemble de courbes estimées par la méthode PSO et l'ensemble des courbes collectées (CCI = 0,99). Table1: Les paramètres de justesse 𝑅2 𝑎1 𝑎𝑞 OA subjects Moyenne ±𝐸𝑇 0.99±0.0097 0.06±0.009 0.9±0.097 AS subjects Moyenne ± ET 0.99±0.0094 0.03±0.007 0.99±0.0094 12 Journée du LICEF 2016 Table 2 : Taux de classification Taux de bonne classification (%) Patron représentatif en utilisant la méthode PSO Moyenne des courbes cinématiques Moyenne des courbes cinématiques les plus corrélées OA 76 71 66 AS 81 71 76 Total 78 71 71 Table 3 : Coefficient de corrélation intra-class r ± écart type Base de données OA (0.99±0.012) Base de données AS (0.99±0.0052) 4. Conclusion Dans cette étude, nous avons développé une nouvelle approche qui permet d'estime un patron représentatif de la cinématique tridimensionnelle du genou en utilisant l'optimisation par essaim de particules. La méthode proposée a été testée et validée sur une base de données contenant deux classes : une classe de sujets asymptomatiques et une classe de sujets arthrosiques. Les résultats obtenus démontrent la pertinence, la justesse et la fiabilité de la méthode développée. Ils démontrent également de meilleures performances par rapport aux méthodes standards telles que celles utilisant la moyenne des courbes ou le coefficient de corrélation intra-classe. Références bibliographiques [1] A. Duhamel, et al., Gait & posture 20, 204 (2004). [2] M. Iosa, et al., BioMed research international 2014 (2014). [3] J. Kenndy, R. Eberhart, Proceedings of IEEE International Conference on Neural Networks (1995), vol. 4, pp. 1942–1948. [4] S. Lustig, R. A. Magnussen, L. Cheze, P. Neyret, Knee Surgery, Sports Traumatology, Arthroscopy 20, 633 (2012). 13 Journée du LICEF 2016 III. Modélisation fonctionnelle de l’aide de Wikipédia dans l’acquisition de concepts à partir de textes Ludovic Bocken et Daniel Lemire Centre de recherche LICEF, TÉLUQ, Québec, Canada Résumé : Cet exposé présente les grandes lignes méthodologiques et les résultats préliminaires d’un projet de recherche doctoral en cotutelle en informatique cognitive (TELUQUQAM) et en traitement automatique des langues naturelles (UFC). Celui-ci se focalise sur l’évaluation de l’aide apportée par Wikipédia dans l’acquisition de concepts structurés à partir de textes. L’objectif principal de cette présentation est de montrer comment une problématique multidisciplinaire d’apprentissage hybride (humain et machine) peut être analysée d’un point de vue fonctionnel. L’importance de cette phase d’analyse et de modélisation se justifie par la complexité et la grande quantité de données incertaines, textuelles et non structurées à gérer dans notre projet de recherche. Face au rasoir d’Ockham, le nombre d’or est décrit comme un moyen séduisant, pertinent mais problématique. 1. Problématique : Grâce au web, de plus en plus de connaissances sont disponibles sous la forme de textes. Cependant, on ne peut pour autant en déduire qu'ils soient "cognitivement" accessibles pour tous. En effet, la compréhension d'un texte requiert des connaissances antérieures à activer et des raisonnements. Ainsi un texte avec des mots inconnus sera moins facilement compréhensible qu'avec des mots fréquents. Les métriques de lisibilité fournissent des approximations de ce coût cognitif. Or la multidisciplinarité augmente la fréquence et la complexité des situations d'acquisition de nouveaux concepts. De par sa couverture thématique, Wikipédia est très utilisée par les internautes et par des algorithmes. Cependant, son exploitation reste problématique de par l'incertitude de la qualité de la plupart de ses articles. Il est dès lors utile de recommander les situations optimales d'acquisition de concepts à partir de Wikipédia. Notre projet de recherche évalue un cadre simplifié pour l'interprétation et la computation de cette problématique. 2. Méthodologie computationnelle Nous examinons d'abord des solutions standards dans la recommandation et la classification de textes. Les métriques de similarité sont d'abord examinées comme représentatives d'un vocabulaire partagé. Elles permettent une première extraction d'articles Wikipédia candidats 14 Journée du LICEF 2016 pour faciliter la lecture de textes cibles. Ainsi l'analyse sémantique latente nous donne des indices de similarité par corrélation entre deux textes. Cependant, ces métriques et algorithmes sont symétriques et ne tiennent pas compte de l'ordre de lecture. Des mesures de complexité inspirées de mesures de probabilités conditionnelles constituent une alternative complémentaire. Le dénominateur de ces métriques fonde les relations d'ordre entre les mesures conditionnelles. On analysera dès lors les relations de complexité entre les deux textes sous la forme de rapports proportionnels. Cette analyse prendra la forme de séries de nombres décrivant différents rapports de complexité. 3. Méthodologie cognitive Pour résumer des séries de données, il est économique de mesurer une fonction d'agrégation représentative. Un point de vue ergonomique singulier peut être fondé à la fois en sciences cognitives, mathématiques et sciences naturelles. Le nombre d'or constitue un point de repère fascinant, car présent dans plus d'une structure biologique. On se demandera dès lors si cette proportion peut résumer une complexité conditionnelle utile. Cette hypothèse de classification et de recommandation naïve constituera un guide pour articuler cognition humaine et artificielle. Des hypothèses cognitives différentielles seront définies en regard de cette métrique unique. Des stratégies de contrôle qualité nous permettront de définir des limites standards. Nous évaluerons ces rapports au sein de hiérarchies sémantiques dans Wikipédia. Plusieurs théories cognitives suggèrent en effet que l'acquisition de nouveaux concepts s'ancre sur celle de concepts plus généraux. Dans Wikipédia, on peut distinguer de façon générique plusieurs niveaux conceptuels. Des concepts peuvent être hiérarchisés selon leur statut de portail, de catégorie ou seulement d'article. Pour comprendre un texte cible, on pourrait consulter un portail Wikipédia, une catégorie, et un article. 4. Validation et résultats préliminaires Nous étudierons systématiquement ce scénario d'acquisition pour pouvoir comparer un maximum de données. Une performance de classification constitue un étalon pour articuler cognition humaine et apprentissage machine. Les concepts et les textes sont étudiés selon plusieurs dimensions cognitives à partir de questionnaires. Nous présenterons des scénarios de validation dans le formalisme proposé dans GMOT. Nous définirons un modèle conceptuel en MOT représentatif des grandes lignes de notre état de l'art en sciences cognitives. Nous expliciterons notre problématique à partir de deux types de visualisation de données. Des diagrammes ternaires nous permettent d'illustrer une analyse compositionnelle et non supervisée de données. Des courbes de croissance et de décroissance seront présentées dans le cadre d'un contrôle qualité. 5. Conclusion Cet exposé est prospectif au sens où il donne les grandes lignes méthodologiques d’un projet de recherche en cours. Cependant, nous espérons avoir montré les enjeux multidisciplinaires de cette phase de modélisation et l’intérêt de nos questions de recherche pour leur simplicité et leur potentiel en informatique cognitive et en traitement automatique des langues naturelles. Le nombre d’or constitue en effet un guide de recommandation déjà thématisé dans d’autres disciplines. Au vu de la quantité d’information diffusée sur Wikipédia, il pourrait ainsi être considéré comme un indice de qualité générique universel. Nos recherches 15 Journée du LICEF 2016 ultérieures présenteront une analyse détaillée de la « présence » ou non de ce rapport dans la combinatoire de mesures de complexité de textes. Références bibliographiques Bren, M., & Batagelj, V. (2003). Compositional data analysis with R. Universitat de Girona. Departament d’Informàtica i Matemàtica Aplicada. Cano, E. L., Moguerza, J. M., & Corcoba, M. P. (2015). Quality Control with R: An ISO Standards Approach. Springer. Kenett, R., & Salini, S. (2011). Modern analysis of customer surveys: with applications using R (Vol. 117). John Wiley & Sons. Markowsky, G. (1992). Misconceptions about the golden ratio. The College Mathematics Journal, 23(1), 2-19. Tuzzi, A., Popescu, I. I., & Altmann, G. (2010). The golden section in texts. ETC–Empirical Text and Culture Research, 4, 30-41. 16 Journée du LICEF 2016 IV. Hybrid battery-friendly mobile solution for extracting users’ visited places Mehdi Boukhechba,1 Abdenour Bouzouane,1 Sebastien Gaboury,1 Charles GouinVallerand,2 Sylvain Giroux,3 Bruno Bouchard1 1 LIARA Laboratory, University of Quebec at Chicoutimi, Chicoutimi, Quebec, Canada 2 LICEF Research Center, Tele-Universite of Quebec, Quebec, Quebec, Canada 3 DOMUS Laboratory, University of Sherbrooke, Sherbrooke, Quebec, Canada Extracting and analyzing outdoor humans’ activities represent a strong support for several applications fields, ranging from traffic management to marketing and social studies. Mobile users take their devices with them everywhere which leads to an increasing availability of persons’ traces used to recognize their activities. However, mobile environment is distinguished from one to another by its resources limitations. In this work, we present a novel hybrid approach that combines activity recognition and prediction algorithms in order to online recognize users’ outdoor activities without draining the mobile resources. Our approach minimizes activity computations by wisely reducing the search frequency of activities, and adapting the algorithms complexity in function of the user behavior and the remaining battery level. We assume the person is traceable via a smartphone, the type of users’ traces is not important to us since the proposed approach works for any movements type (GPS, WIFI positioning, WIFI, Bluetooth or GSM triangulation, pedestrian dead-reckoning, etc.). We will analyze incrementally a user’s motility to extract his performed activities. The main idea of our approach is to minimize the calculation during the analysis process by using a mixture of activity recognition and prediction algorithms. Our system is divided into three parts; the first part aims to recognize users’ activities when they visit places for the first time, the second part is activity prediction where we predict the next activity to avoid processing the activities already recognized, and finally, activity verification which is a post-processing step that aims to verify if the predicted activity is the right one. Suppose that the user has gone from home to work (see Figure 1-A), for the first time when the user visits these locations, we will recognize the two POI linked to the activities staying at home and working in the office by using our activity recognition model presented later. 17 Journée du LICEF 2016 Figure 1: The three parts of our hybrid approach. (1) Home, (2) Work, The next time that the user will go from home to work, our approach will not use the activity recognition model to recognize the activity since it represents a significant source of power consumption, nevertheless, it will use only the association rules driven from the prediction model to estimate the next destination, meanwhile, all the position points between home and work will be stored without any processing until we confirm that the predicted activity is that one performed by the user by using the verification model (see Figure 1-B ). If we confirm that the predicted activity is that one performed by the user, we delete the recorded position points between home and work because the prediction was made successfully, otherwise, we apply the activity recognition model for the whole recorded points to figure out where the user has gone from home. We are going to detail in the following, the three parts of our system. 1. Activity recognition This step aims to explore a user’s activities for the first time, like discovering where he lives and works. We propose a novel approach that recognizes not only stationary activities but moving ones too. We use in the first step an online classification method based on K-means to classify every new position data according to the three families (stops, moves, and activity with moving) by using two variables; the user speed and bearing [2]. In parallel, we observe the accumulation of types of clusters, such that, after a certain threshold calculated automatically of the same cluster’s accumulation, we conclude that the person is probably doing something interesting. For the second step, we summarize the accumulated clusters to one probable POI (Point Of Interest) and we start a geospatial research for the closest and the most meaningful geographical entity. If the research process succeeds, we declare this point as a POI. We propose a novel self-adaptive clustering approach that adjusts the computational complexity of the algorithm in function of the remaining battery level. The goal is to prevent the massive draining of the mobile resources in order to capture users’ movements for the longest time possible. Our mining method is based on a new version of online K-means, where we propose a temporal data window characterized by a variable size in function of a person’s travel behaviour and his phones’ remaining resources [3]. 18 Journée du LICEF 2016 2. Activity prediction We propose in this section a new algorithm based on the online learning of users’ habits to predict users’ next locations taking into account the changes that can occur in their routines, our original contribution includes a new algorithm of online mining association rules that support the concept drift. Our approach begins by constructing a sequence of 𝑃𝑂𝐼 that represents the tracking of users’ daily habits, every sequence is stored incrementally in a tree structure called Habits' Tree ‘HT’. On every sequence arrival, our algorithm checks for a drift in the distribution of sequences and allocates a new weight to the sequence concerned. Finally, the algorithm predicts the next POI using the association rules drawn from HT [1]. 3. Activity verification After predicting the next activity, we need to confirm that the predicted activity is that one performed by the user, for this purpose we introduce a new structure of POIs. A POI will become not only a geographic place where the user carry out an activity, but a geographic entity that is characterized by a minimum duration 𝑑𝑚𝑖𝑛that represents the minimum duration of an activity, and a distance 𝑟 that represents a ray where the activity can be performed. Unlike the related works, we will learn these parameters by adjusting them incrementally and dynamically in function of a user’s behaviours (see Fig. 2). Figure 2 . The 𝑑𝑚𝑖𝑛and r characteristics of a POI Figure 3. Activities’ duration clustering inside a POI, for instance, activity 1 can be going to convenience store, activity 2 going to fast food, activity 3 shopping. The verification process is designed to figure out if our prediction was right and correct it when needed by re- running the activity recognition model. The prediction error can fall under two cases: the user didn’t go to the predicted place and the user has gone to the predicted place but he performed other activities meanwhile. To detect these errors we introduce two types of tests: trajectory duration test and activity duration test. The first test is to compare the duration of the user trajectory and the maximum of trajectories’ durations between the two POIs (the source POI and the predicted POI) to test if the user has gone to the estimated location, if the user’s trajectory duration exceeds the maximum of durations we can say that the user has probably gone 19 Journée du LICEF 2016 somewhere else (because he spent more time than usual to reach the predicted POI), consequently, we reapply the activity recognition model because our prediction was probably wrong. The second test compares the duration of the activity, if the duration of the user’s staying in the POI’s perimeter (defined by r) is less than 𝑑𝑚𝑖𝑛 we can conclude that the user just passed by the area (see Fig. 3). References [1] M. Boukhechba, A. Bouzouane, B. Bouchard, C. Gouin-Vallerand and S. Giroux: Online prediction of people’s next Point-of- Interest: Concept drift support. Proc. 6th international workshop on Human Behavior Understanding, UBICOMP 2015, Osaka. [2] M. Boukhechba, A. Bouzouane, B. Bouchard, C. Gouin-Vallerand, S. Giroux: Online recognition of people's activities from raw GPS data: Semantic Trajectory Data Analysis. Proc. The 8th ACM PETRAE Conference, July 2015, Greece. [3] M. Boukhechba, A. Bouzouane, S. Gaboury, C. Gouin-Vallerand, S. Giroux, B. Bouchard: Energy Optimization for Outdoor Activity Recognition. Journal of Sensors 2016:1-15 · December 2015. 20 Journée du LICEF 2016 V. CARTON: Do-It-Yourself approach to turn a smartphone into a smart eyewear Damien Brun, Suzan Ferreira, Charles Gouin-Vallerand, Sébastien George2 1 2 Centre de recherche LICEF, TÉLUQ, Québec, Canada Laboratoire d’informatique de l’université du maine, France Abstract This paper presents a tool to transform a smartphone into a smart eyewear, named “CARTON”, following a Do-It-Yourself (DIY) approach. The hardware prototype is made with very simple materials and regular tools we could find anywhere. It also includes a Software Development Kit (SDK) with samples in order to easily adapt or develop new mobile app compatible with this kind of device. By providing everything open-source and open-hardware, we intend to solve the reachability of technologies related to smart eyewear and aim to accelerate research around it. Users experiments were conducted in which participants were asked to create, by them-self, the CARTON’s hardware part and perform usability tests with their own creation. Qualitative user feedback and quantitative results prove that CARTON is functional and feasible by anyone. Keywords Wearable; Mobile; DIY; Eyewear; Augmented Reality. 1. Introduction Nowadays, smart eyewear and others assimilate Optical Head-Mounted Display (OHMD) are still very expensive or worst, sometimes even unavailable or hard to get depending on the location. This lack of availability slows the broad utilization of such technology with the population and hardener to conduct research and develop prototypes with smart eyewear. For instance, conducting research on collaborative augmented reality systems for schools, in an entire class would be currently hard to obtain a numerous among of smart eyewear devices. Few researches focused on solving this problem. Some projects intended to reduce costs by applying smartphones to create an inexpensive AR (Augmented Reality) headset. Unfortunately, previous research applying the smartphone approach for developing smart eyewear could not solve the problem yet. Whether their solutions were closer to a virtual reality headset [1] with a large amount of initial manual adjustment, or they lacked reachability [6, 15]: also, no SDK is provided despite adaptations needed to use their solutions, and the process of creation is not open or it includes tools/materials not yet widely available. 21 Journée du LICEF 2016 Do-It-Yourself and Open-Source In this study, we aim to solve these issues by designing a DIY smart eyewear prototype which requires only simple material and regular tools that mostly everyone has access around the world. By using standard material and tools we create favorable conditions to knowledgesharing with instructions easy to follow [16]. Information and knowledge exchange is a core value to the motivations for contributing in the DIY community [10]: receiving feedback, educating others and showcasing projects, among others. In order to make it truly reachable, we naturally decided to make it open-hardware. Thus, all guides and blueprints are available directly on the Internet (http://carton.mobi). “CARTON”, as a complete toolkit also includes an open-source SDK which aims to accelerate and simplify the adaptation, or development, of existing and new mobile app compatible with our device. The open-source community based on knowledge-sharing are quite similar to the DIY community sharing some identical cores. Furthermore, open-source practices have already proved to be effective in software development [19]. The toolkit also contains a full documentation and two sample apps used during our experiments. Indeed, we conducted experiments with 16 participants to confirm that this DIY smart eyewear is feasible, usable and functional following the guide, the blueprint and its utilization with real applications. Therefore, the contribution of this paper is double: (i) providing blueprints and guidelines to build a low-cost, open source and easy to do DIY smart eyewear devices and (ii) providing an SDK to support the development and the adaptation of mobile apps for eye-wearable. 2. Carton Based on an analysis of the related works we are proposing the CARTON project which aims a broader use of smart eyewear following a DIY approach. Hardware Inspired in more consolidated products, such as Meta Vision 2 [11], we use Pepper’s ghost effect [4] to add a layer on the reality. The smartphone’s screen is projected directly into the transparent plastic sheet, which is positioned in front of the user’s eyes. The rear camera of the mobile phone faces the ceiling so we use a small mirror piece to track the view in front of the user’s eyes it is placed on the top of the mobile phone at 45° as presented in Fig. 1 (at the end). We separated the mirror module from the main part for two reasons: 1. Tracking the user’s view is optional for many use cases. For instance, to receive contextawareness notification we could use other mobile’s features and sensors. 2. The mirror is the hardest piece of material to acquire, so we can still create and use the CARTON without it. Taking into account facial anthropometric [13], we tilted down the main structure to 15°, because the forehead is not perfectly perpendicular to the straight-ahead look of the eyes and to correcting the upper position of the smartphone and its camera from the horizontal eye line. Extra articles were added to the toolkit aiming to improve its design and comfort (sponge, rubber band, etc.). In overall, the total cost of the material and tools is around $13 USD when not already owned or found for free, just as the main material: cardboard. All the blueprint (as 22 Journée du LICEF 2016 shown in Fig. 2) has been designed using the open-source software LibreOffice Draw. The final blueprint is on scale and adapted to be printed on regular paper size Letter and A4. Figure 1. Pepper’s ghost configuration and forehead slope Figure 2. Full CARTON’s blueprint Software Our motivation to create an SDK with two samples mobile apps is deeply linked with its reachability and can be downloaded from the project related GitHub repository and includes the following features: • auto-adaptive screen (size, position, brightness, mirrored effect, etc.) • A default launcher • Head Gesture Recognition. It helps to integrate a spherical tracking and a head gesture recognition such as tilt and nod. These two gestures are considered as a natural and intuitive interaction, which can be performed without disturbing a primary activity [12]. • Finger Gesture Recognition with common patterns: swipe/fling to left/right and forward/backward (Fig. 3) 23 Journée du LICEF 2016 • Voice Recognition Figure 3. Tilt gesture detection and finger touch interaction The first sample includes six features accessible from a menu composed of simple tiles which provide: Clock, Compass (adapted from Google Glass), Live Subtile (create subtitles on-live for hearing-impaired people), Origami (shows each step), Tutorial, and Compatible App. We can navigate through it with different kinds of interactions: fingers, head gesture and voice commands. The second application is used to create an AR (Augmented Reality) experience. The view of the phone camera is projected to the screen of CARTON, then the user is able to focus at different selected posters and get additional information about them. The poster tracking and recognition is supported by the AR technology Vuforia [17]. The sample apps were successfully tested with multiple popular phones. 3. Evaluation Is it feasible? Is it functional? The main objective of this evaluation is to make sure this project is appropriate and reachable to a wide community. Firstly, we aimed to evaluate the whole Do-It-Yourself creation process, including the quality of blueprints, guide, tools and materials used. In a second part, we aimed to evaluate CARTON’s functionality and usability with sample apps. We recruited 16 participants for the experiments, in exchange for their participation in the study, they received their CARTON creation and $10, as a lump sum refund for public transport. Our aim was attracting people without specific skills, which could advantage them to create a CARTON prototype. We managed 4 sessions of 4 participants each, in which we provided all the material and tools required to create the CARTON following guide and then to test it with precedent samples apps. Out of the 16 participants, 4 took part in a pre-test in order to update the guide and blueprint. Thus, the main evaluation group included 12 participants, which is considered enough participants to identify around 95.0% of significant usability problems [3]. 4. Results The results from the participants’ observation and questionnaire show positive outcomes regarding the CARTON construction process. Most participants could successfully create their own smart eyewear using the CARTON toolkit and all of them have been proud of using a product they build by themselves. Participants’ satisfaction in the creation process was rated as 24 Journée du LICEF 2016 4.33/5 (1 unsatisfied / 5 satisfied). Regarding the user guide and blueprint, most participants considered both as good, 91.7% and 83.3% respectively. The tools’ choice was also rated positively, 100% of the participants considered it suitable/adequate. Participants affirmed that building the headset was not so easy 2.66/5 (1: hard, 5: easy). The results of the experimentation highlighted several improving aspects regarding the CARTON’s comfort and aesthetics. Measure of the easiness to put on and take off the device was rated 3.33/5 (1: hard, 5: easy), which is correct. The utility stretch straps were “too small”, not big enough for some heads, or even it sticks with long hairs. The headset comfort was judged to 3.5/5 (1: bad, 5: good), still correct but not perfect score that is linked with the precedent problem or the sponge was “too harsh”. The size of the display was judged large enough by 66.7% (8/12) of the participants and its render quality get 3.25/5, which is correct considering that 2 participants had some trouble because their eyes have refractive errors and some participants had issues with a distorted plastic sheet that makes the result a bit blurred. In the survey, participants were asked to mark some characteristics, between 1 (bad) and 10 (good) regarding their experience on using CARTON as a smart eyewear device. The users rated all characteristics of the demos above 6 except “Visibility” which shows some limits depending on the environment. How easy it was to aim a target was judged to 4.0/5, which is good enough to considering this kind of hardware compatible with AR technologies. Interesting fact, even if it was not designed to, and not intended to be used in a production level, half of the participants were likely to wear CARTON in a museum. 5. Future work With all the data collected during the experiment, we already improved CARTON. A video and tutorial are accessible on YouTube (https://youtu.be/3ww5lE8PVsc) and Instructables (http://instructables.com/id/Carton-DIY-Smart-Eyewear/) to facilitate the distributed knowledge sharing [10, 16]. The Carton SDK for Android has been updated with a calibration feature for the Head Gesture Recognition. The sample apps are in the process of publication on the Google Play Store, to make it easier for everyone to test it. We want to go further into the domain of accessibility by following guidelines to design accessible wearable technology [e.g.: 18]. It would be interesting to go deeper into gesture recognition research, for instance, we could use the mirror module to add hand gesture recognition, a natural and intuitive interaction in AR systems [14]. We hope to create a community around CARTON, which could eventually develop an iOS SDK, Unity Package and sample apps with other AR technology such as ARToolKit [2]. 6. Conclusion This paper presents an initiative, the CARTON project, to create a reachable smart eyewear device based on a DIY approach. Moreover, this initiative includes an SDK to support the creation or the adaptation of existing Android apps for the CARTON device. We conduct a study to evaluate the effectiveness of the guidelines for building a CARTON device, while testing at the same time the usability of the proposed device through manipulation of provided sample apps. The results showed that all participants were able to create an effective CARTON with simple material and tools despite minor issues appeared due to heterogeneity of people physiognomy and skills. By providing all of our works openly, it makes much easier to reproduce experimentation, improvements, and to involve a community in producing a new version of CARTON. 25 Journée du LICEF 2016 Acknowledge Thanks to my advisors and all the participants. Refrences 1. Ahmed, A., and Peralez P. Affordable Altered Perspectives: Making Augmented and Virtual Reality Technology Accessible. In Proc. IEEE GHTC, (2014), 603–8. 2. ARToolKit SDK website: http://artoolkit.org/ 3. Bastien, J.M. C., and Scapin D. L. Ergonomic Criteria for the Evaluation of Human-Computer Interfaces. INRIA, (1993). 4. Bimber O., Raskar R., Alternative Augmented Reality Approaches: Concepts, Techniques, and Applications. Eurographics, (2003). 5. Buechley L., Rosner D. K., Paulos E., and Williams A. DIY for CHI: Methods, Communities, and Values of Reuse and Customization. Ext. Abstracts CHI 2009, ACM Press (2009), 4823–26. 6. De Angeli, D., and O’Neill E. J. Development of an Inexpensive Augmented Reality (AR) Headset. In Proc. CHI 2015, ACM Press (2015), 971–76. 7. Genaro Motti V., and Caine K. Understanding the Wearability of Head-Mounted Devices from a Human-Centered Perspective. In Proc. ISWC 2014, ACM Press (2014), 83–86. 8. Google Cardboard website: http://google.com/cardboard 9. Google, September Press Event 2015, YouTube video: https://www.youtube.com/watch?v=JcLEGOT_4c 10. Kuznetsov S., and Paulos E. Rise of the Expert Amateur: DIY Projects, Communities, and Cultures. In Proc. NordiCHI 2010, ACM Press (2010), 295–304. 11. Metavision device website: http://metavision.com/ 12. Morency L.-P., and Darrell T. Head Gesture Recognition in Intelligent Interfaces: The Role of Context in Improving Recognition. In Proc. IUI 2006, ACM Press (2006) 32–38. 13. Naini, Farhad B. Facial Aesthetics: Concepts and Clinical Diagnosis. John Wiley & Sons, 2011. 14. Piumsomboon T., Clark A., Billinghurst M., and Cockburn A. User-Defined Gestures for Augmented Reality. Ext. Abstracts CHI 2013, ACM Press (2013). 15. Seebright device website: http://seebright.com/ 16. Tanenbaum J. G., Williams A. M., Desjardins A., and Tanenbaum K. Democratizing Technology: Pleasure, Utility and Expressiveness in DIY and Maker Practice. In Proc. CHI 2013. ACM Press (2013), 2603–12. 17. Vuforia AR platform website: http://www.vuforia.com/ 18. Wentzel J., Velleman E., and Geest T. Wearables for All: Development of Guidelines to Stimulate Accessible Wearable Technology Design. In W4A 2016. 19. Yamauchi Y., Yokozawa M., Shinohara T., and Ishida T. Collaboration with Lean Media: How OpenSource Software Succeeds. In Proc. CSCW 2000. ACM Press (2000), 329–38 26 Journée du LICEF 2016 VI. Conception d’une architecture de génération automatique pour les jeux sérieux éducatifs: le cas de Game of Homes Sophie Callies (1), Eric Beaudry(2) et Josianne Basque (1) 1 2 Université du Québec à Montréal (UQAM) Centre de recherche LICEF, TÉLUQ, Québec, Canada. Résumé En tant qu’environnements informatiques pour l’apprentissage humain (EIAH), les jeux sérieux éducatifs (JSÉ) doivent adapter leur contenu à la progression de l’apprentissage chez le joueur-apprenant (JA) et, en tant que jeux vidéo, ils doivent chercher à maintenir son engagement dans cette expérience d’apprentissage. Cette étude se focalise sur l’adaptation des scénarios pédagogiques de jeu (SPJ) à la progression de l’apprentissage du JA, tout en le maintenant engagé, et son objectif principal était de concevoir une architecture de génération automatique des SPJ pour les JSÉ de type simulation. Pour répondre à cet objectif, nous avons au préalable adapté une méthode de design pédagogique, la MISA, afin de modéliser les différentes compétences, connaissances, concepts et principes que le JA aura à développer dans le JSÉ. Cette méthode nous a également permis de concevoir les premiers éléments de game design implémentés dans le JSÉ. Au terme de ce travail de modélisation, nous avons conçu une architecture de génération automatique des SPJ dont le système de JSÉ est principalement composé (a) d’un modèle du JA dont le rôle est d’estimer la progression de l’apprentissage en cours de jeu et (b) d’un module d’adaptation qui génère le contenu du SPJ à partir de cette estimation. Nous avons mis en œuvre notre architecture dans un JSÉ de simulation appelé Game of Homes, visant le développement de compétences de base en vente immobilière chez des apprenants adultes. 1. Introduction Les jeux sérieux, dans un contexte d’apprentissage et de formation, visent à guider la démarche d’apprentissage de joueurs adultes dans le but de les amener à développer des compétences dans un domaine d’expertise complexe. Ces joueurs trouvent une motivation supplémentaire à apprendre, en étant plongés dans des environnements divertissants où un apprentissage fortement contextualisé leur permet d’exercer des habiletés de résolution de problèmes qui pourront leur être utiles dans le monde réel. Dans un jeu sérieux éducatif (JSÉ), les tâches que réalise le joueur-apprenant (JA) ainsi que les rétroactions que fournit le système forment le scénario pédagogique de jeu (SPJ). 27 Journée du LICEF 2016 Dans la littérature, les chercheurs se questionnent sur la possibilité d’apprendre en jouant à un JSÉ, mais aussi sur la valeur du JSÉ en pédagogie et sur son intégration dans un cadre d’apprentissage plus large, dans un cours par exemple (De Freitas et Jarvis, 2007; Fournier et al., dans Sauvé et Kaufman, 2010; Pelletier et Olivier, 2006, dans Sauvé et Kaufman, 2010; Squire, 2003). Par ailleurs, les méthodes de conception des JSÉ restent peu documentées, ainsi que le contenu précis des architectures des systèmes de JSÉ. Plusieurs auteurs soutiennent que la valeur pédagogique et engageante des EIAH, dont les JSÉ, réside dans la capacité d’adaptation des systèmes à la progression de l’apprenant (Lopes et Bidarra, 2011; Beaudry et al., 2010; Niehaus et Riedl, 2009). Notre objectif était de concevoir une architecture de JSÉ qui permet la génération automatique des SPJ dont les contenus s’adaptent en direct à la progression des JA assure un apprentissage à la fois motivant et efficace. Au sein de notre équipe de recherche, nous avons conçu Game of Homes (Game of Homes est disponible gratuitement en cliquant sur ce lien : http://gdac2.uqam.ca/goh/#download), un JSÉ de type simulation, qui a aussi des caractéristiques d’un jeu de stratégie en temps réel. Le JA joue le rôle d’un courtier immobilier dont l’objectif est de devenir le meilleur courtier de la ville de Montréal. Le JA est en compétition avec d’autres courtiers contrôlés par le système de jeu, et doit gagner le plus d’argent possible tout en gardant élevée sa réputation en tant que courtier. Il doit déplacer son avatar sur la carte en double-cliquant sur la localisation désirée. Le JA doit offrir ses services aux propriétaires qui souhaitent vendre leur bien immobilier. Il doit négocier avec les propriétaires afin d’obtenir le contrat de courtage, estimer la valeur de la propriété, gérer la vente en effectuant de la publicité, organiser des visites de la propriété à des acheteurs potentiels, éventuellement modifier le prix de vente et enfin négocier avec les acheteurs les offres d’achats qu’il recommande aux propriétaires. La Figure 1 montre une capture d’écran du jeu Game of Homes. Figure 1 Capture de l’écran principal de Game of Homes 28 Journée du LICEF 2016 Nous présentons dans une première section notre méthode de conception de Game of Homes. Nous présenterons dans une seconde section notre architecture de JSÉ de type simulation que nous avons élaborée qui permet la génération automatique des SPJ grâce à deux modules : le module de l’apprenant et le module d’adaptation. 2. Game of Homes : un jeu sérieux éducatif ciblant le domaine de compétences de la vente immobilière La démarche d’implémentation de notre architecture de JSÉ a été inspirée par la MISA (Paquette, 2002), que nous avons adaptée à notre contexte de recherche. La phase de conception de la MISA consiste à spécifier le contenu de la formation (donc du JSÉ), les objectifs d’apprentissage et de jeu ainsi que les modalités d’évaluation du JA, de même que de concevoir le scénario pédagogique (le SPJ, qui, dans notre cas, sera généré de manière automatique) et les éléments médiatiques (décrivant les matériels et les infrastructures requis). La MISA recommande de produire différents modèles lors de la phase de conception; dans notre cas, nous avons pris l’initiative d’élaborer un unique modèle, que nous appelons modèle de connaissances, mais qui regroupe en fait le modèle des connaissances procédurales associées aux compétences visées, le modèle pédagogique et le modèle médiatique du JSÉ. Les éléments médiatiques à préciser sont au niveau micro et sont étroitement liés au gameplay choisi pour le jeu. Quant au modèle de scénario, il est déterminé par l’exercice à plusieurs reprises des connaissances procédurales associées aux compétences visées dans le but de devenir un meilleur vendeur. L’activité de modélisation a été réalisée avec le logiciel G-MOT (http://poseidon.licef.ca/gmot/), et le plus haut niveau de notre modèle de connaissances est représenté dans la Figure 2. Les connaissances procédurales modélisées (ovales mauves) représentent, une fois appliquées par le JA, les compétences à développer dans le JSÉ, qui reflètent en partie, selon nous, les compétences issues du vrai métier de courtier immobilier. Dans le cas de Game of Homes, l’objectif principal d’apprentissage est d’être capable de vendre une propriété. Plus particulièrement, les objectifs spécifiques d’apprentissage du jeu sont d’amener le JA à être capable, à la fin du jeu : • • • de sélectionner et d’obtenir un contrat de courtage auprès d’un vendeur (dont l’application représente la compétence 1), d’estimer le prix de vente d’une propriété (dont l’application représente la compétence 2), de gérer et conclure la vente d’une propriété (dont l’application représente la compétence 3). Dans la Figure 2, le JA est représenté par l’acteur « Courtier JA ». Les autres acteurs représentés - « Courtier PNJ », « Vendeur (propriétaire) PNJ », « Acheteur PNJ » - sont contrôlés par le système de jeu. Chacune de ces connaissances procédurales se détaille en sousconnaissances ou sous-objectifs de jeu. À titre d’illustration, la Figure 3 présente le détail de la connaissance procédurale représentant la compétence 2 « Estimer le prix de vente de la propriété ». Dans ce sous-modèle, les ressources intrantes (concepts) deviennent les éléments du jeu avec lesquels le JA doit interagir (en vert foncé), et les ressources extrantes représentent les actions du JA qui deviennent des produits de l’interaction du JA avec le jeu (en vert clair). La modélisation des connaissances nous a enfin permis de réfléchir sur les aspects stratégiques 29 Journée du LICEF 2016 du domaine de l’immobilier, sous la forme de principes (losanges blancs) qui vont devenir des stratégies à exécuter pour résoudre les problèmes en cours de jeu. Comme les autres types de connaissances, ces stratégies devront être développées par l’apprenant dans le jeu. Les principes peuvent également être des tactiques liées au gameplay qui sont utilisées pour gagner dans le jeu. Ces principes ont été modélisés un peu plus tard dans la phase de conception, car il faut avoir eu une première réflexion sur le type de gameplay du JSÉ. Figure 2 Modèle de connaissances global de Game of Homes (Légende des liens: R: Régule, C: se Compose de, P: Précède) Figure 3 Modèle de la connaissance procédurale représentant la compétence 2 « Estimer le prix de vente de la propriété » (Légende des liens: R: Régule, C: se Compose de, I/P: Intrant/Produit ou Extrants) 3. Une architecture de génération automatique de scénarios pédagogiques de jeu 30 Journée du LICEF 2016 La Figure 4 représente notre architecture de JSÉ. En partant de notre modélisation des connaissances du domaine de la vente immobilière, nous avons conçu un réseau bayésien (RB) inclu dans le modèle du JA dont l’objectif est d’estimer les états de développement des connaissances relatives à la vente immobilière et de mettre à jour en temps réel cette estimation. Dans Game of Homes, le RB est composé de variables d’évidence, c’est-à-dire qu’elles sont directement observables par le système de jeu (p. ex. : niveau d’exigence du vendeur, type de contrat de courtage), et des variables d’interrogation qui font référence aux compétences à développer dans le jeu représentées par des probabilités conditionnelles que le RB doit estimer : Compétence 1 « Sélectionner un contrat de courtage pertinent » et Compétence 2 « Estimer le prix de vente de la propriété ». Figure 4 Architecture génération automatique de SPJ dans les JSÉ de simulation Le module d’adaptation mis en œuvre dans Game of Homes a pour rôle de générer automatiquement le contenu des SPJ en fonction de l’état d’estimation des connaissances fourni par le RB. La génération est possible grâce à la technique de la planification classique utilisée en IA. Le module d’adaptation peut ainsi planifier différentes actions ou activités pédagogiques différentes. Le contenu de ces actions consiste à prédéterminer des valeurs approximatives des paramètres de simulations, qui sont les suivants : • • • rétroactions sous forme d’aide données au JA: aides sur les stratégies qui s’appliquent sur les compétences à développer et aides sur les tactiques de jeu; comportements des PNJ : agressivité des courtiers PNJ et exigence des Vendeurs quant au prix de vente prêt à accepter; contextes d’apprentissage: modification de l’état du marché ou du ratio Acheteurs/Vendeurs. 31 Journée du LICEF 2016 Au niveau du fonctionnement du module d’adaptation, ce dernier interroge le modèle du JA, afin de connaître les probabilités des compétences. Ces informations permettent au module d’adaptation de générer un plan pédagogique unique pour chaque JA et composé d’une séquence d’actions optimales compte tenu de l’état de progression du JA. Ces modifications de paramètres de simulation permettent au système de JSÉ de modifier en cours de jeu l’environnement dans lequel le JA continue d’évoluer, et de proposer ainsi des activités dont le contexte et le niveau de difficulté varient. Chacune des actions ne peut s’activer que si les préconditions sont remplies; dans notre cas, il s’agit de pourcentages précis d’estimation des compétences à développer dans Game of Homes. Si les préconditions d’une des actions du plan ne sont pas remplies, parce que finalement la progression de l’apprentissage du JA s’est faite plus lentement ou bien plus rapidement que prévu, alors un nouveau plan est généré, tenant davantage compte de l’état actuel de la progression de l’apprentissage et de la progression passée. Le module d’adaptation interroge alors une seconde fois le RB, et le processus recommence. Une fois la partie de jeu terminée, le ou les plans exécutés forment le SPJ. 4. Conclusion Notre architecture permet au système du jeu Game of Homes de générer des rétroactions adaptées aux actions du JA, de modifier le comportement des PNJ afin de maintenir le JA engagé et de modifier le contexte d’apprentissage afin de favoriser chez le JA la découverte et l’exécution de différentes stratégies. Deux évaluations empiriques de notre architecture ont été réalisées et ont été publiées (Callies et al., 2015; Callies et al., 2016, soumis). Références bibliographiques Beaudry, E., Bisson, F., Chamberland, S., et Kabanza, F. (2010). Using markov decision theory to provide a fair challenge in a roll-and-move board game. Dans IEEE Computational Intelligence and Games (CIG), 1-8. Callies, S., Sola, N., Beaudry, E., et Basque, J. (2015). An empirical evaluation of a serious simulation game architecture for automatic adaptation. Dans R. Munkvold & L. Kolas, Proceedings of the 9th European Conference on Games Based Learning (ECGBL 2015), pp. 107-116. Reading, UK: Academic Conferences and Publishing International Limited. Callies, S., Gravel, M., et Beaudry, E. (soumis). Analysis of Game of Homes' logs: A comparison between scripted-based and automatically generated scenarios. 10th European Conference on Games Based Learning (ECGBL 2016). De Freitas, S., et Jarvis, S. (2007). Serious games-engaging training solutions: A research and development project for supporting training needs. British Journal ofEducational Technology, 38(3), 523525. Lopes, R., et Bidarra, R. (2011). Adaptivity challenges in games and simulations: A survey. IEEE Transactions on Computational Intelligence and AI in Games 3(2), 85-99. Niehaus, J. et Riedl, M. (2009a). Toward scenario adaptation for learning. Dans Proceedings of the Conference on Artificial Intelligence in Education (AIED): Building Learning Systems that Care : From Knowledge Representation to Affective Modelling, 3, 686–688. Paquette, G. (2002). L'ingénierie pédagogique: Pour construire l'apprentissage en réseaux. Sainte-Foy, Canada: Presses de l'Université du Québec. Sauvé, L., et Kaufman, D. (2010). Jeux et simulations éducatifs. Presses de l'Université du Québec. Squire, K. (2003). Video Games in Education. International Journal of Intelligent Simulations and Gaming, 2(1), 49-62. 32 Journée du LICEF 2016 VII. Mieux prédire la réponse de la forêt aux changements climatiques via une meilleure compréhension des interactions entre les espèces d’arbre : Le cas de l’érable à sucre Alexandre Collin1, Christian Messier1,2 et Nicolas Bélanger1,3 1 Centre d’étude de la forêt, UQAM Institut des sciences de la forêt tempérée, UQO 3 Centre de recherche LICEF, TÉLUQ, Québec, Canada. 2 La discipline de l’écologie souffre actuellement d’un manque de savoir pour prédire les réponses de la forêt face aux changements climatiques (CC). De nombreux processus et facteurs écologiques autres que le climat vont contrôler la migration latitudinale des arbres. En premier lieu, les espèces migrantes devront interagir de plus en plus avec de nouvelles espèces et s’adapter à de nouvelles conditions de sol. Ainsi, les prochains modèles de simulation de la réponse des forêts aux CC devront être construits autant à partir du climat que des observations locales des interactions et des mécanismes de rétroaction entre espèces ainsi que de leur croissance le long de gradients climatiques. L’étude de l’adaptation de l’érable à sucre (Acer saccharum) aux CC pour le développement d’un modèle conceptuel est un cas modèle en raison de son importance commerciale au Canada. L’érable à sucre (ÉS) et le sapin baumier (Abies balsamea) coexistent à la transition entre la forêt tempérée et boréale. La présence d’îlots isolés d’ÉS au-delà de sa limite nordique suggère qu’il n’est pas seulement limité par le climat. Il est aussi établit que la survie et la bonne croissance de l’ÉS est contrôlé par la disponibilité en calcium dans le sol. Certaines recherches suggèrent que les sols boréaux acides, pauvres en calcium et composés d’une litière épaisse peuvent limiter la migration de l’ÉS sous les CC en affectant l’établissement de ses semis. D’un autre côté, il est suggéré que d’autres pressions affectent la santé et la compétitivité de l’ÉS, pouvant ainsi mener à une contraction de son amplitude de distribution. Entre autres, le hêtre à grandes feuilles (Fagus sylvatica) remplace lentement l’ÉS au sud de sa distribution, possiblement à cause de l’acidification du sol par les dépositions atmosphériques acides et d'autres perturbations comme les tempêtes de verglas, l’herbivorie ou encore les maladies associées au hêtre. Nous présentons ici les résultats d’une série d’études qui ont permis de déterminer si l’ÉS a un désavantage compétitif pour l’acquisition de nutriments du sol par rapport à d’autres espèces, affectant sa capacité d’adaptation aux CC. Les résultats préliminaires vont en faveur d’un modèle basé sur l’acidité du sol créée par les conifères, ce qui a un effet important sur le prélèvement du calcium et du magnésium, des cations cruciaux pour la santé des érablières. Le hêtre semble aussi créer trop d’ombrage et des effets allélopathiques qui nuisent à la régénération de l’ÉS (Figure 1). Une importante subvention d’infrastructure visant la mise en place d’un réseau de suivi de haute résolution de la santé de l’ÉS dans nos parcelles générera 33 Journée du LICEF 2016 de nouvelles données qui pourront alimenter les modèles pour prédire si l’amplitude écologique de l’ÉS va bouger, s’étendre ou au contraire se réduire. Érablière à hêtre Érablière à bouleau jaune Mixte dominance feuillue Mixte dominance résineuse Forêt de conifères Figure 1 : Dispositif expérimental mis en place pour tester les effets adverses du hêtre et des conifères (lumière, herbivorie, allélopathie, acidité et disponibilité des nutriments du sol) sur la vigueur des semis d’érable à sucre. 34 Journée du LICEF 2016 VIII. Améliorer la persévérance dans les CLOM par l'application des meilleures pratiques en conception pédagogique. Claude Coulombe, Gilbert Paquette, Neila Mezghani Centre de recherche LICEF, TÉLUQ, Québec, Canada Résumé Le taux d'abandon élevé des participants demeure, encore aujourd'hui, la principale critique exprimée à l'égard des CLOM (cours en ligne ouverts et massifs en anglais MOOCs). En effet, la littérature scientifique situe dans une fourchette de 5 à 10% le pourcentage des participants inscrits qui terminent un CLOM. Dans cette perspective, les deux CLOM réalisés lors de l'initiative Ulibre de la TÉLUQ affichent d'excellentes performances en terme de persévérance des participants, avec des taux d’achèvement de plus de 33%. L'engagement exceptionnel des participants d'Ulibre, leur forte participation aux forums de discussions et leurs taux d’achèvement élevés ne sont pas dus au hasard, mais seraient du moins en partie, le résultat de l'application d'un ensemble de meilleures pratiques et de règles simples de conception que nous partageons dans le présent article. 1. Introduction Les taux d'abandon élevés et les faibles taux d'achèvement sont des problèmes bien connus en enseignement à distance. C’est également le problème central des CLOM, depuis leur émergence et encore aujourd'hui. 2. CLOM, les caractéristiques essentielles L'aspect massif est certainement la principale caractéristique d'un CLOM. La partie invisible des CLOM est la collecte massive de données sur le comportement des apprenants. Nous reconnaissons là une pratique courante du Web 2.0. Grâce à l’analytique d’apprentissage, les données des usagers sont une véritable mine d'or [Norvig, 2013], [Koller, 2012]. Les caractéristiques secondaires de tout bon CLOM sont: le libre accès, la gratuité, la flexibilité qui permet à tout le monde, à tout moment et en tout lieu d’avoir accès aux cours, dans la mesure où il dispose d'un appareil connecté à Internet, l’interactivité riche, la facilité d'utilisation, la facilité d'accès aux contenus par l'utilisation de contenus vidéos. 3. Comment expliquer la faible persévérance des participants aux CLOM 35 Journée du LICEF 2016 Premièrement, il suffit généralement de quelques clics pour s'inscrire à un CLOM. Par conséquent, les CLOM attirent un grand nombre de curieux. Beaucoup de gens qui s'inscrivent à un CLOM n'y reviennent jamais (en anglais noshow), soit 50% [Jordan, 2014] de décrocheurs précoces. Certains participants n'ont pas l'intention de terminer le cours. Il y a aussi des auditeurs libres qui explorent des cours sans faire les quiz [Reich, 2014]. Le fait que la presque totalité des CLOM n'accorde ni diplôme, ni crédit universitaire explique en partie le manque d'engagement de nombreux participants. 4. L’expérience Ulibre À la fin de 2013, un projet pilote sur les CLOM a été lancé à la TÉLUQ qui devint le portail Ulibre à l'automne 2014 avec le lancement de ses deux premiers CLOM sur la plateforme en logiciel libre Open edX [OPEN EDX 2016]. 5. Méthodologie Les lignes directrices de conception des CLOM pour Ulibre Dans tout processus de conception, c'est toujours une question de prise de décision. Ces décisions sont fondées sur les objectifs souhaités et l'un de ces objectifs, pour Ulibre, était de favoriser la persévérance des participants, notamment en raison de la mauvaise réputation des CLOM dans ce domaine [Jordan, 2014]. Dans un article plus long, nous expliquons plus en détail les règles de conception qui ont guidé notre travail.  Figure 1 Le portail Ulibre avec ses deux premiers CLOM 6. Résultats Tout d'abord, nous devons définir le terme «apprenant actif» (en anglais active learner). Dans le cas d'Ulibre, les apprenants actifs désignent les participants qui ont répondu au sondage « Profil du participant ». 36 Journée du LICEF 2016 Figure 2 Évolution de l’engagement des participants dans les CLOM d’Ulibre Considérons la courbe qui illustre l'évolution de l’engagement des participants dans les CLOM d’Ulibre pendant toute la durée des cours (figure 2). On remarque une courbe en «S» caractéristique (une sigmoïde) qui montre une baisse de participation d'abord lente au début, puis le décrochage s'accélère jusqu'à un point d'inflexion après la 2ème semaine, puis nous voyons un ralentissement progressif du taux d'abandon du CLOM jusqu'à la fin du cours. Table 1 Taux de persévérance d’Ulibre comparativement aux données de la littérature scientifique 37 Journée du LICEF 2016 Pour Ulibre nous comptons environ 60% d'apprenants actifs (CTF 54%, IHPQ 65%). Ceci est un excellent résultat en regard de la littérature qui rapporte 30% d'apprenants actifs (donc 70% de nonactifs et de décrocheurs précoces) [Hill, 2013]. Ainsi, Ulibre se positionne clairement dans le haut de la fourchette en ce qui concerne la participation des apprenants dans ses deux CLOM, CTF et IHPQ. Plus impressionnant encore, les deux CLOM d'Ulibre montrent des taux d'achèvement, par ailleurs soulignés par des certificats, qui sont respectivement de 18% (CTF) et 23% (IHPQ) des participants inscrits. Cela signifie des taux de certification de plus de 33%, si l'on considère seulement les «apprenants actifs». Nous pouvons comparer ces chiffres aux taux de 6,5% et 5% pour les participants inscrits et 9,8% et 9% pour les «apprenants actifs» dans deux études récentes [Ho et al, 2015] et [Jordan, 2014]. 7. Discussion Les taux élevés d'engagement et de certification de Ulibre ne sont pas dûs au hasard, mais sont le résultat de l'application d'un ensemble des meilleures pratiques et de règles de conception simples. Par exemple, une contrainte majeure est le «manque de temps» des participants à un CLOM. Afin de résoudre ce problème, de nombreuses règles de conception simples peuvent être appliquées: limiter la durée du CLOM à environ un mois [Haber, 2013], demander une charge de travail raisonnable [Jordan, 2014], [Mock & Vázquez Cognet, 2014], présenter essentiellement des contenus sous forme vidéo [Choi & Johnson, 2005], réduire la granularité des activités, prévoir deux semaines supplémentaires pour les retardataires. D'autres règles de conception permettront d'améliorer la motivation et l'engagement dans le CLOM: appliquer la technique du pieddansla porte [Burger, 1999], découper le contenu en courts vidéoclips [Guo, 2013], mettre l'accent sur l'interactivité et la pratique active [Hake, 1998], donner une rétroaction immédiate, offrir le certificat d'achèvement [Leong Son, 2015], initier la participation aux forums de discussion avec le truc du forum «Je me présente!», modérer les forums, envoyer une infolettre hebdomadaire. Cela dit, il pourrait y avoir des biais et des erreurs dans notre expérience. 8. Conclusion Nous avons montré que les concepteurs de CLOM peuvent améliorer l'engagement et la réussite des participants par l'application des meilleures pratiques et de lignes directrices de conception somme toute assez simples. Les CLOM actuels, y compris ceux d'Ulibre sont confinés dans la transmission des connaissances et négligent le passage indispensable vers les compétences. Nous pensons que l'apprentissage basé sur les compétences sera un catalyseur du changement dans le modèle économique de l'enseignement supérieur. Cela dit, la promesse ultime des CLOM émergera de l'application efficace de l'analytique d'apprentissage (en anglais learning analytics) qui permettra de personnaliser l'enseignement à chaque apprenant [Norvig, 2013]. 38 Journée du LICEF 2016 Références bibliographiques [Burger, 1999] Burger, J. M. (1999). The footinthedoor compliance procedure: A multipleprocess analysis and review. Personality and Social Psychology Review, 3(4), 303–325.http://goo.gl/JaX79i [Choi & Johnson, 2005] Choi, H. J., & Johnson, S. D. (2005). The effect of contextbased video instruction on learning and motivation in online courses. 19(4), 215-227. [Guo, 2013] Guo, P. (2013, October 29). Optimal Video Length for Student Engagement. https://goo.gl/n51KS5 [Haber, 2013] Haber, J. (2013, November 4). How Long Should a MOOC Go On? [Blog].h ttp://goo.gl/TI7sdf [Hake, 1998] Hake, R. R. (1998). Interactiveengagement versus traditional methods: A sixthousandstudent survey of mechanics test data for introductory physics courses. American journal of Physics, 66(1), 6474.http://goo.gl/fsbpKe [Hill, 2013] Hill, P. (2013, March 10). Emerging Student Patterns in MOOCs: A (Revised) Graphical View http://goo.gl/9s6yOm [Ho & al, 2015] Ho, A. D., Chuang, I., Reich, J., Coleman, C. A., Whitehill, J., Northcutt, C. G., ... Petersen, R. (2015). HarvardX and MITx: Two Years of Open Online Courses Fall 2012Summer 2014 (SSRN Scholarly Paper No. ID 2586847). Rochester, NY: Social Science Research Network.http://goo.gl/jaevqy [Jordan, 2014] Jordan, K. (2014). Initial trends in enrolment and completion of massive open online courses. The International Review of Research in Open and Distance Learning, 15 (1). http://goo.gl/eXhWH4 [Koller, 2012] Daphne Koller: What we’re learning from online education | Video on TED.com (2012). http://goo.gl/zYqCkR [Leong Son, 2015] Leong Son, J. (2015).Massive Open Online Courses (MOOCs) 2014(p. 48). University of London. http://goo.gl/bUxVbg [Mock & VázquezCognet, 2014] Mock, J., & VázquezCognet, J. (n.d.). Effects of Course Length in a MOOC.http://goo.gl/LQMn32 [Norvig, 2013] Norvig, P. (2013, July 18). How to Make Online Courses Massively Personal: Scientific American. Scientific American, (August 2013 issue). http://goo.gl/EGWhDN [OPEN EDX, 2016] The Open edX platform.https://open.edx.org/ 39 Journée du LICEF 2016 IX. Game based learning: a case study on designing an educational game for children out of schooling Susan M. Ferreira, Charles Gouin-Vallerand, Richard Hotte Centre de recherche LICEF, TÉLUQ, Québec, Canada Abstract Despite the efforts and global policies to achieve universal primary education, there are still 58 million children, roughly between the ages of 6 and 11, out of school globally. Although previous studies showed the value of serious games for learning, not enough efforts were made to apply serious games to reduce children illiteracy. Understanding the complexity of this problem, we putted together a multidisciplinary research team, and an industrial partner, to work on the design of a serious game for children without access to school. In this paper, we present the preliminary results of our case study, showing the main design challenges faced to develop such tool and proposing solution to overcome those issues. We aim to call the attention of the research community about the urgent need of more studies in this field and we argue that our results could be used as starting point for taking forward future work in this direction. Keywords - Serious games; children education; mobile learning; game learning scenario; ICTD 1. INTRODUCTION Despite the efforts and global policies to achieve universal primary education, humanitarian agencies call attention to the fact that there are still 58 million children, roughly between the ages of 6 and 11, out of school globally [1]. Although the increasing penetration of technologies in developing countries could provide more access to education in poor and rural areas, a core concern among ICTD (Information and Communication Technologies and Development) scholars is that there is a disproportionate emphasis into providing physical access to computers and Internet without adequate attention on how these technologies could be used to actually impacts human development [2], [3] & [4]. With the advance of computer and mobile technologies a vast amount of educational serious games have being design to contribute for children education. Previous studies had stated that “in the past 10 years, the field of learning games has grown dramatically” [5], that “serious Games (SGs) are gaining ever more interest as an instructional tool” [6] and that “Educational game are being backed up in the Technology-Enhanced Learning domain as strategies that can lead to worthy learning outcomes.” [7]. Unfortunately, most of current efforts in this area aimed to complement the daily school learning or focus only in a particular 40 Journée du LICEF 2016 learning content, not offering strong solutions for providing children education in lieu of availability of regular schooling. In this research, we aim to contribute to solving these issues by designing a serious game for tablet devices that will be adapted to the individual self-learning, particularly for children in developing countries. The overall goal is to adapt the contents of math and English subjects, offered from Kindergarten to Grade 12, in a standard Indian Curriculum onto an application embedded within a tablet PC. The application would be applied in both learning scenarios, as a supplement to daily school learning or in lieu of availability of regular schooling, raising the challenge to offer a high level of motivation and user-friendliness for a student to effectively educate him/herself. This is an interdisciplinary project that joins together an industrial partner, that produce low cost tablet devices to developing countries, and researchers from Game Design, Education, Learning system engineering, Cognitive computing, Human-Computer Interaction and ICTD. In the first stage of the project we conducted a literature review in the different specialties, performed a collaborative interdisciplinary design process and developed three low fidelity prototypes, in order to illustrate our initial design ideas. Next we present a summary on our main objective, a discussion on the initial key design challenges and present strategies we applied to overcome these issues. 2. CASE STUDY: A SERIOUS GAME FOR CHILDREN WITHOUT ACCESS TO SCHOOL Objective and target audience The main objective of the presented serious game is to provide a learning tool for children from 6 to 17 years old that have no or limited access to education resources. Therefore, such serious game must take into account a series of parameters about the profile of the learners, the technology background of the children, their culture, their level of education, etc. Moreover, such game must manage at some point their motivation, which is normally managed by the teachers in physical schools. For the first stage of the project, the target audience is children from India and we focus on the Indian’s school Curriculum related to learning math and English. In the second stage of the project, we aim to expand our target adapting the tool for children from other developing countries. Key design challenges and proposed solutions As a result of the literature review and collaborative multidisciplinary design process, we identified, and proposed solutions, to key challenges to design a serious game for children out of schooling. The main challenge identified in this study is the lack of teacher, and possibly also a lack of literate family member, to guide the learners through their education process. This issue is treated in this study regarding three different aspects: motivation and engagement, identifying children’s previous knowledge and knowledge transfer. Adding to it, other key design challenges were identified regarding learning and gaming balance, collaborative learning and Curriculum and children cognitive development. We present next, a summary of each challenge and our proposed solutions. 41 Journée du LICEF 2016 1) Maintain learner’s motivation and engagement Since our target audience is children without access to school one of the main challenges for our serious game was to maintain children engagement with the application and their motivation to self-learning. From the literature review we understood the high potential of serious gaming for learning [6] and value of RPG (Role Playing Games) to offer a motivating context that elicits engagement into language learning [8]. Based in our literature review and collaborative design process, in this study we propose applying a RPG game mechanics as a strategy to motivate and engage students into selflearning English and Mathematics. Aiming to do so, we combined RPG quest base structure [9] with the Quest based learning methodology [10] into the designing of an educational serious game. Each level of the game correspond to one year of the school Curriculum and the learning scenarios are presented as quests (i.e. tasks that the player must complete in order to gain a reward) in a RPG game. 2) Identify children previous knowledge As mentioned previously, the aim of our learning tool is to take into account children from different ages. From our literature review we identified a high inequality level in educational opportunities in India [11], with children leaving the school in different ages. In order to bring those children back to education is crucial to allow players to start playing the game from different levels, ranging from preschoolers to more advanced high-school years. One challenge into this direction is to identify the correct educational level for each student, as each of them may have different formal and informal previous learning experiences. The solution we suggest for this issue is to design a self-assessment activity, objectifying to identify players’ previous knowledge, skills and age. This activity should be composed by short puzzles, presented to children when they start playing the game for the first time. The outcomes of the activity should then be applied as input to personalize and propose the appropriate game level, and learning competences, for each child. 3) Knowledge transfer In our literature review we found different perspectives regarding whether children learn differently when information is presented in a fantastical context vs. a realistic context. Previous researchers pointed out the fact that young children may have difficulties to transfer solution from fantasy world into the real worlds [12], [13]. Other recent study evaluated the performance of pre-school children into learning new words in real word and fantasy contexts. Their results suggests that stories focusing on fantastical elements encourage greater learning [14]. Taking both perspectives into account, our design solution incorporated fantasy aspects (e.g. history line and game objects) with strategies that support learning transfer. Adapting to each learning scenario, we defined special quests containing activities to promote debriefing and knowledge transfer. Those activities are incorporated in bridge quests connecting different learning scenarios, they may include a debriefing activity, a video showing a similar learning 42 Journée du LICEF 2016 content in a real word context or an activity where the learner needs to apply his knowledge to build a project (virtually or uploading a picture from a creation in the real world). 4) Learning and gaming balance Related work showed that a key challenge in serious game design is to find the correct balance among learning and gaming [6], [15]. Perhaps due the multidisciplinarity of the research team, strategies focusing on learning and gaming came up from the initial stages of our study and during all the design process (literature review, collaborative brainstorming section and prototype discussions). Following recommendations from previous research [15] we focused in both aspects, learning and gaming, from the beginning of the design process. The result of this strategy was to design learning gaming scenarios and game mechanics that include both gaming and learning aspects. An example of this approach is the development of two key game objects, one focusing in the learning aspects of the tool (student portfolio) and the other focusing on gaming (artifact repository). 5) Collaborative learning Collaborative learning have been studied in the education field for decades (e.g. [16], [17]). In gaming, the value of massive multiplayers online role-playing games (MMORPGs), to foster social interaction and to facilitate collaborative learning, have also being discussed (e.g. [18], [19]). Further more, a recent ICTD research, on technology-enhanced learning, showed a high collaborative aspect of children tablet interaction in developing countries [20]. These previous works impulse us to propose a serious game strategy that support online collaboration and collaborative learning. This strategy faced two limitations, first regarding how to guaranty children’s safety online without an adult supervision [21] and second, regarding developing countries communication networks infrastructures. In distant rural villages in developing countries we cannot rely on strong data connections, for that reason, our tool needs to operate with 2G communication networks and low rate of data transfer. Taking those issues in consideration, we developed an initial multi-player strategy, by including a game ranking showing the best players inside of each community. As a next step we aim to explore other strategies of collaboration, as sharing an object in the game [22] or applying Bluetooth wireless technology. 6) School Curriculum and Children Cognitive development Since our target audience varies from 6 to 17 years old our design strategy must take into consideration children from different ages. As previous researchers stated, children cognitive development (e.g. [23], [24]) and consequently tablet interaction (e.g. [25], [26], [27]) varies intensely in this age range. Further more, the learning content and competences presented in the game should be adapted to the different ages and school curriculum. Our strategy for this challenge is to create a game architecture that can be adapted to different ages and learning content. We defined 12 game levels, which will increase its complexity in 43 Journée du LICEF 2016 relation to the learning content (according to school curriculum), game mechanics, game instructions, aesthetics and user interaction. 3. CONCLUSIONS AND FUTURE WORK This study calls attention to the value of technology enhancing learning and serious games into contributing in enriching lives of citizens in developing countries. More specifically, this study aims to call the attention of the research community for the lack of studies and the opportunity to apply serious games to contribute in reducing the children and adults illiteracy in developing countries. Our preliminary results, from the literature review and multidisciplinary design process, identified key challenges for developing serious games for children without access to schooling. We proposed design solutions aiming to address this challenges and argue that this initial understanding of the problem could be used as starting point for future work in this field. We are currently working in the next step of this study, which refers to conducting user studies with children. In the first stage we aim to evaluate the design ideas using a low fidelity prototype and discussing with children aspects that could be improved in the tool. These outcomes will be applied as input for developing a high fidelity prototype, which will be applied in the second round of evaluation. REFERENCES [1] UNESCO Institute for Statistics (UIS) and UNICEF, “Fixing the broken promise of education for all: Findings from the Global initiative on Out-of-School Children,” Montreal, 2015. [2] M. Warschauer, Technology and Social Inclusion: Rethinking the Digital Divide. The MIT Press; New Ed edition, 2004. [3] A. Johri and J. Pal, “Capable and convivial design (CCD): a framework for designing information and communication technologies for human development,” Inf. Technol. Dev., vol. 18, no. 1, pp. 61–75, Jan. 2012. [4] S. M. Ferreira, S. Sayago, and J. Blat, “Going Beyond Telecenters to Foster the Digital Inclusion of Older People in Brazil: Lessons Learned from a Rapid Ethnographical Study,” Inf. Technol. Dev., vol. (in press), p. 21, 2016. [5] J. Groff, J. Clark-Midura, V. E. Owen, L. Rosenheck, and M. Beall, “Better learning in games: A balanced design lens for a new generation of learning games,” 2015. [6] S. Arnab, T. Lim, M. B. Carvalho, F. Bellotti, S. de Freitas, S. Louchart, N. Suttie, R. Berta, and A. De Gloria, “Mapping learning and game mechanics for serious games analysis,” Br. J. Educ. Technol., vol. 46, no. 2, pp. 391–411, Mar. 2015. [7] J. Melero and D. Hernández-Leo, “A Model for the Design of Puzzle-based Games Including Virtual and Physical Objects,” J. Educ. Technol. Soc., 2014. [8] M. Peterson, “Massively multiplayer online role-playing games as arenas for second language learning,” Comput. Assist. Lang. Learn., vol. 23, no. 5, pp. 429–439, Dec. 2010. [9] G. Smith, “RPG Design Patterns,” 2009. [Online]. Available: https://rpgpatterns.soe.ucsc.edu/doku.php?id=start. [Accessed: 22-Mar-2016]. [10] C. C. Haskell, Design Variables of Attraction in Quest-based Learning. Boise State University, 2012. [11] M. N. Asadullah and G. Yalonetzky, “Inequality of Educational Opportunity in India: Changes Over Time and Across States,” World Dev., vol. 40, no. 6, pp. 1151–1163, Jun. 2012. 44 Journée du LICEF 2016 [12] R. A. Richert, A. B. Shawber, R. E. Hoffman, and M. Taylor, “Learning From Fantasy and Real Characters in Preschool and Kindergarten,” J. Cogn. Dev., vol. 10, no. 1–2, pp. 41–66, Apr. 2009. [13] R. A. Richert and E. I. Smith, “Preschoolers’ quarantining of fantasy stories.,” Child Dev., vol. 82, no. 4, pp. 1106–19, Jan. 2009. [14] D. S. Weisberg, H. Ilgaz, K. Hirsh-Pasek, R. Golinkoff, A. Nicolopoulou, and D. K. Dickinson, “Shovels and swords: How realistic and fantastical themes affect children’s word learning,” Cogn. Dev., vol. 35, pp. 1–14, Jul. 2015. [15] E. Klopfer, S. Osterweil, and K. Salen, “Moving Learning Games Forward,” Cambridge, MA, 2009. [16] M. Warschauer, “Computer-Mediated Collaborative Learning: Theory and Practice,” Mod. Lang. J., vol. 81, no. 4, pp. 470–481, Dec. 1997. [17] K. A. Bruffee, “Collaborative Learning: Higher Education, Interdependence, and the Authority of Knowledge. Second Edition.,” Nov. 1998. [18] M. D. Childress and R. Braswell, “Using Massively Multiplayer Online Role‐Playing Games for Online Learning,” Distance Educ., vol. 27, no. 2, pp. 187–196, Aug. 2006. [19] H. Cole and M. D. Griffiths, “Social interactions in massively multiplayer online role-playing gamers.,” Cyberpsychol. Behav., vol. 10, no. 4, pp. 575–83, Aug. 2007. [20] A. Chang, L. Tilahun, and C. Breazeal, “Visualisations of Data from the Literacy Tablet Reading Project in Rural Ethiopia,” in Proceedings of the EVA London 2014 on Electronic Visualisation and the Arts, 2014, pp. 142–149. [21] A. Bruckman and A. Bandlow, “Human-computer interaction for kids,” in The human-computer interaction handbook, L. Erlbaum Associates Inc., 2002, pp. 428–440. [22] A. N. Antle, “Exploring how children use their hands to think: an embodied interactional analysis,” Behav. Inf. Technol., vol. 32, no. 9, pp. 938–954, Sep. 2013. [23] Piaget and Jean, The Psychology Of Intelligence. Taylor & Francis, 1999. [24] A. De Ribaupierre, “Piaget’s theory of child development,” in International Encyclopedia of the Social and Behavioral Sciences., Oxford, 2001, pp. 11434–11437. [25] L. Anthony, Q. Brown, J. Nias, B. Tate, and S. Mohan, “Interaction and recognition challenges in interpreting children’s touch and gesture input on mobile devices,” in Proceedings of the 2012 ACM international conference on Interactive tabletops and surfaces - ITS ’12, 2012, p. 225. [26] L. Anthony, Q. Brown, J. Nias, and B. Tate, “Examining the need for visual feedback during gesture interaction on mobile touchscreen devices for kids,” in Proceedings of the 12th International Conference on Interaction Design and Children - IDC ’13, 2013, pp. 157–164. [27] R.-D. Vatavu, G. Cramariuc, and D. M. Schipor, “Touch interaction for children aged 3 to 6 years: Experimental findings and relationship to motor skills,” Int. J. Hum. Comput. Stud., vol. 74, pp. 54–76, Feb. 2015. 45 Journée du LICEF 2016 X. Planification des services pédagogiques pour la génération des scénarios d’apprentissages personnalisés dans le jeu sérieux KSMS Ramzi Gannouni (1), Richard Hotte (1), Gilbert Paquette (1) et Hakim Lounis (2) 1 2 Centre de recherche LICEF, TÉLUQ, Québec, Canada. Université du Québec à Montréal (UQAM) Résumé La conception des parcours pédagogiques dans les systèmes d’apprentissage en ligne en générale et dans les jeux sérieux en particulier représente une étape cruciale dans le processus d’apprentissage. Automatiser cette conception dynamiquement mais surtout d’une façon personnalisée afin de répondre aux besoins des apprenants, de maintenir leurs intérêts et de leur assurer un apprentissage efficace, représente un défi important. Dans l’optique d’une ingénierie pédagogique orientée services Web et guidée par des objectifs, nous proposerons une méthode de composition dynamique des services pédagogiques en fonction du profil cognitif de l’apprenant (ses pré requis et son objectif en terme de compétences, ainsi que ses préférences), afin de générer des scénarios d’apprentissage personnalisés. Pour décrire les services pédagogiques et formuler les objectifs pédagogiques des apprenants, des ontologies relatives au domaine de connaissance et à l’ingénierie pédagogique ont été réalisés ainsi qu’un système de planification PORSCE II (Hatzi et al. 2013) a été adapté pour la composition de services pédagogiques adéquats. 1. Introduction et contexte Nos recherches s’inscrivent dans un contexte d’apprentissage mobile au sein du projet Kids’ Smart Mobile School (KSMS). KSMS a pour finalité le développement d’une application mobile dédiée aux enfants dans les pays en développement n’ayant pas accès à l’école. Notre contribution consiste à réaliser un système qu’on l’appelle PSP (Planificateur des Scénarios Pédagogiques). Plus spécifiquement, nos travaux tendent à l’automatisation de la génération des scénarios d’apprentissage (soit la séquence d’éléments à compléter pour atteindre une étape dans le système d’apprentissage) d’une façon dynamique, personnalisée et en temps opportun. Dans les fais, nous visons à générer automatiquement et semi automatiquement des scénarios d’apprentissage adaptés et personnalisés pour l’apprenant et le contexte d’apprentissage, en composant des services pédagogiques par l’utilisation d’un planificateur dynamique. Pour relever ce défi, nous nous intéressons plus spécifiquement à concevoir des ontologies pour 46 Journée du LICEF 2016 intégrer la gestion des connaissances et des compétences et à intégrer les standards du web sémantique et du e-Learning afin de permettre la création, la description et la réutilisation des services pédagogiques sur mesure. Dans les prochaines sections, nous-nous intéresserons aux technologies susceptibles de nous aider à satisfaire notre problématique, soit l’élaboration et la modification automatique de scénarios pédagogiques en composant éventuellement les services pédagogiques adéquats. 2. Scénario pédagogique Un scénario d’apprentissage que ce soit en e-Learning ou au sein d’un jeu sérieux, est composé d’une série de sous-processus pédagogiques structurés par des processus centraux. Lors de la modélisation d’un scénario pédagogique, nous définissons les sous-processus d’apprentissage comme étant des éléments s’intégrant à l’environnement de l’apprenant et l’assistant dans l’acquisition de compétences, de connaissances ou de comportements visés. Le design du scénario d’apprentissage est conçu de sorte que les séquences d’apprentissage, soit des expériences consécutives menant l’individu vers un niveau plus élevé de connaissances et de compétences. Lors de la mise en place d’un scénario pédagogique, les habilités et les connaissances de l’apprenant sont évaluées par une unité centrale, soit le tuteur. Le concepteur, PSP dans notre cas, pourra ainsi générer un curriculum pour l’apprenant, lui permettant de répondre à ses besoins de connaissances ou de compétences ainsi que ses préférences. En général, le scénario doit être élaboré par un concepteur chargé de la conception et de la personnalisation de chacun des scénarios d’apprentissage, afin de répondre aux besoins de chacun des apprenants. En revanche, la génération du plan spécifique à chaque apprenant est une tâche qui requiert un temps de traitement important. Afin que le processus d’apprentissage mobile soit pertinent, nous devons être capables de générer des plans personnalisés plus rapidement que la progression de l’apprenant à l’intérieur du plan. Ceci pourrait se faire lorsque certains sous-processus pédagogiques sont complétés, l’apprenant pouvant être évalué et le résultat de chacune des évaluations permettra au système d’adapter le scénario pédagogique selon les forces et les faiblesses de l’apprenant, cela tout le long du curriculum d’apprentissage. Par exemple, si on déterminait que l’apprenant n’a pas bien saisi une sous-tâche précise et importante, lors du processus pédagogique, PSP pourrait modifier la séquence des prochaines étapes d’apprentissage en fonction de ce besoin et ainsi aider l’apprenant à pallier à cette mauvaise compréhension. Dans notre cas, ces étapes se font par l’entremise du profil de l’apprenant à travers la validation de son niveau ainsi son intention par rapport à l’ontologie de l’objectif (ontologie de compétences (Paquette 2007), associée à l’ontologie de domaine de connaissance (Mathématiques pour notre cas)). Ceci permet au PSP d’élaborer un scénario pédagogique, soit les séquences d’apprentissages (sous-processus) nécessaires pour que l’apprenant puisse atteindre le niveau de connaissances et de compétences escomptés. 47 Journée du LICEF 2016 3. Les services pédagogiques Dans notre système, on vise à mettre à la disposition de l’apprenant des composants pédagogiques de type services en se référant aux services web. Ce choix d’approche émane des nombreux avantages offerts par cette architecture. En effet, centrés sur la définition d’un objectif, les services pédagogiques peuvent être réutilisés dans différents contextes et agrégés de différentes manières tout en facilitant l’invocation et la composition de solutions adaptées aux intentions de l’apprenant (Zniber and Cauvet 2007). Les services pédagogiques sont décrits par la spécification détaillée de leurs objectifs et de leurs contextes. De plus, chacun fournit un processus utilisant un ou plusieurs ressources afin d’atteindre un objectif particulier. Ces processus en question seront ainsi assemblés selon le besoin de l’apprenant pour élaborer ses parcours d’apprentissage. Quant aux ontologies, elles sont utilisées pour décrire sémantiquement les services, afin de faciliter leurs recherches et leurs compositions. Par ailleurs, elles offrent également un moyen de partage et de réutilisation de la connaissance tout en facilitant la mise en correspondance des services pédagogiques disponibles et des besoins de l’apprenant. Nous avons utilisé OWL-S (Ontology Web Language for Services) pour décrire les services pédagogiques. Ce dernier propose une ontologie de services qui décrit chaque service selon 3 dimensions: • • • ServiceProfile : décrit les informations concernant les services offerts (ses fonctionnalités et les pré-conditions pour son utilisation). Elle spécifie aussi le but du service pédagogique. ServiceModel: c’est la partie « structure » du service. elle définit des processus types pour réaliser le but. ServiceGrounding: c’est la partie « comportement » du service. Elle présente le processus à un niveau opérationnel ou exécutable par un apprenant. Après l’exécution d’un service, une évolution est supposée être déclenchée chez l’apprenant à travers l’acquisition de nouvelles compétences. Cette variation est exprimée à travers l’expression de prérequis et d’acquis, en termes de compétences et de niveaux, de façon à ce que le niveau renseigne sur le degré de la compétence atteint. Les prérequis sont les pré-conditions nécessaires à l’utilisation de ce service, et les acquis correspondent au résultat en terme de compétences acquises (Zniber 2009). La description de ces services par les ontologies de tâche et de domaine est alors utilisée par la plateforme PORSCE II (Hatzi et al. 2013) afin de générer des parcours pédagogiques personnalisés. 4. Conclusion Étant très dynamiques et imprévisibles, les environnements d’apprentissage à distance requièrent des méthodes utiles et plus adaptées à la création de composition dynamique de services pédagogiques. 48 Journée du LICEF 2016 Basée sur la planification en IA et enrichie par des techniques du web sémantique, le système PSP (Planification de Services Pédagogiques) proposé dans cet article, permet l’élaboration d’un plan d’apprentissage, correspondant le mieux aux préférences des utilisateurs, ainsi qu’une rapidité et flexibilité remarquables. Figure 1. Description du PSP (Planificateur des Services Pédagogiques) Référence bibliographique Bloom, Benjamin Samuel, and David R Krathwohl. 1956. "Taxonomy of educational objectives: The classification of educational goals. Handbook I: Cognitive domain." Review of. El-Kechaï, Naïma, Javier Melero, and Jean-Marc Labat. 2015. Quelques enseignements tirés de l'application de la Competence-based Knowledge Space Theory aux Serious Games. Paper presented at the IC2015. Hatzi, O., D. Vrakas, N. Bassiliades, D. Anagnostopoulos, and I. Vlahavas. 2013. "The PORSCE II framework: using AI planning for automated Semantic Web service composition." Review of. Knowledge Engineering Review 28 (2):137-56. doi: Doi 10.1017/S0269888912000392. Hocine, Nadia, Abdelkader Gouaïch, Ines Di Loreto, and Lylia Abrouk. 2011. "Techniques d'adaptation dans les jeux ludiques et sérieux." Review of. Revue d'Intelligence Artificielle 25 (2):253-80. Melero, Javier, Naïma El-Kechaï, and Jean-Marc Labat. 2015. "Comparing Two CbKST Approaches for Adapting Learning Paths in Serious Games." In Design for Teaching and Learning in a Networked World, 211-24. Springer. Paquette, Gilbert. 2002. Modélisation des connaissances et des compétences: un langage graphique pour concevoir et apprendre: PUQ. ———. 2007. "An ontology and a software framework for competency modeling and management." Review of. Educational Technology & Society 10 (3):1-21. ———. 2016. "Competency-based Personalization Process for Smart Learning Environments." In Learning, Design, and Technology. An International Compendium of Theory, Research, Practice, and Policy. AECT and Springer Zniber, Najlaa. 2009. "Modèle orienté service pour la conception de parcours pédagogiques personnalisés." Université Paul Cézanne-Aix-Marseille III. Zniber, Najlaa, and Corine Cauvet. 2007. "Des composants aux services pédagogiques." Review of. International Journal of Information Sciences for Decision Making (TICE Méditerranée; 2007; Marseille). ISDM (29). 49 Journée du LICEF 2016 XI. Du curriculum au jeu, quel modèle ? Eric Le Magoariec (1) et Richard Hotte (2) (1) (2) Université Pierre et Marie Curie Centre de recherche LICEF, TÉLUQ, Québec, Canada. Résumé : L’objectif de ce travail est de contribuer à la création et au développement d’une application mobile dédiée aux apprentissages pour l'éducation des enfants dans les pays en développement. La réalisation du projet, nommé Kids’ Smart Mobile School (KSMS) est l’œuvre d’une équipe interdisciplinaire au sein de laquelle notre contribution consiste à concevoir et modéliser un type de scénario d’apprentissage pour guider une équipe de développeurs informatiques dans le transfert d’un curriculum d’enseignement sous forme de Serious Game dédié à l’apprentissage. 1. Introduction Au sein de l’équipe interdisciplinaire de KSMS, notre travail est volontairement limité au CBSE-i Curriculum1, dans sa partie Mathématiques en Class I (tableau 1). Dans le cadre de cette présentation, je ne m’intéresserai qu’à la partie sur l’apprentissage des nombres. Tableau 1. CBSE-i : Objectifs spécifiques des mathématiques en CLASS I Résoudre une énigme ou des problèmes en utilisant des nombres. Développer et utiliser le vocabulaire de comparaison des nombres (plus, moins et égal à) Trier, classer et décrire l'objet sur la base du nombre des objets. Assembler les puzzles et les objets en fonction de la spécification donnée. Observer et décrire le nombre d'objets dans leur environnement. Compter dans l'ordre croissant et décroissant Regrouper les objets en groupes de deux, trois ou dix chacun. Visualiser et utiliser le langage courant pour décrire la forme et l'orientation de l'objet. Compter de façon fiable jusqu'à 50 objets, en reconnaissant que le nombre d'objets correspond au nombre. Estimer le nombre d'objets qui peuvent être vérifiés par comptage. Comparer et ordonner les nombres (Traduit de l’anglais) 50 Journée du LICEF 2016 Un rapide coup d’œil sur les objectifs spécifiques des mathématiques en Class I (tableau 1) permet de se rendre compte qu’ils ne sont pas réellement utilisables tels que formulés. Ils sont de trop haut niveau et non mesurables pour certains d’entre eux. Tableau 2. MEN : Cours préparatoire - Nombres et calcul Connaître (savoir écrire et nommer) les nombres entiers naturels inférieurs à 100. Produire et reconnaître les décompositions additives des nombres inférieurs à 20 (“table d’addition”). Comparer, ranger, encadrer ces nombres. Écrire une suite de nombres dans l’ordre croissant ou décroissant. Connaître les doubles des nombres inférieurs à 10 et les moitiés des nombres pairs inférieurs à 20 Connaître la table de multiplication par 2. Calculer mentalement des sommes et des différences. Calculer en ligne des sommes, des différences, des opérations à trous. Connaître et utiliser les techniques opératoire de l'addition et commencer à utiliser celles de la soustraction (sur les nombres inférieurs à 100). Résoudre des problèmes simples à une opération. Avant toutes choses, nous avons traduit ces objectifs en une progression pédagogique de façon à faire émerger les connaissances et compétences sous-jacentes et, ainsi, définir une progressivité. Ainsi, en suivant cette progression, l’apprenant pourra atteindre ces objectifs et l’acquisition de ses connaissances pourra être évaluée. 2. Construire la progression Il est à noter que le curriculum du Central Board of Secondary Education-International (CBSE-i) est assez proche des curriculums occidentaux. Nous nous sommes donc appuyés sur les propositions de progression proposées par l’éducation nationale2 française (tableau 2) en prenant soin d’apporter les adaptations nécessaires, le cas échéant, par exemple les noms des nombres ne sont pas construits de façon identique en français et en anglais. Cependant, il s’avère nécessaire de redécouper chacun de ces items en plus petites unités de façon à se rapprocher le plus possible des activités que réalisera l’apprenant. En effet, seul ce découpage nous permettra de valider ou non la progression de la construction de connaissances ou de compétences chez l’apprenant. Figure 1 : Progressivité pour apprendre les nombres 51 Journée du LICEF 2016 De plus, il faut garder en mémoire que la finalité est la réalisation d’un jeu par l’intermédiaire duquel l’apprenant aura à y réaliser des activités ! Le défi est donc d’amalgamer, au maximum, les activités du jeu aux activités pédagogiques de la progression. 3. Traduire en scénario Pour illustrer le propos, je vais expliciter la démarche que j’ai décidé de suivre pour modéliser et faciliter le passage vers le jeu. La figure 1 montre le découpage choisi pour amener l’apprenant à « Connaître (savoir écrire et nommer) les nombres entiers naturels inférieurs à 100 », « Comparer, ranger, encadrer ces nombres », « Écrire une suite de nombres dans l’ordre croissant ou décroissant ». Je les ai regroupés dans la fonction « Apprendre les nombre ». Ce regroupement n’est pas fortuit. Il est issu de discussion avec des enseignants du primaire mais aussi de documents glanés sur le web comme par exemple sur les sites « L’école de Julie » 3 ou bien « Le petit cartable de Sanléane » 4. Une fois que les connaissances et compétences à construire mais aussi la progressivité définies, il reste à choisir la ou les stratégies pour arriver à les transmettre à l’apprenant. Le choix s’est porté sur l’approche constructiviste de Maria Montessori (1912) qui, comme l’affirme David Elkind (2003)5 dans son article Montessori and Constructivism, englobe les trois épistémologies qui continuent à avoir une influence en pédagogie. La stratégie que nous avons suivi pour réaliser nos modèles est qu’ils placent l’apprenant, à tour de rôle, dans les trois postures (figures 2 à 4) soit, comme un mime qui imite, un logicien qui déduit ou un architecte qui construit. A l’issue, nous le placerons dans une optique d’autoévaluation (figures 5) ou, au minimum, devant un débriefing, compris ici comme un retour réflexif sur l’activité. Figure 2 : Apprenant comme Mime 1 Figure 4 : Apprenant comme Architecte 1 Figure 3 : Apprenant comme Logicien 1 Figure 5 : L'apprenant s'auto-évalue 52 Journée du LICEF 2016 Les activités de la progression prennent donc en compte cette stratégie et, comme le montre la Figure 6, pour chaque compétence à construire, l’apprenant passera par les quatre étapes mentionnées. Figure 6 : Connaitre les nombre de 1 à 5 Figure 7 : Reconnaître les nombres en tant que Mime Les premières activités (Figure 7) porte sur la reconnaissance des nombres de 1 à 5. Dans un premier temps, l’apprenant (mime) est invité à reproduire des actions de façons à relier une collection d’objets au cardinal correspondant. Dans un deuxième temps (Figure 8), la stratégie évolue, il (logicien) doit appliquer et déduire de ses erreurs de façon à arriver à la bonne réponse. Si l’apprenant fait une erreur, la solution lui est montrée. Pour le troisième rôle (Figure 9), l’apprenant (architecte) est placé dans une situation de résolution de problème de façon à valider ce qu’il vient d’apprendre et s’il peut le mobiliser pour produire une solution. Pour terminer, une activité d’auto-évaluation lui est proposée (Figure 10). À ce niveau, c’est un simple débriefing qui lui proposé mais en prenant soin de lui faire un retour ses points forts et autres. Figure 3 : Reconnaître les nombres en tant que logicien Figure 2 : Reconnaître les nombres en tant qu’Architecte 53 Journée du LICEF 2016 Figure 4 : Reconnaître les nombres en tant qu’Architecte Figure 5 : Débriefing de l’activité reconnaître les nombres 4. Du scénario au jeu Le concept de jeu choisi par l’équipe interdisciplinaire de KSMS est un jeu de rôle axé sur l’apprentissage à base de quête. L’apprenant est donc invité à accomplir différentes quêtes auxquelles sont associés des contenus mathématiques ou anglais langue seconde (ESL). A ce niveau, le travail consiste à s’appuyer sur les scénarios de progression développés afin de créer les situations de jeu qui permettront à l’apprenant de vivre et réaliser les quêtes et donc apprendre. Pour illustrer mon propos, voici l’exemple de la première quête : Quête 1 : Réaliser la potion signalant les artéfacts magiques Objectif d’apprentissage global : Reconnaître les nombres jusque 5. Contexte général de la quête : Le Troll maléfique a caché les artéfacts magiques sous la forme d’objets usuels. Afin de pouvoir les récupérer, le magicien décide de réaliser une potion qui les signalera à l’apprenti lorsqu’il sera proche d’eux. Activité 1 : Faire inventaire de l’armoire à préparation de potion. Objectif d’apprentissage : Identifier un nombre par sa quantité. Contexte : L’apprenti doit dénombrer les ingrédients présents dans l’armoire afin que le magicien sache ce qu’il a et ce qu’il manque pour réaliser la potion. L’apprenti se rend donc devant l’armoire et l’ouvre. Des collections d’éléments se présente à lui (une dizaine), il devra associer le nombre correspondant à la quantité d’éléments dans la collection. (Ex: * * * * => 4) Stratégie : L’apprenant est, dans un premier temps, guidé dans les actions qu’il doit réaliser. Il n’a pas de choix, il a le rôle de mime. Ensuite il passe au rôle de logicien et a donc la possibilité de choisir parmi les possibilités. Des erreurs sont possibles. Lors d’un clic sur un nombre, il est verbalisé ; s’il tarde à associer le bon, il clignote. Quand le choix est correct, on verbalise de 1 en 1 jusqu’à la quantité de la collection et, en même temps, la collection est symbolisée (groupement et nombre). Ex : verbalisation de 4 puis 54 Journée du LICEF 2016 1, 2, 3 et 4 ; de façon synchrone, 1 objet, 2 objets, 3 objets et enfin 4 objets sont entourés ceci tout en mettant en surbrillance le nombre associé => accentuation de l’association) Activité 2 : Récupérer les éléments manquants. Objectif d’apprentissage : Identifier un nombre par sa verbalisation - Activité liée avec l’Anglais langue seconde Contexte : Le magicien demande à l’apprenti de se rendre dans le jardin afin d’aller récupérer les ingrédients (une dizaine d’ingrédients différents) nécessaires pour établir la potion qu’il veut réaliser. Une fois dans le jardin, le magicien lui dicte ce qu’il a besoin. L’apprenti devra donc sélectionner autant d’éléments que de besoin pour réaliser la collection dictée. Stratégie : S’il tarde, l’objet désiré clignote, puis un autre, … jusqu’à la quantité désirée. (Ex : 4 pommes => il clique sur 4 pommes dans le jardin (chaque pomme se démarque pour visualiser la collection) - A chaque clic le nombre est verbalisé et symbolisé => accentuation de l’association) Activité 3 : Vérifier que maintenant les ingrédients nécessaires sont présents. Objectif d’apprentissage : Associer un nombre à la quantité correspondante. Même principe Activité 4 : Réaliser la potion. Objectif : Evaluation – Situation problème. Contexte : Le magicien demande à l’apprenti de réaliser la potion de signalisation. Il lui donne une recette mais malheureusement celle ci est déchirée, il manque les derniers ingrédients. Le magicien le rassure, il lui dictera la fin en temps voulu. Stratégie : L’apprenant a le rôle de l’Architecte. Il doit mobiliser ses connaissances et s’en servir pour construire la solution. 1er temps : A partir d’une image représentant un ingrédient et le nombre représentant la quantité souhaitée, l’apprenti doit récupérer et verser dans le chaudron les ingrédients nécessaires. 2eme temps : A partir des consignes verbales du magicien, l’apprenti récupère et verse dans le chaudron les ingrédients nécessaires. Activité de débriefing : Un écran synthétique est présenté à l’apprenant/joueur. Potion réussi : tout est ok => BRAVO => FIN QUETE 1, (Mise à jour du portfolio) => il peut passer à la quête suivante Problème détecté : Feedback de l’erreur ou des erreurs et il recommence la potion Si encore des erreurs => retour activité 2 (il n’y a plus assez d’ingrédients) puis activité 3 et enfin évaluation 5. Conclusions Cette première étape nous permet de valider notre hypothèse de travail. Nous venons de démontrer qu’il est possible d’amalgamer les activités du jeu aux activités pédagogiques d’une progression à partir d’un scénario d’apprentissage de base. Néanmoins, pour ce faire, il ressort que le travail de modélisation doit être suffisamment fin et les activités de suffisamment bas niveau, à la ressemblance des activités que nous pourrions mettre en œuvre avec des élèves en 55 Journée du LICEF 2016 classe. Le challenge devient alors de réussir à développer le design du jeu de façon aussi fine pour intégrer les activités à l’histoire, à la situation narrative. Références bibliographiques : 1 http://cbse-international.com/upload/documents/upload/22f23fs23fs/level-1/l-1_c-91_1347248928655.pdf http://eduscol.education.fr/cid58402/progressions-pour-ecole-elementaire.html 3 http://www.ecoledejulie.fr/progression-maths-cp-2012-2013-a47162463 4 http://www.sanleane.fr/construire-les-notions-mathematiques-au-cp-sans-fichier-a95460359 5 ELKIND, David. Montessori and constructivism. Montessori life, 2003, vol. 15, no 1, p. 26. 2 56 Journée du LICEF 2016 XII. STI-DICO : un système tutoriel intelligent pour le développement des connaissances et compétences dictionnairiques chez les futurs maîtres au primaire Alexandra Luccioni, Gilbert Paquette et Jacqueline Bourdeau 1 Centre de recherche LICEF, TÉLUQ, Québec, Canada Résumé Les systèmes tutoriels intelligents (STI) sont des environnements d’apprentissage informatisés dont l'efficacité est comparable aux tuteurs humains dans une variété de domaines [6, 7]. Dans le cadre de notre projet de recherche, nous avons développé STIDICO, un STI conçu pour les futurs enseignants du français au Québec afin de les guider dans l'acquisition des connaissances théoriques et des compétences pratiques nécessaires pour l'utilisation du dictionnaire. Via une modélisation formelle des connaissances et compétences dictionnairiques, couplé avec des activités d'apprentissage authentiques, STI-DICO sera déployé via une interface Web à des futurs enseignants du français au primaire en formation à l'UQAM, leur fournissant un apprentissage adapté grâce à des boucles de rétroactions, des explications et des indices. 1. Introduction Les dictionnaires jouent un rôle important dans le développement du vocabulaire, un indicateur clé de la réussite scolaire [8]. Dans les dernières années, les dictionnaires électroniques tels qu’Antidote (Cognitive Tutor Authoring Tools: ctat.pact.cs.cmu.edu/) ont vu le jour, offrant de nouvelles fonctionnalités, des fonctions de recherche complexes et des interfaces interactives, résultant en un changement de paradigme qui a fondamentalement changé le processus de consultation du dictionnaire. [3]. L’habileté d'utiliser un dictionnaire électronique a été définie comme une compétence à viser par le Ministère de l'éducation du Québec [4]; malgré cela, des études ont montré que les dictionnaires électroniques sont rarement utilisés autant par les étudiants que les enseignants en salle de classe, principalement en raison du manque d'instruction appropriée [12]. Afin de contribuer à combler cette lacune, notre projet vise à créer STI-DICO, un système tutoriel intelligent (STI) visant la nouvelle génération d'enseignants en formation à l'UQAM. Le but de STI-DICO sera de guider ces futurs enseignants à acquérir les compétences et les connaissances dont ils ont besoin pour exploiter les dictionnaires électroniques de manière appropriée et efficace, autant en salle de classe qu'ailleurs. STI-DICO sera développé en 57 Journée du LICEF 2016 utilisant des technologies de pointe afin de concevoir un environnement d'apprentissage intelligent avancé qui sera en mesure de fournir des services de tutorats adaptés à l'état de connaissance de l'apprenant à chaque étape de son processus d'apprentissage [6]. 2. Méthodologie La démarche méthodologique de ce projet de recherche s’inspire de l’approche Design-Based Research (DBR) [8], une méthodologie fortement située dans un contexte éducationnel réel qui renforce la validité des résultats de la recherche en insistant sur un partenariat entre chercheurs et acteurs du domaine. DBR comprend un processus par itérations, chaque itération apportant à la fois un progrès dans le système développé, ainsi qu'un avancement de connaissances théoriques. Les itérations de notre projet sont les suivantes: 1. L'analyse du contexte d'application, identification de la problématique de recherche et la formulation d'hypothèses de recherche ; 2. La création d’un référentiel de connaissances et de compétences dictionnairiques, basé sur des études existantes sur la consultation des dictionnaires [3, 5, 12]. et ancré via une ontologie de concepts lexicaux [10]; 3. Le développement d’une banque de tâches d'apprentissages authentiques [3], liant chaque tâche avec les compétences et connaissances qu'elle mobilise ; 4. L’élaboration des explications théoriques, des rétroactions et des indices pour accompagner les apprenants lors de la complétion des activités ; 5. Le développement de l'interface de STI-DICO en utilisant les technologies Web, notamment la plateforme Open edX pour servir d'interface ; La création des composants adaptatifs de STI-DICO (moteur de raisonnement, modèle de l'apprenant, module tuteur) en employant la suite CTAT (Cognitive Tutor Authoring Tools (Cognitive Tutor Authoring Tools: ctat.pact.cs.cmu.edu/)) et en les connectant à l'interface en utilisant le protocole LTI. Les deux premières itérations du projet ont été complétées et évaluées, et les itérations 3 et 4 sont en cours de complétion. Conformément avec l'approche DBR, chaque itération sera évalué par des praticiens du domaine, que ce soit des chercheurs en lexicologie, des experts de la didactique des langues ou des futurs enseignants eux-mêmes, afin d'assurer de garder le lien avec le contexte d'application de notre système. 3. Le référentiel de connaissances et compétences dictionnairiques Le cœur de STI est le référentiel de connaissances et de compétences dictionnairiques, qui représente toutes les connaissances du domaine que l’apprenant est amené à acquérir via le STI. Il s’agit d’une structure multicouches, composé de 125 items (compétences et connaissances), chacun relié à un ou plusieurs des 25 concepts lexicaux (tirés de l'ontologie GTN), structuré autour de 4 pôles de situations (lecture, rédaction, amélioration de texte, et correction de texte). Afin d'assurer notre correspondance étroite avec notre contexte éducatif cible, nous avons fait une analyse approfondie des exigences du Ministère de l'Éducation en ce qui concerne les enseignants et les étudiants, couplé avec une revue des écrits extensive des études existantes 58 Journée du LICEF 2016 sur la consultation des dictionnaires [3, 5, 12], en faisant des liens entre les étapes de consultation du dictionnaire et les compétences qu'elles sollicitent. Nous avons également établi des liens entre notre référentiel et GTN, une ontologie des savoirs linguistiques [10], ce qui nous a permis de relier les concepts lexicaux sollicités par les compétences avec leurs définitions et leurs liens hiérarchiques tels que définis dans l'ontologie. Afin de rester fidèle à la méthodologie DBR, nous avons évalué la totalité de notre référentiel avec trois experts dans les domaines de la linguistique, la lexicologie et la didactique des langues. Les résultats de l'évaluation ont été très encourageants et le traitement des commentaires et des suggestions des évaluateurs nous a permis d'affiner davantage nos définitions et ajouter de nouveaux éléments au référentiel. Suite à l'évaluation des experts, nous avons restructuré notre référentiel pour mettre en avant le lien entre les compétences et les situations qui les mobilisent, y compris les étapes de consultation du dictionnaire dans lesquelles chaque compétence est utilisée. Ceci a mené à la création d'ensembles d'activités d'apprentissage authentiques visant à favoriser le développement de ces compétences. Pour valider ces activités empiriquement. nous avons conçu un protocole de verbalisation [2] dans lequel on demandera à des scripteurs de niveau différents d'effectuer différents types de tâches en verbalisant les étapes suivis, leurs réflexions et leurs processus cognitifs. Ceci va nous permettre de confirmer les liens que nous avons établi entre connaissances et compétences, ainsi que de rajouter des compétences manquantes à notre modèle. Cette expérimentation est une nouvelle approche à l'étude de la consultation du dictionnaire, et est prévue pour juin 2016. 4. L’implémentation informatique et la suite du projet Nous sommes en plein développement informatique du prototype de STI-DICO, en utilisant des technologies Web et open-source, et inspirés des architectures modulaires traditionnelles des STI [6] et de l'adaptation à double boucle proposée par Van Lehn [11]. Cependant, nous nous sommes inspirées de propositions récentes qui visent à rendre les STI plus légers et plus modulaires, afin de faciliter leur diffusion sur le Web et leur adaptabilité aux contenus variés [1, 7]. Nous travaillons présentement à rendre notre prototype plus performant et d’y rajouter des composantes, notamment le modèle de l’étudiant, qui représentera la progression de l’apprenant à travers le temps, et le module tuteur, qui déterminera le comportement du STI au sein des activités d’apprentissage. Une fois complété, STI-DICO sera déployé via Open edX, une plateforme d’apprentissage, intégrant l’interface et les fonctionnalités de ce dernier avec des composantes intelligentes que nous aurons crées. En se servant de notre référentiel de connaissances et de compétences dictionnairiques, STI-DICO sera en mesure d’effectuer le diagnostic cognitif de l’apprenant et de lui fournir un guidage adapté à son niveau et à ses besoins. Grâce à son architecture modulaire, STI-DICO pourra par la suite être adapté pour d'autres domaines de la connaissance, d'autres clientèles, et d'autres langues, et déployé via le Web afin d'atteindre des apprenants sur une échelle mondiale. Références bibliographiques 1. Aleven, V., Sewall, J., Popescu, O., Xhakaj, F., Chand, D., Baker, R., Wang, Y., Siemens, G., Rosé, C., Gasevic, D. (2015) The Beginning of a Beautiful Friendship? Intelligent Tutoring Systems and MOOCs. Proceedings of the 17th International Conference on Artificial Intelligence in Education, 525-528 59 Journée du LICEF 2016 2. Ericsson, A.K. et Simon, H. A. (1993). Protocol Analysis : Verbal Reports As Data. Cambridge : MIT Press. 3. Lew, R. (2013). From paper to electronic dictionaries: Evolving dictionary skills, dans Kwary, D.A., Wulan, N. et Musyahda, L. (eds.), Lexicography and Dictionaries in the Information Age. Selected papers from the 8th ASIALEX international conference. Surabaya: Airlangga University Press, 79–84. 4. Ministère de l’Éducation du Québec. (2006). Programme de formation de l’école québécoise du niveau préscolaire et primaire. Québec : MEQ. 5. Nesi, H. (1999). The Specification of Dictionary Reference Skills in Higher Education. Dans Hartmann, R. R. K. (ed.). Dictionaries in Language Learning. Recommendations, National Reports and Thematic Reports from the Thematic Network Project in the Area of Languages, Sub-Project 9: Dictionaries, 53-67. Berlin : Freie Universitat Berlin. 6. Nkambou, R., Bourdeau, J., & Mizoguchi, R. (2010), Studies in Computational Intelligence: Vol. 308. Advances in Intelligent Tutoring Systems. Berlin, Heidelberg: Springer 7. Nye, Benjamin D. (2015) AIED Is Splitting Up (Into Services) and the Next Generation Will Be All Right. Proceedings of the Workshops at the 17th International Conference on Artificial Intelligence in Education 8. Reeves, T., Herrington, J. and Oliver, R. (2005) Design Research: A Socially Responsible Approach to Instructional Technology Research in Higher Education. Journal of Computing in Higher Education, 16(2), 97-116. 9. Scott, J., Nagy, B. et Flinspach, S. (2008). More than merely words: Redefining vocabulary learning in a culturally and linguistically diverse society. Dans A. Farstrup et J. Samuels (dir.). What Research Has to Say About Vocabulary Instruction. 182-210. 10. Tremblay, O. et Polguère, A. (2014). Une ontologie des savoirs linguistiques au service de la didactique du lexique. Actes du Congrès Mondial de Linguistique Française. 11. Van Lehn, K. (2006) The Behavior of Tutoring Systems. International Journal of Artificial Intelligence in Education 16, 227–265. 12. Wingate, U. (2004). Dictionary use — the need to teach strategies, The Language Learning Journal, 29(1), 5-11 60 Journée du LICEF 2016 XIII. Détermination d’un patron représentatif de la cinématique 3D du genou à l’aide d’une analyse fonctionnelle des donneés Imen Mechmeche, Amar Mitiche, Youssef Ouakrim, Jacques A. De Guise et Neila Mezghani 1 Institut National de la Recherche Scientifique, INRS-EMT, Montréal, Quebec, Canada, Laboratoire de recherche en Imagerie et Orthopédie, École de technologie supérieure, Centre de recherche du Centre hospitalier de l’Université de Montréal, Montréal, Canada, 3 Centre de Recherche LICEF, TELUQ university, Montreal, Canada, 2 Résumé Le but de cette étude est de déterminer un patron représentatif des signaux cinématiques tridimensionnels (3D) du genou. Ces signaux correspondent à des courbes continues décrivant la variation en fonction du temps des angles de rotation du genou dans les plans sagittal, frontal et transverse durant un cycle de marche. La détermination d’un patron représentatif à partir de ces courbes est confrontée à une grande complexité qui est due principalement à la présence des courbes aberrantes et à la variabilité en phase entre les différentes courbes. Nous proposons une approche basée sur l’analyse fonctionnelle des données cinématiques qui consiste à (1) éliminer les courbes aberrantes à l’aide de l’indice MBD (Modified Band Depth Index) et (2) à minimiser la variabilité à l’aide de la technique curve registration. Finalement le patron retenu est défini par une moyenne des courbes traitées. 1. Introduction L’analyse des données cinématiques du genou est une nouvelle approche qui a permis une meilleure compréhension de son mode fonctionnement en état de mouvement. Ce type d’analyse permet également d’effectuer un diagnostic non invasive des différentes pathologies musculosquelettiques du genou [1]. En effet, plusieurs études dans la littérature ont permis d’effectuer une classification des patients saints et arthrosiques en se basant sur l’analyse de ces données cinématiques [2] [3]. Une telle analyse se base généralement sur un patron représentatif, qui décrit la variation de chacun des trois angles de rotation (flexion, abduction, rotation) durant un cycle de marche. Ce patron est déduit à partir d’une quarantaine d’observations pour chaque sujet, qui constituent les variations des angles de rotation du genou durant plusieurs cycles de marche. Cependant, l’extraction de ce patron est une tâche complexe. En effet les courbes observées souffrent d’une part de la présence de données aberrantes, et d’autre part de la variabilité en phase entre les cycles superposés. Ceci est traduit par un décalage remarquable des 61 Journée du LICEF 2016 extremums, ce qui fausse naturellement la moyenne (Généralement considérée comme le patron représentatif) suite à une perte de données au niveau de la forme et de ces valeurs clés. Généralement la méthode la plus fréquente dans la littérature c’est de moyenner les cycles les plus répétitifs: ceux qui maximisent le coefficient d’intercorrelation [4]. Cette méthode ne tient pas compte de l’aspect continu des courbes et de la corrélation temporelle existante. Ainsi, ce que nous proposons dans ce travail c’est d’utiliser l’analyse fonctionnelle de données (FDA) pour un traitement des observations avant de les moyenner. 2. Méthode L’approche proposée est composée de deux étapes comme expliqué dans la Fig. 1. La première consiste à éliminer les courbes aberrantes en utilisant l’indice MBD [5] [6] , puis la deuxième permet de minimiser la variabilité en phase entre les courbes en effectuant un alignement temporel (curve registration) [7]. Ces deux outils utilisés sont propre à l’analyse fonctionnelle de données (FDA): un outil statistique avancé qui représente une continuation de l’analyse multivariée dans le cas des courbes fonctionnelles. L’avantage étant de permettre l’utilisation des informations caractéristiques des signaux continus (forme de la courbe, déphasage, dérivée) généralement perdus avec les outils de la statistique classique. Figure 1 : Diagramme en bloc de l’approche proposée Le patron proposé est obtenu finalement par une simple moyenne des données traitées. La validation est effectuée à l’aide de la distance de Frechet, en mesurant le degré de similarité entre le patron proposé et les données d’origine. Base de données Les données cinématiques ont été collectées à l’aide de l’outil KneeKGTM (Emovi Inc., Laval, QC, Canada) durant un enregistrement qui dure 45 s. Pour chaque angle, la courbe complète de l’essai est filtrée [8] et découpée pour séparer les différents cycles de marche. Nos observations sont ainsi constituées par la superposition de ces cycles découpés. 4 62 Journée du LICEF 2016 Elimination des courbes aberrantes Nous proposons d’identifier les données aberrantes à l’aide d’un outil de l’analyse fonctionnelle qui est l’indice MBD (Modified band depth index). Cet indice permet de mesurer la centralité de chaque courbe parmi les observations. Il correspond à la moyenne parmi toutes les bandes possibles de la proportion du temps que puisse passer une courbe à l’intérieur d’une bande. Mathématiquement cet indice est calculé comme suit [9]: 𝑛 𝑀𝐵𝐷L 𝑥 = 2 N6 U U /56 35/V6 𝜆 𝑡𝜖𝐼|𝛼/3 ≤ 𝑥(𝑡) ≤ 𝛽/3 𝜆(𝐼) ou 𝛼/3 = 𝑚𝑖𝑛 𝑥/ 𝑡 , 𝑥3 (𝑡) , 𝛽/3 = 𝑚𝑎𝑥 𝑥/ 𝑡 , 𝑥3 (𝑡) , et 𝜆(. ) est la mesure de Lebesgue ℝ [9]. Les courbes aberrantes sont par la suite identifiées par un tri des observations selon la valeur de l’indice MBD, de la courbe la plus centrale (la médiane) à la courbe la moins centrale. Le diagramme en boite [10] de la statistique classique nous permettra de les identifier comme les valeurs extrêmes se situant à une distance supérieur à 1.5 fois l’interquartile (voir Fig. 2). Figure 2: Diagramme en boite pour le cycle de flexion Réduction de la variabilité en phase Pour la réduction de la variabilité en phase, nous avons opté pour la technique curve registration qui consiste à effectuer des transformations non linéaires de l’échelle temporelle de chaque courbe de façon à ce que les extremums et les passages par zéro se produisent au même temps. Mathématiquement parlant cette procédure se résume dans les étapes suivantes: 1) Exprimer les courbes sous forme de fonctions continues à l’aide des combinaisons linéaires de fonctions de bases. Dans ce contexte nous avons opté pour les splines vu que nos signaux ne sont pas périodiques [7]: 𝑓 𝑡 = Y /56 𝐶/ 𝜙/ (𝑡) 2) Calculer la courbe moyenne des observations û 𝑡 3) Pour chaque observation calculer la fonction de déformation temporelle [11] qui minimise la fonction objective suivante : 63 Journée du LICEF 2016 ème 8 4) 𝐽 = 4 /56 ` 𝑌/ 𝑤/ (𝑡) − û[𝑡] , ou N est le nombre de courbes retenues et 𝑌/ la i courbe. En d’autres termes, nous essayons d’aligner chaque courbe avec la moyenne des observations On réitère les étapes 2 et 3 jusqu’à convergence. Le résultat de cette étape est illustré par la Fig. 3. Figure 3 : Effet de l’alignement avec la technique : curve regisration 3. Résultats et validation Pour valider notre approche nous avons comparé notre patron définit par la moyenne des observations traitées à deux autres patrons utilisés dans la littérature qui sont la moyenne des données brutes et la moyenne des 15 cycles les plus répétitifs. La comparaison est faite en se basant sur l’hypothèse suivante : Le patron le plus représentatif est celui qui ressemble le plus aux données d’origines retenus après la suppression des données aberrantes. Cette ressemblance est évaluée à l’aide de la distance de Frechet [12]. Ainsi, pour chaque patient de la base de données on calcule 3 moyennes qui correspondent à la moyenne des distances de chaque patron par rapport aux données valides retenues pour ce patient. Le patron le plus représentatif est celui qui correspondra à la distance minimale entre ces 3. Le Tableau 1 résume les résultats obtenus et la Fig. 4 illustre la différence entre les 3 patrons. Figure 4 : Différence entre les différents patrons l’abduction/adduction et (c) la rotation interne/externe. pour la (a) flexion/extension, (b) 64 Journée du LICEF 2016 Tableau 1: Pourcentage des cas ou le patron proposé est plus représentatif que la moyenne des données brutes et la moyenne des 15 observations les plus corrélées. Flexion Abduction Rotation Moyenne des données brutes 70% 65% 78% Moyenne des 15 observations les plus corrélées 72% 75% 76% 4. Conclusion L’objectif de cette étude était de déterminer un patron représentatif des données cinématiques tridimensionnelles du genou. L’approche proposée consiste à effectuer un prétraitement des observations afin d’obtenir une moyenne plus robuste et représentative. Le traitement consiste à éliminer les courbes aberrantes en utilisant l’indice MBD, puis à minimiser la variabilité à l’aide de la technique curve registration. L’apport de ce travail réside essentiellement dans l’exploitation des outils de l’analyse fonctionnelle pour l’extraction du patron, d’autant plus, nous estimons que l’amélioration de la précision obtenue permettra une meilleure analyse et de meilleurs résultats de classification. Références bibliographiques [1] V. Medved, Measurement of Human Locomotion. CRC Press, 2000. [2] N. Mezghani, S. Husse, K. Boivin, K. Turcot, R. Aissaoui, N. Hagemeister, J. De Guise, et al., “Automatic classification of asymptomatic and osteoarthritis knee gait patterns using kinematic data features and the nearest neighbor classifier,” Biomedical Engineering, IEEE Transactions on, vol. 55, no. 3, pp. 1230–1232, 2008. [3] N. Mezghani, Y. Ouakrim, A. Fuentes, N. Hagemeister, R. Aissaoui, M. Pelletier, and J. de Guise, “Knee osteoarthritis severity assessment using knee kinematic data classification,” Osteoarthritis and Cartilage, vol. 20, p. S97, 2012. [4] A. Duhamel, J. Bourriez, P. Devos, P. Krystkowiak, A. Destee, P. Derambure, and L. Defebvre, “Statistical tools for clinical gait analysis,” Gait & posture, vol. 20, no. 2, pp. 204–212, 2004. [5] S. López-Pintado and J. Romo, “On the concept of depth for functional data,” Journal of the American Statistical Association, vol. 104, no. 486, pp. 718–734, 2009. [6] M. Febrero, P. Galeano, and W. González-Manteiga, “Outlier detection in functional data by depth measures, with application to identify abnormal nox levels,” Environmetrics, vol. 19, no. 4, pp. 331–345, 2007. [7] J. Ramsay and X. Li, “Curve registration,” Journal of the Royal Statistical Society. Series B, Statistical Methodology, pp. 351–363, 1998. [8] R. Aissaoui, S. Husse, H. Mecheri, G. Parent, and J. De Guise, “Automatic filtering techniques for three-dimensional kinematics data using 3d motion capture system,” in Industrial Electronics, 2006 IEEE International Symposium on, vol. 1, pp. 614–619, IEEE, 2006. [9] A. Arribas-Gil and J. Romo, “Shape outlier detection and visualization for functional data: the outliergram,” Biostatistics, vol. 15, no. 4, pp. 603–619, 2014. [10] Y. Sun and M. G. Genton, “Functional boxplots,” Journal of Computational and Graphical Statistics, vol. 20, no. 2, 2011. [11] M. Müller, “Dynamic time warping,” Information retrieval for music and motion, pp. 69–84, 2007. [12] H. Alt and M. Godau, “Computing the fréchet distance between two polygonal curves,” International Journal of Computational Geometry & Applications, vol. 5, no. 01n02, pp. 75–91, 1995. 65 Journée du LICEF 2016 XIV. Analyse de complexité des données cinématiques tridimensionnelles du genou Imen Mechmeche1,2, Amar Mitiche1, Youssef Ouakrim2,3, Jacques A. De Guise2 et Neila Mezghani2,3 1 Institut National de la Recherche Scientifique, INRS-EMT, Montréal, Quebec, Canada, Laboratoire de recherche en Imagerie et Orthopédie, École de technologie supérieure, Centre de recherche du Centre hospitalier de l’Université de Montréal, Montréal, Canada, 3 Centre de recherche LICEF, TÉLUQ, Québec, Canada. 2 Résumé L'analyse de la marche à partir des données cinématiques du genou offre des informations importantes sur la fonction de la locomotion humaine. Ces données ont été récemment promues pour le diagnostic des pathologies de genou à travers leur classification. Le but de cette étude est d'analyser la complexité intrinsèque des données cinématiques en vue de leur classification. Nous proposons d'évaluer deux mesures : le chevauchement entre les attributs et la séparabilité des classes. Les résultats obtenues prouvent que l'ordre de complexité des données cinématiques est assez élevé comparé à celui d'autres ensembles de données utilisées dans la littérature comme données de référence. 1. Introduction L’analyse de la marche à partir de données cinématiques du genou (angles de flexion/extension, d’abduction/adduction et de rotation interne/externe) offre des informations sur la fonction de locomotion humaine [1] [2] . Plusieurs études ont montré la valeur ajoutée et la pertinence d’une analyse cinématique pour l’aide au diagnostic de pathologie de genou à travers leur classification [3] [4]. Cependant, une telle classification est difficile pour deux raisons. Premièrement, les données cinématiques de chaque sujet sont fournies sous la forme d’un vecteur de mesures de grande dimension rendant l’analyse vulnérable à la malédiction de la dimensionnalité [5]. Deuxièmement, ces données présentent une grande variabilité intra-classe et une petite variabilité inter-classe [6]. La figure 1 illustre les données cinématiques tridimensionnelles de deux classes: une classe de données asymptomatiques (AS) et une classe de données arthrosiques (OA). Plusieurs travaux de recherche ont appréhendés la classification de données cinématiques pour discriminer une classe de sujets sains d’une classe de sujets pathologiques [7]. Cependant aucune n’a investigué l’analyse de la complexité intrinsèque de ces données. Le but de cette étude est d’analyser la complexité des données cinématiques tridimensionnelles du genou et ce indépendamment de la méthode de classification à étudier. Il s’agit de la première étude qui aborde la problématique de la complexité de ce type de données avant d’investiguer leur classification. 66 Journée du LICEF 2016 Figure 1: Illustration des données cinématiques tridimensionnelles des deux classes: asymptomatiques (AS) et arthrosiques (OA) : (a) la flexion/extension, (b) l’abduction/adduction et (c) la rotation interne/externe 2. Mesures de complexité La mesure de la complexité s’est basée sur l’évaluation des frontières des classes de point de vu séparabilité, chevauchement et caractéristiques géométriques. Nous avons évalué deux groupes de mesures: (1) Mesure de chevauchement entre les points d’intérêt et (2) Mesure de la séparabilité des classes [8]. Mesure de chevauchement entre les attributs Cette mesure évalue la capacité des attributs à séparer les instances des différentes classes [9]. Dans notre étude, ces attributs sont constitués d’un ensemble de facteurs biomécaniques mesurés sur les courbes de la cinématique. Le chevauchement a été évalué via plusieurs paramètres notamment : Le ratio maximal de Fisher (Maximum Fisher’s discriminant ratio) F1, le chevauchement interclasses (Overlap of the per-class bounding boxes) F2, et l’efficacité maximale des points d’intérêts (maximum individuel feature efficiency) F3. Le paramètre F1 quantifie la distance entre les centres des deux classes, en se basant sur chacun des attributs individuellement comme décrit par l’équation 1. 𝐹6 = 𝑚𝑎𝑥/ 𝜇/6 − 𝜇/8 8 8 8 𝜎/6 + 𝜎/8 (1) 67 Journée du LICEF 2016 où 𝜇/6 et 𝜎/6 sont la moyenne et la variance des de la 1ere classe par rapport au ieme attribut. Une valeur élevée de ce paramètre permet de déduire que les classes sont fort probablement séparable au moins par un attribut. Cependant, la géométrie des classes intervient aussi car les classes peuvent chevaucher même si les centres sont éloignés, ainsi ce paramètre seul ne suffit pas pour trancher. Le paramètre F2 mesure le chevauchement entre les distributions des deux classes. Il est défini par le ratio de l’intervalle de chevauchement contenant des attributs appartenant aux deux classes par l’intervalle entier des attributs : l 𝐹8 = /56 min 𝑚𝑎𝑥 𝑓/ , 𝑐6 , 𝑚𝑎𝑥 𝑓/ , 𝑐8 − max 𝑚𝑖𝑛 𝑓/ , 𝑐6 , 𝑚𝑖𝑛 𝑓/ , 𝑐8 max 𝑚𝑎𝑥 𝑓/ , 𝑐6 , 𝑚𝑎𝑥 𝑓/ , 𝑐8 − min 𝑚𝑖𝑛 𝑓/ , 𝑐6 , 𝑚𝑖𝑛 𝑓/ , 𝑐8 (2) où l est le nombre d’attributs, 𝑓/ est le ieme attribut, et 𝑐6 , 𝑐8 les deux classes. Contrairement à F1 une faible valeur de ce paramètre qui est aussi appelé volume de chevauchement (Volume of Overlap Region) permet de conclure que les attributs permettent de discriminer les données de chaque classe. Le 3eme paramètre F3, calcule l’efficacité de discrimination de chaque attribut et retourne la valeur maximale. Ainsi pour chaque attribut on calcule ratio du nombre d’instances non contenu dans la région de chevauchement par le nombre total des instances. La valeur maximale correspond par la suite au paramètre F3. Mesure de la séparabilité des classes La mesure de séparabilité examine les frontières de chaque classe afin d’estimer la complexité de séparer les instances des différentes classes. Elle peut être évaluée via plusieurs paramètres, notamment : la fraction des points sur la frontière de la classe (The fraction of points on the class boundary) N1 et le ratio de la moyenne de la distance du voisin le plus proche dans la même classe par la distance du voisin le plus proche de l’autre classe (Ration of Average Intra/Inter Class Nearest Neighbour Distance) N2 [10]. Le calcul de N1 est effectué à l’aide de l’arbre couvrant (minimum spanning tree) à travers toute la base de données. Ce paramètre correspond au ratio du nombre de nœuds de cet arbre qui sont connectés et appartiennent à différentes classes par le nombre des instances de la base de données. Si un nœud est connecté à plusieurs nœuds de classes différentes, il est compté juste une fois. Une valeur élevée de N1indique que la majorité des instances sont situées à la frontière de la classe ce qui rend la sa séparation plus difficile. Le paramètre N2 compare l’étalement des instances de la même classe par rapport à la distance des plus proches voisins appartenant aux autres classes. Une faible valeur de N2 permet de conclure que les instances de la même classe sont assez proches dans l’espace des attributs. 𝑁2 = 4p /5q 𝑖𝑛𝑡𝑟𝑎𝐷𝑖𝑠𝑡(𝑒𝑥/ ) 4p /5q 𝑖𝑛𝑡𝑒𝑟𝐷𝑖𝑠𝑡(𝑒𝑥/ ) (3) où 𝑒𝑥/ est une instance et 𝑁r est le nombre d’exemples dans la base de données. 3. Application aux données cinématiques 68 Journée du LICEF 2016 Le tableau 1 résume les résultats de l’analyse de complexité. Les mesures de complexité permettent de déduire l’aspect assez complexe du problème de classification des données cinématiques du genou. Nous remarquons que le paramètre F1 est assez faible ce qui reflète un chevauchement important entre les instances des classes dans l’espace des attributs. Une forte valeur de N2 prouve aussi que les instances de la même classe sont assez dispersées. Les trois bases de données Iris, Abalone et Wine, nous ont servi comme références pour avoir une idée sur l’ordre de grandeur de ces paramètres. La base Abalone qui donne de très bons résultats de classification suit parfaitement le comportement que doivent avoir ces paramètres comme décrit précédemment. Table 1: Mesures de complexité des données cinématiques 3D du genou ainsi que pour d’autres bases de données de référence F1 Données cinématiques 3D 0,38 du genou Iris 16,82 Abalone 14,03 Wine 4,29 F2 F3 N1 N2 8,57 10-14 0,065 0,5 0,94 0,0048 0 3,9 10-5 0,57 0,99 0,76 0,013 4,7 10-4 0,06 0,095 0,025 0,49 4. Conclusion Dans cette étude nous avons analysé la complexité intrinsèque des données cinématiques en utilisant les mesures de chevauchement entre les attributs et la séparabilité des classes. Les résultats obtenus démontrent une grande complexité de ces données comparativement à des bases de données de références. Ces résultats nous orientent vers le besoin d’utiliser des méthodes de prétraitement des données cinématiques avant leur classification et vers l’utilisation de méthodes de classification avancées où les données ne sont pas linéairement séparables. 5. References and Notes [1] J. De Guise, N. Mezghani, A. Fuentes, É. Szmutny, G. Grimard, P. Ranger, N. Hagemeister, R. Aissaoui, T. Cresson, J. Clément, et al., “Method and system for human joint treatment plan and personalized surgery planning using 3-d kinematics, fusion imaging and simulation,” Jan. 16 2013. US Patent App. 13/743,057. [2] V. Medved, Measurement of Human Locomotion. CRC Press, 2000. [3] N. Mezghani, S. Husse, K. Boivin, K. Turcot, R. Aissaoui, N. Hagemeister, J. De Guise, et al., “Automatic classification of asymptomatic and osteoarthritis knee gait patterns using kinematic data features and the nearest neighbor classifier,” Biomedical Engineering, IEEE Transactions on, vol. 55, no. 3, pp. 1230–1232, 2008. [4] N. Mezghani, Y. Ouakrim, A. Fuentes, N. Hagemeister, R. Aissaoui, M. Pelletier, and J. de Guise, “Knee osteoarthritis severity assessment using knee kinematic data classification,” Osteoarthritis and Cartilage, vol. 20, p. S97, 2012. [5] R. O. Duda, P. E. Hart, et al., Pattern classification and scene analysis, vol. 3. Wiley New York, 1973. [6] N. Mezghani, N. Gaudreault, A. Fuentes, A. Mitiche, N. Hagemeister, R. Aissaoui, and J. de Guise, “Identification des patrons de la cinématique du genou par une analyse en composantes principales identification of knee kinematic patterns in normal gait by principal component analysis,” [7] N. Mezghani, K. Boivin, K. Turcot, R. Aissaoui, N. Hagmeister, and J. A. De Guise, “Hierarchical analysis and classification of asymptomatic and knee osteoarthritis gait patterns using a wavelet representation of kinetic data and the nearest neighbor classifier,” Journal of Mechanics in Medicine and Biology, vol. 8, no. 01, pp. 45–54, 2008. 69 Journée du LICEF 2016 [8] T. K. Ho and M. Basu, “Measuring the complexity of classification problems,” in Pattern Recognition, 2000. Proceedings. 15th International Conference on, vol. 2, pp. 43–47, IEEE, 2000. [9] J. Sotoca, J. Sanchez, and R. Mollineda, “A review of data complexity measures and their applicability to pattern classification problems,” Actas del III Taller Nacional de Mineria de Datos y Aprendizaje. TAMIDA, pp. 77–83, 2005. [10] J.-R. Cano, “Analysis of data complexity measures for classification,” Expert Systems with Applications, vol. 40, no. 12, pp. 4820–4831, 2013. 70 Journée du LICEF 2016 Partie II 71 Journée du LICEF 2016 I. DBR, une méthodologie de recherche pour le design d’environnements d’apprentissage Jacqueline Bourdeau Professeur en technologie éducative, Département Science de l’éducation, Télé-université du Québec, Montréal, Canada. Chercheur au Centre de recherche LICEF Télé-université du Québec, Montréal, Canada. Résumé Le Design-Based Research (DBR) est une méthodologie de recherche relativement récente mais à présent bien reconnue pour sa pertinence dans des projets de design d’environnements technologiques en éducation. Comme son nom l’indique, elle s’inspire de la science du design, et est orientée vers la conception d’artefacts; elle réunit les préoccupations théoriques et les considérations de terrain pour le développement de solutions. Un bref rappel historique sera suivi de l’exposé des caractéristiques propres à cette méthodologie, complété par des exemples qui illustrent sa mise en application. 1. Historique La préhistoire du DBR se situe dans les années 1990, principalement avec l’article précurseur d’Ann Brown intitulé Design Experiments (Brown, A. L., 1992), et les travaux fondateurs ont débuté dans les années 2000, principalement grâce au collectif DBR en 2003 (The Design-Based Research Collective, 2003), à l’article paru dans le Journal of the Learning Sciences (Barab, S. & Squire, K., 2004), celui de Wang & Hannafin (2005), intitulé Design-based research and technology-enhanced learning environments, et celui de Herrington et al. (2007). Depuis 2010, DBR a gagné ses lettres de noblesse comme en attestent par exemple les articles de Hannafin (2011) et de Anderson et Shattuck (2012). Certains articles spécialisés en apprentissage des sciences méritent également une mention (Sandoval et Bell, 2004). Au LICEF, dès 2007, un groupe informel s’est constitué avec Marcelo Maina, Isabelle Savard et Rivki Rosenberg sous la responsabilité de Jacqueline Bourdeau, pour une étude collective du DBR. Une série de discussions nous a permis de nous approprier cette méthodologie, particulièrement indiquée pour plusieurs projets du LICEF. 2. Caractéristiques La première caractéristique de la DBR est le double but recherché : l’avancement des connaissances théoriques et la conception itérative d’une solution, les deux éléments étant 72 Journée du LICEF 2016 considéré un ensemble unique; DBR considère fondamental de développer la théorie en lien étroit avec la pratique, et de développer les nouvelles solutions pratiques en lien avec la théorie. La deuxième caractéristique est le mode in situ pratiqué tant au titre de la collaboration avec les acteurs du terrain que pour les tests et micro-expérimentations conduits lors des différentes phases. Ce que l’on pourrait appeler le ‘moteur’ du DBR sont les itérations, qui permettent de questionner les résultats préliminaires et intermédiaires, et de tester de nouvelles idées (théoriques et de conception) lors de l’itération suivante. Ainsi, l’extrant d’une itération devient l’intrant de la suivante, jusqu’à ce que les résultats obtenus soient satisfaisants en lien avec la question de départ. Enfin, DBR se veut flexible au titre des techniques de recherche mises en œuvre lors des différentes itérations, mettant l’accent sur leur pertinence rigoureuse pour le résultat recherché. DBR se distingue de la recherche-action (problème issu du terrain et résolu de concert avec les chercheurs), et de la recherche-développement (pas de prétention théorique, et peut se faire en laboratoire); elle se distingue également des méthodes itératives en génie logiciel ou industriel, qui n’ont pas de prétention de faire avancer les connaissances théoriques. DBR peut être qualifiée de méthodologie microsystémique, en raison des principes de la science des systèmes qui sont mis en œuvre, notamment les boucles d’itération et de la prise en compte de la complexité d’une situation. 3. Exemples Les exemples d’application de la DBR ne manquent pas dans la littérature scientifique. Les exemples qui suivent émanent de projets de recherche et de doctorat auxquels j’ai participé activement. Le projet MazCalc porte sur l’apprentissage des sciences en contextes contrastés afin de mettre en lumière le rôle du contexte en science. Il se déroule depuis 2012 dans le cadre d’une collaboration entre la Guadeloupe et le Québec, et en est à sa troisième itération (Forissier, T.et al., 2013; Forissier, T.et al., 2014; Bourdeau, J. et al.2015) Le projet de doctorat d’Alain Stockless, intitulé ‘Le processus d’adoption d’une innovation pédagogique avec les TIC par les enseignants’ (soutenance le 6 juin 2016), propose une illustration de la DBR en Intégration des TIC en milieu scolaire. Le projet de doctorat d’Olavo Mendes (dépôt final en 2016) applique la méthodologie au design d’un système adaptatif, et le projet de doctorat d’Alexandra Luccioni (dépôt final en 2017), au design d’un système pour développer les compétences dictionnairiques. La thèse de doctorat d’Isabelle Savard (2014, Rlibre) fournit un processus détaillé et rigoureux de la DBR à l’adaptation de la conception pédagogique aux variables culturelles. Références bibliographiques Anderson, T., & Shattuck, J. (2012). Design-based research a decade of progress in education research?. Educational researcher, 41(1), 16-25. Barab, S., Squire, K. (2004) Design based research: Putting a stake in the ground. The Journal of the Learning Sciences, 13(1): 1-14. Brown, A. L. (1992). Design experiments: Theoretical and methodological challenges in creating complex interventions in classroom settings. The journal of the learning sciences, 2(2), 141-178. 73 Journée du LICEF 2016 Forissier, T., Bourdeau, J., Mazabraud, Y. et Nkambou R. (2014). Computing the Context Effect for Science Learning. Dans P. Brézillon et J. Avelino (dir.) Context in Computing. Springer Science ISBN 978-1-4939-1886-7. 17p. Forissier, T., Bourdeau, J., Mazabraud, Y., Nkambou R. (2013). Modeling Context Effects in Science Learning:The CLASH Model. Dans Modeling and Using Context. Proceedings of the 8th International and Interdisciplinary Conference (CONTEXT 2013) (p. 330-335). Berlin, Heidelberg : Springer Verlag, coll. « Lecture Notes in Computer Science », vol. 8175. Bourdeau, J., Forissier, T., Mazabraud, Y., Nkambou R. (2015). Web-Based Context-Aware Science Learning. Dans Proceedings of the 24th International Conference on World Wide Web Companion (p. 1415-1418). Association for Computer Machinery (ACM). Herrington, J., McKenney, S., Reeves, T., & Oliver, R. (2007). Design-based research and doctoral students: Guidelines for preparing a dissertation proposal. Murdoch University, http://researchrepository.murdoch.edu.au/6762/ Sandoval, W., Bell, P. (2004) Design-Based Research Methods for Studying Learning in Context: Introduction. Educational Psychologist, 39(4): 199–201. Reimann, P. (2011) Design-based research. In Methodological Choice and Design (pp. 37-50). Springer Netherlands. The Design-Based Research Collective. (2003). Design-based research: An emerging paradigm for educational inquiry. Educational Researcher, 5-8. Wang, F., & Hannafin, M. J. (2005). Design-based research and technology-enhanced learning environments. Educational technology research and development, 53(4), 5-23. 74 Journée du LICEF 2016 II. Utilisation de la théorie des réseaux pour évaluer la résilience écologique des forêts fragmentées Élise Filotas1,3, Dylan Craven2, Virginie Angers3, Christian Messier3,4 1 LICEF, TELUQ German Centre for Integrative Biodiversity Research (iDiv) 3 Centre d’étude de la forêt, UQAM 4 Institut des sciences de la forêt tempérée, UQO 2 Les changements globaux exercent une pression croissante sur les écosystèmes forestiers, particulièrement dans les régions de densification de la population humaine et des activités agricoles. Les plans d’aménagement des paysages forestiers ignorent souvent l’effet combiné des perturbations locales et de la fragmentation de l’habitat sur la résilience écologique à différentes échelles. La diversité de réponse fonctionnelle (DF) a été proposée comme un indicateur permettant de quantifier la résilience écologique étant donné sa capacité de représenter la variabilité de réponses d’une communauté à une gamme de perturbations. Dans cette étude, nous évaluons dans quelle mesure la connectivité fonctionnelle de forêts fragmentées, une propriété à l’échelle du paysage, peut limiter les impacts des perturbations anthropiques sur la DF à l’échelle locale. Nous avons échantillonné des parcelles de forêt dans le paysage agricole du Centre-du-Québec, et calculé la DF pour quantifier l’effet de l’intensité de l’utilisation de la forêt sur la résilience écologique. Nous avons ensuite construit une carte régionale de DF et en avons extrait un réseau spatial. Figure 1. a) Carte de la région des Bois-Francs dans le Centre-du-Québec. Les triangles rouges indiquent les sites d’échantillonnage. b) Construction du réseau spatial. Chaque nœud du réseau 75 Journée du LICEF 2016 représente une parcelle de forêt et leur taille est proportionnelle à la superficie de celle-ci. Les liens représentent la dispersion potentielle de graines entre les parcelles de forêt. Pour évaluer les effets de la fragmentation sur la DF à l’échelle du paysage, nous avons examiné comment la connectivité fonctionnelle du paysage, mesurée avec la probabilité de connectivité (PC), varie en fonction de la distance maximale de dispersion des graines. Figure 2. Probabilité de connectivité (PC) en fonction des seuils de dispersion maximale des graines. ∗ PC = U/56 U356 𝑓/ 𝑓3 𝑝/3 où fi est la diversité fonctionnelle de la parcelle i et pij est la plus grande probabilité que les graines de i se dispersent jusqu’à j. Finalement, nous avons évalué l’importance de chaque parcelle de forêts au maintien de la DF à l’échelle du paysage en mesurant les fractions de connectivité de PC. Figure 3. Réseau spatiale démontrant l’importance de chaque parcelle de forêt pour le maintien de la diversité fonctionnelle (DF) à l’échelle du paysage. Chaque nœud représente une parcelle de forêt. La couleur des nœuds est fonction de la DF et leur taille est proportionnelle à la fraction de connection de la probabilité de connectivité. 76 Journée du LICEF 2016 Notre analyse a permis de déterminer que dans notre région d’étude la DF est maintenue à l’échelle du paysage par des parcelles qui agissent comme relais intermédiaires dans le transfert des graines. Cette étude met de l’avant une application nouvelle des réseaux spatiaux en forêt fragmentée et illustre le besoin de considérer les effets des perturbations anthropiques simultanément aux échelles locales et du paysage lors de l’élaboration de plans d’aménagement. 77 Journée du LICEF 2016 III. Vers des orthèses cognitives grands publics : la combinaison de la sensibilité au contexte, de la reconnaissance d’activité et de la réalité augmentée Charles Gouin-Vallerand Professeur en informatique, Département Science et Technologie Télé-université du Québec, Montréal, Canada. Chercheur au Centre de recherche LICEF Télé-université du Québec, Montréal, Canada. Chercheur au centre de recherche LICEF, TÉLUQ, Québec, Canada L’intelligence ambiante, une approche visant la mise en place de milieux sensibles aux utilisateurs par des réseaux d’objets communicants (internet of things), est de plus en plus une réalité [1], avec entre autres les environnements intelligents tels que les villes intelligentes et les habitats intelligents. Grâce à la sensibilité au contexte (context awareness) [2], il est possible de construire des systèmes informatiques qui s'adaptent au contexte d'utilisation, aux utilisateurs et à la nature des milieux. De tels systèmes peuvent être utilisés pour assister des utilisateurs dans leurs activités de la vie quotidienne (AVQ), permettant d'améliorer leur productivité, leur autonomie et l'expérience d'interaction avec les systèmes informatiques des environnements intelligents. D’une part, cette intelligence ambiante est décuplée par nos appareils mobiles qui collectent de l’information sur nos activités de la vie quotidienne via les capteurs embarqués et nos interactions avec ces appareils. D’autre part, les nouveaux dispositifs d’interaction humain-machine tels que la réalité augmentée (e.g. Microsoft Hololens, Projet Carton) permettent d’exploiter à fonds cette intelligence ambiante par l’apport d’information en lien avec l’environnement visités par les utilisateurs et les activités en cours. Dans le cadre de cette présentation, j’utiliserai mon programme de recherche portant sur la modélisation et la conception de systèmes sensibles aux contextes, la conception de systèmes de reconnaissance d’activités et la conception d’applications de réalités augmentées, afin d’entrevoir les possibilités technologiques provenant de la combinaison de ces trois champs de recherche. J’orienterai plus particulièrement cette exploration vers la création d’orthèses cognitives grand publics. 1. La sensibilité au contexte Par sensibilité au contexte, nous entendons la capacité d’un système de capter, modéliser et exploiter l’information propre à l’environnement entourant le système, tel que la localisation, le temps, l’identité des utilisateurs [3]. Au cours des dernières années, la grande majorité de 78 Journée du LICEF 2016 mes projets de recherche se sont inscrits dans cette approche de l’informatique, plus particulièrement au niveau de l’intelligence ambiante et de l’informatique mobile. J’ai entre autres proposé un modèle de système sensible au contexte basé sur une approche multicouches macroscopique et microscopique [4] que j’ai appliqué dans plusieurs de mes travaux. Ce modèle propose de diviser le contexte d'un environnement en entités associées : le macro-contexte correspondant aux données agrégées/fusionnées provenant de plusieurs entités d’un milieu, alors que le micro-contexte correspond à une vision intrinsèque et correspondant aux données internes d’une entité (e.g. capteurs, trace d’utilisation, journaux, etc.). 2. La reconnaissance d’activités La reconnaissance d’activité est une discipline de l’intelligence artificielle visant à déterminer et prédire les activités humaines à partir de l’information contextuelle collectée par les systèmes informatiques. À partir de ces modèles de reconnaissance, il est possible de mieux assister les utilisateurs dans leurs tâches, détecter des erreurs ou situations anormales ou bien améliorer les interactions humain- machine. Au cours des dernières recherches, j’ai pu appliquer et créer différentes approches de reconnaissance d’activités. Par exemple, j’ai travaillé à l’analyse de l’usage des applications mobiles, plus particulièrement les transitions d’applications mobiles, basé sur une approche markovienne [5]. Les résultats de ces travaux ont permis de prédire les prochaines applications mobiles chez des utilisateurs de téléphones mobiles, pavant la voie à une amélioration de l’utilisation des applications mobiles par des stratégies de recommandation et de réorganisation des espaces de travail. D’autre part, j’ai travaillé à la reconnaissance des macro-activités à partir de l’emplacement géographique des utilisateurs et de leurs déplacements [6]. Dans le cadre de ces travaux, nous avons été en mesure de reconnaître et prédire en ligne et en temps réels des activités en cours. De plus, ces travaux ont également permis de supporter les changements d’habitude chez les utilisateurs [7]. Enfin, nous avons proposé dernièrement des techniques afin de réduire la consommation énergétique de notre système de reconnaissance d’activité par des algorithmes de régulation du traitement de l’information en fonction du niveau des piles électriques des téléphones intelligents [8]. 3. La réalité augmentée Avec l’essor de nouvelles technologies mobiles et intelligentes et la connectivité des objets tels que les téléphones intelligents, les tablettes et les lunettes intelligentes (e.g. Epson Glass, Google Glass, Microsoft Hololens ), la réalité augmentée [9] est à la portée de plus en plus de la population. Celle-ci permet l’apport d’informations associées à l’environnement des utilisateurs, par l’apposition de contenus sur les objets physiques réels. Par exemple, par l’apport d’informations virtuelles juxtaposées à des œuvres artistiques réelles au cours d’une visite muséale, via les technologies d’affichage de lunettes intelligentes. Il y a actuellement une effervescence dans le développement des technologies de réalité augmentée et leurs applications aux activités humaines. Dans le cadre de mes recherches actuelles, je travaille à la création de systèmes de réalité augmentée (e.g. Projet Carton) [10] et d’applications de réalité augmentée intégrant la sensibilité au contexte, afin de livrer et apporter du contenu ou des services aux utilisateurs. Cette livraison de services est incomplète sans la reconnaissance d’activités qui permet de déterminer le meilleur contenu ou service à apporter aux utilisateurs. 79 Journée du LICEF 2016 4. Défis et perspectives Ainsi, la combinaison de ces trois domaines de recherche permet de créer une synergie, démarrant de la collecte de l’information contextuelle, de la reconnaissance et la prédiction des activités humaines et enfin de l’utilisation de la réalité augmentée comme médium d’interaction entre l’utilisateur et son environnement. Une telle combinaison laisse entrevoir un potentiel énorme quant à la création d’orthèse cognitive en support aux activités humaines. Traditionnellement, le concept d’orthèse cognitive [11] vise principalement les technologies de l’information permettant d’améliorer l’autonomie des utilisateurs ayant des déficits cognitifs (e.g. maladie d’Alzheimer). Toutefois, avec la quantité d’information accessible à partir des systèmes mobiles et les puissances de calcul disponible, nous pouvons entrevoir l’utilisation de ce trio technologique dans des contextes où il serait possible d’améliorer les fonctionnalités cognitives d’utilisateurs en santé dans le cadre de leurs activités de la vie quotidienne. À titre d’exemple, en assistant des travailleurs, en milieu industriel, en leur donnant en temps réel des informations sur leurs tâches à réaliser et sur les conditions de leur environnement, il est possible d’améliorer la productivité et la sécurité au travail. En second exemple, avec un système permettant de détecter les activités de conduite et d’assister les conducteurs en les informant des risques et conditions de conduite, il est possible de réduire les risques associés à la conduite automobile. Enfin, des défis sociétaux et des questions éthiques existent en lien avec de telles orthèses cognitives. Quels sont les impacts sur les fonctions cognitives même des utilisateurs ou quelles sont les charges cognitives que de tels systèmes apportent? D’autre part, de tels orthèses ne peuvent que renforcer le concept du digital divide, où chacun reçoit son information et ses services dans son environnement personnalisé, isolant les utilisateurs de plus en plus les uns des autres. Références bibliographiques G. D. Abowd. 2012. What next, ubicomp?: celebrating an intellectual disappearing act. In Proceedings of the 2012 ACM Conference on Ubiquitous Computing (UbiComp '12). Anind K. Dey. 2001. Understanding and Using Context. Personal Ubiquitous Comput. 5, 1 (January 2001), 4-7. Ryan, N., J. Pascoe and D. Morse. Enhanced Reality Fieldwork: the Context Aware Archaeological Assistant, Archaeology in the Age of the Internet. CAA97. Computer Applications and Quantitative Methods in Archaeology. Proceedings of the 25th Anniversary Conference, University of Birmingham, April 1997 C. Gouin-Vallerand, P. Roy, B. Abdulrazak, S. Giroux, et A. K. Dey. 2012. A macro and micro context awareness model for the provision of services in smart spaces. 10th international smart homes and health telematics conference (ICOST '12). C. Gouin-Vallerand and N. Mezghani. 2014. An analysis of the transitions between mobile application usages based on markov chains. In Proceedings of the 2014 ACM International Joint Conference on Pervasive and Ubiquitous Computing: Adjunct (UbiComp '14 Adjunct). M. Boukhechba, A. Bouzouane, B. Bouchard, C. Gouin-Vallerand, S. Giroux: Online recognition of people's activities from raw GPS data: Semantic Trajectory Data Analysis. Proc. The 8th ACM PETRAE Conference, July 2015, Greece. M. Boukhechba, A. Bouzouane, B. Bouchard, C. Gouin-Vallerand and S. Giroux: Online prediction of people’s next Point-of-Interest: Concept drift support. Proc. 6th international workshop on Human Behavior Understanding, UBICOMP 2015, Osaka 80 Journée du LICEF 2016 M. Boukhechba, A. Bouzouane, S. Gaboury, C. Gouin-Vallerand, S. Giroux, B. Bouchard: Energy Optimization for Outdoor Activity Recognition. Journal of Sensors 2016:1-15 · December 2015. Kato, H., Billinghurst, M. Marker Tracking and HMD Calibration for a video-based Augmented Reality Conferencing System. In Proceedings of the 2nd International Workshop on Augmented Reality (IWAR 99). October 1999, San Francisco, USA. Projet Carton : http://www.carton.mobi/ Martha E. Pollack, Laura Brown, Dirk Colbry, Colleen E. McCarthy, Cheryl Orosz, Bart Peintner, Sailesh Ramakrishnan, Ioannis Tsamardinos, Autominder: an intelligent cognitive orthotic system for people with memory impairment, Robotics and Autonomous Systems, Volume 44, Issues 3–4, 30 September 2003, Pages 273-282 81 Journée du LICEF 2016 IV. Les MOOC et évolution de l’ingénierie pédagogique France Henri Professeure associée en technologie éducative, Département Science et Technologie Téléuniversité du Québec, Montréal, Canada. Chercheuse au centre de recherche LICEF, TÉLUQ, Québec, Canada Résumé Notre contribution s’intéresse aux problèmes d’ingénierie pédagogique des MOOC et à leur arrimage avec une nouvelle logique de conception émanant de l’évolution des technologies. Fondée sur une planification rigoureuse, l’ingénierie pédagogique vise l’efficacité de l’enseignement pour la réalisation d’apprentissages prescrits. Elle s’appuie essentiellement sur l’analyse d’un ensemble de données sur l’apprenant, ses besoins et son contexte pour concevoir des environnements d’apprentissages. Or l’étape d’analyse apparaît difficilement réalisable dans le contexte des MOOC en raison de l’hétérogénéité d’un public de masse, de la diversité des besoins d’apprentissage et de la variété des contextes des participants. Sans ces données, les MOOC peuvent-ils être rigoureusement conçus? Peuvent-ils prétendre à l’efficacité ? Quelle logique de conception devrait s’appliquer? Les logiques de conception, fortement influencées par l’évolution du web, ont été classées sous trois catégories (Bourdet, 2014). La logique du web 1.0, informationnel, réunit un acteur et des ressources associées à des activités; la logique web 2.0, social, ouvre à la relation sociale, à l’utilisateur connecté et à la coconstruction des connaissances; la logique du web 3.0, permanent, ambiant, est fondée sur l’interprétation plus que sur la construction et centrée sur la personnalisation de l’apprentissage. Cette dernière logique étant à se construire, quelle évolution est à prévoir pour l’ingénierie pédagogique MOOC? 1. Introduction La conception d’un MOOC fait appel à l’ingénierie pédagogique, un domaine à la croisée du design pédagogique, de l’ingénierie cognitive et de l’ingénierie des systèmes d’information. L’ingénierie pédagogique applique une méthodologie soutenant l’analyse, la conception, la réalisation et la planification de l’utilisation des systèmes d’apprentissage (Paquette, 2002, p. 106). Elle renouvelle le design pédagogique pour le rendre capable de traiter la complexité des systèmes d’apprentissage basés sur les technologies. Les techniques de modélisation cognitive empruntées à l’ingénierie cognitive sont dès lors mobilisées pour procurer une vue explicite de l’ensemble du système. L’ingénierie des systèmes d’information renvoie aux méthodes de génie logiciel au service du développement de systèmes informatisés efficaces, modifiables et réutilisables. Tout en insistant sur les principes fondamentaux du design pédagogique de systématicité et de cohérence, l’ingénierie pédagogique entend suppléer les faiblesses des 82 Journée du LICEF 2016 méthodes de conception traditionnelles et de développement artisanales qui ne suffisent plus pour traiter la complexité des environnements technopédagogiques. L’ingénierie pédagogique se veut garante d’efficacité, de robustesse, de fiabilité et de réutilisabilité du produit de la conception. Sa démarche prescriptive vise la qualité et la prévisibilité des résultats. 2. Limites de l’ingénierie pédagogique traditionnelle pour la conception des MOOC L’ingénierie pédagogique procède typiquement en cinq phases : analyse, conception, développement, implantation et évaluation du dispositif. L’analyse, pierre d’angle de la conception, porte essentiellement sur le contexte dans lequel le dispositif sera utilisé : contraintes à prendre en compte, besoins d’apprentissage et d’accompagnement à satisfaire. Les données d’analyse permettent au concepteur d’identifier les compétences à développer, les contenus pertinents, les stratégies pédagogiques et les ressources médiatiques et les technologiques à déployer. La conception se décline ainsi en une cascade de choix. Toutefois, dans le cas d’un MOOC, la phase d’analyse s’avère difficile à réaliser en raison de l’hétérogénéité du public de masse. La variété des contextes, la diversité des contraintes et les besoins multiples ne peuvent être pris en compte. Appliquée au MOOC, l’ingénierie pédagogique que nous connaissons atteint ses limites. Une réflexion est en cours pour revoir les pratiques d’ingénierie pédagogique dans le but de donner au participant inscrit à un MOOC une part de responsabilité dans son apprentissage et de l’instrumenter pour le rendre capable de faire ses choix (Bejaoui et al., 2015). Ces travaux mettent à contribution l’analytique des apprentissages et les systèmes de recommandations pour permettre au participant d’adapter le scénario d’apprentissage proposé par le MOOC, d’identifier l’accompagnement et l’aide à l’autogestion à recevoir et le soutien désiré pour la construction de son environnement personnel d’apprentissage. Selon cette approche plus ouverte, la logique de conception demeure basée sur le scénario d’apprentissage qui articule contenus, activités et ressources. Comment aller plus loin dans la réflexion? 3. De la logique de l’offre à la logique de l’utilisateur Bourdet (2014) situe la logique des MOOC par rapport à celle qui domine en formation à distance. Le concept moteur de cette logique est celui de la modélisation qui renvoie à une démarche d’ingénierie permettant aux concepteurs de cerner les profils d’apprentissage, d’anticiper les besoins et les ressources nécessaires et d’établir la base de la construction du dispositif. Les paramètres de cette logique sont ceux qui structurent la logique de l’offre. Cette logique orientée par la demande ou les attentes des utilisateurs propose des dispositifs de formation ouverts et adaptables. Toutefois cette malléabilité ne réussit pas à contrer les taux d’abandons importants. L’incapacité à juguler l’abandon serait, toujours selon Bourdet, la cause du déplacement de la responsabilité du système d’offre vers celle des utilisateurs eux-mêmes, comme le montre le développement exponentiel des MOOC. L’accompagnement qui, en formation à distance, constitue un élément fort de la responsabilité pédagogique des institutions se voit reportée sur les utilisateurs. Cette logique de l’utilisateur mise sur la connectivité, sur le réseautage entre participants sans toutefois qu’il ne soit construit et instrumenté. Elle propose un changement dans la manière de concevoir les MOOC; elle amène à dépasser la notion de ressource et à ne plus gérer la notion de scénario d’apprentissage. Cette évolution prend sa source dans un nouveau rapport aux technologies. 83 Journée du LICEF 2016 4. Nouveau rapport aux technologies Bourdet identifie trois logiques de conception associées à l’évolution du web de l’Internet : la logique du web 1.0, informationnel, qui réunit un acteur et un champ de ressources travaillées sous forme d’activités; la logique web 2.0, social, qui ouvre à la relation sociale comme fin en soi, à l’utilisateur connecté, à la co-construction des connaissances; et la logique du web 3.0, permanent, ambiant, qui travaille sur l’interprétation plus que sur la construction, centrée sur une individualisation des trajets d’apprentissage de plus en plus forte supportée par des technologies de plus en plus puissantes. Cette dernière logique, qui reste à construire, pourrait prendre appui sur l’approche du méta-design issue du domaine des technologies de l’information en relation avec le développement de logiciels participatifs. Le méta-design témoigne d’une culture de la participation qui abolit les frontières entre développeurs et utilisateurs de logiciels. En milieu éducatif, cette approche vise le développement d’environnements d’apprentissage ouverts dont la conception évolutive continue lors de l’utilisation (Fisher, 2012; dePaula et al. 2001). Considérés comme coconcepteurs, les apprenants deviennent des contributeurs à part entière. Une part importante du travail de conception consiste à concevoir le cadre qui permettra à l’apprenant de concevoir son apprentissage. Le méta-design s’emploie ainsi à concevoir la conception. Il s’inspire d’une logique d’émergence, de co-création, de co-évolution et de conception évolutive. Il abolit les frontières entre concepteurs et apprenants. Animé par une culture de participation active, le méta-design exploite la puissance des réseaux et les contenus produits par les apprenants qui ne sont pas pris en compte dans la conception de cours et qui ne sont pas intégrés dans les dispositifs dits innovants comme les MOOC. Plus qu’un changement dans la manière de concevoir les MOOC, ou tout autre type de cours, la logique de l’utilisateur et la conscience d’un rapport nouveau aux technologies promeuvent de nouvelles valeurs et une évolution de notre conception de l’apprentissage comme celle d’un participant Sujet. Références bibliographiques Bourdet, J.-F. (2014). Les problématiques de conception en formation à distance : Logiques et contextes du web, Distancesetmédiationsdessavoirs [En ligne], http://dms.revues.org/808 dePaula, R. et al. (2001). Courses as Seeds: Expectations and Realities. Dans P. Dillenbourg, A. Eurelings, & K. Hakkarainen (éds.), Proceedings of the European Conference on Computer-Supported Collaborative Learning, Maastricht, Netherlands, pp. 494-501. Fischer, G. (2012). Meta-Design: Empowering All Stakeholder as Co-Designers. Handbook on Design in Educational Computing, Routledge, London. Paquette, G. (2002). L’ingénierie pédagogique. Pour construire l'apprentissage en réseau. Québec, PUQ. Bejaoui, R., et a. (2015). Comment personnaliser l’apprentissage dans un cours en ligne ouvert et massif (CLOM) ? Colloque CIRT@ 2015, Université de Sherbrooke 13 octobre. 84 Journée du LICEF 2016 V. OntoCASE4GOWL : Vers un outil sémantique d’édition graphique d’ontologies OWL dans le contexte des utilités électriques chez HydroQuébec Michel Héon Professeur associé, Département Science et Technologie, Télé-université du Québec, Montréal, Canada. Chercheur associé au Centre de recherche LICEF Télé-université du Québec, Montréal, Canada. Résumé Hydro-Québec par son centre de recherche l’IREQ a entrepris depuis plusieurs années un virage important vers les technologies du web sémantique. Afin de faciliter l’intégration de ce nouveau paradigme technologique au sein de son organisation, l’IREQ s’est engagé à fournir à ses utilisateurs ingénieurs électriques des outils graphiques de manipulation et d’interrogations des diverses ontologies réparties dans l’entreprise. Dans ce contexte, OntoCASE4GOWL est notre projet de recherche postdoctoral qui vise à fournir un environnement graphique de modélisation d’ontologie dans le domaine des utilités électrique et qui utilise la syntaxe graphique GOWL qui est polymorphique et typée et qui est aussi conçu pour ce projet. 1. Introduction Hydro-Québec cumule chaque jour une somme gigantesque de données fournies par les équipements de son réseau électrique. Les données sont réparties dans plusieurs bases de données de technologies hétérogènes et interopérabilités par l’utilisation des technologies du web sémantique. À l’étape de sémantisation des données, l’enlignement à l’ontologie commun Information Model (CIM) permet d’associer aux données un vocabulaire commun aux utilités électriques d’Amérique du Nord. L’objectif du projet de recherche de l’IREQ auquel nous sommes attachés est de fournir aux ingénieurs électriques d’HQ, un outil permettant d’éditer des données ontologiques profilées avec le vocabulaire du CIM qui tient compte de deux contraintes importantes au sujet des utilisateurs finaux, soit : 1) les utilisateurs ne sont pas familiers avec les technologies du web sémantique, 2) l’outil doit dialoguer avec les utilisateurs dans le vocabulaire du CIM. Pour l’atteinte de l’objectif, le projet de recherche est divisé en trois étapes : 1) concevoir une syntaxe graphique de l’OWL (G-OWL) qui est polymorphique et typée pour simplifier la modélisation d’une ontologie de type OWL-2; 2) implanter le langage dans un éditeur graphique intégré à l’environnement d’ingénierie ontologique TopBraid Composer; 3) étendre la syntaxe G-OWL pour la modélisation d’ontologie profilée avec le vocabulaire CIM. 2. Conception de la syntaxe Graphical-OWL (G-OWL) 85 Journée du LICEF 2016 Extrait de (Héon, Nkambou et al. 2016) le tableau 1 et 2 présente l’alphabet partiel des entités et des relations de G-OWL. Pour minimiser le nombre de symboles de la syntaxe du G-OWL une surcharge sémantique de chaque symbole a été réalisée en utilisant la technique du polymorphisme et de la typologie des symboles. Ces techniques seront traitées plus en détail lors de la présentation. Une première validation conceptuelle de G-OWL a consisté à associer une représentation graphique G-OWL à chacun des éléments d’expressivité du OWL 2 Primer (W3C 2012). La spécification complète de la syntaxe G- OWL est disponible dans (Héon 2014). 3. Implantation du langage dans OntoCASE4GOWL Présentée à la figure 1, l’architecture 3 tiers d’OntoCASE4GOWL se subdivise en trois segments principaux. La couche Tiers Technologies englobe les modules technologiques nécessaires à la pérennisation des données. La couche Graphiqcal semantic framwork englobe les modules technologiques nécessaires à la visualisation graphique de la syntaxe de G-OWL. 86 Journée du LICEF 2016 Quant à la couche CIM Console framework est englobé par les éléments graphiques permettant d’éditer des ontologies dans le vocabulaire graphique du CIM. Figure 1: Architecture 3 tiers d'OntoCASE4GOWL 4. Extension de la syntaxe G-OWL vers le vocabulaire du CIM Cette étape du projet de recherche qui a débuté depuis peu vise à personnaliser le langage GOWL en vue d’offrir aux ingénieurs un outil d’édition d’ontologies dans le vocabulaire du CIM. La figure 2 présente les différents pictogrammes qui seront implantés dans la syntaxe. La propriété de réflexivité propre aux ontologies sera utilisée pour réaliser l’implantation du vocabulaire CIM. 5. État d’avancement des travaux Présenté à la figure 3, le tableau permet de comparer les diverses représentations graphiques de l’élément Château d‘Ychem Sauterne de l’ontologie wine.owl. On y constate qu’en comparaison avec la représentation avec la Syntaxe Graph et OntoGraph, la syntaxe G-OWL utilise moins de symboles pour représenter l’ontologie. Pour compléter la présentation, une démonstration de l’utilisation d’OntoCASE4GOWL sera présentée. Figure 3 : Tableau comparatif de la représentation du Château d’Yquem Sauterne de l’ontologie Wine.owl 87 Journée du LICEF 2016 Figure 2 : Liste des pictogrammes utilisés chez HQ pour représenter les entités CIM 6. Conclusion Cette présentation aura permis de présenter OntoCASE4GOWL, un outil d’édition graphique d’ontologie de type OWL dans la syntaxe du Graphical-OWL. Le logiciel et la syntaxe G-OWL ont été développés dans le cadre d’un projet de recherche conjoint entre l’UQAM et l’IREQ d’Hydro-Québec. Les résultats préliminaires laissent entrevoir que le logiciel et son langage atteindront la maturité et la viabilité nécessaires à une exploitation future par les ingénieurs d’Hydro-Québec. Références bibliographiques Héon, M. (2014). Web sémantique et modélisation ontologique (avec G-OWL): Guide du développeur Java sous Eclipse, Editions ENI. Héon, M., R. Nkambou, et al. (2016). Toward G-OWL: A Graphical, Polymorphic And Typed Syntax For Building Formal OWL2 Ontologies. Proceedings of the 25th International Conference Companion on World Wide Web. Montréal, Québec, Canada, International World Wide Web Conferences Steering Committee: 39-40. W3C (2012). "OWL 2 Web Ontology Language Primer (Second Edition)." W3C Recommendation 11 December 2012. from http://www.w3.org/TR/owl2-primer/. 88 Journée du LICEF 2016 VI. Conception d’un patron nommé Learning Game Scenario Richard Hotte Professeur en technologie de l’information, Département Science et Technologie Téléuniversité du Québec, Montréal, Canada. Chercheur au centre de recherche LICEF, TÉLUQ, Québec, Canada Résumé La conception de Serious Games (SG) dédiés à l’apprentissage est une opération difficile qui requiert un tissage serré entre les pratiques en ingénierie pédagogique (Instructional Design) et ingénierie du jeu (Game Design) pour être efficace. Malgré d’excellents travaux dans le domaine, le problème de l’équilibre se pose toujours et cela, avec nettement plus d’acuité, dans le cas du développement de l’application mobile d’apprentissage comme celle de Kids Smart Mobile School (KSMS) sous forme d’un SG, car KSMS est en fait une école qui vise à proposer des apprentissages de la maternelle à la fin du secondaire en mathématique et anglais langue seconde. Ce court papier propose une solution par la conception d’un Pattern de Learning Game Scenario applicable aux diverses phases composant la structure pédagogique de KSMS. 1. Introduction Aussi étonnant que cela soit, il existe encore aujourd’hui des populations dans le monde au sein desquelles les enfants n’ont pas accès à l’école (primaire et secondaire) pour des diverses raisons dont, entre autres, des raisons économiques, sociales, familiales, géographiques, de discriminations raciales et, enfin, de disparités des genres comme l’indiquent (Ardt, Hastings, Hopkins, Knebel, Loh et Woods, 2005) pour le Bangladesh. Les travaux de (Kim, Miranda et Olaciregui, 2008; Kim (2009) notent des situations similaires chez les indigènes d’ Amérique du Sud dont celle des travailleurs saisonniers ou itinérants. Il en va de même pour les travaux de (Achoka, Odebero, Maiyo et Mualuko, 2007) concernant l’échec de l’accès des jeunes enfants du Kenya à l’éducation primaire en raison de la pauvreté, des inégalités dans les genres, des disparités régionales. Il est désormais admis que les technologies de l’information peuvent contribuer à atténuer l’impact du problème de l’accessibilité à l’éducation en proposant des applications d’apprentissage mobiles comme une alternative à l’école présentielle à l’intention d’enfants de pays en voie de développement. Plus est, pour Corti, 2006; Squire et Jenkins, 2003, les SG 89 Journée du LICEF 2016 peuvent avoir des impacts positifs sur le développement d’un certain nombre d’habiletés chez l’apprenant, surtout par le caractère métacognitif des SG. 2. Problématique Bien que la documentation scientifique du domaine fasse état de travaux de conception (Moreno-Ger et al. 2008), de bonnes histoires (Prensky, 2001), d’exemples, de prototypes relatifs à la conception de SG appliquée à l’apprentissage ou de Learning Games (LG), une sorte de SG davantage appliqué à des jeux de type de formations professionnelles liées à la gestion de projets ou d’entreprises (Marsifi-Schottman, 2012), leur conception est toujours une opération difficile et mal contrôlée qui, pour être efficace, nécessite un amalgame serré entre les pratiques en ingénierie pédagogique (Instructional Design) et ingénierie du jeu (Game Design). Pour George et al (2013), les Learning Games sont des environnements d’apprentissage numériques qui intègrent des scénarios efficaces fondés sur des stratégies métacognitives. « Pour qu’un LG soit réellement au service de l’apprentissage, ses activités pédagogiques doivent être soigneusement tissées avec le scénario du jeu pour que l’apprenant ressente une motivation intrinsèque à apprendre » (Marsifi-Schottman, 2012). C’est le point critique de la conception d’un SG, car le nœud du problème réside toujours dans l'intégration du contenu pédagogique dans le jeu ou du jeu dans la scénarisation pédagogique sollicitant une collaboration multidisciplinaire entre, minimalement, concepteurs pédagogiques et concepteurs de jeu (Game Designers). Déjà, Moreno-Ger et al. (2008) posaient le problème lorsqu’ils écrivaient que « The motivational and immersive traits of game-based learning have been deeply studied in the literature, but the systematic design and implementation of educational games remain an elusive topic ». Plus exactement, c’est cette question de l’amalgame réussie entre jeu et apprentissage qui pose problème. Effectivement, il est difficile de déterminer quel type de scénarisation pédagogique est le plus approprié à la conception d’un SG, c’est-à-dire susceptible d’offrir toutes les conditions requises à une réelle construction des connaissances chez le joueur-apprenant sans que le jeu prenne le dessus par ses artifices visuels et son dynamisme ou, à l’inverse, que l’aspect pédagogique trop scolaire rende le jeu ennuyeux démotivant le joueur-apprenant. Moreno-Ger et al. (2008) écrivent que « The debate is actually starting to focus more on issues such as the cost of development, the complexity of integrating the games into the curriculum or the need to assess the quality of the learning process ». Dans ces conditions, comment concevoir et réaliser un environnement numérique d’apprentissage fondé sur un scénario efficient, mixant jeu et apprentissage, qui permette au joueur-apprenant de contrôler son apprentissage, c’est-à-dire d’être en mesure d’identifier ce qu’il apprend et comment il apprend et, cela, dans un contexte aussi large que celui d’une école numérique mobile sous forme de SG comme KSMS ? 3. Méthodologie Le scénario pédagogique adapté au jeu devient le point névralgique de la conception d’un SG appliquée à l’apprentissage et constitue le pilier de l’architecture pédagogique d’un environnement d’apprentissage comme KSMS. Alors, comment concevoir jeu et apprentissage comme une seule et même activité du SG KSMS ? La conception des scénarios pédagogiques sur lesquels reposent l’architecture pédagogique de KSMS est guidée par la prise en compte de situations d’autoapprentissage individuel puisque KSMS est une école sans 90 Journée du LICEF 2016 professeurs et de stratégies métacognitives dont celles de l’auto observation, de l’autoévaluation et, plus particulièrement, du debriefing défini dans le contexte d’un SG comme «the processing of game experience to turn it into learning.»(Crookal 2008). Inspiré du constructivisme à la Montessori (1912), la conception de scénarios est orientée sur l’apprenant plutôt que l’enseignant, sur l’interaction de l’apprenant avec son environnement et sur la construction des connaissances dans l’action. The learner constructs his own designs and finds his own solutions to problems and behaves autonomous and independent. According to constructivists, learning is a result of individual meta construction » (Ültanır 2012). Toute approche en éducation présuppose une épistémologie, c’est-à-dire un ensemble de principes théoriques qui la justifie. Dans Montessori and Constructivism, David Elkind (2003) affirme que « Montessori education encompasses all three epistemologies that it has survived and continued to grow as a pedagogical influence ». Ce sont l’empirisme, le nativisme et le constructivisme. On les associe, réciproquement, en éducation, au béhaviorisme, socratisme et au constructivisme. Dans l’approche béhavioriste, l’apprenant explore son milieu naturel pour apprendre, dans la pédagogie socratique on manipule les concepts et les objets pour en déduire des apprentissages et dans l’approche constructiviste pour une mise en opération des connaissances dans une démarche personnelle. En fonction de son activité, l’apprenant est, à tour de rôle, un mime qui imite, un logicien qui déduit ou un architecte qui construit. Cette prise en compte permet d’assurer une progression dans la construction de la connaissance chez l’apprenant. Tableau 1. Les trois positions épistémologiques de base de l’approche constructiviste de Montessori Théorie épistémologique Empirisme Approche éducative Behaviorisme Nativisme Socratisme Constructivisme Constructivisme Activité de haut niveau Rôle l’apprenant son Mime de Explorer environnement Manipuler les objets et Logicien concepts, déduire Mettre en opération, Architecte (de son construire propre apprentissage L’approche constructiviste de Montessori est au cœur de notre conception du pattern Learning Game Scenario permettant la fusion du jeu et de l’apprentissage dans une seule activité. C’est à travers les quatre activités de base que sont explorer, manipuler, opérer et, finalement, s’autoréguler (activité métacognitive) que convergent jeu (aspect ludique) et apprentissage (aspect sérieux) en une activité intégrée. Ce pattern est applicable tout au long du développement de l’architecture cognitive et pédagogique de l’école KSMS à laquelle il donne sa cohérence. La figure 1 représente la modélisation du pattern Learning Game Scenario réalisée avec le langage de modélisation G-MOT, développé par une équipe du Centre de recherche LICEF (Paquette, 2007). L’utilisation de l’approche par objets typés (MOT) a assuré la cohérence du modèle. 91 Journée du LICEF 2016 Figure 1. Le patron nommé Learning Game Scenario 4. Conclusion Les travaux menés dans le projet KSMS qui vise à développer une application d’apprentissage mobile dédiée aux enfants qui n’ont pas accès à l’école sous forme d’un SG ont rapidement mis en évidence le problème de la conception de scénarios d’apprentissage sous forme de SG intégrant jeu et apprentissage dans une même activité à un tel point que l’apprenant joueur les confonde. Pour résoudre ce problème, nous avons créé un pattern de Learning Game Scenario inspiré de l’approche constructiviste de Montessori fondée sur un mixte des théories empiriste, nativiste et constructivisme (à la Piaget) et positionnant l’apprenant au centre de la conception des apprentissages. L’approche Montessori a permis une conception d’assez haut niveau pour fusionner jeu et apprentissage avec les mêmes mécaniques. De point de vue de la conception pédagogique, ce pattern permet d’assurer une progression dans l’apprentissage et de lier étroitement l’activité à l’univers du jeu justement à cause de son niveau d’abstraction. Mais qu’en est-il vraiment du point de vue de l’ingénierie du jeu ? Les travaux de développement d’un prototype de KSMS en cours permettront de mesurer son utilisabilité et son utilité dans la conception globale du SG. Références bibliographiques Achoka, J. S. K., Odebero, S. O., Maiyo, J. K., Mualuko, N. J. (Oct. 2007). Access to basic education in Kenya: inherent concerns. In Educational Research and Review, 2(10), 275-284. Available online at http://www.academicjournals.org/ERR. ISSN 1990-3839 © 2007 Academic Journals. 92 Journée du LICEF 2016 Ardt, K., Hastings, C., Hopkins, K., Knebel, R., Loh J., Woods, R., (2005). Report on Primary Education in Bangladesh: Challenges and Successes. Produced by Bangladesh Bureau of Education Information and Statistics (BANBEIS), and Bangladesh Ministry of Women and Children Affairs (MWCA), 22. Corti, K., (2006). Games based Learning; a serious business application. PIXELearning Limited, 20. Crookal David (2010). Serious Games, Debriefing, and Simulation/Gaming as a Discipline. In Simulation & Gaming, vol. 41 no. 6 898-920. Elkind, D. (2003). Montessori and Constructivism. Montessori life, 15(1), 26. George, S., Lavoué, E., Monterrat, B. (2013). Vers une ludification personnalisée dans une plateforme d'ancrage mémoriel. In Atelier "Serious games, jeux épistémiques numériques", 6ème Conférence Nationale sur les Environnements Informatiques pour l'Apprentissage Humain (EIAH 2013), Toulouse, France, 19-23. <hal00854622>. Kim, P., Miranda, T., Olaciregui, C. (2008). Pocket school: Exploring mobile technology as a sustainable literacy education option for underserved indigenous children in Latin America. In International Journal of Educational Development. 28(4), 435-445. Kim, P-H. (2009). Action research approach on mobile learning design for the underserved. In Educational Technology Research and Development. 57(3), 415-435 Marfisi-Schottman, I. (2012). Méthodologie, modèles et outils pour la conception de Learning Games. Thèse de doctorat en Informatique. Institut National des Sciences Appliquées de Lyon (France), 339. Montessori, M. (1912). The Montessori Method. (A. E. George, trans). New York: Stokes. Moreno-Ger, P., Burgos, D., Martínez-Ortiz, I., Sierra, J-L., Fernández-Manjón. B. (2008), Educational game design for online education. In Computers in Human Behavior. 24(6), 2530–2540. doi:10.1016/j.chb.2008.03.012. Paquette, G. (2007) Ingénierie des connaissances et des compétences. PUF Ste-Foy Prensky, M. (2001) ; Digital Natives, Digital Immigrants Part 1. On the Horizon, Vol. 9 (5), 1-6. Squire, K., and Jenkins, H., (2003). Harnessing the Power of Games in Education. Vol. 3, VISION 8. 33. Ultanir, E., (2012). An Epistemological Glance at the Constructivist Approach: Constructivist Learning in Dewey, Piaget, and Montessori. International Journal of Instruction, 5(2), 195-212. 93 Journée du LICEF 2016 VII. Personnalisation dans les cours en ligne ouverts et massifs Gilbert Paquette Professeur associé en informatique, Département sciences et technologie, Télé-université du Québec, Montréal, Canada. Chercheur au laboratoire LICÉ, entre de recherche LICEF, TÉLUQ, Québec, Canada 1. Introduction : Le défi de la personnalisation Les cours en ligne ouverts et massifs (CLOM) se développent rapidement, partout dans le monde. Le plus grand défi à relever consiste à la personnaliser les apprentissages pour chaque participant, compte tenu de leur grand nombre, jusqu’à plusieurs dizaines de milliers d’apprenants, tous de compétences et de provenances très diversifiées. Avec cet objectif en tête, nous avons entrepris un programme de recherche pour la personnalisation dans les CLOM qui vise notamment à : 1. Modéliser les composantes de divers types de CLOM et les processus d'ingénierie pédagogique utilisés pour les concevoir ; 2. Décrire et analyser les environnements personnels d’apprentissage (EPA) des participants, l’usage qu’ils en font et les stratégies qu’ils mettent en œuvre pour apprendre ; 3. Analyser l’usage des compétences dans les CLOM et leur rôle dans l’évaluation et la personnalisation des activités d’apprentissage ; 4. Mettre en place une instrumentation et une méthode d’analyse des données d’apprentissage des CLOM pour guider la personnalisation des apprentissages. Ces objectifs utilisent des résultats de travaux antérieurs qui ont produit des méthodes et des outils pour la modélisation des connaissances et des compétences des apprenants (MOTplus, GMOT), pour la scénarisation pédagogique des environnements en ligne (Explora, Concepta, Telos), ainsi que pour pour la gestion des ressources éducatives libres (Paloma, Comète). Nous résumons ici quatre projets, ayant fait l’objet de travaux récents ou en cours de réalisation, visant à favoriser la personnalisation dans les CLOM. 2. Persistance dans les CLOM et analytique des apprentissages 94 Journée du LICEF 2016 Un projet pilote (Ulibre) a été réalisé à la TÉLUQ dans lequel deux cours ont été produits et diffusés à l’international en mode CLOM à la fin de 2014 (et repris en février 2016). Les objectifs de ce projet consistaient à évaluer les possibilités offertes par la plateforme Open-edX, à établir un processus d’adaptation des cours en ligne pour une diffusion massive et à définir un modèle de diffusion cible pour les CLOM. En plus du rapport déposé aux instances de la TÉLUQ, nous avons présenté un retour d’expérience de ce projet pilote dans le numéro spécial consacré aux CLOM de la revue internationale RITPU. Nous y avons explicité les principes d’ingénierie pédagogique et le modèle de diffusion des CLOM qui en a résulté (Paquette, Coulombe et Carpentier, 2016). Une analyse des données de l’expérience pilote a été acceptée à la conférence EISTA 2016 (Coulombe, Paquette et Mezghani, 2016). Les données recueillies auprès des quelques 5000 participants tendent à démontrer que l’utilisation de bonnes pratiques et de principes d’ingénierie pédagogique favorisent grandement la participation et la persévérance dans les deux cours. En effet, quant aux nombre d’apprenant actifs, quant à la complétion des cours ou quant aux nombre de messages dans les forums de discussion, on note une augmentation de la participation de près du triple par rapport à la moyenne rapportée dans la littérature. Les recherches se poursuivent avec un plus grand nombre de données, à l’aide de méthodes d’apprentissage statistique et de traitement du langage naturel, dans le cadre du projet de doctorat de Claude Coulombe. La poursuite des recherches dans le domaine de l’analytique des apprentissages sera favorisée par l’implantation du Laboratoire de conception et de diffusion infonuagique (Projet LACDI, FCI) qui offrira d’ici septembre une plateforme matérielle et logicielle pour l’analyse des données massives. 3. La personnalisation des scénarios CLOM À partir d’une modélisation du concept « scénario pédagogique » (compétences visées, activités, acteurs, ressources, etc.), nous avons identifié deux groupes de propriétés favorisant la personnalisation, que nous avons intégrées, sous la forme d’un modèle G-MOT, dans une ontologie des CLOM personnalisés. Cette ontologie a servi de base à une grille d’analyse quantifiée des forces et des faiblesses d’un scénario quant à la personnalisation. Cette ontologie et la grille d’analyse ont été intégrés dans un prototype d'assistance à la conception pédagogique sous la forme d'un scénario exécutable sur la plateforme TELOS. Ce scénario propose à son principal acteur, le concepteur pédagogique (qui peut aussi être un apprenant), un ensemble de tâches à réaliser (scénario de conception) dans le but de concevoir une solution préliminaire de CLOM, spécifiant les composantes adaptables du CLOM et des ressources d'assistance et d'aide à l'autogestion qui seront mises à la disposition des apprenants. Il résulte de l'exécution de ce scénario de conception un devis préliminaire de CLOM incluant, d'une part une analyse de son niveau de personnalisation de l'apprentissage et, d'autre part, des conseils pour augmenter ce niveau. Ce prototype peut être utilisé tôt dans le processus de conception, afin de constituer une solution préliminaire de CLOM en ayant en tête les possibilités de personnalisation de l'apprentissage. Il 95 Journée du LICEF 2016 peut aussi être utile plus tard dans le processus de conception, faire un retour réflexif et revoir les décisions de conception prises préalablement. Ces travaux ont été publiés dans les colloques CIRTA 2015, ENS-Cachan 2016 et CRIFPE 2016 (Béjaoui, Paquette, Basque et Henri, 2016 ; Henri, Paquette, Bejaoui et Basque 2016). Ils ont servi de base à la thèse déposée au DIC par Rim Bejaoui en mai 2016. Cette recherche a permis, d’une part, de clarifier les diverses propriétés de personnalisation de l’apprentissage dans les CLOM et, d’autre part, de montrer qu’un système d’assistance intégrant une ontologie et une grille d’analyse de ces propriétés, pourrait guider utilement le concepteur de CLOM dans sa prise de décision en matière de personnalisation de l’apprentissage. Nous pensons qu’il serait judicieux d’envisager l’intégration d’une tel système d’assistance à des plateformes de développement de CLOM répandues tel que l’outil Studio de la plateforme Open-edX. 4. L’intégration de la gestion sémantique des ressources Un aspect important de la personnalisation dans les CLOM réside dans le choix des ressources qui servent de base à la réalisation des activités d’apprentissage. D’une part, le concepteur pédagogique doit pouvoir bénéficier d’un outil de recherche intelligent pour identifier des ressources à intégrer à ses scénarios, surtout s’il désire offrir des options personnalisées aux apprenants. D’autres part, l’apprenant, en cours d’apprentissage, doit pouvoir sélectionner des ressources en fonction de ses compétences et de ses objectifs, personnalisant ainsi ses apprentissages. Le laboratoire LICÉ a développé un logiciel de deuxième génération, COMÈTE (Paquette, Miara, Bergeron 2015), pour l’indexation et la recherche sémantique des ressources éducatives et des formations sur le Web. Ce logiciel utilise les technologies du Web de données liées (RDF, RDFS, SPARQL, SKOS). Il est actuellement en usage dans les Collèges d’enseignement général et professionnels du Québec (Cegep) et il a été utilisé avec succès dans le projet REFRER de l’OIF en Tunisie et au Maroc. Un devis (Paquette, Colmant, Héon 2016) financé par l’AUF vient d’être déposé pour l’intégration de COMÈTE dans le portail IDNEUF de cette institution qui vise le partage des ressources dans l’ensemble de la francophonie. Lors de la conférence Open Education Global (OEG-2015), j’ai présenté une proposition pour intégrer dans les plateformes de CLOM comme Open-edX, des outils pour le référencement et la recherche des ressources éducatives libres sur le Web de données liées, ainsi que pour le référencement des CLOM eux-mêmes sur des portails comme Ulibre ou IDNEUF pour la recherche de cours en ligne adaptés (Paquette 2015). 5. La personnalisation orientée compétence Nos travaux antérieurs sur l’adaptation des cours en ligne en fonction des compétences actuelles et visées ont été appliqués à la personnalisation dans les CLOM dans l’article de revue « Competency-based personalization for massive on line learning » (Paquette, Marino, Rogozan, Léonard 2015). Cet article se situe dans le domaine du Web sémantique adaptatif. Nous y proposons des solutions pour la personnalisation des CLOM à partir d’un profil des compétences visées et d’un modèle du scénario d’apprentissage du cours. 96 Journée du LICEF 2016 Pour adapter l’apprentissage par des recommandations aux apprenants, on doit pouvoir comparer leurs compétences et celles visées par les ressources et les activités dans le scénario. Nous présentons une méthode de calcul des relations entre compétences sur la base d’un modèle structuré de compétences publié précédemment. Nous utilisons cette méthode pour définir des agents d’assistance que l’on peut intégrer dans tout scénario TELOS, ce qui fournit alors un prototype opérationnel pour l’assistance aux apprenants. Puis nous présentons un processus de personnalisation des CLOM et nous identifions les outils existants ou à construire pour l’implémentation de ce processus. 6. Conclusion Nos travaux sur la personnalisation dans les CLOM sont à leurs débuts mais des orientations claires se dégagent comme base de recherches à venir. Nous sommes convaincus que la qualité de ce type d’environnement d’apprentissage à de grands groupes passe par ce type de processus de personnalisation, que celle-ci soit prévue à priori ou réaliser en cours d’apprentissage par les formateurs et les apprenants. Références bibliographiques Bejaoui, R., Paquette G., Basque J. et Henri, F. (2016) Assistance à la conception de cours en ligne ouverts et massifs soutenant un apprentissage personnalisé. Colloque CRIFPE, 7 mai 2016. Coulombe C., Paquette G. et Mezghani N. (Accepted paper 2016) Improving MOOCs’ Perseverance and Completion Rates Using Best Practice Design Principles. EISTA 20016, July 5-8, 2016 Henri, F., Paquette G., Bejaoui, R. et Basque, J. Les MOOC et l’évolution de l’ingénierie pédagogique. Colloque CRIFPE, Montréal 7 mai 2016. Paquette G., Coulombe, C. et Charpentier, M. (Article accepté 2016) Les cours en ligne ouverts massivement (CLOM) dans une université à distance. Revue international des technologies en pédagogie universitaire (RITPU), Montréal. Paquette, G. Opening up MOOCs for OER management on the Web of linked data. Open Education Global Conference 2015, Banff, April 23rd, 2015 Paquette, G., Colmant, Y. et Héon, M. (2016) Vers un portail sémantique pour IDNEUF – synthèse opérationnelle d’un devis de mise en oeuvre. Rapport présenté à l’AUF, 9 mai 2016 Paquette, G., Marino, O., Rogozan, D. et Léonard, M. (2015) Competency-based Personalization for Massive Online Learning. Springer’s Smart Learning Environments Journal, 2015 Paquette, G., Miara A. and Bergeron. F. (2015), COMETE – An Educational Search Engine on the Web of Linked Data. IEEE Bulletin of the Technical Committee on Learning Technology, Special Issue on eLearning and Linked Open Data. 97 Journée du LICEF 2016 VIII. La prévention des troubles musculosquelettiques chez le personnel infirmier au Québec : l’explication des théories du transfert de connaissances. Saliah Ziam Professeure en gestion des services de santé et des services sociaux, École des sciences de l'administration, Télé-université du Québec, Montréal, Canada. Chercheuse au Centre de recherche LICEF Télé-université du Québec, Montréal, Canada. Résumé La disponibilité des données probantes sur les mesures préventives ne garantit pas en soi leur utilisation par le personnel soignant. Bon nombre de chercheurs soulignent l’importance de bien documenter les conditions du transfert et de l’application de ces données dans le contexte réel des travailleurs. L’objectif de cette étude est d’identifier et d’analyser les barrières à l’application des mesures préventives des troubles musculosquelettiques chez le personnel infirmier du réseau de la santé et des services sociaux au Québec. 1. Problématique Les troubles musculosquelettiques (TMS) liées au travail constituent un problème majeur chez le personnel infirmier et ce, malgré la disponibilité de solides recherches sur les pratiques préventives en santé et en sécurité du travail (SST) (Faurie et al., 2013). Au Québec, en 2013, le secteur de la santé et des services sociaux enregistre, à lui seul, 6590 cas (soit 41,5%) de blessures de type musculosquelettique. Ces cas représentent 28,8% de l'ensemble des nouvelles réclamations pour des lésions professionnelles avec perte de temps (CSST, 2014). Ces données ne seraient que la pointe de l'iceberg, puisque ces statistiques ne considèrent pas les événements sans perte de temps et non déclarés, ni les travailleurs non assurés (ACATC, 2015). Dans ce secteur, le personnel infirmier, un groupe de plus de 65 000 travailleurs, est particulièrement touché par ces blessures liées au travail. Chez ce personnel, les TMS touchent principalement la région du dos et sont souvent causés par le déplacement des patients et des mauvaises postures exerçant une charge excessive sur l’appareil locomoteur (Denis et al., 2009, Alexopoulos et al., 2003, Bernal, 2015). Ces risques pourraient être évités si les infirmières appliquaient de façon plus effective les pratiques de prévention recommandées par la recherche telles des méthodes de travail sécuritaires et l’utilisation de matériel pour les déplacements et pour les soins donnés aux bénéficiaires (Bos et al, 2006, Thomas et al, 2014). Toutefois la disponibilité des recherches sur les mesures préventives, ne garantit pas en soi leur application (Faurie et al., 2013). Bon nombre de ces chercheurs, ont souligné le besoin 98 Journée du LICEF 2016 primordial de mieux diffuser les connaissances issues de la recherche dans ce domaine (Kramer et Cole, 2003) et notamment l'importance de bien documenter les conditions facilitant l’application des pratiques de prévention lorsqu’implantées dans le contexte réel des travailleurs. 2. Objectif Identifier les facteurs facilitant l’application des pratiques préventives chez le personnel infirmier du réseau de la santé 3. Méthode Un sondage en ligne a été réalisé entre le 16 février et le 30 mars 2015, auprès des infirmières auxiliaires, des assistantes infirmières chefs, les infirmières cliniciennes ou conseillères en soins infirmiers et les infirmières praticiennes exerçant dans les différents établissements du réseau public de la SSS du Québec. 399 questionnaires complétés ont été retenus pour analyse. Aussi, deux focus group ont été réalisés pour enrichir l’interprétation des résultats du sondage. 4. Résultats Les premières analyses descriptives montrent que les infirmières : 1) appliquent souvent les principes de déplacements des bénéficiaires (PDSB) mais référent davantage à leur expérience qu’aux données probantes sur les pratiques préventives, 2) souhaitent avoir plus de sensibilisation et de rappel sur leur le lieu de travail, 3) indiquent qu’un expert(e)s en santé et sécurité au travail (ergonome, conseiller(e) en SST, comité de la SST) ou formateur PDSB comme premier choix de sources d’information sur les PP. Par ailleurs, les analyses comparatives de moyennes montrent que l’application des pratiques préventives par le personnel infirmier varie selon le poste, la mission de l’établissement d’affiliation, la formation de base et la formation sur la prévention des TMS offerte par l’employeur. Enfin, les focus group ont permis d’identifier plusieurs barrières à l’application des mesures préventives des TMS sur les lieux de travail tel que : les contraintes temporelles, l’organisation des espaces de travail et la difficulté d’accéder à des équipes de prévention en bon état, une culture de prévention réactive, etc. Références bibliographiques Alexopoulos, E. C., Burdorf, A., & Kalokerinou, A. (2003). « Risk factors for musculoskeletal disorders among nursing personnel in Greek hospitals ». International archives of occupational and environmental health, doi: 10.1007/s00420-003-0442-9. Bernal, D., Campos-Serna, J., Tobias, A., Vargas-Prada, S., Benavides, F. G., & Serra, C. (2015). « Workrelated psychosocial risk factors and musculoskeletal disorders in hospital nurses and nursing aides: a systematic review and meta-analysis ». International journal of nursing studies, doi: http://dx.doi.org/10.1016/j.ijnurstu.2014.11.003 Bos, E. H., Krol, B., Van Der Star, A., & , & Groothoff, J. W. (2006). The effects of occupational interventions on reduction of musculoskeletal symptoms in the nursing profession. Ergonomics, vol.49, nº7, p.706-723. Blando, J.D., O’hagan, E., Casteel, C., Nocera, M.-A. et Peel-Asa, C. (2013). Impact of hospital security programmes and workplace aggression on nurse perceptions of safety, Journal of Nursing Management, vol.21, nº3, p.491-498. 99 Journée du LICEF 2016 Chan, C.C-L, Ho, P-W L., Khoo, L-M et Hong, M-S. (2010). Nurses’ perceptions on the impact of health information system usage in their workplace. Singapoure Nursing Journal, vol.37, nº2, p.19-24. Costa, V.T., Meirelles, B.H.S., Erdmann, A.L. (2013). Best practice of nurse managers in risk management, Revista latino-americana de Enfermagem, vol.21, nº5, p.1165-1171. Cummings, G.G., Estabrooks, C.A., Midodzi, W. K., Wallin, L. et Hayduk, L. (2007). Influence of organizational characteristics and context on research utilization. Nursing Research, vol.56, nº4S, p.S24S39. CSST. (2014). Statistiques sur les lésions attribuables aux TMS en milieu de travail 2010-2013. Commission de la santé et de la sécurité au travail du Québec. Denis, D., St-Vincent, M., Imbeau, D., Jette, C., & Nastasia, I. (2008). « Intervention practices in musculoskeletal disorder prevention: a critical literature review ». Applied Ergonomics, doi: http://dx.doi.org/10.1016/j.apergo.2007.02.002 Estabrooks, C.A., Thompson, D.S., Lovely, J.J.E. et Hofmeyer, A. (2006). A guide to knowledge translation theory. The Journal of Continuing Education in the Health Professions, vol.26, nº1, p.25-36. Faurie, I., Frédéric Planché, Serge Deltor, Camille Ricaud, Anaïs Grau et Céline Guy. (2013). Mieux comprendre le transfert de connaissances en SST : propositions pour une typologie des guides de prévention, Perspectives interdisciplinaires sur le travail et la santé. Grimshaw, J. (2013). Organizational readiness for knowledge translation in chronic care : a review of theoritical composents, vol.8, nº138, p.1-9. Repéré à http://www.implementationscience.com/content/8/1/138 Kramer, D. M., & Cole, D., C. (2003). Sustained, Intensive Engagement to Promote health and Safety Knowledge Transfer and Utilization by Workplaces. Science Communication, 25(1), 56-82. Thomas, D. R., & , & Thomas, Y. L. N. (2014). Interventions to reduce injuries when transferring patients: A critical appraisal of reviews and a realist synthesis. International journal of nursing studies, vol.51, nº10, p.1381-1394. 100 Journée du LICEF 2016 101