Ali Oulhaci, « Modélisation et Simulation Orienté Agent de Comportements Humains dans un Jeu Sérieux (Serious Game) : application à l’apprentissage de procédures en Gestion de Crises » (soutenue en 2014).
Résumé
Les jeux sérieux (serious-games en anglais) sont de plus en plus utilisés dans le domaine de la formation, le but étant alors d’apprendre une ou plusieurs compétences liée(s) à un métier ou à des qualités plus générales, à un ou plusieurs apprenants (joueurs), ceci avec une dimension ludique. Mesurer qualitativement ou quantitativement le succès ou non de cet apprentissage, ce qui relève au final d’un processus d’évaluation du ou des l’apprenant(s), constitue ces dernières années un enjeu majeur dans les jeux sérieux s’ajoutant aux problématiques plus classiques de conception et de scénarisation.Dans un contexte de jeux sérieux multi-acteurs, avec apprentissage de tâches collaboratives réalisées par différents acteurs humains ou virtuels partageant un but commun, cette recherche s’intéresse au processus d’évaluation des apprenants, conduisant à une évaluation tant individuelle que collective. Nous proposons tout d’abord un cadre méthodologique pour l’évaluation des apprenants pour de tels jeux. Ce cadre méthodologique est basé sur le concept « d’espace d’évaluation » associé à un point de vue correspondant à un objectif d’évaluation particulier, Nous proposons ensuite une architecture logicielle spécifique à base d’agents, d’une part permettant à des apprenants humains et des joueurs virtuels d’interagir (simulation de comportements), et d’autre part supportant une évaluation tant individuelle que collective des apprenants. Cette architecture logicielle est implémentée et intégrée au jeu sérieux SIMFOR, et sa mise en oeuvre est illustrée sur un scénario réaliste relatif à la formation à la gestion de crise.
Abstract
Serious Games (SG) are increasingly used in the field of training, SG aims to teach one or more skills(s) related to a business or to more general qualities, to one or more learners (players), this with a playful dimension. Usually, SG aims a specific training objective related to a specific context training which can be linked to a trade (eg fire ), a body of knowledge (school or university), or the acquisition of social skills (conflict management, cooperation …). To Measure the success or failure of this learning is ultimately an assessment process of the learner(s) and in recent years became a major issue in SG in addition to issues classic design and screenwriting.In the context of multi-player SG, with a collaborative tasks learning performed by different learners (or virtual actor) sharing a common goal, our research focuses on the assessment of learning processes, leading to both individual and collective assessment. We propose first a methodological framework for learners assessment. This methodological framework is based on the « Evaluation space » concept associated with a specific view corresponding to a particular assessment objective, leading to the calculation of indicators, based on specific knowledge models representation and assessment. In order to operationalize this methodological assessment framework, we propose a agents based architecture, on the one hand allowing human learners and virtual players (simulation of behavior) interaction, and other hand supporting individual and collective learners’ assessment. This architecture is implemented and integrated to the SIMFOR SG, and illustrated in a crisis management scenario exercise.