Bilan 2006-2009 et projet 2012-2015 - Lina

Transcription

Bilan 2006-2009 et projet 2012-2015 - Lina
Laboratoire d’Informatique de Nantes Atlantique
Bilan 2006–2009
Projet 2012-2015
Version du 12 octobre 2010
LINA, Université de Nantes – 2, rue de la Houssinière – BP 92208 – 44322 NANTES CEDEX 3
Tél. : 02 51 12 58 17 – Fax. : 02 51 12 58 97 – http://www.lina.univ-nantes.fr/
Table des matières
1 LINA
1.1 Présentation du LINA . . . . . . . . . . . . . . . . . . . . .
1.1.1 Génèse et évolution . . . . . . . . . . . . . . . . . .
1.1.2 Equipes et thèmes de recherche du LINA . . . . . .
1.2 Place du LINA dans son environnement . . . . . . . . . . .
1.2.1 Région Pays de la Loire . . . . . . . . . . . . . . .
1.2.2 Fédération AtlanSTIC . . . . . . . . . . . . . . . .
1.2.3 PRES L’UNAM et ED STIM . . . . . . . . . . . . .
1.2.4 Centre INRIA Rennes Bretagne Atlantique (CIRBA)
1.2.5 Pôle de compétitivité ≪ Images et Réseaux ≫ . . . .
1.2.6 Synthèse . . . . . . . . . . . . . . . . . . . . . . .
1.3 Organisation et gouvernance du laboratoire . . . . . . . . .
1.3.1 Modèle d’organisation . . . . . . . . . . . . . . . .
1.3.2 Les équipes de recherche du LINA . . . . . . . . . .
1.3.3 Les trois services supports . . . . . . . . . . . . . .
1.3.4 Gouvernance . . . . . . . . . . . . . . . . . . . . .
1.4 Animation scientifique . . . . . . . . . . . . . . . . . . . .
1.4.1 Grand Séminaire . . . . . . . . . . . . . . . . . . .
1.4.2 Déjeuner sur le pouce . . . . . . . . . . . . . . . . .
1.4.3 DHD et goûter des doctorants . . . . . . . . . . . .
1.4.4 LINA-HEBDO et INTRA-LINA . . . . . . . . . . .
1.4.5 Projets LINA ≪ ouverture et initiative ≫ . . . . . . .
1.4.6 Séminaire LINA au vert . . . . . . . . . . . . . . .
1.4.7 ED-STIM JDOC . . . . . . . . . . . . . . . . . . .
1.5 Ressources humaines / Population et croissance . . . . . . .
1.5.1 Enseignants-chercheurs et chercheurs . . . . . . . .
1.5.2 Personnels administratifs et techniques permanents .
1.6 Ressources financières / Budget . . . . . . . . . . . . . . .
1.6.1 Dotations récurrentes . . . . . . . . . . . . . . . . .
1.6.2 Fonds propres . . . . . . . . . . . . . . . . . . . . .
1.6.3 Analyse et politique de redistribution aux équipes . .
1.7 Formation par la recherche . . . . . . . . . . . . . . . . . .
1.7.1 Masters . . . . . . . . . . . . . . . . . . . . . . . .
1.7.2 Doctorants . . . . . . . . . . . . . . . . . . . . . .
1.8 Bilan scientifique . . . . . . . . . . . . . . . . . . . . . . .
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
13
15
15
15
18
18
20
20
21
21
22
24
24
25
26
28
31
31
32
32
32
32
33
33
34
35
38
41
41
42
44
46
46
47
51
1.8.1 Faits marquants . . . . . . . . . . . . .
1.8.2 Quinze publications distinguées . . . .
1.8.3 Synthèse de l’ensemble des publications
1.8.4 Logiciels . . . . . . . . . . . . . . . .
1.9 Auto-évaluation (analyse SWOT) . . . . . . . .
1.10 Concrétiser la vision : le LINA demain . . . . .
1.10.1 Retour sur les objectifs 2006 . . . . . .
1.10.2 Le changement dans la continuité . . .
1.10.3 Évolution des équipes . . . . . . . . .
1.10.4 Évolution de la gouvernance . . . . . .
1.11 Développement des opportunités . . . . . . . .
1.11.1 INS2I et INRIA . . . . . . . . . . . . .
1.11.2 LabEx Rennes–Nantes-Brest . . . . . .
1.11.3 Plateforme technologique . . . . . . .
1.11.4 Quartier de la création . . . . . . . . .
1.11.5 Nouveau bâtiment LINA . . . . . . . .
1.11.6 Clarification de l’offre de formations .
1.12 Executive Summary . . . . . . . . . . . . . . .
1.12.1 Key Figures 2006-2009 . . . . . . . . .
1.12.2 Highlights 2006-2009 . . . . . . . . .
1.12.3 Current four-year plan . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
51
53
54
54
56
57
57
57
58
59
62
62
62
62
63
63
63
65
65
65
66
2 ASCOLA
General presentation (Chapeau-résumé) . . . . . . . . . . . . . . . . . . .
2.1 Team composition, 30/06/2010 (Composition de l’équipe) . . . . . . . . .
2.2 Salient facts, 2006-2010 (Faits marquants) . . . . . . . . . . . . . . . . . .
2.3 Scientific foundations (Fondements scientifiques) . . . . . . . . . . . . . .
2.3.1 Aspect-Oriented Programming . . . . . . . . . . . . . . . . . . . .
2.3.2 Software composition . . . . . . . . . . . . . . . . . . . . . . . .
2.3.3 Cloud, cluster and grid programming . . . . . . . . . . . . . . . .
2.4 Applications and challenges (Applications et enjeux) . . . . . . . . . . . .
2.5 New results 2006-2010 (Nouveaux résultats) . . . . . . . . . . . . . . . . .
2.5.1 Aspect-Oriented Programming . . . . . . . . . . . . . . . . . . . .
2.5.2 Software composition . . . . . . . . . . . . . . . . . . . . . . . .
2.5.3 Cloud, cluster and grid programming . . . . . . . . . . . . . . . .
2.6 Software (Logiciels) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.7 Contracts and grants (Contrats et subventions) . . . . . . . . . . . . . . . .
2.7.1 Collaborative projects (projets collaboratifs) . . . . . . . . . . . . .
2.7.2 Formal cooperations (accords de coopération) . . . . . . . . . . . .
2.8 Visibility (Rayonnement) . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.8.1 Evaluation of research (évaluation de la recherche) . . . . . . . . .
2.8.2 Promotion of scientific communities (Animation de la communauté)
2.9 Education and research (Formation par la recherche) . . . . . . . . . . . .
2.10 Governance (Gouvernance) . . . . . . . . . . . . . . . . . . . . . . . . . .
2.11 Self-evaluation (Auto-évaluation) . . . . . . . . . . . . . . . . . . . . . . .
2.11.1 Strengths . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
69
69
70
71
73
73
73
74
74
75
75
77
78
78
79
80
82
82
82
83
84
85
86
86
4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2.11.2 Weaknesses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.11.3 Opportunities . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.11.4 Threats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.12 Perspectives 2012-2015 (Projet scientifique) . . . . . . . . . . . . . . . . . . . . . . . .
2.12.1 Reconciling black box and invasive composition . . . . . . . . . . . . . . . . .
2.12.2 High-level abstractions for the manipulation of architectures and their implementations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.12.3 Green IT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.12.4 Evolution of large-scale applications . . . . . . . . . . . . . . . . . . . . . . . .
2.13 Bibliography . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.13.1 Publications de référence de l’équipe dans la période . . . . . . . . . . . . . . .
2.13.2 Bibliographie externe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3 COLOSS
Chapeau-résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1 Composition de l’équipe au 30/06/2010 . . . . . . . . . . . . . . . . .
3.2 Faits marquants 2006-2010 . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Fondements scientifiques . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.1 Spécification et vérification des modèles à objets et composants
3.3.2 Intégration de méthodes formelles et analyse multifacette . . . .
3.4 Applications et enjeux . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4.1 Systèmes critiques, communicants, hétérogènes, embarqués . .
3.4.2 Internet du futur (architectures, composants et services sûrs) . .
3.5 Nouveaux résultats pour la période 2006-2010 . . . . . . . . . . . . . .
3.5.1 Elaboration d’un modèle à composant formel et multi-services .
3.5.2 Vérification des composants et de leurs assemblages . . . . . .
3.5.3 Multiformalisme et analyse multifacette . . . . . . . . . . . . .
3.6 Logiciels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.7 Contrats et subventions . . . . . . . . . . . . . . . . . . . . . . . . . .
3.7.1 Projets collaboratifs . . . . . . . . . . . . . . . . . . . . . . .
3.8 Rayonnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.8.1 Évaluation de la recherche . . . . . . . . . . . . . . . . . . . .
3.8.2 Animation de la communauté . . . . . . . . . . . . . . . . . .
3.9 Formation par la recherche . . . . . . . . . . . . . . . . . . . . . . . .
3.10 Gouvernance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.11 Auto-évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.12 Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.12.1 Publications de référence de l’équipe dans la période . . . . . .
3.12.2 Bibliographie externe . . . . . . . . . . . . . . . . . . . . . . .
4 MODAL
Chapeau-résumé . . . . . . . . . . . .
4.1 Composition de l’équipe au 30/06/2010
4.2 Faits marquants 2006-2010 . . . . . . .
4.3 Fondements scientifiques . . . . . . . .
4.4 Applications et enjeux . . . . . . . . .
.
.
.
.
.
5
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
87
87
88
88
88
89
90
90
91
91
94
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
95
95
96
97
98
99
99
100
101
101
101
101
102
103
105
106
106
107
107
109
110
110
111
113
113
115
.
.
.
.
.
117
117
118
119
121
122
4.5
4.6
4.7
4.8
4.9
4.10
4.11
4.12
4.13
4.4.1 Les systèmes d’information . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.2 Les systèmes ubiquitaires et/ou ambiants . . . . . . . . . . . . . . . . . . . . .
Nouveaux résultats pour la période 2006-2010 . . . . . . . . . . . . . . . . . . . . . . .
4.5.1 Thème - Modèles de spécification et de conception d’architectures logicielles . .
4.5.2 Thème - Modèles d’évolutions structurale et comportementale d’architectures
logicielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Logiciels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Contrats et subventions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.7.1 Contrats directs avec des entreprises . . . . . . . . . . . . . . . . . . . . . . . .
4.7.2 Contrats et projets institutionnels . . . . . . . . . . . . . . . . . . . . . . . . .
4.7.3 Accords de coopération . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Rayonnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.8.1 Évaluation de la recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.8.2 Animation de la communauté . . . . . . . . . . . . . . . . . . . . . . . . . . .
Formation par la recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Gouvernance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Auto-évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Projet scientifique 2012-2015 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.13.1 Publications de référence de l’équipe dans la période . . . . . . . . . . . . . . .
4.13.2 Bibliographie externe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5 AeLoS
Chapeau-résumé . . . . . . . . . . . . . . . . . . .
5.1 Composition de l’équipe au 1/09/2010 . . . . . . . .
5.2 Projet scientifique 2012-2015 . . . . . . . . . . . . .
5.2.1 Description du projet scientifique et objectifs
5.2.2 Stratégie scientifique : fil conducteur . . . . .
5.2.3 Facteurs de réussite et de développement . .
5.3 Bibliographie . . . . . . . . . . . . . . . . . . . . .
5.3.1 Bibliographie externe . . . . . . . . . . . . .
6.4
6.5
124
126
127
128
130
131
131
131
135
137
137
138
138
139
139
141
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
143
143
143
144
145
147
148
148
148
Chapeau-résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Composition de l’équipe au 30/06/2010 . . . . . . . . . . . . . . . .
Faits marquants 2006-2010 . . . . . . . . . . . . . . . . . . . . . . .
Fondements scientifiques . . . . . . . . . . . . . . . . . . . . . . . .
6.3.1 Gestion transparente des données en environnement distribué .
6.3.2 Intégration de participants autonomes . . . . . . . . . . . . .
Applications et enjeux . . . . . . . . . . . . . . . . . . . . . . . . .
Nouveaux résultats pour la période 2006-2010 . . . . . . . . . . . . .
6.5.1 Médiation . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.5.2 Requêtes de type top-k en environnement largement distribué
6.5.3 Accès aux données en contexte sémantiquement hétérogène .
6.5.4 Confidentialité des données . . . . . . . . . . . . . . . . . .
6.5.5 Réplication des données dans les systèmes distribués . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
151
151
152
153
154
155
155
156
157
157
158
158
158
159
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6 GDD
6.1
6.2
6.3
122
122
123
123
6
6.6
6.7
6.8
6.9
6.10
6.11
6.12
6.13
6.5.6 Gestion de l’incertitude des données . . . . . . . . . . .
6.5.7 Test des systèmes pair-à-pair . . . . . . . . . . . . . . .
6.5.8 Gestion de modèles . . . . . . . . . . . . . . . . . . . .
6.5.9 Mémoires transactionnelles pour ordinateurs multi-cœurs
Logiciels . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Contrats et subventions . . . . . . . . . . . . . . . . . . . . . .
6.7.1 Contrats directs avec des entreprises . . . . . . . . . . .
6.7.2 Projets collaboratifs . . . . . . . . . . . . . . . . . . .
6.7.3 Accords de coopération . . . . . . . . . . . . . . . . . .
Rayonnement . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.8.1 Évaluation de la recherche . . . . . . . . . . . . . . . .
6.8.2 Animation de la communauté . . . . . . . . . . . . . .
Formation par la recherche . . . . . . . . . . . . . . . . . . . .
Gouvernance . . . . . . . . . . . . . . . . . . . . . . . . . . .
Auto-évaluation . . . . . . . . . . . . . . . . . . . . . . . . . .
Projet scientifique 2012-2015 . . . . . . . . . . . . . . . . . . .
Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.13.1 Publications de référence de l’équipe dans la période . .
6.13.2 Bibliographie externe . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7 GRIM
Chapeau-résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.1 Composition de l’équipe au 30/06/2010 . . . . . . . . . . . . . . . . . . . .
7.2 Faits marquants 2006-2010 . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.3 Fondements scientifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.3.1 Descriptions concises de masses de données . . . . . . . . . . . . . .
7.3.2 Indexation et interrogation de données . . . . . . . . . . . . . . . . .
7.4 Applications et enjeux . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.5 Nouveaux résultats pour la période 2006-2010 . . . . . . . . . . . . . . . . .
7.5.1 Représentations parcimonieuses pour analyser, interroger et naviguer
7.5.2 Représentations parcimonieuses et données distribuées . . . . . . . .
7.6 Logiciels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.7 Contrats et subventions . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.7.1 Projets collaboratifs . . . . . . . . . . . . . . . . . . . . . . . . . .
7.8 Rayonnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.8.1 Évaluation de la recherche . . . . . . . . . . . . . . . . . . . . . . .
7.8.2 Animation de la communauté . . . . . . . . . . . . . . . . . . . . .
7.9 Formation par la recherche . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.10 Gouvernance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.11 Auto-évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.12 Projet scientifique 2012-2015 . . . . . . . . . . . . . . . . . . . . . . . . . .
7.13 Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.13.1 Publications de référence de l’équipe dans la période . . . . . . . . .
7.13.2 Bibliographie externe . . . . . . . . . . . . . . . . . . . . . . . . . .
7
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
159
160
160
161
162
165
165
165
168
168
168
171
172
173
174
175
177
177
182
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
183
183
184
185
186
186
187
187
188
188
189
191
192
193
195
195
196
196
198
199
200
203
203
208
8 COD
8.1
8.2
8.3
8.4
8.5
8.6
8.7
8.8
8.9
8.10
8.11
8.12
8.13
Chapeau-résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Composition de l’équipe au 30/06/2010 . . . . . . . . . . . . . . . . . . . . . . . . . .
Faits marquants 2006-2010 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Fondements scientifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3.1 Fouille et apprentissage de règles . . . . . . . . . . . . . . . . . . . . . . . . .
8.3.2 Ingénierie des ontologies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3.3 Visualisation des connaissances . . . . . . . . . . . . . . . . . . . . . . . . . .
Applications et enjeux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4.1 Réseaux sociaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4.2 Applications bio-médicales . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Nouveaux résultats pour la période 2006-2010 . . . . . . . . . . . . . . . . . . . . . . .
8.5.1 Fouille de règles : mesures de qualité . . . . . . . . . . . . . . . . . . . . . . .
8.5.2 Fouille visuelle interactive . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.5.3 Analyse structurelle de réseaux sociaux . . . . . . . . . . . . . . . . . . . . . .
8.5.4 Réseaux bayésiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.5.5 Ingénierie des ontologies : similarités sémantiques et alignement . . . . . . . . .
8.5.6 Fouille et optimisation combinatoire . . . . . . . . . . . . . . . . . . . . . . . .
8.5.7 Biomédical : inférence de données manquantes en génotypage et recherche d’homologues distants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.5.8 Décision et théorie des jeux . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Logiciels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Contrats et subventions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.7.1 Contrats directs avec des entreprises . . . . . . . . . . . . . . . . . . . . . . . .
8.7.2 Projets collaboratifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Rayonnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.8.1 Évaluation de la recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.8.2 Animation de la communauté . . . . . . . . . . . . . . . . . . . . . . . . . . .
Formation par la recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Gouvernance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Auto-évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Projet scientifique 2012-2015 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.13.1 Publications de référence de l’équipe dans la période . . . . . . . . . . . . . . .
8.13.2 Bibliographie externe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9 COMBI
Chapeau-résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.1 Composition de l’équipe au 30/06/2010 . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2 Faits marquants 2006-2010 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.3 Fondements scientifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.3.1 Axe Génomique comparative : combinatoire, algorithmique, complexité . . . . .
9.3.2 Axe Biologie des systèmes : modélisation probabiliste, systèmes dynamiques,
théorie des graphes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.4 Applications et enjeux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.4.1 Axe Génomique comparative . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
211
211
212
213
215
215
216
216
217
217
218
219
219
219
220
220
220
221
221
222
222
223
224
225
228
228
229
232
233
234
236
239
239
243
245
245
246
246
248
248
249
250
250
9.5
9.6
9.7
9.8
9.9
9.10
9.11
9.12
9.13
9.4.2 Axe Biologie des systèmes . . . . . . . . . . . . . .
Nouveaux résultats pour la période 2006-2010 . . . . . . . .
9.5.1 Génomique Comparative . . . . . . . . . . . . . . .
9.5.2 Biologie des systèmes . . . . . . . . . . . . . . . .
Logiciels . . . . . . . . . . . . . . . . . . . . . . . . . . .
Contrats et subventions . . . . . . . . . . . . . . . . . . . .
9.7.1 Projets collaboratifs . . . . . . . . . . . . . . . . .
Rayonnement . . . . . . . . . . . . . . . . . . . . . . . . .
9.8.1 Évaluation de la recherche . . . . . . . . . . . . . .
9.8.2 Animation de la communauté . . . . . . . . . . . .
Formation par la recherche . . . . . . . . . . . . . . . . . .
Gouvernance . . . . . . . . . . . . . . . . . . . . . . . . .
Auto-évaluation . . . . . . . . . . . . . . . . . . . . . . . .
9.11.1 Réarrangements Génomiques . . . . . . . . . . . .
9.11.2 Modélisation de la dynamique du vivant . . . . . . .
Projet scientifique 2012-2015 . . . . . . . . . . . . . . . . .
Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . .
9.13.1 Publications de référence de l’équipe hors période .
9.13.2 Publications de référence de l’équipe dans la période
9.13.3 Bibliographie externe . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
10 CONTRAINTES
Chapeau-résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.1 Composition de l’équipe au 30/06/2010 . . . . . . . . . . . . . . . .
10.2 Faits marquants 2006-2010 . . . . . . . . . . . . . . . . . . . . . . .
10.3 Fondements scientifiques . . . . . . . . . . . . . . . . . . . . . . . .
10.3.1 Classification de contraintes et filtrage . . . . . . . . . . . . .
10.3.2 Contraintes dynamiques et problèmes surcontraints . . . . . .
10.3.3 Solveurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.3.4 Continu et discret . . . . . . . . . . . . . . . . . . . . . . . .
10.4 Applications et enjeux . . . . . . . . . . . . . . . . . . . . . . . . .
10.4.1 Problèmes de placement en liaison avec la logistique . . . . .
10.4.2 Emplois du temps avec contraintes réglementaires . . . . . .
10.4.3 Énergie et centre de calcul . . . . . . . . . . . . . . . . . . .
10.5 Nouveaux résultats pour la période 2006-2010 . . . . . . . . . . . . .
10.5.1 Premier résultat: problèmes de placement multidimensionnels
10.5.2 Deuxième résultat: nouveaux modèles d’automates . . . . . .
10.5.3 Troisième résultat: algorithmes de filtrages sur des graphes . .
10.6 Logiciels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.7 Contrats et subventions . . . . . . . . . . . . . . . . . . . . . . . . .
10.7.1 Contrats directs avec des entreprises . . . . . . . . . . . . . .
10.7.2 Projets collaboratifs . . . . . . . . . . . . . . . . . . . . . .
10.8 Rayonnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.8.1 Évaluation de la recherche . . . . . . . . . . . . . . . . . . .
10.8.2 Animation de la communauté . . . . . . . . . . . . . . . . .
10.9 Formation par la recherche . . . . . . . . . . . . . . . . . . . . . . .
9
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
250
251
251
252
253
254
255
257
257
258
259
260
261
261
261
262
264
264
264
267
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
271
271
272
273
273
273
274
274
274
274
274
275
275
275
275
276
276
277
278
279
281
284
284
286
287
10.10Gouvernance . . . . . . . . . . . . . . . . . . . . . . . . .
10.11Auto-évaluation . . . . . . . . . . . . . . . . . . . . . . . .
10.12Projet scientifique 2012-2015 . . . . . . . . . . . . . . . . .
10.13Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . .
10.13.1 Publications de référence de l’équipe dans la période
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
288
289
290
291
291
11 MEO
Chapeau-résumé . . . . . . . . . . . . . . . . . . . . . . . . .
11.1 Composition de l’équipe au 30/06/2010 . . . . . . . . . . . . .
11.2 Faits marquants 2006-2010 . . . . . . . . . . . . . . . . . . . .
11.3 Fondements scientifiques . . . . . . . . . . . . . . . . . . . . .
11.3.1 Analyse par intervalles . . . . . . . . . . . . . . . . . .
11.3.2 Programmation par contraintes . . . . . . . . . . . . . .
11.3.3 Optimisation globale . . . . . . . . . . . . . . . . . . .
11.4 Applications et enjeux . . . . . . . . . . . . . . . . . . . . . .
11.5 Nouveaux résultats pour la période 2006-2010 . . . . . . . . . .
11.5.1 Langages de modélisation et transformation de modèles
11.5.2 Algorithmique parallèle . . . . . . . . . . . . . . . . .
11.5.3 Résolution de contraintes numériques . . . . . . . . . .
11.5.4 Optimisation globale . . . . . . . . . . . . . . . . . . .
11.5.5 Applications . . . . . . . . . . . . . . . . . . . . . . .
11.6 Logiciels . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.7 Contrats et subventions . . . . . . . . . . . . . . . . . . . . . .
11.7.1 Contrats directs avec des entreprises . . . . . . . . . . .
11.7.2 Projets collaboratifs . . . . . . . . . . . . . . . . . . .
11.7.3 Accords de coopération . . . . . . . . . . . . . . . . . .
11.8 Rayonnement . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.8.1 Évaluation de la recherche . . . . . . . . . . . . . . . .
11.8.2 Animation de la communauté . . . . . . . . . . . . . .
11.9 Formation par la recherche . . . . . . . . . . . . . . . . . . . .
11.10Gouvernance . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.11Auto-évaluation . . . . . . . . . . . . . . . . . . . . . . . . . .
11.12Projet scientifique 2012-2015 . . . . . . . . . . . . . . . . . . .
11.13Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.13.1 Publications de référence de l’équipe dans la période . .
11.13.2 Bibliographie externe . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
295
295
296
296
297
297
298
299
299
299
299
300
300
301
301
302
302
303
303
304
304
304
306
306
307
307
308
308
308
312
12 ROOM
Chapeau-résumé . . . . . . . . . . . . . .
12.1 Composition de l’équipe au 30/06/2010 . .
12.2 Faits marquants 2006-2010 . . . . . . . . .
12.3 Fondements scientifiques . . . . . . . . . .
12.3.1 Thème ”optimisation multiobjectif”
12.4 Applications et enjeux . . . . . . . . . . .
12.4.1 Domaine d’application . . . . . . .
12.4.2 Enjeux . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
313
313
314
316
317
318
320
320
320
10
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
12.5 Nouveaux résultats pour la période 2006-2010 . . . . . . . . . . . . . . . . . . . . . . .
12.5.1 Méthode en deux phases multiobjectif . . . . . . . . . . . . . . . . . . . . . . .
12.5.2 Méthode branch and bound multiobjectif . . . . . . . . . . . . . . . . . . . . .
12.5.3 Algorithmes pour la résolution du problème d’affectation linéaire multiobjectif .
12.5.4 Algorithmes pour la résolution du problème de sac-à-dos multiobjectif unidimensionnel en variable binaires . . . . . . . . . . . . . . . . . . . . . . . . . .
12.5.5 Métaheuristiques multiobjectif . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.5.6 Optimisation de la capacité d’infrastructures ferroviaires . . . . . . . . . . . . .
12.5.7 Préférences et optimisation multi-objectif . . . . . . . . . . . . . . . . . . . . .
12.5.8 Avancées sur les travaux plus récents . . . . . . . . . . . . . . . . . . . . . . .
12.5.9 Travaux portés personnellement par Matthias Ehrgott . . . . . . . . . . . . . . .
12.6 Logiciels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.7 Contrats et subventions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.7.1 Contrats directs avec des entreprises . . . . . . . . . . . . . . . . . . . . . . . .
12.7.2 Projets collaboratifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.7.3 Accords de coopération . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.8 Rayonnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.8.1 Évaluation de la recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.8.2 Animation de la communauté . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.9 Formation par la recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.10Gouvernance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.11Auto-évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.12Projet scientifique 2012-2015 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.13Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.13.1 Publications de référence de l’équipe dans la période . . . . . . . . . . . . . . .
322
322
323
323
323
323
324
324
325
325
327
328
328
329
330
331
333
334
334
334
13 OPTI
Fusion des équipes MEO et ROOM . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.1 Composition de l’équipe au 1/09/2010 . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.2 Projet scientifique 2012-2015 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
341
341
342
342
14 TALN
Chapeau-résumé . . . . . . . . . . . . . . .
14.1 Composition de l’équipe au 30/06/2010 . . .
14.2 Faits marquants 2006-2010 . . . . . . . . . .
14.3 Fondements scientifiques . . . . . . . . . . .
14.3.1 Découverte et analyse . . . . . . . .
14.3.2 Comparaison et alignement . . . . . .
14.4 Applications et enjeux . . . . . . . . . . . .
14.4.1 Multilinguisme . . . . . . . . . . . .
14.4.2 Multimodalité . . . . . . . . . . . . .
14.4.3 Recherche d’information . . . . . . .
14.5 Nouveaux résultats pour la période 2006-2010
14.5.1 Découverte et analyse . . . . . . . .
14.5.2 Comparaison et alignement . . . . . .
14.6 Logiciels . . . . . . . . . . . . . . . . . . .
347
347
348
349
350
350
351
351
351
352
352
352
352
354
354
11
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
321
321
321
322
14.7 Contrats et subventions . . . . . . . . . . . . . . . . . . . . . .
14.7.1 Contrats directs avec des entreprises . . . . . . . . . . .
14.7.2 Projets collaboratifs . . . . . . . . . . . . . . . . . . .
14.7.3 Accords de coopération . . . . . . . . . . . . . . . . . .
14.8 Rayonnement . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.8.1 Évaluation de la recherche . . . . . . . . . . . . . . . .
14.8.2 Animation de la communauté . . . . . . . . . . . . . .
14.9 Formation par la recherche . . . . . . . . . . . . . . . . . . . .
14.10Gouvernance . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.11Auto-évaluation . . . . . . . . . . . . . . . . . . . . . . . . . .
14.11.1 Découverte et analyse . . . . . . . . . . . . . . . . . .
14.11.2 Comparaison et alignement . . . . . . . . . . . . . . . .
14.12Projet scientifique 2012-2015 . . . . . . . . . . . . . . . . . . .
14.12.1 Découverte et analyse . . . . . . . . . . . . . . . . . .
14.12.2 Comparaison et alignement . . . . . . . . . . . . . . . .
14.12.3 Acquisition et Apprentissage . . . . . . . . . . . . . . .
14.12.4 Élaboration de ressources linguistiques et logiciels libres
14.13Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.13.1 Publications de référence de l’équipe dans la période . .
14.13.2 Bibliographie externe . . . . . . . . . . . . . . . . . . .
Glossaire
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
356
356
357
361
361
361
365
366
368
368
369
369
369
370
371
371
371
372
372
377
381
12
UMR 6241
LINA
Initialement reconnu FRE en 2004, reconduit en 2006, le Laboratoire d’Informatique de Nantes Atlantique (LINA) est devenu UMR 6241 en janvier 2008 avec trois tutelles : l’Université de Nantes, l’École
des Mines de Nantes (EMN) et le CNRS.
Avec un large spectre de compétences dans le domaine des Sciences et Technologies de l’Information et de la Communication (STIC), le LINA relève des sections 7 du Comité National de la
Recherche Scientifique et 27 du Conseil National des Universités (CNU). Il est rattaché au nouvel Institut des Sciences Informatiques et de leurs Interactions (INS2I) du CNRS. Le périmètre scientifique
d’INS2I couvre l’ensemble des recherches du LINA en matière d’algorithmique, de programmation,
de modélisation, de décision, d’apprentissage, de base de données et de recherche d’information. Les
travaux du LINA relèvent également de grands axes sociétaux visés par l’INS2I dont la biologie et la
santé (bio-informatique), le monde digital avec les services et les contenus (Internet du Futur) ainsi
que l’environnement avec l’optimisation de l’énergie informatique verte. Finalement, les équipes de
13
14
Bilan 2006–2009 et projet 2012-2015 LINA
recherche du LINA participent à plusieurs GDR du CNRS dont ASR, BIM, GPL, I3 et IM ainsi qu’à
plusieurs projets ANR des programmes ARPEGE, CONTINT et VERSO.
Au 30 juin 2010, près de 160 personnes (67 enseignants-chercheurs, 3 chercheurs, 14 ITA/IATOS,
62 doctorants, 6 ATER, 4 post-doctorants, et 6 ingénieurs de développement associés à des contrats de
recherche) composent le laboratoire et sont hébergés sur deux sites distants d’une dizaine de kilomètres,
celui de la Lombarderie et celui de la Chantrerie. Le site de la Lombarderie regroupe une grande moitié
du laboratoire et ses services supports accueillis par la Faculté des Sciences, le site de la Chantrerie réunit
l’autre moitié du LINA au sein de deux écoles d’ingénieurs : l’EMN et Polytech’Nantes.
Le LINA résulte de la réunion en 2004 de l’Institut de Recherche en Informatique de l’Université de
Nantes (IRIN) et du département informatique de l’EMN. Le CPER 2000-2006 et le CNRS ont joué un
rôle de catalyseur dans ce rapprochement qui a abouti à la création du LINA.
L’organisation originelle du laboratoire en équipes de recherche fonctionnant en mode projet a permis
une gestion souple et contrôlée de ses évolutions. Ce modèle basé sur la définition de projets scientifiques
collectifs facilite la mise en œuvre, avec les tutelles, d’une politique de contrat d’objectifs dont est exclu
le saupoudrage des ressources. En facilitant les réponses aux appels d’offre des ≪ agences de moyens ≫,
il accroı̂t les taux de succès et participe à l’autonomie financière des équipes.
Aujourd’hui, le LINA joue un rôle central dans le développement des STIC que ce soit au niveau de
la Région Pays de la Loire (PdL) ou à celui inter-régional de l’axe Nantes-Rennes.
Le laboratoire est avec l’IRCCyN (UMR 6597) et l’IREENA (EA 1770) membre de la fédération
AtlanSTIC (FR 2819) créée en 2006. Il est associé à l’école doctorale ≪ Sciences et Technologies de
l’Information et de Mathématiques ≫ (ED-STIM) du PRES de L’Université de Nantes, Angers, le Mans
(L’UNAM) et collabore régulièrement avec le LERIA d’Angers dans le domaine de l’optimisation et des
contraintes et le LIUM dans le domaine du traitement de la parole.
Depuis son origine, Le LINA accueille des équipes projets du Centre INRIA de Rennes Bretagne
Atlantique (CIRBA) dans les domaines du logiciel et des systèmes distribués. Il est le laboratoire nantais impliqué dans le comité de sélection et de validation des projets du pôle de compétitivité mondial
≪ Images et Réseaux ≫ (IR) transverse aux deux Régions Bretagne et Pays de la Loire.
Notes de lecture
Ce texte constitue une introduction de la direction au bilan et au projet scientifique du laboratoire qui
sont présentés équipe par équipe dans la suite de ce rapport. Nous avons interprété les recommandations
de l’AERES en demandant à chaque équipe de rédiger selon un même canevas son bilan 2006-2009,
son auto-évaluation et son projet scientifique 2012-2015. Chaque chapitre s’appuie sur une sélection
des publications de référence annexées en bibliographie. Un autre document indépendant constitue la
bibliographie exhaustive de l’unité sur la période d’évaluation.
Cette introduction se termine par un résumé en anglais (executive summary de la section ??)
récapitulant le bilan et les principaux objectifs.
Afin de rendre ce document plus concis et plus interactif, nous utilisons des liens actifs rouges (macro
≪ href ≫ de Latex) étayant le discours par des informations externes. Ces informations supplémentaires
(et leur url) n’apparaissent pas dans la version papier.
LINA
15
1.1 Présentation du LINA
1.1.1 Génèse et évolution
Le positionnement scientifique du LINA est le résultat d’une quinzaine d’années de travail, de restructurations et de choix stratégiques. Pour le réaliser, nous nous sommes appuyés sur ces éléments
principaux :
– le développement des activités de recherche et d’enseignement les plus visibles de l’IRIN et du
département informatique de l’EMN ;
– la complémentarité scientifique avec les autres laboratoires STIC de Nantes, Rennes et Angers ;
– une adéquation de nos compétences aux grands enjeux scientifiques et sociétaux de l’informatique
tels que décrits dans les séries d’études prospectives régionales, nationales et européennes ;
– une construction du laboratoire basée sur une dizaine d’équipes de taille assez homogène et aux
projets scientifiques bien identifiés.
Ces choix ont été faits par les deux directions successives du LINA (F. Benhamou puis P. Cointe), en
concertation préalable avec les tutelles, puis en accord avec le conseil de laboratoire et les responsables
d’équipe. Ils ont bénéficié des évaluations régulières du laboratoire (en 2002, 2004 et 2007) par le CNRS,
la MSTP et le GEM mais aussi par la commission d’évaluation de l’INRIA pour ce qui concerne les deux
EPI (voir section 1.2.4). Au niveau régional, ces choix ont été confortés par les expertises régulières effectuées à l’occasion des deux derniers CPER (≪ COM 2000-2006 ≫ et ≪ STIC et Calculs 2007-2013 ≫ )
pour les Pays de la Loire.
Enfin, la mise en place des comités de sélection en 2009 a été l’opportunité de constituer un vivier
d’experts régulièrement sollicités pour participer aux recrutements des nouveaux E/C permanents, recrutements qui sont un élément clef de la stratégie de développement du laboratoire. La présence de ces
experts à nos concours est bien sûr l’occasion d’échanger sur la stratégie d’évolution de nos équipes de
recherche.
1.1.2 Equipes et thèmes de recherche du LINA
Historiquement, le LINA a structuré et développé ses équipes de recherche et ses formations doctorales autour de deux grands axes : les ≪ architectures logicielles distribuées ≫ (ALD) et les ≪ systèmes
d’aide à la décision ≫ (SAD). Au niveau du Grand Ouest, ce positionnement cible les deux domaines du
≪ logiciel ≫ et de la ≪ décision ≫. Ces domaines étaient et restent complémentaires de ceux développés
à l’IRCCyN de Nantes (≪ cybernétique ≫), à l’IRISA et à l’INRIA de Rennes (≪ Internet du Futur ≫) et
au LERIA d’Angers (≪ optimisation ≫).
L’axe ALD répond aux grands enjeux nés de deux caractéristiques duales de l’évolution des systèmes
d’information (matériels et logiciels) : leur ubiquité (par exemple les terminaux mobiles, les systèmes enfouis) et leur extrême rapidité d’évolution et de diffusion principalement liée à Internet. À ceux-ci, il faut
ajouter l’explosion du volume et de la complexité des données et des programmes comme les données
multimédias et les composants/services hétérogènes. Ces questions sont principalement abordées par nos
travaux sur les architectures logicielles ; les nouveaux paradigmes de programmation (langages d’aspects
et de composition) ; la gestion distribuée de données complexes (par exemple multimédia), en particulier
dans le contexte du développement de l’informatique en nuage.
16
Bilan 2006–2009 et projet 2012-2015 LINA
F IGURE 1.1 – Les équipes du LINA en juin 2010, les deux EPI figurent en bleu.
L’axe SAD traite des nouvelles méthodes et des nouveaux outils liés à la migration d’une utilisation historiquement calculatoire (calcul scientifique), puis gestionnaire (systèmes d’information d’entreprise) de l’informatique vers la prise en compte d’une dimension stratégique (gestion et extraction des
connaissances, résolution et optimisation) au cœur de nombreuses problématiques économiques et sociales. Les travaux portent aussi bien sur les aspects symboliques que sur les aspects numériques concernant l’aide à la décision, depuis les fondements (combinatoire, statistiques, analyse numérique, logique)
jusqu’aux prototypes logiciels de recherche. Ils abordent et approfondissent des questions tant fondamentales qu’appliquées en bio-informatique, optimisation globale et multi-objectif, programmation par
contraintes, fouille de textes et de données, et traitement de la langue naturelle.
Certains des verrous comme le passage à l’échelle des modèles et l’adaptabilité des systèmes sont
communs à nos deux axes de recherche. Ils résultent de l’évolution des domaines historiques de l’informatique comme la théorie des langages, la combinatoire/complexité, l’analyse numérique, la recherche
opérationnelle, les bases de données, les langages de programmation, le génie logiciel et l’intelligence
artificielle qui constituent les socles scientifiques de nos recherches.
Plus précisément, les équipes du LINA présentées en figure 1.1 couvrent les thématiques scientifiques
suivantes :
Architectures logicielles distribuées :
– ≪ Gestion de données distribuées et masse de données ≫ avec les deux équipes ATLAS-GDD
(P. Lamarre) et ATLAS-GRIM (M. Gelgon). Leur intersection scientifique réalise l’EPI ATLAS
(P. Valduriez).
– ≪ Génie du logiciel et de la programmation ≫ avec les équipes ASCOLA (M. Südholt), COLOSS
(C. Attiogbé) et MODAL (M. Oussalah). COLOSS et MODAL fusionnent en septembre 2010
pour former l’équipe AELOS (C. Attiogbé). ASCOLA (M. Südholt) est également équipe projet
INRIA (EPI) rattachée au centre de Rennes.
LINA
17
Systèmes d’aide à la décision :
– ≪ Contraintes discrètes et continues, contraintes globales, optimisation globale et multiobjectif ≫ avec les équipes : Contraintes (N. Beldiceanu), MEO (L. Granvilliers) et ROOM
(X. Gandibleux). MEO et ROOM fusionnent en septembre 2010 pour former l’équipe OPTImisation (L. Granvilliers).
– ≪ Génomique comparative et biologie des systèmes ≫ avec l’équipe ComBi (I. Rusu).
– ≪ Fouille de données, extraction et gestion des connaissances, apprentissage statistique, visualisation de données ≫ avec l’équipe COD (P. Kuntz).
– ≪ Modèles formels des langages, alignement et comparaison de corpus, analyse multimodale,
apprentissage automatique ≫ avec l’équipe TALN (B. Daille).
L’organisation du LINA en équipes de recherche n’est pas antagoniste au développement de projets
interdisciplinaires. Les évolutions des équipes TALN, ComBi et COD témoignent de l’établissement de
liens pérennes avec les linguistes, les biologistes et les historiens pour ne citer qu’eux. Autre exemple
de cette perméabilité, les coopérations entre les équipes ASCOLA et Contraintes sur l’application des
contraintes à l’optimisation des ressources énergétiques dans les centres de données et plus récemment
les actions transverses présentées en section 1.4.5.
Le modèle d’équipe LINA n’est pas unique et donne lieu à plusieurs variations en particulier dans sa
taille et le couplage des sous thématiques traitées. Il est en particulier compatible avec celui des équipes
projets INRIA dont le périmètre est redéfinissable annuellement et doit également permettre au LINA de
participer à la proposition de laboratoire d’excellence STIC Grand Ouest sur ≪ l’Internet du Futur ≫.
18
Bilan 2006–2009 et projet 2012-2015 LINA
1.2 Place du LINA dans son environnement
Le développement du LINA s’inscrit dans ≪ l’écoystème STIC Nantais ≫ en synergie avec : la
Région Pays de la Loire, la fédération de recherche AtlanSTIC, le PRES L’UNAM et son école doctorale l’ED-STIM, le centre INRIA de Rennes Bretagne Atlantique et le pôle de compétitivité Images et
Réseaux.
1.2.1 Région Pays de la Loire
F IGURE 1.2 – Synergies inter-équipes LINA au travers des projets régionaux MILES et BIL.
Le CPER 2000-2006 est à l’origine de la création du LINA et depuis 2000, le conseil Régional n’a
cessé de jouer un rôle important dans le développement du laboratoire en particulier au travers de sa
politique de soutien à la recherche via différents appels à projets.
Scientifiquement, les processus de sélection et de suivi de ces projets par des experts nationaux
sont autant d’occasions d’évaluer et de conforter les projets scientifiques des équipes. Financièrement,
cette politique régionale se traduit par le financement de bourses de thèse et de post-docs ainsi que par
l’acquisition d’équipements de recherche spécifiques. Nous détaillons ici sa contribution à l’évolution du
projet LINA dans sa globalité.
Projet MILES 2007-2009 et BIL 2007-2009
Les deux projets MILES ET BIL ont été lancés par le Conseil Régional pour réaliser un biseau entre
les deux CPER. La figure 1.2 résume la participation des équipes du LINA à ces deux projets.
MILES doté d’un financement de dix bourses de thèse, a servi à identifier puis à renforcer quatre
axes de développement STIC en Pays de la Loire :
1. Systèmes d’aide à la décision (responsables P. Depincé IRCCyN/MCM et X. Gandibleux
LINA/ROOM) ;
LINA
19
2. Gestion de données multimédia (responsables B. Daille LINA/TALN et M. Gelgon LINA/GRIM) ;
3. Ingénierie du logiciel (responsables C. Attiogbé LINA/COLOSS et M. Südholt LINA/ASCOLA) ;
4. Télécommunications mobiles (responsables S. Toutain IREENA/CNRF et H. Gündel
IREENA/MF).
Similairement, le projet de Bio-Informatique Ligérienne (BIL) a permis la rencontre de onze équipes
en informatique (dont ComBi et COD au LINA, MOVES à l’IRCCyN) et en biologie (INSERM et
INRA), L’un des résultats de BIL a été l’organisation de la conférence nationale JOBIM à Nantes en
2009. un autre, le développement de la plate-forme ≪ STIC et Santé Ouest Génopole ≫.
Appels à projets recherche PdL 2009 - . . .
Depuis 2009, le CCRRDT de la Région PdL a mis en place un appel annuel à projets portant sur trois
volets : thématiques structurées (TS), émergence collective (EC) et paris scientifiques (PS).
Dans le prolongement de l’axe MILES/Multimédia, l’équipe TALN est à l’initiative du nouveau
projet structurant DÉPART 1 . Ce projet sur le traitement multimodal de la langue écrite et parlée réunit
les équipes IRCCyN/IVC et LIUM/Parole (du Mans).
Incubé par MILES/SAD, le projet LigéRO 2009-2012 vise à l’émergence d’un groupement ligérien
en recherche opérationelle. Ce projet piloté par E. Pinson du LISA/MSD d’Angers rassemble les équipes
ROOM et Contraintes du LINA mais également SLP de l’IRCCyN et MOA du LERIA.
Indépendamment de MILES, la Région accompagne la mutation à Nantes de chercheurs confirmés.
C. de la Higuera vient de bénéficier d’un ≪ package d’accueil ≫ constitué d’une bourse de thèse, d’une
bourse de post-doc et de 40 ke de frais de fonctionnement sur cinq ans. Cette aide doit accélérer le lancement de travaux dans le domaine de l’apprentissage (inférence grammaticale) transverses aux équipes
TALN, COD et GRIM.
CPER ≪ STIC et Calculs ≫ 2007-2013
Le nouveau CPER
différentes :
≪
STIC et Calculs ≫ participe au développement du LINA sous trois formes
1. financement du nouveau bâtiment LINA/AtlanSTIC dont la construction en 2012 doit créer une
nouvelle dynamique en répondant aux attentes exposées en section 1.11.5 ;
2. acquisition d’équipements matériels spécifiques comme le système immersif de réalité virtuelle
associé au projet de musée virtuel initié par l’équipe COD. Les photos 1.3 illustrent le dôme
de visualisation permettant l’exploration par navigation 3D de structures topologiques tridimensionnnelles comme celles construites par des insectes sociaux (voir l’ANR MESOMORPH) ;
3. développement d’une plateforme technologique ≪ d’innovation et de transfert logiciel ≫ pour promouvoir et diffuser les prototypes logiciels développés par les équipes de recherche. Ce projet
initialement porté et cofinancé dans le cadre du CPER par l’EMN et les collectivités locales a
déjà permis le recrutement de deux ingénieurs de recherche en charge du développement des logiciels CHOCO (équipe Contraintes) et ATL (équipe ATLAS-GDD). La section 1.11.3 précise les
perspectives d’évolution de cette plateforme pour le prochain quadriennal.
1. Documents Écrits et Paroles - Reconnaissance et Traduction.
20
Bilan 2006–2009 et projet 2012-2015 LINA
F IGURE 1.3 – Dôme de visualisation (équipe COD).
1.2.2 Fédération AtlanSTIC
La fédération AtlanSTIC (FR 2819) créée en 2006, regroupe les trois laboratoires nantais STIC :
l’IRCCyN, l’IREENA et le LINA. Dès l’origine, une première série d’appels à projets financés
par la fédération et ses trois laboratoires a permis de lancer des projets interdisciplinaires destinés
à une meilleure connaissance mutuelle des équipes d’informatique, d’automatique, de robotique et
d’électronique. La fédération joue aujourd’hui un rôle d’interface entre ses laboratoires et les collectivités locales. À ce titre, elle assure la gestion et le pilotage du projet MILES et du CPER ≪ STIC et
Calculs ≫ déjà évoqués. Elle sollicite puis donne le premier avis sur les réponses faites par les équipes
de ses laboratoires aux appels à projets STIC du Conseil Régional.
Du point de vue du LINA, AtlanSTIC a permis de développer des coopérations durables avec
l’IRCCyN dans les domaines de la bio-informatique (équipe MOVES, projet BIL), de l’aide à la
décision (équipes SLP et MCM, projets MILES/SAD et LigéRO), du multimédia (équipe IVC, projets
MILES/Multimédia et DÉPART) et de la robotique (équipe MCM, ANR/SIROPA).
1.2.3 PRES L’UNAM et ED STIM
Ce quadriennal a vu également la création en juin 2009 du PRES de L’Université de Nantes, Angers
et le Mans (L’UNAM). Sa première concrétisation est la mise en place de la nouvelle école doctorale
≪ Sciences et Technologies de l’Information et de Mathématiques ≫ (STIM, ED 503) qui associe en sus
des laboratoires de la fédération AtlanSTIC, le LERIA et le LISA à Angers, le LIUM au Mans et les
deux UMR de Maths de Nantes (J. Leray) et d’Angers.
LINA
21
1.2.4 Centre INRIA Rennes Bretagne Atlantique (CIRBA)
L’INRIA a joué et continue à jouer un rôle important dans le projet scientifique du LINA. Il nous
paraı̂t donc important de rappeler ici les grandes étapes de nos relations avec le centre INRIA de Rennes :
1. Dès 1991, le ministère de l’industrie a chargé l’INRIA d’élaborer le programme pédagogique de
sa nouvelle École des Mines créée à Nantes avec une dorsale STIC. Cette charge a été confiée
à J.-P. Banâtre alors responsable de l’IRISA, le développement des équipes de recherche du
département informatique de l’EMN et les recrutements associés se faisant ensuite naturellement
en concertation avec l’IRISA ;
2. création simultanée des deux équipes INRIA, ATLAS (BD distribuées, P. Valduriez) et OBASCO
(génie logiciel, P. Cointe) en 2003. Equipe commune à l’Université de Nantes pour ATLAS et à
l’EMN pour OBASCO ;
3. après les évaluations INRIA, reconduction d’ATLAS en 2006 et transformation d’OBASCO en
ASCOLA (M. Südholt) en 2009, P. Cointe ayant pris la direction du LINA. ASCOLA (avec AtlanMod) est l’une des neuf équipes du thème ≪ Logiciel, conception de systèmes, architectures ≫ du
CIRBA. ATLAS est pour sa part l’une des huit équipes du thème ≪ Systèmes distribués, Internet
des services ≫ ;
4. création “hors LINA” de l’équipe AtlanMod en juillet 2008 à partir de la thématique ≪ ingénierie
des modèles ≫ d’ATLAS. Cette équipe initiée par J. Bézivin est candidate à rejoindre le LINA
pour le prochain quadriennal sous la direction de Jordi Cabot, lauréat de la chaire EMN-INRIA
2009 ;
5. projet d’EPI TASC (Theory, Algorithms and Systems for Constraints) actuellement en cours d’instruction. TASC est construite comme un sous-ensemble de l’équipe Contraintes, N. Beldiceanu
devant assurer la double direction TASC/Contraintes ;
6. arrêt prévu de l’EPI ATLAS en décembre 2010 suite à la mutation de P. Valduriez à Montpellier.
P. Molli (Nancy/ECOO) lui succédera à la tête de l’équipe LINA ATLAS-GDD après l’intérim
assuré par P. Lamarre.
Aujourd’hui, la nouvelle dénomination du ≪ Centre INRIA de Rennes Bretagne Atlantique ≫ reflète
la présence des équipes nantaises dont l’implication dans la vie du centre est significative puisque le
directeur du LINA est un invité permanent du comité mensuel des projets.
Pour les E/C du LINA, la contribution principale de l’INRIA est d’avoir permis cinq délégations et
cinq détachements sur la période 2006-2009. Dans huit cas, ces “délégations” se sont effectuées au sein
de leur propre équipe (ASCOLA et ATLAS) à Nantes. Mais dans deux cas, le bénéficiaire a été accueilli
dans une équipe rennaise (Symbiose et Bunraku). Au delà de l’encouragement à préparer une HDR 2 ,
cette politique de “délégation” a permis de tisser des nombreux liens entre les équipes de Nantes et de
Rennes tout en contribuant à diffuser la culture de l’équipe projet.
1.2.5 Pôle de compétitivité ≪ Images et Réseaux ≫
Le pôle Images et Réseaux est avec System@TIC, Minealogic et Aerospace Valley l’un des
quatre pôles STIC à vocation mondiale. Il se veut au croisement des technologies des TIC, des
2. Trois des détachements INRIA se sont déjà conclus par la soutenance d’une HDR (voir les détails en 1.5.1) et deux
autres HDR sont en voie de finalisation.
22
Bilan 2006–2009 et projet 2012-2015 LINA
télécommunications et de l’audiovisuel et prépare l’Internet du Futur aussi bien au niveau des infrastructures que des contenus numériques et de leurs usages. Contrairement à ce que pourrait laisser penser
son nom ≪ Images et Réseaux ≫, les thématiques scientifiques du pôle recouvrent celles des équipes du
LINA pour ce qui concerne le logiciel et les services (ASCOLA, GDD/AtlanMod et AeLoS), la distribution des contenus (GDD) et la gestion des contenus multimédia (GRIM et TALN).
L’une des caractéristiques du tissu industriel STIC nantais est d’être tourné vers le tertiaire et d’être
irrigué par un réseau de PMI/PME innovantes et de sociétés de services travaillant dans le domaine des
grands systèmes d’information pour les banques, les assurances, les transports (SNCF) et les grandes
administrations (direction des impôts, affaires étrangères). Contrairement à celui de la Bretagne, ce tissu
souffre de l’absence de laboratoires R&D de grands groupes comme Orange, Alcatel Lucent ou Thalès.
Le pôle Images et Réseaux, transverse aux deux régions, constitue une oppportunité de faire collaborer
sur le Grand Ouest, R&D des grands groupes, PME et laboratoires de recherche. Pour aller dans ce sens,
la gouvernance du pôle est organisée autour de triplettes représentatives de ces trois collèges, que ce soit
au niveau de son CA, ou de son ≪ Comité de Sélection et de Validation ≫ (CSV) des projets.
Sur les 21 ANR auxquelles participent le LINA, trois projets (Blanc/SAFIM@GE, CONTINT/MeTRICC et ARPEGE/CESSA) ont été préalablement labellisés par le pôle et sont donc menés
avec un nombre significatif de partenaires industriels : IS2T (machines virtuelles Java), Vision Objects
(reconnaissance d’écriture manuscrite), Sodifrance (transformation de codes patrimoniaux) et Cap Gemini installés sur son territoire.
Cette synergie avec les acteurs industriels du pôle doit encore s’accentuer avec l’aide de la technopole
Atlanpole également très impliquée dans la composante ligérienne du pôle. En effet, la direction du LINA
travaille en lien étroit avec les chargés de mission d’Atlanpole à l’incubation de nouvelles entreprises
(comme I2ST, Obeo et Performanse SA) et à la mise en relation des PMI/PME avec ses équipes de
recherche. Par exemple, dans le cadre de l’appel à projets spécifique ≪ PMI/PME-labo ≫ du pôle Images
et Réseaux, les équipes GDD et GRIM sont les partenaires académiques des projets Happy (ingénierie
des modèles), E-MAP (gestion des informations associées aux réseaux sociaux) pilotés par les jeunes
sociétés nantaises Obeo, Blue XLM, IM’INFO, Human Connect et Trident Media Guard (TMG).
1.2.6 Synthèse
La figure1.4 résume la place du LINA dans son environnement, en présentant les équipes de
recherche des autres laboratoires avec lesquelles nous entretenons des coopérations fortes.
LINA
23
F IGURE 1.4 – Positionnement des équipes du LINA relatif à l’IRCCyN, au LERIA et à l’IRISA/CIRBA.
24
Bilan 2006–2009 et projet 2012-2015 LINA
1.3 Organisation et gouvernance du laboratoire
MAJ. 30/06/2010
LABORATOIRE D’INFORMATIQUE DE NANTES ATLANTIQUE
UMR 6241
Directeur : Pierre COINTE Directrice Adjointe : Béatrice DAILLE
Responsable administrative : Anne-Françoise QUIN
Les équipes de recherche
AXE
ARCHITECTURES LOGICIELLES
DISTRIBUEES
Les services
AXE
SYSTEMES D’AIDE A LA
DECISION
THEME
CONTRAINTES ET OPTIMISATION
THEME
GESTION DE DONNEES
Contraintes (10)
ATLAS*- GDD (8)
Programmation par contraintes
Nicolas BELDICEANU
Gestion des Données Distribuées
Philippe LAMARRE
ATLAS*- GRIM (4)
Gestion, Résumé, Interrogation et
apprentissage sur les Masses de données
Marc GELGON
Assistante de
Direction
Annie BOILOT
MEO (4)
Méthodes Ensemblistes pour l’Optimisation
Laurent GRANVILLIERS
ROOM (2)
Recherche Opérationnelle et Optimisation
Multi-objectif
Xavier GANDIBLEUX
AFFAIRES GENERALES
Anne-Françoise QUIN
VALORISATION DE LA
RECHERCHE
Jean-Paul SACHET
GESTIONNAIRE
F. PIQUET
Assistante
Annie BOILOT
INTERFACE
LINA DPT INFO
INFORMATIQUE
Jean-Yves LEBLIN
Adjointe
Anna EVEN
Support utilisateurs
Sabine BEAURAIN
I. CONDETTE
ASSISTANTES
D’EQUIPE
Support utilisateurs
Dimitri BOEUF
UFR SCIENCES
I. CONDETTE
COLOSS – MEO
MODAL – ROOM
A. LARDENOIS
COMBI – TALN
THEME
GENIE DU LOGICIEL
ASCOLA*(11)
ComBI (4)
Combinatoire et Bio-Informatique
Irena RUSU
COD (10)
Mario SÜDOLHT
Connaissance et Décision
Pascale KUNTZ
COLOSS (5)
COmposants et LOgiciels SûrS
Christian ATTIOGBE
TALN (10)
MODAL (2)
TALN
F. PIQUET
GDD
Langages d’aspects et de composition
MOdélisation d’Architectures Logicielles
Mourad OUSSALAH
D. MENEU
Traitement automatique du Langage Naturel
Béatrice DAILLE
EMN
C. FOURNY
D. GAUDIN
EFFECTIFS
E/C :
CHERCHEURS :
DOCTORANTS :
ITA/IATOS (EQTP) :
67
3
62
10.40
CONTRAINTES
ASCOLA
POLYTECH’
S. LEROUX
COD - GRIM
•ASCOLA et ATLAS sont également équipes projet INRIA Centre Rennes Bretagne Atlantique
F IGURE 1.5 – Organigramme général du LINA au 30 juin 2010.
1.3.1 Modèle d’organisation
Compte tenu de l’extrême variabilité du paysage de la recherche ces dernières années (mise en place
de l’ANR, de l’AERES, du 7ème PCRD, des pôles de compétitivité, des instituts Carnot, de l’alliance
Allistene, des investissements d’avenir), l’une des propriétés critiques d’une organisation de recherche est
devenue sa capacité d’adaptation à son environnement. De ce point de vue, la jeunesse et la taille du LINA
constituent deux atouts à condition d’accompagner de manière continue les évolutions du laboratoire et
de prendre en compte ses spécificités, à savoir celles d’un laboratoire multi-sites, multi-tutelles et multicomposantes, formé principalement d’enseignants-chercheurs (67 E/C pour seulement 3 chercheurs).
L’une des clés dans la maı̂trise de ces évolutions nous paraı̂t être une structuration en équipes de
recherche fonctionnant sur un mode projet inspiré de l’INRIA. En effet, ce modèle basé sur la définition
de projets scientifiques collectifs est à même de :
LINA
25
– susciter l’émulation entre les équipes, en particulier au niveau de l’expression de projets ambitieux ;
– doter les équipes d’un programme de recherche ciblé susceptible d’accroı̂tre leur visibilité et leur
attractivité ;
– garantir à ces équipes une taille critique leur permettant d’augmenter leur taux de succès dans leurs
réponses aux appels d’offre des ≪ agences de moyens ≫ ;
– favoriser l’émergence de jeunes chercheurs susceptibles d’élaborer un nouveau projet scientifique
et porter à terme de nouvelles équipes ;
– développer les synergies entre équipes du laboratoire ou avec d’autres partenaires en explicitant les
≪ interfaces ≫ pour les collaborations potentielles. Cela est vrai au sein du LINA, de la fédération
AtlanSTIC, mais également avec les laboratoires partenaires comme l’IRISA et l’INRIA à Rennes
ou le LERIA et le LISA à Angers.
L’organigramme présenté en figure 1.5 résume l’organisation générale du laboratoire qui repose sur
les deux principes pragmatiques suivants :
1. l’équipe de recherche est la brique de base de la construction ;
2. ces équipes sont associées à un site principal, le principe de réalité étant de maintenir les E/C
sur leur lieu d’enseignement : les départements d’enseignement de la FST, de l’EMN et de Polytech’Nantes.
1.3.2 Les équipes de recherche du LINA
Le tableau 1.6 précise le site d’hébergement principal de chacune des équipes, donne des éléments
quantitatifs relatifs à sa taille : nombre de permanents, nombre de doctorants et capacité d’encadrement
en nombre de HDR.
Equipes
ATLAS-GRIM
ATLAS-GDD
ASCOLA
COLOSS
MODAL
S/Total axe ALD
CONTRAINTES
ROOM
MEO
ComBI
COD
TALN
S/Total axe SAD
Total
Site
Polytech
FST
EMN
IUT-FST
FST
EMN-FST
FST
FST
FST
Polytech
FST-IUT
E/C et C dont C dont HDR Doctorants
4
2
4,5
8
1
1
6
11
1
3
12,5
5
1
1,5
2
1
4
30
2
8
28,5
10
4
4,5
2
1
2,5
4
1
1
1
4
2
3
10
3
14,5
10
4
8
40
1
15
33,5
70
3
23
62
Ratio EC/D
1,13
0,75
1,14
0,30
2,00
0,95
0,45
1,25
0,25
0,75
1,45
0,80
0,84
0,89
EC +D
8,5
14,0
23,5
6,5
6,0
58,5
14,5
4,5
5,0
7,0
24,5
18,0
73,5
132,0
F IGURE 1.6 – Morphologie des équipes du LINA au 30 juin 2010.
Les réunions des équipes COLOSS/MODAL→AeLoS et MEO/ROOM→Optimisation réalisées en
septembre 2010, les neuf équipes du LINA disposent chacune d’au moins deux professeurs/HDR pour
en assurer la direction scientifique 3 ce qui nous semble être un gage de pérennité. Elles réunissent entre
quatre et onze permanents, constituant trois catégories de taille :
3. À la seule exception de ATLAS-GDD, mais celle-ci a été levée en septembre 2010 avec le recrutement de Pascal Molli.
26
Bilan 2006–2009 et projet 2012-2015 LINA
– importante pour ASCOLA, COD, Contraintes et TALN (dix à onze permanents) ;
– moyenne pour AeLoS, GDD et OPTImisation (six à huit permanents) ;
– petite pour GRIM et ComBi (quatre permanents).
1.3.3 Les trois services supports
La direction et ses trois services supports sont présents sur le site principal avec pour mission
d’orchestrer l’ensemble des activités de recherche et de transfert menées par les équipes du laboratoire.
Le service des affaires générales
Ce service est constitué de huit personnes, dont six permanents et deux CDD. Il travaille sous la
direction de A.-F. Quin (IE CNRS) en étroite liaison avec l’assistante de direction (A. Boilot, AI CNRS)
à la gestion au quotidien du laboratoire. Ce service central a été très significativement enrichi depuis le
passage UMR et s’est vu confier les grandes missions suivantes : animer et coordonner le groupe d’assistantes d’équipes, élaborer le budget puis assurer la gestion financière de l’unité, gérer les ressources
humaines et assurer les interactions avec les départements d’enseignement.
– Assistantes d’équipes : la priorité de la nouvelle direction a été de développer un pool d’assistantes au service des équipes de recherche et réparti sur les trois sites. Chaque assistante est chargée
du support administratif d’un groupe d’équipes dont la taille et les volants d’activités contractuelles
sont comparables. Cette organisation repose sur les associations suivantes :
1. A. Lardenois (T CDI LINA, 0.8 ETP) est en charge de TALN et ComBi à la FST ;
2. F. Piquet (ADT Université) est en charge d’ATLAS-GDD à la FST ;
3. I. Condette (ADT Université, 0.5 ETP) est en charge d’AeLoS et OPTimisation à la FST ;
4. D. Gaudin (3D EMN, 0.5 ETP) et C. Fourny (AGT EMN, 0.2 ETP) sont en charge d’ASCOLA et Contraintes à l’EMN ;
5. S. Leroux (CDD ADT LINA, 0.5 ETP) est en charge de COD et GRIM à Polytech.
À ce groupe, il convient d’ajouter la présence d’une assistante d’équipe INRIA en charge des
équipes ASCOLA, ATLAS et AtlanMod. Elle est hébergée sur le site de l’EMN mais rattachée
directement au centre INRIA de Rennes. De ce fait, elle n’apparaı̂t pas dans notre organigramme
général de la figure 1.5.
– Budget et gestion financière : A.-F. Quin est en charge de l’élaboration du budget de fonctionnement de l’unité établi à partir de ses dotations récurrentes. Elle supervise également la gestion
et la justification financière des contrats du LINA gérés par l’UFR Sciences.
Sous sa responsabilité, en liaison avec les assistantes d’équipes, le bureau financier du décanat et
la délégation régionale du CNRS, F. Piquet est en charge de la gestion des crédits de l’unité via
les deux systèmes d’information XLAB et SIFAC. La mise en place de SIFAC à l’Université de
Nantes n’est pas allée sans de très nombreux problèmes, tous d’ailleurs non encore résolus.
Finalement, la coordination administrative et financière du STREP FP7 TTC a conduit au recrutement par l’équipe TALN de D. Meneu (IE CDD LINA).
– Relation avec les départements d’enseignement : I. Condette travaille à mi-temps pour le laboratoire et à mi-temps pour le département informatique de la FST avec lequel nous partageons les
locaux sur le site de la Lombarderie. Ce rôle de trait d’union est important pour la mise en place
LINA
27
des comités de sélection, le recrutement des ATER et toutes les activités qui concernent nos deux
structures.
Similairement, sur le site de la Chantrerie, D. Gaudin et C. Fourny travaillent à la fois pour deux
équipes du laboratoire et pour le département informatique de l’EMN.
– DRH : ce service est également impliqué dans la gestion des ressources humaines avec le recrutement des personnels ITA/IATOS Université et CNRS, l’accueil des nouveaux membres du
laboratoire (E/C, doctorants, post-docs et invités étrangers) et le suivi de carrière des personnels
CNRS et ITA/IATOS. De fait, il joue un rôle clef dans la définition de l’identité du LINA et contribue au panachage des cultures CNRS, Université et Écoles d’ingénieurs.
Le service de la valorisation de la recherche
Ce service a été mis en place par la nouvelle direction en janvier 2008 pour valoriser les travaux
des équipes de recherche en interaction avec nos tutelles (et leurs composantes) et nos partenaires. Il est
aujourd’hui constitué de J.-P. Sachet (MA EMN) aidé par A. Boilot (AI CNRS) également assistante de
direction.
Ses missions se caractérisent par un soutien à plusieurs niveaux aux équipes de recherche portant
principalement sur :
– la mise en place pour le laboratoire du comité de suivi des thèses et des contrats doctoraux en
liaison avec l’école doctorale ;
– la diffusion et le suivi des appels d’offres institutionnels (Université, CNRS INS2I, Région PdL,
ministère, pôles de compétitivité. . .) ;
– l’aide au montage des projets régionaux, ANR et européens, des conventions CIFRE et des contrats
directs avec les entreprises ;
– la communication interne (rédaction de LINA-HEBDO, gestion des contenus d’INTRALINA 1.4.4) et externe (gestion des contenus du site Web, participation aux réseaux des correspondants communication des tutelles/composantes) ;
– la préparation de la réunion mensuelle des responsables d’équipe et la rédaction des comptes
rendus associés ;
– la compilation des indicateurs annuels mesurant l’activité de l’unité, la production des supports de
communication (dont les rapports de recherche) et la préparation du COS.
À moyen terme, ce service doit être développé pour prendre à son compte la gestion des partenariats
incluant les relations industrielles et internationales.
Le service informatique
Ce service qui gére en sus du LINA, le département informatique de la FST et la fédération de
recherche AtlanSTIC, est constitué de quatre personnes, deux permanents et deux CDD. Placé sous la
direction de J.-Y. Leblin (IGE Université), ses missions sont principalement :
– de garantir le fonctionnement du réseau et des serveurs informatiques sur le site de la FST vingtquatre heures par jour et sept jours par semaine (le 24/7), à la fois pour les membres du laboratoire
et ceux du département informatique qui partagent le même bâtiment ;
– d’administrer le parc informatique et de venir en support aux utilisateurs Windows (S. Beaurain,
T CNRS), et Linux (D. Boeuf, CDD T Université) ;
– de veiller au renouvellement du matériel et participer à l’élaboration du budget LINA pour sa ligne
équipement informatique ;
28
Bilan 2006–2009 et projet 2012-2015 LINA
– de gérer l’infrastructure du site Web et de l’intranet du LINA mais également de la fédération AtlanSTIC, d’administrer l’archive ouverte HAL-LINA et de maintenir la bibliographie des équipes
(A. Even, CDD ASI Université) ;
– de développer ponctuellement des services Web ou des Wikis pour les équipes organisant une
conférence, gérant un projet collaboratif type ANR ou devant diffuser un logiciel.
Le service informatique opère en liaison avec la Division des Systèmes d’Information (DSI) de l’Université et collabore avec les services correspondants de l’EMN et de Polytech qui sont gérés directement
par la direction de ces écoles.
Ce service sera renforcé fin 2010 par le recrutement d’un IE CNRS (concours ouvert à l’automne) en
charge de la diffusion des logiciels des équipes de l’unité. Ce recrutement est la première étape dans la
constitution d’un groupe d’ingénieurs de développement en appui aux équipes du laboratoire produisant
des prototypes logiciels avancés (ce projet de plateforme technologique est détaillé en section 1.11.3).
Par ailleurs, la pérennisation des deux postes Université (T et AI) actuellement en CDD est une priorité
(récurrente) de la direction du laboratoire.
1.3.4 Gouvernance
La figure 1.7 résume les différents comités et conseils qui sont en charge de la gouvernance du laboratoire. Le LINA s’appuie sur cinq structures de prospective, de management, de gestion et d’animation :
le comité d’orientation stratégique, le comité de direction, le conseil du laboratoire, la réunion des responsables d’équipe et un groupe de chargés de mission. À ces cinq structures, s’ajoute l’organisation
d’assemblées générales aux moments clefs de la vie du laboratoire, en particulier ceux associés aux
contrats quadriennaux.
COS : Le conseil d’orientation stratégique réunit annuellement les représentants des trois tutelles et
la direction du laboratoire. Pour celle-ci, c’est l’occasion de discuter sur la base d’un contrat d’objectifs
avec le président de l’Université de Nantes, le VPCS recherche, le directeur de l’École des Mines et
son directeur adjoint, le délégué régional du CNRS et, depuis la création d’INS2I, son directeur et son
directeur adjoint scientifique référent du LINA.
Il convient également de mentionner le comité de concertation annuel réunissant l’Université de
Nantes, l’EMN et l’INRIA pour le suivi des conventions régissant les EPI nantaises. Le directeur du
LINA participe à cette réunion annuelle bilan/perspectives.
CODIR : Le comité de direction du laboratoire est constitué du directeur (P. Cointe, EMN), de la directrice adjointe (B. Daille, Université de Nantes), de l’animateur de la réunion des responsables d’équipe
(C. de la Higuera, Université de Nantes), du responsable de la formation doctorale (J. Martinez, Polytech’Nantes), de la responsable administrative (A.-F. Quin, CNRS). Peuvent participer également à ces
réunions le responsable de la valorisation de la recherche (J.-P. Sachet, EMN) et l’assistante de direction
(A. Boilot, CNRS). Nous avons veillé à conserver un certain équilibre entre l’appartenance des membres
de ce comité aux différentes composantes du LINA et leur domaine d’expertise scientifique. L’équipe
de direction se réunit hebdomadairement. Elle est chargée d’assister le directeur dans la préparation des
choix stratégiques et dans la mise en œuvre de la politique scientifique du laboratoire, qui sont débattus
en réunion des responsables d’équipes et en conseil de laboratoire.
LINA
29
MAJ. 30/06/2010
CONSEIL D’ORIENTATION STRATEGIQUE
UNIVERSITE DE NANTES – ECOLE DES MINES DE NANTES - CNRS
UMR 6241
LABORATOIRE D’INFORMATIQUE DE NANTES ATLANTIQUE
Assistante de
Direction
Annie BOILOT
Directeur : Pierre COINTE - Directrice Adjointe : Béatrice DAILLE
Responsable administrative : Anne-Françoise QUIN
COMITE DES
RESPONSABLES D’EQUIPE
Animateur
C. de la HIGUERA
ASCOLA
M. SÜDHOLT
ATLAS-GDD
P. LAMARRE
ATLAS-GRIM
M. GELGON
COD
P. KUNTZ
COLOSS
C. ATTIOGBE
COMBI
I. RUSU
CONTRAINTES N. BELDICEANU
MEO
L. GRANVILLIERS
MODAL
M. OUSSALAH
ROOM
X. GANDIBLEUX
TALN
B. DAILLE
COMITE DE DIRECTION
COMMISSION DES DOCTORANTS
P. COINTE
Directeur
B. DAILLE
Directrice adj.
C. De la HIGUERA Animateur
Resp. equipe
J. MARTINEZ
Affaires
doctorales
A-F. QUIN
Administration
J-P. SACHET
Valorisation
de la recherche
A. BOILOT
Assistante de
direction
C. ATTIOGBE
P. BRUNEAU
P. COINTE
B. DAILLE
A. GOLDSTZEJN
N. JUSSIEN
P. LAMARRE
JY. LEBLIN
J. MARTINEZ
E. MORIN
G. RASCHIA
I. RUSU
M. SUDHÖLT
D. TAMZALIT
C. TRUCHET
M. VERNIER
Les équipes de recherche
AXE
ARCHITECTURES
LOGICIELLES DISTRIBUEES
CHARGES DE MISSION
CONSEIL DE LABORATOIRE
AXE
SYSTEMES D’AIDE A LA
DECISION
Elu
Nommé
Président
de droit
Nommé
Nommé
Elu
Elu
Elu
Elu
Elu
Nommée
Nommé
Elue
Elue
Elu
J. MARTINEZ
Président
G. FERTIN - T. LEDOUX - E. MORIN
ANIMATION SCIENTIFIQUE
SEMINAIRES
A. DIKOVSKY – D. EVEILLARD
ACMO
S. BEAURAIN
BÂTIMENT
C. ATTIOGBE
COM
J-P. SACHET
FORMATION
A. GOLDSTZEJN
Les services
AFFAIRES GENERALES
Anne-Françoise
QUIN
VALORISATION DE
LA RECHERCHE
Jean-Paul SACHET
F IGURE 1.7 – Organigramme de gouvernance au 30/06/2010.
INFORMATIQUE
Jean-Yves LEBLIN
30
Bilan 2006–2009 et projet 2012-2015 LINA
Conseil de laboratoire : Le conseil du LINA est régi par les règles en vigueur définies dans le cadre de
la contractualisation des unités associées au CNRS. À l’occasion de son renouvellement réalisé en février
2008, et pour prendre en compte la pyramide des âges décrite en figure 1.12, la nouvelle direction n’a
pas voulu faire de distinction entre rang A et rang B pour la désignation des membres élus. Le conseil
se réunit mensuellement et il est consulté sur tous les points liés à la vie du laboratoire. Ces réunions
donnent lieu dans les 48 heures à un relevé de décisions diffusé à l’ensemble des membres du LINA,
la publication du compte rendu formel ayant lieu à l’issue de son approbation le mois suivant. Son rôle
est de donner un avis sur la politique scientifique, budgétaire et sur la gestion des ressources humaines
de l’unité. Le conseil est à l’origine du règlement intérieur adopté en 2009. Les priorités scientifiques,
les allocations des bourses de thèses, la constitution des comités de sélection, l’évolution des équipes
de recherche, les modifications dans l’organisation du laboratoire sont des sujets régulièrement mis à
l’ordre du jour. Dans certaines circonstances exceptionnelles (classement des ATER, constitution des
comités de sélection), le conseil du laboratoire se réunit conjointement avec le conseil du département
d’enseignement de la Faculté des Sciences pour les postes de l’UFR. Les départements d’enseignement
de l’EMN, de Polytech et de l’IUT ne disposant pas de conseil, ces discussions ont lieu directement entre
leur direction et celle du laboratoire.
Réunion des responsables d’équipe : Cette réunion mensuelle se tient à l’heure du déjeuner en
déphasage de deux semaines avec le conseil de laboratoire. Elle a vocation à faire circuler l’information entre la direction et les responsables d’équipe sur tous les sujets relevant de la gestion scientifique
de l’unité. Cette réunion, animée par C. de la Higuera (qui a succédé à P. Valduriez dans la fonction
de directeur scientifique), donne lieu à un compte rendu informel à destination des membres du conseil
de laboratoire. Par ailleurs, depuis 2008, une mise au vert des responsables d’équipes et de leurs adjoints est organisée à chaque fin d’année civile. Elle permet aux équipes de s’informer mutuellement des
résultats marquants de l’année, l’ensemble de ces présentations étant suivi d’une discussion générale sur
les perspectives de développement scientifique du laboratoire.
Commission des thèses : Cette commission travaille en amont du conseil de laboratoire et en liaison
avec l’ED-STIM sur le suivi du déroulement des thèses et des habilitations, l’allocation des bourses
institutionnelles et le devenir des doctorants. Présidée par J. Martinez (Polytech), elle est constituée des
membres du LINA également membres du conseil de l’ED-STIM : respectivement G. Fertin (FST),
T. Ledoux (EMN) et E. Morin (IUT). Elle a été chargée de la mise en place des nouvelles procédures
associées au comité de suivi des thèses (CST) et au contrat doctoral. Le CST a pour but d’assurer le
bon déroulement du travail de thèse et de détecter tout dysfonctionnement éventuel. In fine, l’objectif est
d’améliorer la qualité des thèses produites et de veiller à leurs soutenances dans le respect de la limite
des trois ans. Ce comité est constitué pour chaque doctorant dès le début de sa thèse. Il est proposé par
le(s) directeur(s) de thèse et le doctorant et transmis pour avis au conseil de l’ED. Il est composé des
encadrants du doctorant et de deux personnalités scientifiques n’appartenant pas à l’équipe de recherche
d’accueil, et pour au moins l’une d’entre elles ≪ externe ≫ au LINA.
Chargés de missions : Réunis au sein du comité de gestion (COGES), ils participent à la gestion du
laboratoire et leurs domaines de compétences concernent les problèmes de sécurité (ACMO, S. Beaurain,
T CNRS), la gestion du bâtiment principal et l’affection de ses bureaux (C. Attiogbé, PR), la formation
des personnels (correspondant formation CNRS et Université, A. Goldsztejn, CR CNRS), la communication (J.-P. Sachet, MA), l’organisation des séminaires (A. Dikovsky PR et D. Eveillard MdC), la politique
LINA
31
de renouvellement des matériels informatiques (M. Christie, MdC).
Conseil scientifique externe : Il n’existe pas pour l’heure de comité scientifique, les experts des deux
CPER (M. Adiba, Y. Caseau et J.-G. Ganascia entre 2000 et 2007), ceux du projet régional MILES
(P. Baptiste, P. Gros et M. Riveill) ainsi que les membres des comités de sélection 2009 et 2010 ayant
joué implicitement ce rôle pour l’instant. Néanmoins, la direction prévoit de mettre en œuvre celui-ci
pour la fin du quadriennal, une fois la visite de l’AERES réalisée.
1.4 Animation scientifique
Chaque équipe est responsable de sa gouvernance et en charge de son animation interne. Mais, afin
que notre jeune UMR se forge son identité et ne soit pas un simple ≪ hôtel à équipes ≫, le LINA a mis
en place différentes opportunités de rencontres pour ses personnels, toutes catégories confondues. Cette
animation est d’autant plus indispensable que les membres du LINA sont répartis sur plusieurs sites et
s’approprient d’abord la culture de leur “composante”.
1.4.1 Grand Séminaire
F IGURE 1.8 – Grand séminaire LINA (Gérard Berry et Gérard Huet).
Le principe est d’inviter des orateurs réputés, aptes à captiver une majorité d’auditeurs sur des sujets
transverses à plusieurs équipes. Le choix du programme est fait par le responsable du séminaire en
concertation avec les responsables d’équipes. Ainsi, nous avons eu le plaisir d’accueillir au LINA les
personnalités suivantes :
– 2010 : René Doursat (Institut des systèmes complexes), Bernard Stiegler (Ars Industrialis et Centre
Georges Pompidou) et Anne-Marie Kermarrec (INRIA) ;
– 2009 : Gérard Berry (Collège de France), Hidde de Jong (INRIA) et Philippe Jorrand (CNRS) ;
– 2008 : Kaylanmoy Deb (Indian Institute of Technology Kanpur), Anne Bergeron (Université du
Québec à Montréal), Stéphane Canu (INSA Rouen), Gabriella Pasi (Université de Milan) et Gérard
Huet (INRIA) ;
32
Bilan 2006–2009 et projet 2012-2015 LINA
– 2007 : Patrick Cousot (École Normale Supérieure), Alexander Bockmayr (Université de Berlin),
Gilles Dowek (École Polytechnique), Sophia Ananiadou (Université de Manchester) et Guy Theraulaz (Université Paul Sabatier).
1.4.2 Déjeuner sur le pouce
Les membres du laboratoire récemment recrutés sont à l’initiative d’une nouvelle série de séminaires
destinés à présenter leurs travaux à l’ensemble du LINA. A la manière de certains laboratoires américains
qui se réunissent autour d’un repas à emporter (le brown bag seminar), ces présentations s’effectuent
pendant l’heure du déjeuner afin de découvrir et de discuter des travaux de recherche de l’orateur. Depuis
octobre 2009, D. Eveillard, A. Goldsztejn, N. Tabareau, Y. Busnel et P. Serrano, tous récemment recrutés,
ont animé une première série de déjeuners sur le pouce.
1.4.3 DHD et goûter des doctorants
La ≪ Demi Heure du Doctorant ≫ (DHD) est une initiative de l’association Login qui regroupe les
jeunes chercheurs en informatique (master2, doctorant, ATER) de Nantes. A l’instar du déjeuner sur
le pouce, la DHD rassemble périodiquement les doctorants des différentes équipes autour d’exposés
scientifiques effectués par et pour les jeunes chercheurs. Elle favorise les échanges entre participants en
les informant notamment des domaines qui relèvent des autres équipes de recherche et qui leur sont donc
moins familiers.
Toujours à l’initiative de Login, chaque vendredi après-midi est organisé ≪ le goûter des doctorants ≫ .
Ce goûter ouvert à tous les membres du laboratoire présente l’intérêt de disposer en fin de semaine d’un
espace de convivialité supplémentaire contribuant au tissage de nouveaux liens entre ses participants.
1.4.4 LINA-HEBDO et INTRA-LINA
LINA-HEBDO est la lettre d’information hebdomadaire envoyée chaque lundi à l’ensemble des
membres du laboratoire sous la forme d’un courriel synthétique. Ce bréviel récapitule les principaux
événements de la semaine à venir et pointe sur les url correspondantes. INTRA-LINA archive et recense
les différentes informations pertinentes pour les membres du laboratoire et ses différents comités dans
des espaces dédiés (responsables d’équipes, conseil de laboratoire. . .).
1.4.5 Projets LINA ≪ ouverture et initiative ≫
Dans la lignée du séminaire ≪ sur le pouce ≫ qui favorise les échanges scientifiques au sein du
laboratoire, la direction du LINA a voulu encourager les collaborations scientifiques inter-équipes. A
cette fin, elle a lancé début 2010 un premier appel à projets destiné à soutenir financièrement le démarrage
de nouvelles actions de recherche transverses, l’objectif étant d’amorcer des actions qui auront ensuite
vocation à se développer de manière autonome. Les projets proposés devaient donc impliquer plusieurs
équipes du LINA et :
– porter sur des questions scientifiques dont il s’agit d’étudier la complémentarité et de confronter
les approches ;
– relever de réflexions sociétales ou de problèmes qui ne peuvent pas se résoudre dans le cadre d’une
seule équipe.
Les trois premiers projets retenus bénéficient chacun d’une enveloppe de 2000 e. Nous les listons
car ils préfigurent certains travaux de demain :
LINA
–
33
Inférence de grandes chaı̂nes de Markov pondérées, application à la biologie marine ≫ : équipes
ComBi (porteur J. Bourdon), Contraintes et TALN ;
– ≪ Apprentissage statistique épidémique ≫ : équipes GRIM (porteur M. Gelgon) et GDD ;
– ≪ Ethique et Informatique ≫ : équipes TALN (porteur C. Enguehard) COD, GRIM et GDD. Ce
projet est dans le prolongement des travaux de C. Enguehard sur le vote électronique dont les
publications sont présentées dans le chapitre des publications réalisées hors équipe de recherche.
≪
1.4.6 Séminaire LINA au vert
Pour la première fois de sa jeune histoire, le LINA invite tous ses membres à une mise au vert de deux
jours sur l’ile de Berder dans le golfe du Morbihan. Réunir les membres du laboratoire, créer des liens,
échanger, se retrouver dans un cadre inhabituel . . ., tels sont les objectifs de ce séminaire qui interviendra
en octobre 2010, peu de temps avant la visite de l’AERES. Le conseil de laboratoire a chargé un groupe
composé de membres récemment recrutés (P. Serrano, C. Truchet, P. Leray et N. Tabareau) de proposer
un programme pour animer ces deux journées.
1.4.7 ED-STIM JDOC
JDOC est une journée de travail annuelle organisée par l’ED-STIM. Elle est destinée à fortifier les
rencontres entre les doctorants de l’école doctorale, mais également à porter à la connaissance de ses
membres (doctorants, directeurs de recherche, co-encadrants. . .) l’ensemble des travaux de thèse en cours
de préparation.
La participation à cette journée est obligatoire pour les doctorants de deuxième année. Elle nécessite
de leur part la présentation d’un article avec exposé oral ou la réalisation d’un poster résumant leurs
travaux. Cette journée se tient en alternance dans l’un des laboratoires relevant de l’ED. Ainsi, le LINA
a accueilli les JDOC en 2009.
34
Bilan 2006–2009 et projet 2012-2015 LINA
1.5 Ressources humaines / Population et croissance
'&!"
'%!"
'$!"
'#!"
()*+),-.+/"
0(1"
'!!"
23"
&!"
45678"
13"
%!"
(3"
$!"
#!"
!"
#!!#"
Catégorie
DR
PR
CR
MdC
dont HDR
Total EC et C
Postes IATOS (ETP)
Doctorants
#!!$"
#!!%"
#!!&"
#!'!"
2002
1
14
2004
1
16
2006
2
19
2008
1
20
2010
0
20
croissance 06-10
-2
5%
croissance 02-10
-1
43%
0
31
0
43
3
60
2.5
74
0
48
1
70
8.5
75
2
49
2
72
10,1
55
3
47
3
70
10,4
62
+3
-2%
+3
52%
1%
22%
-17%
52%
362%
+19%
46
2.25
52
F IGURE 1.9 – Évolution des populations du LINA depuis son origine.
La figure 1.9 présente l’évolution de la population du LINA depuis 2002 (soit deux ans avant sa
reconnaissance par le CNRS) en distinguant les différentes catégories de membres. A l’analyse de celleci, il apparaı̂t que :
– le nombre d’E/C et C a doublé depuis 2002, mais cette forte croissance initiale a conduit à un palier
en 2006 et depuis à une relative stagnation. Néanmoins, une étude plus fine de cette évolution
présentée en section 1.5.1 montre des mouvements importants puisque, entre 2006 et 2009, nous
avons accueilli 20 nouveaux membres alors que 12 nous ont quittés ;
– le recrutement de trois CR (deux INRIA et un CNRS) depuis 2007 est contrebalancé par le départ
de deux DR (un CNRS et un INRIA) ;
– le nombre de doctorants oscille de plus ou moins 20 % autour d’un maximum de 75. À cet égard,
il est très positif de constater que pour la période 2006-2009, 62 thèses ont été soutenues ce qui
correspond également au nombre de doctorants présents dans l’unité en juin 2010 ;
– la population des IATOS est celle qui a le plus significativement augmenté. Au moment du passage
UMR en 2008, le laboratoire a bénéficié de la mise à disposition d’un MA EMN, d’un AI CNRS
et d’un demi ADT Université.
Nous analysons maintenant plus finement ces différentes populations et leurs évolutions respectives au
30 juin 2010.
LINA
35
1.5.1 Enseignants-chercheurs et chercheurs
Répartition par tutelles et par composantes au 30 juin 2010
Université de Nantes
Ecole des Mines de Nantes
CNRS
INRIA
PR
MCF HDR
MCF
Total Univ
PR
MA HDR
MA
Total EMN
CR
Total CNRS
CR
Total INRIA
TOTAL
16
2
33
51
4
1
11
16
1
1
2
2
70
"# %#
"$#
2#
"1#
!"#
1"#
&'()*+,(-*#
*.'#
/'+,#
('+(0#
3456789:# ;,-# (&-#
F IGURE 1.10 – Répartition des E/C par tutelles et par composantes au 30 juin 2010.
Les figures 1.10 et 1.11 étudient la population des E/C-C permanents du point de vue de leurs employeurs :
– le LINA compte trois chercheurs pour 67 enseignants-chercheurs E/C, soit un ratio de 4 %, qui
traduit la jeunesse du laboratoire ;
– un ratio de 2,3 maı̂tres de conférences (47 au total) pour un professeur (20 au total) ;
– 11 des 47 maı̂tres de conférences (25 %) ont bénéficié d’un congé recherche sur la période de
référence section 1.5.1 ce qui est un chiffre très significatif ;
– un chercheur CNRS pour deux chercheurs INRIA. La différence entre le nombre de chercheurs
des deux instituts n’est pas significative et s’explique par l’antérioté de la présence de l’INRIA par
rapport à celle du CNRS ;
– l’Université contribue à 76 % et l’EMN à 24 % de l’effectif des enseignants-chercheurs avec
des différences de statuts significatives entre les deux ministères de tutelle. Pour l’Université, la
répartition est la suivante : FST 46 %, Polytech’Nantes 19 % et IUT 11 %.
– la géographie des postes est liée aux quatre principaux lieux d’enseignement : départements informatique de la FST, de l’EMN, de Polytech’Nantes et de l’IUT, avec des populations d’étudiants
très différentes.
Caractérisation de la population des E/C et C
La moyenne d’âge des E/C est de 40 ans. Sur ce critère également, le LINA est un laboratoire très
jeune avec une pyramide des âges inversée comme l’indique la figure 1.12. L’analyse détaillée de ces
pyramides d’âge montre que :
– les trois tranches d’âge les plus importantes sont celles des 35-39 ans (16 membres), des 40-44 ans
(16 membres) et des 30-34 ans (13 membres). La double tranche des 55-65 ans est réduite à deux
séniors et le renouvellement du laboratoire ne viendra donc plus des départs en retraite ;
– 10 des 11 responsables d’équipe sont professeurs, les 2/3 se trouvant dans la tranche d’âge des
40-49 ans. Trois de ces responsables sont des femmes ;
– pour ce qui est du ratio homme/femme il est de 4, le LINA accueille 14 femmes et 56 hommes. Le
36
Bilan 2006–2009 et projet 2012-2015 LINA
CNRS
INRIA
Faculté des Sciences
Faculté des Lettres
IUT (INFO + OGP)
Formation Continue
Polytech’ Nantes
Université de Nantes
Ecole des Mines de Nantes
Total
PR
10
2
4
16
4
20
DR
0
MdC
18
2
7
1
7
35
12
47
CR
1
2
3
Σ
1
2
28
2
9
1
11
51
16
70
F IGURE 1.11 – Détail de la répartition par tutelles et par composantes.
F IGURE 1.12 – Pyramide des âges PR & MdC (haut). Ratio H/F rangA (bas gauche) - rangB (bas droite).
LINA
37
collège des rangs A réunit trois femmes pour 17 hommes, celui des rangs B réunissant quant à lui
11 femmes pour 39 hommes.
Évolution de la population des E/C sur la période
Entre 2006-2009, le LINA a accueilli 20 nouveaux membres : 2 PR, 3 CR et 15 MdC. Sur la même
période, 12 membres nous ont quitté : cinq PR (trois à la retraite et deux en mutation), deux DR (en
mutation), et cinq MdC (un décès, un départ à la retraite, une mutation et deux promotions PR externes).
Quatre MdC ont bénéficié d’une promotion PR locale.
L’analyse des recrutements montre que, depuis son passage UMR en 2008, le LINA gagne en attractivité pour la qualité des candidatures et des lauréats. Le principe de mobilité faisant son chemin,
la tendance à recruter des candidats externes s’accentue, renforcée par la mise en place des comités de
sélection. Sur les quinze MdC recrutés depuis 2006, quatre ont fait leur thèse au sein du laboratoire. Pour
ce qui concerne les professeurs, l’ouverture à l’extérieur est moins manifeste et n’a pas porté tous ses
fruits : pour deux recrutements externes, nous avons réalisé quatre promotions locales. Ces promotions
endogènes traduisent la volonté des établissements de conserver les MdC les plus impliqués dans leur
département d’enseignement et leur équipe de recherche mais aussi la concurrence française sur ce type
de poste.
A contrario, l’analyse des départs montre que le laboratoire est dans une période charnière de renouvellement scientifique avec la retraite de trois professeurs mais surtout les mobilités sortantes de
P. Valduriez, E. Paccitti et N. Mouaddib, tous les trois, au cœur de l’EPI ATLAS. Du point de vue gouvernance, la nouvelle pyramide des âges montre un déficit de seniors susceptibles de s’impliquer à la fois
dans la direction du laboratoire et les différentes instances nationales et internationales.
Recrutements MdC (+4+11)
– 2006 (7) : Julien Blanchard (thèse LINA/COD), Sophie Demassey (thèse U. Avignon, post-doc U.
de Montréal), Damien Eveillard (thèse LORIA, post-doc U. du Texas), Hervé Grall (thèse Paris
6/INRIA Rocquencourt, ingénieur Trusted Logic), Nicolas Hernandez (thèse LIMSI, Paris-Sud),
Antoine Pigeau (thèse LINA/GRIM), Annie Tartier (ancienne PRAG) ;
– 2007 (2) : Audrey Queudet (thèse IRCCyN/TempsRéel, post-doc U. de Valencia), Anthony Przybylski (thèse LINA/ROOM) ;
– 2008 (4) : Gilles Chabert (thèse U. Nice/Sophia-Antipolis), Arnaud Lanoix (LORIA), Xavier
Lorca (thèse LINA/Contraintes), Adrien Lèbre (thèse IRISA/PARIS) ;
– 2009 (2) : Yann Busnel (thèse IRISA/ASAP, post-doc U. de Rome), Jean-Marie Mottu (thèse
IRISA/Triskell).
Recrutements CR (+3)
– 2007 Alexandre Goldsztejn (thèse Sophia Antipolis, post-doc U. Californie), CNRS MEO ;
– 2008 Réza Akbarinia (thèse LINA/ATLAS-GDD, post-doc Canada), INRIA ATLAS ;
– 2009 Nicolas Tabareau (thèse PPS), INRIA ASCOLA.
Promotions et recrutements PR (+4+2)
– 2007 : Narendra Jussien (EMN, LINA/Contraintes) et Philippe Leray (INSA Rouen → COD) ;
– 2008 : Christian Attiogbé (IUT, LINA/Coloss) et Marc Gelgon (Polytech, LINA/GRIM) ;
38
Bilan 2006–2009 et projet 2012-2015 LINA
– 2009 : Colin de la Higuera (Hubert Curien St Etienne → LINA/TALN) et Emmanuel Morin (IUT,
LINA/TALN) ;
– 2010 (pour information) : Fabrice Guillet (Polytech, LINA/COD) et Pascal Molli (INRIALORIA/Score → FST LINA/GDD).
Départs PR et DR (-5-2)
– 2007 : Noureddine Mouaddib (PR1 ATLAS-GRIM, délégation à l’Université Internationale de
Rabat depuis septembre 2007) ;
– 2008 : Jean Bézivin (PR1 ATLAS-GDD, délégation EMN puis retraite septembre 2010), Matthias
Ehrgott (DR2 CNRS ROOM → associate professor Auckland), Gilles Muller (PR2 OBASCO →
DR2 INRIA Rocquencourt, 2008) et Henri Habrias (PR COLOSS, retraite) ;
– 2009 : Henri Briand (PR0 COD, retraite) et Patrick Valduriez (DR0 INRIA ATLAS, mutation à
Montpellier).
Départs MdC (-5)
– 2007 : Tahar Khammaci (MODAL, décès), Ivan Kojadonovic (COD, disponibilité à Auckland puis
promotion PR à Pau 2010) et Laurent Ughetto (GRIM, IRISA Rennes) ;
– 2009 : Esther Pacitti (ATLAS-GDD, promotion PR Montpellier) et Annie Tartier (TALN, retraite).
Détachements, délégations et CRCT
Avec l’appui des quatre départements d’enseignement qui lui sont associés mais également le soutien
de nos tutelles et de l’INRIA, le LINA a mis en place une politique d’encouragement des maı̂tres de
conférences à demander un congé de recherche. À titre personnel, ce ≪ détachement ≫ doit permettre
d’approfondir un domaine scientifique, réaliser une mobilité géographique temporaire et/ou d’avancer
sur un projet d’HDR. Cette politique a eu des résultats très significatifs, puisque 1/4 des MdC (12 sur 47)
a pu profiter d’une telle opportunité. De manière exhaustive :
– INRIA (8) :
détachements de T. Ledoux 08-10, J.-M. Menaud 06-08 et M. Südholt 04-06 au sein d’ASCOLA ; délégations de G. Raschia 07-08, E. Paccitti 08-09 et P. Lamarre 08-10 au sein d’ATLAS ;
détachement à Rennes de M. Christie 07-10 (Bunraku) et délégation de J. Bourdon (Symbiose) ;
– CRCT Université (4) :
B. Daille 07-08, E. Morin 07-08 à Tokyo, D. Tamzalit 08-09 à Louvain et C. Truchet 09-10 ;
– CRCT EMN (1) :
R. Douence à Grenoble en 06-07 (6 mois).
À noter qu’une première délégation CNRS (P. Serrano) est prévue à l’automne 2010.
1.5.2 Personnels administratifs et techniques permanents
Avant de mesurer l’évolution de cette population, nous prenons pour point de départ cet extrait du
comité d’évaluation 2007. ≪ Le ratio ITA/permanents par contre est très faible. Le soutien du CNRS
(une IE responsable administrative arrivée en 2005) et de l’INRIA (une assistante de projet) doit se
poursuivre et être complété par du soutien en postes IATOS de l’Université. Un soutien en ingénieur
de développement est également souhaitable, au vu des efforts de développement logiciel fait par les
équipes ≫.
LINA
39
Nos tutelles ont effectivement accompagné le passage UMR par la mise à disposition de 2.5 postes
d’IATOS ; un MA EMN en charge de la valorisation de la recherche, une AI CNRS assistante de direction et une 21 ADT Université, assistante d’équipe partagée avec le département informatique de l’UFR
Sciences.
Au 30 juin 2010, le laboratoire recense 14 personnels ITA, dont 10 permanents (7.6 ETP) et 4
CDD (2.8 ETP), pour un équivalent temps plein de seulement 10.4 du fait des temps partiels. Le ratio ITA/permanents s’est donc amélioré (10.4/70) mais le laboratoire doit financer sur ses ressources
trois de ses 14 ITA, pour un équivalent temps plein de 1.8.
Le tableau 1.13 et la présentation des trois services suppports (informatique, valorisation de la
recherche (VR) et affaires générales (AG)) faite en section 1.3.3 détaillent la répartition des ITA permanents selon les tutelles et les services. On notera l’effort fait par le CNRS mais le déficit de personnels
permanents de l’Université, le chiffre de 3.1 ETP incluant 0.8 ETP financé de fait par le laboratoire. Ce
déficit se traduit aujourd’hui par un service informatique en sous effectif et incapable de soutenir les
équipes dans leur développement logiciel.
Mouvements de permanents :
– CNRS : S. Beaurain, T, mutation 2006. A. Boilot, AI, détachement France Télécom 2008, puis
titularisation 2009 ;
– EMN : J.-P. Sachet, MA, mis à disposition du LINA en 2008 ;
– Université : E. Gindre, IE, départ du LINA et mis à disponibilité de la DSI en avril 2009. Remplacement de N. Moravek (non titularisé) par F. Piquet en 2009 ;
– LINA/Université : retour d’A. Lardenois de congés maternité, d’abord comme CDI Univaloire
(2008) puis comme CDI T Université en 2010. Mutation d’I. Condette en 2007, ADT à mi-temps
pour le labo et mi-temps pour le département informatique.
Mouvements de non permanents :
– Université : A. Even, CDD AI, service informatique depuis 2009. D. Boeuf, CDD T, service informatique depuis 2009 ;
– LINA/Polytech : S. Leroux, CDD ADT, financé à mi-temps sur notre dotation depuis 2008 ;
– LINA/Université : D. Meneu, mi-temps, projet FP7 TTC depuis 2010.
Priorités relatives à l’évolution des trois services
Aujourd’hui un nouvel effort des tutelles est nécessaire pour accompagner la croissance du laboratoire.
Pour ce qui concerne le service informatique, la première priorité est la pérennisation des deux postes
Université (T et AI) en CDD pour garantir sa mission première d’assistance de premier niveau aux
membres du laboratoire mais également aux E/C du département d’enseignement.
La deuxième priorité est la formation d’un groupe d’ingénieurs de développement, associé au projet
de plate-forme technologique, en charge de valoriser les logiciels réalisés par les équipes. L’ouverture
d’un concours d’IE CNRS en septembre 2010 est une première étape dans cette direction mais nous
souhaitons qu’elle soit accompagnée par le recrutement d’ingénieurs de recherche dans les prochaines
années.
Pour ce qui est du service des affaires générales, son organisation actuelle donne satisfaction mais
il n’est pas souhaitable que le laboratoire finance sur ses ressources un salaire de CDI Université qui
40
Bilan 2006–2009 et projet 2012-2015 LINA
représente 20 % de ses dotations annuelles (Université plus CNRS). Enfin, il sera important de renforcer
en secrétariat le service de la valorisation de la recherche pour lui permette de développer la communication et les partenariats du laboratoire.
Université de Nantes
AG + VR
AG + VR ~tp
IE
Total
CNRS
Total
3
1
1
2
8
1,5
1
1
2
5,8
T
IGE Total Univ AGT
3D
MA
Total EMN
2
1
3
1
1
1
1,5
0,8
2,3
0,2
0,5
0,8
Service Info ~tp
1
1
1
2
0,8
0,8
1
1
1,8
4
0,8
T
1
Total
permanents
1,5
CNRS
AI
AGT
Service Info
Total ~tp
Ecole des Mines de Nantes
0,8
3,1
3
0,2
0,5
0,8
!$
1,5
!"#$
10
1
1
1
&'()$$
*+,$
#"%$
-,./$
F IGURE 1.13 – Répartition par tutelles des permanents ITA/IATOS du LINA.
3
7,6
LINA
41
1.6 Ressources financières / Budget
Les tableaux de la figure 1.14 récapitulent les ressources contractuelles et les dotations récurrentes
dont a disposé le LINA sur la période de référence. Ces ressources cumulées se sont élevées à près de 6,8
Me (dotations des tutelles comprises) soit une moyenne annuelle de l’ordre de 1,7 Me. Hors salaires,
les dotations des tutelles et le soutien de l’INRIA ne représentent donc que 13,6 % des ressources totales
du laboratoire.
Appels à projets
internationaux
Appels à
projets
nationaux
Collectivités
Territoriales
Contrats de
recherche
privée
Pôles/
Fondations/
Prestations
Total FP
495 400 !
414 900 !
409 000 !
318 000 !
1 637 300 !
399 900 !
972 300 !
915 600 !
788 600 !
3 076 400 !
179 400 !
175 400 !
134 000 !
97 300 !
586 100 !
131 100 !
161 200 !
42 200 !
65 200 !
399 700 !
35 000 !
1 000 !
72 000 !
53 700 !
161 700 !
1 240 800 !
1 724 800 !
1 572 800 !
1 322 800 !
5 861 200 !
Université
CNRS
EMN
INRIA
Total D
D/TotalFP+D
2006
2007
2008
2009
Total
57 755 !
57 655 !
68 299 !
68 299 !
252 008 !
59 800 !
56 819 !
74 006 !
74 006 !
264 631 !
80 000 !
80 000 !
75 000 !
75 000 !
310 000 !
9 625 !
36 613 !
30 000 !
20 000 !
96 238 !
207 180 !
231 087 !
247 305 !
237 305 !
922 877 !
14,31%
11,81%
13,59%
15,21%
13,60%
LINA
"Dotation"
Fonds
Propres
Total FP+D
2006
2007
2008
2009
Total
207 180 !
231 087 !
247 305 !
237 305 !
922 877 !
1 240 800!
1 724 800!
1 572 800!
1 322 800!
5 861 200!
1 447 980 !
1 955 887 !
1 820 105 !
1 560 105 !
6 784 077 !
2006
2007
2008
2009
Total
F IGURE 1.14 – Tableaux budgétaires : fonds propres (en haut) et dotations (au milieu).
1.6.1 Dotations récurrentes
– Les dotations annuelles de l’Université et du CNRS sont du même ordre de grandeur, soit
70 Ke TTC (comme figuré en 1.15). Depuis le passage UMR en 2008, l’Université a augmenté
sa dotation de 15 %, dotation qui est la même pour tout le quadriennal. Le CNRS a également
augmenté sa dotation en 2008 de 23 %, puis à nouveau de 10 % en 2010 au moment de la création
d’INS2I ;
– l’EMN attribue directement sa dotation de 75 Ke à son département informatique. La direction du
laboratoire n’a donc pas la gestion de ces crédits qui sont délégués au responsable du département
et bénéficient directement aux équipes ASCOLA et Contraintes.
42
Bilan 2006–2009 et projet 2012-2015 LINA
F IGURE 1.15 – Histogramme dotation tutelles et participation INRIA.
– l’INRIA n’est pas une tutelle du laboratoire, mais lui verse une dotation annuelle au titre de la convention d’hébergement de l’EPI ATLAS la liant à l’Université de Nantes. Les montants versés sont
corrélés au nombre de personnels INRIA hébergés et aux montants de contrats de l’équipe gérés
par le centre INRIA. Du fait de la sortie d’ATLAS des activités d’AtlanMod puis du déplacement
du cœur du projet à Montpellier, l’enveloppe annuelle est en diminution depuis 2007 et devrait
disparaı̂tre en 2011 avec l’arrêt d’ATLAS.
1.6.2 Fonds propres
La figure 1.16 illustre les répartitions des ressources financières du LINA suivant leurs origines (dotations comprises) et leur évolution suivant les années pour la période de référence. Une analyse de ces
répartitions montrent les tendances suivantes :
– les AAP internationaux représentent près du quart (24 %) des ressources du laboratoire. L’implication du laboratoire dans les programmes européens (FP6 et FP7) est donc significative avec pour
le FP6 les REX AOSD-Europe et INTEROP, les STREP Net-WMS, AMPLE et Grid4All même
s’il faut noter un certain affaissement de ces ressources au cours de la période 2006-2009. Toutefois, l’acceptation fin 2009 des deux projets FP7 TTC et Scalus, la participation au REX Pascal2,
permettent de considérer un bon maintien du niveau de ces fonds européens dans les années qui
viennent ;
– les AAP nationaux représentent presque la moitié (45%) des ressources avec une prédominance 4
des projets ANR à un niveau financier par ailleurs stable sur l’ensemble de la période 2006-2009.
En se projetant sur le futur quadriennal, on peut d’ores et déjà indiquer que le niveau des ressources
ANR sera comparable au moins les deux premières années. L’implication croissante des équipes
du LINA dans la réponses aux appels d’offre PMI/PME et FUI du pôle Images et Réseaux devrait
se traduire par une augmentation de ce type de ressources ;
– la contribution des collectivités territoriales, principalement du Conseil Régional des PdL,
représente près de 10 % grâce tout particulièrement aux projets COM, BIL et MILES. Malgré un
léger affaissement les deux dernières années 2008 et 2009, ces ressources devraient rester toutefois
4. 66 % pour les ANR, 13 % pour les ACI/ARA/RNTL et 21% pour les appels des ministères en reprenant la nomenclature
de la fiche 3.1 du bilan Excel
LINA
43
Appels à projets
nationaux
45%
Appels à projets
internationaux
24%
Dotations
Tutelles + INRIA
14%
Collectivités
Territoriales
9%
Pôles/ Fondations/
Prestations
2%
Contrats de
recherche privée
6%
1000
Appels à projets
internationaux
900
800
Appels à projets
nationaux
700
Collectivités
Territoriales
600
Contrats de
recherche privée
500
400
Pôles/ Fondations/
Prestations
300
Dotations Tutelles
+ INRIA
200
100
0
2006
2007
2008
2009
F IGURE 1.16 – Origines et évolution des ressources du LINA (fonds propres et dotations).
44
Bilan 2006–2009 et projet 2012-2015 LINA
du même ordre dans le prochain quadriennal avec les projets DÉPART et LigéRO acceptés dans le
cadre de l’AAP 2009 ;
– la recherche partenariale directe avec des entreprises se situe autour de 6% et correspond pour une
grande partie (63%) à des contrats d’accompagnement des bourses CIFRE. La relative faiblesse de
cette contribution traduit la difficulté à contracter directement avec les entreprises qui privilégient
d’abord la ≪ recherche partenariale ≫ via les guichets Europe, ANR et CIFRE. De ce fait, le LINA
ne tire pas bénéfice du CARNOT Mines ;
– le volet ≪ pôle/fondations/prestations ≫ représente moins de 3% des ressources contractuelles.
1.6.3 Analyse et politique de redistribution aux équipes
Les projets européens et les projets “type ANR” (incluant les RNTL, ARA, ACI) financent une
grande partie des recherches du laboratoire puisqu’ils représentent près de 60 % des ressources totales
du laboratoire. Cette participation monte à 72 % dès lors que l’on ajoute le support du Conseil Régional
et les contrats privés. Ces projets ont donc une influence notable sur l’évolution des projets scientifiques
mais également sur le recrutement de personnels non-permanents associés à la réalisation de ces contrats.
Ainsi, depuis 2006 ces contrats ont permis l’accueil au sein des équipes :
– de 28 nouveaux doctorants comme résumé par le tableau 1.17 ;
– de 17 post-doctorants et 16 ingénieurs de développement en CDD ;
– d’1/2 assistante (D. Meneu) en charge de la coordination administrative et financière du projet FP7
TTC.
Pour le LINA, comme pour la plupart des autres laboratoires, ces contrats ont l’avantage de créer
un fort volant d’activités tout en contribuant à sa visibilité, mais le grave inconvénient de générer des
tâches administratives non financées surtout pour le cas de l’ANR. En l’absence de retour du preciput, ces
tâches croissantes incombent aux trois services supports, par ailleurs sous dotés en personnel ITA/IATOS
et ce au risque de les ≪ épuiser ≫. De ce point de vue, il est critique qu’une part du preciput/BQR soit
retournée au laboratoire pour aider celui-ci à absorber le surcoût administratif induit. Par ailleurs, il
est pertinent de réfléchir à l’encouragement de coordinateurs de projets européens ou nationaux. Les
discussions sont engagées sur ces sujets entre nos tutelles et la direction du laboratoire. Cette année
2010, l’Université/Polytech a reversé 3000 e au LINA pour le financement d’une assisante d’équipe. La
coordinatrice d’un projet européen a bénéficié quant à elle d’une demi décharge d’enseignement.
Cofinancements
ANR
Europe
Région
CIFRE
Total
Mines
CNRS
INRIA
2006
2
0,5
1
0,5
!
!
4
2007
3,5
!
2,5
3
0,5
0,5
!
10
2008
!
!
6
1
0,5
0,5
!
8
2009
1
1,5
1,5
1
!
0,5
0,5
5
Total
6,5
2
11
5
1,5
1,5
0,5
28
F IGURE 1.17 – Financements des doctorants sur ressources contractuelles.
LINA
45
Politique de redistribution aux équipes
Compte tenu du montant de la dotations récurrente (CNRS plus Université) de 150 Ke à ramener
aux 160 membres du laboratoire et à mettre en regard du volume global des ressources contractuelles
obtenues par les équipes, la politique de la direction est d’accompagner l’autonomie financière de cellesci en appliquant les deux règles suivantes :
1. pas de répartition automatique de sa dotation récurrente aux équipes (et donc aux membres du
laboratoire) ;
2. en contrepartie, pas de prélèvement du laboratoire sur les contrats (et leur ligne frais de gestion).
En pratique, cette dotation est utilisée après avis du conseil de laboratoire principalement pour :
– financer les salaires d’une assistante d’équipe (à 80 % de temps) à la FST et d’une assistante
d’équipe à mi-temps à Polytech’Nantes palliant ainsi au déficit en ITA-IATOS discuté en 1.5.2.
Ces deux salaires représentent 30% du montant de notre dotation annuelle ;
– partager avec le département d’enseignement de la FST les frais de fonctionnement liés à
l’usage commun du bâtiment, contribuer à ceux du département informatique de Polytech, ce qui
représente 28 % de la dotation 2009 ;
– assurer la jouvence du matériel informatique (réseaux, serveurs, imprimantes. . .) géré par le service
informatique ;
– offrir un soutien spécifique aux équipes en rupture de contrats sur une base estimée à 6 mois de
fonctionnement ;
– soutenir l’ensemble des activités d’animation scientifique détaillées en section 1.4 dont nos
différents séminaires ;
– promouvoir les activités scientifiques du laboratoire comme la participation aux frais des jurys de
thèse et de HDR, les opérations de communication spécifiques (plaquettes, posters. . .), l’organisation d’ateliers et de colloques à Nantes, les frais induits par les comités de sélection. . ..
46
Bilan 2006–2009 et projet 2012-2015 LINA
1.7 Formation par la recherche
1.7.1 Masters
Les enseignants-chercheurs du LINA sont très impliqués dans les différentes composantes de l’Université de Nantes : IUT de Nantes, Faculté des Sciences, Polytech’Nantes mais également à l’EMN où ils
assurent de lourdes responsabilités inhérentes à l’administration et l’animation des quatre départements
d’enseignement. Avec le LMD, les membres du LINA ont pris une part importante dans la mise en place
du master informatique de l’Université de Nantes en 2008. Celui-ci a succédé aux deux DEA ALD et
SAD associés aux deux axes historiques du laboratoire :
– la spécialité pro/recherche ≪ Architectures Logicielles ≫ (ALMA) et ses trois parcours architectures distribuées, génie logiciel et multimédia concernent principalement les équipes GDD, AeLoS, ASCOLA, GRIM et TALN ;
– la spécialité pro/recherche ≪ Optimisation en Recherche Opérationnelle ≫ (ORO) portée par les
équipes ROOM et MEO et qui concerne également les équipe Contraintes, ComBi et COD.
En sus de ce premier master, l’équipe ASCOLA a porté le master European Master in Object, Component
and Aspect Oriented Engineering EMOOSE co-habilité entre l’Université Libre de Bruxelles de 1998 à
2008 5 . L’équipe COD prend une part active dans le parcours ≪ Extraction des connaissances à partir des
données ≫ (ECD) du master de Lyon 2 cohabilité avec Polytech’Nantes.
F IGURE 1.18 – Implications des équipes LINA dans les formations de master recherche.
5. Il doit se transfomer en diplôme national de master (DNM) Evolving of Complex Software System (ECSS) à la rentrée
2011.
LINA
47
1.7.2 Doctorants
Les doctorants représentent près de la moitié des membres du laboratoire. Le LINA dispose d’une
capacité d’encadrement de 23 HDR pour 62 doctorants 6 soit un ratio d’1 HDR pour 2.7 doctorants (voir
section 1.6) qui devrait être amélioré avec la soutenance de nouvelles habilitations (2 au moins sont
en préparation). Par ailleurs, nous sommes à un ratio de 0.89 doctorant par E/C proche de l’unité qui
s’explique plus par la difficulté à recruter sur nos viviers locaux que par le manque de financements.
Synthèse des thèses soutenues
Equipe
2006
2007
2008
2009
2010
Total 20062009
11
ATLAS-GDD
2
5
2
2
2
ATLAS-GRIM
2
1
3
2
-
8
OBASCO/ASCOLA
1
2
2
5
-
10
MODAL
1
2
-
2
-
5
COLOSS
-
-
-
-
-
0
CONTRAINTES
4
1
2
1
-
8
MEO
1
1
0
1
-
3
ROOM
1
-
-
-
1
1
COD
2
1
4
2
-
9
1
2
17
13
1
14
1
2
18
1
4
2
5
62
COMBI
TALN
Total Equipes
F IGURE 1.19 – Répartition par année et par équipe des thèses soutenues entre 2006 et 2009.
L’information détaillée relative à chacune des thèses du LINA est disponible sur son site. Le
tableau 1.19 propose une ventilation par équipe et par année de la quinzaine de thèses soutenues en
moyenne chaque année.
La durée moyenne des thèses est de 47 mois ce qui est trop long même à considérer des travaux qui
s’accompagnent souvent de développements logiciels devant donner lieu à expérimentations et à benchmarks. Ce retard peut être lié au nombre significatif de thèses financées sur contrats de type CIFRE,
à celui des doctorants non francophones et également à une relative faiblesse de certains candidats.
Néanmoins, entre 2006 et 2009, cette durée moyenne a diminué de 50 mois à 45 mois. Cette première
réduction est notamment due à la mise en place du comité de suivi des thèses (CST) décrit en section 1.3.4. La possibilité de rédiger les thèses en anglais (4 sur 62 pour la période) est un autre facteur
pour accélérer la soutenance des étudiants étrangers. Le laboratoire et l’ED-STIM veilleront à confirmer
cette tendance lors du prochain quadriennal avec l’objectif de ramener à 40 mois cette durée moyenne.
Nature des financements
La figure 1.20 montre la variété du financement des thèses mais également leurs évolutions, par
année, et selon les résultats aux différents appels d’offre. Toutefois, cette répartition fait ressortir les
6. Il s’agit d’ailleurs d’une coincidence que le nombre 62 représente aussi bien le nombre de doctorants présents dans
l’unité au 30 juin 2010 et le nombre de thèses soutenues sur la période d’évaluation.
48
Bilan 2006–2009 et projet 2012-2015 LINA
Région
10%
MAE ANR et Europe
3%
10%
Industrie/CIFRE
18%
Gvt étrangers et
Univ. Etr.
11%
CNRS et INRIA
6%
Académique
(MESR, Mines)
42%
100%
90%
Nature du financement
80%
70%
MAE
60%
Région
Gvt étrangers et Univ. Etr.
50%
CNRS et INRIA
40%
Académique (MESR, Mines)
Industrie/CIFRE
30%
ANR et Europe
20%
10%
0%
2006
2007
2008
2009
F IGURE 1.20 – Origines du financement des thèses soutenues.
LINA
49
éléments significatifs suivants :
– le financement académique est prédominant : les allocations du MESR et du Ministère de l’industrie (via la tutelle EMN) représentent à elles seules près de 42 % du nombre de thèses financées
soit 26. Sur le quadriennal 08-11, l’ED-STIM assure (a priori) 4 allocations MESR annuelles au
LINA ;
– près de 21 % des thèses ont été menées en collaboration avec des institutions étrangères dans le
cadre d’échanges internationaux (bourses MAE et gouvernements étrangers) ;
– trois thèses ont été financées par l’INRIA et une thèse co-financée par le CNRS ;
– six thèses (quatre en propre, deux cofinancées par le CNRS) ont été prises en charge par le Conseil
Régional ce qui démontre l’effort consenti par la Région PdL dans son soutien à la recherche ;
– 18 % des thèses sont réalisées dans le cadre d’un partenariat industirel avec un nombre significatif
de cinq conventions CIFRE.
Formations et origines des docteurs 2006-2009
F IGURE 1.21 – Origine des docteurs 2006-2009.
L’origine de nos docteurs est très variée et presque 40 % d’entre eux viennent d’un pays étranger
comme le montre la figure 1.21. Parmi les continents les mieux représentés, l’Amérique latine contribue
avec un contingent significatif de 14,5 %. Cette présence s’explique par l’existence du master EMOOSE
1998-2008 issu d’un programme Alpha de l’UE impliquant plusieurs universités du Brésil, d’Argentine, du Chili et de Colombie, par des liens forts avec le Brésil et le Mexique des membres de l’équipe
ATLAS (E. Pacitti, G. Sunyé, P. Serrano), par la participation aux programmes COFECUB CAPES et
France-Mexique mais également par les coopérations des équipes MEO et ASCOLA avec le Chili suite
à ≪ l’essaimage ≫ de E. Montfroy à Valparaiso et E. Tanter à Santiago (projet Ecos-Sud CONICYT
CORDIAL).
Pour ce qui concerne l’Afrique du Nord, plusieurs équipes du laboratoire sont impliquées dans le
réseau STIC Franco-Marocain et Noureddine Mouadib est devenu président de l’Université Internationale de Rabat qui ouvrira ses portes en septembre 2010. L’équipe MODAL/AeLoS entretient pour sa
50
Bilan 2006–2009 et projet 2012-2015 LINA
part des relations privilégiés avec l’Algérie (projet PHC Tassili).
Le tableau 1.22 montre que la moitié de nos docteurs est issue d’une formation nantaise, l’autre
moitié ayant suivi un master dans une autre université française ou à l’étranger.
Origine des
docteurs
Masters sur Nantes
ALD
SAD
France
Etranger
Total
EMOOSE
ECNantes
ECD
Autres
4
10
0
38
5
11
24
15
11
62
France
10
13
-
1
Etranger
6
0
2
-
Total
16
13
2
1
!
4
F IGURE 1.22 – Formations de masters des docteurs.
Devenir des docteurs
Parmi les 62 docteurs de la période 2006-2009, 19 sont maı̂tres de conférences (ou équivalent),
deux ont été recrutés sur des postes de chargé de recherche (INRIA et Maroc), deux sont ingénieurs
de recherche (au LIRMM et au LINA), 19 travaillent dans l’industrie (dont 6 dans des PMI/PME Nantaises) et 16 réalisent un post-doc ou occupent un poste d’ATER. Il est à noter que presque la moitié de
nos docteurs étrangers poursuit une carrière universitaire hors de France alors qu’un tiers sont devenus
ingénieurs dans une entreprise française.
De manière plus précise, l’analyse de ces 62 docteurs, 38 sont de nationalité française (61 %) et 24
de nationalité étrangère. Nous avons distingué leurs parcours post thèse qui se caractérisent comme suit :
Nationalité française :
– 25 (près de 63 %) occupent maintenant un emploi dans l’enseignement supérieur et la recherche :
– 10 sont devenus MdC, deux à l’EMN (X. Lorca et F. Jouault), un à l’Université de Nantes
(A. Przybylski) et six dans des établissements français : Univ. Bordeaux, Univ. Grenoble, ESILV
Paris, Univ. Pau, EMDouai et ECNantes ;
– deux sont donc ingénieurs de recherche ;
– 12 sont post-doctorants ou ATER.
– 12 sont employés dans l’industrie (dont six de ceux ayant bénéficié d’une convention CIFRE).
Parmi les entreprises d’accueil figurent : Thalès R&D, Grecko Software, MGPS, AKKA, Logica,
Genigraph, Tritem, Arias Associates et quatre sociétés nantaises : Acapnos (en émergence), Blue
XML, Cap Gemini, et Sodifrance.
Nationalité étrangère :
– 15 (plus de 66 %) occupent des fonctions dans l’enseignement supérieur :
– dix sont EC dans des universités étrangères : Béni Mellal (Maroc), Bogota (Colombie), Cali
(Colombie), Cantho (Vietnam), Monterrey (Mexique), Parrana (Brésil), PUCR Rio Grande
(Brésil), Valparaiso (Chili), G. Berger de St Louis (Sénégal) et Tripoli (Libye) ;
– deux sont devenus chercheurs : R. Akbarinia (ATLAS) CR2 INRIA et S. Boulaknadel (TALN)
à l’IRCAM au Maroc ;
– trois sont post-doctorants ou ATER.
– huit occupent un poste dans l’industrie (dont un suite à une CIFRE) dans des entreprises comme
IBM-ILOG, XSARNET, Adacore, Gercko Software, Bimedia ainsi que trois PMI/PME nantaises :
Blue XML, Proxia AD ouest, Ouest Business Decision.
LINA
51
1.8 Bilan scientifique
Nous privilégions ici les faits marquants. Ils correspondent aux indicateurs classiques d’excellence
mesurant la production et la reconnaissance scientifique comme : l’organisation de conférences, la publication d’ouvrages de référence, les prix scientifiques associés à la publication de papiers ou de logiciels,
la qualité des recrutements et l’essaimage des E/C formés au laboratoire, la coordination de projets européens et de projets nationaux type ANR et la participation à des formations internationales.
Nous pourrions également mentionner l’implication des membres du laboratoire dans la communauté nationale que ce soit au niveau du CNU 27 (Bechet et de la Higuera), de la section 7 du CNRS
(Enguehard), de l’association SPECIF (de la Higuera), des comités d’évaluation de l’ANR (Daille), des
comités de visite de l’AERES (Benhamou, Cointe, Daille, Gandibleux, Gelgon et de la Higuera) et du
comité d’évaluation PES (Benhamou).
1.8.1 Faits marquants
F IGURE 1.23 – Entropy et sa ferme de processeurs (équipe ASCOLA).
Organisation de conférences de portée internationale (rang A pour CORE) :
– organisation à la cité des congrès de Nantes :
ECOOP 2006 ASCOLA, COLOSS et MODAL (450 participants) ; CP 2006 Contraintes et MEO
(250 participants) ; EDBT 2008 ATLAS-GDD et ATLAS-GRIM (270 participants) ;
– participation à l’organisation des conférences en France :
VLDB 2009 à Lyon (P. Valduriez General Chair) et AOSD 2010 à Saint Malo (M. Südholt Program
Chair).
Nous pouvons également faire état de l’organisation à Nantes des conférences francophones : semaine
de la connaissance 2006 (COD), CAL 2006 (Modal), JFPC 2008 (Contraintes), JOBIM 2009 (ComBi et
COD), atelier UMIA des RMLL 2009 (TALN) et EMO 2009 (ROOM).
Coordination de projets européens : Coordination du projet FP7 Terminology Extraction, Translation
Tools and Comparable Corpora TTC 2010-2012. Coordination des équipes INRIA de Rennes, Lille et
52
Bilan 2006–2009 et projet 2012-2015 LINA
Grenoble participantes au réseau d’excellence AOSD-Europe 2004-2008 puis à l’association de droit
anglais résultante.
Coordination de projets ANR : Les équipes coordonnent sept projets sur la période de référence :
BLANC FLFS 2006 (ASCOLA), BLANC Coccinelle 2006 (ASCOLA), TL Blogoscopie 2006 (TALN),
CONTINT MeTRICC 2008 (TALN), ARPEGE SelfXL 2008 (ASCOLA), VERSO DataRing 2008
(ATLAS-GDD), ARPEGE ARPEGE CESSA 2009 (ASCOLA).
Elles ont par ailleurs participé à 14 autres projets ANR en tant que partenaires : lancement de neuf
projets en 2006, quatre en 2007 et un en 2009.
Participation à des formations internationales : Organisation du master EMOOSE jusqu’en 2009 en
collaboration avec l’Université Libre de Bruxelles. Dans le cadre du réseau d’excellence AOSD-Europe,
organisation de l’AOSD Summer School à Nantes en août 2009. Lancement du master international ORO
en 2008, et du master Erasmus Mundus DMKM en Data Mining & Knowledge Management en 2009,
coordonné par l’Université de Lyon 2. DMKM a recueilli 600 candidatures pour sa première promotion.
Recrutements “exemplaires” :
– Recrutement d’A. Goldsztejn CR2 CNRS 2007 et intégration rapide à l’équipe MEO : prix du
meilleur article CP 08 avec L. Granvilliers et prix du meilleur article étudiant CP 08 avec J.-M.
Normand (équipe Contraintes) ;
– Recrutement de N. Tabareau CR2 INRIA 2009, deuxième prix de thèse Gilles Kahn (Specif) et
prix Rosemont/Demassieux de la Chancellerie de Paris pour sa thèse effectuée au laboratoire PPS
(UMR 7126) sous la direction de P.-A. Melliès. N. Tabareau s’est intégré rapidement à l’équipe
ASCOLA comme en atteste le papier à la conférence AOSD 2010.
Prix et distinctions :
– Prix Innovation IBM 2008 (UIMA Award) pour les travaux de N. Hernandez (équipe TALN) sur
les composants logiciels Eclispe/UIMA ;
– Prix 2009 de la croissance numérique verte pour les travaux de J.-M. Menaud et F. Hermenier
(équipe ASCOLA) sur la gestion de l’énergie dans les centres de données. Ces travaux ont donné
lieu au développement du logiciel Entropy (voir photos 1.23).
Ouvrages de références :
– The MIT Press 2009 : Combinatorics of Genome Rearrangements, Iréna Rusu et Guillaume
Fertin ;
– Cambridge University Press 2010 : Grammatical Inference : Learning Automata and Grammars,
Colin de la Higuera.
HDR : Sur la période 2006-2009, huit HDR ont été soutenues au LINA. Par ordre chronologique :
I. Kojadinovic (COD, le 21/11/2006), F. Guillet (COD, le 8/12/2006), M. Südholt (ASCOLA, le
11/07/2007), C. Attiogbé (COLOSS, le 13/09/2007), M. Gelgon (GRIM, le 13/11/2007), E. Morin
(TALN, le 30/11/2007), E. Pacciti (ATLAS-GDD, le 08/07/2008) et P. Lamarre (ATLAS-GDD, le
27/11/2009).
LINA
53
HDR soutenues
ATLAS-GDD
ATLAS-GRIM
COLOSS
OBASCO→ASCOLA
COD
TALN
Total
2006
2007
2008
EP
2009
PL
1
1
MG
CA
MS
IK & FG
2
EM
4
Σ
2
1
1
1
2
1
8
Six de ces huit HDR ont donné lieu à une promotion de professeur ; quatre en local, deux à Montpellier
et à Pau.
PEDR/PES : Sur les 51 enseignants-chercheurs de l’Université qui peuvent y prétendre (les 16 E/C de
l’EMN sont exclus de ce dispositif), 18 reçoivent actuellement la prime d’encadrement scientifique (14
PEDR et 4 PES) soit un pourcentage de 38,3 %.
1.8.2 Quinze publications distinguées
Nous reprenons ici la sélection des publications les plus significatives du LINA pour la période
concernée et qui figurent également dans le document Excel AERES synthétisant l’activité de recherche
et les résultats obtenus par l’unité.
1. International Journal on Very Large Databases, IJVLDB 2008, ATLAS-GDD.
2. Pattern Recognition 2010, ATLAS-GRIM et COD.
3. ACM Conference on Information and Knowledge Management, CIKM 2007, ATLAS-GRIM.
4. Transaction on Aspect-Oriented Software Development, TAOSD 2006, ASCOLA.
5. ACM Conference on Aspect-Oriented Software Development, AOSD 2008, ASCOLA.
6. IEEE Transactions on Software Engineering 2007, COLOSS.
7. Constraints 2007, Contraintes.
8. International on Principles and Practice of Constraint Programming, CP 2007, Contraintes.
9. ACM Transactions on Mathematical Software 2006, MEO
10. Conference on Principles and Practice of Constraint Programming, CP 2008, MEO.
11. Studies in Computational Intelligence 2008, ROOM.
12. Computational Molecular Biology, The MIT Press 2009, ComBi.
13. Biosystems 2009, ComBi et IRCCyN/Moves
14. IEEE Transactions on Knowledge and Data Engineering 2010, COD.
15. Computational Linguistics, ACL 2007, TALN.
54
Bilan 2006–2009 et projet 2012-2015 LINA
1.8.3 Synthèse de l’ensemble des publications
Le LINA a profité de l’évaluation AERES pour basculer sur HAL et déposer dans ces archives ouvertes l’ensemble de ses publications pour la période ≪ janvier 2006 - juin 2010 ≫. Le document bibliographique associé à ce rapport Bilan & Perspectives est donc issu de HAL. Malheureusement, les
procédures d’extraction n’étant pas complètement abouties, cette bibliographie contient encore pas mal
de scories malgré les différentes relectures.
Pour ce qui concerne la ventilation de ses publications par catégories, le LINA a adapté la nomenclature proposée par l’AERES pour les revues et les conférences. Plutôt que nous référer à l’ISI Web of
Knowledge, nous avons préféré utiliser The Computing Research and Education Association of Australasia (CORE) développé en Autralie pour classifier les revues et les conférences :
– ACL : articles dans des revues internationales ou nationales notées A ou B par CORE ou de niveau
jugé équivalent ;
– ACLN : articles dans des revues acceptés par un comité de lecture mais ne figurant pas dans ACL,
en particulier les C de CORE et les revues nationales non répertoriées dans CORE ;
– ACTI : articles dans des conférences internationales ou nationales notées A ou B par CORE ou de
niveau jugé équivalent ;
– ACTN : articles dans des conférences ou ateliers (workshops) avec actes incluant les C de CORE ;
– OS : ouvrages scientifiques (ou chapitres de ces ouvrages) incluant les mémoires de thèse et de
HDR.
Au titre de l’auto-évaluation, la direction a demandé à chaque équipe de ventiler ses publications
selon cette nomenclature revisée. Si l’on considère que les publications de rang A concernent la somme
des ACL, ACTI, INV et OS (à l’exclusion de 70 thèses et HDR), nous obtenons un total de 561 publications (157+12+311+151-70) à ramener aux 132 publiants (E/C et doctorants). Ce niveau de publication
traduit une bonne dynamique.
Équipe
ASCOLA
COD
COLOSS
COMBI
CONTRAINTES
GDD
GRIM
MEO
MODAL
ROOM
TALN
Totaux
ACL
12
25
2
26
17
21
8
9
10
13
14
157
ACLN
7
27
2
0
3
8
4
2
5
2
6
66
Publications des équipes du 1/1/2006 au 30/06/2010
ASCL BRE INV ACTI ACTN COM AFF
1
0
1
64
14
2
0
0
0
8
19
61
18
2
0
0
1
19
8
0
0
0
1
0
21
6
2
0
0
0
1
22
27
3
0
0
0
0
33
54
2
0
0
0
0
16
20
0
1
0
0
1
17
15
4
0
0
0
0
46
18
3
0
0
0
0
7
1
32
0
0
0
0
47
27
2
1
1
1
12
311
251
68
4
OS
23
39
2
3
13
23
16
8
9
4
11
151
OV
0
0
0
0
0
0
0
0
0
0
0
0
DO
2
9
4
0
0
1
0
0
4
3
1
24
AP
23
18
0
2
6
13
3
5
7
5
2
84
1.8.4 Logiciels
Les équipes réalisent des efforts très significatifs de développements logiciels souvent menés dans le
cadre de projets européens, ANR ou de partenariats industriels. Sur la période concernée, nous souhaitons
mettre en avant les réalisations suivantes et leurs modèles de diffusion :
Total EQ
149
226
38
60
92
155
68
61
102
67
111
1130
LINA
55
– CHOCO (Contraintes) : cette bibliothèque Java de PPC intègre explications, relaxation de contraintes et contraintes globales. Développée avec l’assitance du e-lab de Bouygues, elle est utilisée
par Cap Gemini, Valéo, KLS, Amadeux et la Nasa. Deuxième vitrine de l’équipe Contraintes avec
son catalogue de contraintes globales, CHOCO suscite en moyenne 450 téléchargements mensuels ;
– ATL (ATLAS-GDD) : le langage de transformation de modèles ATL diffusé sous licence open
source EPL (Eclipse Public Licence) a été retenu en 2007 comme un composant standard du Eclipe
Modeling Framework. ATL a été utilisé par les deux projets européens Modelware et Modelplex
puis par une communauté active d’une centaine de sites utilisateurs académiques et industriels
dont TNI/Geensys, ILOG, Airbus, Thales et la NASA.
La PME Nantaise Obeo s’est développée en vendant des services et de la formation autour d’ATL
via son offre ATL-PRO. Ce résultat est une illustration du nouveau modèle économique ≪ en
triangle ≫ associé à la diffusion du logiciel libre ;
– UIMA (TALN) : cet environnement de développement construit sur l’architecture Apache UIMA
est dédié à la réalisation de composants logiciels pour le traitement automatique de la langue.
TALN est lauréate du prix IBM UIMA 2008 et a organisé l’atelier UIMA des rencontres mondiales
du logiciel libre (RMLL) à Nantes en juillet 2009 ;
– Entropy (ASCOLA) : ce logiciel optimise le placement de machines virtuelles sur des clusters
et réduit leur empreinte énergétique. Il utilise la PPC (CHOCO). et arrive au sixième rang (sur
526) des projets publics téléchargés à partir de la forge INRIA. Lauréat du prix de la croissance
numérique verte 2009, Entropy est au cœur de la thèse de F. Hermenier.
56
Bilan 2006–2009 et projet 2012-2015 LINA
1.9 Auto-évaluation (analyse SWOT)
Forces
– Dynamique d’une jeune UMR structurée en équipes-projet ;
– Fort soutien des trois tutelles mais également de la région Pays de la Loire et de l’INRIA ;
– Des thématiques reconnues au niveau international comme génie logiciel et contraintes ;
– Bonne insertion (inter)régionale : fédération AtlanSTIC à Nantes, pôle Images et Réseaux, IRISA
et centre INRIA Rennes Bretagne Atlantique à Rennes ;
– Attractivité croissante et qualité des recrutements.
Faiblesses
– Laboratoire multi-sites et multi-cultures associé à quatre départements d’enseignement ;
– Problème d’identité et d’appropriation d’un projet commun, laboratoire versus fédération
d’équipes ;
– Déficit de seniors (absence d’IUF et d’ERC), encore peu de chercheurs CNRS & INRIA, peu de
visiteurs étrangers ;
– Jeunes responsables d’équipes encore insuffisament aguerris à l’administration de la recherche ;
– Manque d’ingénieurs pour le développement des logiciels des équipes ;
– Durée des thèses et viviers de doctorants ;
– Offre de formation informatique à Nantes encore peu visible.
Menaces
– Emergence de méga-centres de recherche nationaux à l’attractivité et aux moyens supérieurs ;
– Nouvelle organisation de la recherche et de son financement : charges croissantes et risques
d’épuisement ;
– PRES L’UNAM versus PRES Nantes-Rennes ;
– Compatibilité du modèle des UMR CNRS et de celui des EPI INRIA ;
– Diminution du flux d’étudiants en informatique ;
– Renouvellement des seniors (en particulier thématique gestion de données distribuées).
Opportunités
– Attractivité du territoire et potentiel de postes encore disponibles ;
– Nouvel institut CNRS INS2I ;
– Renforcement de la présence de l’INRIA à Nantes sur le domaine STIC-énergie (GREEN-IT),
liaison avec le KIC EIT ICT Labs, intégration de l’équipe EMN-INRIA AtlanMod ;
– Initiative d’excellence (grand emprunt) en particulier projet de LabEx ≪ Internet du Futur ≫ avec
Rennes ;
– CPER : nouveau bâtiment LINA et plate-forme logiciels ;
– Quartier de la création sur l’ı̂le de Nantes.
LINA
57
1.10 Concrétiser la vision : le LINA demain
1.10.1 Retour sur les objectifs 2006
Le document de perspective associé à la dernière évaluation de janvier 2007 indiquait verbatim :
Le projet scientifique du LINA pour la période 2008-2011 s’inscrit logiquement dans la continuité du
dernier quadriennal et vise donc à :
≪
1. confirmer et étendre l’impact de la recherche en informatique à Nantes sur ses deux axes de
développement : ≪ architectures logicielles distribuées ≫ et ≪ systèmes d’aide à la décision ≫ ;
2. contribuer activement au développement d’un pôle européen de recherche en STIC sur l’interrégion Pays de la Loire-Bretagne en s’appuyant sur la fédération AtlanSTIC (CNRS FR 2819),
le nouveau CPER ≪ STIC et Calculs ≫, les partenariats avec l’IRISA et le pôle de compétitivité
Images et Réseaux ≫.
A l’issue de la période 2008-2010, nous estimons avoir atteint le premier but qui se déclinait dans les
deux sous-objectifs :
1. améliorer notablement le niveau scientifique des trois équipes COD, ComBi et TALN qui ont
toutes trois acquis une visibilité nationale voire internationale (coordination des ANR Blogoscopie
et MeTRICC, coordination du projet FP7 TTC, participation au master Erasmus Mundus DMKM
et au réseau d’excellence Pascal2) ;
2. conforter les deux thèmes ≪ logiciel ≫ et ≪ contraintes et optimisation ≫ en particulier par
le recrutement de deux chargés de recherche CNRS et INRIA, le renouvellement de l’EPI
OBASCO/ASCOLA et la proposition d’EPI TASC. La création des équipes AeLoS et OPTImisation va également dans le sens d’un meilleur affichage de ces deux thèmes phares.
Pour ce qui concerne l’objectif de développement d’un pôle européen STIC, la section 1.2 décrit dans
les détails la place occupée par le LINA dans l’inter-région Pays de la Loire-Bretagne. Cet objectif reste
d’une actualité brûlante avec le lancement du grand emprunt et les réflexions en cours sur une proposition
d’un Laboratoire d’Excellence (LabEx) Grand Ouest dédié à ≪ l’Internet du Futur ≫. Ce point constitue
une nouvelle opportunité développée en section 1.11.2.
1.10.2 Le changement dans la continuité
Pour le prochain quadriennal, la stratégie reste à consolider les thèmes forts du laboratoire et d’accompagner la création des équipes AeLoS et OPTImisation, en particulier par de nouveaux recrutements
exogènes. Elle vise aussi à faire émerger de nouvelles recherches dans des domaines sociétaux transverses aux STIC. Nous pensons en priorité aux couplages :
– ≪ STIC et Énergie ≫ couleur que l’INRIA a choisi de donner à ses EPI nantaises ;
– ≪ STIC et Sciences du Vivant ≫ dans le cadre du réseau de plates-formes BiogenOuest, en
développant les synergies entre les équipes d’informatique et celles des biologistes de l’INSERM
et l’INRA de Nantes ;
– ≪ STIC et Usages ≫ avec les acteurs SHS du projet de ≪ quartier de la création ≫, ceux du projet
de fédération ≪ Culture et territoires ≫ et ceux du pôle ≪ Images et Réseaux ≫ dont les groupes
M@rsouin et Loustic.
A cet effet, il s’agit principalement d’encourager les initiatives déjà prises par les équipes dont :
58
Bilan 2006–2009 et projet 2012-2015 LINA
– les travaux sur le Green IT engagés conjointement par ASCOLA et Contraintes pour l’amélioration
de l’empreinte énergétique d’un centre de données. Ils ont obtenu le prix 2009 de la croissance
numérique verte et constituent un premier pas de la réification de l’énergie au niveau des systèmes
et des langages de programmation (voir les défis scientifiques du GDR GPL 2010) ;
– les travaux de TALN menés en partenariat avec le LIUM sur le couplage du traitement écrit et
parlé de la langue appliqué au développement du Web et aux nouveaux usages de l’Internet ;
– la participation de ComBi, COD et OPTImisation à BiogenOuest dans le prolongement de BIL et
en coopération accrue avec l’équipe IRCCyN/Moves ;
– la réflexion menée par les équipes COD, TALN, GRIM et GDD sur un projet de modélisation d’utilisateurs et de communautés d’utilisateurs (MODUC) qui marie les techniques d’apprentissage,
de gestion de données, de gestion de connaissances et de l’algorithmique distribuée ;
Sans oublier les projets LINA ≪ ouverture et initiative ≫ (voir section 1.4.5) sur l’application des
processus stochastiques à la biologie marine, de modèles de sécurité au vote électronique et de l’apprentissage statistique aux grands systèmes d’informations.
1.10.3 Évolution des équipes
F IGURE 1.24 – Les équipes du LINA pour le prochain quadriennal.
La figure1.24 donne l’organisation des équipes pour le prochain quadriennal (et mise en place dès
septembre 2010) toujours présentée à partir des deux axes historiques SAD et ALD. Par rapport à la
version 1.1 du dernier quadriennal, elle traduit l’effort de restructuration accompli suite aux recommandations du dernier comité d’évaluation et accompagnant les mouvements d’E/C. On notera en particulier :
– la réunion des équipes COLOSS et MODAL (réduite à deux permanents après le décès de
T. Khammaci) sur le sujet des méthodes formelles et des architectures logicielles ;
– la réunion des équipes MEO (renforcée par le recrutement CR2 CNRS de A. Goldsztejn) et ROOM
(réduite à deux permanents suite au départ de M. Ehrgott et malgré le recrutement d’A. Przybylski)
sur le sujet de l’optimisation globale et multi-objectif ;
LINA
59
– la disparition de l’EPI ATLAS mais la pérennisation de l’équipe GDD anticipée par l’HDR de
P. Lamarre (2009) et les recrutements de Y. Busnel (MdC 2009, algorithmique distribuée) et
P. Molli (PR 2010, services coopératifs). GDD devrait donc évoluer des ≪ BD P2P ≫ vers la
gestion sémantique des données distribuées avec des opportunités de coopération avec COD sur la
gestion des connaissances ;
– le projet de création de l’EPI TASC dont l’une des spécificités est de travailler sur la convergence
des contraintes discrètes - continues et sur un catalogue de contraintes globales. L’un des défis
applicatifs étant celui de la maı̂trise de l’énergie (entrepôt de données et de calcul, transports) ;
– le glissement de l’équipe TALN de l’axe SAD vers l’axe ALD du fait de ses importantes activités
de développement logiciel (composants UIMA, ANR Technologies Logicielles Ciel, Blogoscopie
et Pithie).
Afin d’accompagner cette évolution des équipes les quatre postes ouverts aux concours 2011 sont
fléchés ≪ Logiciel et systèmes distribués ≫ pour le poste de professeur, ≪ Logiciel et traitement du langage naturel ≫, ≪ Bio-informatique et optimisation ≫ et ≪ Gestion et fouille de données ≫ pour les trois
postes de maı̂tres de conférences.
Cette présentation des équipes ne prend pas en compte la possible intégration au LINA de l’équipe
AtlanMod (ingénierie des modèles) qui permettrait au thème ≪ logiciel ≫ de couvrir le continuum
modélisation, vérification et programmation. Le retour d’AtlanMod au LINA (puisqu’elle a été initialement incubée par ATLAS-GDD) serait également l’occasion d’accueillir une équipe aguerrie au
développement et au transfert de logiciels.
Implicitement, elle traduit l’abandon du projet de création d’une équipe système initialement envisagée autour de G. Muller qui a finalement rejoint l’EPI REGAL au LIP6.
1.10.4 Évolution de la gouvernance
Le LINA est une très récente UMR (2008) mais dont l’indentité n’est pas complètement affirmée. En
utilisant la dynamique de la jeunesse, un travail de consolidation reste à accomplir tant du point de vue
de l’animation scientifique que de celui de la gouvernance et du renforcement de l’équipe de direction.
À propos des axes et thèmes de recherche
Pour ce qui concerne l’animation scientifique, les deux axes ALD et SAD servent aujourd’hui essentiellement à afficher les travaux des équipes selon deux grands domaines de l’informatique : le logiciel
et la décision. Pour autant, ils ne jouent pas suffisament le rôle de catalyseur dans le développement de
synergies entre équipes d’un même thème scientifique et n’interviennent donc pas explicitement dans la
gouvernance du laboratoire.
La réunion des équipes MODAL et COLOSS d’une part, MEO et ROOM d’autre part est un premier résultat dans la recherche de synergies internes aux thèmes ≪ logiciel ≫ et ≪ optimisation ≫. Le
recrutement de C. de la Higuera est une opportunité de rapprocher les équipes TALN et COD sur le sujet
de l’apprentissage. Celui de P. Molli constitue une autre opportunité de rapprocher les équipes GDD,
GRIM et COD sur le sujet de la gestion sémantique de connaissances distribuées.
Indépendamment des thèmes scientifiques, des possibilités de collaboration existent également au
niveau des domaines d’application et seront encouragés dans le prolongement de l’appel à projets LINA
≪ ouverture et initiative ≫, des appels du conseil régional, voire du possible laboratoire d’excellence
autour de ≪ l’Internet du Futur ≫. Le nouveau quadriennal sera donc l’occasion de faire évoluer les
frontières entre nos équipes et nos deux axes de recherche historiques.
60
Bilan 2006–2009 et projet 2012-2015 LINA
F IGURE 1.25 – Organigramme de gouvernance LINA 2012.
LINA
61
Comité de direction étendue
Le travail de direction d’un laboratoire multi-sites de la taille du LINA nécessite un investissement
important et doit être mené par un collège de personnes disponibles, capables de se répartir les tâches
essentielles au bon fonctionnement de l’unité, de partager les décisions stratégiques et de réfléchir au
renouvellement des projets et des fonctions.
La direction actuelle décrite en section 1.3.4 sera progressivement étendue (voir organigramme 1.25)
pour réunir un plus grand nombre de directeurs adjoints chargés des “portefeuilles” suivants :
– direction et animation scientifique ;
– formation doctorale et relations avec l’ED-STIM ;
– partenariats en liaison avec la technopole et le pôle Images et Réseaux. Ce portefeuille inclut le
suivi du projet de plate-forme technologique ;
– relations avec les départements d’enseignement et les composantes en particulier pour ce qui concerne les recrutements de permanents mais aussi d’ATER et d’invités ;
– relations avec les formations de master pour le continuum enseignement/recherche.
Au niveau des personnes, Pierre Cointe le directeur actuel, est candidat au renouvellement de son
mandat. Par contre, Béatrice Daille la directrice adjointe souhaite se retirer de l’équipe de direction pour
privilégier celle de l’équipe TALN dont le volant d’activités s’est considérablement développé entre 2006
et 2009.
62
Bilan 2006–2009 et projet 2012-2015 LINA
1.11 Développement des opportunités
1.11.1 INS2I et INRIA
La création d’INS2I est l’opportunité pour le LINA de développer une politique scientifique
sur la base de contrats d’objectifs, des équipes du laboratoire pouvant bénéficier de moyens CNRS
supplémentaires sur des sujets jugés prioritaires par la direction de ce nouvel institut.
Dans cette vision, assez proche de celle des équipes-projet INRIA, l’enjeu est de faire coexister
au sein du LINA des équipes à coloration CNRS (OPTimisation, TALN ?, ComBi ?, . . .) et d’autres à
coloration INRIA (ASCOLA, Contraintes/TASC, . . .) sur des thèmes d’excellence.
1.11.2 LabEx Rennes–Nantes-Brest
Ce projet de laboratoire d’excellence porterait sur ≪ l’Internet du Futur ≫ et traiterait de trois grands
domaines sociétaux : les services et les grandes infrastructures, les contenus et le multimédia de demain,
les usages et le territoire numérique. Le LINA serait principalement concerné par les deux premiers sujets
des ≪ Services ≫ et des ≪ Contenus ≫ avec des contributions autour des ≪ services verts ≫, de la gestion
distribuée de données et de connaissances, de l’apprentissage actif et de la multimodalité des contenus.
Au niveau gouvernance, la création de ce laboratoire ne doit pas avoir d’impact sur la structure des
UMR concernées et de leurs équipes. Sur le modèle des réseaux d’excellence européens, les membres
du LINA concernés participeraient aux projets scientifiques de ce LabEx en demeurant au sein de leur
équipe et de leur unité. L’enjeu est de gagner en visibilité et donc en attractivité en obtenant un label
d’excellence STIC qui s’inscrit plus globalement dans une initiative d’excellence Grand Ouest.
1.11.3 Plateforme technologique
Le CPER finance un projet de plateforme de développement de logiciels libres en relation avec les
thématiques de recherche nantaises et le pôle Images et Réseaux. Ces logiciels seront préindustrialisés
et maintenus de sorte à faciliter et accélérer l’émergence d’entreprises innovantes susceptibles ensuite
de les exploiter. Le projet s’intéresse principalement aux applications B to B et s’appuie sur le modèle
de développement vertueux, le triangle grands comptes / laboratoires / PME innovantes décrit en section 1.8.4, pour lequel un vrai savoir-faire existe à Nantes.
Ce projet piloté par l’EMN a déjà donné lieu au recrutement de deux ingénieurs associés à la maintenance et aux développements des logiciels CHOCO (C. Prud’Homme, équipe Contraintes) et ATL
(H. Brunelière, équipe Atlas-GDD/AtlanMod). Le recrutement du responsable chargé de la mise en œuvre de la plateforme est en cours par l’EMN.
Pour le LINA, ce projet est l’opportunité de disposer d’une plateforme technologique permettant
d’accompagner ses équipes dans le développement et la diffusion de leurs logiciels. Le rattachement du
musée virtuel présenté en section 1.2.1 serait l’occasion de recruter un ingénieur en charge de développer
les logiciels 3D de l’équipe COD associés au dôme de visualisation. Dans le cadre du grand emprunt,
cette plateforme pourrait également être associée au projet d’équipement d’excellence GRID 5000 dont
elle accueillerait un nœud Nantais.
INS2I a attribué au LINA un premier ingénieur d’étude dont le recrutement doit intervenir fin 2010.
Sa mission sera de participer à la mise en œuvre de cette plateforme avec pour tâche d’élaborer la forge
LINA puis de participer au développement de composants logiciels d’une ou deux équipes du laboratoire
(à déterminer selon les compétences du lauréat du concours). Une demande d’IR CNRS sera également
LINA
63
faite au titre de 2011, toujours au titre de cette plate-forme, pour atteindre plus vite la masse critique et
couvrir un plus grand nombre d’équipes.
1.11.4 Quartier de la création
Le LINA est invité à participer au pôle de recherche attaché au quartier de la création de l’Ile de
Nantes mais également au projet de fédération de recherche ≪ Culture et territoires ≫ qui devrait être
déposé pour le prochain quadriennal. Il s’agit là d’une opportunité ≪ de développer des collaborations
entre SHS, STIC et recherche artistiques, architecturales et urbaines ≫ pour participer à la mise en œuvre
numérique de ce que Bernard Stiegler appelle le territoire réticulé.
1.11.5 Nouveau bâtiment LINA
La surface totale du bâtiment d’informatique de la Faculté des Sciences (dont la construction date
de 1995) est de 2194 m2 dont 1806,78 m2 d’espace effectivement utile. L’espace dont dispose le LINA
est de 1410 m2 (surface totale SHON) soit une surface utile hors dégagements de 843 m2 .
La construction du nouveau bâtiment LINA/AtlanSTIC réservé à la recherche en informatique, est
inscrite au plan régional exceptionnel de lutte contre les effets de crise (session du 15 mai 2009). Cette
construction de 3000 m2 est prévue sur le site de la Lombarderie dans le prolongement du bâtiment actuel
qui accueille actuellement le département informatique de l’UFR Sciences et une partie des équipes du
LINA. Sa livraison est prévue fin 2012, début 2013.
Ce nouveau bâtiment permettra de faire face à la pénurie actuelle de locaux (l’espace par personne
se situe aujourd’hui aux alentours de 7 m2 ) et de disposer de nouveaux bureaux mais également de salles
de conférences, de salles de démonstrations et d’un ampithéâtre pour accueiller visiteurs et partenaires
de travail. En particulier, un nombre significatif de bureaux et une cafétéria seront réservés à l’accueil
temporaire des membres du laboratoire résidant sur le site de la Chantrerie. Ce qui devrait être un moyen
simple d’améliorer les synergies entre les trois sites de la FST, de l’EMN et de Polytech’Nantes en
donnant une nouvelle dynamique au laboratoire.
De manière concomitante, le CPER a attribué une enveloppe de 2 Me à Polytech’Nantes pour
réhabiliter et réunir les locaux hébérgeant les équipes du LINA. Les études finales débutent début 2011 et
seront également l’occasion de proposer des bureaux de passage pour les autres membres du laboratoire.
1.11.6 Clarification de l’offre de formations
Dans le but de rendre plus lisible l’offre de formation en informatique, le projet de nouveau quadriennal inclut une proposition de master portée par l’Université de Nantes. Cette proposition est construite
autour de cinq spécialités à vocation recherche adossées principalement au LINA mais aussi à l’IRCCyN.
Ce projet contribue à l’harmonisation des différentes formations en informatique en donnant une lecture
unifiée de cette offre. Il s’appuie sur les synergies développées entre les équipes de recherche des deux
laboraroires. La figure 1.26 résume les participations des équipes du LINA à ce nouveau projet de master
informatique qui se décline ainsi :
1. ORO (optimisation en recherche opérationnelle), master international, cohabilitation EMN.
Formation aux concepts, techniques et applications de l’optimisation et de la recherche
opérationnelle permettant la réalisation d’outils informatiques d’aide à la décision. Équipes
ComBi, Contraintes et OPTImisation ;
64
Bilan 2006–2009 et projet 2012-2015 LINA
F IGURE 1.26 – Implications des équipes LINA dans le projet de master informatique 2012.
2. ALMA (architectures logicielles), master international, cohabilitation EMN.
Formation aux techniques et méthodes de spécification, de conception et de réalisation d’architectures logicielles répondant aux besoins de construction et d’évolution de systèmes logiciels
complexes. Équipes AeLoS, ASCOLA, GDD et GRIM ;
3. ATAL (apprentissage et traitement automatique de la langue).
Formation aux techniques d’apprentissage automatique et du traitement automatique de la langue
au cœur des applications en ingénierie des langues. Équipe TALN ;
4. ECD (extraction des connaissances à partir des données), spécialité portée par Lyon 2.
Formation en fouille de données, en statistiques et en systèmes d’information. Équipe COD ;
5. EM-DMKM (Erasmus Mundus in Data Mining and Knowledge Management), master international support de l’Erasmus Mundus, spécialité portée par Lyon 2 :
Formation en fouille de données, en statistiques et en systèmes d’information. Équipe COD.
Il convient d’ajouter à ce projet, le lancement par nos deux écoles d’ingénieurs de deux diplômes
nationaux de master (DNM) complémentaires :
– EMN : dans le prolongement d’EMOOSE 98-08 et en liaison avec AOSD-Europe, le DNM Evolving of Complex Software System (ECSS) porté par ASCOLA ;
– Polytech : le DNM Multimedia and Data Management (MDM) porté par GRIM.
Finalement, les équipes impliquées dans le projet BIL réfléchissent à la création d’un master
recherche en bio-informatique.
LINA
65
1.12 Executive Summary
LINA (Laboratoire Informatique de Nantes Atlantique) is the Laboratory for Computer Sciences at
University of Nantes, joint with École des Mines de Nantes (EMN) and with CNRS (INS2I) the National
Center for Scientific Research. Pierre Cointe and Béatrice Daille are the director and the assistant director.
The laboratory uses 2766 m2 of research offices located mainly in the CS building of the University
campus at la Lombarderie but also at la Chantrerie, a second campus located 10 kilometers away, in the
buildings of the EMN and Polytech engineering schools. Founded in 2004, LINA has (on June 2010)
over 160 members including over 80 faculty and staff and 62 PhD. students :
– 20 PR, 47 MdC (including 3 HDR), 1 CNRS and 2 INRIA junior researchers (CR) ;
– 10 permanent ITA/IATOS : 3 CNRS, 4 University and 3 EMN ;
– 20 temporary members : 4 ITA, 4 post-docs, 6 ATER and 6 software engineers.
LINA consists of nine research teams supported by an administrative and a technical staff. These teams
cover a wide spectrum of CS ranging from fundamental to applied research : algorithms, graph theory,
informatics, constraints and optimization, artificial intelligence, data mining, machine learning, natural
language processing, programming, software engineering, grids and clouds, distributed data bases, These
teams are organized in two research clusters :
– Distributed Software Architectures : ATLAS-GDD (P. Molli), ATLAS-GRIM (M. Gelgon), AeLoS (C. Attiogbé) and ASCOLA (M. Südholt). ASCOLA and ATLAS are joint teams with INRIA
Rennes Bretagne Atlantique ;
– Decision Support Systems : Contraintes (N. Beldiceanu), OPTimisation (L. Granvilliers), ComBi
(I. Rusu), COD (P. Kuntz) and TALN (B. Daille).
1.12.1 Key Figures 2006-2009
– Hiring of 20 new permanent faculty members including 2 PR, 3 CR and 15 MdC ;
– Departure of 12 faculty members : 5 PR, 2 DR and 5 MdC ;
– Hiring of 2 ITA CNRS, 1 EMN and 1/2 University for the administrative staff. A CNRS software
engineer will reinforce the technical staff in 2010 ;
– 4 MdC (associate professors) have been promoted to professors in Nantes, 2 others in Pau and
Montpellier ;
– 1/4 (12 on 47) of the MdC got a “sabatical year” ;
– Defences of 8 HDR (4 just after a sabbatical year) and 62 PhD. ;
– 18 of the 51 E/C from the University get the “PEDR/PES” national research grant ;
– The teams are involved in 4 regional projects, 21 ANR, 9 FP6-7 projects (2 NoE, 4 STREP, 2 IP, 1
ITN) ;
– The amount of external funding is around 5 861 ke for 105 contracts ;
– Hiring of 52 temporary faculty members including 19 ATER, 17 post-doc and 16 engineers ;
– Producing 34 softwares including ATL, CHOCO, the library for global constraints, Entropy and
UIMA ;
– Producing over 1130 publications of these 561 ranked A (according to Core) for 132 faculty members and PhD.
1.12.2 Highlights 2006-2009
– Hosting ECOOP 2006, CP 2006, EDBT 2008 and the AOSD Summer School 2009 in Nantes.
Participation to VLDB 2009 (Lyon) and AOSD-2010 (Saint Malo) ;
66
Bilan 2006–2009 et projet 2012-2015 LINA
– Coordination of a STREP, 7 ANR and 2 regional projects ;
– Renewal and reinforcement of both INRIA teams ATLAS (2006) and OBSACO/ASCOLA (2008)
with the hiring of 2 CR INRIA (R. Akbarinia 2008 and N. Tabareau 2009) ;
– Hosting the EMOOSE (Object-Oiented Software Engineering) master from 1999 to 2008. Launching the ALMA (Software Architectures) and the ORO (Optimization and Operations Research)
masters in 2008, the DMKM (data mining and knowledge management) Erasmus Mundus master
in 2010 ;
– Increasing the visibility of the software architecture and optimization themes by merging of the
teams COLOSS/MODAL→AeLoS and MEO/ROOM→OPTImisation ;
– Departure of M. Ehrgott (DR2 CNRS 2008), P. Valduriez (DR0 CNRS 2009). Arrival of A. Goldsztejn (CR2 CNRS 2007), P. Leray (PR 2007), C. de la Higuera (PR 2009) and P. Molli (PR 2010).
1.12.3 Current four-year plan
LINA is a quite recent UMR (2008) and the past years were dedicated to consolidate its current 9
teams. We plan now to develop the following themes deserving specific support because of their importance for the laboratory and their potential high-impact both at the academic (research and teaching) and
industrial levels :
– Software Engineering and Programming Languages
LINA is recognized for its pioneering contribution to Object-Oriented Programming (ECOOP
2006 in Nantes), to Aspect-Oriented Software Development (NoE AOSD-Europe, STREP AMPLE, ANR CESSA and AOSD 2010 conference) and Model Driven Engineering (ATL language
and ANR FLFS). Reinforcing AeLoS, welcoming AtlanMod and increasing their co-operations
with ASCOLA will be an opportunity to cover the spectrum from models to verifications and
programs and then to address the issue of dealing with large information systems.
– Constraints and Optimization
LINA is also well known for its contribution to the field of Constraint Programming (CP 2006 in
Nantes, STREP NetWMS). Tackling the continuous/discrete convergence, distributing the global
constraints library and solvers (CHOCO), developing the interface between mathematics and CP,
between operations research and CP, promoting the multi-objective approach are key challenges.
LINA will support the creation of the INRIA Contraintes/TASC (Theory, Algorithms and Systems
for Constraints) team, the development of the new OPTImisation team, as well as their collaboration across the LigéRO regional project and the ORO master.
– Natural Language Processing
The TALN team produces significant results (including software) in the two fields of multimodality
(texts, sounds and images) and of multilinguism which are key issues to deal with multimedia
contents. LINA will support the development of TALN which coordinates the regional DÉPART
project as well as the ANR MeTRICC and the FP7 TTC project. Finally, the hiring of C. de la
Higuera is an opportunity to develop theoretical aspect of active learning in cooperation with the
COD and GRIM teams.
– Large Scale Distributed Data Management
LINA will continue the renewal of the GDD team and its evolution towards distributed algorithms
and cooperative distributed services. The hiring of P. Molli is an opportunity for GDD to evolve
from P2P databases towards semantic management of distributed knowledge in cooperation with
the GRIM and COD teams.
LINA
67
In the same time, we want also to develop the following transverse themes :
– Bio informatics
Historically, the ComBi teams worked on the resolution of problems issued from genomic with
combinatorial and probabilistic approaches. More recently, ComBi investigated the biology of
systems and collaborated with the IRCCyN/MoVES team on modeling complex dynamical living systems. In the continuation of the regional project BIL between grouping together computer
scientists and biologists, LINA will encourage the synergy between ComBi, COD and MoVES to
increase our participation in the development of the GenOuest BioInformatics Platform.
– Green Computing
In the context of virtualization in distributed system, ASCOLA in cooperation with Contraintes,
developed advanced scheduling algorithms (the Entropy software) improving virtual machine migration inside clusters. Since virtualisation and energy management is a key issue in the development of data centers, LINA will encourage research about energy reification at the OS/Language
levels and more generally the application of optimization techniques to the field of Green IT.
– IST and Usages
The techniques in data mining, data and knowledge management, machine learning and distributed
algorithms developed by COD, GRIM, GDD, ASCOLA and TALN are mandatory to model end
users, community of users and social networks. LINA will encourage these teams to develop a
common project around “user-centric networks” that could be linked to the new Erasmus Mundus
in Data Mining and Knowledge Management.
Team
ASCOLA
General presentation (Chapeau-résumé)
The ASCOLA project-team was created on 1 Jan. 2009 as a follow-up of the OBASCO team because
of a change of its team leader.
The ASCOLA project-team addresses the general problem of evolving software by developing concepts, languages, implementations and tools for building software architectures based on components
and aspects. Its long-term goal is the development of new abstractions for the programming of software
architectures in terms of expressive programming languages, and their correct and efficient implementation. The team is well visible on the national and international levels for its result on the foundations of
aspect-oriented program, language support for the correct, typically dynamic, composition of software
and machine virtualization techniques for cluster and grid-based infrastructures.
Our main application domains are service-based systems, in particular enterprise information systems, and distributed systems (Cloud, clusters and grids). We are notably working with industrial and
academic partners on better techniques for the dynamic evolution of medium to large-scale real-world
applications. Globally, we pursue a strategy of cooperation and transfer of results essentially grounded
in multiple contracts and grants, as well as other formalized cooperations, in particular with international
partners.
69
70
Activity report 2006–2009 and perspectives 2012-2015 ASCOLA
2.1 Team composition, 30/06/2010 (Composition de l’équipe)
COHEN
COINTE
DOUENCE
GRALL
LÈBRE
LEDOUX
MENAUD
NOYÉ
ROYER
SÜDHOLT
TABAREAU
ALVAREZ
ASSAF
FERNANDES DE
ALEXANDRIA
GARCÉS
HANNOUSSE
LACOUTURE
MEJÍA
NAQVI
NGUYEN
NÚÑEZ
POTTIER
QUESNEL
VAN NGUYEN
LE BOTLAN
PADIOLEAU
DAVID
DENIER
NOPPEN
LORIANT
ANQUETIL
BEN HASSINE
HERMENIER
LÉGER
Julien
Pierre
Rémi
Hervé
Adrien
Thomas
Jean-Marc
Jacques
Jean-Claude
Mario
Nicolas
Faculty (Permanents)
MC
PRCE
MAHC
MA
MA
MA, CR1
CR2, MA
MAHC
PR2
MAHC-HDR
CR2
UN
EMN
EMN
EMN
EMN
EMN, INRIA
INRIA, EMN
EMN
EMN
EMN
INRIA
01/09/2008
01/01/2006
01/01/2006
01/09/2008
01/09/2008
01/01/2006
01/01/2006
01/01/2006
01/01/2006
01/01/2006
01/09/2009
Frederico
Ali
PhDs (Doctorants)
AMN
AMN
EMN
EMN
01/09/2009
01/09/20061
Fabricio
Brésil
EMN
01/09/20061
Kelly
Abdelhakim
Mayleen
Ismael
Asad
Ha
Angel
Rémy
Flavien
Hien
ANR-AMN
PdL-AMN
Europe
AMN
ULancaster, AMN
Europe-PdL
ATER
ANR
AMN
Cifre
EMN
EMN, UN
EMN
EMN
ULancaster, EMN
EMN
UN
EMN
EMN
Orange Labs
01/09/2007
01/09/2008
01/09/2008
15/01/2009
15/11/2008
01/09/20051
01/10/2006
01/09/2009
01/09/2009
01/09/2008
Temporary staff (Personnels temporaires)
Didier
PostDoc
EMN
Yoann
PostDoc
EMN
Pierre-Charles
IR
EMN
Simon
ATER
EMN
Joost
PostDoc
EU
Nicolas
IR
EMN
Nicolas
IR
EMN
Mahmoud
IR
INRIA
Fabien
ATER
EMN
Marc
IR
EMN
01/01/2006
01/01/2006
01/09/2006
01/09/2006
01/09/2007
01/01/2008
01/02/2008
01/01/2009
01/09/2009
01/04/2008
31/08/2006
31/07/2007
29/02/2008
31/08/2007
31/08/2008
31/08/2008
31/07/2009
31/08/2010
31/08/2010
01/09/2010
1. While the student disposes of sufficient scientific results, the writing up of the PhD document has, for personal reasons,
running late. The student has decided to work and continue his thesis outside of the team.
ASCOLA
LAWALL
RASHID
71
Visitors 3 months and above during the indicated period (Visiteurs)
Julia
PR2
EMN
01/01/2006
Regional chair,
Awais
PR2
01/04/2008
EMN
31/08/2008
31/03/2011
Evolution of the team, 01/01/2006-30/06/2010 (Évolution de l’équipe sur la période)
Arrivals
– September 2008 :
– Adrien Lèbre, MA EMN : modularization of distributed system software, virtualization, Green
IT
– Hervé Grall, MA EMN : correct software composition, SOA
– Julien Cohen, MC PolyTech Nantes : program transformation
– September 2009 : Nicolas Tabareau, CR2 INRIA : foundations of AOP, formal program semantics
Departures
– September 2008 : Gilles Muller, now DR2, INRIA team REGAL, LIP6 : OS design, domainspecific languages
Visitors
– Prof. Awais Rashid from Lancaster University, UK, joint ASCOLA in the context of a chair from
PdL region including a six-month stay during the period March 2008 to March 2011. Pr. Rashid
has already stayed 4 months in Nantes performing joint activities in the field of AOP, and software composition. This common work has resulted in multiple common publications in top-rated
venues [2], common work within the AMPLE EU project, the on-going PhD co-supervision of A.
S. Naqvi and the definition of a draft common MSc proposal.
– Prof. Julia Lawall from University of Copenhagen, Denmark, has worked with members of ASCOLA during four months within the period Jan. 2006 to Aug. 2008. In the context of this ongoing cooperation, she has worked with us on OS system design and virtualization techniques in
cluster-based environments. This common work has resulted in multiple common publications in
top-rated venues [7, 23]
2.2 Salient facts, 2006-2010 (Faits marquants)
Structure and research topics (Structuration et thèmes) The ASCOLA project-team has provided
major results in three different scientific domains : aspect-oriented programming, software composition
and in the field of cloud programming based on cluster and grid infrastructures. Furthermore, these
scientific results have been complemented by results pertaining to a number of real-world applications
concerning service-based systems, enterprise information systems, and the cloud.
Major publications (Publications majeures) The list only contains peer-reviewed long papers published at international top venues in their respective fields.
1. Bruno De Fraine, Erik Ernst, and Mario Südholt. Essential AOP : The A Calculus. In Proceedings of the 24th European Conference on Object-Oriented Programming (ECOOP 2010), LNCS,
Springer Verlag, June 2010. [3]
Main conference on object-oriented programming.
72
Activity report 2006–2009 and perspectives 2012-2015 ASCOLA
2. Nicolas Tabareau. A theory of distributed aspects. In the proceedings of the 9th conference on
Aspect-oriented software development (AOSD’10), ACM Press, March 2010. [1]
First semantic foundation for distributed aspects ; main conference on AOSD.
3. Fabien Hermenier, Xavier Lorca, Jean-Marc Menaud, Gilles Muller, and Julia Lawall. Entropy :
a Consolidation Manager for Clusters. In VEE ’09 : Proceedings of the 2009 ACM SIGPLAN/SIGOPS international conference on Virtual execution environments, New York, NY, USA,
pages 41-50, 2009. ACM. [7]
Proposal of new class of constraint-based dynamic task placement algorithms ; main conference
on virtualization.
4. Riteau Pierre, Adrien Lèbre, and Morin Christine. Handling Persistent States in Process Checkpoint/Restart Mechanisms for HPC Systems. In Proceedings of the 9th IEEE International Symposium on Cluster Computing and Grid (CCGRID 2009), Shangai, China, 2009. IEEE Computer
Society Press. [12]
Efficient file versioning framework for distributed systems ; main conference on grid algorithms.
5. Éric Tanter, Johan Fabry, Rémi Douence, Jacques Noyé, and Mario Südholt. Expressive Scoping
of Distributed Aspects. In AOSD ’09 : Proceedings of the 8th ACM international conference on
Aspect- oriented software development, pages 27-38, 2009. ACM Press. [8]
Declarative definition of aspects in dynamic distributed systems ; main conference on AOSD.
6. Fabien Baligand, Nicolas Rivierre, and Thomas Ledoux. QoS Policies for Business Processes in
Service Oriented Architectures. In Proceedings of the 6th International Conference on Service
Oriented Computing (ICSOC’08), Sydney, Australia, December 2008. Springer-Verlag. [17]
New method for the dynamic adapation of business processes ; main conference on serviceoriented architectures.
7. Luis Daniel Benavides Navarro, Rémi Douence, and Mario Südholt. Debugging and testing middleware with aspect-based control-flow and causal patterns. In In proceedings of the
ACM/IFIP/USENIX 9th International Middleware Conference (Middleware’08), Leuven, Belgium, December 2008. Springer-Verlag. [14]
New declarative testing method for distributed systems ; main conference on middleware.
8. Bruno De Fraine, Mario Südholt, and Vivian Jonckers. StrongAspectJ : Flexible and Safe Pointcut/Advice Bindings. In Mira Mezini, editor, Proceedings of the 7th ACM Int. Conf. on AspectOriented Software Development (AOSD’08), March 2008. ACM Press. Distinguished paper
award. [19]
Solution of a ten year old typing problem of mainstream aspect languages ; main conference on
AOSD.
9. Rémi Douence, Didier Le Botlan, Jacques Noyé, and Mario Südholt. Concurrent Aspects. In Generative Programming and Component Engineering (GPCE’06), October 2006. ACM Press. [31]
First approach to the formal definition of reasoning about aspects in concurrent systems ; main
conference on generative program development.
10. Luis Daniel Benavides Navarro, Mario Südholt, Wim Vanderperren, Bruno De Fraine, and Davy
Suvée. Explicitly distributed AOP using AWED. In Aspect-Oriented Software Development
(AOSD’06), pages 51-62, March 2006. ACM Press. [33] First and most comprehensive language
and system for distributed aspects ; main conference on AOSD.
11. M. Ségura Devillechaise, J.-M. Menaud, N. Loriant, T. Fritz, R. Douence, M. Südholt, et E. Wuchner. Dynamic Adaptation of the Squid web cache with Arachne. IEEE Software, 2006, 23. [32]
ASCOLA
73
Awards, event organization, invited presentations (Prix et récompenses, organisation de
conférences, conférences invitées)
– “Prix de la croissance numérique verte” (founded among others by the French government), J.M.
Menaud and F. Hermenier for the application of consolidation techniques using Entropy to energy
optimization in data centers, Dec. 09
– Distinguished paper award at AOSD’08, M. Südholt et al. for a sound type system for AspectJ-like
languages, Mar. 2008
– We have been the principal organizer of the 20th International European Conference on ObjectOriented Programming, 3–7 July 2006, Nantes ; 450 participants from all over the world
– We have organized the 4th international summer school in AOSD in August 2009 ; 37 participants
from all over the world
– Number of invited talks : circa 12 (at international events and in foreign research labs.
Summarizing table (Tableau récapitulatif)
ACL
12
ACLN
7
Récapitulatif des publications par catégorie
ASCL BRE INV ACTI ACTN COM AFF
1
0
1
64
14
2
0
OS
23
OV
0
DO
2
AP
23
2.3 Scientific foundations (Fondements scientifiques)
We are mainly working in three scientific domains : Aspect-Oriented Programming, software composition and services for the cloud, in particular based on cluster and grid-based infrastructures.
2.3.1 Aspect-Oriented Programming
Aspect-Oriented Software Development [39, 37] has emerged over the previous decade as the domain of systematic exploration of crosscutting concerns - i.e., functionalities (such as tracing, security
and transactional behavior) that cannot be modularized with traditional techniques, such as objects and
modules - and corresponding support throughout the software development process.
ASCOLA contributes to this field in a twofold manner. First, we investigate new foundations, mainly
foundational calculi, operational semantics and formal properties of aspects. Second, we define aspect
languages and corresponding implementation support, in particular, concurrent and distributed aspects
for the flexible modularization of crosscutting concerns of large-scale distributed systems. Our work
is notable for its results that go beyond the traditional pointcut-advice model of mainstream AOP, in
particular, by remedying fundamental faults of mainstream models (e.g., related to their type systems),
support for expressive trace-based aspect languages that take into account the execution history of an
application, and direct support on the aspect level for distributed programming.
2.3.2 Software composition
In the field of software composition, we are investigating means for the development of software
components [43] and composition problems that cannot be resolved by using the most frequently used
model of black-box composition but requires so-called invasive composition [40]. We mainly provide
composition languages that support the correct definition and evolution of components and componentbased applications, in particular, through reconfiguration of components. We are particularly interested
74
Activity report 2006–2009 and perspectives 2012-2015 ASCOLA
in developping and exploiting explicit representations of interaction relationships, e.g., expressed as interaction protocols.
Object interactions, component interactions, and service orchestrations are often expressed in terms
of regular interaction protocols [38] that enable basic properties, such as compatibility, substitutability,
and deadlocks between components to be defined in terms of basic operations and closure properties
of finite-state automata. Furthermore, such properties may be analyzed automatically using, e.g., model
checking techniques. We also investigate more expressive non-regular interaction protocols.
2.3.3 Cloud, cluster and grid programming
Large-scale distributed systems like grids [42] or clusters [41] have become increasingly popular in
both academic and industrial contexts. Grid computing allows Virtual Organizations to solve scientific or
technical problems that require a great number of computer processing cycles or access to large amounts
of data. Clusters are usually deployed within one administration domain to improve performance (for
scientific applications) or availability (e.g., for Internet services hosted by a data center) compared to
a single computer configuration. The new cloud computing architecture approach, where computing
resources are provisioned on a per-demand basis, notably to handle peak loads, instead of being statically
allocated, should reinforce this trend. The complexity and the growing need of dynamic, in particular
autonomic, evolution [36] requires permanent adaptation, from the application to the system level and
calls for automation of the adaptation process.
We have contributed a variety of results to cloud programming, providing solutions both on the
service level and the level of infrastructure support. Most notably, we have achieved results on quality of
service relationships in service compositions, consolidation problems in virtualized clusters and support
for grid infrastructures. These results are currently being developed and applied in the context of the
European Marie Curie network SCALUS and the ANR project SelfXL. Furthermore, two new projects
(one ANR, one FUI) will start in the 2nd half of 2010. Finally, our results have been awarded the national
award “Prix de la croissance numérique verte” in 2009, see the section on salient facts.
2.4 Applications and challenges (Applications et enjeux)
An alternative view on our work can be presented in terms of two core challenges (correct handling of crosscutting functionalities and the dynamic software evolution) and three applications domains
(enterprise information systems, service composition for the Cloud, and their energy efficiency).
Challenge : correct composition in the presence of crosscutting functionalities. Crosscutting functionalities that cannot be modularized using traditional techniques, such as objects, components and services, constitute a major obstacle for the development, maintenance and evolution of correct large-scale
software systems. Security concerns, concurrent accesses to information systems, energy consumption
of software systems all are crosscutting functionalities that are very difficult to address correctly and
efficiently in today’s applications. However, overcoming the current deficiencies in the specification,
implementation and evolution of these functionalities requires deep theoretical problems and intricate
engineering problems to be solved. Our work on the foundations of AOP, more expressive language
mechanisms and support for invasive composition using interaction protocols is geared directly towards
tackling these problems.
ASCOLA
75
Challenge : dynamic evolution of large software systems. Dynamic evolution is a feature of increasing importance in a large number of application domains. However, the requirements that dynamic evolution poses on the control of the application and the underlying execution infrastructure pose formidable
challenges to current software composition mechanisms. The frequently necessary trade-off between
fine-grained invasive modifications and an effective model for globally consistent evolutions that support
property preservation or enforcement is particularly challenging on a theoretical and practical level. We
approach these issues from several angles : besides our work on general models using invasive software
composition, incl. AOP, with associated corrected properties, we also investigate concrete languages and
infrastructures for specific evolution tasks and specific application domains. Our results on work load
consolidation in clusters, e.g., for energy and performance optimization, include descriptive means enabling the high-level definition of consolidation strategies and corresponding consolidation managing
infrastructure for real-world clusters.
Application domains : enterprise information systems, service compositions for the Cloud, and
energy efficiency. Enterprise information systems have traditionally constituted the main application
domain of ASCOLA, because of the ubiquity of crosscutting functionalities (security, persistence, transactional behavior, . . .) and their frequent need for dynamic evolution. Recently, service-oriented architectures and the Cloud have emerged as new technological domains and business models that significantly
modify and extend the way how information systems are composed, executed, and evolved. In this context energy efficiency is of particular concern, because data centers account for a non-negligible part (ca.
2%) of the global energy production in 2010 and energy consumption becomes a limiting factor for the
setup of individual data centers. The ASCOLA team is quite well positioned to explore these application
domains because of its expertise that covers formal models and properties, language-based mechanisms
for (invasive) software composition and corresponding infrastructure-level manipulations. Our recent results on service compositions, task placement in clusters and distributed aspects are, in particular, directly
applicable to the reduction of the energy footprint of large-scale distributed systems.
2.5 New results 2006-2010 (Nouveaux résultats)
2.5.1 Aspect-Oriented Programming
Participants : Mario SÜDHOLT, Rémi DOUENCE, Jacques NOYÉ, Jean-Marc MENAUD, Nicolas
TABAREAU
Foundations of AOP
We have achieved three major results concerning static type systems for aspects, the preservation
of formal properties in the presence of aspects, and, most recently, a foundational calculus providing a
smooth integration of objects with aspects.
Sound static typing of AspectJ-like aspect languages. We have been able to solve, jointly with researchers from VU Brussels, a fundamental problem concerning aspect languages that follow the AspectJ
model (the most frequently used aspect model) [19] (distinguished paper award). In fact, since the inception of AOSD and the earliest versions of AspectJ in the end of the 1990s, such languages have been
subject to important typing problems. While the static type discipline of Java is only subject to a small
hole concerning type casts, AspectJ-like aspect languages have been and are subject to large holes in their
76
Activity report 2006–2009 and perspectives 2012-2015 ASCOLA
typing discipline. We have been able to define a sound type system for AspectJ-like aspect languages.
The main technical difference of our approach to its predecessors is that the typing of join points, pointcuts and advice (notably including proceed) is based on type ranges. This extension makes it possible
to correctly type applications of proceed, thus putting a longstanding problem to rest. We have formally
defined the corresponding aspect and base languages, a type system, and a dynamic semantics.
Property preservation in the presence of aspects. Aspect-Oriented Programming can, in general,
arbitrarily modify the semantics of programs to which aspects are applied. In particular, weaving can
invalidate crucial safety and liveness properties of the base program. We have identified categories of
aspects that preserve some fundamental classes of properties that are defined as subsets of the temporal
logic LTL for deterministic programs and CTL* for non-deterministic ones. It is then sufficient to check
that an aspect belongs to a specific category in order to ensure that the corresponding properties will be
preserved through weaving. We have defined these categories precisely based on a language-independent
abstract semantics framework and provided a corresponding constructive characterization in terms of
specialized aspect languages. [18, 13]
The A-calculus : a parametrized calculus integrating aspects and objects. This calculus models
essential features of AOP, both in a simpler and more general way than existing formalizations. Concretely, notions of aspects, such as proceed and many features of pointcut languages, are expressed using
plain features from object-oriented programming, notably first-class closures, and thus shift complexity
from pointcuts to ordinary object-oriented code. This has enabled us to formally show, as a first of its
kind, that two well-known pointcut categories, call and execution, are significantly different and how to
resolve the associated type soundness problems. We have furthermore shown how calculus parameters
can be used to cover type safety for a wide design space of aspect features. Finally, type soundness for
the calculus has been automatically checked using the Coq proof assistant. [3]
Aspect languages
The definition of new modularity abstractions in form of aspect languages and corresponding implementation techniques constitutes a very active research domain not only within the aspect community
but also more generally within the fields of software composition and programming languages. We have
achieved notable contributions in form of new language abstractions for sequential, concurrent and, particularly, distributed software systems.
Aspects for (explicitly) concurrent and distributed programming. ASCOLA has provided four of
the most visible approaches to AOP for explicit concurrent and distributed programming. First, we have
defined the currently most comprehensive model for aspects with explicit distribution, the AWED model.
This model supports the modularization of distributed functionalities using explicit references to hosts in
terms of three new abstractions : remote sequence pointcuts, remote advice that may be synchronously
or asynchronously executed, and distributed aspects with corresponding deployment, instantiation and
data sharing mechanisms. Furthermore, we have extended our model for distributed aspects by notions
of causal relations, thus enabling pointcuts to predicate over the order of execution events and enabling
advice to reorder messages sent in a distributed system. [33, 14]
Second, we have recently provided a theory of distributed aspects based on the join calculus. This
calculus of distributed aspects is the first that allows properties over distributed aspects, in particular,
weaving strategies, to be proved correct (technically this is done using bisimilarity arguments). [1]
ASCOLA
77
Third, in cooperation with researchers from University of Chile, we have investigated how distributed
aspects can be correctly scoped at runtime, which is necessary to enable the propagation of aspect instances across host boundaries and to avoid inconsistencies due to unintentional spreading of data and
computations in a distributed system. [8]
Finally, ASCOLA has provided the first aspect language for the manipulation of concurrent executions. The corresponding concurrent aspect model features an operator-based approach to concurrent
composition and properties of the woven systems can be verified using model checking techniques. [31]
Trace-based aspects and binary code weaving for C/C++. We have provided the first aspect language that allows runtime events to be matched in terms of sequences over C function calls, accesses
to global variables and local aliases of global variables. Sequence aspects enable the modularization of
various typical crosscutting functionalities, in particular, protocol transformations, bug correction (e.g.,
for security purposes), and prefetching introduction in web caches. We have implemented this aspect
language using runtime binary code weaving, a first of its kind. [29, 32]
Composition of domain-specific aspect languages We have developed one of the first infrastructures to support both the implementation and the composition of Domain-Specific Aspect Languages
(DSALs). Based on a uniform model of partial reflection, such languages can be defined in terms of both
structural and behavioral meta-programming facilities, which makes it easy to experiment with (combinations of) advanced uses of AOP and reflection without reinventing the wheel or being limited to a
specific AOP language. [15]
2.5.2 Software composition
Participants : Jacques NOYÉ, Pierre COINTE, Thomas LEDOUX, Jacques NOYÉ, Jean-Claude
ROYER, Mario SÜDHOLT
Dynamic reconfiguration of component-based systems. Component-based systems must support dynamic reconfigurations to adapt to their execution context, but not at the cost of reliability. We have
proposed a language-based approach to support correct dynamic reconfiguration in terms of two languages : (i) FPath, a DSL which provides a concise yet powerful notation to navigate inside component
architectures, and (ii) FScript, a scripting language which embeds FPath and supports the definition of
complex reconfigurations. FScript ensures the reliability of these reconfigurations thanks to sophisticated
runtime control, which provides transactional semantics (ACID properties) for reconfigurations. We have
applied these techniques, in particular, to the definition of consistency for configurations and reconfigurations in the Fractal component architectures, thus supporting integrity constraints, such as structural
invariants. [16, 17]
Interaction protocols for correct composition. We have produced a wide range of original results
on the use of behavioral protocols for the analysis of various properties of the interaction behavior of
partners in a compositional system. While some of our approaches used finite-state based protocols as
almost all mainstream approaches do, our work in this area is set apart by also harnessing various kinds
of more expressive, non-regular protocols to ensure compositional properties. We have, in particular,
exploited symbolic transition systems (STSs), a kind of Turing complete protocol, to support the use of
data types in interaction protocols and expressive component composition mechanisms through the use
78
Activity report 2006–2009 and perspectives 2012-2015 ASCOLA
of modal logic. Furthermore, we have proposed a notion of counter STSs and a corresponding decision
procedure for the boundedness of such counters systems. This boundedness decision procedure prevents
the state-explosion problems existing in STSs in some cases. [28, 30]
We have also investigated protocols defined using visibly pushdown automata (VPA), a language
class strictly contained between regular and context-free languages but that preserves all closure and
decidability properties of regular languages. We have shown how correctness properties relying on the
arbitrarily deep nesting of request- service pairs, such as those occurring in P2P networks, can be ensured
if VPA-based aspects are used to evolve such networks. [26, 35]
2.5.3 Cloud, cluster and grid programming
Quality-of-Service properties of web services and SOAs. A Web Service is a component accessible
over the Web that aims to achieve loose coupling between heterogeneous platforms. When composing
Web services, architects encounter several issues dealing with Quality of Service (QoS) : (i) how to
guarantee global QoS of the assembly ; (ii) how to adapt a composition of Web Services to a specific
context. We have introduced a declarative approach aiming to provide the architect with adequate means
to specify QoS requirements in Web Service orchestrations. In a second step, we have extended this
approach to SOAs. To facilitate QoS management in service compositions through better separation of
concerns, we designed a domain-specific language which allows QoS policies to be specified for business
processes in terms of QoS constraints and manipulations of BPEL compositions. [5, 22]
Dynamic consolidation in virtualized clusters. Considering the increasing popularity of virtualization in distributed architectures, we have first developed a dynamic consolidation system named Entropy.
This system exploits VM migration to adapt the assignments of VMs to real machines according to
their current resource requirements. We have then extended this system to address the development of
advanced scheduling algorithms. We have introduced the concept of a cluster-wide context switch, a
building block leveraging virtualization capabilities to facilitate advanced scheduling implementations.
While system virtualization is a more and more popular technique in data centers, this software layer
adds to the administration complexity of servers and requires specific management tools to deal with
hypervisor functionalities like live migration. To address this problem, we have then designed VMScript,
a domain specific language for administration of virtualized grid infrastructures. [4, 7]
File systems for grids. In cooperation with the PARIS project-team from the INRIA Rennes center, we
have worked on reliable execution of applications that use file systems for data storage in a distributed
environment. We have designed an efficient and portable file versioning framework and implemented it in
the distributed file system kDFS. This framework can be used to snapshot file data when the volatile state
of a process is checkpointed and thereby makes it possible to restart a process using files in a coherent
way. [12]
2.6 Software (Logiciels)
We currently develop eight different open-source software tools and infrastructures. In the following
we only mention the most visible ones, in particular on the international level.
ASCOLA
79
Entropy
URL
Participants : J.-M. Menaud (resp), F. Hermenier
Type de licence : LGPL
Mots clés: cluster consolidation, Xen, VMware, HyperV
Virtual machine manager for clusters performing globally optimized placement according to cluster resource usage and scheduler objectives ; component of the OW2 Cloud Ware Initiative ; under
test by Orange Labs, DGFiP (Direction Générale des Finances Publiques), Bull, Devoteam et Logica. Has been valued through the “prix de la croissance numérique verte” (1st edition, Dec. 2009)
(http://www.prixdelacroissancevertenumerique.eu/) en 2009.
FScript, Wildcat
URL
Participants : T. Ledoux (resp), M. Ben Hassine
Type de licence : GPL (FScript) and LPGL (Wildcat)
Mots clés: component reconfiguration
Frameworks for the monitoring of events and the reconfiguration of (Fractal) component systems ; part
of the OW2 initiative, used in particular in the SOA infrastructure developed as part of the ADT Galaxy
project.
Aspects with explicit distribution (AWED)
URL
Participants : M. Südholt (resp), R. Douence
Type de licence : LGPL
Mots clés: AOP, distributed programming
Framework implementing the model of aspects with explicit distribution ; developped and used in different projects, in particular with Siemens, Germany as well as SAP France and Germany.
2.7 Contracts and grants (Contrats et subventions)
We are strongly committed to the construction of strong partnerships with academic and industrial
partners, as well as knowledge transfer in the context of international and national, mostly collaborative,
projects. ASCOLA has been (and is) involved in highly-visible European projects that has allowed us
to form strong ties with partners such as researchers from Lancaster University, UK, Vrije Universiteit
Brussel, Belgium, TU Darmstadt, Germany, SAP AG, Germany, and Siemens AG, Germany. All of these,
still active, partnerships in the context of research contracts have been complemented by several other
collaborations including new research projects, common MSc-level formations, and co-supervisions of
PhD students. Furthermore, we participate in a number of national and regional projects. In all of these
projects, we participate through work applying our core competences, software composition, AOP and
the Cloud, especially using cluster and grid infrastructures. Finally, ASCOLA members have coordinated
some of these projects, including three ANR projects (FLFS, SelfXL, CESSA) and the participation of
the three INRIA centers part of the NoE AOSD-Europe.
80
Activity report 2006–2009 and perspectives 2012-2015 ASCOLA
Type
Name
EU MCITN
EU STREP
EU NoE
ANR
ANR
ANR
ANR
ANR
ANR
ACI
ACI
Région PdL
Région PdL
Région PdL
ADT
ARC
Scalus
AMPLE
AOSD-Europe
CESSA
SelfXL
FLFS
Selfware
Coccinelle
SADAJ
DISPO
CORSS
Miles
Arantéle
CPER COM
Galaxy
VeriTLA+
PhD H. Nguyen
Van
PhD M. Léger
PhD F. Baligand
PhD C. Augier
ATOLL
Cifre
Cifre
Cifre
Cifre
Direct
Contracts and grants
Managing
institution
EMN
EMN
INRIA
EMN
EMN
EMN
EMN
EMN
EMN
EMN
EMN
UN
EMN
UN
INRIA
INRIA
Start/Duration
Amount
09.2009/48 months
10.2006/37 months
09.2004/50 months
12.2009/36 months
01.2009/36 months
12.2006/36 months
06.2006/30 months
01.2006/36 months
12.2006/24 months
10.2003/36 months
10.2003/36 months
11.2006/36 months
10.2004/30 months
9.2000/6 ans
07.2008/28 months
01.2006/24 months
180 Ke
370 Ke
200 Ke
230 Ke
315 Ke
70 Ke
220 Ke
220 Ke
126 Ke
25 Ke
29 Ke
53 Ke
78 Ke
50 Ke
50 Ke
47 Ke
Orange Labs
01.2008/36 months
27 Ke
Orange Labs
Orange Labs
VirtualLogix
Siemens, Germany
05.2006/36 months
06.2005/36 months
2004/36 months
02.2006/5 months
21 Ke
22 Ke
38 Ke
10 Ke
In the following we briefly present some representative projects in more detail. All amounts of funding given in the summarizing table and the descriptions below refer to the amounts defined in the respective contracts at time of signature.
2.7.1 Collaborative projects (projets collaboratifs)
National projects (projets nationaux)
ANR/RNTL Selfware
URL
Début : 01/01/2006, durée : 30 mois
Partenaires : France Télécom R&D, Bull, Scalagent, INRIA Grenobe (Sardes project-team), IRITENSEEIHT
Coordinateur : INRIA
Grenoble
Participants : T. Ledoux (resp), J.-M. Menaud
Montant équipe : 220 Ke
Montant total : 900 Ke
Mots clés : autonomic administration, component-based applications
In the Selfware project, we have investigated, as a first of its kind within the ANR program, the autonomic administration of computing systems that involve the following characteristics : self-configuring,
self-healing and self-optimizing of distributed applications.
ASCOLA
ANR blanc FLFS
Début : 01/11/2006, durée : 36 mois
Partenaires : INRIA Grenoble, Rennes
Participants : P. Cointe (resp), K. Garces
Montant équipe : 70 Ke
Mots clés : domain-specific language, program development
81
URL
Coordinateur : ASCOLA
Montant total : 210 Ke
The FLFS project has considered the problem of putting domain expertise at the centre of the software
development process. Its key innovation is to introduce a software development process that is parameterized with respect to a specific domain of expertise and covers all the stages of software development.
ANR/Arpège SelfXL
Début : 01/01/2009, durée : 36 mois
Partenaires : U. Grenoble, Irit, Bull Orange Labs, ScalAgent
Participants : J.-M. Menaud (resp), A. Lèbre, T. Ledoux
Montant équipe : 315 Ke
Mots clés : large-scale autonomic systems, cluster infrastructures
URL
Coordinateur : ASCOLA
Montant total : 1.1 Me
The SelfXL project aims at investigating abstractions and implementation techniques for the administration and optimization of complex and large-scale autonomic systems. Systems to be targeted range from
cluster computing to embedded systems, including legacy software.
ANR/Arpège CESSA
Début : 1/12/2009, durée : 36 mois
Partenaires : Eurecom, IS2T, SAP Labs France
Participants : M. Südholt (resp), H. Grall, R. Douence
Montant équipe : 230 Ke
Mots clés : service-oriented architectures, evolution, security, AOP
URL
Coordinateur : ASCOLA
Montant total : 0.9 Me
The CESSA research project will provide solutions for the evolution of secure SOAs by providing
an aspect-oriented structuring and programming model that allows security functionalities to be
modularized that cross administrative and technological domains.
International projects (projets internationaux)
NoE AOSD-Europe
URL
Début : 01/04/2004, durée : 50 mois
Partenaires : 11 partners in total, incl. Lancaster U. (UK), TU Darmstadt (Germany), VU Brussel
(Belgium), IBM (UK), Siemens AG (Germany)
Coordinateur : Lancaster U. (UK)
Participants : M. Südholt (resp), P. Cointe, R. Douence, J. Noyé
Montant équipe : 200 Ke (400 Ke for the INRIA centers coordinated by us) Montant total : 4.4 Me
Mots clés : AOSD
This network has federated and developed the essential part of the European research community in
AOSD over 4 years in software design, languages and implementation, formal methods for AOSD and
its applications. It has been pursued since 2008 as an association under British law and steers, among
others, the yearly international summer school in AOSD. ASCOLA has been one of the founders of the
network, is part of its management board and has organized the summer school in 2009.
82
Activity report 2006–2009 and perspectives 2012-2015 ASCOLA
STREP AMPLE
URL
Début : 01/01/2004, durée : 50 mois
Partenaires : 9 partners in total, incl. Lancaster U. (UK), TU Darmstadt (Germany), U. Twente (NL),
SAP AG (Germany), Siemens AG (Germany)
Coordinateur : Lancaster U. (UK)
Participants : M. Südholt (resp), J. Noyé, M. Südholt
Montant équipe : 370 Ke
Montant total : 3.8 Me
Mots clés : software product lines, AOSD, MDE
The AMPLE project has provided an aspect-based Software Product Line (SPL) development methodology that offers improved modularisation of variations, their holistic treatment across the software
lifecycle and maintenance of their traceability during SPL evolution.
2.7.2 Formal cooperations (accords de coopération)
We have several longstanding and continuing cooperations with foreign research groups that partially
typically concern different activities, e.g., common research work, projects but also teaching activities.
The most significant are the following :
– PLEIAD team (U. Chile) : INRIA associated team France-Chile since Jan. 2010. In 2008 and
2009, this cooperation has been supported by a French-Chilean project of type CONICYT.
– Software Languages Lab (VU Brussel) : setup and co-organization of the international 1-year
MSc degree EMOOSE from 2006-2009 ; a cooperation as part of a 2-year international MSc program is planned to start in 2010. Several joint MSc theses and cooperations in the context of PhD
theses.
– Software engineering team (Lancaster U., UK) : we have obtained a professoral chair from Pays
de la Loire region for Prof. Awais Rashid. This chair provides financial support for a six-month
stay in total during the period 2008-11. Furthermore, one PhD thesis (2009-2012) is co-supervised
by the two teams. Furthermore, the SE team has taken part in the EMOOSE MSc program.
– Software Technology team (TU Darmstadt, Germany) : participation in the EMOOSE MSc
program. A PhD co-supervision will start in July 2010. Joint MSc theses and PhD level cooperations.
2.8 Visibility (Rayonnement)
In this section, we mention the principal elements contributing to the visibility of the ASCOLA team
in its respective communities. We focus on elements contributing to our visibility on the international
level and only mention major national activities.
2.8.1 Evaluation of research (évaluation de la recherche)
Program committees and editorial committes (Comités de programme et de lecture)
– ASCOLA members have been on the program committees of around 30 international peerreviewed conferences and workshops, including the international conferences AOSD (4x), ECOOP
(2x), Euro-Par, Software Composition (3x), GPCE (2x). ASCOLA members have also been multiple times on the PCs of major national conferences, including the conferences LMO, IDM and
CFSE.
ASCOLA
83
M. Südholt has chaired the PC of the int. conference AOSD’10 and co-chaired the PC of Software
Composition’06.
– M. Südholt is member of the editorial board of the international journal TAOSD (Springer). JeanClaude Royer is a coeditor-in-chief of the French RSTI “L’Objet” journal.
Project and program evaluations (expertises régions, ANR, Europe, AERES) ASCOLA members
have participated in eight expertises for French organizations on the national level and two expertises on
the regional level. Six expertises for international research organizations, notably from the Netherlands,
Ireland, Switzerland and Israel, have also been performed.
PhD and HDR committees, selection committees (Rapports et comité de sélection
– Number of membership in PhD and HdR committees in external groups : circa 20.
– ASCOLA members have participated more than 10 times in selection committes for permanent
positions at French institutions (universities and INRIA, mostly).
2.8.2 Promotion of scientific communities (Animation de la communauté)
Steering committees, GDRs and working groups (comités de pilotage, des GDR et leurs GT)
– P. Cointe is member of the steering committee of the international conference ECOOP and the
French LMO conference. J.-M. Menaud is a member of the steering committee of the French
joint conferences RenPar/CFSE/Sympa. M. Südholt is member of the steering committees of the
international conferences AOSD and Software Composition.
– J.-M. Menaud is member of the EU COST IC0840 action (“Energy efficiency in large scale distributed systems”).
– J.-M. Menaud has been treasurer of the GDR ASR and is part of its managing board.
Invited presentations (conférences invitées)
foreign research labs : circa 10
Number of invited talks at international events and in
Event organization (organisation de conférences, d’ateliers, d’écoles d’été) We have organized in
Nantes the international conference ECOOP 2006 (circa 450 participants) and the international summer school in AOSD in 2009 (37 participants). We have participated in the organization of ten other
international conferences and workshops abroad and over five national events.
National and international cooperations (collaborations nationales et internationales) ASCOLAs
national and international cooperations are mainly set up in the contexts of contracts, grants and other
formalized cooperations, see the preceding section.
In addition, we have strong ties with the following teams and researchers :
– LINA institute : MODAL and COLOSS teams, with the latter, in particular, in the context of a
co-supervised PhD thesis (2008-2011).
– Teams from the INRIA centers, and the corresponding universities, in Rennes (Triskell, Myriads,
Celtique teams), Lille (Adam and RMod teams), Grenoble (Sardes, Pop-Art teams), Bordeaux
(Phenix team) and Sophia Antipolis (Oasis team).
– Teams from universities of Los Andes and EAN in Colombia.
84
Activity report 2006–2009 and perspectives 2012-2015 ASCOLA
2.9 Education and research (Formation par la recherche)
Steering activities of doctoral schools, MScs and specialization programs (Pilotage d’écoles doctorales, de spécialités de filières, de master)
– EMOOSE, 2006-09 : one-year international MSc (M2-level) set up and co-organized by ASCOLA
with SOFT group from VU Brussels. Course part organized and taught for half by ASCOLA
members in Nantes.
– GSI, 2006– : we are steering, organizing and teaching in this 2-year graduate specialization at EM
Nantes.
– ALMA, 2006– : joint French master of U. Nantes and EMN. Ascola members are responsible for
one module.
– ECSS, 2010– : we have defined and will organize and teach in this 2-year international MSc
program on the evolution of complex systems that will start in Sep. 2010 subject to approval by
the competent government agency.
ASCOLA has also set up an international consortium intending to submit, in 2011, an Erasmus
Mundus proposal on the MSc-level and, possibly, the PhD-level. This consortium involves universities
from Belgium, Great Britain and The Netherlands.
Participations in MSc-level formations (Participation aux enseignements de master, de filière,
d’école doctorale)
– Principal institution
– EMOOSE, 2006-09 : ASCOLA members taught half of the course program, circa 150h per
year.
– GSI, 2006– : we are teaching approx. 40% of the course program, circa 150h per year.
– ALMA, 2006– : we are teaching approx. 60h per year.
– ECSS, 2011– : we will teach approx. one third of the course program, approx. 100h per year.
– Other institutions : ASCOLA members have intermittently taught at IFSIC in Rennes (ca. 10h per
year over two years), as well as, for 1-5 hours, at a small number of other French and international
universities, incl. Berlin University of Technology.
Habilitation and PhD theses (HDR et thèses soutenues)
Name
M. SÜDHOLT
Document
[27]
HDRs
Institution
UN
Defense
11/07/2007
Position
MAHC EMN
ASCOLA
85
Name
F. Hermenier
Document
[11]
PhDs
Institution
UN
Defense
26/11/2009
H. Arboleda
[10]
UN, Los Andes
28/10/2009
UN
26/06/2009
S. Djoko Djoko
M. Léger
[9]
EM Paris
19/05/2009
L. D. Benavides Navarro
[6]
UN
19/01/2009
S. Pavel
[20]
UN
21/10/2008
F. Baligand
[21]
EM Paris
26/6/2008
N. Loriant
[24]
UN
07/12/2007
S. Denier
[25]
UN
09/07/2007
G. Bobeff
[34]
UN
14/12/2006
Position
ATER EMN
Assistant
Prof.,
ICESI,
CALI,
Colombia
Research engineer,
Adacore
Research engineer,
EMN
Assistant
Prof.,
EAN,
Bogota,
Colombia
Head of R&D,
XSARNET
Engineer, Thales
R&D, Palaiseau
Postdoc,
INRIA
Bordeaux
Postdoc,
INRIA
Lille
Engineer, Proxiad
2.10 Governance (Gouvernance)
Team organization, promotion of science (Organisation de l’équipe, animation scientifique)
ASCOLA, as a team of around 20 members altogether, is sufficiently large to require dedicated
actions to ensure an encompassing flow of information about the different activities within the team and
in order to provide a sufficient mutual understanding to enable common work on related but different
subjects that are investigated by its members. This need is very actively addressed by the team through
various measures that involve and are geared towards all members, with a special emphasis on PhD
students. These means include :
– A weekly group-internal scientific seminar
– A fortnightly scientific round table
– A fortnightly administrative team meeting
– A yearly two-day group-internal scientific and strategic seminar (held in 2010 on 3-4 June.)
Furthermore, dedicated means have been put into place in order to support academic and industrial
cooperations and the acquisition of knowledge on new scientific and industrial issues :
– Several presentations (and sometimes seminars) are organized each year jointly with other teams
from LINA institute.
– A series of joint seminars with teams from INRIA Rennes has been put into place in 2010.
– ASCOLA members are encouraged to participate in the dedicated events geared towards the set-up
of collaborations on the European, national and regional levels that are organized by the LINA,
EMNantes and INRIA.
86
Activity report 2006–2009 and perspectives 2012-2015 ASCOLA
– ASCOLA members are encouraged to attend one top-ranked conference in addition to those where
the team presents some result anyway.
Finally, the team members are strongly encouraged to attract MSc-level and PhD students, postdocs
and engineers. Over the evaluation period, a bit more than half of our non-faculty personnel has joint the
team from outside Nantes and a large part from abroad.
Publication strategy (Stratégies de publication)
We are generally following a publication strategy that aims at the frequent participation of the team
at top-ranked venues in its core domains (AOP, software composition, Cloud/cluster/grid) and at venues
of at least good standing in a number of related domains.
In the scientific domains, ASCOLA is involved in, new results are essentially presented in conferences, and top-ranked conferences are more visible than top-ranked journals. Consequently, we pursue
a publication strategy that strongly encourages the submission to top-ranked conferences. For faculty
members, the submission to three other types of venues is actively supported : top-ranked and good journals, international conferences that have a good scientific standing and major national conferences. PhDs
may additionally publish in reasonably visible (national or international) conferences and workshops.
As witnessed by the major publications of the team, its participation in steering and program committees of top events, and the co-organization of a large number, partially major events, this strategy has
borne quite some fruit over the evaluation period.
2.11 Self-evaluation (Auto-évaluation)
We present our self assessment in form of a SWOT analysis (Strengths, Weaknesses, Opportunities,
Threats).
2.11.1 Strengths
AOP, composition, and languages communities ASCOLA members have contributed several fundamental concepts, defined theoretical and practical approaches that have been taken up and developed by
other teams, and actively take part in the animation of the AOP, software composition and programming
languages 7 communities. In the field of AOP, ASCOLA is one of the leading teams worldwide ; in the
two other fields ASCOLA is well established in the corresponding national and international communities, as witnessed by the visibility elements above. Because of its expertise in the foundations but also
languages and applications in these domains, ASCOLA is well positioned to have further significant
impact in these fields.
Cloud, clusters and grids Our work in the field of cloud computing and cluster/grid infrastructures
has essentially started in form of scientific results on service compositions and virtualization techniques.
Recently, the corresponding software tools (Entropy, FScript/Wildcat) have stirred quite some interest,
notably from industrial partners. Furthermore, first results on their application to energy optimization
have been well visible on the national (”prix de la croissance verte numérique”, Dec. 2009) and international levels (participation in a corresponding EU COST action).
ASCOLA
87
Contracts and cooperations We have been (and is) involved in a healthy number of international
projects and actions that involve essentially all of our core expertise, from formal methods for software composition via language design and implementation up to low-level infrastructures. Furthermore,
all contracts involve industrial partners, most notably currently with Orange Labs and SAP AG/Labs.
ASCOLA also has a significant number of external cooperations with internationally well-established
research groups, notably from the U. Chile, Lancaster U., TU Darmstadt and VUB, that have yielded
many high-profile publications, PhD students co-supervisions, joint project participations and education
programs.
2.11.2 Weaknesses
We have identified two main weaknesses of the project-team in its current state : (i) its result and impact should be broadened beyond its strict domains of core expertise, (ii) our software tools and platforms
should be matured. Both of these weaknesses are currently being addressed actively.
Results and impact to be broadened Our impact is very high in its domains of core expertise, notably
AOP and cluster/grid infrastructures. Its impact in related domains such as composition at large and the
cloud is (necessarily) more limited, but key results should be systematically developed by considering
their added value to the larger communities. This on-going effort has yielded encouraging results this
year, e.g., through publication of an aspect calculus at the high-impact language conference ECOOP and
the dissemination of virtualization techniques to the general cloud community.
Mature and disseminate software prototypes Ascola has developed eight research prototypes, none
of which has achieved a level of maturity sufficient for non-expert users and, with the exception of
Entropy, none has been disseminated much beyond the corresponding research community. We are currently in the process of developing, partially by integrating our three most visible ones : Entropy, AWED,
Fscript/Wildcat : research challenges and an architecture for partial integration has been agreed upon and
dedicated resources have been partially acquired, partially requested.
2.11.3 Opportunities
We see two main opportunities for development of the project in the short and medium term : (i)
developing our work on energy optimization into a research topic of Green IT for cloud infrastructures
and applications, (ii) developing several application domains that we have worked on only peripherally
by now.
Green IT Virtualization techniques in clusters are clearly appropriate for the optimization of the energy
consumption in clusters (either through computation or generation of heat that has to be cooled down).
More generally, service compositions and energy as a crosscutting functionality are natural concepts that
should underlie a general treatment of energy consumption in distributed systems. Our core competences
should make it possible to cover a large part of the corresponding scientific challenges.
New application domains We have done work and produced a limited number of results in application
domains, such as systems-of-systems, security and autonomic systems, that become increasingly important in large-scale systems, such as cloud applications. Since we cover a wide range of the necessary
88
Activity report 2006–2009 and perspectives 2012-2015 ASCOLA
competences (from formal methods to applications), we envision to promote these domains within the
project-team.
2.11.4 Threats
We currently see two main risks pertaining to our current positioning and future objectives : (i) the
changing status of, in particular language-based, composition techniques and (ii) the high competition in
the application domains we target.
Role/status of composition techniques There is a general trend to hide elaborate composition techniques under the hood and, if possible, limit their use altogether, i.e., through standardization or partitioning/simplification of infrastructures and applications. This is particularly true for language-based
composition techniques. Furthermore, AOSD has matured and is not a hyped topic as it was still five
years ago. The composition problems we target, its focus on language-based but higher-level abstractions for modularization and composition, and its large range of applications seems promising even in
this changed environment.
Competition in application domains The application domains we target - the cloud, services, EAI,
Green IT and main crosscutting functionalities, such as security, transactional behavior, autonomic execution - are all highly competitive. ASCOLA’s large range of expertise from theory to applications should
be appropriate to generate outstanding results even in this setting.
2.12 Perspectives 2012-2015 (Projet scientifique)
Since the main scientific issues addressed by us (correct and flexible composition of large software
systems, support for new infrastructures and applications) still require hard challenges to be solved and
are very attractive for a large number of academic and industrial domains and partners, we do not intend
to drop any of our current research topics. However, we intend to refine and partially extend them in three
directions :
– Reconciling black box and invasive composition
– High-level abstractions for the manipulation of architectures and their implementations
– Green IT
– Evolution of large-scale applications
2.12.1 Reconciling black box and invasive composition
Using a standard black-box model of composition, software evolution is limited to the removal or
the addition of new components (or services). Existing components, with their implementation sealed
behind their interface cannot be altered. This does not address very frequent scenarios whereby invasive
composition is required, for instance to trace some new security-related information as requested by new
legal regulation. Aspects can be seen as a special form of component allowing invasive composition.
The issue is then to control invasive composition in order not to break neither the integrity of the overall
application nor the integrity of the aspect. When a white- box model of composition is available (for
instance, classes with various inheritance mechanisms) altering components is easier but it turns out
that aspects are still useful and safe invasive composition is still an issue. Some initial proposals have
ASCOLA
89
been made in this direction (including our work on invasive distributed patterns and aspect-applicability
conditions) but they are quite preliminary and never consider distributed systems.
We shall investigate this issue by considering two main directions. The first direction consists of
improving aspect-oriented languages by making it possible to better control the scope of aspects. This
includes the introduction of distributed scoping strategies able to associate aspects, usually considered as
having global scope, with specific data flows and control flows, as well as the introduction of pointcuts
and advice (the elements constituting an aspect) as first-class class members (in which case an object
can only be altered by the limited set of aspect instances that own a reference to the object). The second
direction consists of introducing aspect-aware interfaces, that is, behavioral interfaces (or protocols) that
define aspect-applicability conditions. Such interfaces may be attached to an aspect as a precondition
of aspect application or to a component (or a set of components) as a postcondition to aspect application. This builds on our previous work on interaction analysis of event-based aspects and is also related
to interaction protocols and session types, the latter of which we are investigating as a candidate for
expressing properties over behavioral interfaces.
Although these various tracks are, in a first step, being addressed independently to make the work
tractable, we plan to consider their integration at a later stage. A long-term objective is to contribute
to a better integration of various programming concepts (classes, components, aspects, services, processes) which, although very close are still handled at very different levels without any consistent syntax,
semantics, execution environment, and tools.
2.12.2 High-level abstractions for the manipulation of architectures and their implementations
Going one step further in the programming scale, that is crossing organization boundaries, requires
new abstractions for reasoning and programming. These abstractions are not totally different from abstractions used at lower levels (for instance, the seemingly low-level, join calculus is still relevant for
describing a service-oriented architecture with its dynamic creation of services and links between services) but these abstractions have to be adapted or complemented in order to cater for new requirements.
For instance, when defining a global security policy for exchanges between web services belonging to
different organizations, each with its own local policy, we do not want to delve into the details of the
message exchanges between the services but rather reason in terms of the local and global security policies. The objective here is to provide a seamless and programmatic way of dealing with orchestrations
(services controlled by a central authority) and choreography (services collaborating on a contractual
basis) by working both at a behavioral level and at a higher level, for instance, the level of a security
policy, which can be seen as an abstraction of the lower level. Both levels should be designed so that the
composition of local policies can either be checked to conform to the global policy or be complemented
with a distributed monitor (composed with the services using possibly invasive composition).
A second line of work consists of providing linguistic support for unifying two very different architectural styles for service-oriented architectures : message-oriented architecture and resource-oriented
architectures, which can be linked with process calculi/languages and query languages, respectively. At
first sight, these models may look quite different. However, it turns out that both the pi-calculus and
datalog with negation, paradigmatic examples of both worlds, can be expressed using multiset rewriting
and linked with linear logic. This opens the way to the definition of a common intermediate language
that could be used as a substrate to reason about and implement hybrid service-oriented architectures.
In both cases, we are interested in defining well-founded models to reason on these issues and accompanying languages making it possible to implement service-oriented architectures either directly, without
90
Activity report 2006–2009 and perspectives 2012-2015 ASCOLA
exposing users to intricate technological stacks, or interfacing with standard technological stacks.
2.12.3 Green IT
As a direct consequence of the increasing popularity of Cloud Computing solutions, datacenters
(DCs) are becoming bigger and bigger and DC providers have to face with the energy consumption issue
required to maintain servers up. Since 2006, we have worked on power management in grid computing
and data centers by exploiting latest virtualization capabilities such as live migration to provide dynamic
server consolidation and thus switch off unused nodes whenever possible. However, current approaches
that focus either on hardware (by reducing for instance CPU or hard drive consumption) or that exploit
software-based energy saving techniques in SOAs consider software layers independently and neglect
cross-layer energy management in a large-scale distributed infrastructure. From our point of view, energy
should be a first-class resource that should take into account all layers of an energy-aware infrastructure.
Our recent work shows that this approach is very promising. In the next four years, we plan the design
and the implementation of a new software stack fully driven by the energy concern.
In the medium term (2 years) we will both enhance our work on the three main layers of our infrastructure (system, middleware and application) and the synergy between its layers. We argue for an
intra- and inter- layer management where each layer (from application to physical resources) is in charge
of addressing the energy concern first independently and second through a strong interaction with the
contiguous layers. From a system standpoint, we will work on DC node energy management by quantifying and qualifying the power consumption of virtual machines to drive actions on the hardware node
(CPU, hard drive, memory etc.). From a middleware perspective, we will strengthen our results on the
virtual machines placement by addressing the problem of DC heat dissipation (Thermal Load Balancing). From an application point of view, we will develop an autonomic and an “agile” SOA architecture
infrastructure able to automatically adapt to changes in the execution energy context. This will result in
a multi-layer platform entitled SynergeTIC based on autonomic systems to address the energy concern
through the whole software stack.
In the long term (4 years), we will develop the SynergeTIC solution by leveraging our existing prototype (Entropy). We will first focus on the energy concern during the application development process.
Similar to problems pertaining to algorithm complexity, we plan to exploit new metrics for the quantification of energy requirements and exploit such information on different layers and thus improve the
scheduling process. We will study the possibility of reifying energy in a general-purpose language to
enable developers to better control this resource.
2.12.4 Evolution of large-scale applications
In the medium term, we plan to extend, to a moderate degree, the existing set of application domains
and functionalities of real-world applications addressed by ASCOLA in three different directions. First,
we plan to investigate abstractions and implementation techniques for the composition in systems-ofsystems, for instance systems enabling interoperation of different types of organizations or, in a more
technical domain, integration of different file systems used in different parts of a large-scale distributed
system. Second, we will develop work on the composition of security properties in different types of
large-scale distributed systems, including SOAs and systems-of-systems. Third, we will further investigate autonomic management of systems, in particular, in the context of energy optimization.
ASCOLA
91
2.13 Bibliography
2.13.1 Publications de référence de l’équipe dans la période
[1] http ://hal.inria.fr/inria-00423996/
N. T ABAREAU. A theory of distributed aspects. In 9th International Conference on Aspect-Oriented
Software Development (AOSD ’10), 2010, Rennes, Saint-Malo, France
[2] http ://hal.archives-ouvertes.fr/hal-00470420/en/
A. R ASHID, T. C OTTENIER, P. G REENWOOD, R. C HITCHYAN, M. R EGINE, C. R OBERTA,
M. S ÜDHOLT, et W. J OOSEN. Aspect-Oriented Software Development in Practice : Tales from
AOSD-Europe. IEEE COMPUTER, 2010, 43(2) : 19–26
[3] http ://hal.archives-ouvertes.fr/hal-00467405/en/
B. DE F RAINE, E. E RNST, et M. S ÜDHOLT. Essential AOP : The A Calculus. In Theo D E H ONDT,
réd., Proc. of the 24th European Conference on Object-Oriented Programming (ECOOP 2010),
2010, Maribor, Slovénie. Springer Verlag, 2010, LNCS
[4] http ://hal.archives-ouvertes.fr/hal-00481701/en/
J.-M. M ENAUD, H. N GUYEN V AN, et F. DANG T RAN. Performance and Power Management for
Cloud Infrastructures. In IEEE Computer Society Press Cloud 2010, 2010, Miami - USA
[5] http ://hal.archives-ouvertes.fr/hal-00474798/en/
M. L ÉGER, T. L EDOUX, et T. C OUPAYE. Reliable Dynamic Reconfiguration in a Reflective Component Model. In Component-Based Software Engineering,13th International Symposium, CBSE
2010 CBSE 2010, 2010, République Tchèque, LNCS, pages 74–92
[6] http ://tel.archives-ouvertes.fr/tel-00484760/
L. D. B ENAVIDES N AVARRO. Distributed Aspects : better separation of crosscutting concerns in
distributed software systems. Thèse de doctorat, Université de Nantes, 2009
[7] http ://hal.inria.fr/inria-00420338/en/
F. H ERMENIER, X. L ORCA, J.-M. M ENAUD, G. M ULLER, et J. L AWALL. Entropy : a consolidation
manager for clusters. In VEE ’09 : Proceedings of the 2009 ACM SIGPLAN/SIGOPS international
conference on Virtual execution environments, 2009, New York, NY, États-Unis. ACM, 2009, pages
41–50
[8] http ://hal.inria.fr/inria-00421683/en/
É. T ANTER, J. F ABRY, R. D OUENCE, J. N OY É, et M. S ÜDHOLT. Expressive Scoping of Distributed
Aspects. In AOSD 2009 Proceedings of the 8th ACM international conference on Aspect-oriented
software development, 2009, Charlottesville, Virginia, États-Unis. ACM Press, 2009, pages 27–38
[9] http ://tel.archives-ouvertes.fr/tel-00485033/
M. L ÉGER. Fiabilité des Reconfigurations Dynamiques dans les Architectures à Composants.
Thèse de doctorat, École Nationale Supérieure des Mines de Paris - ENSMP, 2009
[10] http ://tel.archives-ouvertes.fr/tel-00484779/
H. A RBOLEDA. FieSta : An approach for Fine-Grained Scope Definition, Configuration and
Derivation of Model-Driven Software Product Lines. Thèse de doctorat, Université de Nantes ;
Universidad Los Andes, Bogota, 2009. Thèse en co-tutelle
92
Activity report 2006–2009 and perspectives 2012-2015 ASCOLA
[11] http ://tel.archives-ouvertes.fr/tel-00476822/
F. H ERMENIER. Gestion dynamique des tâches dans les grappes, une approche à base de machines
virtuelles. Thèse de doctorat, Université de Nantes, 2009
[12] http ://hal.inria.fr/inria-00424542/en/
P. R ITEAU, A. L ÈBRE, et C. M ORIN. Handling Persistent States in Process Checkpoint/Restart
Mechanisms for HPC Systems. In 9th IEEE/ACM International Symposium on Cluster Computing
and the Grid (CCGRID ’09), 2009, Shanghai, Chine
[13] http ://hal.archives-ouvertes.fr/inria-00418836/en/
S. D JOKO D JOKO, R. D OUENCE, et P. F RADET. Aspect Preserving Properties. In ACM/SIGPLAN
Workshop Partial Evaluation and Semantics-Based Program Manipulation, 2008, San Francisco,
États-Unis
[14] http ://hal.inria.fr/inria-00418841/en/
L. D. B ENAVIDES N AVARRO, R. D OUENCE, et M. S ÜDHOLT. Debugging and testing middleware with aspect-based control-flow and causal patterns. In ACM/IFIP/USENIX 9th International
Middleware Conference, 2008, Leuven, Belgique
[15] http ://hal.archives-ouvertes.fr/inria-00429568/en/
É. T ANTER, R. T OLEDO, G. P OTHIER, et J. N OY É. Flexible metaprogramming and AOP in Java.
Science of Computer Programming, 2008
[16] http ://hal.archives-ouvertes.fr/hal-00468474/en/
P.-C. D AVID, T. L EDOUX, T. C OUPAYE, et M. L ÉGER. FPath and FScript : Language support for
navigation and reliable reconfiguration of Fractal architectures. Annales des telecommunicationsannals of telecommunications, 2008, Volume 64(Numbers 1-2 / février 2009) : 45–63
[17] http ://hal.archives-ouvertes.fr/hal-00468471/en/
F. B ALIGAND, N. R IVIERRE, et T. L EDOUX. QoS Policies for Business Processes in Service
Oriented Architectures. In Service-Oriented Computing - ICSOC 2008 International Conference
on Service Oriented Computing, 2008, Sydney, Australie, volume 5364/2008 of Lecture Notes in
Computer Science, pages 483–497
[18] http ://hal.archives-ouvertes.fr/inria-00418837/en/
S. D JOKO D JOKO, R. D OUENCE, et P. F RADET. Specialized aspect languages preserving classes
of properties. In IEEE International Conference on Software Engineering and Formal Methods,
2008, Cape Town, Afrique Du Sud
[19] http ://hal.inria.fr/inria-00473628/en/
B. D E F RAINE, M. S ÜDHOLT, et V. J ONCKERS. StrongAspectJ : Flexible and Safe Pointcut/Advice
Bindings. In Proceedings of the 7th ACM Int. Conf. on Aspect-Oriented Software Development
(AOSD’08), 2008, Bruxelles, Belgique. ACM, 2008
[20] http ://tel.archives-ouvertes.fr/tel-00484788/
S. P AVEL. Un modèle de composants hiérarchiques avec protocoles d’interaction. Thèse de doctorat, Université de Nantes, 2008
[21] http ://tel.archives-ouvertes.fr/tel-00308934/
F. BALIGAND. Une Approche Déclarative pour la Gestion de la Qualité de Service dans les Compositions de Services. Thèse de doctorat, École Nationale Supérieure des Mines de Paris - ENSMP,
2008
ASCOLA
93
[22] http ://hal.archives-ouvertes.fr/hal-00485546/en/
F. B ALIGAND, N. R IVIERRE, et T. L EDOUX. A Declarative Approach for QoS-Aware Web Service
Compositions. In Proceedings of the 5th international conference on Service-Oriented Computing
ICSOC 2007, 2007, Vienna, Autriche, pages 422 – 428
[23] http ://hal.archives-ouvertes.fr/inria-00350019/
L. B URGY, L. R ÉVEILL ÈRE, J. L AWALL, et G. M ULLER. A Language-Based Approach for Improving the Robustness of Network Application Protocol Implementations. In 26th IEEE International Symposium on Reliable Distributed Systems, 2007, Beijing, Chine
[24] http ://tel.archives-ouvertes.fr/tel-00502124/en/
N. L ORIANT. Évolution dynamique des systèmes d’exploitation, une approche par la programmation par aspects. Thèse de doctorat, Université de Nantes, 2007
[25] http ://tel.archives-ouvertes.fr/tel-00458186/
S. D ENIER. Expression et composition des motifs de conception avec les aspects. Thèse de doctorat,
Université de Nantes, 2007
[26] http ://hal.archives-ouvertes.fr/inria-00473984/en/
D. H. N GUYEN et M. S ÜDHOLT. Proc. of the 9th International Symposium on Distributed Objects,
Middleware, and Applications (DOA’07). In Proc. of the 9th International Symposium on Distributed Objects, Middleware, and Applications (DOA’07), 2007, Villamoura Portugal. Springer
Verlag, 2007
[27] http ://tel.archives-ouvertes.fr/tel-00486842/
M. S ÜDHOLT. Towards expressive, well-founded and correct Aspect-Oriented Programming. HDR,
Université de Nantes, 2007
[28] http ://hal.archives-ouvertes.fr/hal-00342156/en/
P. P OIZAT et J.-C. R OYER. A Formal Architectural Description Language based on Symbolic
Transition Systems and Modal Logic. Journal of Universal Computer Science (J.UCS), 2006, 12 :
1741–1782
[29] http ://hal.archives-ouvertes.fr/inria-00442180/
R. D OUENCE, T. F RITZ, N. L ORIANT, J.-M. M ENAUD, M. S ÉGURA -D EVILLECHAISE, et
M. S ÜDHOLT. An expressive aspect language for system applications with Arachne. Transaction on Aspect-Oriented Software Development, 2006, 1
[30] http ://hal.archives-ouvertes.fr/hal-00342158/en/
P. P OIZAT, J.-C. R OYER, et G. S ALA ÜN. Bounded Analysis and Decomposition for Behavioural
Descriptions of Components. In Proceedings of the 8th International Conference on Formal Methods for Open Object-Based Distributed Systems (FMOODS), 2006, Italie, volume 4037 of Lecture
Notes in Computer Science, pages 33–47
[31] http ://hal.inria.fr/inria-00467938/en/
R. D OUENCE, D. L E B OTLAN, J. N OY É, et M. S ÜDHOLT. Concurrent Aspects. In Proceedings of
the 5th International conference on Generative Programming and Component Engineering, 2006,
Portland, États-Unis, pages 79–88
[32] http ://hal.archives-ouvertes.fr/inria-00442177/
M. S ÉGURA -D EVILLECHAISE, J.-M. M ENAUD, N. L ORIANT, T. F RITZ, R. D OUENCE,
M. S ÜDHOLT, et E. W UCHNER. Dynamic Adaptation of the Squid web cache with Arachne. IEEE
Software, 2006, 23
94
Activity report 2006–2009 and perspectives 2012-2015 ASCOLA
[33] http ://hal.archives-ouvertes.fr/hal-00486841/
L. D. B ENAVIDES N AVARRO, M. S ÜDHOLT, W. V ANDERPERREN, B. D E F RAINE, et D. S UV ÉE.
Explicitly distributed AOP using AWED. In Proceedings of the 5th International conference on
Aspect-Oriented Software Development, 2006, Allemagne. ACM, 2006, pages 51–62
[34] http ://tel.archives-ouvertes.fr/tel-00484948/
G. B OBEFF. Spécialisation de composants. Thèse de doctorat, Université de Nantes, 2006
[35] http ://hal.archives-ouvertes.fr/inria-00486448/en/
D. H. N GUYEN et M. S ÜDHOLT. VPA-based aspects : better support for AOP over protocols. In 4th
IEEE International Conference on Software Engineering and Formal Methods (SEFM’06), 2006,
Pune, Inde
2.13.2 Bibliographie externe
[36] http ://computer.org/computer/co2003/r1041abs.htm
J. O. K EPHART et D. M. C HESS. The vision of autonomic computing. IEEE Computer, 2003,
36(1) : 41–50
[37] G. K ICZALES, J. L AMPING, A. M ENDHEKAR, C. M AEDA, C. L OPES, J.-M. L OINGTIER, et J. I R WIN . Aspect-oriented programming. In M. A KSIT et S. M ATSUOKA , réds., 11th Europeen Conference on Object-Oriented Programming, 1997. Springer-Verlag, 1997, volume 1241 of LNCS, pages
220–242
[38] D. M. Y ELLIN et R. E. S TROM. Protocol specifications and component adaptors. ACM Transactions of Programming Languages and Systems, 1997, 19(2) : 292–333
[39] M. A KŞIT, S. C LARKE, T. E LRAD, et R. E. F ILMAN, réds. Aspect-Oriented Software Development.
Addison-Wesley Professional, 2004
[40] http ://www.ida.liu.se/ uweas/InvasiveSoftwareComposition/
U. A SSMANN. Invasive Software Composition. Springer-Verlag, 2003. ISBN : 3-540-44385-1
[41] F. B ERMAN, G. F OX, et A. J. G. H EY. Grid Computing Making the Global Infrastructure a Reality.
Wiley Series in Communication Networking & Distributed Systems. John Wiley & Sons, 2003.
ISBN : 0470853190
[42] R. B UYYA, réd. High Performance Cluster Computing : Architectures and Systems. Prentice Hall,
1999
[43] C. S ZYPERSKI, D. G RUNTZ, et M. M URER. Component Software - Beyond Object-Oriented Programming. ACM Press and Addison-Wesley, 2002, 2nd édition
Équipe
COLOSS
Chapeau-résumé
La sûreté des logiciels et des systèmes informatiques de façon générale est historiquement et fondamentalement un enjeu majeur de la recherche en Informatique. Cette problématique est au cœur des
Grand Challenges internationaux 1 (T. Hoare, R. Milner, J. Woodcok, J. Crowcroft, M. Kwiatkowska)
posés à la communauté pour les 10-15 ans à venir ; elle apparaı̂t aussi de façon récurrente dans les
programmes nationaux (Agence Nationale de la Recherche) et internationaux (programmes européens
PCRD, IST). En guise de repère des exemples de ces défis sont : The Verifying Compiler (T. Hoare,
ACM, 2003), The Dependable Systems Evolution (J. Woodcock, 2003), The Grand Challenge of Trusted
Components (B. Meyer, IEEE, 2003) et Verified Software : Theories, Tools and Experiments, (Hoare &
Misra, 2005). Le problème central à résoudre à long terme est celui de disposer d’outils scientifiques pouvant justifier la correction et la sûreté des systèmes informatiques (fonctionnalité, disponibilité, sécurité,
fiabilité). Il y a plusieurs sous-problèmes. D’où notre thématique de recherche autour des modèles, des
composants, des architectures et des logiciels sûrs.
De nombreuses équipes et des travaux à court et moyen termes sont engagés dans cette voie et attaquent
différents sous-problèmes. Les solutions de-ci, de-là formeront un puzzle de concepts et outils du logiciel. Les enjeux sont cruciaux non seulement du point de vue scientifique mais également du point de
vue socio-économique : s’assurer que les systèmes, équipements et logiciels, de plus en plus utilisés au
1. www.nesc.ac.uk/esi/events/Grand Challenges/proposals/
95
96
Bilan 2006–2009 COLOSS
quotidien, sont dignes de confiance et facilement maintenables. Sur le plan de la recherche les problèmes
à résoudre sont, par exemple : l’adéquation entre modèles formels élaborés et systèmes réels envisagés,
la preuve de correction des systèmes développés à partir des modèles y compris la preuve de l’interaction
correcte entre différents sous-systèmes, issus de modèles variés, qui composent les systèmes complexes.
Des langages de spécification performants, des techniques et des outils de modélisation et d’analyse
formelle appropriés sont à élaborer et à mettre au point.
L’ambition de notre équipe est de contribuer à ces défis en fournissant des méthodes, des techniques
et des outils pour le développement de composants logiciels sûrs et pour leur assemblage en logiciels
sûrs. Nous projetons nos résultats comme des pièces dans le puzzle des concepts et outils du logiciel.
3.1 Composition de l’équipe au 30/06/2010
L’équipe COLOSS (COmposants et LOgiciels SûrS) est créée en 2005 sous la responsabilité de
Christian ATTIOGBÉ avec un noyau de 3 membres permanents.
Nom
ANDRE
ARDOUREL
ATTIOGBE
LANOIX
MOTTU
Nom
HABRIAS
VAILLY
Nom
MESSABIHI
HANOUSSE
Nom
SOTIN
Permanents au 30/06/2010
Prénom
Position
Institution
Pascal
MC
UN
Gilles
MC
UN
Christian
PR2
UN
Arnaud
MC
UN
Jean-Marie
MC
UN
Membres associés au 30/06/2010
Prénom
Position
Institution
Henri
PR
UN
Alain
MC
UN
Arrivée
01/09/2003
01/09/2003
01/09/1994
01/09/2008
01/09/2009
Remarques
Emerite
Mission Univ. de
Rabat
Doctorants au 30/06/2010
Prénom
Position
Institution
Arrivée
Mohamed
A
UN
01/09/2007
Abdelhakim
PdL
UN
01/11/2008
Personnels temporaires sur la période 2006-2010
Prénom
Position
Institution
Arrivée
Départ
Pascal
ATER
UN
01/09/2008
01/09/2009
Évolution de l’équipe sur la période 01/01/2006-30/06/2010
Depuis sa création (juin 2005) et le début du quadriennal, l’équipe a vu l’effectif de son noyau passer
de trois membres permanents à cinq membres en septembre 2009. En effet, deux nouveaux collègues ont
été recrutés successivement en septembre 2008 et en septembre 2009.
Sur la période, deux collègues ont été membres associés à l’équipe ; Henri HABRIAS (PR) a pris sa
retraite en septembre 2008, il est maintenant PR Emerite ; Alain VAILLY (MC), directeur de la Miage
puis du département Informatique jusqu’en 2008 est maintenant en charge d’une mission pour la création
de l’Université Internationale de Rabat.
COLOSS
97
3.2 Faits marquants 2006-2010
Structuration et thèmes de recherche L’activité de l’équipe autour de la spécification de composants
corrects a émergé en 2005 à partir de la rencontre de deux thématiques qui étaient alors séparément
développées dans le laboratoire : celle des méthodes et spécifications formelles d’une part et celle des
composants et objets d’autre part.
Une partie des activités de l’équipe se fait autour des méthodes et spécifications formelles et le
multi-formalisme pour les spécifications hétérogènes. Cette activité demeure une spécificité de l’équipe
nantaise. Les défis que nous attaquons dans cette partie relève de l’hétérogénéité sémantique et de l’analyse globale de systèmes à multiple constituants ; nous focalisons ici sur les algèbres de processus,
la méthode B, les réseaux de Petri avec la définition de passerelles sémantiques ou la complémentarité
entre ces approches dans la même spécification.
La constatation était faite en 2005 du manque de méthodes pratiques de vérification par la preuve
de la correction de composants logiciels, le pari était alors pris d’utiliser les approches formelles pour
développer des composants logiciels corrects selon des propriétés énoncées. Parmi les défis à relever, il y
a la proposition d’un langage de spécification formelle et simple, marquant une rupture avec des propositions existantes dans un domaine déjà balisé, où de nombreux concepts étaient utilisés pour structurer
souvent de façon informelle les composants. L’exploitation des spécifications formelles à des fins de
vérification de propriétés ou de développement par raffinements successifs était un autre défi à relever.
Nous avons relevé en partie ces défis dès 2006 avec la proposition concrète d’un langage de
spécification de composants abstraits et formels ; nous avons élaboré et publié le langage de spécification
formelle de composants et de leurs assemblages : Kmelia [19]. Nous avons développé diverses méthodes
et des outils de vérification des propriétés des composants et assemblages. En collaboration avec l’équipe
Ascola et dans le cadre d’un projet régional, nous avons démarré une thèse (co-encadrée par les deux
équipes) où nous étudions l’intégration des aspects dans les composants.
Recrutements La dynamique de l’évolution de l’équipe s’est manifestée par le recrutement en septembre 2008 de Arnaud LANOIX comme maı̂tre de conférences et en septembre 2009 de Jean-Marie
MOTTU comme maı̂tre de conférences.
Essaimage Un ancien doctorant (2000-2003) de l’équipe, Gwen SALAUN, a été recruté sur un poste
de chaire INRIA-ENSIMAG en septembre 2009.
Publications majeures de l’équipe sur la période
1. Revue Technique et Science Informatiques (TSI) Hermès-Lavoisier, 2010. Construction de
Tests Qualifiés de Transformation de Modèles [1],
2. Formal Aspect of Components Software (FACS), 2009. Using assertions to enhance correctness
of components and their assemblies [9], FACS est une des meilleures conférences pour les travaux
à coloration formelle autour des composants logiciels et services.
3. Software Composition (SC’08 @ ETAPS), 2008. Composing Components with Shared Services
in the Kmelia Model[6], SC adossée à ETAPS, est une bonne référence pour la communauté ”composition de logiciels”.
4. International ERCIM Wokshop on Formal Methods for Industrial Critical Systems
(FMICS), 2008. Using CSPkB Components : Application to a Platoon of Vehicles [13], FMICS
98
Bilan 2006–2009 COLOSS
est reconnue comme une des communautés de référence pour les travaux avancés touchant les
systèmes industriels critiques.
5. International Symposium on Leveraging Applications of Formal Methods, Verification and
Validation (ISOLA), 2008. Event-Based Approach to Modelling Dynamic Architecture : Application to Mobile Ad-Hoc Network [11], ISOLA est une des bonnes conférences sur les approches
formelles du logiciel.
6. Software Composition (SC’07 @ ETAPS), 2007. Defining Component Protocols with Service
Composition : Illustration with the Kmelia Model [18].
7. IEEE Transactions on Software Engineering (TSE), 2007. A Formal and Tool-Equipped Approach for the Integration of State Diagrams and Formal Datatypes [15], TSE est une des revues
majeures en Génie logiciel
8. Electronic Notes in Theoretical Computer Science (ENTCS), 2007. Adaptation for Hierarchical Components and Services [16], revue électronique après sélection d’articles de WCAT’2006.
9. Software Composition (SC’06 @ ETAPS), 2006. Checking Component Composability [19], C.
Attiogbé, P. André, G. Ardourel.
10. International Conference on Formal Engineering Methods (ICFEM), 2006. Multi-process Systems Analysis Using Event B : Application to Group Communication Systems [21], ICFEM est une
des conférences majeures abordant les approches formelles du logiciel.
Prix et récompenses, organisation de conférences majeures, conférences invitées
– C. Attiogbé : conférence invitée à SOFSEM’09 ; 35th International Conference on Current Trends
in Theory and Practice of Computer Science (SOFtware SEMinar), Czech Republic, Mars 2009,
(Can components/services be proved correct ?).
– l’équipe COLOSS a participé à l’organisation locale de la conférence internationale ECOOP’2006
à Nantes, en collaboration avec les autres équipes de génie logiciel (Ascola, Atlas).
Tableau récapitulatif
ACL
2
ACLN
2
ASCL
0
Récapitulatif des publications par catégorie
BRE INV ACTI ACTN COM AFF
0
1
19
8
0
0
OS
2
OV
0
DO
4
AP
0
3.3 Fondements scientifiques
Nos travaux sont centrés sur la spécification, l’analyse et le développement formels de composants
et de logiciels garantis sûrs.
Par sûreté d’un système logiciel, nous entendons un logiciel dont le fonctionnement est prouvé correct (par construction à la D IJKSTRA [45, 42, 41, 37], ou par la preuve à la H OARE[46, 38]) et sans
défaillance ; c’est-à-dire un fonctionnement tel qu’il est prévu par les spécifications informelles puis les
spécifications formelles. Cet axe de recherche fait l’objet de travaux fondamentaux et les bases théoriques
sont solides [47, 39, 40, 44, 46, 43].
La qualité et la sûreté des logiciels complexes reposent sur la sûreté des entités logicielles (services,
composants, sous-systèmes) qui les composent et sur la correction de leurs assemblages ; ces problèmes
sont également attaqués dans [27, 24].
COLOSS
99
Nous nous intéressons dans nos travaux à certains des nombreux problèmes fondamentaux et technologiques (dont des ouverts), tels que la construction de modèles formels représentant des entités logicielles, la composition des modèles formels, le raffinement de modèles entre différents niveaux d’abstraction, l’établissement de propriétés globales y compris dans le cas du multi-formalisme.
Cos travaux sont articulés autour de deux actions principales présentées ci-après.
3.3.1 Spécification et vérification des modèles à objets et composants
Le cadre général est celui de l’ingénierie de logiciels à base de composants (CBSE 2 ) où plusieurs
axes sont développés : conception (Component-Based Design) ; programmation (Component-Based Programming) et vérification de propriétés. Nous travaillons spécifiquement sur les axes conception de composants et vérification de leurs propriétés.
La préoccupation principale est de s’assurer de la correction des composants utilisés dans les assemblages de composants, et aussi des assemblages qui constituent le logiciel final. Des techniques de
spécification sont nécessaires en amont. La spécification formelle d’un composant induit des modèles
permettant de vérifier mathématiquement les propriétés attendues. Peu de travaux abordent cette approche formelle.
Contrairement à d’autres approches où un composant est vu comme une entité à l’exécution
(Szypersky[31], Ivica[28]) et issue d’un code (souvent objets à la Java, C++) structuré de façon adhoc,
notre démarche relève de la construction correcte de composants logiciels en partant de leur spécification
formelle [15, 25].
Ce que nous cherchons à faire Nous cherchons un modèle à composants abstrait et formel puis un
environnement expérimental de développement associé. Dans cette optique nous poursuivons des pistes
de recherche pour :
– concevoir et développer des composants logiciels corrects, réutilisables dans la construction de
diverses applications,
– concevoir et développer des systèmes à partir de composants et services prédéfinis et validés,
– faciliter la maintenance et l’évolution des composants et applications,
– vérifier la conformité des interactions entre composants et détecter les incompatibilités,
– faciliter l’adaptabilité des composants pour offrir de nouvelles fonctionnalités.
3.3.2 Intégration de méthodes formelles et analyse multifacette
A travers ”intégration de méthodes formelles”, on entend les formalisme+la sémantique+les systèmes
de raisonnement ; en ce sens le multiformalisme est un des aspects de l’intégration de méthodes. L’analyse formelle multifacette consiste à analyser des systèmes sous différents angles et avec différents
techniques et outils appropriés.
Nous nous consacrons ici à l’élaboration de concepts, de techniques et d’outils multiparadigmes (ie
prenant en compte les facettes données, dynamique, interaction, temps) pour le développement formel
des logiciels où ces facettes sont présentes souvent en même temps. Il faut pouvoir écrire des modèles des
parties d’un système dans différents langages appropriés, pourvoir interagir entre ces différents modèles,
pouvoir vérifier aisément ces différents modèles [34, 32]. Les techniques de plongement sémantique
(semantic embedding) sont par exemple étudiées.
2. Component-Based Software Engineering, ACM Sigsoft
100
Bilan 2006–2009 COLOSS
L’aspect multiparadigme qui permet l’intégration de plusieurs formalismes et sémantiques, constitue
l’une des originalités et aussi les difficultés de ces travaux ; en effet contrairement à d’autres approches
formelles, l’accent est mis sur la nécessaire complémentarité des langages, méthodes et outils pour réussir
le développement des systèmes complexes, hétérogènes par nature [35, 36, 30, 7].
Ce que nous cherchons à faire Nous nous préoccupons des problèmes
– de spécifications hétérogènes,
– de compositionnalité,
– d’hétérogénéité sémantique relatifs aux méthodes ou modèles intégrés, puis
– de la construction d’environnements d’expérimentation et d’analyse formelle associés (vérification
de propriétés globales).
En somme l’intégration de méthodes telle que envisagée ici, s’attaque à la résolution de problèmes
ouverts :
– expression dans un cadre formel, homogène ou non, de la description d’un système complexe
en utilisant éventuellement diverses logiques et techniques appropriées aux aspects considérés du
système.
– hétérogénéité et raisonnement global sur le système modélisé et possibilité de raffinements
indépendants (compositionnalité).
Le positionnement des travaux de l’équipe COLOSS dans les communautés clairement identifiées
en génie logiciel – méthodes formelles, Component-Based Software Engineering – se situe à la frontière
entre les travaux théoriques fondamentaux et les travaux applicatifs ou technologiques.
3.4 Applications et enjeux
Le champ d’application traditionnel des méthodes formelles a été longtemps représenté par les
systèmes dits critiques. En effet, pour ces systèmes on tolère très peu, ou pas du tout, des erreurs ou
des mauvais fonctionnements. Les méthodes formelles permettent de s’assurer du bon fonctionnement
de systèmes.
Le périmètre des systèmes critiques s’est depuis élargi. Les facteurs taille, concurrence, contrôle et
interaction complexe entre les composants d’un logiciel, sont désormais des paramètres de la criticité ;
en effet les méthodes empiriques de programmation directe suivie de tests, sont alors inefficaces.
Malgré la relative maı̂trise de la correction de logigiels de taille réduite (il existe maintenant de
nombreux prouveurs de programmes écrits en langage de haut niveau), on ne sait toujours pas garantir la
correction ou le bon fonctionnement de logiciels de grande taille (en millions de ligne de code), avec des
composants hétérogènes, à forte interaction, par exemple des applications déployées sur un réseau dense
ou à l’inverse de petites applications déployées en très grand nombre (par exemple sur des assistants
électroniques).
Les méthodes de spécification et de vérification formelle s’attaquent à ces systèmes critiques ;
ils présentent des caractéristiques communes au sens de la complexité : comportement non trivial,
fort impact d’un dysfonctionnement, prédominance de contrôle, de données, de contraintes de temps,
hétérogénéité, déploiement à grande échelle, etc.
COLOSS
101
3.4.1 Systèmes critiques, communicants, hétérogènes, embarqués
Nous expérimentons nos propositions sur divers bancs d’essais (benchmarks). Nous avons traité par
exemple le cas d’étude CoCoMe qui a été utilisé pour confronter diverses méthodes formelles 3 . Ce cas
se caractérise par de fortes interactions entre de nombreux composants dans un système global.
Nous avons fait des expériences sur la modélisation et la vérification pour la communication de
groupe et les architectures dynamiques [11, 21]. Nous avons mis à l’épreuve nos propositions sur
la modélisation et la vérification des propriétés de réseaux mobiles à structrure adhoc (les réseaux
MANET 4 ).
Nous avons montré diverses façons de traiter l’hétérogénéité sémantique par exemple en combinant
des modèles à l’aide de réseaux de Petri, de réseaux de processus en Promela ou en B.
Nous cherchons à développer des composants génériques spécifiés conjointement avec les paramètres
de l’environnement ciblé pour les accueillir, par exemple une gamme d’équipements avec du contrôle
embarqué sous forme de logiciels. Cette approche constituerait à terme une contribution significative au
développement prouvé de systèmes embarqués où les méthodes de test prédominent actuellement.
3.4.2 Internet du futur (architectures, composants et services sûrs)
Interaction, hétérogénéité, fiabilité sont des caractéristiques maı̂tres de l’environnement que structurent dès aujourdhui, les logiciels, les services applicatifs disponibles sur Internet, les grilles de calcul,
les assistants numériques, les abonnements des usagers aux services divers, les systèmes de santé, les
systèmes bancaires, la domotique, la télémédecine, etc. L’Internet du futur mêle les architectures de
réseaux d’ordinateurs, sur lesquelles sont/seront déployés des services nombreux et variés. L’impact des
dysfonctionnements des composants logiciels dans cet environnement fortement maillé est critique et
doit pour cela être confiné, en exploitant les possibilités des méthodes formelles, par exemple à travers
l’emploi de composants et de services sûrs, avec des modèles d’interaction soigneusement analysés au
préalable.
Le logiciel est ici encore, un élément important, d’autant plus qu’il est critique voire périlleux de
faire dépendre toute une partie d’activités socio-économiques, de services ou composants logiciels non
corrects, non fiables et non disponibles.
Le domaine de l’Internet du futur, est par conséquent un de ceux où les approches formelles permettent/permettront de modéliser et développer des services corrects fiables, d’assurer la maintenance des
services (disponibilité, évolutions, adaptation, reconfiguration, remplacement, etc) [4, 6].
Dans cette optique, nos travaux contribuent à développer des composants et des services sûrs, pour
des environnements hétérogènes, à modéliser le comportement de composants logiciels afin de les analyser et de les corriger avant implantation pour un environnement cible.
3.5 Nouveaux résultats pour la période 2006-2010
3.5.1 Elaboration d’un modèle à composant formel et multi-services
Participants : P. ANDRÉ, G. ARDOUREL, C. ATTIOGBÉ, H. HABRIAS, A. LANOIX
Le problème de la construction de composants dignes de confiance [47, 33] rejoint dans le fond la
question de savoir comment construire un programme correct ou des modules de programmes corrects ;
3. http://agrausch.informatik.uni-kl.de/CoCoME/
4. Mobile Adhoc Network
102
Bilan 2006–2009 COLOSS
s’y ajoutent pour les composants logiciels généraux, les contraintes de dépendances vis à vis de leur environnement pour les interactions, la forte exigence pour la réutilisation et l’adaptation à l’environnement
d’utilisation.
Nous avons apporté une contribution significative en proposant un modèle formel (Kmelia) doté d’un
langage éponyme, qui permet de spécifier avec un nombre réduit de concepts, des composants logiciels
intégrant plusieurs services et publiant une interface constituée de services [19] ; certains services sont
accessibles contextuellement c’est à dire uniquement à travers un appel préalable à d’autres services de
l’interface. Nous avons abordé le problème en faisant table rase des multiples notions qui polluent la
littérature puis en repartant des concepts élémentaires pour définir un noyau autour duquel nous avons
bâti progressivement notre modèle.
Composabilité et compatibilité comportementale Nous avons défini formellement la composabilité
des composants. Sur la base de ce résultat [19], nous pouvons désormais vérifier formellement la bonne définition de compositions de spécifications Kmelia. Ce résultat est prolongé par
la définition de méthodes d’analyse de la compatibilité comportementale de composants parallèlement composés : ici nous avons utilisé les produits synchronisés de systèmes de transition
et des techniques de model-checking pour effectuer les expérimentations [19, 23] en nous servant de plateformes comme MEC 5 ou Lotos/CADP 6 . Nous avons développé une plateforme
expérimentale COSTO (COmponent Study Toolkit) pour accompagner l’élaboration du modèle,
du langage et des outils d’analyse.
Mécanismes de structuration verticale et protocole d’emploi des composants Nous avons proposé
dans [18] un mécanisme d’annotation des états des systèmes de transition qui représentent les
services, pour permettre la composition des services de façon verticale dans un composant. L’idée
est d’autoriser l’appel d’autres services du composant, tout en gardant un système de transition
simple. Cette possibilité complète la composition horizontale inter-composant. L’annotation des
états puis des transitions par des possibilités ou des obligations d’appel d’autres services, a aussi
été utilisée pour exploiter des services comme mode d’emploi des composants : c’est la notion de
protocole. L’originalité de la solution proposée réside dans le fait que les concepts de Kmelia ne
sont pas multipliés, mais qu’ils restent réduits. Dans le prolongement de ces travaux, nous avons
développé des mécanismes d’adaptation pour rendre compatibles du point de vue du comportement, des composants qui ne l’étaient pas. Ces résultats sont consignés dans [16].
Composition avec interaction multi-parties Nous avons étendu le modèle abstrait des composants
Kmelia pour permettre la description de composition de composants avec des interactions impliquant plus de deux services [9]. La notion de services partagés a été introduite ainsi que des
opérateurs de synchronisation n-aires pour contrôler explicitement les interactions. Ces opérateurs
sont des extensions aux opérateurs habituels (émission, réception) de communication entre processus ; nous les avons étendus pour prendre en compte un ou plusieurs émetteurs, des canaux
spécifiques, des rôles, des messages et des arguments. Ces travaux peuvent servir à modéliser le
comportement d’applications Internet avec de nombreux services ou composants interagissant de
façon complètement libre.
3.5.2 Vérification des composants et de leurs assemblages
Participants : P. ANDRÉ, G. ARDOUREL, C. ATTIOGBÉ, A. LANOIX, M. MESSABIHI
5. LaBRi, Bordeaux
6. Inria VASY, Grenoble
COLOSS
103
Une partie de nos efforts a été consacrée à l’exploitation des spécifications formelles Kmelia à des
fins de vérification. Le langage de données de Kmelia a d’abord été étendu pour exprimer des traitements
conséquents et des assertions. Les résultats présentés ci-après ont fait l’objet de publications dans des
conférences internationales.
Vérification des assemblages à travers des assertions Une des limitations des langages à composants
est l’expressivité de leur langage de donnée. Nous avons réduit ce verrou dans Kmelia en
définissant un langage de données suffisamment expressif pour un cadre expérimental. Par
conséquent nous pouvons exprimer dans le langage, des assertions sous la forme de Pre/Postconditions pour les services et aussi les invariants des composants. Les assertions sont utilisées
pour l’analyse formelle des systèmes conçus à l’aide de composants : la preuve de cohérence des
services par rapport à leur assertions pre-post, la cohérence des services par rapport à l’invariant
de leur composant. Toutes ces vérifications de propriétés sont basées sur des obligations de preuve
clairement élaborées pour notre modèle Kmelia. Ces résultats sont accessibles dans [9, 5]. Nous
avons développé divers modules dans notre plateforme COSTO pour expérimenter ces résultats.
Preuve de la cohérence des composants et assemblages Nous avons conçu une méthode de
vérification de composants et assemblages Kmelia [3], qui se base sur la plateforme de
spécification et de preuve en B (Event-B / Rodin). Nous utilisons les systèmes abstraits B pour
montrer la cohérence de composants Kmelia ; pour ce faire, notre méthode permet de générer en
extrayant les informations de spécifications Kmelia, des machines abstraites B de telle sorte que
leur preuve de cohérence en B corresponde aux obligations de preuve dont nous nous sommes
dotés. En ce qui concerne les données très élaborées et les assemblages via les services, nous
utilisons les raffinements entre des spécifications B générées à différents niveaux de services. La
plateforme Rodin est utilisée pour effectuer les expérimentations [9, 3]. Notre plateforme COSTO
propose des modules, par exemple un plugin Kml2B, servant de passerelles.
Utilisation des contrats pour la vérification à différents niveaux Dans [2] nous avons montré comment les contracts (sous la forme d’assertions Pre/Post) permettent de systématiser la vérification
des assemblages de composants. Ce travail prolonge les résultats présentés dans [9].
Rétroingénierie : exraction d’architecture de composants Dans le cadre du projet ECONET, nous
avons élaboré des techniques et des outils pour l’extraction de composants à partir d’applications
écrites en Java. Une partie de ce travail est publiée dans [6]
3.5.3 Multiformalisme et analyse multifacette
Participants : C. ATTIOGBÉ, A. LANOIX, J. MOTTU
Modéliser et analyser des systèmes sous différents angles et avec différents outils est une solution pour la maı̂trise de leur complexité intrinsèque. Néanmoins peu d’équipes travaillent sur cette
problématique. L’hérétogénéité sémantique et son prolongement que constitue l’analyse globale des
systèmes sont des préoccupations qui requièrent beaucoup d’énergies. Nous avons apporté des contributions dans ce contexte, et de différentes manières sur ces préoccupations : proposition de méthodes de
spécifications, de techniques d’analyse, de techniques de vérification de transformation de modèles par
des techniques de tests.
Méthode pour la spécification hétérogène Nous avons mis au point une méthode (*P-B) pour la
spécification des systèmes multiprocessus avec architecture dynamique (adhoc) [21].
La méthode combine les machines à états avec la composition de machines abstraites en Event
B. Elle permet de spécifier étape par étape des systèmes à multiple processus avec des classes
104
Bilan 2006–2009 COLOSS
de comportements identifiées dans l’analyse des besoins. Elle a été appliquée pour modéliser les
systèmes de communication de groupe et pour vérifier leurs propriétés [21].
Dans le prolongement de ces résultats, nous avons élaboré une méthode d’analyse multifacette
qui consiste à combiner des techniques de preuve de propriétés et des techniques d’évaluation de
modèle utilisant le même modèle dit modèle de référence sémantique, afin de prendre en compte
de façon cohérente les rétro-actions issues des analyses. Des expérimentations de validation ont
été effectuées avec les outils autour de la méthode B [20, 22]. Dans [13], le formalisme CSPkB
qui permet le contrôle de machines abstraites B par des processus CSP a été expérimenté pour
la spécification de système de contrôle de véhicules. Dans [15] nous avons proposé une méthode
générique pour l’intégration de données formellement décrites dans des formalismes à base de
systèmes de transition.
Interopérabilité sémantique Nous avons apporté des contributions dans le domaine de l’interopérabilité entre modèles sémantiques en proposant une méthode d’analyse multifacette partant
d’un modèle sémantique dit de référence à partir duquel on peut dériver et particulariser différents
autres modèles pour en faire l’object d’analyses diverses. Ces résultats sont publiés dans [12].
Dans le cadre de l’intégration de formalismes ou de différentes méthodes nous avons proposé
une solution s’appuyant sur un formalisme de référence, générique et abstrait (les systèmes de
transition abstraits) dans lequel nous traduisons des formalismes donnés et à partir duquel nous
traduisons vers d’autres formalismes. Notre contribution considère des bases de compatibilité
sémantique entre les formalismes. Par exemple les systèmes de transition constituent une famille
sémantique que nous avons utilisée pour définir des passerelles entre B, les réseaux de Petri,
Promela/Spin, etc. Un environnement expérimental accompagne ces recherches et les résultats
dans cette voie ont été publiés dans [22, 12] sur l’interaction entre les modèles et les outils de
preuve ou de model-checking, [8] pour le plongement entre réseaux de Petri et B ou la sémantique
opérationnelle des réseaux de Petri est exprimée de façon générique à travers des machines abstraites Event B. Un outil (PN2B) y est consacré comme module de notre plateforme ATACORA.
Méthodes de modélisation en Event B d’architectures dynamiques Nous avons poursuivi et étendu
les travaux autour de la méthode *P-B. Les systèmes répartis, à grande échelle, et les systèmes à
forte interaction n’ont pas d’architecture fixe prédéfinie. Il est alors difficile de les analyser avec
les outils classiques tels que la composition de machines à états. Nous avons proposé une solution
basée sur une approche événementielle à la Event-B, pour modéliser et analyser formellement
de tels systèmes avec une architecture dynamique. Nous avons expérimenté notre solution sur
les réseaux mobiles sans architecture (réseaux adhoc ou MANET) par exemple, les résultats sont
publiés dans [11, 7].
Tests de transformation de modèles Nous avons présenté dans un article de synthèse [1] des contributions pour la construction de tests qualifiés (adaptés aux transformations et leurs emplois) pour
les transformations de modèles. Nous avons proposé plusieurs fonctions d’oracles et qualifié leur
emploi selon leur adéquation avec la complexité et la réutilisation d’une transformation. Pour qualifier les tests construits, nous étudions et modélisons les fautes spécifiques aux transformations de
modèles. Cela permet ensuite de qualifier les modèles de test et les oracles encapsulés avec la
transformation dans un composant. Les informations fournies par l’analyse de mutation permettent la construction de nouveaux tests qui améliorent la qualité de l’ensemble des tests construits
et augmentent le niveau de confiance dans le composant.
COLOSS
105
3.6 Logiciels
Dans la stratégie de valorisation de nos travaux, le développement de prototypes prend une part
importante ; nous appuyons nos publications académiques systématiquement sur des expérimentations.
Les résultats sont ainsi dans un premier temps publiés dans des ateliers et conférences et, nous visons des
revues ou conférences à très fort impact en nous appuyant sur l’accumulation des résultats intermédiaires
des travaux abordant aussi bien les concepts, les outils développés et les expérimentaions. Le travail
autour de Kmelia/COSTO est une bonne illustration de cette stratégie.
COSTO
URL
Participants : G. Ardourel (resp), P. André, G. Ardourel, C. Attiogbé, A. Lanoix, M. Messabihi, J-M.
Mottu
Type de licence : non diffusé
Mots clés: COLOSS, Kmelia, Eclipse, Java
COSTO (COmponent STudy Toolkit) est une plateforme construite pour accompagner l’utilisateur lors
de la spécification et l’analyse de composants et assemblages avec le langage Kmelia. Le développement
de COSTO a commencé en 2005. COSTO comprend un analyseur syntaxique du langage de spécification
de composants logiciels (Kmelia), des techniques d’analyse de composabilité de composants et des
passerelles vers des outils logiciels éprouvés : L OTOS /CADP, M EC, ATELIER B, K E Y. Il est développé
dans l’environnement Eclipse et est utilisable sous forme de plugins Eclipse qui s’intègrent ainsi facilement dans les outils de génie logiciel. Parmi les plugins récents développés, il y a K ML 2B, un traducteur
de kmélia vers B (une variante pour Event B est aussi étudiée). COSTO est utilisée pour illustrer les
expérimentations appuyant les résultats que nous publions autour de Kmelia. Les publications spécifiques
à la plateforme COSTO et son utilisation sont [23, 14].
ORYX/ATACORA
URL
Participants : C. Attiogbé (resp), Etudiants Master2
Type de licence : non diffusé
Mots clés: COLOSS, Eclipse, Java, Antlr
O RYX /ATACORA est un prototype logiciel développé dès 2003, dans le cadre d’un projet interne
(nommé Projet Atacora) et consacré à l’analyse multifacette, la combinaison des techniques de
vérification (theorem-proving et Model-checking), la combinaison de fomalismes ; l’intégration de
modèles sémantiques hétérogènes. Dans ce cadre nous avons envisagé une plateforme pour la génération
d’environnements de spécification, avec des interactions entre modèles sémantiques, passerelles entre
outils de vérification, B, PVS, Promela/Spin, RdP, Algèbre de processus, ...
O RYX /ATACORA est développé autour d’un formalisme abstrait (Abstract Transition Systems) ; il comprend des passerelles entre Promela/Spin, B, réseaux de Pétri, systèmes de transition variés. Un nouveau
module (Pn2B) a été récemment développé ; il réalise un plongement sémantique de réseaux de Petri en
systèmes abstraits B [8].
JavaCompExt
Participants : P. André,J-C Royer (resp), P. André, G. Ardourel, J-C Royer, Etudiants Master 2
Type de licence : Mots clés: COLOSS, ASCOLA, Reverse Engineering, Component, Eclipse, Java JDT
URL
106
Bilan 2006–2009 COLOSS
Le projet JavaCompExt est destiné à extraire des informations d’architecture à partir d’un code source
Java. Les informations extraites sont des composants et des types de données, la structure de composants,
les communications, le sous-typage, services requis et fournis. Ce projet sert à la fois à la recherche d’architectures à composants et à l’analyse quantitative et qualitative de programmes modulaires (restructuration). Une présentation succincte est donnée dans [6].
Un
premier
prototype
CoExAn
(Component
Extraction
and
Annotation,
www.lina.sciences.univ-nantes.fr/coloss/softwares/indexen.php) de rétroingénierie de composants a été développé dans le cadre du projet Econet (2008).
Ce prototype, basé sur un métamodèle commun et des règles d’annotation de code Java, est une boı̂te à
outils d’extraction-agrégation d’informations. Un processus de rétro-ingénierie consiste à appliquer un
outil à chaque itération. On peut annoter un programme Java à partir d’informations utilisateur, construire
un modèle à composants à partir d’un programme Java annoté, construire un modèle à composants à
partir d’un programme Java non annoté, réaliser des transformations de modèles telles que la fusion, la
sélection... sur le couple (code, modèle)... Ce premier prototype définit le cadre global qui est repris dans
le projet JavaCompExt, qui en définit une brique.
3.7 Contrats et subventions
Type
Europe
Tableau des contrats et subventions
Institution
Nom
Début/Durée
gestionnaire
ECO-NET (Cluj,
Egide, Fr
2007/24mois
Nantes, Prague)
Montant/Equipe
20K e/8,5K e
Région
Projet régional
MILES-IL (Pays
de la Loire)
UN
2007/36mois
200K e/ 33K e
Région
Projet régional
COM (Pays de la
Loire)
UN
2006/36mois
?? e
3.7.1 Projets collaboratifs
Actions régionales
MILES/Ingénierie Logicielle (IL)
URL
Début : 01/01/2007, durée : 36 mois
Partenaires : ASCOLA, COLOSS, MODAL, Atlas GDD (J. Bezivin)Coordinateur : 2007 : P. Cointe ;
2008-2009 : C. Attiogbé et M. Südholt
Participants : F. Benhamou (resp), les équipes GL
Montant équipe : ˜ 3Ke(équipe COLOSS)
Montant total : ˜ 200 Ke
Mots clés : Ingénierie Logicielle
COLOSS
107
Dans le cadre du projet Miles, cinq équipes de génie logiciel de la région (Nantes, Laval-Le Mans) se
sont regroupées pour faire émerger un axe ingénierie logicielle au niveau de la région. Des séminaires
communs ont été organisés. Deux thèses inter-équipes ont été mises en route dont une sur la combinaison
entre les composants (COLOSS) et les aspects (ASCOLA). L’autre thèse est effectuée dans le domaine
de l’ingénierie des modèles (Ascola+AtlanMod). Les deux thèses sont en cours. Dans le cadre de ce
projet nous avions mené les premières réflexions sur une grande équipe fédérant les équipes nantaises de
génie logiciel.
Projets nationaux
En 2009 puis en 2010 nous avions formé un consortium de 4 partenaires universitaires (LINA, LORIA, LIFC, LISI) et de 3 industriels (ClearSy, Somfy, Smartesting) et soumis un projet ANR. Le projet
n’a pas été retenu pour financement mais nous entrenenons les collaborations avec les partenaires.
Projets internationaux
ECO-NET Egide : Behaviour Abstraction from Code
URL
Début : 01/01/2007, durée : 24 mois
Partenaires : équipe DSRG de Charles University (Prague, CZ), équipe GL de Babes-Bolyai Univ. (Cluj,
RM), COLOSS et ASCOLA du LINA
Coordinateur : P. André
Participants : P. André (resp), équipe COLOSS, ASCOLA du côté nantais
Montant équipe : 8,5 Ke
Montant total : 20 Ke
Mots clés : Rétroingenierie, Méta-modélisation, Composants
Le projet est intitulé Behaviour Abstraction from Code. Le cadre général de la préoccupation de ce
projet est de trouver des solutions pragmatiques au problème que constitue l’absence de liens et de
cohérence entre les modèles ou spécifications initiales et les codes (ou composants) développés de façon
industrielle mais empirique. L’ approche proposée dans ce projet consiste à partir du code de composants
existants et de vérifier qu’ils sont conformes à certaines interfaces ou protocoles. Il s’agit dans ce cas
de faire une analyse du programme et d’en extraire des informations qui vont être utilisées pour en
vérifier la conformité avec les modèles. Cette approche que nous qualifions d’ingénierie indirecte ou
rétro-ingénierie a été très peu explorée dans ce domaine. Le but de ce projet est de contribuer à une
meilleure maı̂trise de la problématique de l’ingénierie indirecte des composants. Notre solution passe
par le développement de techniques pour extraire des informations du code.
3.8 Rayonnement
3.8.1 Évaluation de la recherche
Comités de programme (conférences) et de lecture (revues)
– Revues
– Comités éditoriaux de revue scientifique
– Les comités de lecture (et numéro spécial d’une revue)
– C. Attiogbé : Journal Européen des Systèmes Automatisés (JESA), 2009
– C. Attiogbé : numéro spécial de Formal Aspects of Components Software (FACS), consacré à
une sélection d’articles de la conference ABZ2008, London, 2009.
108
Bilan 2006–2009 COLOSS
– C. Attiogbé : numéro spécial de Technique et Science Informatique (TSI) consacré à la Composition : objets, services, composants, 2009.
– P. André : Software and System Modeling (SOSYM), 2008.
– P. André : Journal of Systems and Software (JSS), 2009.
– P. André : numéro spécial Technique et Science Informatiques (TSI), 2010.
– P. André : numéro spécial de Revue Africaine de la Recherche en Informatique et
Mathématiques Appliquées (ARIMA, Inria, AUF), 2009.
– J-M. Mottu : Information and Software Technology (Elsevier), lecture en cours 2010.
– Coordination de revue
– P. André, C. Attiogbé : Coordination d’un numéro de la Revue L’OBJET Vol.14(4) : Composants, Services et Aspects, Hermès, 2008
– Conférences
– Comités de programme
– P. André : Langages, Modèles, Objets (LMO), 2007, 2009, 2010
Conférence Francophone de Modélisation et Simulation, MOSIM (2006),
UML & formal methods, (UML FM) (2008, 2009, 2010),
Conférence Africaine de la Recherche en Informatique (CARI) 2008, 2010.
– G. Ardourel : Langages, Modèles, Objets, (LMO) 2007.
– C. Attiogbé : Property Verification of Components and Services (ProVeCS@TOOLS’07),
Conference ZB’07, Integration of Formal Methods (IFM, 2007),
Formal Method in Education (FORMED@ETAPS, 2008),
From Research to Teaching Formal Methods : B Method (TFM-B) 2008, 2009, 2010,
Integration of Model-based tools (IM FMT@IFM, 2009).
– A. Lanoix : Approches formelles d’aide au développement du logiciel (AFADL), 2010,
From research to Teaching Formal Methods : B Method (TFM-B), 2010.
– Rapports pour un membre d’un comité de programme
– M. Messabihi : Approches formelles d’aide au développement du logiciel (AFADL), 2010 ;
– P. André : IFM (2007), BZ 2007
– J-M. Mottu : AFADL 2010, ICSE (2008),
ACM/IEEE Model Driven Engineering Languages And Systems (MoDELS 2008),
CBSE (2008), ICST (2008), Modelisation Verification and Validation (MoDeVVa, 2008),
ISSRE (2006, 2007), Mutation (2007), ECMDA (2009),
Rapports de thèse, comité de sélection, concours INRIA, ...
– C. Attiogbé : président des comités de sélection (postes de PR et MdC affectés à l’IUT) de l’Université de Nantes, 2009 ;
– C. Attiogbé : Rapporteur, Jury de Inès Mouakher, Vérification et correction des spécifications B :
application à l’assemblage de composants, Thèse de l’Université Henri Poincaré, Nancy 1 et de
l’Université de Tunis, (sous la direction de J. Souquières et Khaled Bsaies), jury prévu fin 2010
– C. Attiogbé : Rapporteur, Jury de Cécile Hardebolle, Composition de modèles pour la modélisation
multi-paradigme du comportement des systèmes, Thèse de l’Université Orsay Sud, Supélec, (sous
la direction de G. Vidal-Naquet et F. Boulanger), Décembre 2008
– C. Attiogbé : Rapporteur, Jury de Eun-Young Kang, Abstractions booléennes pour la vérification
des systèmes temps-réel, Thèse de l’Université Henri Poincaré, Nancy 1, (sous la direction de S.
Merz), Novembre 2007
– C. Attiogbé : Examinateur, Jury de thèse de S. Djoko Djoko, Analyses et vérification des pro-
COLOSS
109
grammes à aspects, Thèse de l’Université de Nantes, EMN (sous la direction de MM Rémi
Douence et Pascal Fradet), Juin 2009
– C. Attiogbé : Examinateur, Jury de thèse de L.D. Benavides, Les aspects distribués : pour une
meilleure séparation des préoccupations transverses dans les logiciels distribués, Thèse de l’Université de Nantes, EMN, (sous la direction de M. Sudholt, P. Cointe), Janvier 2009
– C. Attiogbé : Examinateur, Jury de Miloud Rached, Spécification et vérification des systèmes temps
réels en B, Thèse de l’Université Paul Sabatier, Toulouse III, (sous la direction de J-P. Bodeveix),
Mai 2007
3.8.2 Animation de la communauté
Participation à des steering comittees, des GDR et leurs groupes de travail
– C. Attiogbé : membre du comité de pilotage (steering committee) des conférences sur la méthode
B (APCB)
Conférences invitées
– C. Attiogbé : Can Services/Components be proved Correct ?, 35th International Conference on
Current Trends in Theory and Practice of Computer Science (SOFtware SEMinar), Czech Republic, Mars 2009
Organisation de conférences, d’ateliers, d’écoles d’été
– C. Attiogbé : Co-Chair (avec D. Méry, Loria Nancy) de TFM-B’2010 @ JS 2010, organisée par
équipe COLOSS, Nantes, juin 2010
– C. Attiogbé : Co-Chair (avec D. Méry, Loria Nancy) de TFM-B’2009 @ JS 2009, organisée par
équipe COLOSS, Nantes, 2009
– C. Attiogbé : Chair (avec Y. Ait-Ameur) de IM FMT @ IFM 2009, International Conference on
integrated Formal Methods, Dusseldörf, 2009
– H. Henri : Chair de TFM-B’2008 @ JS 2008, Organisation par équipe COLOSS, Nantes, 2008
– C. Attiogbé : Co-Chair (avec D. Kroenig, ETH Zurich) de ProVeCS @ Tools, Zurich, 2007
– C. Attiogbé : Workshop (Atelier) AtlanStic ≪ Variété de la nature des Systèmes et Méthodes
Formelles ≫ Nantes 2007 ;
– Séminaires inter-équipes dans le cadre du projet régional Miles 2008, 2009
Invités : Eric Madelaine (Inria OASIS, Janvier 2009) ; Uwe Assmann (Software Engineering
Group, Technische Universität Dresden, juin 2009) ; Radu Mateescu (Inria VASY, novembre
2009).
– Ateliers dans le cadre du projet ECONET, P. André (resp), 2007(1), 2008(2)
Collaborations nationales et internationales
– Universität Halle, Wolf Zimmermann, projet Procope
– NII, Shin Nakajima, co-encadrement d’un Master, travaux autour de Event-B, rédaction d’un article (en soumission),
– LRI Orsay / Université de Evry, Pascal Poizat, co-auteur, article IEEE Trans. Soft. Eng. 2007
– Inria Rhones-Alpes, Grenoble, Gwen Salaün, co-auteur, plusieurs articles dont article IEEE Trans.
Soft. Eng. 2007
– Charles University, Equipe DSRG, partenaire de projet, Petr Hnetynka, Frantisek Plasil, Ondrej
Sery, co-auteurs
110
Bilan 2006–2009 COLOSS
– Cluj University, Dan Chiorean, partenaire de projet, co-auteur
– Equipe VESONTIO (Besançon), partenaire de projet, co-auteurs : Olga Kouchnarenko, Julien
Dormoy
Bien que le domaine des spécifications formelles et des méthodes formelles en général soit relativement étendu, avec des ”écoles” différentes (algébriques, modèles à états, logiques, preuves, etc) et des
motivations différentes (fondements théoriques, langages, méthodes, applications), nos travaux sont en
rapport avec ceux des groupes ou équipes préoccupés particulièrement par les approches orientées état
ou modèle, le raffinement de spécifications et la vérification par la preuve de propriétés et leurs applications directes sur des cas d’étude. Parmi les équipes thématiquement proches de nous et donc à la fois
partenaires de recherches et concurrentes potentielles, nous pouvons citer les équipes ou groupes suivants : ACADIE/IRIT (Toulouse), AMAZONES/CITI (Lyon), DEDALE et MOSEL/LORIA (Nancy),
Modélisation et Vérification/LaBRI (Bordeaux), VASCO/LSR-IMAG (Grenoble), Projet VASY/Inria
(Grenoble), VESONTIO (Besançon), Vérification de systèmes temporisés/logiques, LSV (Cachan),
Research Group in Formal Methods and Verification (Université Libre de Bruxelles), Formal Methods Research Group (Teesside), High Integrity Systems Engineering (York), Specification and Analysis
of Embedded systems/CWI (Amsterdam), Software Engineering and Programming Group (University of
Halles), Distributed Systems Research Group/Charles University (Prague), Software Engineering Laboratory (Mälardalen University), Groupe de recherche en ingénierie du logiciel (Sherbrooke).
3.9 Formation par la recherche
Pilotage d’écoles doctorales, de spécialités de filières, de master
Participation aux enseignements de master, de filière, d’école doctorale
– Etablissements tutelles
– C. Attiogbé : Construction formelles de logiciels (48h en Master 2 Alma Parcours GL, 2007/08,
2008/09, 2009/2010)
– P. André, C. Attiogbé, H. Habrias : Génie Logiciel (2*9 h, Module de spécialisation en Génie
Logiciel –MS3, Master Recherche ALD, 2006/07)
HDR et thèses soutenues sur la période
Nom
C. ATTIOGBÉ
Publications
[17]
HDR
Institution
UN
Soutenance
13/09/2007
Devenir
PR Univ. Nantes
3.10 Gouvernance
Organisation de l’équipe, animation scientifique
Séances de réflexions-discussions collectives Puisque l’effectif de l’équipe le permet, nous fonctionnons sur la base de séances hebdomadaires de réflexions-discussions collectives pour confronter les idées
sur les questions et les explorations courantes et élaborer puis répartir des pistes de travail pour les
prochaines séances de travail ou les rédactions d’articles.
COLOSS
111
Séminaires internes Aux séances de réflexions collectives, s’ajoutent des séminaires bihebdomadaires
où à tour de rôle les membres de l’équipe présentent un travail (relatif aux dernières lectures, au travail
de thèse, préparations et retour de conférences, etc). En guise d’illustration, nous avons effectué/planifié
dix-huit (18) séminaires internes en 2009/2010, à raison d’un séminaire par quinzaine, et le passage
systématique de tous les membres de l’équipe à tour de rôle.
Stratégies de publication
Dans le but d’assurer un bon impact à nos travaux, nous avons ciblé des conférences internationales
de bonne réputation plutôt que l’éparpillement dans de multiples workshops à faible impact et relativement coûteux en temps et financièrement. La stratégie pour accroı̂tre la pertinence de nos résultats en vue
de la sélection des soumissions est l’appui des résultats sur des expériences effectives de développement
ou d’analyse formelle (vérification). Cela a été un paramètre constant pour soumettre des résultats convaincants. Nous avons ainsi systématiquement étayé nos résultats par des développements de prototypes propres, ou l’expérimentation et l’interfaçage avec des outils externes (par exemple Spin, PVS,
Lotos/CADP, Mec, AtelierB/Rodin/ProB, KeY, etc).
Nous privilégions systématiquement les conférences spécifiques ou connexes au domaine des
méthodes formelles. En tenant compte du fait que la proposition d’un nouveau modèle/langage de
spécification est un travail de longue haleine, nous avons décidé et intégré le principe de la publication progressive des résultats étapes par étapes, avec l’ambition de proposer des travaux de synthèse dans
des revues comme des points de synthèse de plusieurs étapes.
A côté des conférences internationales mais francophones comme LMO, CAL, AFADL, où nous
avons régulièrement publié des résultats intermédiaires de nos travaux, nous avons visé les conférences
internationales comme ICFEM, IFM, ETAPS (FESCA, SC), QSIC, FACS, ABZ où certaines de nos
propositions ont été acceptées et publiées au cours du quadrienal ; d’autres conférences généralistes de
très bonne réputation dans notre domaine sont par exemple FM, FME, ICSE, ISSRE, ICST, CBSE.
Nous avons concentré les efforts de recherche et de développement sur une des thématiques
(spécification formelle et développement de composants corrects) afin de faire émerger rapidement
notre modèle à composants dans la communauté. Les activités dans l’autre thématique (intégration de
méthodes et analyse multifacette) ont en conséquence progressé plus lentement. Cela explique le fait
que tous les membres sont co-auteurs de la plupart des articles. Aujourd’hui, avec l’arrivée d’un nouveau collègue dans l’équipe et la création d’une nouvelle équipe en concertation avec l’équipe MODAL,
une nouvelle organisation et une révision de la stratégie de publication s’imposent : par exemple des
binômes ou des trinômes pour approfondir et finaliser des jalons et autres filons de nos préoccupations et
explorations collectives.
3.11 Auto-évaluation
Bilan des activités Il est à noter que l’écart est insignifiant entre les objectifs que nous avions annoncés
au début de ce quadriennal et les résultats présentés dans ce rapport en termes de publications et de
développement de prototypes ; cela témoigne de la justesse du fil conducteur qui est de plus, confirmé
par les tendances générales de la recherche en méthodes formelles et leurs applications. La recherche
et le montage de projets avec des partenaires académiques et industriels a un peu impacté nos lignes
directrices sans les compromettre. Néanmoins nous avons eu une plus grande part de développement
logiciels que prévus. Nous précisons ci-après des aspects de ce bilan.
112
Bilan 2006–2009 COLOSS
Forces Nos activités montrent un équilibre entre activités de recherche fondamentale et les applications. L’équipe fédère des compétences variées en langages, méthodes formelles, composants, multiformalisme, theorem-proving, model-checking, testing. Nos activités sont positionnées dans un domaine
de recherche actif avec des enjeux scientifiques majeurs : sûreté des logiciels, analyse multifacette des
logiciels hétérogènes, modèles de systèmes répartis, etc. Quelques points qui nous distinguent cependant
sont : les compétences pour les modèles globalement asynchrones, localement synchrones (GALS) indispensables pour les grands systèmes réels ; la publication de nos résultats dans des conférences réputées
(par exemple ABZ, FACS, ICFEM, SC) ; le développement de prototypes ; la collaboration avec des
équipes sur des thématiques connexes au niveau national et international (par exemple INRIA VASY
à Grenoble, DSRG à Prague, LRI à Orsay, NII à Tokyo, FMRG à Teesside, VESONTIO à Besançon,
MOSEL et DEDALE à Nancy, ACADIE à Toulouse).
Faiblesses La principale faiblesse que nous notons est le manque de financements des institutions
(ANR, IST, ...) et de contrats industriels ; cela entraı̂ne le manque de doctorants et de post-doctorants,
des stagiaires de Master 2, ou des ingénieurs de développement. Les projets en soumission (ANR, EU)
devraient permettre de corriger ce point.
Nos relations internationales méritent aussi d’être étendues et accompagnées de publications communes.
Opportunités Notre domaine de recherche est de nouveau mis en lumière par les dernières distinctions,
prix Turing (Sifakis), Chaire collège de France (Berry) ; Cela favorise la communication autour des
thématiques et pourrait orienter le fléchage de moyens au niveau des agences de moyens. A l’occasion
du montage d’un consortium pour le dépôt d’un projet ANR nous avons procédé à l’ouverture du domaine
d’application (vers la domotique, par rapport aux partenaires industriels) de nos propositions. L’arrivée
de J-M. Mottu ancien doctorant de Triskell (Irisa, Rennes) est une occasion de renforcement de l’axe
Nantes-Rennes, autour des compétences complémentaires en test et IDM (vérifications par tests).
Nous saisissons l’occasion de ce bilan et du nouveau quadriennal pour concrétiser le projet d’une
nouvelle équipe sur les Architectures et Logiciels Sûrs (AeLoS) en regroupant les forces des équipes
COLOSS et MODAL, autour des thématiques partagées (modèles, services, architecture, sûreté). Nous
répondons ainsi aux remarques formulées par les experts – concernant la proximité entre nos équipes
autour de la thématique services – lors d’une précédente évaluation. L’équipe ASCOLA du même pôle
génie logiciel, développe des activités complémentaires autour de langages, programmation, aspects et
composition.
Dans le cadre du nouveau quadriennal, nous présenterons la continuité de nos travaux dans le contexte
de cette nouvelle équipe AeLoS.
Risques Dans notre domaine, peu attractif pour une grande partie des industriels, la concurrence nationale et internationale pour l’obtention des moyens est rude entre chercheurs et équipes très visibles ;
il y a un risque de ≪famine≫ pour les moyens venant des institutions et des agences de moyens. Pour ce
faire nous essayons de développer des alliances avec d’autres équipes parmi nos partenaires et aussi la
recherche de partenaires industriels comme nous l’avons fait pour les projets ANR en 2009 et en 2010.
Le pari sur la création d’une nouvelle équipe (AeLoS), présente aussi un risque de restriction ou de
dispersion des moyens humains et financiers (bourses de thèse, financement des missions) ; en réaction,
nous prévoyons une montée en puissance progressive en appui sur les points de convergences identifiées
de nos activités actuelles.
COLOSS
113
3.12 Bibliographie
3.12.1 Publications de référence de l’équipe dans la période
[1] http ://hal.archives-ouvertes.fr/hal-00483585/en/
J.-M. M OTTU, B. B AUDRY, et Y. Le T RAON. Construction de tests qualifiés de transformations de
modèles. Technique et Science Informatiques (TSI), 2010, 29 : 537–569
[2] http ://hal.archives-ouvertes.fr/hal-00483755/en/
P. A NDRE, G. A RDOUREL, C. A TTIOGBE, et A. L ANOIX. Contract-based Verification of Kmelia
Component Assemblies using Event-B. In 8th International Workshop on Formal Engineering
approaches to Software Components and Architectures (FESCA @ ETAPS’2010), 2010, Paphos,
Grèce
[3] http ://hal.archives-ouvertes.fr/hal-00483236/en/
P. A NDRE, G. A RDOUREL, C. A TTIOGBE, et A. L ANOIX. Using Event-B to Verify the Kmelia
Components and their Assemblies. In ASM, B, Z International Conference (ABZ’2010), 2010,
Oreford, Canada. Springer, 2010, volume 5977 of LNCS, page 410
[4] http ://hal.archives-ouvertes.fr/hal-00420051/en/
C. A TTIOGBE. Can Component/Service-Based Systems Be Proved Correct ? In S PRINGER, réd.,
Current Trends in Theory and Practice of Computer Science, (SOFSEM’2009), 2009, Spindleruv
Mlýn, République Tchèque. Springer, 2009, volume 5404 of LNCS, pages 3–18
[5] http ://hal.archives-ouvertes.fr/hal-00423658/en/
P. A NDR É, C. ATTIOGB É, et M. M ESSABIHI. Correction d’assemblages de composants impliquant des interfaces paramétrées. In Conférence Francophone sur les Architectures Logicielles
(CAL’2009), 2009, Nancy, France. Cépaduès-Editions, 2009, volume RNTI-L-4 of Revue des Nouvelles Technologies de l’Information, pages 34–44
[6] http ://hal.archives-ouvertes.fr/hal-00457219/en/
P. A NDR É, N. A NQUETIL, G. A RDOUREL, J.-C. R OYER, P. H NETYNKA, T. P OCH, D. P ETRASCU,
et V. P ETRASCU. JavaCompExt : Extracting Architectural Elements from Java Source Code. In
Working Conference on Reverse Engineering (WCRE’ 2009), 2009, Lille, France. IEEE, 2009,
pages 317–318
[7] http ://hal.archives-ouvertes.fr/hal-00420009/en/
C. ATTIOGB É. Modelling and Analysing Dynamic Decentralised Systems. In Pacific-Rim Distributed Computing Conference (PRDC’2009), 2009, Shanghai, Chine, IEEE Computer Society,
pages 109–114
[8] http ://hal.archives-ouvertes.fr/hal-00483237/en/
C. A TTIOGBE. Semantic Embedding of Petri Nets into Event-B. In Integration of Model-based
Formal Methods Tools (IM FMT @ IFM’2009), 2009, Dusseldorf, Allemagne
[9] http ://hal.archives-ouvertes.fr/hal-00423672/en/
P. A NDRE, G. A RDOUREL, C. ATTIOGB É, et A. L ANOIX. Using Assertions to Enhance the Correctness of Kmelia Components and their Assemblies. In M. S UN et B. S CHATZ, réds., Formal
Aspects of Component Software (FACS’2009), 2009, Eindhoven, Pays-Bas. CWI, 2009, volume
SEN-E0902, pages 115–129
114
Bilan 2006–2009 COLOSS
[10] http ://hal.archives-ouvertes.fr/hal-00423639/en/
P. A NDRE, G. A RDOUREL, et C. A TTIOGB É. Composing Components with Shared Services in
the Kmelia Model. In Cesare P AUTASSO et Eric T ANTER, réds., 7th International Symposium
on Software Composition (SC’2008), 2008, Budapest, Hongrie. Springer, 2008, volume 4954 of
Lecture Notes in Computer Science, pages 125–140
[11] http ://hal.archives-ouvertes.fr/hal-00420017/en/
J. C. ATTIOGBE. Event-Based Approach to Modeling Dynamic Architecture : Application to Mobile Ad Hoc Network. In International Symposium on Leveraging Applications of Formal Methods,
Verification and Validation (ISoLA’2008), 2008, Porto-sani, Grèce. Springer, 2008, volume 17 of
CCIS (Communications in Computer and Information Science), pages 769–781
[12] http ://hal.archives-ouvertes.fr/hal-00482872/en/
C. A TTIOGBE. Mastering Specification Heterogeneity with Multifacet Analysis. In Modeling,
Validation, and Heterogeneity (MoVaH @ ICST’08), 2008, Lillehammer, Norvège
[13] http ://hal.archives-ouvertes.fr/hal-00286431/en/
S. C OLIN, A. L ANOIX, O. K OUCHNARENKO, et J. S OUQUI ÈRES. Using CSP——B Components :
Application to a Platoon of Vehicles. In International Workshop on Formal Methods for Industrial
Critical Systems (FMICS’2008), 2008, Italie. Springer-Verlag, 2008, volume 5596 of LNCS, pages
103–118
[14] http ://hal.archives-ouvertes.fr/hal-00423690/en/
P. A NDRE, G. A RDOUREL, et C. ATTIOGB É. A Formal Analysis Toolbox for the Kmelia Component Model. In Christian ATTIOGB É et Daniel K R ÖNING, réds., ProVeCS 2007 - Satellite Event of
TOOLS Europe, 2007, Zürich, Suisse, volume 567 of ETH TR, pages 10–25
[15] http ://hal.archives-ouvertes.fr/hal-00470280/en/
C. ATTIOGBE, P. P OIZAT, et G. S ALA ÜN. A Formal and Tool-Equipped Approach for the Integration of State Diagrams and Formal Datatypes. IEEE Transactions on Software Engineering, 2007,
33(3) : 157–170
[16] http ://hal.archives-ouvertes.fr/hal-00423697/en/
P. A NDRE, G. A RDOUREL, et C. ATTIOGB É. Adaptation for Hierarchical Components and Services. Electronic Notes in Theoretical Computer Science, 2007, 189 : 5–20
[17] http ://tel.archives-ouvertes.fr/tel-00481602/en/
C. A TTIOGB É. Contributions aux approches formelles de développement de logiciels : Intégration
de méthodes formelles et analyse multifacette. HDR, Université de Nantes, 2007
[18] http ://hal.archives-ouvertes.fr/hal-00397713/en/
P. A NDRE, G. A RDOUREL, et C. ATTIOGB É. Defining Component Protocols with Service Composition : Illustration with the Kmelia Model. In Markus L UMPE et Wim VANDERPERREN, réds.,
6th International Symposium on Software Composition, (SC’2007), 2007, Braga, Portugal. Springer
Berlin / Heidelberg, 2007, volume 4829 of LNCS, pages 2–17
[19] http ://hal.archives-ouvertes.fr/hal-00397694/en/
C. ATTIOGB É, P. A NDR É, et G. A RDOUREL. Checking Component Composability. In 5th International Symposium on Software Composition, 2006, Vienne, Autriche. Springer Berlin / Heidelberg,
2006, volume 4089 of LNCS, pages 18–33
COLOSS
115
[20] http ://hal.archives-ouvertes.fr/hal-00482855/en/
C. ATTIOGBE. Combining B Tools for Multi-Process Systems Specification. In M. A.
E. B ADOUEL , Y. S LIMANI, réd., African Conference on Research in Computer Science
(CARI’2006), 2006, INRIA, pages 35–42
[21] http ://hal.archives-ouvertes.fr/hal-00420015/en/
J. C. ATTIOGBE. Multi-process Systems Analysis Using Event B : Application to Group Communication Systems. In International Conference on Formal Engineering Methods (ICFEM’2006),
2006, Macao, Chine. Springer, 2006, volume 4260 of LNCS, pages 660–677
[22] http ://hal.archives-ouvertes.fr/hal-00420050/en/
C. A TTIOGBE. Tool-Assisted Multi-Facet Analysis of Formal Specifications (Using Alelier-B and
ProB). In P. K OKOL, réd., IASTED (SE’2006), 2006, Innsbruck, Autriche. Acta Press, 2006, pages
85–90
[23] http ://hal.archives-ouvertes.fr/hal-00458119/en/
P. A NDR É, G. A RDOUREL, et C. ATTIOGB É. Vérification d’assemblage de composants logiciels Expérimentations avec MEC. In conférence francophone de MOdélisation et SIMulation
(MOSIM’2006), 2006, Rabat, Maroc. Lavoisier, 2006, pages 497–506
3.12.2 Bibliographie externe
[24] Z. L IU, C. M ORISSET, et V. S TOLZ. rcos : Theory and tool for component-based model driven
development. In F. A RBAB et M. S IRJANI, réds., FSEN, 2009. Springer, 2009, volume 5961 of
Lecture Notes in Computer Science, pages 62–80. ISBN : 978-3-642-11622-3
[25] S. B LIUDZE et J. S IFAKIS. The algebra of connectors - structuring interaction in bip. IEEE Trans.
Computers, 2008, 57(10) : 1315–1330
[26] L. C RUZ -F ILIPE, A. S ERNADAS, et C. S ERNADAS. Heterogeneous fibring of deductive systems
via abstract proof systems. Logic Journal of the IGPL, 2008, 16(2) : 121–153
[27] A. BASU, L. M OUNIER, M. P OULHI ÈS, J. P ULOU, et J. S IFAKIS. Using bip for modeling and
verification of networked systems – a case study on tinyos-based networks. In NCA, 2007, pages
257–260
[28] I. C RNKOVIC. Component-based software engineering for embedded systems. In G.-C. ROMAN,
W. G. G RISWOLD, et B. N USEIBEH, réds., ICSE, 2005. ACM, 2005, pages 712–713
[29] G. G ÖSSLER et J. S IFAKIS. Composition for component-based modeling. Sci. Comput. Program.,
2005, 55(1-3) : 161–183
[30] T. M OSSAKOWSKI. Heterogeneous theories and the heterogeneous tool set. In Y. K ALFOGLOU,
W. M. S CHORLEMMER, A. P. S HETH, S. S TAAB, et M. U SCHOLD, réds., Semantic Interoperability
and Integration, 2005. IBFI, Schloss Dagstuhl, Germany, 2005, volume 04391 of Dagstuhl Seminar
Proceedings
[31] C. A. S ZYPERSKI. Component technology - what, where, and how ? In ICSE, 2003. IEEE Computer
Society, 2003, pages 684–693
[32] J. E KER, J. W. JANNECK, E. A. L EE, J. L IU, X. L IU, J. L UDVIG, S. N EUENDORFFER, S. S ACHS, et
Y. X IONG. Taming heterogeneity - the ptolemy approach. Proceedings of the IEEE, 2003, 91(1) :
127–144
116
Bilan 2006–2009 COLOSS
[33] B. M EYER. The Grand Challenge of Trusted Components. In Proceedings of IEEE International
Conference on Software Engineering (ICSE’03), 2003. IEEE Computer Society Press, 2003
[34] E. A. L EE et A. L. S ANGIOVANNI -V INCENTELLI. A framework for comparing models of computation. IEEE Trans. on CAD of Integrated Circuits and Systems, 1998, 17(12) : 1217–1229
[35] W.-T. C HANG, S. H A, et E. A. L EE. Heterogeneous simulation - mixing discrete-event models with
dataflow. VLSI Signal Processing, 1997, 15(1-2) : 127–144
[36] J. T. B UCK, S. H A, E. A. L EE, et D. G. M ESSERSCHMITT. Ptolemy : A framework for simulating
and prototyping heterogenous systems. Int. Journal in Computer Simulation, 1994, 4(2)
[37] R.-J. BACK. A calculus of refinements for program derivations. Acta Informatica, 1988, 25 :
593–624
[38] C. A. R. H OARE. Proof of correctness of data representation. In Language Hierarchies and Interfaces, International Summer School, 1976, London, UK. Springer-Verlag, 1976, pages 183–193.
ISBN : 3-540-07994-7
[39] D. L. PARNAS. ”the influence of software structure on reliability”. In Proceedings of the international conference on Reliable software, 1975, New York, NY, USA. ACM Press, 1975, pages
358–362
[40] D. L. PARNAS. On the Criteria To Be Used in Decomposing Systems Into Modules. Communications of the ACM, 1972, 15(12) : 1053–1058
[41] N. W IRTH. ”program development by stepwise refinement”. Commun. ACM, 1971, 14(4) : 221–
227. ACM Press. ISSN : 0001-0782
[42] E. W. D IJKSTRA. A constructive Approach to the Problem of Program Correctness. BIT, 1968,
14(8) : 174–186
[43] J.-R. A BRIAL. The B Book : Assigning Programs to Meaning. Cambridge University Press, 1996
[44] R.-J. BACK. Correctness Preserving Program Refinements : Proof Theory and Applications, volume 131 of Mathematical Center Tracts. Mathematical Centre, Amsterdam, The Netherlands, 1980
[45] E. W. D IJKSTRA. A Discipline of Programming. Prentice Hall, Englewoods, Cliffs, NJ, 1976
[46] C. A. R. H OARE et J. H E. Unifying theories of programming. Prentice-Hall, NJ, 1998
[47] D. M. H OFFMAN et D. M. W EISS, réds. ”Software fundamentals : collected papers by David
L. Parnas”. Addison-Wesley Longman Publishing Co., Inc., Boston, MA, USA, 2001. ISBN :
0-201-70369-6
Équipe
MODAL
Chapeau-résumé
Durant les deux dernières décennies, les architectures logicielles ont apporté une réelle contribution
dans le développement de systèmes complexes et distribués. Leurs principales caractéristiques résident
d’une part dans leur pouvoir de gérer les abstractions et les niveaux d’expressivité d’un système, et
d’autre part dans leur capacité à prendre en compte la modélisation de la structure et du comportement d’un système. Il est bien admis aujourd’hui qu’un des problèmes critiques dans la conception
et l’élaboration de tout système logiciel complexe est son architecture, c’est-à-dire l’organisation des
éléments architecturaux qui le constituent. Une bonne architecture peut aider à exhiber les propriétés cruciales d’un système (fiabilité, portabilité, interopérabilité, . . .). Au contraire, une mauvaise architecture
peut avoir des conséquences désastreuses sur le système. Par ailleurs, une bonne architecture peut servir
de ”conscience” à un système au cours de son évolution. En effet, elle guide le processus d’évolution d’un
système en indiquant par exemple quels aspects du système peuvent être modifiés sans compromettre son
intégrité.
Aujourd’hui, les nouvelles applications d’ingénierie, en particulier celles dédiées à la conception et
au développement de systèmes d’information distribués à base de composants ont mis en évidence le
caractère évolutif des éléments architecturaux manipulés et des structures qui leur sont associées. La
pérennité, l’adaptabilité et l’évolutivité de tels systèmes deviennent un enjeu économique très important. En effet, ces systèmes ont souvent nécessité plusieurs années (hommes/mois) de développement
et de mise à jour qu’il devient impératif de leur assurer une durée de vie conséquente et surtout de
117
118
Bilan 2006–2009 MODAL
répondre aux évolutions de besoins des constructeurs d’architectures logicielles, des constructeurs d’applications et des utilisateurs finaux. Dans ce contexte, l’équipe s’intéresse essentiellement à l’étude et au
développement de nouvelles architectures logicielles ouvertes (c’est-à-dire capables de dialoguer et de
s’interfacer avec d’autres architectures), adaptables (c’est-à-dire susceptibles d’être adaptées à des conditions opératoires et à des domaines d’application différents) et évolutives (c’est-à-dire capables d’être
complétées/modifiées pour prendre en compte des services non prévus lors de leur conception).
Nos travaux de recherche ont pour objectif l’élaboration de nouveaux langages de modélisation
et d’évolution d’architectures logicielles offrant un meilleur potentiel de réutilisation, limitant la distance sémantique entre conception et implémentation, et in fine réduisant les coûts et les délais de
développement d’applications. Pour ce faire, nous avons fédéré nos activités autour de deux thèmes :
– Langages de spécification et de conception d’architectures logicielles,
– Langages d’analyse et de conception de l’évolution d’architectures logicielles.
Il s’agit de développer de nouveaux langages de modélisation et d’évolution d’architectures logicielles permettant d’une part d’étendre les formalismes de description des ADLs (Architecture Description Languages) pour la prise en compte d’éléments architecturaux complexes évolutifs (composants de
communication, styles de conception et d’évolution, méta-architectures, . . .) et d’autre part de projeter
ces architectures sur des infrastructures objets exécutables.
Pour valider nos choix, nous nous sommes intéressés à des systèmes complexes tels que les systèmes
d’information dans les entreprises et les systèmes autonomiques surs et évolutifs en environnement d’intelligence ambiante.
4.1 Composition de l’équipe au 30/06/2010
Nom
OUSSALAH
TAMZALIT
Prénom
Mourad
Dalila
Nom
Prénom
AMIRAT
Abdelkrim
AOUSSAT
Fadila
HOCK-KOON
GHADDAR
Anthony
Ali
Nom
LE GOAER
MAILLARD
SMEDA
Permanents au 30/06/10
Position
PR1
MC
Doctorants au 30/06/10
Position
Bourse Gouv.
Algérien
Bourse Tassili
(FrancoAlgérienne)
Alloc. MENRT
CIFRE
Institution
UN
UN
Arrivée
01/09/1999
01/09/2001
Institution
Arrivée
UN
03/2007
UN
11/2009
UN
UN/Bitasoft
09/2008
10/2009
Personnels temporaires sur la période 2006-2010
Prénom
Position
Institution
Arrivée
Olivier
ATER
UN
01/09/2009
Sylvain
IR
CNAM
09/2006
Université de
Adel
Postdoc
06/2006
Tripoli
Départ
31/08/2010
09/2007
06/2007
MODAL
Nom
AHMEDNACER
ALIMAZIGHI
119
Prénom
Visiteurs 3 mois ou plus
Position
Institution
Arrivée
Départ
Mohamed
PR1
USTHB
01/12/2009
07/12/2009
Zahia
PR1
USTHB
14/12/2009
21/12/2009
Évolution de l’équipe sur la période 01/01/2006-30/06/2010
En 2007, l’équipe a déploré le décès de Tahar Khammaci appartenant au laboratoire depuis septembre
1992.
4.2 Faits marquants 2006-2010
Structuration et thèmes de recherche L’équipe Langages de Modélisation des Architectures Logicielles (MODAL) fédère ses activités autour de deux thèmes :
Modèles de Spécification et de conception d’architectures logicielles Il s’agit de développer de
nouveaux modèles de description d’architectures logicielles permettant d’une part d’étendre les formalismes de modèles de description des ADLs pour la prise en compte d’éléments architecturaux complexes
(composants d’abstraction de communication, composants hiérarchisés, styles d’évolution . . .) et d’autre
part de projeter ces modèles sur des modèles d’architectures objets exécutables.
Modèles d’évolutions structurales d’architectures logicielles La préoccupation directrice est de
permettre non seulement l’évolution d’un élément architectural (composant, connecteur . . .) mais aussi
de son architecture globale. Il s’agit par exemple d’ajouter un nouveau composant représentant une nouvelle fonctionnalité, de l’adapter, de modifier l’interface d’une configuration ou encore de réorganiser
l’interaction entre les différents éléments architecturaux.
La finalité des travaux de l’équipe est de proposer des modèles et des méthodes de construction
de nouvelles architectures logicielles ouvertes, adaptables et évolutives à base de modèles hybrides
composants-objets. Il est nécessaire pour cela d’une part de capitaliser les expériences acquises en
matière de conception d’architectures à base d’objets et d’autre part d’intégrer les nouvelles propositions émanant des architectures logicielles à base de composants et de les étendre pour tenir compte des
besoins, des points de vue et des contraintes spécifiques des utilisateurs concepteurs. Aussi, notre objectif
scientifique a été de :
1. contribuer à asseoir les fondements des nouvelles architectures logicielles dans le cadre du génie
logiciel en général et celui des architectures logicielles à base d’objets et de composants en particulier. Nous nous sommes intéressés particulièrement aux aspects structurels, comportementaux et
évolutifs des ADLs et des architectures à base de composants,
2. fixer un cadre conceptuel de définition, de formalisation et de validation des différents modèles
d’architectures logicielles à base de composants,
3. élaborer des outils permettant de spécifier, de concevoir, de valider et de faire évoluer des architectures logicielles décrites par une approche hybride (composants et objets) pour maı̂triser la
modélisation de systèmes complexes.
120
Bilan 2006–2009 MODAL
Publications majeures de l’équipe sur la période
1. Journal of Object Technology. 2009 [6].
2. Infocomp Journal of Computer Science V1. 2009 [4].
3. International journal of computing Informatica. 2009 [8]
4. International Journal of Software Engineering and Knowledge Engineering. 2007 [13]
5. International transactions on computer science and engineering. 2007 [17]
6. Journal Of Computers. 2006 [24]
7. Conference on Software Architecture. 2008 [12]
8. Annual IEEE International Computer Software and Applications Conference. 2008 [10]
9. ACM SIGSOFT Symposium on Component-Based Software Engineering. 2006 [22]
10. International ACM Conference on Software Engineering and Knowledge Engineering.
2006 [25]
11. European Conference on Software Architecture. 2010 [2]
Prix et récompenses, organisation de conférences majeures, conférences invitées
– 2010
– EWCV European Workshop Composition and Variability, en conjonction avec AOSD, Rennes
15-19 mars 2010.Mourad Oussalah est co-organisateur avec Geri Georg (Colorado State University), Philippe Lahire (I3S University of Nice )/ CNRS), Jon Whittle (Lancaster University).
– Proposition de la 4ème édition du Workshop international ”Models and Evolution” dans le cadre
de ACM/IEEE Models 2010. D. Tamzalit est co-organisatrice avec Dirk Deridder - Vrije Universiteit Brussel, Belgique et Bernhard Schätz - TU München, Allemagne. Ce workshop est la
fusion de MoDSE (créé en 2007 par Dalila Tamzalit) et MCCM. Le workshop s’adresse aux
problématiques d’évolution dirigée par les modèles et aux problématiques d’évolution et de
co-évolution de modèles.
– 2009
– Workshop international ”Models and Evolution - Joint MoDSE-MCCM workshop”,
http ://www.modse.fr, en conjonction avec la 12ème conférence ACM/IEEE MoDELS 2009.
Organisateurs : Dalila Tamzalit, Dirk Deridder, Bernhard Schätz.
– 1ère journée nationale COSMAL (GDR GPL, Toulouse), 27 janvier 2009. M. Oussalah coorganisateur avec Philippe Lahire
– 2008
– Deuxième édition du workshop international MoDSE (http ://www.lina.sciences.univnantes.fr/conf/MoDSE2008/index.html), en conjonction avec la conférence IEEE CSMR,
Athènes, avril 2008. Organisatrice et fondatrice : Dalila Tamzalit.
– 2007
– ECSA (European Conference on Software Architecture), Madrid, Spain September 24-26, 2007,
Mourad Oussalah est membre du steering comittee, participation au lancement, actuellement
3ème édition, Fondateur : Prof. Flavio Oquendo (Univ. Bretagne Sud).
– Création et direction par Dalila Tamzalit de la première édition du workshop international
MoDSE (http ://www.sciences.univ-nantes.fr/MoDSE2007/) en conjonction avec la conférence
IEEE CSMR, mars 2007, Amsterdam, Pays-Bas. Ce workshop est dédié aux problématiques de
l’évolution logicielle dirigée par les modèles (model-driven software evolution).
MODAL
121
– Création par M. Oussalah du Groupe de travail CAL (Conférence sur les architectures logicielles) du GDR GPL qui a donné ensuite naissance au groupe de travail COSMAL.
– 2006
– 3rd European Workshop on Software Architecture (EWSA’06), Université de Nantes, Nantes
septembre 2006, organisateur : Mourad Oussalah
– 1ère édition de la Conférence francophone CAL, Université de Nantes, 6-8 septembre 2006,
actuellement 4ème édition, Fondateur : Mourad Oussalah.
– 2003 à ce jour
– pilotage par Dalila Tamzalit de l’atelier francophone dédié à l’évolution, la réutilisation et la
traçabilité dans les Systèmes d’Information (ERT-SI). Cet atelier, anciennement OCM-SI, existe
depuis 2002 et a lieu chaque année en conjoncture avec Inforsid et dans le cadre des activités du
groupe de travail ERT-SI du GDR I3 du CNRS.
Tableau récapitulatif
ACL
10
ACLN
5
ASCL
0
Récapitulatif des publications par catégorie
BRE INV ACTI ACTN COM AFF
0
0
46
18
3
0
OS
9
OV
0
DO
4
AP
7
4.3 Fondements scientifiques
Mots clés :
– Génie logiciel :
– Architectures logicielles
– Représentation des architectures logicielles
– Méta modèle de description des architectures logicielles
– Démarche de description d’une architecture logicielle
– Méta Architecturation
– Evolution des architectures logicielles
– Assemblage de services et composants architecturaux
– Adaptation des services et composants architecturaux
L’origine de l’architecture logicielle en tant que concept a été identifiée pour la première fois par
Dijkstra en 1968 et Parnas au début des années 1970, mais l’architecture logicielle comme discipline à
part entière a connu une expansion dans les années 90.
Avec la complexification des systèmes logiciels et leur diversification, une nouvelle manière de construire, d’organiser et de structurer les systèmes est apparue durant les années 90. La motivation principale a été de ne plus chercher à concevoir et développer des systèmes à partir de zéro, mais plutôt
chercher à utiliser, quand cela est possible, ce qui existe et qui répond au besoin, à la manière de briques
qu’on assemble. Cette approche permet de réduire les efforts et les coûts de développement, à condition que ces briques logicielles soient réutilisables, modulaires et indépendantes. Le paradigme objet
ne répondant pas pleinement à ces caractéristiques, notamment aux deux dernières, le développement
par composants est né [28]. Parallèlement, les travaux fondateurs des architectures logicielles ont été
posés par Perry et Wolf [29]. Cette discipline est centrée sur l’idée de réduire la complexité à travers
l’abstraction et la séparation des préoccupations. Shaw et Garlan ont joué un rôle prépondérant dans
l’émergence de cette discipline [27]. Ces deux points fondamentaux sont la formalisation des architec-
122
Bilan 2006–2009 MODAL
tures logicielles et la distinction des composants de leurs interactions. La discipline compte aussi des
concepts fondateurs, notamment les styles architecturaux et les langages de description d’architectures
(ADL :Architecture Description Languages) ainsi que les architectures dynamiques [26]. La distinction
est établie entre l’architecture concrète d’un système (autrement dit, son implémentation) et sa description architecturale. La norme ANSI/IEEE 1471-2000 est la première norme formelle dans le domaine
de l’architecture logicielle, adoptée comme norme ISO/IEC DIS 25961. Dans ses recommandations, un
système (System) est défini comme une collection de composants organisés afin d’accomplir une fonction
ou un ensemble spécifique de fonctions. Le terme système englobe alors des applications individuelles,
des sous-systèmes, des familles de produits, etc. A partir de cette définition, il s’en suit que tout peut
être un système pourvu qu’il satisfasse certains buts, dont celui d’accomplir une ou plusieurs fonctions.
Il s’agit alors de changer de granularité dans la conception et le développement des systèmes logiciels,
permettant de passer de l’objet au composant, et permettant de travailler sur l’architecture d’un système
en la dissociant explicitement de son implémentation. Le changement de granularité dans la spécification
des systèmes de l’objet à l’architecture logicielle à base de composants impose le déplacement des
préoccupations de l’évolution vers ces architectures, assurant par la même occasion le passage à l’échelle
de tels systèmes et de leur évolution.
4.4 Applications et enjeux
Le domaine d’application de nos travaux est celui des systèmes d’information et des systèmes ubiquitaires (omniprésents) et /ou ambiants (pervasifs) :
4.4.1 Les systèmes d’information
Les systèmes d’information posent des problèmes de restructuration et d’adaptation suite à des
changements (évolution) concernant soit les fonctionnalités du système (restructuration d’un service,
migration d’une fonction d’un service vers un autre, fusion ou segmentation de services, etc.), soit son
infrastructure de déploiement (infrastructure répartie, ajout ou suppression de noeuds à l’infrastructure
répartie, répartition de charges, etc.). Pour les systèmes à base de composants, ces besoins nécessitent,
d’une part la proposition d’un modèle pour les composants afin de permettre l’adaptation statique et dynamique de leurs structures et d’autre part, un processus permettant d’automatiser les transformations de
leurs structures sans altérer leurs comportements.
4.4.2 Les systèmes ubiquitaires et/ou ambiants
Les systèmes ubiquitaires et/ou ambiants posent de nombreuses questions liées à leur auto-adaptation
dynamique pour répondre aux changements et variations de leurs contextes d’utilisation (context-aware
adaptation), telles que la gestion des ressources limitées (augmentation, diminution, disparition) et les
changements liés à l’évolution de la configuration de leurs architectures matérielles, considérées par
définition comme ouvertes, et la gestion des variations des moyens de communications (connexion,
déconnexions), considérés comme volatiles. Ces besoins nécessitent, pour les applications à base de
composants, la définition de structures extrêmement flexibles et un processus de génération dynamique
et automatisée de cette structure suivant le contexte.
En fait, les résultas de nos travaux répondent à certains besoins inhérents à ces systèmes tels que :
MODAL
123
– Le besoin de pouvoir (ré)utiliser ces systèmes dans des environnements et des contextes différents.
Il est ainsi nécessaire d’être capable de les re-modéliser (évolution adaptative, évolutive et reingénierie) pour qu’ils puissent répondre d’une part, aux exigences et spécificités de leurs contextes
d’utilisation, par exemples : infrastructures réparties, ressources limitées, points de vue différents
sur la composition des différentes fonctionnalités, etc., et d’autre part, à de nouvelles exigences
technologiques (composant, service, vue architecturale, etc.).
– Le besoin de diminuer les coûts du développement et de maintenance de systèmes en les concevant
par réutilisation et composition de composants réutilisables. Ces composants peuvent être identifiés et extraits à partir de systèmes existants pour être réutilisés dans des futurs développements.
– Le besoin de mettre à jour ces systèmes rapidement et avec le moindre coût. Dans ce cas, il est
nécessaire d’automatiser les processus de transformation (structurelles et comportementaux) et de
favoriser la réutilisation de ces activités (réutilisation du processus d’évolution).
– Le besoin de maı̂triser la complexité des systèmes existants (comprendre ces systèmes, les faire
évoluer, etc.) en les manipulant à un haut niveau d’abstraction (architecture logicielle, modèle
abstrait). Il est alors nécessaire de pouvoir extraire ce type de représentations abstraites à partir
de tous les éléments disponibles concernant les systèmes en question (documents de conception,
implémentation, etc.) afin qu’elles puissent être exploitées (réutilisées) lors de toutes les activités
de maintenance menées sur ces systèmes.
Il s’agit d’un domaine de recherche très actif et un thème scientifique majeur du génie logiciel
(Conférence internationale WICSA, européenne ECSA, francophone CAL) , développé dans plusieurs
équipes de recherche, en particulier aux Etats Unis et en Europe. C’est un sujet de publication dans tous
les journaux scientifiques et toutes les conférences ACM et IEEE actuelles concernant l’ingénierie logicielle. C’est aussi un thème stratégique : le programme européen IST, le programme américain EDCS
ainsi que le programme français ANR soulignent tous l’importance des architectures logicielles à base
de composants et de services pour la conception de systèmes complexes.
4.5 Nouveaux résultats pour la période 2006-2010
4.5.1 Thème - Modèles de spécification et de conception d’architectures logicielles
Action 1 : Description des architectures logicielles selon des hiérarchies multiples
Participants : Abdelkrim AMIRAT, Tahar KHAMMACI, Mourad OUSSALAH, Adel SMEDA
L’architecture représente le plus haut niveau d’abstraction dans la description des logiciels complexes. A ce niveau, nous pouvons décrire les principaux composants du système et de leurs voies d’interaction. L’architecture logicielle est considérée comme le guide du processus de développement. Dans
la littérature, la plupart des travaux sur les langages de description d’architecture logicielle s’est focalisée
essentiellement sur les descriptions de hiérarchies structurelles en passant sous silence les hiérarchies
fonctionnelles, les hiérarchies conceptuelles et les hiérarchies de méta modélisation. Nous montrons que
toutes ces hiérarchies constituent des points de vues importants pour raisonner sur les architectures logicielles. Nous proposons un ensemble de mécanismes pour décrire les différents niveaux d’abstraction de
chaque hiérarchie de dépendance, et nous donnons une nouvelle définition du concept connecteur pour
réifier tous ces mécanismes d’interaction [9]. L’ensemble est présenté dans notre métamodèle baptisé C3
[15].
124
Bilan 2006–2009 MODAL
Action 2 : Vers une meilleure compréhension de la Composition de Services par Méta Modélisation
d’un Service Composite
Participants : Anthony HOCK-KOON, Mourad OUSSALAH
La composition de services est un des enjeux principaux des Architectures logicielles Orientées Services (AOS). Elle a pour vocation la maximisation des réutilisations en permettant les combinaisons de
ressources existantes. Ces ressources, encapsulées sous la notion de service, collaborent afin de réaliser
une tâche complexe. Quantité de travaux se focalisent sur la composition de services et la résolution de
ses nombreux problèmes. Cependant, la multitude des approches et leur caractère souvent spécialisé ne
permettent pas d’avoir une vision globale de la composition de services qui soit indépendante de toutes
technologies ou tout domaines d’application. Notre approche s’inscrit dans cette logique d’explicitation
de la composition de services. Elle propose un métamodèle de service composite qui réifie d’un seul tenant l’ensemble des caractéristiques d’une composition de services. Elle définit leurs interdépendances [1]
et assure la capacité de réutilisation de cette composition. De plus, nous définissons un mécanisme d’auto
composition qui permet des modifications dynamiques de l’architecture du composite et des logiques de
compositions associées [3].
Action 3 : Adaptation structurelle de composants logicielles
Participants : Gauthier BASTIDE, Mourad OUSSALAH, Djamel SERIAI (externe)
La réutilisation à grande échelle de composants logiciels se révèle être un challenge pour la conception de nouvelles applications. Dans la grande majorité des cas, pour être intégrés à une application, les
composants disponibles ont besoin d’être adaptés afin de faire face à la multiplicité des environnements
de déploiement dotés de caractéristiques variables. Ainsi, pour éviter le redéveloppement de nouveaux
composants et favoriser la réutilisation, de nombreuses approches ont proposé des techniques permettant
d’adapter le comportement de composants existants. Cependant, adapter le comportement de composants
n’est pas suffisant pour permettre leur réutilisation : il faut également adapter leur structure. Or, aucune
approche existante, à notre connaissance, ne permet de répondre pleinement à ces besoins en adaptation
structurelle. Aussi, nous proposons une approche, appelée Scorpio, permettant d’adapter la structure de
composants. Nous nous focalisons plus particulièrement sur des composants existants. Dans un premier
temps, nous nous sommes intéressés à l’adaptation structurelle de composants existants en proposant un
processus permettant leur ré-ingénierie vers de nouvelles structures [22]. Puis, pour répondre aux besoins
liés à une adaptation sans interruption de l’exécution, nous avons proposé des mécanismes permettant de
prendre en charge l’adaptation dynamique de ces composants. Partant du constat qu’un certain nombre
d’environnements, tels que les environnements ubiquitaires, nécessite une automatisation du processus
d’adaptation, nous avons proposé alors de prendre en charge ces besoins à travers une approche permettant l’auto-adaptation structurelle de composants logiciels [16]. Enfin, nos propositions ont été mises en
oeuvre d’une part par la réalisation du prototype Scorpio-Tool implémenté en Fractal et d’autre part, par
la définition et le développement d’un scénario ubiquitaire permettant l’expérimentation de ces propositions.
4.5.2 Thème - Modèles d’évolutions structurale et comportementale d’architectures logicielles
Action 1 : Evolution structurale dans les architectures logicielles à base de composants
Participants : Mourad OUSSALAH, Nassima SADOU, Dalila TAMZALIT
MODAL
125
Une architecture logicielle offre une description d’un système à un niveau d’abstraction élevé
en terme de composants et d’interactions entre ces composants. La problématique abordée relève de
l’évolution structurelle dans les architectures logicielles à base de composants. Elle permet, dans le cadre
des architectures logicielles, d’éviter que celles-ci ne restent figées et soient obsolètes par rapport aux
besoins en perpétuels changements. Un autre objectif essentiel est la possibilité de pouvoir élargir les architectures logicielles et d’appliquer le passage à l’échelle, pour prendre en compte de nouveaux besoins
ou des fonctionnalités plus complexes. Une architecture doit donc pouvoir être modifiée pour rester utilisable, réutilisable et disponible pour ses utilisateurs, et cela tout au long du cycle de vie du système. Notre
contribution à cette problématique se scinde en trois axes : Le premier axe consiste en la proposition d’un
modèle d’évolution dénommé SAEV (Software Architecture EVolution model) permettant l’abstraction,
la spécification et la gestion de l’évolution des architectures logicielles tout en étant générique, uniforme
et indépendant de tout langage de description d’architectures logicielles [20]. Le deuxième axe s’appuie
sur deux constats : le premier constat est que les architectures logicielles ne véhiculent pas assez d’informations sur le degré de corrélation entre leurs éléments constitutifs, qui permettraient de déterminer et
de propager automatiquement les impacts d’une évolution. Le deuxième constat est que les connecteurs,
de par leur position d’intermédiaires entre les éléments architecturaux sont des supports idéaux pour
véhiculer les changements entre ces éléments. C’est ainsi que nous proposons d’enrichir les connecteurs
par des propriétés sémantiques qui exprimeraient alors la corrélation entre les éléments d’une architecture logicielle qu’ils relient [17]. Le troisième axe illustre la prise en compte des propriétés sémantiques
proposées dans le cadre de l’ADL COSA (Component-Object based Software Architecture). COSA est
un ADL hybride qui réifie les concepts communément admis par la majorité des langages de description
d’architectures logicielles. Cet axe montre aussi l’application du modèle SAEV sur des architectures
logicielles décrites en COSA et en tenant compte des propriétés sémantiques définies.
Action 2 : Styles d’évolution pour les architectures logicielles
Participants : Olivier LE GOAER, Mourad OUSSALAH, Dalila TAMZALIT, Djamel SERIAI (externe)
L’évolution d’une architecture peut être une activité complexe requérant des compétences particulières, et qui peut être probablement rentabilisée à travers une approche par réutilisation. De la même
manière que les architectures logicielles offrent une description d’un système à un niveau d’abstraction
élevé, nous proposons d’aborder la problématique de leurs évolutions structurelles en proposant de les
décrire à un haut niveau d’abstraction, avec comme objectif, de capitaliser les évolutions récurrentes et
de favoriser leur réutilisation. Notre contribution se décline en trois volets : Le premier volet concerne
la proposition d’un modèle d’évolution dénommé SAEM (Style-based Architectural Evolution Model)
permettant l’abstraction, la spécification et la gestion de l’évolution dans les architectures logicielles.
SAEM se veut un modèle générique, uniforme et indépendant de tout langage de description d’architecture logicielle, proposant le concept de style d’évolution pour prescrire des solutions réutilisables dans
les architectures nécessitant d’évoluer [11]. Le deuxième volet concerne la définition d’une ingénierie
de l’évolution. Nous proposons une démarche de description triptyque de l’évolution architecturale
sur laquelle se base SAEM, pour la construction d’une bibliothèque multi-hiérarchique d’éléments
réutilisables. Cette dernière est exploitée selon deux types de processus complémentaires – pour et par
la réutilisation –, orchestrés par différents acteurs [10]. Enfin, le dernier volet concerne la projection de
SAEM sur des architectures logicielles décrites à l’aide de COSA, un langage de description hybride
objet/composant. Sur cette base, une expérimentation est menée dans le cadre du projet ZOOM, visant à
architecturer et faire évoluer des réseaux de tuyaux à bord de navires.
126
Bilan 2006–2009 MODAL
Action 3 : Extraction d’une architecture logicielle à base de composants depuis un système orienté
objet
Participants : Sylvain CHARDIGNY, Mourad OUSSALAH, Dalila TAMZALIT, Djamel SERIAI
(externe)
La représentation de l’architecture fournit de nombreux avantages pendant tout le cycle de vie du
logiciel. Cependant, pour beaucoup de systèmes existants, aucune représentation fiable de leurs architectures n’est disponible. Afin de pallier cette absence, source de nombreuses difficultés principalement
lors des phases de maintenance et d’évolution, nous proposons, une approche, appelée ROMANTIC,
visant à extraire une architecture à base de composants à partir d’un système orienté objet existant [19].
L’idée première de cette approche est de proposer un processus quasi automatique d’identification d’architecture en formulant le problème comme un problème d’optimisation et en le résolvant au moyen de
méta-heuristiques. Ces dernières explorent l’espace composé des architectures pouvant être abstraites du
système en utilisant la sémantique et la qualité architecturale pour sélectionner les meilleures solutions
[14]. Le processus s’appuie également sur l’architecture intentionnelle du système, à travers l’utilisation
de la documentation et des recommandations de l’architecte.
4.6 Logiciels
COSAStudio
URL
Participants : O. Le Goaer (resp), S. Maillard, A. Smeda, O. Le Goaer, T. Khammaci, M. Oussalah
Type de licence : GPL
Mots clés: architecture logicielle, composant, connecteur, configuration
COSA (Component-Object based Software Architecture) Studio est un prototype reposant sur Eclipse.
Il s’agit d’un modèle de description structurelle d’une architecture logicielle. C’est un modèle hybride
qui se base sur une modélisation par objets et une modélisation par composants. En outre, il intègre un
métamodèle qui permet la projection des concepts COSA vers le langage UML 2.0.
SAEV
URL
Participants : D. Tamzalit (resp), N. Sadou, M. Oussalah, D. Tamzalit, A. Lansmanne
Type de licence : LGPL
Mots clés: architecture logicielle, évolution dynamique
SAEV est un prototype basé sur les classes d’objets complexes en utilisant le langage Java. C’est un
modèle d’évolution générique et indépendant du langage cible hôte ADL. Son avantage est de pouvoir
gérer l’évolution d’une architecture logicielle dans sa globalité, avec la gestion de l’ensemble des impacts et propagations engendrés par une évolution d’un seul élément architectural.
MODAL
127
4.7 Contrats et subventions
Type
Industriel
Industriel
Industriel
Cifre
CPER
CPER
International
Tableau des contrats et subventions
Institution
Nom
Début/Durée
gestionnaire
STX (Projet Zoom)
UN
06.2008/24 mois
AGCI (IAMOS)
UN
12.2008/24 mois
Hervé Guérin
UN
04.2009/12 mois
(ERM)
Thèse A. Ghaddar
UN
2009/36 mois
METEDI
UN
2001/72 mois
COM
UN
2001/60 mois
INEAL
UN
2008/36 mois
Montant des contrats
24 Ke
7 Ke
13 Ke
15 Ke
52 Ke
85 Ke
52 Ke
128
Bilan 2006–2009 MODAL
4.7.1 Contrats directs avec des entreprises
Projet Zoom
Début : 2008, durée : 24 mois
Partenaires : STX (Ex-Aker yard-Chantiers Atlantique)
Coordinateur : M. Oussalah
Participants : M. Oussalah (resp), O. Le Goaer, M. Oussalah, D. Tamzalit,
Montant équipe : 24 Ke
Montant total : 150 Ke
Mots clés : Architecture logicielle ouverte, multi-modélisation
Sur des projets longs et complexes tels que la construction de navire, on observe une multitude de saisies
de la même information qui provoque globalement un ralentissement des flux source de coûts inutiles :
recherche d’information, erreurs, retards, manque de réactivité . . .Le projet ZOOM vise la mise à disposition de l’ensemble de la communauté d’un projet les informations pertinentes déjà enregistrées par
un tiers. STX (ex Aker Yards France) se positionne sur un marché de produits à forte valeur et à forte
complexité, en cours de déploiement via la stratégie d’entreprise élargie (accompagné par le programme
Cap Excellence). ZOOM veut s’attaquer au problème de l’utilisation la plus efficace possible des données
numériques et des moyens informatiques. Ce problème étant complexe et très large, STX cible l’action
sur trois productions majeures pour l’industrie en générale et la construction navale en particulier :
– les réseaux de conditionnement d’air,
– les gaines de ventilation machine
– et les réseaux de tuyauterie.
Afin de bénéficier de la performance actuelle et future des outils propres à chaque entreprise, ZOOM
propose la mise en place d’une plateforme d’échange d’informations numériques structurée en architecture logicielle ouverte (ALO). L’architecture logicielle ouverte permet une multi modélisation utilisant
différents formalismes ou paradigmes de représentation (modélisations physiques, structurales, comportementales, etc.). Elle se caractérise par la description de système sous la forme de composants et
de connecteurs multidimensionnels, ceci avec un minimum d’effort, en réutilisant un maximum de composants de bases et modèles. L’utilisation de l’approche ALO vise à décrire les systèmes de gaines de
ventilation et tuyauteries sous la forme d’une architecture capable de :
– dialoguer et s’interfacer à d’autres architectures,
– s’adapter : évolutions logicielles, nouveaux fournisseurs, nouveaux donneurs d’ordres, évolutions du
métier, autres domaines d’application,
– évoluer : possibilité d’être complétées ou modifiées pour prendre en compte des fonctionnalités non
prévues lors de leur conception.
L’équipe intervient ainsi dans la formalisation et la spécification notamment des gaines de ventilation et
des réseaux de tuyauterie, avec toutes leurs caractéristiques et contraintes multiples, sous forme d’ALO.
IAMOS
Début : 2008, durée : 24 mois
Partenaires : AG. Consult- Paris
Coordinateur : M. Oussalah
Participants : M. Oussalah (resp), A. Hock-koon, M. Oussalah
Montant équipe : 7 Ke
Montant total : 15 Ke
Mots clés : Architecture orientée service, intelligence ambiante, auto-reconfiguration
MODAL
129
Le projet IAMOS (Intelligence Ambiante dans les Architectures Orientées Services) vise au
développement d’une réponse complète au défi de conception posé par l’intelligence ambiante
dans les architectures orientées services adaptables, pour la construction de systèmes autonomiques
opérants en environnements d’intelligence ambiante. En effet, dans les environnements informatiques
hautement ubiquitaires et pervasifs, où les services sont exhibés et composés à la volée pour offrir de
nouveaux services aux utilisateurs selon leur contexte environnemental, une exigence clé est de garantir
la bonne forme, le bon comportement et la bonne fiabilité des compositions de services. Dans de tels
environnements d’intelligence ambiante ouverts et hautement dynamiques, une application basée sur
la composition doit offrir la possibilité de s’adapter elle-même sans risque durant son exécution pour
faire face à des événements tels que des besoins utilisateurs changeants, des intrusions ou des erreurs
système, un environnement opérationnel changeant et des ressources variables. Une telle application
doit être capable de s’auto-reconfigurer sans risques, d’ajuster ses fonctionnalités, de s’auto-protéger,
de s’auto-réparer et de s’auto-optimiser continuellement tout en masquant sa complexité à l’utilisateur.
Spécifiquement, le projet IAMOS se concentrera sur les langages, techniques, méthodes et outils pour
l’architecture et l’ingénierie des architectures orientées service adaptables pour les applications à base
d’intelligence ambiante.
ERM
Début : 2009, durée : 12 mois
Partenaires : Hervé Guérin-ACAPNOS -Nantes
Coordinateur : M. Oussalah
Participants : M. Oussalah (resp), M. Oussalah, N. Sadou
Montant équipe : 13 Ke
Montant total : 15 Ke
Mots clés : règles métiers, architectures logicielles
Le projet ERM vise l’étude et le développement de règles métiers (abrégée ERM) dans le cadre
de l’élaboration d’architectures logicielles. L’approche ERM vient apporter une solution pour des
applications orientées métier. Le principe de l’ERM est la séparation nette entre la logique métier et
la logique système (technique). L’avantage est alors de permettre aux experts métiers (architectes) de
pouvoir exprimer et manipuler les exigences liées à leurs métiers dans un langage indépendant de
l’environnement technique de développement. Ainsi les experts métier doivent pouvoir, eux-mêmes,
créer et faire évoluer leur logique métier pendant que les experts techniques s’occupent de l’aspect
technique. Le défi est alors de pouvoir définir un langage ou un formalisme pour l’expression des règles
métiers qui soit d’une part simple et proche du langage naturel et d’autre part non ambiguë pour être
exploité dans un environnement technique. Le but de ce projet est de contribuer à l’élaboration d’un
outil qui assistera l’expert métier dans la spécification des règles métiers ainsi que leur manipulation
(modification, simulation et exécution). Nous abordons cette préoccupation par une étude comparative
des outils/ langages proposés pour la formulation des règles métiers dans le cadre général et plus
spécifiquement dans le cadre des architectures logicielles.
Thèse CIFRE
Début : 2009, durée : 36 mois
Partenaires : Société Bitasoft - Nantes
Coordinateur : D. Tamzalit
Participants : D. Tamzalit (resp), D. Tamzalit, A. Ghaddar
Montant équipe : 15 Ke
Montant total : 15 Ke
Mots clés : Architectures Orientées Services, Architectures Orientées Ressources, Evolution
130
Bilan 2006–2009 MODAL
Le projet de la thèse concerne l’évolution dans des applications web. Le contexte de travail est celui
de l’entreprise Bitasoft qui développe de telles applications. La problématique adressée est celle de la
récupération et la réutilisation de : (i) données propres aux clients et présentes dans les applications
web et (ii) de modules existants, aussi bien leur code que les informations fournies. Généralement, une
telle réutilisation est rendue difficile par les fortes dépendances liées au web application framework
supportant l’application. L’objectif est d’arriver à traiter ces dépendances mais également de maintenir
en toute transparence la cohérence entre les clients et les fournisseurs lorsque ces derniers évoluent.
Ce travail s’inscrit dans le cadre des ROA (Ressource-Oriented Architecture). Il en est à ses premières
phases.
4.7.2 Contrats et projets institutionnels
METEDI
Début : 2001, durée : 72 mois
Partenaires : P. Tchounikine, LIUM, Université du Mans
Coordinateur : M. Oussalah
Participants : M. Oussalah (resp), M. Oussalah, N. Sadou, D. Tamzalit
Montant équipe : 52 Ke
Montant total : 300 Ke
Mots clés : Enseignement à distance, nouvelles technologies de l’information et de la communication
Le projet METEDI est centré sur l’utilisation des Nouvelles Technologies de l’Information et de la
Communication (NTIC) pour l’enseignement à distance (EAD). L’objectif du projet est de développer
des méthodologies et des technologies permettant de créer et de diffuser des enseignements à distance
via Internet. On s’intéresse en particulier à la problématique de l’interaction (enseignement collaboratif,
systèmes d’aide interactive), qui est une des clés principale de la réussite des formations EAD. L’accent
est mis sur le développement de technologies pouvant faire l’objet de transferts de technologie à brève
échéance, notamment dans le cadre des projets EAD de la Région.
COM
Début : 2001, durée : 60 mois
Partenaires : Equipe OBASCO, Equipe GDD-ATLAS, Equipe COLOSS Coordinateur : M. Oussalah
Participants : M. Oussalah (resp), T. Khammaci, O. Le Goaer, M. Oussalah, N. Sadou, A. Smeda, D.
Tamzalit
Montant équipe : 85 Ke
Montant total : 600 Ke
Mots clés : objets, composants, modèles
– concrétiser la place de Nantes en tant que pôle d’excellence en recherche et en enseignement sur les
thèmes des objets, des modèles et des composants logiciels,
– favoriser et renforcer, au niveau régional, la synergie Universités/Ecoles/Industries dans le but
d’accélérer les transferts technologique dans les différents domaines concernés par les OCM (Objets, Composants et modèles),
– inventer de nouvelles structures pour aider à la valorisation industrielle,
– attirer dans la région les meilleurs enseignants/chercheurs du domaine OCM
– contribuer à la création de PME innovantes dans le domaine des T.I.C.
MODAL
131
4.7.3 Accords de coopération
INEAL
Début : 2008, durée : 36 mois
Partenaires : Laboratoire d’informatique de l’USTHB d’Alger, Irccyn, PHC-Tassili Coordinateur :
M. Oussalah
Participants : M. Oussalah (resp), F. Aoussat, S. Boukhaddouma, S. Hamma, O. Le Goaer, M. Oussalah,
D. Tamzalit
Montant équipe : 52 Ke
Montant total : 52 Ke
Mots clés : composants architecturaux, évolution, procédés logiciels
Contexte : il s’agit d’un accord programme PAI CMEP de coopération inter universitaire francoalgérienne. Le projet est intitulé INEAL pour Ingénierie de l’évolution dans les Architectures Logicielles.
Le projet est d’une durée de 4 ans et a débuté fin juin 2008. Le programme a été établi entre l’équipe
Modal du LINA, Université de Nantes, et le Laboratoire Logiciels et Systèmes Informatiques (LSI) de
l’Université des Sciences et de la Technologie Houari Boumediene (USTHB) d’Alger. L’objectif général
du projet INEAL est de travailler sur un domaine commun d’expertise à savoir l’évolution dans les architectures logicielles à toutes les phases de vie de développement de systèmes complexes. Le thème central
de ces recherches est relatif à l’ensemble des approches et des techniques d’analyse, de spécification,
de conception, de réalisation, de gestion, d’adaptation et de configuration de l’évolution de processus et
d’architectures de systèmes (systèmes logiciels, SI, . . .). Le projet s’intéressera à des systèmes complexes
tels que les systèmes d’enseignement à distance (EAD) et les Systèmes d’Information Géographique
(SIG).
4.8 Rayonnement
4.8.1 Évaluation de la recherche
Comités de rédaction et de lecture
– Revues
– Comités de rédaction et de lecture
– M. Oussalah : Editorial Board for the Special Issue Software Components, Architectures and
Reuse of the Journal of Universal Computer Science (J.UCS),2010
– M. Oussalah : Special Issue Software Components, Architectures and Reuse of the Journal of
Universal Computer Science (J.UCS), vol 11, 2009
– M. Oussalah : Journal of telecommunications, Springer eds, october 2008
– M. Oussalah : IJSEKE : International Journal on Software Engineering and Knowledge Engineering)
– M. Oussalah : Revue Ingénierie des systèmes d’information, vol 14, N2, 2009
– M. Oussalah : Numéro spécial de la revue RSTI-L’Objet ”Architectures logicielles”,Hermes
ed, 2008
– M. Oussalah : Revue ISI, Ingénierie des Systèmes d’Information, numéro spécial ≪ Objets,
Composants et Modèles dans les Systèmes d’Information ≫, 2008.
– M. Oussalah : Numéro spécial de la revue RSTI-L’Objet ”Vues, points de vue, rôles et
paradigmes proches : du concept à son exploitation”, Hermes ed, 2007
– D. Tamzalit : Journal of Software and Systems, JSS, Elsevier, www.elsevier.com/locate/jss,
membre depuis 2010,
132
Bilan 2006–2009 MODAL
– D. Tamzalit : Science of Computer Programming, Elsevier, special issue on Software Evolution, Variability and Adaptability, 2010.
– D. Tamzalit : IEEE Software, www.computer.org/software, special issue software evolution.
2009
– D. Tamzalit : Software and System Modeling, Sosym, http ://www.sosym.org/, special Section on Model Based Interoperability. 2009
– D. Tamzalit : Science of Computer Programming, Elsevier, www.elsevier.com/locate/scico,
special issue on Software Evolution, Variability and Adaptability. 2009
– D. Tamzalit : Revue I3, Information - Interaction - Intelligence, numéro spécial ERTSI ≪ Evolution, Réutilisation et Traçabilité dans les Systèmes d’Information ≫, 2010.
– D. Tamzalit : Revue ISI, Ingénierie des Systèmes d’Information, numéro spécial ≪ Objets,
Composants et Modèles dans les Systèmes d’Information ≫, 2008.
– D. Tamzalit : Revue e-TI, revue francophone en ligne : http ://www.revue-eti.net/, membre
du comité de lecture depuis sa création en octobre 2005.
– Rédacteur invité de numéraux spéciaux
– M. Oussalah : 2010 Rédacteur invité, avec Philippe Lahire, du numéro spécial ≪ La composition d’objets, de composants et de services ≫ , Revue TSI, Editions Hermes à paraı̂tre
2010
Comités de programme
– M. Oussalah : membre du PC de 21th International Conference on Database and Expert Systems
Applications DEXA Bilbao, August 30 September 3, 2010
– M. Oussalah : membre du PC de ECSA 2010 EUROPEAN CONFERENCE ON SOFTWARE
ARCHITECTURE (ECSA 2010) Copenhagen, Danemark August 23-26, 2010
– M. Oussalah : membre du PC de EWCV European Workshop Composition&Variability, en conjonction avec AOSD, Rennes 15-19 mars 2010.
– M. Oussalah : membre du PC de Notere2010, 10ème Conférence Internationale sur les NOuvelles
TEchnologies de la REpartition, Tozeur , Tunisie, 31 Mai-2 juin 2010
– M. Oussalah : membre du PC de INFORSID 2010 Marseille du 25 au 28 mai 2010
– M. Oussalah : membre du PC de International Conférence MICS (Models of Information and
Communication Systems), Rabat, 2-4 novembre 2010
– M. Oussalah : membre du PC de The Third International Conference on Web and Information
Technologies (ICWIT 2010), 16-19 June, 2010, Marrakech - Morocco
– M. Oussalah : membre du PC de 4ème journées francophones CAL, Pau du 9-11 mars 2010
– M. Oussalah : membre du PC de 16 ème journées LMO, Pau du 8-11 mars 2010
– M. Oussalah : membre du PC de 2ème journées Nationales du GDR GPL Pau, 10-12 Mars 2010
– M. Oussalah : membre du PC de WICSA/ECSA Joint Working IEEE/IFIP Conference on Software
Architecture 2009 & European Conference on Software Architecture 2009 The conference for
software architects by software architects , 14 - 17 September 2009, Cambridge, UK
– M. Oussalah : membre du PC de 20th International Conference on Database and Expert Systems
Applications DEXA 2009 August 31 - September 4, 2009 Linz, Austria
– M. Oussalah : membre du PC de ISPS 2009 International Symposium on Programming and Systems (ISPS2009), May 18-20, 2009 at Algiers, Algeria.
– M. Oussalah : membre du PC de JFO 2009 3ème edition des Journées Francophones sur les Ontologies. Futuroscope de Poitiers, les 3 et 4 décembre 2009,
– M. Oussalah : membre du PC de International Workshop on Self-Healing Web Services (SHWS
MODAL
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
133
2009) co-located with the 7th IEEE International Conference on Web Services (ICWS 2009) July
6-10, 2009, Los Angeles, CA, USA
M. Oussalah : membre du PC de CTS 2009 the International Symposium on Collaborative Technologies and Systems May 18-22, 2009 Baltimore, Maryland, USA
M. Oussalah : membre du PC de 3èmejournées francophones CAL, Nancy du 23-27 mars 2009
M. Oussalah : membre du PC de 15ème journées LMO, Nancy du 23-27 mars 2009
M. Oussalah : membre du PC de 1ères Journées Nationales GDR GPL Toulouse, 27-29 janvier
2009
M. Oussalah : membre du PC de ECSA 2008 EUROPEAN CONFERENCE ON SOFTWARE
ARCHITECTURE (ECSA 2008) Paphos, Cyprus September 29 - October 01, 2008
M. Oussalah : membre du PC de CAL 2008 Conférence francophone sur les Architectures Logicielles, Montreal, France 3-7 mars 2008 Canada
M. Oussalah : membre du PC de Notere 2008 8th International Conference on New Technologies
of Distributed Systems (NOTERE 2008) 23- 27 June, 2008, Lyon, France.
M. Oussalah : membre du PC de JFO 2008 2eme Journée francophone sur les ontologies 24, 25 et
26 Novembre 2008 à Lyon.
M. Oussalah : membre du PC de RIMEL, Workshop sur l’évolution & la rétro-ingénierie du logiciel en association avec IDM 2008, Mulhouse – 5 et 6 juin 2008 *
M. Oussalah : membre du PC de CTS 2008 The 2008 International Symposium on Collaborative
Technologies and Systems (CTS 2008) May 19-23, 2008, Irvine, California, USA.
M. Oussalah : membre du PC de ECSA 2007 EUROPEAN CONFERENCE ON SOFTWARE
ARCHITECTURE (ECSA 2007) Madrid, Spain September 24-26, 2007
M. Oussalah : membre du PC de ISPS 2007 Intenational Symposium on Programming and Systems
(ISPS2007), May 7-9, 2007 at Algiers, Algeria.
M. Oussalah : membre du PC de MoDSE 2007 Workshop on Model-Driven Software Evolution
in conjunction with IEEE CSMR 07 -Amsterdam, 20th march 2007
M. Oussalah : membre du PC de JFO 2007 1ère Journée francophone sur les ontologies 18 - 20
Octobre 2007, Sousse, Tunisie
M. Oussalah : membre du PC de CTS 2007 The 2007 International Symposium on Collaborative
Technologies and Systems (CTS 2007) May 21-25, 2007 Orlando, Florida, USA.
M. Oussalah : membre du PC de EWSA 2006 EUROPEAN Workshop ON SOFTWARE ARCHITECTURE (EWSA 2006) Nantes, France September 4-6, 2006
M. Oussalah : membre du PC de CAL 2006 Conférence francophone sur les Architectures Logicielles, Nantes, France September 4-6, 2006
M. Oussalah : membre du PC de Journées Composants 2006 (JC’2006) 5ème conférence francophone autour des composants logiciels Perpignan, 4-6 octobre 2006 Conjointement avec RenPar’17/SympA’2006/CFSE’5.
M. Oussalah : membre du PC de International Conference on Knowledge Sharing and Collaborative Engineering KSCE Virgin Islands, USA , November 16- 18, 2006.
M. Oussalah : membre du PC de LMO : Langages et Modèles à Objets Nimes (mars 2006)
D. Tamzalit : présidente du PC de ≪ Models and Evolution ≫ : joint MoDSE-MCCM 2009 Workshop on Model-Driven Software Evolution (MoDSE) Model Co-Evolution and Consistency Management (MCCM). 12th ACM/IEEE MoDELS Workshops 2009, Denver, Colorad (USA), Octobre
2009, www.modse.fr
D. Tamzalit : présidente du PC de MoDSE 2008, 2nd Workshop on Model-Driven Software Evolution, 12th IEEE European Conference on Software Maintenance and Reengineering, Athens
134
Bilan 2006–2009 MODAL
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
(Greece) April 1-4, 2008, http ://www.lina.sciences.univ-nantes.fr/conf/MoDSE2008/index.html
D. Tamzalit : présidente du PC de MoDSE 2007, 1st Workshop on Model-Driven Software Evolution, 11th IEEE European Conference on Software Maintenance and Reengineering, Amsterdam
(the Netherlands), March 20-23, 2007, http ://www.sciences.univ-nantes.fr/MoDSE2007/
D. Tamzalit : présidente du PC de Atelier RIMEL, dans le cadre des journées IDM, à Toulouse,
http ://idm2007.enseeiht.fr/WorkshopRimel2007.pdf, mars 2007.
D. Tamzalit : membre du PC de Euromicro SEAA conference, special session on Evolution of
Distributed, Internet-based and Service-Oriented applicatioNs EDISON), Lille, Septembre 2010.
D. Tamzalit : membre du PC de Models and Evolution, 4ème édition de l’atelier en soumission,
dans le cadre de la 13ème édition de ACM/IEEE Models, à Oslo, Norvège.
D. Tamzalit : membre du PC de IEEE European Projects Track. CSMR 2009, Kaiserslautern,
Allemagne.
D. Tamzalit : membre du PC de Benevol 2009, Louvain-la-Neuve, Belgique.
D. Tamzalit : membre du PC de MoDISE-EUS’2008, Model Driven Information Systems Engineering : Enterprise, User and System Models, http ://www.irit.fr/MDISE2008/, 16-17 June 2008,
en conjonction avec CAISE 2008 - Montpellier - France.
D. Tamzalit : membre du PC de ERCIM 2007, dans le cadre de la 23e édition de IEEE ICSM,
Paris, France.
D. Tamzalit : membre du PC de 9ème atelier ERTSI (ex-OCM-SI), en conjoncture avec Inforsid
2010, Mai, Marseille 2010.
D. Tamzalit : membre du PC de CAL, 3ème Conférence Francophone sur les Architectures Logicielles, 24 - 25 mars 2009, Nancy.
D. Tamzalit : membre du PC de ERTSI, 8ème atelier ERTSI (ex-OCM-SI), en conjoncture avec
Inforsid 2009, Mars 2009, Toulouse.
D. Tamzalit : membre du PC de LMO, 14ème Conférence Francophone sur les Langages et
Modèles à Objets, Mars 2008, Montréal, Canada.
D. Tamzalit : membre du PC de CAL, 2ème Conférence Francophone sur les Architectures Logicielles, Mars 2008, Montréal, Canada.
D. Tamzalit : membre du PC de Inforsid, 22ème édition d’Inforsid, mai 2008, Fontainebleau.
D. Tamzalit : membre du PC de ERTSI, 7ème atelier ERTSI (ex-OCM-SI), en conjoncture avec
Inforsid, mai 2008, Fontainebleau.
D. Tamzalit : membre du PC de Rimel, atelier du GDR GPL, dans le cadre d’IDM, Toulouse, mars
2007.
D. Tamzalit : membre du PC de ERTSI. 6ème atelier ERTSI (ex-OCM-SI), en conjoncture avec
Inforsid, mai 2007, Perros-Guirec.
D. Tamzalit : membre du PC de CAL, Conférence francophone sur les Architectures Logicielles,
Nantes, France September 4-6, 2006.
D. Tamzalit : membre du PC de Rimel, 1er atelier sur l’évolution du logiciel, en association avec
LMO, mars 2006, Nı̂mes
D. Tamzalit : membre du PC de ERTSI, 6ème atelier ERTSI (ex-OCM-SI), en conjoncture avec
Inforsid, mai 2006, Hammamet, Tunisie.
D. Tamzalit : présidente du OC de CAL 2006 et EWSA 2006, à Nantes.
D. Tamzalit : présidente de session de BENEVOL 2008, The 7th BElgian-NEtherlands software
eVOLution workshop, Eindhoven, Pays-Bas, décembre 2008.
D. Tamzalit : présidente de session de CAL 2008, 3ème,édition de la conférence francophone sur
les architectures logicielles, mars 2008, Montréal, Canada.
MODAL
135
– D. Tamzalit : présidente de session de ECSA 2007, 1ère conférence européenne dédiée aux architectures logicielles, Mardrid, Espagne, Septembre 2007.
– D. Tamzalit : présidente de session de atelier de travail sur l’évolution dans les architectures logicielles, dans le cadre de CAL 2006, Nantes.
– D. Tamzalit : présidente de session de EWSA 2006, workshop européen sur les architectures logicielles, septembre 2006 à Nantes.
4.8.2 Animation de la communauté
Membres de steering committee
– M. Oussalah : membre du SC de ECSA (2007-)
– M. Oussalah : membre du SC de LMO(1994-)
– M. Oussalah : membre du SC de CAL(2006-)
– D. Tamzalit : membre du SC de Models and Evolution - www.modse.fr, (2009-)
– D. Tamzalit : membre du SC de MoDSE (2007 à 2008)
– D. Tamzalit : membre du SC de ERT-SI (2003-)
Conférences invitées
– M. Oussalah : a été en 2009 conférencier invité à : 9th International Symposium on Programming
and Systems à Alger.
– D. Tamzalit : a été invité pour un séjour par Awais Rashid à l’Université de Lancaster, RoyaumeUni, pendant 5 semaines, avril-mai 2009.
– D. Tamzalit : par Tom Mens à l’Université de Mons, Belgique, pendant 6 mois.
– D. Tamzalit : par David Garlan, Professeur à Carnegie Mellon University, pendant 2 semaines en
avril 2008.
– D. Tamzalit : a donné un séminaire invité à Carnegie Mellon University, Pittsburgh, USA, invitée
par David Garlan, en avril 2008.
– D. Tamzalit : a donné un séminaire invité à Université de Louvain-La-Neuve, Belgique, invitée par
Kim Mens en février 2009.
– D. Tamzalit : a donné un séminaire invité à Université de Mons-Hainault, Belgique, en mars 2009.
– D. Tamzalit : a donné un séminaire invité à Université d’Alger en juin 2009.
– D. Tamzalit : ses travaux avec T. Mens on été présenté au prestigieux Dagstuhl Seminar
(http ://www.dagstuhl.de/Materials/index.en.phtml ?09493) en décembre 2009 sur le thème de
l’évolution pour les systèmes critiques.
Participation à des groupes de travail
– M. Oussalah : responsable de Working Group on Computers (2006-)
– M. Oussalah : responsable de GDR-GPL COSMAL (2007-)
– D. Tamzalit : responsable de Evolution, Réutilisation et Traçabilité dans les Systèmes d’Information du GDR I3
– L’équipe participe au GDR GPL : RIMEL
– D. Tamzalit : est membre du groupe ERCIM
– D. Tamzalit : est membre du comité exécutif d’Inforsid depuis 2009.
Expertises de projets
– M. Oussalah : membre du comité scientifique - appel à défis pour les journées du GDR GPL, 2010
136
Bilan 2006–2009 MODAL
– M. Oussalah : expert à l’évaluation de projets ANR, depuis 2007
– M. Oussalah : expert à l’évaluation des chercheurs de l’école d’ingénieurs ESIEE, 2006/2007.
– D. Tamzalit : expert d’un projet de recherche scientifique pour un programme de subventions
≪ programme projet de recherche en équipe ≫ du gouvernement canadien (en 2005/2006).
Participation à des Jurys de thèses
– M. Oussalah : membre du jury de la thèse de H.Y. Zhang, 2010
– M. Oussalah : membre du jury de la thèse de A. Khan, 2010
– M. Oussalah : rapporteur de la thèse de O. Sall, 2010
– M. Oussalah : membre du jury de la thèse de Z. Qayyum, 2009
– M. Oussalah : membre du jury de la thèse de O. Le Goaer, 2009
– M. Oussalah : membre du jury de la thèse de S. Chardigny, 2009
– M. Oussalah : rapporteur de l’HDR de J-P Arcangeli, 2009
– M. Oussalah : rapporteur de la thèse de Ch. Kaboré, 2008
– M. Oussalah : président du jury de la thèse de S. Pavel, 2008
– M. Oussalah : rapporteur de la thèse de M. Grait , 2007
– M. Oussalah : membre du jury de la thèse de G. Bastide , 2007
– M. Oussalah : membre du jury de la thèse de N. Sadou , 2007
– M. Oussalah : rapporteur de la thèse de L. Fabresse , 2007
– M. Oussalah : membre du jury de la thèse de S. Denier , 2007
– M. Oussalah : membre du jury de l’HDR de CH. Choquet, 2007
– M. Oussalah : rapporteur de la thèse de A. Corbiere, 2006
– M. Oussalah : membre du jury de la thèse de A. Smeda, 2006
– M. Oussalah : président du jury de la thèse de C. Tibermacine, 2006
– M. Oussalah : membre du jury de la thèse de E. Khoumeiri, 2006
– M. Oussalah : président du jury de la thèse de G. Bobeff, 2006.
– D. Tamzalit : membre du jury de la thèse O. Le Goaer, 2009
– D. Tamzalit : membre du jury de la thèse S. Chardigny, 2009
– D. Tamzalit : membre du jury de la thèse N. Sadou, 2007
Activités collectives
– M. Oussalah : membre du comité de sélection 27 ème section (PR et MdC), Université de Corté,
2010
– M. Oussalah : président du Comité de Sélection 27 ème section (PR et MdC), UFR des Sciences
de Nantes, 2009
– M. Oussalah : membre de la commission de spécialistes 27 ème section de l’Université de Bretagne
Sud, 2007 à 2008
– M. Oussalah : président de la commission de spécialistes 27 ème section, Université de Nantes
Ecole centrale de Nantes, 2001 à 2007
– M. Oussalah : membre de la commission de spécialistes 27 ème section, Université d’Angers, du
Mans et de Corté.
– D. Tamzalit : deuxième vice-présidente du comité de sélection 27 ème section, 2006 à 2008.
– D. Tamzalit : membre CS titulaire de 2004 à 2008, section 27 Université de Nantes
– D. Tamzalit : membre CS titulaire section 27 Université Bretagne Sud de 2005 à 2008.
– D. Tamzalit : membre élu au Conseil de Laboratoire LINA depuis avril 2008.
MODAL
137
– D. Tamzalit : suppléante au conseil d’administration de l’IUT de Nantes en 2002.
– D. Tamzalit : représentante des enseignants-chercheurs au conseil de direction de l’IUT de 2004 à
2007.
– D. Tamzalit : responsabilité des projets au département informatique de l’IUT et de la licence
professionnelle
– D. Tamzalit : chargée de mission animation et gestion de la vie du LINA de 2004 à 2006.
4.9 Formation par la recherche
Participation aux enseignements
– Etablissements tutelles
– M. Oussalah : Master Recherche ALD (Architectures Logicielles Distribuées) de Nantes
– M. Oussalah : Master Professionnel ALMA de Nantes.
– M. Oussalah : Licence, licence professionnelle et Master I de l’Université de Nantes
– O. Le Goaer, D. Tamzalit : Licence Professionnelle, IUT Nantes
HDR et thèses soutenues sur la période
Nom
O. LE GOAER
S. CHARDIGNY
N. SADOU
G. BASTIDE
A. SMEDA
Publications
[7]
[5]
[18]
[21]
[23]
Thèses
Institution
UN
UN
UN
UN
UN
Soutenance
10/09/2009
23/10/2009
18/12/2007
12/12/2007
06/06/2006
Devenir
MCF UPPA
IR
POSTDOC
IR
MCF U. Tripoli
4.10 Gouvernance
Organisation de l’équipe, animation scientifique Les membres de l’équipe MODAL se rencontrent
régulièrement. En plus des discussions courantes, les thésards ont des rendez-vous hebdomadaires avec
leurs encadrants, ce qui permet un suivi régulier. Par ailleurs, tous les membres de l’équipe (permanents et thésards) sont très actifs dans la communauté des architectures logicielles et des composants. Ils
présentent souvent leurs travaux dans le cadre d’événements scientifiques (GDR GPL, GDR I3, ateliers
nationaux, école d’été, . . .) ce qui leur permet de confronter leurs idées à ceux de la communauté et
participent également à l’organisation d’événements scientifiques (atelier Rimel, CAL, LMO, . . .).
Stratégies de publication La stratégie de l’équipe s’articule principalement autour des 4 volets suivants :
– publier ses résultats de recherche à un niveau international en privilégiant les revues et les
conférences internationales de rang A,
– favoriser les collaborations industrielles : d’abord, elles permettent de valider nos résultats de
recherche en vraie grandeur (par exemple contrat avec Aker Yard), ensuite, elles peuvent générer
de nouveaux problèmes de recherche. Mais compte tenu de la petite taille de l’équipe, pour l’instant il est difficile de s’impliquer en plus dans des projets européens.
138
Bilan 2006–2009 MODAL
– Participer activement à l’animation de la communauté nationale et internationale : au niveau national, lancement et pilotage de la conférence francophone CAL, co-pilotage de LMO, co-pilotage
du groupe de travail COSMAL du GDR GPL, et au niveau européen, organisation de plusieurs
workshops (CV-AOSD, EWSA, MoDSE, ME, Ercim-evolution) et membre du steering committee
de la conférence européenne ECSA.
– Développer des partenariats académiques au niveau national (Valoria, LSR-IMAG, LIRMM, I3S,
LIUPPA) et international (CMU, Univ. Mons, Univ. de Lancaster, USTHB) notamment pour
l’échange de chercheurs et l’accueil de doctorants et postdocs.
L’equipe collabore avec des spécialistes mondiaux dans le domaine des architectures logicielles
(David Garlan) et l’ingénierie de l’évolution (Tom mens).
4.11 Auto-évaluation
Modal a été évalué par les experts de la commission d’évaluation du CNRS en 2008 pour la période
2007-2010. Leurs conclusions citées ci dessous nous ont encouragés à poursuivre :
– ≪ le choix de positionnement thématique de MODAL a beaucoup de sens d’un point de vue
stratégique ≫
– ≪ la force principale de cette équipe réside dans son dynamisme et sa volonté de s’attaquer à des
problèmes difficiles et très pertinents ≫
– ≪ le niveau de publication est très bon, il est même exceptionnel du point de vue du nombre ≫
La force de notre équipe est de pouvoir combiner des bases solides d’un point de vue conceptuel
(résultats validés par des conférences de type A : WICSA, CBSE, SCC..) et de pouvoir les appliquer sur
cas réels (comme par exemple la multi modélisation de systèmes de gaines de ventilation et tuyauteries
dans les chantiers navals). Malgré sa petite taille, l’équipe MODAL joue un rôle moteur dans la communauté Architectures logicielles en pilotant, co-pilotant ou participant aux événements majeurs nationaux
et européens (conférence francophone CAL, conférence européenne ECSA, groupe de travail du GDR
GPL) et en affichant des collaborations avec des équipes internationales renommées (par exemple avec
l’équipe du Professeur David Garlan du CMU-Pittsburg).
La faiblesse la plus évidente de notre équipe est sa petite taille, nous avons donc suivi les suggestions des experts de la précédente commission d’évaluation du CNRS à savoir : fusionner avec l’équipe
COLOSS qui aborde le problème de la construction et de l’évolution des architectures logicielles à
base de composants et de services d’un point de vue spécification et vérification formelles, ce qui est
complémentaire à MODAL dont l’approche recouvre plus la phase de modélisation et de conception.
Ce qui constituerait un continuum dans l’approche et une façon de résoudre le problème du ≪ passage à
l’échelle ≫. De façon plus générale, la création de la nouvelle équipe de par sa masse critique supérieure
permettra d’avoir accès à des verrous scientifiques et des problèmes industriels plus intéressants et de
pouvoir répondre également à des appels d’offres européens et internationaux.
4.12 Projet scientifique 2012-2015
Dans le cadre du nouveau quadriennal, nous présenterons la continuité de nos travaux dans le contexte
de la nouvelle équipe AeLoS.
MODAL
139
4.13 Bibliographie
4.13.1 Publications de référence de l’équipe dans la période
[1] http ://hal.archives-ouvertes.fr/hal-00486128/en/
A. H OCK -K OON et M. O USSALAH. Defining Metrics for Loose Coupling Evaluation in Service
Composition. In Proceeding, SCC 2010 The 7th International Conference on Service Computing
SCC 2010, 2010, États-Unis
[2] http ://hal.archives-ouvertes.fr/hal-00487875/en/
A. H OCK -K OON et M. O USSALAH. Specifying Loose Coupling from existing Service Composition Approaches. In Proceeding, ECSA 2010 4th European Conference on Software Architecture,
2010, Danemark
[3] http ://hal.archives-ouvertes.fr/hal-00457033/en/
A. H OCK -K OON et M. O USSALAH. Composite Service MetaModel. In Proceedings, 18th International Conference on Software Engineering and Data Engineering (SEDE-2009), 2009, Las Vegas,
États-Unis, pages 126–131
[4] http ://hal.archives-ouvertes.fr/hal-00486282/en/
A. A MIRAT et M. O USSALAH. Connector Based Metamodel For Architecture Description Language. Journal of Computer Science, 2009
[5] http ://tel.archives-ouvertes.fr/tel-00456367/en/
S. C HARDIGNY. Extraction d’une architecture logicielle à base de composants depuis un système
orienté objet. Une aproche par exploration. Thèse de doctorat, 2009
[6] http ://hal.archives-ouvertes.fr/hal-00472319/en/
A. A MIRAT et M. O USSALAH. First-Class Connectors to Support Systematic Construction of
Hierarchical Software Architecture. Journal of Object Technology, 2009, 8(7) : 107–130
[7] http ://tel.archives-ouvertes.fr/tel-00459925/en/
O. L E G OAER. Styles d’évolution dans les architectures logicielles. Thèse de doctorat, 2009
[8] http ://hal.archives-ouvertes.fr/hal-00484009/en/
A. A MIRAT et M. O USSALAH. Systematic Construction of Software Architecture Supported by
Enhanced First-Class Connectors. Informatica : An International Journal of Computing and Informatics, 2009, 33(4) : 499–509
[9] http ://hal.archives-ouvertes.fr/hal-00484099/en/
A. A MIRAT et M. O USSALAH. Enhanced Connectors to Support Hierarchical Dependencies in
Software Architecture. In Proceedings of the 8th international conference on New Technologies in
Distributed Systems, (NOTERE 2008), 2008, Lyon, France, pages 252–261
[10] http ://hal.archives-ouvertes.fr/hal-00456002/en/
O. L E G OAER, D. T AMZALIT, M. O USSALAH, et A. S ERIAI. Evolution Shelf : Reusing Evolution
Expertise within Component-Based Software Architectures. In Proceedings of the 32nd Annual
IEEE International Computer Software and Applications Conference, 2008, Turku, Finlande, pages
311–318
140
Bilan 2006–2009 MODAL
[11] http ://hal.archives-ouvertes.fr/hal-00459868/en/
O. L E G OAER, D. T AMZALIT, M. O USSALAH, et A. S ERIAI. Evolution styles to the rescue of
architectural evolution knowledge. In Proceedings of the 3rd International Workshop on Sharing
and Reusing Architectural Knowledge SHARK 2008, 2008, Leipzig, Allemagne, pages 31–36
[12] http ://hal.archives-ouvertes.fr/hal-00456356/en/
S. C HARDIGNY, A. S ERIAI, M. O USSALAH, et D. TAMZALIT. Extraction of Component-Based
Architecture from Object-Oriented Systems. In Seventh Working IEEE/IFIP Conference on Software Architecture (WICSA 2008), 2008, Vancouver, Canada, pages 285–288
[13] http ://hal.archives-ouvertes.fr/hal-00486288/en/
A. S MEDA, M. O USSALAH, et T. K HAMMACI. My Architecture : a Knowledge Representation
Meta-Model for Software Architecture. International Journal of Software Engineering and Knowledge Engineering, 2008, 18(7) : 877–894
[14] http ://hal.archives-ouvertes.fr/hal-00456358/en/
S. C HARDIGNY, A. S ERIAI, D. T AMZALIT, et M. O USSALAH. Quality-Driven Extraction of a
Component-based Architecture from an Object-Oriented System. In 12th European Conference on
Software Maintenance and Reengineering, CSMR 2008, 2008, Athens, Grèce, pages 139–154
[15] http ://hal.archives-ouvertes.fr/hal-00484040/en/
A. A MIRAT et M. O USSALAH. Representation and reasoning models for C3 architecture description language. In Proceedings of the Tenth International Conference on Enterprise Information
Systems (ICEIS’08), 2008, Barcelona, Espagne, pages 207–212
[16] http ://hal.archives-ouvertes.fr/hal-00486290/en/
G. B ASTIDE, A. S ERIAI, et M. O USSALAH. Self-adaptation of Software Component Structures
in Ubiquitous Environments. In Proceeding of the International Conference on Pervasive Services
(ICPS’08), 2008, Sorrento, Italie
[17] http ://hal.archives-ouvertes.fr/hal-00486301/en/
D. T AMZALIT, M. O USSALAH, et N. S ADOU. Component based software architecture : their
evolution through the connectors. International transactions on computer science and engineering,
2007, 39(1)
[18] http ://tel.archives-ouvertes.fr/tel-00488005/fr/
N. S ADOU. Evolution Structurelle dans les Architectures Logicielles à base de composants. Thèse
de doctorat, 2007
[19] http ://hal.archives-ouvertes.fr/hal-00456359/en/
S. C HARDIGNY, A. S ERIAI, M. O USSALAH, et D. T AMZALIT. Extraction of Component-Based
Architecture from Object-Oriented Systems. In the Third International ERCIM Symposium on
Software Evolution, 2007, Paris France
[20] http ://hal.archives-ouvertes.fr/hal-00484842/en/
N. S ADOU, D. T AMZALIT, et M. O USSALAH. SAEV : une solution à l’évolution structurelle des
architectures logicielles. L’Objet, logiciel, base de données, réseaux (RSTI série), 2007, pages
45–80
[21] G. B ASTIDE. Scorpio : une approche d’adaptation structurelle de composants logiciels - Application aux environnements ubiquitaires. Thèse de doctorat, 2007
MODAL
141
[22] http ://hal.archives-ouvertes.fr/hal-00486409/en/
G. B ASTIDE, M. O USSALAH, et A. S ERIAI. Adaptation of Monolithic Software Components by
their Transformation into Composite Configurations Based on Refactoring. In CBSE ComponentBased Software Engineering, 9th International Symposium, CBSE 2006, 2006, Suède. Springer,
2006, volume 4063, pages 368–375
[23] A. S MEDA. Contribution à l’élaboration d’une métamodélisation de description d’architecture
logicielle. Thèse de doctorat, 2006
[24] http ://hal.archives-ouvertes.fr/hal-00486313/en/
A. S ERIAI, G. B ASTIDE, et M. O USSALAH. How To Generate Distributed Software Components
From Centralized Ones ? Journal of Computers, 2006, 1(5)
[25] http ://hal.archives-ouvertes.fr/hal-00459881/en/
M. O USSALAH, D. TAMZALIT, O. L E G OAER, et A. S ERIAI. Updating Styles Challenge Updating
Needs within Component-based Software Architectures. In Proceedings of the Eighteenth International Conference on Software Engineering & Knowledge Engineering SEKE 2006, 2006, San
Francisco, États-Unis, pages 98–101
4.13.2 Bibliographie externe
[26] N. M EDVIDOVIC, D. S. ROSENBLUM, D. F. R EDMILES, et J. E. ROBBINS. Modeling software
architectures in the unified modeling language. ACM Trans. Softw. Eng. Methodol., 2002, 11(1) :
2–57. ACM. ISSN : 1049-331X
[27] D. G ARLAN. Software architecture and object-oriented systems. In Proceedings of the the Information Processing Society of Japan (IPSJ), Object-Oriented Symposium, 2000, Tokyo, Japan
[28] R. A LLEN et D. G ARLAN. A formal basis for architectural connection. ACM Trans. Softw. Eng.
Methodol., 1997, 6(3) : 213–249. ACM. ISSN : 1049-331X
[29] D. E. P ERRY et A. L. W OLF. Foundations for the study of software architecture. SIGSOFT Softw.
Eng. Notes, 1992, 17(4) : 40–52. ACM. ISSN : 0163-5948
Équipe
AeLoS
Chapeau-résumé
Dans le cadre du quadriennal 2012-2015, les équipes COLOSS et MODAL ont formé un nouveau
projet d’équipe. Plusieurs facteurs sont à l’origine de ce rapprochement. Les activités des deux équipes
font partie de la thématique plus large de Génie Logiciel, et certaines des thématiques (services, composants) sont partagées. Un rapprochement fondé sur ces thématiques est suggéré par les experts qui
nous avaient évalué lors du précédent quadriennal. Nous avons alors retenu la sûreté (des logiciels et
de leurs architectures) pour l’intégration et l’interaction concrète entre nos activités. Enfin, l’idée d’un
pôle de génie logiciel fédérant les activités des différentes équipes du laboratoire fait son chemin depuis
2007, on a ici un premier aboutissement avec des enseignants-chercheurs de plusieurs composantes de
l’Université.
Les rapports d’activités des deux équipes COLOSS et MODAL précèdent ce projet scientifique.
Le projet décrit ci-après émane du bilan des activités des deux équipes et de leur projection dans le
futur. Nous rappelons ci-après la composition de la nouvelle équipe avant de présenter le projet scientifique, suivi de quelques références bibliographiques servant de balises de lecture.
5.1 Composition de l’équipe au 1/09/2010
L’équipe AeLoS (Architectures et Logiciels Sûrs) est créée en Juin 2010 sous la responsabilité de
Christian ATTIOGBÉ. Elle va entamer son premier quadriennal, 2012-2015.
143
144
Projet 2012-2015 AeLoS
Permanents au 1/09/2010
Position
MC
MC
PR2
MC
MC
PR
MC
Nom
ANDRE
ARDOUREL
ATTIOGBE
LANOIX
MOTTU
OUSSALAH
TAMZALIT
Prénom
Pascal
Gilles
Christian
Arnaud
Jean-Marie
Mourad
Dalila
Nom
HABRIAS
Prénom
Henri
VAILLY
Alain
Nom
MESSABIHI
HANOUSSE
AMIRAT
AOUSSAT
HOCK-KOON
GHADDAR
Prénom
Mohamed
Abdelhakim
Abdelkrim
Fadila
Anthony
Ali
Institution
UN
UN
UN
UN
UN
UN
UN
Membres associés au 1/09/2010
Position
Institution
PR
UN
MC
UN
Doctorants au 1/09/2010
Position
Institution
A
UN
PdL
UN
Bourse Algérien
UN
Bourse Tassili
France/Algérie
A
UN
Cifre
BitaSoft/LINA
Arrivée
01/09/2003
01/09/2003
01/09/1994
01/09/2008
01/09/2009
01/09/2001
01/09/2002
Remarques
Emerite
Mission Univ. de
Rabat
Arrivée
01/09/2007
01/11/2008
01/03/2007
11/2009
09/2008
10/2009
Constitution de l’équipe
Tous les membres des équipes COLOSS et MODAL deviennent membres de la nouvelle équipe
AeLoS.
5.2 Projet scientifique 2012-2015
Les équipes COLOSS et MODAL ont conjugué leurs efforts pour former une nouvelle équipe
(Architecture et Logiciels Sûrs : AeLoS) dont le projet scientifique s’appuie sur trois thématiques
précises où les compétences des membres sont manifestes. L’accent est mis sur une meilleure articulation de ces thématiques par rapport aux proximités thématiques relevées par les experts lors de la
dernière évaluation (services, composants), aux complémentarités des travaux (approches ascendante et
descendante), sur la conjugaison des moyens pour relever le défi des architectures sûres et du logiciel sûr
à différents niveaux : celui des objets, des services, des composants et des architectures ; l’architecture et
le logiciel sont vus en terme de composition des entités précédentes. L’approche formelle est transversale
et permet d’attaquer le défi de la sûreté aussi bien pour les services, les composants que pour les architectures. A travers la thématique architecture [19, 14, 25, 9, 5] nous considérons une approche descendante
du logiciel ; la thématique composants logiciels [15, 17, 10, 1] couvre elle l’approche montante. Enfin
la thématique multiformalisme et analyse multifacette s’attaque au défi de l’interopérabilité et de l’anal-
AeLoS
145
yse globale [22, 7, 16, 24, 10] du logiciel. Les domaines d’application sont ceux déjà considérés dans
les équipes actuelles : systèmes communicants, fiables ou critiques, systèmes d’information à grande
échelle, logiciels corrects pour l’Internet du futur, systèmes d’intelligence ambiante. Le projet s’intègre
dans son ensemble dans les défis internationaux en cours [18, 17, 24, 13].
5.2.1 Description du projet scientifique et objectifs
La description est déclinée selon les trois thématiques où nous précisons à chaque fois les justifications des choix et nos objectifs précis.
La contribution de notre projet aux Grand challenges (”Verified Softwares” Hoare & Misra ; ”Towards Engineered Architecture Evolution”, Garlan) peut être résumée comme suit : la composition de
composants corrects via des langages d’architecture efficaces, contribue à construire des applications
logicielles correctes. Pour ce faire, différents langages, techniques et outils sont nécessaires à condition qu’ils soient ouverts et interopérables avec d’autres approches. L’intégration des activités (services,
composants, architectures, sûreté) des deux équipes précédentes permet de faire face aux défis.
Styles de conception et d’évolution centrés architectures
Nos travaux visent la conception de nouveaux langages de description et l’évolution d’architectures
logicielles distribuées à base de composants et de services [21, 8, 5]. Les communautés et conférences
scientifiques concernées sont par exemple : ECSA 1 , WICSA 2 .
Motivations pour ces choix Ces travaux s’appuient sur :
– La nécessité d’étendre les concepts de base des ADLs (Architecture Description Languages) pour
prendre en compte explicitement les styles architecturaux ;
– La nécessité de promouvoir un véritable support de réutilisation au niveau de la conception et de
l’évolution ;
– La possibilité de normaliser une famille d’architectures améliorant ainsi la compréhension de l’organisation d’un système ;
– La possibilité d’offrir une meilleure description et comparaison des styles à travers la formalisation
de leurs concepts et leurs mécanismes ;
– La prise en compte d’analyses spécifiques plus ciblées au style concerné.
Objectifs à moyen terme Il s’agit d’étudier, concevoir et développer des systèmes logiciels dynamiques
et évolutifs. Nos recherches s’appuient sur les formalismes d’ADL avec un cadre méthodologique permettant la conception de nouvelles abstractions pour la définition de langages adaptés aux domaines d’application. Les styles architecturaux, en tant qu’abstraction de structure, de comportement et d’évolution
jouent un rôle central et primordial ; ce sont des outils d’un très haut niveau d’abstraction. Les premiers
styles ou styles de base ont émergé naturellement de l’expérience du développement logiciel et en particulier de la conception architecturale. Ils sont utilisés très tôt dans le processus de développement d’un
système logiciel, au début de la conception architecturale.
Plus précisément, notre challenge consiste à offrir un formalisme support pour la modélisation de
styles de conception et d’évolution architecturaux pour les systèmes dynamiques. L’idée est de fournir
une base de styles de fondation comme par exemple, le style client-serveur et le style pipe-filter définis
comme des spécialisations du style composant-connecteur (C&C). Ce formalisme se démarque des lan1. European Conference on Software Architecture
2. Working IEEE/IFIP Conference on Software Architecture
146
Projet 2012-2015 AeLoS
gages orientés architectures existants par sa capacité à décrire la dynamique d’une architecture (création
de nouveaux éléments architecturaux à la volée, changement de la structure, mobilité, etc).
Nos travaux s’attaquent donc à la fois au verrou scientifique de l’élaboration de langages de styles
architecturaux (leur définition, leur extension, leur raffinement, leur composition, leur évolution...) et, au
verrou technologique du développement de ce type de langages à travers les paradigmes de composants et
de services. Cette approche holistique et conceptuelle contribue à faciliter et à améliorer la spécification,
la conception et l’évolution des architectures logicielles distribuées.
Spécification et vérification de composants logiciels
Forts de nos résultats précédents et des voies déjà ouvertes, notre ambition pour le nouveau quadriennal est de proposer des outils expérimentaux, transférables dans le monde industriel, pour mettre en
œuvre la construction par assemblage [12, 15, 6] et raffinements successifs [3, 4, 2] de composants
corrects. En dehors des incontournables conférences internationales FM, FME, ICSE, ESEC/FSE, les
communautés/conférences concernées par cette thématique sont par exemple ICFEM, FACS, SEFM,
ETAPS.
Motivations pour ces choix Plusieurs défis sont à relever : allier l’expressivité des modèles et l’aisance dans leur analyse, la constitution de bibliothèques de composants génériques prouvés, la compositionnalité pour les propriétés globales, l’hétérogénité sémantique, la généricité des modèles et de leur
développement.
Objectifs à moyen terme Nous poursuivons la recherche de méthodes et de techniques de modélisation
et de construction qui garantissent la correction des composants et des logiciels ; pour cela nous visons
des concepts et techniques élégants dans leur définition formelle et simples d’emploi. La plateforme
expérimentale COSTO servira pour la preuve des concepts ; elle sera étendue et continuera à être ouverte
sur d’autres plateformes logicielles pour la vérification de propriétés et la génération de codes mais aussi
pour servir de passerelle avec d’autres formalismes à composants et services. Nous avons pour ambition
de diffuser COSTO dans le domaine public sous licence LGPL par exemple. Les composants seront
implantables dans des environnements d’exécution ciblés ; par exemple des plateformes Java où il existe
des outils de preuve et de test (Esc/Java, ...) qui nous permettront de maintenir la correction des codes
obtenus et adaptés en bout de chaı̂ne de raffinement.
Le défi est entier dans cette voie, complémentaire à celles qui privilégient la vérification des composants logiciels à postériori par les techniques de test ou l’évaluation de modèles (model checking) et qui
valident une certaine construction –par rapport au bugs trouvés– mais ne garantissent pas de construction
correcte convenant aux besoins initiaux.
Nous recherchons donc des moyens pour :
– concevoir, développer ou restructurer des architectures et des systèmes à partir de composants et
services prédéfinis et validés,
– faciliter leur adaptabilité et leur évolution pour offrir de nouvelles fonctionnalités ou de nouvelles
architectures,
– réutiliser par adaptation ou instanciation, des composants génériques dans diverses applications ;
les systèmes embarqués pour le contrôle en domotique en sont un exemple ; nous avons des collaborations sur ces aspects avec des partenaires académiques et industriels (Somfy, ClearSy, Smartesting).
AeLoS
147
Multiformalisme et analyse multifacette
Nous attaquons ici l’analyse ou la correction par construction de systèmes à composants
hétérogènes [16, 11, 12], en allant des phases abstraites où les propriétés globales sont définies, jusque
parfois à la phase d’implantation par des raffinements successifs de certains composants. Les nouvelles
compétences en tests et Ingénierie Dirigée par les Modèles (IDM) vont contribuer à la multimodélisation
et la vérification des propriétés lors des analyses formelles. Cette thématique s’exprime également dans
les communautés/conférences à coloration ”méthodes formelles” précédentes : FM, FME, ICSE, IFM,
ICFEM, ESEC/FSE, FACS, SEFM, ETAPS, ICST.
Motivations pour ces choix Dans ce champ de recherche de grande envergure, mêlant les questions d’hétérogénité sémantique, de compositionalité, d’évolution, nous nous attaquons à un périmètre
spécifique qui est celui de la correction de systèmes globalement asynchrones avec des composants logiciels corrects par construction. Il y a un besoin réel et crucial pour des grands logiciels à structure adhoc.
Objectifs à moyen terme Les objectifs à moyen terme sont de proposer, dans la continuité de nos
résultats actuels, sur la base des fondements théoriques établis et d’outils existants, des méthodes outillées pour la construction ou l’analyse formelle globale de logiciels avec un fort degré d’interaction entre
des composants variés. La vérification par tests de systèmes pair à pair (comme domaine d’application)
sera étudiée de concert avec des collègues de l’équipe GDD.
Nous nous consacrons ici à : (i) l’élaboration des concepts, des mécanismes et des outils multiparadigmes (données, dynamique, interaction, temps) pour maı̂triser l’interopérabilité au niveau
sémantique, la voie de la dérivation systématique croisée (à la manière des connexions de Galois) entre
modèles sera poursuivie ; (ii) l’adaptation des techniques de Rely/Garanty [20] pour l’interaction entre
modèles issus de formalismes différents ; (iii) la définition de piles de modèles sémantiques avec des
interfaces normalisées (à la manière des modèles ouverts qui ont fait leur preuve dans le domaine des
réseaux) en adéquation avec des catégories de logiques ou de modèles.
Les passerelles entre modèles, langages, outils pourront être rigoureusement définis à partir de telles
piles. Nous avions déjà montré dans nos résultats, la faisabilité d’une telle approche (entre algèbres
de processus, B, réseaux de Petri, PVS), il s’agit ici de généraliser l’approche et développer les
expérimentations dans notre plateforme ATACORA. Le domaine de l’ingénierie des modèles peut largement bénéficier de ces approches pour renforcer les aspects sémantiques lors des transformations effectuées sur les modèles, qui restent souvent syntaxiques.
Les défis à relever au niveau de la modélisation ou des spécifications formelles concernent : des
problèmes d’hétérogénéité sémantique relatifs aux méthodes et modèles intégrés ; l’élaboration des environnements d’expérimentation et d’analyse formelle associés (vérification de propriétés globales). Le
dernier recrutement dans l’équipe nous apporte des compétences en tests, qui seront exploitées dans le
volet ”techniques et outils” d’analyse.
5.2.2 Stratégie scientifique : fil conducteur
Le fil conducteur est la recherche de solutions mariant les fondements théoriques et des techniques
pour construire des logiciells sûrs avec des éléments architecturaux, des composants et services prouvés
corrects.
Cette recherche est balisée par les aspects architecturaux et les préoccupations de correction prouvée
telles que exposées dans le contexte mondial des défis informatiques (Verified Softwares : Theories, Tools
and Experiment, Hoare et Misra).
Nous nous efforçons de positionner nos explorations et nos résultats par rapport à ce contexte inter-
148
Projet 2012-2015 AeLoS
national pour assoir leur visibilité. Le recours aux fondements et résultats établis et l’ouverture de nos
expérimentations sur des plateformes éprouvées participent à cette stratégie.
Nous cherchons des solutions pour l’ingénierie des architectures logicielles évolutives ; la formalisation des styles architecturaux pour les systèmes dynamiques et leurs utilisations dans des processus
de développement centrés architectures. Il s’agit de proposer des concepts et des outils favorisant le
développement orienté style de conception et d’évolution architecturale en vue de capturer l’expertise
de conception et d’évolution pour un domaine spécifique. Notre proposition se base sur les différents
outils formels utilisés pour la conception et l’évolution architecturales, au niveau langage de description
d’architectures mais aussi, au niveau langages de méta-modélisation centrés architectures.
Enfin, un paramètre important dans le contexte actuel de la recherche scientifique est la coopération
entre différents partenaires dans des consortiums montés autour des projets souvent à dimension multithématique. Dans cette optique nous veillons à la préservation de nos préoccupations : (1) construire,
structurer, composer et analyser formellement des entités logicielles diverses ; (2) expérimenter et évaluer
à différentes échelles à l’aide de prototypes, des cas d’étude génériques, puis proposer des solutions et des
outils génériques, adaptables à grande échelle à différentes plate-formes académiques ou industrielles.
5.2.3 Facteurs de réussite et de développement
La diversité et la complémentarité des compétences des membres de l’équipe est indéniablement un
facteur important de réussite dans la mesure où nous pouvons ainsi aborder les difficultés techniques sous
différents angles. Le bon équilibre entre les aspects théoriques et pratiques (prototypages) est un de nos
leviers.
Nous sommes impliqués dans différents groupes du GDR GPL et entretenons des collaborations
avec plusieurs équipes au niveau national et quelques unes au niveau international. Ces aspects seront
maintenus et renforcés.
Nous considérons comme acquis le soutien du laboratoire pour accompagner nos projets et nos demandes de financements et de ressources à tous les niveaux (industriels, académiques, institutionnels,...).
Le développement de la nouvelle équipe va se faire en misant aussi sur les partenariats avec d’autres
équipes nationales et internationales, notament dans le cadre de montages et dépôts de projets répondant
aux appels d’offres des agences de moyens.
5.3 Bibliographie
5.3.1 Bibliographie externe
[1] http ://www.mrtc.mdh.se/index.php ?choice=publications&id=2139
I. C RNKOVIC, S. S ENTILLES, A. V ULGARAKIS, et M. C HAUDRON. A classification framework
for software component models. IEEE Transaction of Software Engineering, 2010, Submitted for
publishing : 1–25. IEEE
[2] T. S. H OANG, H. K URUMA, D. A. BASIN, et J.-R. A BRIAL. Developing Topology Discovery in
Event-B. Sci. Comput. Program., 2009, 74(11-12) : 879–899
[3] T. S. H OANG, A. F URST, et J.-R. A BRIAL. Event-B Patterns and Their Tool Support. In D. V.
H UNG et P. K RISHNAN, réds., SEFM, 2009. IEEE Computer Society, 2009, pages 210–219. ISBN :
978-0-7695-3870-9
AeLoS
149
[4] D. C ANSELL, D. M ÉRY, et C. P ROCH. System-on-chip design by proof-based refinement. STTT,
2009, 11(3) : 217–238
[5] S. C HAKI, A. D IAZ -PACE, D. G ARLAN, A. G ARFUNKEL, et I. O ZKAYA. Towards Engineered
Architecture Evolution. In Workshop on Modeling in Software Engineering 2009, 2009
[6] http ://hal.archives-ouvertes.fr/hal-00423639/en/
P. A NDRE, G. A RDOUREL, et C. A TTIOGB É. Composing Components with Shared Services in
the Kmelia Model. In Cesare P AUTASSO et Eric T ANTER, réds., 7th International Symposium
on Software Composition (SC’2008), 2008, Budapest Hongrie. Springer, 2008, volume 4954 of
Lecture Notes in Computer Science, pages 125–140
[7] L. C RUZ -F ILIPE, A. S ERNADAS, et C. S ERNADAS. Heterogeneous fibring of deductive systems
via abstract proof systems. Logic Journal of the IGPL, 2008, 16(2) : 121–153
[8] D. G ARLAN. Software Architecture. In B. W. WAH, réd., Wiley Encyclopedia of Computer Science
and Engineering. John Wiley & Sons, Inc., 2008
[9] I. G ORTON. Software architecture challenges for data intensive computing. Software Architecture,
Working IEEE/IFIP Conference on, 2008, 0 : 4–6. IEEE Computer Society. ISBN : 978-0-76953092-5
[10] P. C HALIN. A sound assertion semantics for the dependable systems evolution verifying compiler.
In ICSE ’07 : Proceedings of the 29th international conference on Software Engineering, 2007,
Washington, DC, USA. IEEE Computer Society, 2007, pages 23–33. ISBN : 0-7695-2828-7
[11] T. A. H ENZINGER et J. S IFAKIS. The embedded systems design challenge. In J. M ISRA, T. N IP KOW , et E. S EKERINSKI, réds., FM, 2006. Springer, 2006, volume 4085 of Lecture Notes in Computer Science, pages 1–15. ISBN : 3-540-37215-6
[12] A. BASU, M. B OZGA, et J. S IFAKIS. Modeling Heterogeneous Real-time Components in BIP. In
SEFM ’06 : Proceedings of the Fourth IEEE International Conference on Software Engineering
and Formal Methods, 2006, Washington, DC, USA. IEEE Computer Society, 2006, pages 3–12
[13] G. T. L EAVENS, J.-R. A BRIAL, D. BATORY, M. B UTLER, A. C OGLIO, K. F ISLER, E. H EHNER,
C. J ONES, D. M ILLER, S. P EYTON -J ONES, M. S ITARAMAN, D. R. S MITH, et A. S TUMP.
”roadmap for enhanced languages and methods to aid verification”. In GPCE ’06 : Proceedings
of the 5th international conference on Generative programming and component engineering, 2006,
New York, NY, USA. ACM, 2006, pages 221–236. ISBN : 1-59593-237-2
[14] P. K RUCHTEN, H. O BBINK, et J. S TAFFORD. The Past, Present, and Future of Software Architecture. IEEE SOFTWARE, 2006, 0 : 22–30. IEEE Computer Society
[15] G. G ÖSSLER et J. S IFAKIS. Composition for Component-based Modeling. Sci. Comput. Program.,
2005, 55(1-3) : 161–183
[16] B. K. A ICHERNIG, H. J IFENG, Z. L IU, et M. R EED. Integrating theories and techniques for program
modelling, design and verification. In Meyer et Woodcock [23], 2005
[17] L. de M OURA, S. OWRE, H. RUESS, J. RUSHBY, et N. S HANKAR. Integrating verification components. In Meyer et Woodcock [23], 2005
[18] J.-R. A BRIAL. On Constructing Large Computerized Systems (a position paper). In Meyer et
Woodcock [23], 2005
[19] M. S HAW. The coming-of-age of software architecture research. In ICSE ’01 : Proceedings of
the 23rd International Conference on Software Engineering, 2001, Washington, DC, USA. IEEE
Computer Society, 2001, page 656. ISBN : 0-7695-1050-7
150
Projet 2012-2015 AeLoS
[20] T. A. H ENZINGER, S. Q ADEER, et S. K. R AJAMANI. Decomposing Refinement Proofs using
Assume-guarantee Reasoning. In Proceedings of the International Conference on Computer-Aided
Design (ICCAD), 2000. IEEE Computer Society Press, 2000, pages 245–252
[21] D. G ARLAN. Software Architecture : a Roadmap. In ICSE - Future of SE Track, 2000, pages
91–101
[22] Y. K ALFOGLOU, W. M. S CHORLEMMER, A. P. S HETH, S. S TAAB, et M. U SCHOLD, réds. Semantic
Interoperability and Integration, volume 04391 of Dagstuhl Seminar Proceedings. IBFI, Schloss
Dagstuhl, Germany
[23] B. M EYER et J. W OODCOCK, réds. volume 4171 of Lecture Notes in Computer Science. Springer.
ISBN : 978-3-540-69147-1
[24] N. S HANKAR et J. W OODCOCK, réds. volume 5295 of Lecture Notes in Computer Science.
Springer. ISBN : 978-3-540-87872-8
[25] R. N. TAYLOR, N. M EDVIDOVIC, et E. DASHOFY. Software Architecture : Foundations, Theory,
and Practice. Wiley, John & Sons, Incorporated, 2009
Équipe
GDD
Chapeau-résumé
Le fil directeur des recherches menées dans l’équipe est la gestion de données dans des systèmes
largement distribués comme le Web ou les systèmes pair-à-pair. Dans de tels contextes, les évolutions
importantes des données, des systèmes et des applications font que la gestion de données dépasse largement le cadre traditionnel des systèmes de gestion de bases de données (SGBD). En premier lieu, les
données sont devenues bien plus riches et plus complexes, que ce soit par leurs formats (p. ex. objets,
semi-structuré, textes non structurés) ou par leur contenu (p. ex. imprécision, incertitude), leur volume
et l’association de méta-informations. En second lieu, les applications doivent passer à l’échelle de sorte
à pouvoir gérer des utilisateurs distribués. Enfin, les sources d’informations, et plus généralement les
ressources dont dépend le système, sont typiquement en grand nombre, autonomes et hétérogènes.
Pour proposer et valider de nouvelles solutions présentant des avantages significatifs en termes
de fonctionnalités et de performances, nous avons focalisé nos efforts sur a) l’ingénierie des modèles
qui en élevant le niveau d’abstraction des données offre des solutions génériques et flexibles, b) le
développement d’algorithmes et de services pour la gestion de données en environnement distribué
(réplication, cache, requêtes complexes, etc.), c) la gestion de données pour des participants autonomes,
hétérogènes et ayant des intérêts différents (médiation, confidentialité, etc.), d) le test de systèmes distribués. Enfin, nous avons aussi mené des travaux sur la gestion de données dans le contexte d’ordinateurs
151
152
Bilan 2006–2009 et projet 2012-2015 GDD
multi-cœurs avec une approche mariant transactionnel et temps réel, car nous pensons que cela peut avoir
un impact important sur les systèmes multi-cœurs et, à plus long terme, sur les systèmes distribués.
6.1 Composition de l’équipe au 30/06/2010
Nom
Akbarinia
Busnel
Cazalens
Lamarre
Nachouki
Queudet
Serrano
Sunye
Prénom
Reza
Yann
Sylvie
Philippe
Gilles
Audrey
Patricia
Gerson
Nom
Cerqueus
Dedzoe
Jawad
Sarni
Tlili
Trung
Prénom
Thomas
William
Mohamed
Toufik
Mounir
Vu Duc
Nom
Ventresque
Dedzoe
Tlili
Sarfraz
Lakil
Permanents au 30/06/2010
Position
Institution
CR2
INRIA
MC
UN
MC
UN
MCHC-HDR-DEL
UN - INRIA
MC
UN
MC
UN
MC
UN
MC
UN
Arrivée
01/01/2009
01/09/2009
01/09/1993
01/09/1993
01/01/1996
01/09/2007
01/09/2005
01/09/2002
Doctorants au 30/06/2010
Position
AM
CNRS
CNRS/Région
CNRS/Région
Projet Miles
INRIA-PdL
Arrivée
01/09/2009
12/12/2008
01/10/2007
16/10/2008
01/10/2008
05/01/2010
Institution
UN
CNRS
CNRS
CNRS
UN
INRIA
Personnels temporaires sur la période 2006-2010
Prénom
Position
Institution
Arrivée
Anthony
ATER
UN
01/09/2008
Ingénieur
William
INRIA
01/12/2007
Expert ATLAS
Ingénieur
Mounir
INRIA
01/02/2007
Expert ATLAS
Ingénieur
Ashbag
INRIA
01/02/2007
Expert ATLAS
Brahim K
Ingénieur R&D
INRIA
01/10/2007
Départ
31/08/2009
31/08/2008
30/11/2008
30/11/2007
30/09/2008
Évolution de l’équipe sur la période 01/01/2006-30/06/2010
Départs par ordre chronologique :
En 2008, l’activité d’ingénierie des modèles a pris son autonomie et se développe depuis dans
l’équipe AtlanMod commune à l’EMN et à l’INRIA. Jean Bézivin qui est à l’origine de cette activité
a naturellement quitté l’équipe GDD pour en assurer la direction.
En septembre 2009, Esther Pacitti a été promue Professeur à Montpellier, et Patrick Valduriez a muté
à l’INRIA Sophia Antipolis Méditerranée.
Arrivées par ordre chronologique :
GDD
153
Audrey Queudet a été recrutée sur un poste MC de la FST en 2007 et a ouvert une nouvelle
thématique : la gestion de données en temps réel dans le cadre d’architectures matérielles multi-cœurs
par mémoires transactionnelles.
Reza Aknarinia a été recruté sur un poste de CR INRIA en 2008. Ses recherches portent principalement sur la confiances envers les données avec une approche fondée sur les bases de données probabilistes.
Yann Busnel a été recruté en septembre 2009 sur un poste de MC de la FST. Ses compétences portent
sur les systèmes d’information sans fil, les protocoles de population, les algorithmes gossip, les systèmes
pair-à-pair à large échelle.
6.2 Faits marquants 2006-2010
Structuration et thèmes de recherche Notre objectif général est de proposer et valider de nouveaux
systèmes présentant des avantages significatifs en terme de fonctionnalités et de performances pour la
gestion de données en environnement largement distribué. Pour répondre à cette attente, nous avons
abordé le problème sous plusieurs angles.
1. L’ingénierie des modèles, qui permet une abstraction importante par rapport aux données et aux
systèmes, constitue une piste que nous avons suivie dans l’objectif offrir des solutions génériques
et flexibles pour la conception de systèmes d’informations large échelle.
2. La gestion de données en environnement distribué a plusieurs facettes : la répartition et le positionnement des données dans le système, la disponibilité des données, le traitement efficace des
requêtes. Nous nous sommes intéressés à ces différents problèmes dans toute leur généricité en
proposant des solutions basées sur la réplication et des techniques de recherche efficaces.
3. Le contexte du Web, mais aussi celui des système pair-à-pair, nous a conduit à nous intéresser aux
systèmes intégrant des participants autonomes. Cette autonomie a bien évidemment une incidence
sur l’hétérogénéité des participants et des données qu’ils manipulent. Lorsque le système est bâti en
utilisant les ressources de ses participants, il peut s’avérer indispensable de prendre en compte les
divergences d’objectifs entre les participants. Les notions d’intérêt des participants, de confiance,
et de confidentialité deviennent alors centrales.
4. Enfin, le test, et plus généralement l’évaluation, des systèmes distribués est une thématique sur
laquelle nous avons travaillé. Il est indispensable que nous puissions vérifier et évaluer les systèmes
que nous proposons, mais cette démarche est aussi incontournable pour comparer différents
systèmes, mettre en lumière leurs limites et les évolutions nécessaires.
Publications majeures de l’équipe sur la période
1. International Conference on Very Large DataBases (VLDB) 2007 [33, 22]
2. International Conference on Management of Data (SIGMOD) 2007 [34]
3. Distributed and Parallel Databases 2009 [5]
4. Journal of Grid Computing 2007 [38]
5. Very Large Data Bases Journal (VLDBJ) 2009 [15]
154
Bilan 2006–2009 et projet 2012-2015 GDD
Prix et récompenses, organisation de conférences majeures, conférences invitées
– L’article [27] a été nominé (top 4) pour le titre de meilleur article à la conférence ESWC’08.
– L’article [14] a reçu le prix du meilleur article en 2009 à la conférence “Colloquium of Computation : Brazil / INRIA, Cooperations, Advances and Challenges (COLIB RI)”.
– P. Valduriez a été ≪general chair≫ de VLDB 2009 (Lyon, France).
– Les équipes GDD et GRIM ont conjointement organisé la conférence EDBT 2008 (Nantes,
France). P. Valduriez a été ≪general chair≫ de EDBT 2008 (Nantes, France).
Tableau récapitulatif
ACL
21
ACLN
8
ASCL
0
Récapitulatif des publications par catégorie
BRE INV ACTI ACTN COM AFF
0
0
33
54
2
0
OS
23
OV
0
DO
1
AP
13
6.3 Fondements scientifiques
De manière très générale, la gestion de données fait intervenir le stockage des données, leur organisation, leur manipulation et leur recherche. Ces problématiques sont posées dans des cadres qui peuvent
aller d’applications très simples aux plus complexes avec des volumes de données pouvant varier de
quelques kilo-octets à plusieurs tera-octets. Les avancées les plus significatives dans ce domaine ont
donné naissance aux Systèmes de Gestion de Bases de Données (SGBD) basés sur la possibilité de manipuler les données à un niveau d’abstraction permettant d’ignorer les détails d’implémentation. L’introduction du schéma relationnel, qui s’appuie sur la théorie des ensembles et la logique, et la proposition de
langages offrant la possibilité d’interroger et de manipuler les données via un langage de haut niveau tel
que SQL, sont les deux piliers sur lesquels s’appuie cette approche. L’introduction de méta-modèles, de
la gestion des schémas, de la gestion de la cohérence via des règles d’intégrité et des triggers, du modèle
transactionnels sont autant d’autres points qui permettent d’obtenir des outils génériques et efficaces.
La recherche dans ce domaine a été longtemps centrée sur l’élaboration de théories pour la gestion
des bases de données (normalisation des schémas, langages d’interrogation, optimisation de requêtes,
complexité, des algorithmes de gestion, modèle transactionnel, etc.) avec pour objectif principal l’obtention d’outils de gestion de bases de données efficaces et génériques. Cette généricité devait permettre à un
seul et même outil de s’appliquer à tous les problèmes : des transactions aux problèmes à l’informatique
décisionnelle.
A l’heure actuelle, la possibilité d’obtenir un outil, unique et performant en tous points, semble
être battue en brèche. De plus, le domaine de la gestion de données s’est largement ouvert à d’autres
problématiques qui sont liés à la nécessité de travailler avec des données de types très différents (audio,
image, vidéo, streams, etc.) dans des environnements hautement distribués intégrant des ressources très
hétérogènes reliées en réseau (des ordinateurs centraux hyper puissants, aux PDAs en passant par des
fermes de PC). De plus, ces ressources peuvent appartenir à des propriétaires différents qui souhaitent
souvent conserver une certaine autonomie à la fois les uns envers les autres, et aussi, envers le système
ainsi produit. Pour proposer des réponses aux problèmes de disponibilité des données et de recherche
efficace, nous capitalisons sur les fondations scientifiques concernant plus particulièrement la gestion
de données en mode réparti et le test en distribué. De même, pour répondre aux problèmes liés à la
constitution de systèmes intégrant des participants autonomes (confiance envers les données, besoin de
GDD
155
maı̂triser ses données, etc), nous capitalisons aussi sur les domaines des bases de données distribuées, la
gestion de l’hétérogénéité sémantique, la confidentialité, etc.
6.3.1 Gestion transparente des données en environnement distribué
Les bases de données distribuées offrent une solution pour accéder et mettre à jour plusieurs bases
de données disponibles via le réseau. Le principe général consiste à cacher les disparités locales par
un schéma global. Un serveur central supporte ce schéma ainsi que des techniques liées à la distribution
(traitement de requêtes, gestion des transaction, gestion de la consistance, etc.) ce qui permet d’utiliser un
langage de requête de haut niveau (p. ex SQL). Cette solution est très efficace, mais ne s’adresse qu’à des
applications ne nécessitant qu’une dizaine de bases de données différentes. Des systèmes d’intégration
de données, en se basant sur le même schéma, offrent des solutions pour accéder à un plus grand nombre
de sources (quelques centaines), mais en lecture seulement.
Les bases de données parallèles exploitent le partitionnement des bases de données pour les combiner
avec les capacités d’un système multi-processeur ou un cluster de machines. Elles améliorent ainsi les
performances (traitement de requêtes, temps de transaction). Cependant, comme l’approche précédente
elles reposent sur l’utilisation d’un schéma global et de fortes hypothèses sur le réseau.
Au contraire, les réseaux pair-à-pair adoptent une approche totalement décentralisée pour le stockage
des données sans effectuer aucune des hypothèses précédentes ni nécessiter l’usage d’un serveur central
puissant pour passer à l’échelle. Des systèmes très populaires (Gnutella, Kaaza, etc.) ont ainsi pu voir
le jour. Ils permettent à des millions d’utilisateurs de partager des peta-octets de données. Cependant,
cela reste des systèmes relativement simples dont la principale fonction est le partage de fichiers, avec
des fonctions de recherche assez limitées (par exemple mots clés). Les premières recherches ont principalement été centrées sur l’amélioration des performances du routage des requêtes dans les systèmes
non structurés. Cela a débouché sur des solutions hybrides utilisant des super-pairs disposant d’index
décrivant les contenus des pairs de leur communauté, et sur des solutions structurées implémentant des
tables de hachage distribuées (DHT), par exemple CAN [60]. Bien que les améliorations apportées soient
notables, il n’en demeure pas moins qu’il reste de nombreuses recherches à mener dans ce domaine.
D’autres travaux ont porté sur des contextes plus riches sémantiquement ou structurellement (documents XML, tables relationnelles, etc.). Ils tentent de tirer partie des méta-informations apportées par la
sémantique ou la structure pour améliorer les performances ou offrir des services plus riches. L’échelle
du réseau considéré, l’autonomie des participants, leurs natures différentes, sont autant de difficultés
auxquelles il faut apporter des réponses. Les techniques utilisées en bases de données pour exploiter le
schéma et le réseau ne peuvent s’appliquer à un tel contexte. De nouvelles techniques adaptées à cet
environnement doivent donc être développées.
6.3.2 Intégration de participants autonomes
L’autonomie des participants est une caractéristique qui se rencontre de plus en plus fréquemment,
en particulier dans les réseaux à large échelle. Elle renforce certains des problèmes déjà présents
(hétérogénéité, confiance envers les données, etc.) et en induit de nouveaux (confidentialité, différence
d’objectifs entre les participants, etc.).
La gestion d’un grand nombre de données avec différents nivaux de contrôle et de qualité soulève
le problème de l’incertitude des données dans de nombreuses applications. Les bases de données probabilistes (PDBMS) proposent de gérer ce problème en associant des valeurs probabilistes aux données,
au niveau des tuples ou au niveau des attributs suivant les approches. En environnement centralisé, dans
156
Bilan 2006–2009 et projet 2012-2015 GDD
les deux cas, l’évaluation des requêtes utilisant ces valeurs est un problème difficile. La distribution des
données ne fait qu’accroı̂tre cette difficulté et les spécificités de cet environnement font que bien des
solutions envisagées en centralisé ne sont plus applicables.
Le problème de l’hétérogénéité est particulièrement accentué lorsque les participants proviennent
d’horizons différents, sont autonomes et participent à plusieurs systèmes. Une solution consiste alors à
franchir un pas d’abstraction supplémentaire pour passer du niveau des données au niveau sémantique.
L’idée directrice est de fournir des méta-informations qui facilitent les communications. De nombreux
efforts ont donc été portés dans le domaine des ontologies sur la description de concepts, des relations
qui les lient et des raisonnements qu’il est possible de mener, ce qui constitue les fondations du web
sémantique. La sémantique, en offrant un support de représentation et d’abstraction des informations,
peut permettre d’améliorer la pertinence des résultats obtenus en recherche d’information, mais aussi
avoir un rôle important dans le routage des requêtes, par exemple en servant de support pour classer informations et participants et ainsi mieux organiser le réseau. Malheureusement, la sémantique ne fait pas
exception, et elle peut être sujette au problème d’hétérogénéité. Différentes représentations sémantiques
peuvent être utilisées par les participants. La mise en place d’alignements entre ontologies permet d’apporter une première solution au problème. Le challenge est alors d’obtenir un infrastructure sémantique
qui améliore les résultats des recherches des utilisateurs tant en performance qu’en efficacité.
La plupart des systèmes de gestion d’information distribués sont principalement utilisés pour partager
des informations publiques, ou du moins accessibles par tous les participants au système (par exemple
Kazaa [58], Gnutella [57]). Cette limitation est due au manque de gestion de la confidentialité et plus
généralement de la sécurité dans ces systèmes. Pour qu’ils puissent envisager d’être utilisés pour des
applications plus complexes et d’application plus large, par exemple dans un cadre professionnel, la
prise en compte de la confidentialité est nécessaire, mais c’est un challenge difficile.
6.4 Applications et enjeux
Le web 2.0 met en relation des millions de personnes produisant et maintenant des contenus. Les
réseaux sociaux comme FaceBook ou MySpace, les moteurs d’indexation comme Google ou Yahoo, les
réseaux P2P comme eDonkey ou bittorrent gèrent des volumes de données sans précédant dans l’histoire
de l’humanité. Tous ces piliers de l’Internet moderne utilisent des gestionnaires de données distribuées
sur des clouds, des grilles ou des réseaux P2P. Ces gestionnaires de données distribuées créent un bien
être social en permettant l’accès aux données au plus grand nombre. Ils ont un impact économique important avec les capitalisations boursières de sociétés phares comme Google, Yahoo, Amazon, FaceBook.
Ils contribuent à une révolution industrielle importante dans le domaine des STIC notamment avec l’arrivée de l’informatique dans les nuages. La compréhension et la maı̂trise des prochaines technologies en
matière de partage de connaissances est incontournable pour l’émergence de nouveaux acteurs industriels
de portée mondiale.
Les méthodes de travail subissent actuellement de nombreuses mutations. Il est en particulier de plus
en plus fréquent que plusieurs personnes distantes collaborent sur un sujet particulier. Wikipedia est un
exemple où le nombre de personnes concernées par le projet est particulièrement important (potentiellement toutes les personnes connectées à internet). De telles solutions peuvent trouver des applications
dans les milieux industriels ou personnels. La mise en œuvre de solutions entièrement distribuées peut
favoriser la pénétration de ces applications dans ces publics. En effet, elle peut leur éviter de devoir
recourir à un tiers fournissant un serveur puissant, l’application étant supportée par les moyens informatiques dont les participants disposent déjà.
GDD
157
Avec les réseaux sociaux, le partage d’information subit actuellement une nouvelle accélération qui a
des conséquences tant au niveau personnel que professionnel. Là encore, le recours à un tiers assurant la
diffusion et la disponibilité des informations est actuellement nécessaire. La mise en place de solutions
entièrement distribuées pourrait là aussi éviter ce tiers. Elle serait aussi l’occasion naturelle de prendre
en compte la confidentialité des données, le contrôle de leur diffusion et de leur usage, autant de points
qui devraient retenir une attention de plus en plus importante de la part des différents acteurs, et qui, s’ils
sont mal adressés, peuvent être sources de problèmes divers et variés.
Enfin, le partage d’informations est une pierre angulaire du Web. Les informations constituent une
ressource importante, mais le Web permet d’accéder et de partager d’autres ressources telles que le
stockage, le calcul et les services. La constitution de systèmes basés sur les ressources des participants
est donc envisageable et possible s (p. ex. le calcul volontaire). Cependant, cela suppose de prendre en
compte quelques particularités dont le fait que les ressources utilisées ne sont pas la propriété du système
ainsi construit, mais restent, in fine, sous le contrôle de leurs propriétaires initiaux. Il peut donc s’avérer
peu judicieux de gérer ces ressources, comme dans un système classique (approche maı̂tre/esclave), sans
tenir compte de cette particularité.
6.5 Nouveaux résultats pour la période 2006-2010
L’équipe GDD a développé des approches originales et a réalisé des percées fondamentales dans
le domaine des données distribuées avec des publications de tout premier plan principalement dans la
communauté des bases de données.
– Les résultats sur la médiation et la satisfaction sont importants dans le sens où ils illustrent clairement comment un système peut s’adapter aux intentions des utilisateurs (cf section 6.5.1).
– Les résultats sur les requêtes top-k proposent une idée simple et efficace pour améliorer les performances de ces requêtes dans des environnements distribués (cf section 6.5.2).
– Les résultats sur l’accès aux données en contexte sémantiquement hétérogène explorent une nouvelle voie dans le domaine du web sémantique distribué sur réseau pair-à-pair (cf section 6.5.3)
– Les résultats sur la protection de la vie privée adressent un problème important de société. L’approche suivie par GDD adapte le modèle des bases de données hippocratiques à un environnement
décentralisé (cf section 6.5.4).
6.5.1 Médiation
Participants : Philippe LAMARRE, Jorge QUIANÉ-RUIZ, Sylvie CAZALENS, Sandra LEMP,
Gilles NACHOUKI, Patrick VALDURIEZ
Dans le domaine des systèmes distribués ouverts, c’est l’espoir de pouvoir réaliser des objectifs
qui motive un pair pour participer à un système. Dans la mesure où différents participants peuvent avoir
différents objectifs, pour espérer attirer le plus possible de participants potentiellement complémentaires,
l’hypothèse normative que tous les participants partagent le même profil et les mêmes attentes est bien
trop restrictive. Au contraire le système doit permettre à chacun d’interagir en fonction de leurs objectifs
individuels.
Nous avons défini un modèle qui caractérise la satisfaction sur le long terme des participants (utilisateurs et fournisseurs) dans un système d’allocation. Nous avons aussi proposé des techniques d’allocation
flexibles dont SbQA basée sur les intentions des participants et qui les satisfait sur le long terme. Un particularité de notre solution est qu’elle s’adapte dynamiquement aux intérêts des différents participants.
158
Bilan 2006–2009 et projet 2012-2015 GDD
Les résultats expérimentaux montrent que notre modèle permet une évaluation des méthodes d’allocation
adaptée à de tels environnements. Enfin, notre approche a été implémenté et évaluée expérimentalement.
Les résultats montrent que la solution que nous proposons pour l’allocation apporte des améliorations
très significatives du point de vue de la satisfaction des participants.
Ces travaux ont donné lieu à plusieurs publications dont une dans la conférence VLDB[46], une dans
la revue IJCIS [31] et une dans la revue VLDB Journal [15].
6.5.2 Requêtes de type top-k en environnement largement distribué
Participants : Reza AKBARINIA, William DEDZOE, Philippe LAMARRE, Patrick VALDURIEZ
Dans un environnement largement distribué, une seule requête peut produire un tel nombre de
résultats que le réseau peut s’en trouver saturé et l’initiateur submergé. Une solution consiste à utiliser
des requêtes de type top-k qui permet à l’utilisateur de spécifier le nombre maximal de réponses qu’il
souhaite recevoir. Celles-ci sont sélectionnées à partir d’une fonction de score qui qualifie la pertinence
d’une réponse par rapport à une requête. Nous avons proposé une famille d’algorithmes simples et efficaces permettant de répondre à ce problème en environnement distribué.
Ces travaux ont donné lieu à plusieurs publications dont une dans la conférence VLDB [33].
6.5.3 Accès aux données en contexte sémantiquement hétérogène
Participants : Philippe LAMARRE, Sylvie CAZALENS, Anthony VENTRESQUE, Patrick VALDURIEZ
Notre objectif est de fournir un système offrant le plus d’autonomie possible à ses participants en
leur permettant en particulier de développer leurs propres représentations sémantiques qui sont souvent difficile à construire mais considérées comme une valeur ajoutée importante. La participation à un
système ne doit pas les conduire à abandonner ou à sous-utiliser cet investissement. En nous basant sur
les alignements entre ontologies, nous allons au delà de l’utilisation des parties mises en correspondance
en permettant à un participant d’utiliser son ontologie dans son ensemble que ce soit pour exprimer les
requêtes ou y répondre.
Notre approche qui est basée sur trois étapes intuitives (explication des concepts de la requête, interprétation de l’explication, adaptation de la représentation des documents à la requête) a été étudiée
dans le domaine de la recherche d’information. Les expérimentations ont montré que cette approche
améliore de manière très significative les résultats obtenus en environnement sémantique hétérogène.
Ces travaux ont donné lieu à plusieurs publications dont une dans la conférence ESWC [27] qui a été
nominée pour le meilleur article (top 4).
6.5.4 Confidentialité des données
Participants : Patricia SERRANO-ALVARADO, Mohamed JAWAD, Patrick VALDURIEZ
Les communautés en ligne, et plus particulièrement les communautés professionnelles, proposent
des solutions intéressantes répondant au besoin de plus en plus important de diffusion et de partage
d’informations. Cependant, les solutions actuelles offrent des services limités en ce qui concerne la confidentialité des données. Cela constitue un obstacle qui leur interdit de s’appliquer à des applications
nécessitant diffusion et partage d’information mais où la confidentialité est importante (p. ex. communautés médicales ou de recherche). Les bases de données hippocratiques [59], guidées par certains
principes de l’OCDE [61], fournissent des mécanismes qui, dans un environnement centralisé, permettent
GDD
159
de spécifier l’accès aux données. Des politiques de confidentialité et d’autorisation, méta-informations
liées à chaque attribut, tuple ou table, déterminent l’usage qui peut en être fait. L’autorisation d’accès et
la période durant laquelle un utilisateur est en droit de conserver cette donnée dépend de ses droits mais
aussi de l’usage qu’il compte faire de la donnée.
Nous proposons une solution qui applique les principes utilisés dans les bases de données hippocratiques dans le contexte des systèmes pair-à-pair en nous intéressant plus particulièrement aux systèmes
structurés (DHT). Le principe consiste à stocker les méta-informations liées à la confidentialité dans une
DHT alors que les informations confidentielles sont gérées au niveau des participants. Enfin, nous nous
sommes intéressés à la confiance envers les participants en utilisant une approche basée sur la réputation.
Ces travaux ont donné lieu à plusieurs publications dont [2, 11]
6.5.5 Réplication des données dans les systèmes distribués
Participants : Esther PACITTI, William DEDZOE, Manal EL DICK, Mounir TLILI, Vidal MARTINS, Reza AKBARINIA, Patrick VALDURIEZ
La réplication de donnée a pour objectif à la fois d’apporter une réponse au problème de la disponibilité des données (tolérance aux pannes) et à améliorer les performances pour la recherche et l’accès aux
informations. Nous étudions cette problématique dans deux cadres distincts : les travaux collaboratifs (p.
ex. pour l’édition collaborative de documents), et le cache d’information sur le Web.
Dans le cadre collaboratif, la réplication optimiste multi-maı̂tre est nécessaire pour permettre aux
utilisateurs d’effectuer des modifications en parallèle, ce qui est indispensable pour permettre un passage
à l’échelle large. Le problème principal est alors de gérer la réconciliation en présence de plusieurs misesà-jour pour arriver à une nouvelle version cohérente du document. Deux approches ont été proposées pour
répondre à cette problématique. La première consiste en un algorithme pour une réconciliation basée sur
la sémantique dans les réseaux pair-à-pair. Celui-ci est basé sur un modèle de coût que nous avons
proposé qui sert de base pour la stratégie de choix des nœuds du réseau réalisant les réconciliations.
La seconde solution de réconciliation que nous avons proposé est basée sur l’estampillage. Elle étant
le service d’estampillage basé sur les clés. Chaque mise à jour est alors estampillée est stockée dans
un service de log hautement disponible. Durant une réconciliation, ces mises-à-jour peuvent alors être
restituée dans un ordre total qui permet d’obtenir une éventuelle consistance malgré les départs et arrivées
des participants.
Ces travaux ont donné lieu à plusieurs publications dont une dans la conférence Sigmod [34].
Dans le cadre du Web, le problème adressé est celui de la distribution de contenu pour des sites
n’ayant pas les moyens d’avoir recours à des professionnels (Content Distribution Networks), ce qui peut
être le cas des organisations à but non lucratif. Le principe consiste à s’appuyer sur la communauté des
participants intéressés par le contenu d’un site pour fournir une méthode de distribution de son contenu.
La solution que nous proposons allie les avantages des réseaux non structurés et ceux des DHTS en
exploitant l’efficacité des DHTS et la robustesse des algorithmes de Gossip. La structure de DHT est
utilisée pour permettre aux pairs d’une même localité partageant les mêmes intérêts de se retrouver très
rapidement. Ils sont alors organisés au sein d’un cluster ou “pétale” où ils utilisent un algorithme de type
Gossip pour échanger leurs informations.
Ces travaux ont donné lieu à plusieurs publications dont une dans la conférence EDBT [7].
6.5.6 Gestion de l’incertitude des données
Participants : Reza AKBARINIA, Esther PACITTI, Patrick VALDURIEZ
160
Bilan 2006–2009 et projet 2012-2015 GDD
Les applications relatives au nettoyage des données, réseaux de senseurs, extraction d’information
prennent de plus en plus d’importance et pour elles, l’incertitude des données est une notion incontournable. En particulier, dans les systèmes distribués et plus particulièrement dans les systèmes pair-à-pair,
les données ne sont pas certaines, précises et à jour à cent pour cent. Nous proposons un modèle qui
s’appuie sur les relations entre les utilisateurs, leurs données et leurs feedbacks pour estimer la confiance que l’on peut avoir en une donnée particulière. Une autre direction a consisté à étudier les requêtes
d’agrégation incertaines qui ont montré leur utilité pour de nombreuses applications (estimation des
marchés énergétiques au jour le jour, surveillance d’objets mobiles, prédiction de l’évolution des stocks,
etc.) Nous avons proposé une nouvelle sémantique pour les requêtes d’agrégation qui tend à répondre aux
limitations mises en évidence sur les propositions précédentes. Nous avons aussi proposé un algorithme
spécifique qui répond à ces requêtes en temps polynomial dans la plupart des cas, et nous travaillons
actuellement à l’adapter au cas des systèmes distribués et plus particulièrement à celui des systèmes
pair-à-pair.
6.5.7 Test des systèmes pair-à-pair
Participants : Gerson SUNYÉ, Eduardo ALMEIDA, Patrick VALDURIEZ
Les architectures traditionnelles pour le test, basées sur CTMF (Conformance Testing Methodology
and Framework) ne sont pas entièrement adaptées au test d’applications largement distribuées. En effet,
dans de telles architectures, chaque nœud est testé localement. L’ensemble est contrôlé par une entité
centralisée, appelé contrôleur de test, dont le rôle est d’assurer la synchronisation des tests réalisés sur les
différents nœuds. Cette centralisation pose problème lorsque le nombre de nœuds devient très important.
Nous avons proposé une nouvelle architecture pour le test mieux adaptée aux applications largement
distribuées où le contrôleur de test est lui aussi partiellement distribué. Les évaluations expérimentales
en situation réelle ont montré que notre proposition offrait de bons résultats et permettait de contrôler
plus d’un millier de nœuds. Cet outil peut être utilisé aussi bien pour le test fonctionnel, que pour le test
de sûreté et de performance des applications distribuées.
Concernant le test fonctionnel, nous avons aussi proposé une méthodologie incrémentale permettant de prendre un compte les différents aspects des systèmes pair-à-pair : la fonctionnalité du système,
la volatilité des participants et le passage à l’échelle. Cette approche a été utilisée pour évaluer deux
systèmes pair-à-pair populaires : FreePastry et OpenChord (qui sont respectivement des implémentations
des DHTs Pastry et Chord).
Ces travaux ont donné lieu à plusieurs publications dont deux dans les conférences ISSRE et ASE [21,
30] et une dans la revue Empirical Software Engineering [19].
6.5.8 Gestion de modèles
Participants : Jean BEZIVIN, Freddy ALLILAIRE, Mikaël BARBERO, Frédéric JOUAULT, Marcos DIDONET DEL FABRO, Patrick VALDURIEZ
La gestion de modèle fournit une approche très générale au problème de la transformation de modèle
qui se présente lorsque l’on cherche à effectuer des alignements entre des descriptions de données
de sources hétérogènes. Notre contribution à ce problème consiste en la proposition de l’architecture
AMMA (Atlas Model Management Architecture) qui inclue en particulier deux outils majeurs (ATL et
AMW) intégrés au projet Eclipse en tant que composants.
ATL est un langage à base de règle pour la transformation de modèles. L’outil associé fournit des
outils supportant totalement les tâches principales impliquées dans l’utilisation d’un langage : l’édition,
GDD
161
la compilation, l’exécution et le déboguage. La modularité des transformation et la possibilité de les
étendre est un point crucial pour la gestion des transformation ATL. Nous avons pu montrer que les
langages actuels fournissent des outils raisonnables pour la construction modulaire des transformations,
mais présentent certaines lacunes concernant la composition de tâches. Pour palier cette difficulté, nous
avons proposé approche à la fois conceptuelle et pratique permettant de dériver les nouveaux modèles à
partir des modèles de base. Enfin, nous avons travaillé sur le problème de l’interopérabilité des langages
de transformation de modèles en proposant un ensemble d’heuristiques permettant de répondre à ce
problème lorsqu’il est nécessaire de mettre en place une solution impliquant la mise en place d’une
traduction entre langages.
Une des applications de la transformation de modèle est l’intégration de différents modèles provenant
de plusieurs bases de données. En vue d’aider la résolution de cette tâche complexe, nous avons proposé
une solution semi-automatique basée sur les transformations d’appariement et le tissage de modèles.
Une transformation d’appariement est une transformation particulière qui utilise des heuristiques pour
créer un modèle de tissage qui permet de différencier différents aspects (p. ex. complexité et taille).
C’est à partir de ce modèle de tissage que sont obtenues les transformations permettant d’arriver à
un modèle d’intégration. L’évaluation expérimentale de cette approche a fournit de bons résultats. Enfin, la détermination de similitudes et de différences entre modèles est centrale pour le problème de
l’intégration. Des recherches ont été conduites concernant la différentiation de diagrammes UML sans
que cette problématique n’ait été explorée en profondeur pour les modèles spécifiques à un domaine
particulier. Nous avons proposé un algorithme indépendant du méta-modèle (donc générique) et des outils associés pour détecter différences et similitudes entre modèles d’un même domaine. Des utilitaires
permettent de visualiser graphiquement les résultats de l’analyse.
6.5.9 Mémoires transactionnelles pour ordinateurs multi-cœurs
Participants : Audrey QUEUDET, Toufik SARNI, Patrick Valduriez
Nous avons débuté l’exploration d’une nouvelle voie de recherche, particulièrement prometteuse,
relative aux mémoires transactionnelles pour les ordinateurs multi-cœur. La problématique associée
aux mémoires transactionnelles temps réel se rapproche de celle des Systèmes de Gestion de Bases de
Données (SGBDs) temps réel, qui consiste à garantir la sérialisation des transactions mais aussi le respect
des contraintes temporelles. Les SGBDs reposent sur la notion de transaction dotée des propriétés dites
ACID (Atomicité, Consistance, Isolation et Durabilité) qui garantissent l’intégrité de la base de données
vis-à-vis de lectures/écritures concurrentes sur les données partagées. Dans le cas des mémoires transactionnelles, la notion de transaction est dotée uniquement des propriétés ACI (les données en mémoire ne
sont pas forcément conservées). Ces seules propriétés permettent d’éviter par leur nature les problèmes
liés aux verrous (inversion de priorité, interblocages, etc.). La programmation est quant à elle simplifiée :
le programmeur n’a plus à se soucier des chevauchements éventuels de ses opérations critiques. Il peut
notamment s’affranchir de la tâche difficile et souvent source d’erreurs qui est celle qui consiste à positionner correctement les verrous d’accès aux données partagées.
A l’heure actuelle, les mémoires transactionnelles n’incorporent aucune contraintes temporelles et
ne sont donc pas exploitables pour des systèmes temps réel. Le but de ces travaux est de développer de
nouveaux mécanismes de synchronisation et d’accès aux données à base de mémoire transactionnelle, de
manière à gérer efficacement les accès concurrents à la mémoire dans les systèmes temps réel à base de
processeurs multi-cœurs. L’originalité de l’approche repose sur l’étude du couplage du service de gestion
de la mémoire transactionnelle avec celui chargé de l’ordonnancement des tâches temps réel, dans le but
de réduire les contentions d’accès aux données en mémoire transactionnelle.
162
Bilan 2006–2009 et projet 2012-2015 GDD
Nous avons conduit sur l’année 2008-2009 une évaluation expérimentale de la performance des ordonnanceurs temps réel multiprocesseur sur des systèmes à base de mémoire transactionnelle. Cette
étude nous a permis d’une part de sélectionner les politiques d’ordonnancement les mieux adaptées à
ce type de synchronisation, et d’autre part d’étudier comparativement les performances de plusieurs
implémentations de mémoire transactionnelle. Les résultats obtenus soulignent la faisabilité et l’intérêt
d’une intégration de mécanismes de synchronisation à base de mémoire transactionnelle dans des
systèmes d’exploitation temps réel (RTOS). Ils constituent une première étape indispensable à l’identification précises des briques de base à optimiser conjointement au sein des RTOS (i.e. services d’ordonnancement et de gestion de la synchronisation).
Ces travaux ont donné lieu à plusieurs publications dont deux dans les conférences internationales
IEEE RTCSA [12] et ICRTNS [16]
6.6 Logiciels
Atlas Transformation Language (ATL)
URL
Participants : Jean BÉZIVIN (resp), F. JOUAULT, P. VALDURIEZ
Type de licence : Eclipse Public License
Mots clés: Eclipse, transformation de modèle, gestion de modèle
ATL est un environnement de gestion de modèle basé sur la transformation. Les principales applications
en sont la gestion de méta-informations et la mise en correspondance de schémas de données. Le langage
ATL est conçu pour être général et abstrait. Nous l’utilisons pour compiler les transformations vers de
nombreux langages cibles incluant XSLT et XQuery. La conception d’ATL s’efforce d’être compatible
avec les standards MDA, en particulier MOF/QVT. Disponible sous forme de plugin Eclipse, le système
est implémenté en Java et livré avec plus de 100 transformations. Il est utilisé par une communauté
de plus en plus importante comprenant de grandes entreprises (Airbus, NASA, Ilog, Sodius, Obéo, TNI,
etc.). Il a été reconnu comme composant standard d’Eclipse et est intégré dans le nouveau M2M (Model
to Model) du projet.
Atlas Model Weaver (AMW)
URL
Participants : Jean BÉZIVIN (resp), M. DIDONET DEL FABRO, P. VALDURIEZ
Type de licence : Eclipse Public License
Mots clés: Eclipse, gestion de modèles, tissage de modèles
AMW est une plate-forme à base de composants pour le tissage de modèles (c.-à.-d. la établir et gérer
les correspondances entre les modèles). Les composants sont définis sous forme de différents plugins
Eclipse et interconnectés pour créer une plate-forme de tissage. Modules d’IHM pour l’utilisateur, algorithmes de mise en correspondance, et modules de sérialisation de modèles peuvent être connectés
si besoin. Nous avons étendu l’architecture Eclipse de manipulation de modèle (EMF) pour permettre
la coordination des actions de tissage. Nous utilisons l’API EMF pour obtenir un éditeur générique de
tissage qui adapte son interface en fonction du métamodèle. Cette outil est en particulier utilisé par de
nombreux utilisateurs (NASA, BAE, Versata, Obeo, etc.).
Atlas Peer-to-Peer Architecture (APPA)
URL
Participants : P. VALDURIEZ (resp), R. AKBARINIA, E. ALMADEIA, W. DEDZOE, V. MARTINSP.
LAMARRE, E. PACITTI, G. SUNYE, M. TLILI
GDD
163
Type de licence : GPL
Mots clés: Pair-à-pair, système de gestion de données
APPA est un système de gestion de données en pair-à-pair qui offre évolutivité, disponibilité et performances pure les applications qui traitent de données sémantiquement riches (XML, relationnelles,
etc.). APPA fournit un ensemble de services avancés tels que l’exécution de requêtes, la réplication et
l’équilibrage de charge. Il est mis en œuvre en prenant en compte différents systèmes pair-à-pair tels que
JXTA, OpenChord, Pastry et testé sur Grid5000 ainsi que PlanetLab. Les services actuels (cf. ci-dessous)
sont : KTS, SbQA, P2P-LTR, PeerUnit. Ces services ont été utilisés dans plusieurs projets dont : Strep
Grid4All, ANR RNTL XWiki Concerto, et l’ANR Verso DataRing.
Les publications accompagnant ce logiciel sont principalement [35, 52]
RepDB*
URL
Participants : E. PACITTI (resp), C. COULON, P. VALDURIEZ
Type de licence : GPL
Mots clés: Cluster, bases de données, réplication
RepDB* est un composant de gestion de données pour la réplication des bases de données, ou de sources
de données, dans un cluster. Il a été principalement développé dans le cadre du projet ACI MDP2P.
Ce composant propose des capacité de réplication préventive des données (multi-maı̂tre, réplication
partielle, consistance forte) qui sont indépendante du système de gestion de données support (Oracle,
PostGreSQL, BerkeleyDB). Il a été évalué expérimentalement sur deux clusters, l’un de 8 nœuds, et
l’autre de 64 nœuds.
Key-Based TimeStamp Service (KTS)
URL
Participants : P. VALDURIEZ (resp), R. AKBARINIA, Wiliam DEDZOE, E. PACITTI
Type de licence : GPL
Mots clés: Estampillage, tables de hashage distribuées
KTS est un service distribué de gestion de l’estampillage dans le cadre d’un table de hachage distribuée
(DHT). Ce service permet d’ordonnancer les opérations effectuées sur chaque ensemble de données en
fonction d’un ordre total. Il a été initialement proposé pour résoudre le problème de la concurrence, c’est
à dire la possibilité de retourner la version courante d’une donnée malgré le départ volontaire ou non de
pairs et des mises à jour concurrentes. Ce service a été implémenté en Java, au dessus de OpenChord.
Les publications accompagnant ce logiciel sont [34].
Peer-to-Peer Logging and Timestamping for Reconciliation (P2P-LTR)
Participants : E. PACITTI (resp), R. AKBARINIA, W. DEDZOE, M. TLILI, P. VALDURIEZ
Type de licence : GPL
Mots clés: Estampillage, fichiers de log, réconciliation de donnée
URL
164
Bilan 2006–2009 et projet 2012-2015 GDD
Le logiciel, qui étend KTS, propose essentiellement deux fonctions : le log des actions des utilisateurs
dans une DHT et leur estampillage séquentiel et distribué en continu. Ces deux fonctions trouvent leur
application dans le cadre de la réconciliation de données. L’algorithme SB, proposé par l’équipe ECOO
du LORIA et basé sur les transformées opérationnelles, permet d’effectuer cette réconciliation. Ce logiciel a été implémenté en Java. Il a été utilisé dans les projets Strep Grid4All et RNTL Xwiki pour réaliser
des réconciliations de documents répliqués dans les wikis pair-à-pair.
Plusieurs publications sont en liaison avec ce logiciel, dont une publication dans la conférence internationale NOTERE [26]
Satisfaction-based Allocation Framework (SbQA)
URL
Participants : P. LAMARRE (resp), J. A. QUIANE-RUIZ, P. VALDURIEZ
Type de licence : LGPL
Mots clés: Allocation de requêtes, autonomie et satisfaction des participants
SbQA est une librairie proposant une solution pour l’allocation de requêtes dans un cadre distribué où
les participants (utilisateurs et fournisseurs) sont autonomes et ont des intérêts individuels. Nous avons
pu démontrer expérimentalement qu’il assure de bonnes performances système tout en satisfaisant les
participants par rapports à leurs intérêts individuels. Ce logiciel, implémenté en Java, a été utilisé dans
le cadre du projet Strep Grid4all comme base pour la sélection de service avec des contributeurs sans
but lucratif mais aussi pour la pré-sélection des fournisseurs dans les places de marché.
Ce logiciel a été utilisé pour effectuer les évaluations expérimentales de plusieurs articles, dont [22, 15],
et a été l’objet de plusieurs démonstrations dont [15].
Peer-to-Peer tester (PeerUnit)
URL
Participants : G. SUNYE (resp), E. ALMEIDA, P. VALDURIEZ
Type de licence : GPL
Évaluation, test, système pair-à-pair
PeerUnit est un framework de test pour les systèmes pair-à-pair. Il permet de mettre en place des tests
systèmes pour évaluer un système pair-à-pair programmé en Java. Il repose sur deux aspects originaux :
le contrôle individuel de la volatilité des pairs et une architecture distribuée pour gérer le test lui même.
PeerUnit est implémenté en Java et a été utilisé pour évaluer deux systèmes pair-à-pair populaires et
open-source : FreePastry et OpenChord.
Les publications accompagnant ce logiciel sont [29, 21, 30].
GDD
165
6.7 Contrats et subventions
Type
Europe
Europe
Europe
ANR
RNTL
RNTL
ARA
ARA
Predit
AtlanSTIC
AtlanSTIC
Franco-Mexicain
OSEO/Pôle I&R
Tableau des contrats et subventions
Institution
Nom
Début/Durée
gestionnaire
France Telecom
Grid4All
2006/36 mois
RD
Thales Research
IP Modelplex
2006/36 mois
TRT
IP Modelware
Thales
2004/36 mois
DataRing
ATLAS (INRIA)
2009/36 mois
XWiki Concerto
XPertNet
2007/24 mois
OpenEmbeDD
INRIA
2006/36 mois
Masses de
LIP6
2006/36 mois
Données Respire
OpenDevFactory
LINA
2005/48 mois
Masses de
ATLAS (INRIA)
2003/36 mois
Données MDP2P
EPILOG
Euxenis
2009/36 mois
Etude comparative
LINA
2008/12 mois
...
PrivateP2PImages
LINA
2010/12 mois
Gestion de la
LINA
2010/36 mois
Confidentialité ...
P2PWeb
LINA
2010/24 mois
Montant des contrats
200 Ke
335 Ke
330 Ke
200 Ke
150 Ke
70 Ke
80 Ke
64 200 e
80 Ke
61 Ke
4 Ke
5 Ke
15 Ke
100 Ke
6.7.1 Contrats directs avec des entreprises
6.7.2 Projets collaboratifs
Actions régionales
AtlanSTIC : Étude comparative des architectures logicielles des systèmes d’exploitation temps réel
Début : mars 2008, durée : 12 mois
Partenaires : LINA, IRCCyN, IREENA
Coordinateur : LINA
Participants : A. Queudet (resp), M. Chetto,O. Pasquier
Montant équipe : 4 Ke
Montant total : 10 Ke
Mots clés : systèmes d’exploitation temps réel
AtlanStic : PrivateP2PImages
Début : janvier 2010, durée : 12 mois
Partenaires : IRCCyN
Participants : P. Serrano Alvarado (resp), P. Lamarre, M. Jawad
Montant équipe : 5 Ke
Mots clés : confidentialité, satisfaction, systèmes P2P, données multimédia
Coordinateur : LINA
Montant total : 10 Ke
166
Bilan 2006–2009 et projet 2012-2015 GDD
PME Région Pays de la Loire : P2PWeb
Début : septembre 2010, durée : 24 mois
Partenaires : IRCCyN
Coordinateur : TMG
Participants : P. Serrano Alvarado (resp), P. Lamarre, M. Jawad
Montant équipe : 100 Ke
Montant total : 1 077 438 Ke
Mots clés : systèmes P2P, applications Web, confidentialité, satisfaction
Projets nationaux
ANR VERSO DataRing
URL
Début : 2009, durée : 36 mois
Partenaires : ATLAS (INRIA Rennes et INRIA-Sophia), Gemo (INRIA Saclay), Telecom Paristech,
LIG, LIRMM
Coordinateur : ATLAS
Participants : P. Valduriez (resp), R. Akbarinia,F. Draidi,M. El Dick, M. Jawad,P. Lamarre,E. Pacitti
Montant équipe : 200 Ke
Montant total :
Mots clés : Partage de données, communautés en-ligne, réseaux sociaux, technologie P2P
PREDIT EPILOG
Début : 2009, durée : 36 mois
Partenaires : Euxenis SAS et RISC Solutions d’Assurances
Coordinateur : Euxenis SAS
Participants : P. Valduriez (resp), P. Lamarre,V. Duc Trung
Montant équipe : 61 Ke
Montant total : 193 Ke
Mots clés : technologies P2P, collaboration inter-entreprises, chaı̂ne logistique
RNTL XWiki Concerto
Début : 2007, durée : 24 mois
Partenaires : XPertNet, ObjectWeb, INRIA, ENST, Mandriva, EISTI
Participants : P. Valduriez (resp), R. Akbarinia,E. Pacitti,M. Tlili
Montant équipe : 150 Ke
Mots clés : Xwiki, wiki de 2ème génération, réseaux P2P
URL
Coordinateur : XPertNet
Montant total :
RNTL OpenEmbeDD
URL
Début : 2006, durée : 36 mois
Partenaires : INRIA, CEA-List, France Telecom RD, AIRBUS, AnyWare, CS/SI, LAAS, Thales Avionics, Verimag, Thales Research TRT
Coordinateur :
INRIA
Participants : J. Bézivin (resp), F. Jouault, P. Valduriez
Montant équipe : 70 Ke
Montant total :
Mots clés : Eclipse open-source platform, model engineering, embedded systems
ARA Masses de Données Respire
Début : 2006, durée : 36 mois
Partenaires : INT, LIP6, Paris (IRISA), Regal (INRIA)
URL
Coordinateur : LIP6
GDD
167
Participants : E. Pacitti (resp), R. Akbarinia,V. Martins,J. Quiane,P. Valduriez
Montant équipe : 80 Ke
Montant total : 332 Ke
Mots clés : Systèmes P2P, partage de données, passage à l’échelle
OpenDevFactory, Usine Logicielle Systematic Pôle de Compétitivité région Parisienne (2005-2008)
Début : 2005, durée :
Partenaires : THALES TRT, TCF, EADS CCR, EADS ST, EDF, Dassault Aviation, Hispano Suiza,
MBDA, Trialog, Esterel Technologies, Softeam, CEA, IFP, CNES, LRI, LIP6, SupElec, Polytechnique
Coordinateur :
Participants : J. Bézivin (resp), J. Bézivin, F. Jouault, F. Allilaire
Montant équipe : 64200 e
Montant total :
Mots clés : Ingénierie des modèles, transformation de modèles
Dans ce projet, l’équipe ATLAS-GDD travaille, en relation avec les différents partenaires industriels
pour développer des solutions basées sur une plateforme ouverte d’ingénierie des modèles. Des
développements de chaı̂nes de transformation pour les besoins de transformation de données des
partenaires industriels permettront d’améliorer les solutions existantes.
URL
ARA Masses de Données MDP2P
Début : 2003, durée : 36 mois
Partenaires : ATLAS (INRIA Rennes), Gemo (INRIA-Futurs), Paris (IRISA), Texmex (IRISA) Coordinateur : ATLAS
Participants : P. Valduriez (resp), R. Akbarinia,V. Martins,E. Pacitti,J. Quiane
Montant équipe : 80 Ke
Montant total :
Mots clés : Systèmes P2P, service haut niveau, gestion de données texte et multimédia
Projets internationaux
STREP Grid4All
URL
Début : 2006, durée : 36 mois
Partenaires : INRIA, LINA, France Telecom RD, Kungliga Tekniska Hoegskolan (Suède), SICS
(Suède), ICCS (Grèce), University of Piraeus Research Center (Grèce), Universitat Politècnica de
Catalunya (Espagne), Rededia S.L. (Espagne)
Coordinateur : France Telecom RD
Participants : P. Valduriez (resp), R. Akbarinia,W. Kokou Dedzoe,R. Hayek, V. Martins,P. Lamarre,E.
Pacitti,J. Quiane
Montant équipe : 200 Ke
Montant total :
Mots clés : technologie Grid et P2P, collaboration dynamique, organisations virtuelles, APPA
IP Modelplex
URL
Début : 2006, durée : 36 mois
Partenaires : Thales Research TRT, Thales Information Systems, Softeam, IBM Belgium, Fraunhofer
Gesellschaft, WesterGeco, IBM Israël, University of York, Universidad Politecnica de Madrid, UPMC,
Fundacion European Software Institute, Adaptive Limited, XJTech, Xactium, Imbus AG, SINTEF,
Sodifrance-MIA Software, Technical university Braunschweig, University Dresden, Telefonica, CEA,
SAP
Coordinateur : Thales Research TRT
168
Bilan 2006–2009 et projet 2012-2015 GDD
Participants : J. Bézivin (resp), F. Allilaire,M. Barbero,H. Brunelière, P. Valduriez
Montant équipe : 335 Ke
Mots clés : Model driven engineering, coherent infrastructure, complex systems
Montant total :
IP Modelware
Début : 2004, durée : 36 mois
Partenaires : Thales, Softeam, IBM UK, As Aprote, Enabler Informatica, Telenor Communication,
France Telecom, Logon Technology Transfer, Fraunhofer Gesellschaft, WesterGeco, IBM Israël, University of York, Universidad Politecnica de Madrid, UPMC, Fundacion European Software Institute,
Adaptive Limited, Imbus AG, SINTEF, Interactive Objects Software
Coordinateur : Thales
Participants : J. Bézivin (resp), F. Allilaire, P. Valduriez
Montant équipe : 330 Ke
Montant total :
Mots clés : model engineering, modelware
PCP Mexique : Gestion de la Confidentialité dans les réseaux de capteurs à grande échelle
Début : mars 2010, durée : 36 mois
Partenaires : Obeo (France), CICESE (Mexique), Ubilogix (Mexique)
Coordinateur : LINA
Participants : P. Serrano Alvarado (resp), A. Garcia Macias, S. Drapeau
Montant équipe : 15000 Ke
Montant total :
Mots clés : Confidentialité, réseaux de capteurs, applications embarquées, architecture à base de modèles
(MDA)
6.7.3 Accords de coopération
6.8 Rayonnement
6.8.1 Évaluation de la recherche
Comités de programme (conférences) et de lecture (revues)
– Revues
– Comités éditoriaux de revue scientifique
– J. Bézivin : Journal of Object Technology.
– J. Bézivin : SoSyM, Software and System Modeling, Springer Verlag.
– P. Valduriez : Distributed and Parallel Database Systems, Kluwer Academic Publishers.
– P. Valduriez : Internet and Databases : Web Information Systems, Kluwer Academic Publishers.
– P. Valduriez : Ingenierie des Systèmes d’Information, Hermés.
– P. Valduriez : Proceedings of the VLDB Endowment.
– P. Valduriez : Book series ’Data Centric Systems and Applications’ (Springer-Verlag).
– Les comités de lecture (numéro spécial d’une revue)
– R. Akbarinia : Distributed and Parallel Databases Journal, Special Issue on Ranking in
Databases, 2009 ;
– Y. Busnel : ACM Mobile Network and Applications, Special Issue on Wireless and Mobile
Computing, 2009 ;
GDD
169
– A. Queudet : IEEE Transactions on Industrial Informatics, 2009 ;
– A. Queudet : Journal of Supercomputing, 2009 ;
– P. Serrano Alvarado : Int. Journal of Computer Systems Science & Engineering IJCSSE,
Special Issue on Mobile Databases, 2009 ;
– P. Serrano Alvarado : Int. Journal on Transactions on Computer Systems (TOCS), 2009 ;
– Y. Busnel : Elveiser Computer Networks, Special Issue on Gossiping in Distributed System,
2008 ;
– Conférences
– Comités de programme
– R. Akbarinia : Int. Conf. on High Performance Computing for Computational Science (VecPar) 2010.
– R. Akbarinia : Journées Bases de Données Avancées (BDA) 2010.
– P. Lamarre : Int. Conf. on Extending DataBase Technologies (EDBT) 2010.
– S. Cazalens, P. Lamarre : IEEE/WIC/ACM Int. Conf. on Web Intelligence (WI) 2010.
– P. Serrano Alvarado : Atelier GEDSIP (Gestion de Données dans les Systèmes d’Information
Pervasifs), conjoint à INFORSID 2010.
– R. Akbarinia : IEEE Int. Conf. on Distributed Computing Systems (ICDCS) 2009.
– P. Lamarre, E. Pacitti : Damap workshop on P2P data management, co-located with EDBT
2009.
– P. Lamarre : ACM-SIGMOD Int. Conf. demo panel (SIGMOD-demo) 2009.
– S. Cazalens, P. Lamarre : IEEE/WIC/ACM Int. Conf. on Web Intelligence (WI) 2009.
– P. Lamarre : Brazilian Symposiume on Databases (SBBD) 2009.
– P. Serrano Alvarado : 5èmes journées Francophones Mobilité et Ubiquité UbiMob 2009.
– E. Pacitti : Int. Conf. on VLDB 2009.
– E. Pacitti : IEEE Int. Conf. on Distributed Computing Systems (ICDCS) 2009.
– E. Pacitti : ACM Int. Conf. on Information and Knowledge Management (CIKM) 2009 ;
– E. Pacitti , P. Valduriez : Int. Conf. on Extending DataBase Technologies (EDBT) 2009.
– P. Valduriez : EDBT Ph.D. Workshop 2009.
– P. Lamarre : Journées Bases de Données Avancées (BDA), 2009.
– P. Lamarre : Modèles Formels de l’Interaction (MFI), 2009.
– P. Valduriez : Int. Conf. on VLDB 2008
– R. Akbarinia : Int. ACM Conf. on Information and Knowledge Management (CIKM), 2008.
– R. Akbarinia : Int. Workshop on High-Performance Data Management in Grid Environments
(HPDGrid), 2008.
– E. Pacitti : ACM Int. Conf. on Information and Knowledge Management (CIKM) 2008.
– E. Pacitti : European Dependable Computing Conference (EDCC) 2008.
– P. Valduriez : Int. Conf. on High Performance Computing for Computational Science (VecPar)
2008.
– E. Pacitti : Brazilian Symposium on Databases (SBBD) 2008.
– E. Pacitti (PC co-chair), P. Lamarre : Damap workshop on P2P data management, co-located
with EDBT 2008.
– E. Pacitti (General chair), P. Valduriez (exec. chair) : Int. Workshop on High-Performance
Data Management in Grid Environments (HPDGrid) 2008, collocated with VecPar 2008.
– E. Pacitti (vice chair) : European Conf. on Parallel Computing (Euro-Par) 2008, Parallel and
Distributed Database Track.
– E. Pacitti : Int. Conf. on Extending DataBase Technologies (EDBT) 2008.
170
Bilan 2006–2009 et projet 2012-2015 GDD
– P. Valduriez : Int. Conf. on Advanced Information Systems Engineering (CAiSE) 2008.
– E. Pacitti : IEEE Journée Francophone sur la Cohérence de Données en Univers Reparti
(CDUR), 2008.
– P. Lamarre : Journées Bases de Données Avancées (BDA), 2008.
– P. Lamarre : Artificial Economics (AE), 2008.
– P. Serrano Alvarado : Atelier GEDSIP (Gestion de Données dans les Systèmes d’Information
Pervasifs), conjoint à INFORSID 2007.
– P. Valduriez : Int. Conf. on Very Large Databases (VLDB) 2006, 2007.
– P. Valduriez : ACM-SIGMOD Int. Conf. 2007.
– P. Lamarre : Artificial Economics (AE), 2007.
– P. Lamarre : Modèles Formels de l’Interaction (MFI), 2007.
– P. Valduriez (Ind. PC chair), E. Pacitti : IEEE Int. Conf. on Data Engineering 2007.
– P. Valduriez (PC chair), E. Pacitti : IEEE Int. Conf. on Distributed Computing Systems
(ICDCS) 2007, Data Management track.
– E. Pacitti : ACM Int. Conf. on Information and Knowledge Management (CIKM) 2007.
– E. Pacitti : European Dependable Computing Conference (EDCC) 2007.
– P. Valduriez : Journées Bases de Données Avancées (BDA), 2007.
– J. Bézivin : Enterprise Distributed Object Computing (EDOC), 2007.
– P. Valduriez (chair, Distributed and Parallel Databases track) : Int. Conf. on Parallel and Distributed Computing (Euro-Par) 2006.
– P. Valduriez : International Conference on Cooperative Information Systems (CoopIS) 2006.
– P. Valduriez : Int. Conf. on High Performance Computing for Computational Science (VecPar)
2006.
– P. Valduriez (co-chair with M. Mattoso, UFRJ), E. Pacitti (PC chair) : Int. Workshop on HighPerformance Data Management in Grid Environments (HPDGrid 2006), collocated with VecPar 2006.
– E. Pacitti : Journées Bases de Données Avancées (BDA), 2006.
– P. Lamarre : Artificial Economics (AE), 2006.
– J. Bézivin : Int. Conf. on Enterprise Information Systems (ICEIS), 2006.
– J. Bézivin : Enterprise Distributed Object Computing (EDOC), 2006.
– J. Bézivin : Fundamental Approaches to Software Engineering (ETAPS/FASE), 2006.
Expertises régions, ANR, Europe, AERES, ...
– P. Valduriez : expert AERES, LIRIS, Lyon, 2010 ;
– P. Valduriez : expert AERES, LIRMM, Montpellier, 2007 ;
– E. Pacitti : expert auprès Région Île-de-France et Digiteo. Thème : logiciel et systèmes complexes,
2009 ;
– P. Serrano Alvarado : Rapport pour un expert auprès de l’ANR ARPEGE, 2009 ;
Rapports de thèse, comité de sélection, concours INRIA, ...
– P. Lamarre : membre du comité de sélection pour un poste de MC de l’Université de Nantes, 2009.
– P. Lamarre : membre du comité de sélection pour un poste MC pour l’Université de Rennes, 2010.
– P. Valduriez : membre du concours CR2/CR1 du centre INRIA Saclay, 2009 ;
– P. Valduriez : membre du concours CR2 du centre INRIA Rennes Bretagne Atlantique, 2008 ;
– P. Valduriez : membre du concours CR2 du centre INRIA Rennes Bretagne Atlantique, 2006 ;
GDD
171
– E. Pacitti : rapporteur de la thèse de Francisco Pérez-Sorrosal, Universidad Politécnica de Madrid,
2009 ;
– P. Valduriez : rapporteur de l’HDR de Ioana Manolescu, Univ. Paris sud (Orsay), 2009 ;
– P. Valduriez : rapporteur de l’HDR de Ana Carolina Salgado, HDR UVSQ, 2008 ;
– P. Valduriez : rapporteur de la thèse de Fabian Groffen, Univ. Amsterdam,
– P. Valduriez : rapporteur de la thèse de Khalid Saleem, Univ. Montpellier 2, 2008 ;
– P. Valduriez : rapporteur de la thèse de Florin Dragan, UVSQ, 2008 ;
– P. Valduriez : rapporteur de la thèse de Andrei Arion, U. Paris Sud, 2007 ;
– P. Valduriez : rapporteur de la thèse de Corina Ferdean, UPMC Paris 6, 2006 ;
– P. Valduriez : rapporteur de la thèse de Nicolas Travers, UVSQ, 2006 ;
– P. Valduriez : rapporteur de la thèse de Riad Mokadem, U. Paris Dauphine, 2006 ;
– P. Valduriez : rapporteur de la thèse de Cristian-Augustin Saita, UVSQ, 2006 ;
6.8.2 Animation de la communauté
Participation à des steering comittees, des GDR et leurs groupes de travail
– J. Bézivin : membre et co-fondateur du comité steering de ECOOP (AITO) et UML/Models, 2006.
Conférences invitées
– E. Pacitti : Invited talk on Flower-CDN a hybrid P2P overlay for efficient query processing in
content distribution networks, à UFRJ Rio de Janeiro 2009.
– E. Pacitti : keynote talk on Grid Data Management at the Int. Workshop on High-Performance
Data Management in Grid Environments (HPDGrid) 2008.
– E. Pacitti , P. Valduriez : talk on query processing and replication in P2P, Université de Barcelona,
2008.
– P. Valduriez : invited talk on the DataRIng project at UFRJ, Rio de Janeiro and Univ. of Recife,
2008.
– E. Pacitti , P. Valduriez : talk on data currency and replication in P2P systems, University of
Madrid, 2007.
– P. Valduriez : talk on data currency in DHTs, University of Washington, 2007.
– E. Pacitti : invited talk on replication in large-scale distributed systems, 30-year, Perspective on
Replication à Monte Verita, en Suisse, 2007.
– E. Pacitti et P. Valduriez : invited talk on APPA P2P system, à UFRJ, Rio de Janeiro, 2006.
– J. Bézivin : keynote speaker, LDTA conference, 2006.
Organisation de conférences, d’ateliers, d’écoles d’été
– P. Valduriez : General chair de VLDB 2009 à Lyon.
– P. Valduriez : General chair de EDBT 2008 à Nantes.
– E. Pacitti : Communication chair de EDBT 2008 à Nantes.
– J. Bézivin : Co-chair de model transformation track, ACM Symposium of Applied Computing
2007 à Séoul.
– P. Serrano Alvarado : Co-organisation de la 6ème école Franco-Mexicaine sur les systèmes répartis
du LAFMI 2007 à Colima, Mexique.
– E. Pacitti : Organization chair de Workshop Gestion de données en pair-à-pair (GDP2P) 2006, Le
Croisic.
172
Bilan 2006–2009 et projet 2012-2015 GDD
Collaborations nationales et internationales
– University of Waterloo (Tamer Özsu), Canada.
– Univ. of Madrid (Ricardo Jimenez-Periz), Espagne.
– Univ. Federal of Rio de Janeiro (Marta Mattoso), Brésil.
– International Univ. of Rabat (Noureddine Mouaddib), Maroc.
– Université de Rome La Sapienza (Roberto Baldoni, Roberto Beraldi et Leonardo Querzoni), Italie.
– EPI ASAP (Anne-Marie Kermarrec), INRIA Rennes Bretagne Atlantique.
– Equipe Sigma, Laboratoire d’Informatique de Grenoble (LIG).
6.9 Formation par la recherche
Pilotage d’écoles doctorales, de spécialités de filières, de master L’équipe est très investie dans la
spécialité ”Architectures Logicielles” du master Informatique de l’Université de Nantes (master ALMA,
orienté P+R depuis 2008), en particulier dans le parcours ”Architectures Distribuées”.
– Gerson Sunyé est responsable du master Informatique spcécialité ”Architectures Logicielles” de
l’Université de Nantes (Master ALMA) ;
– Sylvie Cazalens est responsable du parcours ”Architectures Distribuées” de ce même master (dont
96h d’enseignement spécifique au dernier semestre).
Participation aux enseignements de master, de filière, d’école doctorale Esther Pacitti et P. Lammare, en délégation INRIA n’ont pas enseigné dans le master ALMA ces deux dernières années. Ils le
faisaient pour la maquette du Master ALMA précedente, de même que P. Valduriez.
– Etablissements tutelles
– Gerson Sunyé : Le test (48h en Master ALMA, 2008-2009, 2009-2010) ;
– Gerson Sunyé : Les systèmes P2P (18h en Master ALMA, 2008-2009) ;
– Yann Busnel : Les systèmes P2P (30h en Master ALMA, 2009-2010) ;
– Yann Busnel : Les systèmes P2P (16h en Master MIAGE Nantes, 2009-2010) ;
– Reza Akbarinia : Les requêtes top-K (12h Master ALMA, 2008-2009, 2009-2010) ;
– Patricia Serrano : Confidentialité et systèmes P2P (12h Master ALMA, 2008-2009, 2009-2010) ;
– Sylvie Cazalens : Recherche d’information en P2P, web sémantique (en Master ALMA, 18h en
2008-2009, 24h 2009-2010) ;
– Audrey Queudet : Informatique temps réel embarquée (15h en Master EEA de l’Université de
Nantes, 2008-2009 et 2009-2010) ;
– Audrey Queudet : UML temps réel (9h, filières SMTR et SETR Polytech’Nantes, 2009-2010) ;
– Autres établissements
– Yann Busnel : Les systèmes P2P (5 h en Master Telecom Bretagne de l’Université de Rennes,
2009-2010) ;
– Audrey Queudet : Systèmes embarqués (24h, Ecole des Mines de Nantes, filière GSI, 20092010) ;
– Audrey Queudet : Informatique temps réel (25h, Ecole des Mines de Nantes, filière AII, 20092010) ;
GDD
173
HDR et thèses soutenues sur la période
Nom
E. PACITTI
P. LAMARRE
Publications
[28][7, 5, 24, 33,
41]
[4],[15, 22, 27, 31,
46]
HDR
Institution
Soutenance
UN
2008
Pr. Montpellier
UN
2009
MC. UN
Devenir
Nom
Publications
Thèses
Institution
Soutenance
C. COULON
[53]
UN
sept. 2006
F. JOUAULT
[47][49, 55]
[56][5, 35, 24, 33,
52]
UN
sept. 2006
UN
2007
CR INRIA
M. DIDONET
DEL FABRO
[37][20, 45, 50]
UN
2007
IBM Paris
D. FAYE
[13][44]
UN
2007
S. LEMP
[40],[31]
UN
2007
V. MARTINS
[36][32, 48, 52, 54]
UN
2007
J.A. QUIANÉRUIZ
[23][15, 22, 43, 46,
39]
UN
2008
A. VENTRESQUE
[25][13, 27, 42, 51]
UN
2008
E. CUNHA DE
ALMEIDA
[18][30, 29, 21]
UN
2009
M. El DICK
[1][3, 7, 8]
UN
2010
W-E. PALMA
MUNOZ
[5], [24], [6], [10],
[9]
INRIA
.
2010
R. AKBARINIA
Devenir
I.T.
Capgemini
Nantes
Chercheur EMN
Ens.Chercheur
U.
Saint-Louis,
Sénégal
Post-Doc U. La
Rochelle
Ens.
Chercheur
PUC
Curritiba,
Brésil
Ens.Chercheur
U.
Saarland,
Allemagne
Post.Doc. U. Singapour
Ens.
Chercheur
FPR
Curitiba,
Brésil
Ens. U. Beyrouth
Liban
6.10 Gouvernance
Organisation de l’équipe, animation scientifique
Une des spécificité de l’équipe est d’avoir intégré des personnes provenant d’horizons différents
(bases de données, génie logiciel, systèmes multi-agents, systèmes distribués) pour travailler ensemble
sur la problématique de la gestion de données distribuées. Cette ouverture est très certainement à l’origine
174
Bilan 2006–2009 et projet 2012-2015 GDD
de l’originalité des solutions développées et du succès rencontré. La cohésion a été obtenue en partie
grâce à la mise en place de réunions fréquentes, certaines plus orientées brain-storming et des séminaires
d’équipe mensuels dédiés à la présentation de résultats qui sont ouverts à tous les membres du LINA. Les
intervenants de ces derniers peuvent être des personnes de l’équipe ou des invités. Des repas d’équipe
annuels sous différentes formes permettent aussi aux membres de se retrouver dans un contexte moins
formel. Les membres de l’équipe participent aussi à la vie de laboratoire : en 2009-2010, Patricia Serrano
et Yann Busnel ont chacun assuré une présentation de leurs recherches lors du Brown Bag-séminaire du
laboratoire.
L’équipe GDD encourage ses Maı̂tres de Conférences à soutenir des Habilitations à diriger des
recherches. Dans ce but, les Maı̂tres de Conférences co-encadrent les doctorants sous la responsabilité
d’un directeur de thèse habilité à diriger des recherches.
Stratégies de publication
Le principal objectif de l’équipe est d’arriver à publier dans les conférences et revues au plus haut
niveau comme VLDB, SIGMOD, Very Large Database Journal.
Pour atteindre cet objectif, la stratégie consiste à publier les premiers résultats de recherche dans des
workshops et des conférences pour permettre au doctorant de se confronter à cette problématique puis,
progressivement de monter en niveau pour arriver en fin de troisième année (dans le meilleur des cas) à
publier dans les conférences puis revues majeures.
Le spectre des domaines couverts par les membres de l’équipe est assez large pour permettre de
publier dans des conférences des domaines d’origine de ses membres. Cela est encouragé pour conserver
l’avantage d’une équipe pluri-disciplinaire et recueillir puis confronter des commentaires et idées de
différentes communautés.
6.11 Auto-évaluation
Durant la période de référence, l’équipe GDD a mené une activité de recherche importante dans le domaine de la gestion de données distribuées. L’implication dans l’organisation des conférences EDBT’08
et VLDB’09 attestent de l’excellente visibilité internationale. L’étendue importante que couvre le domaine de la Gestion de Données Distribuées a permis de fédérer des personnes provenant d’horizons
aussi différents que l’ingénierie des modèles (J. Bézivin), le test de logiciel (G. Sunyé), les systèmes
multi-agents (S. Cazalens & P. Lamarre), les bases de données (P. Valduriez, E. Pacitti, P. Serrano, G.
Nachouki) et plus récemment le temps réel (A. Queudet) et les systèmes distribués (Y. Busnel). Au fil du
temps, la combinaison de ces apports a permis d’obtenir des résultats de très haut niveau.
L’activité d’ingénierie des modèles a acquis une visibilité internationale de premier plan dans la
communauté scientifique et a à son actif des transferts technologiques très importants. C’est donc naturellement et avec succès qu’elle s’est développée en tant qu’équipe ATLANMOD depuis 2008.
La gestion de données en environnement distribué est un enjeu majeur qui regroupe une communauté de recherche très importante mais aussi un grand nombre d’industries et d’entreprises de premier plan. Les liens entre la recherche et l’industrie sont relativement étroits et les transferts de technologie fréquents. Ce domaine est donc particulièrement compétitif. Par exemple, pour publier dans
les conférences de premier plan telles que VLDB ou Sigmod (taux d’acceptation d’environ 15%),
des résultats fondamentaux sont indispensables, mais des validations expérimentales impliquant le
développement de prototypes et leur confrontation à des situations crédibles sont aussi nécessaires. Les
résultats obtenus par l’équipe montrent qu’elle a su se mettre au niveau requis. Le nombre de thèses et de
GDD
175
HDR soutenues dans la période, ainsi que le devenir des personnes est un autre indicateur de la qualité
des résultats obtenus.
Les évolutions rapides des besoins et des approches (réseaux pair-à-pair, grilles, cloud, etc.) font apparaı̂tre de nouveaux problèmes et de nouveaux champs. Les recherches sont donc loin d’être terminées
dans ce domaine. L’expertise acquise et la diversité d’origine des membres de l’équipe sont deux atouts
pour notre équipe.
La gestion de données ouvre une problématique qui dans sa généralité nécessite de prendre en compte
le stockage, l’organisation, la recherche et l’accès à l’information, mais aussi et certainement de plus en
plus, les besoins précis des utilisateurs au niveau individuel, et les impacts sociologiques des solutions
proposées.
6.12 Projet scientifique 2012-2015
Le Web 2.0 a rendu le web participatif. Des communautés d’internautes produisent et maintiennent des masses de données considérables. Ces communautés structurent, transforment, agrègent et enrichissent les données de bases. Les données originelles sont alors annotées, classifiées pour devenir
de l’information puis des connaissances. Ces communautés s’organisent, s’interconnectent et échangent
leurs données dans des processus collaboratifs massifs.
L’explosion du volume des données, la relation entre données et méta-données, la collaboration
massive pose le problème de développement de très grandes infrastructures distribuées de traitement
des données, des informations et des connaissances à destination du web 2.0, du web 3.0 et de ses futures évolutions. Cette problématique s’inscrit clairement dans la thématique de l’Internet du futur, une
thématique prioritaire du LINA.
L’objectif de l’équipe GDD est de proposer des modèles et des systèmes pour la gestion de données
complexes à très large échelle capable de s’adapter aux besoins de communautés d’utilisateurs.
– Ces systèmes doivent être performants et assurer les propriétés de passage à l’échelle, de disponibilité, de tolérance aux pannes, de cohérence, de sûreté de fonctionnement et de maı̂trise de
l’énergie.
– Ces systèmes doivent permettre l’accès à l’information, la personnalisation et l’appropriation des
contenus par les utilisateurs. Ces systèmes doivent être respectueux de la vie privée et permettre
l’estimation de la confiance envers les données. Ils offrent une large autonomie aux utilisateurs en
s’adaptant dynamiquement à l’évolution de leurs comportements.
GDD centre sa recherche autour de deux axes intrinsèquement liés :
– modèles et algorithmes distribués : algorithmique distribuée à large échelle, réplication optimiste,
confidentialité et protection de la vie privée, réputation, requêtes distribuées ;
– contenus et interactions : coordination, satisfaction, provenance, interopérabilité sémantique.
Ces deux axes permettent d’adapter les directions de l’équipe aux moyens en personnel et de positionner clairement l’équipe sur la thématique de l’Internet du futur. L’équipe GDD a déjà des résultats
visibles sur ces deux axes, soumet et participe à des projets nationaux et internationaux sur ces thèmes.
L’équipe GDD a l’ambition de renforcer son attractivité et de générer des synergies sur la thématique de
l’Internet du futur.
Modèles et algorithmes distribués Au sein de l’axe “Modèles et algorithmes distribués”, l’équipe
GDD développe des algorithmes décentralisés de type auto-organisants et/ou auto-stabilisants pour produire des systèmes de gestion de données distribués à large échelle. Ces algorithmes répartis tels que
176
Bilan 2006–2009 et projet 2012-2015 GDD
les services d’échantillonnage de nœuds, les algorithmes épidémiques, les protocoles de population, les
types abstraits commutatifs répliqués, permettent d’atteindre une amélioration des performances, de la
fiabilité et a fortiori, de la confiance des utilisateurs envers ces systèmes. L’équipe GDD a déjà une
expertise importante sur ces approches avec des résultats majeurs.
L’équipe GDD propose l’étude, la modélisation et l’évaluation d’un système distribué communautaire, centré sur la confiance des utilisateurs envers le système, en termes de réputation, confidentialité des données partagées et satisfaction. Jusqu’ici étudié indépendamment, ces trois notions sont
intrinsèquement liées et il est donc nécessaire de porter une analyse corrélée.
GDD est impliquée dans les ANR Concordant et STREAMS du programme Arpege sur la période
2010-2013. L’ANR Concordant vise à étudier et développer la classe d’algorithmes des CRDT (Commutative Replicated Data Types). Ces algorithmes font partie de la famille des algorithmes de réplication optimiste et offre un bon compromis entre cohérence, performance et fiabilité des données de type linéaire
distribuées à très large échelle.
L’ANR STREAMS du programme Arpege se concentre sur les aspects temps réels dans les réseaux
P2P. Il s’agit d’étudier comment il est possible de déployer des services sociaux temps réels de type
“twitter” sur des plate-formes pair-à-pair.
Une perspective importante de ces travaux est de prendre en compte la nature des contenus et des
processus communautaires qui s’y rapporte. L’ambition est ici de fournir des infrastructures distribuées
à large échelle capable de s’adapter aux comportements et aux interactions des communautés avec le
système.
Contenus et interactions Au sein de l’axe contenu et interaction, l’équipe GDD développe des
modèles d’interaction des utilisateurs avec les données, ou des modèles d’interaction entre fournisseurs
de données dans un contexte où les données sont distribuées à large échelle et à travers les organisations.
Il s’agit de proposer des modèles capable de représenter les concepts de satisfaction, des politiques de
coordination, ou encore l’hétérogénéité sémantique des données. Les méta-données capturées par ces
modèles alimentent les algorithmes développés par le premier axe et permettent l’adaptation des infrastructures aux comportement des communautés.
L’équipe GDD a acquis une expertise concernant l’accès et l’exploitation des données dans les
systèmes largement distribués, que ce soit en termes de modèles ou d’algorithmes. Son objectif futur est
de privilégier les approches guidées par les méta-données, en particulier sémantiques, pour rechercher
et connecter les informations qui permettront de fournir des réponses adaptées et justifiées aux utilisateurs le plus rapidement possible. De nombreuses sources d’information existent déjà sur internet : bases
de textes indexés par des thésaurus ou des ontologies ou annotés en RDFa, bases de triplets RDF/S et
moteurs associés... Le défi est donc désormais d’élaborer les modèles et algorithmes qui permettront
d’exploiter l’ensemble des connaissances distribuées et de créer une réelle valeur ajoutée pour l’utilisateur. Pour cela, plusieurs actions seront menées : analyse de l’hétérogénéité/interopérabilité sémantique
d’un système, définition de benchmarks, définition d’algorithmes (1) de recherche sémantique et contextuelle d’information, (2) de composition/restructuration d’un ensemble d’informations, lancés par une
ou plusieurs sources (et plus généralement de gestion de l’évolution des connaissances), (3) d’optimisation de l’organisation sémantique des sources.
Pour gérer des systèmes ouverts de gestion de données distribuées avec participants autonomes,
l’équipe GDD a proposé de remettre au centre de la problématique la notion de satisfaction d’un participant. Cela permet de définir des mécanismes de régulation du système où celui-ci fonctionne de
manière efficace tout en prenant en compte les intérêts des utilisateurs. L’approche qui sera adoptée
par l’équipe GDD consiste à étudier les apports de la sociologie pour enrichir le modèle proposé. Plus
GDD
177
particulièrement, l’équipe commence une collaboration avec l’équipe SMAC de l’IRIT (Pr. Christophe
Sibertin-Blanc) autour de la sociologie de l’action organisée. Cette théorie fait intervenir des notions
telles que contrôle de ressources, pouvoir et liberté d’action, notions qui semblent très intéressantes pour
proposer des modèles de coordination et d’organisation pour les systèmes complexes distribués.
Une ambition importante de cet axe est d’étendre la vision des systèmes collaboratifs à des agents
non-humains et d’établir les bases d’une véritable collaboration massive entre humains et machines. Il
s’agit donc de construire un espace sémantique et social capable d’héberger la collaboration hommemachine et d’empêcher la régression de cet écosystème. Nous pensons qu’un tel espace pourrait prendre
la forme d’un wiki sémantique distribué permettant la modélisation des procédés de transformation.
Cette approche est développée en collaboration avec Nancy, Lyon et Sophia. Elle s’est concrétisée par
une proposition d’ANR CONTINT 2010 retenue en liste complémentaire.
6.13 Bibliographie
6.13.1 Publications de référence de l’équipe dans la période
[1] http ://tel.archives-ouvertes.fr/tel-00452431/en/
M. E L D ICK. Infrastructure P2P pour la distribution de contenu. Thèse de doctorat, Ecole centrale
de nantes - ECN ; Université de Nantes ; Ecole des Mines de Nantes, 2010
[2] http ://hal.archives-ouvertes.fr/hal-00419623/en/
M. J AWAD, P. S ERRANO -A LVARADO, P. V ALDURIEZ, et S. D RAPEAU. A Data Privacy Service
for Structured P2P Systems. In Mexican International Conference on Computer Science (ENC09),
2009, Mexico, Mexique
[3] http ://hal.archives-ouvertes.fr/inria-00414473/en/
M. E L D ICK, E. P ACITTI, et B. K EMME. A Highly Robust P2P-CDN Under Large-Scale and
Dynamic Participation. In I. Computer S OCIETY, réd., First International Conference on Advances
in P2P Systems, 2009, Sliema, Malte
[4] http ://tel.archives-ouvertes.fr/tel-00464482/en/
P. L AMARRE. Contributions à la recherche d’information dans des systèmes distribués, ouverts,
intégrant des participants autonomes. HDR, Université de Nantes, 2009
[5] http ://hal.archives-ouvertes.fr/inria-00410473/en/
W. P ALMA, R. A KBARINIA, E. P ACITTI, et P. V ALDURIEZ. DHTJoin : Processing Continuous
Join Queries Using DHT Networks. Distributed and Parallel Databases, 2009, pages 291–317
[6] http ://hal.archives-ouvertes.fr/inria-00375277/en/
W. P ALMA, R. A KBARINIA, E. P ACITTI, et P. VALDURIEZ. Distributed Processing of Continous
Join Queries using DHT Networks. In ACM, réd., 2nd International Workshop on Data Management in Peer-to-Peer Systems (DAMAP), 2009, Saint-Petersbourg, Fédération De Russie, volume
Vol. 360 of ACM International Conference Proceeding Series, pages 34–41
[7] http ://hal.archives-ouvertes.fr/inria-00331231/en/
M. E L D ICK, E. P ACITTI, et B. K EMME. Flower-CDN : A hybrid P2P overlay for Efficient Query
Processing in CDN. In 12th International Conference on Extending Database Technology (EDBT),
2009, Saint-Petersbourg, Fédération De Russie
178
Bilan 2006–2009 et projet 2012-2015 GDD
[8] http ://hal.archives-ouvertes.fr/inria-00379676/en/
M. E L D ICK et E. P ACITTI. Locaware : Index Caching in Unstructured P2P-file Sharing Systems.
In 2nd International Workshop on Data Management in Peer-to-Peer Systems (DAMAP), 2009,
Saint-Petersbourg, Fédération De Russie
[9] http ://hal.archives-ouvertes.fr/inria-00416819/en/
W. P ALMA, R. A KBARINIA, E. P ACITTI, et P. V ALDURIEZ. P2P Join Query Processing over Data
Streams. In Bases de Données Avancées 2009, 2009, Namur, Belgique
[10] http ://hal.archives-ouvertes.fr/inria-00482323/en/
W. P ALMA, R. A KBARINIA, E. P ACITTI, et P. V ALDURIEZ. Processing of Continuous Join Queries
in a P2P Environment. In Journées Bases de Données Avancées (BDA), 2009, Namur, Belgique
[11] http ://hal.archives-ouvertes.fr/inria-00414050/en/
M. J AWAD, P. S ERRANO -A LVARADO, et P. V ALDURIEZ. Protecting Data Privacy in Structured
P2P Networks. In Second International Conference on Data Management in Grid and P2P Systems
(Globe 2009), 2009, Linz, Autriche, pages 85–98
[12] http ://hal.archives-ouvertes.fr/hal-00422596/en/
T. S ARNI, A. Q UEUDET, et P. VALDURIEZ. Real-Time Support for Software Transactional Memory. In IEEE International Conference on Embedded and Real-Time Computing Systems and Applications (RTCSA), 2009, Beijing, Chine, pages 477–485
[13] http ://hal.archives-ouvertes.fr/hal-00464922/en/
A. V ENTRESQUE, P. L AMARRE, S. C AZALENS, et P. V ALDURIEZ. Représentation optimiste de
contenus dans les système P2P. In Journées Francophones de Bases de Données Avancées, 2009,
Namur, Belgique
[14] http ://hal.archives-ouvertes.fr/inria-00416494/en/
M. M ATTOSO, E. P ACITTI, P. V ALDURIEZ, R. A KBARINIA, V. B RAGANHOLO, et A. A. B. L IMA.
SARAVÁ : data sharing for online communities in P2P. In Colloquium of Computation : Brazil /
INRIA, Cooperations, Advances and Challenges, 2009, Rio Grande do Sul, Brésil
[15] http ://hal.archives-ouvertes.fr/hal-00375003/en/
J.-A. Q UIANE -R UIZ, P. L AMARRE, et P. V ALDURIEZ. SbQA : A Self-Adaptable Query Allocation
Process. In International Conference on Data Engineering (ICDE), 2009, Shanghai, Chine
[16] http ://hal.archives-ouvertes.fr/hal-00422598/en/
T. S ARNI, A. Q UEUDET, et P. VALDURIEZ. Software Transactional Memory : Worst Case Execution Time Analysis. In International Conference on Real-Time and Network Systems, 2009, Paris,
France, pages 107–114
[17] http ://tel.archives-ouvertes.fr/tel-00475913/en/
R. H AYEK. Techniques de localisation et de résumé des données dans les systèmes P2P. Thèse de
doctorat, Université de Nantes, 2009
[18] http ://tel.archives-ouvertes.fr/tel-00451521/en/
E. C UNHA D E A LMEIDA. Test et Validation des Systémes Pair-à-pair. Thèse de doctorat, Université de Nantes, 2009
[19] http ://hal.archives-ouvertes.fr/hal-00483485/en/
E. C UNHA D E A LMEIDA, G. S UNY É, Y. L. T RAON, et P. V ALDURIEZ. Testing Peer-to-Peer
Systems. Empirical Software Engineering, 2009, 15(4) : 346–379
GDD
179
[20] http ://hal.archives-ouvertes.fr/hal-00483446/en/
M. D IDONET D EL F ABRO et P. VALDURIEZ. Towards the efficient development of model transformations using model weaving and matching transformations. Software and Systems Modeling,
2009, 8(3) : 305–324
[21] http ://hal.archives-ouvertes.fr/inria-00371781/en/
E. C UNHA D E A LMEIDA, G. S UNYE, Y. L E T RAON, et P. V ALDURIEZ. A Framework for Testing
Peer-to-Peer Systems. In 19th IEEE International Symposium on Software Reliability Engineering
(ISSRE 2008), 2008, Seattle, WA, USA États-Unis
[22] http ://hal.archives-ouvertes.fr/hal-00374999/en/
J.-A. Q UIANE -R UIZ, P. L AMARRE, et P. VALDURIEZ. A Self-Adaptable Query Allocation Framework for Distributed Information Systems. International Journal on Very Large Databases, 2008,
online : online. European STREP Grid4All Project
[23] http ://tel.archives-ouvertes.fr/tel-00464475/en/
J.-A. Q UIANE -R UIZ. Allocation de Requêtes dans des Systèmes d’Information Distribués avec des
Participants Autonomes. Thèse de doctorat, Université de Nantes, 2008
[24] http ://hal.archives-ouvertes.fr/inria-00368874/en/
W. P ALMA, R. A KBARINIA, E. P ACITTI, et P. V ALDURIEZ. Efficient Processing of Continuous
Join Queries using Distributed Hash Tables. Lecture notes in computer science, 2008, 5168/2008 :
632–641
[25] http ://tel.archives-ouvertes.fr/tel-00457820/en/
A. V ENTRESQUE. Espaces vectoriels sémantiques : enrichissement et interprétation de requêtes
dans un système d’information distribué et hétérogène. Thèse de doctorat, Université de Nantes,
2008
[26] http ://hal.archives-ouvertes.fr/inria-00375526/en/
M. T LILI, W. Kokou D EDZOE, E. P ACITTI, P. VALDURIEZ, R. A KBARINIA, L. D UBOST, S. D U MITRIU , S. L AURI ÈRE, G. C ANALS, P. M OLLI, et M. J ULIEN . Estampillage et Journalisation P2P
pour XWiki. In 8ème Conférence Internationale sur les NOuvelles TEchnologies de la REpartition
- NOTERE 2008, 2008, Lyon, France. ACM, 2008
[27] http ://hal.univ-nantes.fr/hal-00404716/en/
A. V ENTRESQUE, S. C AZALENS, P. L AMARRE, et P. VALDURIEZ. Improving Interoperability Using Query Interpretation in Semantic Vector Spaces. In J. H. Sean B ECHHOFER , M AN FRED H AUSWIRTH et Manolis K OUBARAKIS, réds., European Semantic Web Conference, 2008,
Tenerife, Espagne. Springer, 2008, volume 5021 of Lecture Notes in Computer Science, pages 539–
553
[28] http ://tel.archives-ouvertes.fr/tel-00473969/en/
E. P ACITTI. Réplication asynchrone des données dans trois contextes : entrepôts, grappes et
systèmes pair-à-pair. HDR, Université de Nantes, 2008
[29] http ://hal.archives-ouvertes.fr/inria-00377416/en/
E. C UNHA D E A LMEIDA, G. S UNYE, et P. V ALDURIEZ. Testing Architectures for Large Scale
Systems. In 8th International Conference High Performance Computing for Computational Science
(VECPAR 2008), 2008, Toulouse, France
180
Bilan 2006–2009 et projet 2012-2015 GDD
[30] http ://hal.archives-ouvertes.fr/inria-00371199/en/
E. C UNHA D E A LMEIDA, G. S UNYE, Y. L E T RAON, et P. V ALDURIEZ. Testing Peers’ Volatility.
In 23rd IEEE/ACM International Conference on Automated Software Engineering (ASE 2008),
2008, L’Aquila, Italie
[31] http ://hal.archives-ouvertes.fr/hal-00466674/en/
S. C AZALENS, P. L AMARRE, S. L EMP, et P. V ALDURIEZ. A Flexible Mediation Process for Large
Distributed Information Systems. International Journal of Cooperative Information Systems, 2007,
16(2) : 299–332
[32] http ://hal.archives-ouvertes.fr/inria-00379703/en/
M. E L D ICK, V. M ARTINS, et E. P ACITTI. A Topology-Aware Approach for Distributed Data
Reconciliation in P2P Networks. In The 13th International European Conference on Parallel and
Distributed Computing (Euro-Par), 2007, Rennes, France, pages 318–327
[33] http ://hal.archives-ouvertes.fr/inria-00378836/en/
R. A KBARINIA, E. P ACITTI, et P. V ALDURIEZ. Best Position Algorithms for Top-k Queries. In
ACM, réd., International Conference on Very Large Data Bases (VLDB), 2007, Vienna, Autriche.
ACM, 2007, pages 495–506
[34] http ://hal.archives-ouvertes.fr/inria-00378860/en/
R. A KBARINIA, E. P ACITTI, et P. V ALDURIEZ. Data Currency in Replicated DHTs. In ACM
International Conference on Management of Data (SIGMOD), 2007, Beijing, Chine, pages 211–
222
[35] http ://hal.archives-ouvertes.fr/hal-00416459/en/
R. A KBARINIA et V. M ARTINS. Data Management in the APPA System. Journal of Grid Computing, 2007, 5(3) : 303–317
[36] http ://tel.archives-ouvertes.fr/tel-00481828/en/
V. M ARTINS. Data Replication in P2P Systems. Thèse de doctorat, Université de Nantes, 2007
[37] http ://tel.archives-ouvertes.fr/tel-00481520/en/
M. D IDONET D EL F ABRO. Gestion de métadonnées utilisant tissage et transformation de modèles.
Thèse de doctorat, Université de Nantes, 2007
[38] http ://hal.archives-ouvertes.fr/inria-00473481/en/
E. P ACITTI, P. V ALDURIEZ, et M. M ATTOSO. Grid Data Management : Open Problems and New
Issues. Journal of Grid Computing, 2007, 5 : 273–281
[39] http ://hal.archives-ouvertes.fr/inria-00374835/en/
J.-A. Q UIANE -R UIZ, P. L AMARRE, et P. V ALDURIEZ. KnBest - A Balanced Request Allocation
Method for Distributed Information Systems. In Database Systems for Advanced Applications
(DASFAA), 2007, Bangkok, Thaı̈lande
[40] http ://tel.archives-ouvertes.fr/tel-00464469/en/
S. L EMP. Médiation flexible dans un système pair-à-pair. Thèse de doctorat, Université de Nantes,
2007
[41] http ://hal.archives-ouvertes.fr/inria-00378864/en/
R. A KBARINIA, E. P ACITTI, et P. V ALDURIEZ. Processing Top-k Queries in Distributed Hash
Tables. In International Euro-Par Conference, 2007, Rennes, France. Springer, 2007, volume 4641,
pages 489–502
GDD
181
[42] http ://hal.archives-ouvertes.fr/inria-00409478/en/
A. V ENTRESQUE, S. C AZALENS, P. L AMARRE, et P. VALDURIEZ. Query Expansion and Interpretation to Go Beyond Semantic P2P Interoperability. In Robert M EERSMAN et Zahir T ARI, réds.,
OTM Confederated International Conferences CoopIS, DOA, ODBASE, GADA, and IS 2007, 2007,
Vilamoura, Portugal. Springer, 2007, pages 870–877
[43] http ://hal.archives-ouvertes.fr/hal-00374972/en/
J.-A. Q UIANE -R UIZ, P. L AMARRE, S. C AZALENS, et P. VALDURIEZ. Satisfaction Balanced Mediation. In Conference on Information and Knowledge Management (CIKM), 2007, Lisbon, Portugal,
pages 947–950
[44] http ://hal.archives-ouvertes.fr/hal-00482371/en/
D. C. F AYE, G. NACHOUKI, et P. VALDURIEZ. Semantic Query Routing in SenPeer, a P2P Data
Management System. In First International Conference, Network-Based Information Systems,
2007, Allemagne, volume 4658/2007, pages 365–374
[45] http ://hal.archives-ouvertes.fr/hal-00483503/en/
M. D IDONET D EL F ABRO et P. V ALDURIEZ. Semi-automatic model integration using matching
transformations and weaving models. In ACM Symposium on Applied Computing (SAC), 2007,
Séoul, Korée, pages 963–970
[46] http ://hal.archives-ouvertes.fr/hal-00374977/en/
J.-A. Q UIANE -R UIZ, P. L AMARRE, et P. V ALDURIEZ. SQLB : A Query Allocation Framework
for Autonomous Consumers and Providers. In International Conference on Very Large Data Bases
(VLDB), 2007, Vienna, Autriche, pages 974–985
[47] F. J OUAULT. Contribution à l’étude des langages de transformation de modèles. Thèse de doctorat,
Université de Nantes, 2006
[48] http ://hal.archives-ouvertes.fr/inria-00378891/en/
R. A KBARINIA, V. M ARTINS, E. P ACITTI, et P. V ALDURIEZ. Design and Implementation of Atlas
P2P Architecture. In G. C. R. B ALDONI et F. D AVIDE, réds., Global Data Management, pages
98–123. IOS Press, 2006
[49] http ://hal.archives-ouvertes.fr/hal-00448119/en/
F. J OUAULT et J. B ÉZIVIN. KM3 : a DSL for Metamodel Specification. In IFIP Int. Conf. on
Formal Methods for Open Object-Based Distributed Systems, LNCS 4037, 2006, Italie. Springer,
2006, pages 171–185
[50] http ://hal.archives-ouvertes.fr/hal-00483590/en/
M. D IDONET D EL F ABRO, J. B ÉZIVIN, et P. VALDURIEZ. Model-Driven Tool Interoperability : An
Application in Bug Tracking. In Ontologies, Databases and Applications of Semantics (ODBASE),
2006, France, pages 863–881
[51] http ://hal.univ-nantes.fr/hal-00419619/en/
A. V ENTRESQUE. Recherche d’Information efficace utilisant la sémantique : le focus. In
COnférence en Recherche d’Infomations et Applications - CORIA 2006, 2006, Lyon, France, pages
377–382
[52] http ://hal.archives-ouvertes.fr/inria-00378878/en/
V. M ARTINS, R. A KBARINIA, E. P ACITTI, et P. VALDURIEZ. Reconciliation in the APPA P2P
System. In International Conference on Parallel and Distributed Systems (ICPADS), 2006, Minneapolis, États-Unis. IEEE, 2006, pages 401–410
182
Bilan 2006–2009 et projet 2012-2015 GDD
[53] http ://tel.archives-ouvertes.fr/tel-00481299/en/
C. C OULON. Réplication Préventive dans une grappe de bases de données. Thèse de doctorat,
Université de Nantes, 2006
[54] http ://hal.archives-ouvertes.fr/hal-00448128/en/
V. M ARTINS, E. P ACITTI, R. Jimenez P ERIZ, et P. VALDURIEZ. Scalable and Available Reconciliation on P2P Networks. In Journées Bases de Données Avancées (BDA), 2006, Lille, France, pages
343–355
[55] http ://hal.archives-ouvertes.fr/hal-00448120/en/
F. J OUAULT et I. K URTEV. Transforming Models with ATL. In Satellite Events at the MoDELS
2005 Conference, LNCS 3844, 2006, Jamaı̈que. Springer, 2006, pages 128–138
[56] http ://hal.archives-ouvertes.fr/inria-00482333/en/
R. A KBARINIA. Data Access in Dynamic Distributed Systems, 2009
6.13.2 Bibliographie externe
[57] http ://rfc-gnutella.sourceforge.net, 2007
[58] http ://www.kazaa.com, 2007
[59] R. AGRAWAL, J. K IERNAN, R. S RIKANT, et Y. X U. Hippocratic Databases. In Very Large
Databases (VLDB), 2002
[60] S. R ATNASAMY, P. F RANCIS, M. H ANDLEY, R. M. K ARP, et S. S HENKER. A scalable contentaddressable network. In SIGCOMM, 2001, pages 161–172
[61] OECD. Guidelines on the Protection of Privacy and Transborder Flows of Personal Data, 1980
Équipe
GRIM
Chapeau-résumé
L’équipe GRIM (Gestion, Résumé, Interrogation et apprentissage sur les Masses de données) aborde
des questions de classification, d’indexation et d’interrogation sur des données, dans la perspective d’en
faciliter l’accès et/ou d’en fournir une analyse.
Selon les travaux, nous traitons des données relationnelles, des flux d’événements ou des vecteurs d’attributs multivariés continus. Elles peuvent être issues de secteurs applicatifs variés : données bancaires,
médicales, descripteurs de données audiovisuelles, méta-données géo-temporelles...
La problématique assez large du clustering de données (classification non supervisée) et son exploitation
pour l’indexation et la recherche d’information sont au cœur de nos activités. Selon les objectifs visés,
nous l’introduisons sous divers cadres mathématiques, critères d’optimalité et contraintes. Ainsi, nos
activités s’inscrivent dans la zone d’intersection (croissante) des communautés ”bases de données” et
”apprentissage / fouille”.
Au cours de ce quadriennal, la majorité de nos travaux s’est orientée vers le cas des sources de données
réparties (intégration de classifications de données, index distribués) ou de stratégies de répartition de
données exploitant leur classification. Cette inflexion cherche à traiter les questions d’interrogation,
d’indexation et d’apprentissage pour les systèmes à données de plus en plus distribuées et dynamiques.
183
184
Bilan 2006–2009 et projet 2012-2015 GRIM
D’autre part, elle a permis la participation de l’équipe GRIM à l’équipe-projet INRIA ATLAS, avec
l’équipe GDD du LINA. Cette orientation a impliqué tous les membres permanents de l’équipe et a
abouti à une production scientifique conséquente. En parallèle, d’autres activités ont été menées, d’une
part, sur la recherche d’information multimédia et, d’autre part, sur le résumé et la fouille de flux de
données.
7.1 Composition de l’équipe au 30/06/2010
Nom
GELGON
Prénom
Marc
Permanents au 30/06/2010
Position
PR2
Institution
UN
MARTINEZ
José
PR2
UN
PIGEAU
RASCHIA
Antoine
Guillaume
UN
UN
Nom
ANJUM
BRUNEAU
EL ATTAR
KOUAHLA
Prénom
Adeel
Pierrick
Ali
Zineddine
MC
MC
Doctorants au 30/06/2010
Financement
SFERE
ANR
ANR/Région
MESR
PHAM
Nom
NACHOUKI
Nom
NIKSERESHT
ROUGUI
LEROUX
Arrivée
01/09/2000
(MC 2000-2008)
01/09/1993
(MC 1993-2004)
01/09/2006
01/09/2003
Institution
Arrivée
UN
01/01/2010
UN
01/09/2007
UN
01/05/2008
UN
01/10/2009
UN/Univ. New
Quang-Khai
CNRS/Région
01/10/2005 1
South Wales
Membres associés sur la période 2006-2010
Prénom
Position
Institution
Marie-Pierre
MC
UN
01/09/1992
Personnels temporaires sur la période 2006-2010
Prénom
Position
Institution
Arrivée
Départ
Afshin
ATER2
UN
01/09/2009
31/08/2010
2
Jamal
ATER
UN
01/09/2009
31/08/2010
Sylvie
Assist. d’équipe
UN/CDD
01/09/2006
en poste
1 : soutenue le 9 juillet 2010. Calendrier particulier (co-tutelle franco-australienne).
2 : A.NIKSERESHT et J.ROUGUI ont commencé leur doctorat avec un niveau de français ne
permettant pas d’enseigner. Le niveau atteint pendant la thèse, ils ont souhaité acquérir une expérience
de l’enseignement et sont maintenant qualifiés MC.
Évolution de l’équipe sur la période 01/01/2006-30/06/2010
– Noureddine Mouaddib (PR) a été membre et responsable de l’équipe GRIM jusqu’à septembre
2007. A cette date, il a alors été détaché, pour fonder un établissement d’enseignement supérieur
et de recherche au Maroc, l’Université Internationale de Rabat, qu’il préside actuellement. La
responsabilité de l’équipe est alors passée de Noureddine Mouaddib á Marc Gelgon.
GRIM
185
– En 2007, Laurent Ughetto (MC UN) a obtenu sa mutation à l’université de Rennes 2 (rapprochement familial).
– De sep. 2007 à août 2008, Guillaume Raschia a été en délégation á l’INRIA. Son équipe d’accueil
était l’EPI ATLAS, à Nantes.
– En 2005, Julien Cohen (MC UN) a été recruté principalement pour un besoin pédagogique Polytech (génie logiciel, langages). Il a été temporairement membre de GRIM, équipe de la composante
d’accueil, puis est devenu en 2007 membre de l’équipe du laboratoire proche de ses affinités scientifiques (équipe ASCOLA).
7.2 Faits marquants 2006-2010
Structuration et thèmes de recherche
Les travaux de l’équipe s’inscrivent à l’intersection des communautés bases de données (représenter
et organiser les données pour y accéder efficacement) et apprentissage/classification/fouille de
données (analyser les données). Selon les travaux, les données que nous traitons sont de type tabulaire/relationnelle, ou des vecteurs d’attributs dans des espaces multivariés continus, typiques des
données multimédia. Les questions que nous traitons portent principalement sur :
– la construction de descriptions concises (modèles paramétrés ou semi-paramétrés) sur des masses
de données et leur exploitation pour l’analyse, la classification, le résumé de données.
– l’indexation, l’interrogation, les structures de données et mécanismes permettant un accès aux
données qui soit performant, en terme de coût (temps) et de flexibilité (réponses approchées).
Lors du quadriennal 2006-2009, l’effort de recherche a largement porté sur l’inflexion des travaux
de l’équipe vers le cas des données distribuées. Il ne s’agit pas d’une migration thématique de l’équipe
vers l’algorithmique répartie mais d’un élargissement des questions d’indexation, d’interrogation et de
classification au cas des données réparties, que la répartition soit une donnée de l’application ou un
objectif en soi (parallélisme pour la performance). Aussi, une partie substantielle des résultats nouveaux
(section 7.5.2) concerne ce sujet. Cette orientation correspond à la fois à des opportunités scientifiques
assez naturelles et à l’inscription des activités de l’équipe GRIM dans l’équipe-projet INRIA ATLAS
(discuté plus bas dans cette section).
Publications majeures de l’équipe sur la période
1. Pattern Recognition. 2010 [6]
2. Multimedia Tools and Applications. 2010 [4]
3. ACM Conf. on Information and Knowledge Management (CIKM). 2009 [14]
4. IEEE Transactions on multimedia. 2008 [21]
5. Database and Expert Systems (DEXA). 2008 [18].
6. Extending Database Technology (EDBT). 2008 [30].
7. ACM Conf. on Information and Knowledge Management (CIKM). 2007 [36].
8. IEEE Int. Conf. on Data Engineering (ICDE). 2007 [33].
186
Bilan 2006–2009 et projet 2012-2015 GRIM
Organisation de conférences majeures, prix et récompenses
– G. Raschia, N. Mouaddib : respectivement président du comité d’organisation et Executive chair
du congrès international EDBT’2008 (Extending DataBase Technology), Nantes.
– N. Mouaddib : président du comité d’organisation du congrès BDA’2011 (Bases de Données
Avancées).
– P. Bruneau, M. Gelgon : nommé parmi les cinq meilleurs articles au congrès national RFIA’ 2010
(Reconnaissance des Formes et Intelligence Artificielle).
Tableau récapitulatif
ACL
8
ACLN
4
Récapitulatif des publications par catégorie
ASCL BRE INV ACTI ACTN COM AFF
0
0
0
16
20
0
1
OS
16
OV
0
DO
0
AP
3
Composition de l’équipe GRIM, composition de l’équipe-projet INRIA ATLAS et positionnements
scientifiques des deux entités.
Guillaume RASCHIA, Marc GELGON et les doctorants indiqués dans le tableau ci-dessus sont
membres de l’équipe-projet INRIA (EPI) ATLAS, créée en 2004 par Patrick VALDURIEZ, localisée à
Nantes et rattachée au CR INRIA Rennes Bretagne Atlantique. Cette EPI regroupe un sous-ensemble
de l’équipe GRIM et un sous-ensemble de l’équipe GDD du LINA, sur le thème de la gestion des
données complexes dans les systèmes distribués. José MARTINEZ a été initialement membre de l’EPI
ATLAS, puis a pris la responsabilité du département informatique de Polytech’Nantes (200 étudiants)
jusqu’à fin 2007. Noureddine MOUADDIB a été initialement membre de l’EPI ATLAS, puis est parti en
détachement. L’EPI ATLAS se termine fin 2010.
Comme évoqué plus haut, la contribution des membres de l’équipe GRIM à l’EPI ATLAS concerne principalement l’indexation, l’interrogation et la classification pour exploiter les infrastructures à données
réparties. L’équipe GDD, pour sa part, a contribué sur des questions de réplication, d’équilibrage de
charge, d’interopérabilité, de médiation et de sécurité. Cette organisation a donné lieu à deux coencadrements de thèses (R.HAYEK et J.MANJARREZ-SANCHEZ) et de nombreuses publications communes aux deux équipes.
7.3 Fondements scientifiques
7.3.1 Descriptions concises de masses de données
Nos problématiques de fond sont, dans l’ensemble, celles de la classification non supervisée de
données (clustering). Quoique classique, cette question reste centrale, tant dans la communauté des bases
de données que celle de l’apprentissage. En effet, elle est continuellement renouvelée, entre autres par
les caractéristiques des données (structure particulière, spatiale ou temporelle ; volume ; dimension), le
travail sur système distribué, la diversité des critères d’optimalité pertinents, selon les applications et
objectifs précis, la prise en compte de l’imprécision ou de l’incertitude. Notre équipe s’appuie principalement sur deux cadres mathématiques :
– des résumés hiérarchiques et multi-dimensionnels de données [59], s’appuyant sur une traduction
des données vers des variables linguistiques floues [66] ;
GRIM
187
– les modèles probabilistes paramétrés et l’estimation statistique, notamment bayesienne et les approximations associées [68]. Nous privilégions les mélanges de lois [69], forme particulièrement
riche de modèle et dont les applications sont très variées.
Dans les deux cadres, notre objectif général est de construire et d’exploiter, souvent de manière
incrémentielle, des modèles optimisant un compromis entre qualité de description des données et parcimonie de représentation. À la réduction en volume s’ajoute la réduction en dimension, qui elle-même
constitue un domaine d’étude bien établi.
Dans les applications informatiques traditionnelles, l’ensemble des données traitées est fini et stocké
de façon persistante sur des mémoires externes, soit sous la forme de fichiers, soit dans des SGBD. Un
champ d’étude émergeant bouscule ces hypothèses fondamentales en considérant des flux de données
continus et infinis [63]. Dans ce contexte, où il est impossible de stocker l’intégralité des données, le besoin de représentations parcimonieuses, construites à la volée et tenant compte de modèles de dégradation
au cours du temps, a émergé. La qualité incrémentielle des algorithmes est ici un critère essentiel.
7.3.2 Indexation et interrogation de données
Les techniques d’indexation de données visent à assurer un coût modéré d’accès aux données volumineuses et/ou de grande dimension [70]. Classiquement, les solutions consistent à diviser, de manière
récursive, l’espace de recherche (généralement multi-dimensionnel) en cellules, de manière à permettre
une exploration qui élague fortement le jeu de données à chaque étape. Selon les méthodes, cette division peut être guidée par les données ou en être indépendante. Si de nombreuses structures, en particulier
arborescentes, ont montré leur efficacité pour nombre de situations usuelles, deux problèmes demeurent :
– Ces techniques ne sont plus efficaces quand les données sont de dimension trop élevée (quelques
dizaines), en particulier dans le cas de requêtes de type “plus-proches voisin”. Or, ces données
de grande dimension sont rencontrées dans des cas applicatifs importants, comme les descripteurs
locaux ou globaux d’images. Un apport majeur sur ces questions a été fourni par les techniques de
hachage vers un espace à faible dimension préservant le voisinage (LSH [64]). Une autre voie, dans
laquelle nous inscrivons nos travaux, concerne l’exploitation d’architectures parallèles (stratégie
de répartition des données, parallélisation des algorithmes de recherche).
– Confronté à l’interrogation de grands volumes de données, il peut être souhaitable de sacrifier la précision des réponses, au profit du temps de réponse. En particulier, dans une première
phase, plutôt exploratoire et interactive, il est possible de fournir rapidement des réponses approchées, au moyen de niveaux intermédiaires de représentations hiérarchiques, qui tiennent
souvent en mémoire centrale. Cette idée s’inscrit dans l’ensemble des travaux sur les requêtes
coopératives [65] et plus particulièrement sur le traitement des réponses pléthoriques et des
réponses vides aux requêtes. La construction de structures arborescentes disposant d’une description linguistique intensionelle [66] dans chaque nœud permet de retourner des réponses sous une
forme exploitable pour l’utilisateur.
Enfin, nos travaux sont liés à des problèmes centraux en gestion des données distribuées, en particulier l’intégration de données via l’intégration des descriptions concises décrites en 7.3.1, les index
distribués, les stratégies de répartion de données et le parallélisme.
7.4 Applications et enjeux
Le commerce électronique et les entrepôts de données d’entreprise, les collections de données de la
”vie numérique” grand public, les bases de données à caractère scientifique sont quelques exemples de
188
Bilan 2006–2009 et projet 2012-2015 GRIM
contextes produisant des grands volumes de données, au cœur des échanges sociaux et économiques.
L’intérêt de ces données est très tributaire des performances des outils permettant l’aide à la décision ou
la recherche de l’information (rapidité de l’accès, commodité d’interrogation ou de navigation). Or, pour
nombre d’applications, les caractéristiques des sources de données (production en continu de données,
données distribuées) soulèvent de nombreuses questions de recherche. Enfin, nombre de ces données
décrivant des caractéristiques d’individus, l’élaboration de technologies algorithmiques permettant de
préserver la confidentialité des données personnelles est un enjeu majeur.
7.5 Nouveaux résultats pour la période 2006-2010
7.5.1 Représentations parcimonieuses pour analyser, interroger et naviguer
Ces résultats concernent la conception et l’exploitation de modèles compacts ou structures sur des
données, pour analyser, interroger et naviguer dans ces données. Les résultats A et B étendent des travaux
de l’équipe sur les résumés multi-niveaux de données tabulaires [59], tandis que les résultats C et D
s’appuient respectivement sur des modèles probabilistes et des treillis de Galois.
A. Interrogation flexible
Participants : Guillaume RASCHIA, Noureddine MOUADDIB, Amenel VOGLOZIN, Mounir
BECHCHI, Lamiaa NAOUM
Nous avons développé et implémenté une méthode de construction de résumés de données tabulaires
/ relationnelles [33], munie d’une algèbre [54]. Le résumé est une structure hiérarchique et multidimensionnelle. Elle s’appuie sur des caractérisations linguistiques floues, c.a.d. des termes du langage naturel
associés à des fonctions, pour décrire de façon concise les groupes d’objets similaires extraits par classification. Le résumé permet à la fois de produire des résultats approchés de requêtes [52] et de supporter
une méthode d’accès aux données pour des requêtes flexibles [20].
B. Résumé de séquences
Participants : Guillaume RASCHIA, Quang-Khai PHAM, Noureddine MOUADDIB
Nous avons travaillé sur des données temporelles, organisées en séquences d’événements, traditionnellement sujets d’algorithmes d’extraction de motifs séquentiels fréquents, dont le calcul est très
coûteux sur des séquences de grande taille et de grande variabilité.
Dans ce contexte, nous avons proposé une définition pour des représentations parcimonieuses, que
nous appelons résumés, de séquences d’événements [14]. Nous avons développé un algorithme de
généralisation-fusion capable de produire à la volée une séquence résumée à partir d’une séquence
d’événements initiale [25]. Le contenu et la chronologie des événements sont simultanément dégradés
pour construire la séquence résumée. Ces techniques ont été validées sur des données financières de
Reuters (partenariat dans le cadre de la thèse de Q.K. PHAM).
C. Structuration de données spatiales/spatio-temporelles
Participants : Antoine PIGEAU, Marc GELGON, Pierrick BRUNEAU
GRIM
189
Dans la perspective applicative de gestion de bases d’images personnelles, nous avons montré
l’intérêt et proposé une manière de construire une structure à partir d’attributs géo-temporels. Nos techniques reposent sur la construction incrémentale d’une hiérarchie de modèles de mélanges probabilistes,
l’estimation associée faisant appel à des approximations de critères bayesiens dédiés à une perspective
”clustering” [53]. Nous avons proposé plusieurs solutions pour combiner les critères spatial et temporel
[3] et construire des descripteurs sur la hiérarchie formée [4, 27]. Le début de la période a également vu la
soutenance d’une thèse en partenariat industriel sur la fouille de données spatiales (zones de chalandises)
[49].
D. Recherche d’information dans les données audiovisuelles
Participants : Jose MARTINEZ, Najlae IDRISSI, Ibrahima MBAYE, Erwan LOISANT 1
L’utilisation des treillis de Galois (de concepts) pour classer des documents multimédias et parcourir
cette classification a fait l’objet de recherches dans trois travaux de thèse. En effet, un treillis de Galois présente de nombreux avantages, parmi lesquels nous avons plus particulièrement été intéressés par
(i) une classification ne privilégiant aucun point de vue, fort utile pour gérer de nombreux descripteurs
éventuellement corrélés, et (ii) des possibilités de parcours en temps constant sur un graphe pré-construit.
Il s’est d’abord agi de traduire des descripteurs numériques en valeurs discrètes en passant par des
variables linguistiques floues. Appliquée à des descripteurs de couleur, cette traduction est assez directe,
mais elle peut amener à un treillis ”creux”, c’est-à-dire contenant de nombreux nœuds auxquels aucune
information effective n’est directement associée. Nous avons réussi à améliorer notablement la compacité
du graphe sans sacrifier les performances en effectuant les discrétisations durant l’insertion des objets
dans le treillis, c’est-à-dire en tenant compte de la structure en cours de construction plutôt qu’a priori
et de manière arbitraire.
Ce travail a été poursuivi pour la navigation sur des vidéos [50]. Les vidéos sont de manière intrinsèque organisées en une hiérarchie allant de la vidéo complète aux plans. Un ensemble d’images
caractéristiques de plans est organisé suivant un treillis de Galois, permettant des modalités de navigation originales dans un corpus de videos. Enfin, dans le cadre d’une collaboration franco-marocaine
(thèse de N.IDRISSI [24]), des descripteurs de texture ont été introduits (statistiques sur les matrices
de co-occurence, en raison de leur bonne correspondance avec le langage naturel). Ensuite, les bornes
permettant de discrétiser les valeurs numériques en trois valeurs discrètes : fort, moyen et faible ont
été déterminées via une méthode de classification non supervisée. Enfin, les treillis de Galois ont été
construits sur des bases de textures (Meastex et Brodatz) et une base d’images standards (Corel) [29, 7].
7.5.2 Représentations parcimonieuses et données distribuées
Les trois premiers résultats concernent l’exploitation des représentations parcimonieuses des types
décrits plus haut, dans le contexte de sources de données distribuées. Deux résultats concernent la construction de modèles de données distribuées, ne nécessitant pas de réunir des données (résultat E : par
résumés, résultat F : par mélanges de lois). Un troisième résultat (G) concerne l’exploitation et la maintenance des résumés distribués. Enfin, alors que les travaux précédents travaillent sur le clustering de
données déjà réparties, le résultat H concerne, à l’inverse, le regroupement de données comme stratégie
de répartition des données.
1. thèse soutenue en 2005 mais publication dans le quadriennal.
190
Bilan 2006–2009 et projet 2012-2015 GRIM
E. Agrégation de résumés
Participants : Guillaume RASCHIA, Mounir BECHCHI, Noureddine MOUADDIB
Nous avons conçu des procédés de résumé de données distribuées s’appuyant sur des algorithmes
originaux de fusion de résumés hiérarchiques locaux (de même schéma) en un résumé global [36, 8]. Une
propriété essentielle est que ces algorithmes ne requièrent pas l’accès aux données originales. L’étude
expérimentale a démontré la qualité de description des résumés ainsi obtenus (vis-à-vis d’une solution
centralisée, qui ferait référence) et une grande performance. Nous avons d’abord proposé un algorithme
glouton de fusion qui considère toutes les feuilles des deux hiérarchies et genère une partition optimale
pour l’union des deux sources de données. Néanmoins, cette solution a un coût exponentiel. Nous avons
alors élaboré deux alternatives de coût constant par rapport au volume de données : un algorithme de
fusion par incorporation, qui insère les feuilles d’un arbre dans l’autre arbre, et un algorithme de fusion
par alignement, où les résumés sont ré-arrangés par niveaux, de bas en haut.
F. Agrégation de modèles probabilistes prenant la forme de mélange de lois
Participants : Marc GELGON, Antoine PIGEAU, Pierrick BRUNEAU, Afshin NIKSERESHT, Ali
EL ATTAR, Jamal ROUGUI
Ces résultats, comme en E, concernent l’agrégation de représentations concises de masses de
données, sans accès aux données, mais il s’agit ici de mélanges probabilistes de lois, dans des espaces
multivariés continus. Selon les deux perspectives classiques des mélanges de lois, l’objectif est soit l’estimation de densité à partir d’estimés locaux de densités, soit la fusion de partitions.
Nos propositions concernent essentiellement des procédés de combinaison de composantes de
mélanges à fusionner, employant des techniques d’optimisation de critères statistiques. Un premier
résultat est un algorithme cherchant, de manière locale, à optimiser une approximation de la divergence
de Kullback entre l’agrégation simple des mélanges à fusionner et le mélange que l’on recherche, où
la ”redondance” est supprimée [21, 19]. L’efficacité de ce procédé pour l’estimation globale à partir de
nombreuses sources, au moyen de propagation par rumeur des paramètres des lois, a été montrée. Nous
avons ensuite proposé une autre solution, démontrant la manière d’étendre aux composantes de mélange,
explorant ainsi un espace de recherche plus grand et traitant par un critère bayesien (approximation variationnelle) du mélange après fusion [28]. En introduisant un a priori dédié dans le modèle et en révisant
l’optimisation, nous avons obtenu une variante améliorant à la fois la rapidité de l’optimisation et la
qualité de la solution [11, 6]. La portée des travaux a alors été étendue dans deux directions. D’une part,
une réduction de dimension conjointe à l’agrégation des mélanges a été proposée (agrégation bayesienne
variationnelle de mélanges d’ACP probabilistes [1]). D’autre part, nous étudions des procédés visant à
rendre statistiquement robuste l’estimation de modèles globaux à partir de modèles locaux [10]. Enfin,
dans le cadre d’une co-tutelle de thèse franco-marocaine au début du quadriennal, nous avons proposé un
procédé d’organisation, sous forme arborescente, d’un ensemble de mélanges de lois, à fin d’indexation
de données audio [38, 46].
G. Exploitation de résumés de données pour l’interrogation des réseaux pair à pair
Participants : Guillaume RASCHIA, Rabab HAYEK, Noureddine MOUADDIB
Nous avons développé une méthode d’indexation sémantique sur réseaux pair à pair [30] pour des
architectures hiérarchiques, c’est-à-dire disposant d’un réseau de super-nœuds qui jouent eux-mêmes le
GRIM
191
rôle de serveur pour tous les nœuds avec lesquels ils sont connectés. La construction itérative de l’index
repose sur la fusion de résumés hiérarchiques que nous avons traitée dans [36].
Nous avons également proposé un algorithme de partitionnement de graphe pour l’émergence de
petits mondes, c.a.d. des groupes de nœuds ayant un fort coefficient de clustering, dans des réseaux
P2P purs [15], l’idée étant de tirer profit de la taille réduite de chaque cluster pour y construire un
index sémantique sophistiqué et ensuite propager les requêtes entre les clusters par inondation (ou mode
dérivé). Le principe repose simplement sur l’analyse des degrés des nœuds dans un voisinage restreint
(aucune connaissance globale n’est employée).
H. Passage à l’échelle de l’accès aux données en grande dimension
Participants : José MARTINEZ, Jorge MANJARREZ-SANCHEZ, Zineddine KOUAHLA
Nous avons étudié le problème général de la recherche par plus proches voisins dans le cas difficile où les requêtes et objets recherchés sont décrits par un grand nombre d’attributs (problème de la
malédiction de la dimensionalité). Nous avons d’abord examiné ce problème dans le cas où une base
de données centralisée doit traiter les requêtes de tous les utilisateurs [56]. Nous avons caractérisé les
limites théoriques et pratiques en performance de l’indexation, quand l’accès au disque est nécessaire,
puis proposé des solutions à base de clustering des objets de la base de données [37]. La complexité a
été analysée et un procédé de calcul du nombre optimal de cluster proposé, menant à des algorithmes
sous-linéaires. Enfin, pour utiliser au mieux le parallélisme, nous avons élaboré une méthode d’allocation
de données pour machine parallèle sans mémoire partagée [18, 9].
7.6 Logiciels
L’équipe produit des logiciels qui ont vocation à évaluer ou illustrer des propositions décrites dans
des articles que nous produisons. Dans le quadriennal 2006-2009, nous n’avons pas mis ces logiciels
systématiquement à disposition a priori, d’une part parce qu’ils sont généralement issus de thèses et
nécessiteraient un travail d’ingénierie logicielle, d’autre part parce que le code est susceptible d’être
intégré à des fournitures de contrats partenariaux, aboutissant à des licences ”au cas par cas”. Cependant,
nous jugeons important de démontrer le caractère reproductible de nos résultats expérimentaux (service
web, démonstration en conférence...).
DBSum
URL
Participants : G. Raschia (resp), A. Voglozin, L. Naoum, M. Bechchi
Type de licence : service web
Mots clés: Résumé de données, interrogation flexible
DBSum est un service logiciel concernant le résumé de base de données : il fournit des outils pour la
réduction de données, l’interrogation et des opérations OLAP au dessus d’un SGBD. Les techniques
mises en oeuvre ayant été, et continuant à être, l’objet de travaux de recherche de l’équipe, le logiciel
permet une capitalisation interne. Ce logiciel est disponible sous la forme de service web et a été l’objet
d’une démonstration à ICDE’2007 [33].
TSaR
Participants : G. Raschia (resp), Q.K. Pham
URL
192
Bilan 2006–2009 et projet 2012-2015 GRIM
Type de licence : à définir
Mots clés: Flux d’événements, résumé
TSaR est un logiciel construisant un résumé de grand flux d’événements. Il été l’objet d’une
démonstration avec article long à EDBT’2008 [25]. TSaR a été intégré à une architecture globale d’analyse de flux de dépêches financières produites par l’agence Reuters.
VBMM (Variational-Bayes Mixture Merging)
URL
Participants : M. Gelgon (resp), P. Bruneau
Type de licence : A définir
Mots clés: Modèles de mélanges, agrégation
VBMM est un logiciel réalisant la réduction de mélanges de lois (mélanges gaussiens, mélanges d’ACP
probabilistes) par une technique de type Bayes-variationnel, en n’utilisant que les paramètres des
modèles. Il est écrit dans les langages R et C, selon les parties, et met en œuvre les techniques décrites
dans [1, 6].
FindImage
URL
Participants : J. Martinez (resp), N. Idrissi
Type de licence : A définir
Mots clés: Recherche d’image ; recherche interactive
FindImage est un ensemble de six prototypes C/C++ de recherche d’image par le contenu, partiellement
étendu à l’audio et à la video. En particulier, ont été mises en œuvres la ré-écriture des requêtes par rétroaction interrogation / évaluation par l’utilisateur et la navigation sur une base d’images préalablement
classées, par treillis de Galois.
7.7 Contrats et subventions
Les projets collaboratifs dans lesquels l’équipe est impliquée se répartissent, de manière équilibrée,
entre projets académiques (MILES, APMD, SemWeb) ou en collaboration avec des partenaires industriels (Safimage, E-map). Idéalement, cela permet, en parallèle, d’avancer sur des points plus prospectifs
et de réaliser des évolutions de travaux ayant une certaine maturité. À ce jour, nos implications ont réalisé
un compromis satisfaisant entre, d’une part, notre adaptation aux problèmes spécifiques au consortium et
l’enrichissement qui en découle et, d’autre part, une volonté de continuité dans les verrous scientifiques
abordés par l’équipe. L’équipe parvient ainsi à financer ou co-financer des doctorants.
Nous avons aussi contribué à la définition et à l’animation de projets structurants entre équipes
de la région : MILES (2007-2010). Notre équipe travaillant dans la zone d’intersection des bases de
données, de l’analyse de données et des données multimédia, nos travaux sont thématiquement connexes à plusieurs équipes locales. Cela nous donne une bonne vue d’ensemble, aboutissant à répondre de
manière conjointe ou concertée à des projets contractuels et à co-publier.
L’équipe a par ailleurs obtenu des labellisations du pôle de compétitivité Images & Réseaux pour
deux autres projets finalement non retenus (ANR sur les résumés de données distribués, FUI sur
l’anonymisation et la compression de données temporelles).
GRIM
193
Type
CPER
Min. Aff. Etr./ESR
ACI/ARA
ACI/ARA
Région
ANR / Pôle
Compét. I&R
Oseo / Région /
Pôle Compét. I&R
∗
Tableau des contrats et subventions
Institution
Nom
Début/Durée
gestionnaire
COM
UN
01.2004/36 mois
∗
RSFM
UN
10.2004/36 mois
APMD
UN
09.2004/40 mois
SemWeb
UN
09.2004/44 mois
MILES
UN
02.2007/36 mois
Montant
17 Ke
17 Ke
80 Ke
65 Ke
65 Ke
Safimage
UN
09.2007/42 mois
161 Ke
E-map
UN
03.2010/24 mois
75 Ke
: réseau STIC franco-marocain INRIA/CNRS/Min.Aff.Etr.
7.7.1 Projets collaboratifs
Actions régionales
MILES
Début : 01/02/2007, durée : 36 mois
Partenaires : 5 équipes de recherche (axe multimedia)
Coordinateur : FR CNRS Atlanstic
Participants : M. Gelgon (resp), J. Martinez, A. Nikseresht, J. Manjarrez-Sanchez
Montant équipe : 65 Ke
Montant total :
Mots clés : Données multimédia, répartition, apprentissage sur données distribués
MILES est un projet de recherche académique à vocation structurante entre équipes des laboratoires
de la Région. Parmi les 4 axes du projet, GRIM a été impliqué dans l’axe ”multimédia” (5 équipes de
la région), à deux titres : 1) celui de co-animateur (définition des axes et du consortium, gestion des
moyens, animation, évaluations et séminaire pour industriels), 2) celui de participant, contribuant sur
des questions de l’apprentissage statistique sur des données distribuées et de classification en vue de la
répartition de données.
E-map (financement OSEO/Région, label du pôle de compét. Images & Réseaux)
Début : 01/03/2010, durée : 24 mois
Partenaires : 2 équipes de recherche et 2 entreprises
Coordinateur : Human Connect
Participants : M. Gelgon (resp), G. Raschia, A. Pigeau, A. El Attar
Montant équipe : 75 Ke
Montant total : 408 Ke
Mots clés : Réseaux sociaux, recommandation, réputation, recherche d’information.
Le projet e-map est un projet collaboratif entre deux équipes de recherche et deux PME, sur la question des réseaux sociaux informatiques. L’objectif général est de faciliter la recherche d’information
dans le réseau (trouver des partenaires, des contributions, former des communautés par affinités et
complémentarités). Nous contribuons par des techniques extrapolant sur des travaux de l’équipe (apprentissage statistique de profil utilisateur, résumés conceptuels).
194
Bilan 2006–2009 et projet 2012-2015 GRIM
Projets nationaux
ARA Accès Personnalisé aux Masses de Données (APMD)
Début : 01/09/2004, durée : 44 mois
Partenaires : labos PRiSM, CLIPS-IMAG, IRISA, IRIT , LIRIS.
Coordinateur : PRiSm
Participants : G. Raschia (resp), N. Mouaddib, A. Pigeau, M. Bechchi, L. Ughetto, A. Voglozin
Montant équipe : 100 Ke
Montant total : 470 Ke
Mots clés : Recherche d’information, interrogation flexible, personnalisation de l’information.
Le projet APMD (Accès Personnalisé aux Masses de Données)(2004-2007) regroupait des équipes des
laboratoires du PRiSM, Versailles, CLIPS-IMAG, Grenoble, IRISA, Lannion, IRIT, Toulouse, LINA,
Nantes et LIRIS, Lyon. L’objectif du projet était d’améliorer la qualité de la recherche d’information
dans une masse de données à l’aide de la personnalisation. Notre équipe a contribué par une méthode
d’interrogation personnalisée de résumés floues. Afin d’intégrer cette personnalisation dans les requêtes,
notre proposition a été de laisser l’utilisateur définir son propre vocabulaire d’interrogation à l’aide de
variables linguistiques stockées dans son profil. Plusieurs approches ont ensuite été proposées pour
ré-écrire, dans un processus d’interrogation, les requêtes du langage de l’utilisateur vers celui de la
hiérarchie de résumés. Ce projet a donné lieu a un prototype permettant la validation expérimentale de
notre approche.
ARA Querying the Semantic Web with XQuery (SemWeb)
Début : 01/09/2004, durée : 40 mois
Partenaires : labos PRiSM, CNAM, LIP6, SIS.
Coordinateur : SIS
Participants : N. Mouaddib (resp), G. Raschia, A. Pigeau,J. Martinez,M. Bechchi
Montant équipe : 65 Ke
Montant total : 290 Ke
Mots clés : Interrogation flexible, indexation, services web
Le projet SemWeb (Querying the Semantic Web with XQuery) regroupait des équipes des laboratoires
du PRiSM, Versailles, CNAM, Paris, LIP6, Paris, SIS, Toulon et LINA, Nantes. L’objectif du projet
était d’étudier les problématiques et les solutions de médiation de données XML dans le contexte du
web sémantique. Dans le cadre de l’équipe GRIM, ce projet a porté sur l’application des principes des
résumés flous sur la description de services web. L’objectif a été de résumer/indexer/classer un annuaire
de services web à l’aide de nos techniques et de proposer des méthodes pour interroger la classification obtenue. En pratique, les expériences ont porté sur des annuaires stockant des représentations de
services au format WSDL.
ANR Safimage (label du pôle de compét. Images & Réseaux)
Début : 01/02/2007, durée : 42 mois
Partenaires : labos LINA, IRCCYN ; entreprises : Alcatel, IS2T
Coordinateur : Alcatel-Lucent
Participants : M. Gelgon (resp), P. Bruneau
Montant équipe : 161 Ke(Labo : 322 Ke)
Mots clés : Apprentissage sur données réparties, classification interactive
Montant total : 970 Ke
GRIM
195
Le projet Safimage (programme ANR ”Sécurité globale”) élabore des technologies pour l’examen des
données échangées entre utilisateurs de l’internet. Notre équipe intervient sur la classification statistique
de données. Un apprentissage statistique est réalisé, de manière indépendante, dans divers lieux du
réseau de routeurs ; il s’agit d’agréger les modèles locaux en vue d’estimer un modèle global. Une autre
contribution, résultant d’un travail conjoint avec l’équipe COD, concerne la visualisation interactive de
classification.
7.8 Rayonnement
7.8.1 Évaluation de la recherche
Comités de programme (conférences) et de lecture (revues)
– Revues
– Comités éditoriaux de revue scientifique
– N. Mouaddib : IEEE Transactions on Fuzzy Systems ; Int. Journal of Uncertainty, Fuzziness
and Knowlege-based systems.
– Rapports
– G. Raschia : VLDB Journal.
– M. Gelgon : Pattern recognition, Pattern recognition letters, Neurocomputing, Signal, Image
and Video processing, IEEE Trans. on Image Processing.
– Conférences
– Comités de programme
– M. Gelgon : Bases de Données Avancées (2007), IEEE Web Intelligence (2009,2010)
– G. Raschia : EDBT (2008), Bases de Données Avancées (2007,2009,2010), PersDB
(2009,2010), IEEE Web Intelligence (2009,2010), FQAS (2006,2008,2009), ACM Sigmod
Demo (2009).
– Rapports pour un membre d’un comité de programme
– G. Raschia : IFSA/EUSFLAT (2009), PKDD (2009), ECML (2010)
– M. Gelgon : EDBT (2008,2010), ACM SAC (2006,2007,2008), ICPR (2008), BDA (2010)
– A. Pigeau : BDA(2007), EDBT(2008), PersDB(2008), WI(2009,2010)
Expertises régions, ANR, Europe, AERES, ...
– M. Gelgon : expert pour l’ANR (2007,2008) ; expert AERES (comité de visite du CEDRIC en
2010), expertises pour la technolopole nantaise Atlanpole sur projets d’entreprises innovantes.
Participations à jurys (hors équipe) de thèse et HDR , comité de sélection, concours.
– M. Gelgon : HDR de Philippe LAMARRE (Univ. Nantes/LINA, examinateur, 2009)
– M. Gelgon : thèse de Guillaume JEANNIC (Univ. Nantes/IRCCYN, président, 2008)
– M. Gelgon : thèse de Shuo Hsiu HSU (CNAM/Orange Labs, examinateur, 2010).
– M. Gelgon : membre d’un comité de sélection (UN), commission de spécialistes MC CNU27
2006-2008 (UN)
– J. Martinez : thèse d’Eloı̈se LOUBIER (Univ. Toulouse/IRIT, rapporteur, 2009)
– J. Martinez : thèse de Rami ABATAL (Univ. JF Grenoble/IRIT, rapporteur, 2010)
– J. Martinez : thèse de Jérémy PHILIPPEAU (Univ. Toulouse/IRIT, rapporteur, 2009)
– J. Martinez : thèse de Hicham LAANAYA (ENSIETA, rapporteur, 2007)
– J. Martinez : thèse de Anicet KOUOMOU CHOUPO (Univ. Rennes1/INRIA, président,2006)
196
Bilan 2006–2009 et projet 2012-2015 GRIM
– J. Martinez : membre de la commission de spécialistes PR CNU27 2006-2008 (UN)
– G. Raschia : thèse de Wenceslao Enrique PALMA MUNOZ (Univ. Nantes/LINA, examinateur,
2010)
7.8.2 Animation de la communauté
Conférences et séminaires invités
– G. Raschia : Data reduction techniques, data anonymization, séminaire à Université de Californie
à Santa Barbara (2007)
– M. Gelgon : Statistical methods for structuring personnal image collections in time and space,
séminaire à Nokia Research Center, Helsinki (2006)
Organisation de conférences, d’ateliers, d’écoles d’été
– G. Raschia : président du comité d’organisation du congrès EDBT’2008, Nantes (un des congrès
internationaux majeurs en bases de données) ; Co-organisateur de EDBT PhD. Workshop 2008 et
de EDBT/ICDT PhD. Workshop 2009
– N. Mouaddib : executive chair du congrès EDBT’2008 ;
– N. Mouaddib : président du comité d’organisation du congrès Bases de Données Avancées
BDA’2011.
Diffusion de la recherche vers les milieux socio-économiques
– G. Raschia : Confidentialité et anonymisation sur les données personnelles, séminaire au Club des
Responsables Informatiques de l’ouest (CRI Ouest), 2009 ;
– M. Gelgon : Recherche d’information multimédia, séries de conférences Convergence Industrie
Recherche en Informatique, Université de Nantes, 2009 ;
– M. Gelgon a organisé, en 2009, un atelier pour faire connaı̂tre aux industriels nantais les travaux,
dans le domaine du multimedia, des équipes de la région Pays de la Loire.
Collaborations nationales et internationales Au delà de collaborations nationales par le biais de
contrats (cf. section 7.7.1), l’équipe entretient des relations internationales ayant donné lieu à publications
avec :
– New South Wales University, Sydney, Australie (équipe de B.Benatallah), donnant lieu à la thèse
de Q.K. Pham en co-tutelle [44, 25, 12, 14] et au post-doc d’un ancien doctorant de l’équipe, Régis
Saint-Paul dans l’équipe australienne [33]. Thème : résumé de données et de flux de données.
– Universités Mohammed V et ENSIAS, Rabat, Maroc (équipes de D.Aboutajdine et R.Oulad Haj
Thami), donnant lieu à trois thèses en co-tutelle (J. Rougui [46, 48, 38, 22], N. Idrissi [29, 24, 7],
I.Mbaye [47, 50]). Thème : recherche d’image et de vidéo, indexation de mélanges de lois.
– Delphi (USA), R. Hammoud. Thème : suivi interactif en vision par ordinateur, chapitre de livre
[43].
7.9 Formation par la recherche
Pilotage d’écoles doctorales, de spécialités de filières, de master
– J. Martinez : responsable des affaires doctorales pour le LINA à Ecole Doctorale STIM et de la
scolarité de l’école doctorale STIM
GRIM
197
– J. Martinez : co-responsable du master recherche ALD (Architectures Logicielles Distribuées) de
2004-2007, co-habilité par l’UN et l’EMN.
– J. Martinez : responsable du département informatique de l’école d’ingénieurs Polytech’Nantes
(3×70 étudiants), 2005-2008
– G. Raschia : montage et responsabilité d’une nouvelle option de dernière année de formation
ingénieur : ”gestion des contenus numériques” (Polytech’Nantes).
– M. Gelgon : co-responsable d’un projet de master international (DNM : Diplôme National de
Master, adossé aux écoles d’ingénieurs) ”Multimedia et gestion de données”, habilité par le MESR
en mai 2010.
Participation aux enseignements de master, de filière, d’école doctorale
– Etablissements tutelles
– G. Raschia : réseaux pair à pair (5h, Polytech’Nantes), bases de données avancées (18h, Polytech’Nantes, 12h, EMN), SIG (12h, Polytech’Nantes ; 9h, Master ALMA), BD XML (12h,
Polytech’Nantes)
– J. Martinez : recherche d’information ; bases de données multimédias (12h, master ALMA ; 12h,
Polytech’Nantes), parallélisme (26h, Polytech’Nantes).
– M. Gelgon : reconnaissance des formes pour les données multimédias (9h, master ALMA ; 9h,
Polytech’Nantes), image et systèmes multimédia (25h, Polytech’Nantes)
HDR et thèses soutenues sur la période
Nom
Document
HDR
Institution
M. GELGON
[41]
UN
30/11/2007
Nom
Publications
Thèses
Financement
Soutenance
J. MANJARREZ
[18, 37, 31][9]
Gvt Mexique
26/10/2009
M. BECHCHI
INRIA/ANR
15/09/2009
MESR
09/01/2009
Ing. R&D Gecko
SFERE/Iran
22/10/2008
ATER UN
N. IDRISSI
[36, 23, 26][8]
[2, 5, 30, 39, 40,
15][13]
[21, 17, 32, 34, 42,
45][19]
[7, 29][24]
Devenir
Ass. Prof. (Mexique)
Ing. R&D Bimédia
Co-tutelle
18/10/2008
J. ROUGUI
[38, 46, 48][22]
Co-tutelle
16/07/2008
Ass. Prof. (Maroc)
Post-doc ;ATER
UN
Ing.
R&D
BlueXML
Ass. Prof. (Maroc)
Ing. R&D Logica
Ing. R&D Business&Décision
R. HAYEK
A. NIKSERESHT
Soutenance
MESR
11/07/2007
I. MBAYE
C. CANDILLIER
[16, 52, 20, 51,
26][35]
[47][50]
[49]
Co-encadrement
CIFRE
14/11/2006
21/09/2006
L. NAOUM
[54][55]
CIFRE
22/11/2006
A. VOGLOZIN
Devenir
PR UN (Polytech’Nantes)
198
Bilan 2006–2009 et projet 2012-2015 GRIM
– Les thèses de J. ROUGUI et N. IDRISSI ont été menées en cotutelle (Université Mohammed V, Rabat,
Maroc (prof. Driss Aboutajdine).
– La thèse d’I. MBAYE a été menée en co-encadrement avec l’ENSIAS, Rabat, Maroc (profs. J. MARTINEZ et R. OULAD HAJ THAMI). Contrairement à N. IDRISSI et J. ROUGUI, I. MBAYE n’a pas
été administrativement membre du LINA car les accords de co-tutelle n’étaient pas encore signés. Il
a néanmoins participé à la même collaboration franco-marocaine INRIA et, à ce titre, a réalisé trois
séjours de quatre mois au LINA.
– Les thèses soutenues en 2006 ont été l’objet de publications non citées ici, car antérieures à la période
de référence du présent rapport.
7.10 Gouvernance
Organisation de l’équipe, animation scientifique
Les membres permanents de l’équipe sont tous enseignants-chercheurs à Polytech’Nantes, avec
l’équipe COD (site de la Chantrerie, à 7 km du site de l’UFR Sciences et Techniques, où siège la direction du laboratoire et la majorité des équipes). La proximité géographique entre les membres rend
aisés les contacts.
Au-delà de la classique prise de connaissance mutuelle des travaux en cours de l’équipe, nous avons initié
une formule de lecture d’articles en commun. Chaque permanent doit, en réunion d’équipe, proposer
un article (extérieur à l’équipe), récent ou classique, à faire lire à l’équipe, en vue de le commenter
collectivement, ultérieurement. Chacun doit défendre son choix, c.a.d. la qualité intrinsèque de l’article,
et prendre en compte les intérêts et connaissances des autres participants.
Au cours du quadriennal écoulé, nous nous sommes efforcés de localiser les doctorants de l’équipe sur
le site Polytech (auparavant répartis sur deux sites), facilitant les interactions dans l’équipe. La présence
de trois équipes en informatique sur place permet aux doctorants un assez large cercle d’échanges. Pendant le quadriennal, chaque permanent a en permanence encadré ou co-encadré au moins un doctorant.
L’équipe a financé des écoles d’été/hiver (Bruneau, 2007 ; El Attar, 2008 ; Kouahla et Anjum, 2010) et
doctoriales en fin de thèse (Bruneau, 2010). Ce sont généralement les doctorants qui présentent les papiers dans les congrès internationaux. Ils sont encouragés à enseigner, en volume et variété suffisantes
pour prétendre être qualifiés MC.
Jusqu’à 2008, l’équipe a rémunéré une assistante d’équipe sur ses fonds propres (contrats). Depuis 2008,
le laboratoire prend en charge son salaire (emploi à 60%, travaillant pour les équipes COD et GRIM).
La situation en termes de locaux n’est guère satisfaisante (dispersion des non-permanents dans le
bâtiment), mais nous travaillons depuis 2008 à un projet lourd ( 2Mesur le CPER, livraison prévue en
2013), où les équipes GRIM et COD du LINA disposeront de surfaces propres, avec des caractéristiques
fonctionnelles adaptées à un laboratoire.
Stratégies de publication
L’équipe a publié à la fois dans les communautés de gestion de données (EBDT, ICDE, DEXA,
CIKM ; BDA) et reconnaissance des formes (Pattern Recognition, ICPR ; RFIA). Certaines publications
visent les revues ou congrès plus orientés vers la recherche d’information multimédia (IEEE Trans.
Multimedia, MTA, Journal of multimedia, IEEE ICME). Il s’agit là d’un champ d’application privilégié
de l’équipe, depuis toujours fortement connecté à l’apprentissage statistique et, depuis plus récemment,
GRIM
199
aux bases de données, en particulier sur la question du passage à l’échelle. Enfin, alors que nous publiions
régulièrement dans la communauté ”logique floue”, l’inflexion des travaux correspondants nous a conduit
à publier plutôt dans les congrès de la communauté des bases de données.
7.11 Auto-évaluation
Trajectoire de l’équipe
Lors du quadriennal qui se termine, l’équipe a défini et suivi une inflexion thématique vers le thème
de la classification et l’indexation sur les données distribuées (au sens large), en maintenant quelques
autres travaux en parallèle. De cette orientation ont résulté plusieurs thèses, encadrées ou principalement
co-encadrées par tous les permanents de l’équipe GRIM, et une proportion importante de nos publications
récentes. Selon les axes détaillés dans la section 7.12, il nous paraı̂t opportun de poursuivre dans cette
voie. Elle permet à la fois de traiter des problèmes actuellement jugés importants par nous-mêmes et la
communauté et de capitaliser sur nos acquis en les élargissant vers des questions et compétences dont
l’importance sera pérenne.
Inscription dans le laboratoire ; positionnement
L’équipe GRIM traite, dans l’ensemble, des points à l’intersection de la fouille de données et de la
gestion de données distribuées. C’est donc logiquement qu’elle a pu avoir, et pourra avoir, des proximités thématiques et collaborations avec les équipes COD et GDD du laboratoire et que, pendant le
quadriennal, l’équipe s’est significativement investie dans la définition de projets structurants pour le
laboratoire. Avec l’équipe COD, nous avons co-encadré la thèse de Pierrick BRUNEAU et co-publié en
conséquence. Avec l’équipe GDD, la collaboration s’est largement faite dans le cadre de l’EPI INRIA
ATLAS (co-encadrement de deux thèses par G. RASCHIA et J. MARTINEZ). L’équipe GRIM y a eu son
autonomie scientifique (classification et indexation côté GRIM vs. algorithmique répartie côté GDD), a
fonctionné sur ses propres contrats et a bénéficié de deux années de délégation INRIA sur le quadriennal.
Bien que l’EPI ATLAS arrive à échéance fin 2010 et que des mouvements de personnels aient lieu, les
opportunités scientifiques et la volonté mutuelle d’allier les cultures ”classification de données/recherche
d’information” et ”données distribuées” demeurent entières (projets communs montés en 2010).
Politique de lien enseignement-recherche, de lien socio-économique
Les membres de l’équipe sont tous enseignants-chercheurs à Polytech’Nantes, dont la formation
d’ingénieurs est essentiellement définie dans la perspective d’un placement dans l’industrie. Les membres de l’équipe GRIM y sont largement impliqués, dans tous les secteurs. L’équipe vient de mener deux
actions particulières liant ses thèmes de recherche et la pédagogique. D’une part, un nouveau cursus de
dernière année d’école d’ingénieur sur la gestion de contenus numériques, validé par des représentants
de l’industrie, ouvre en septembre 2010, nourrissant un triangle pédagogie-industrie-recherche. D’autre
part, un master DNM international (co-animé par l’équipe IVC du laboratoire IRCCYN et notre équipe)
vient d’être habilité. En termes de recrutement, il s’appuiera dans un premier temps sur relations établies
entre Polytech’Nantes et des universités chinoises.
Par ailleurs, l’équipe souhaite poursuivre son implication dans le partage de la connaissance, dans
son secteur d’activité, sur le territoire nantais, notamment au moyen de contacts informels fréquents avec
le tissu industriel innovant local. Nous agirons aussi pour que les travaux qui démarrent dans l’équipe sur
les technologies pour la vie privée aient une diffusion sociale, au delà des canaux ”recherche” classiques
et des volets économiques.
200
Bilan 2006–2009 et projet 2012-2015 GRIM
Points faibles et risques
L’évolution thématique de nos travaux n’a pas encore été accompagnée, sur tous les points, d’un renouvellement suffisant de nos relations académiques nationales et internationales, pour réellement avancer
ensemble sur les points précis que nous traitons maintenant. Nous mettrons donc un effort sur cet aspect
et ferons en sorte que cette démarche facilite le recrutement de jeunes chercheurs et de chercheurs invités
bien ciblés.
Les voies scientifiques choisies sont à la croisée de communautés bases de données et fouille de données,
qui se rejoignent maintenant sur bien des sujets. La concurrence sur le thème en général est très forte, à la
fois de gros laboratoires et d’industriels internationaux ; en termes de jeux de données et de plateformes,
nous ne sommes pas dans une position favorable. Par contre, nous chercherons à identifier des verrous
bien délimités et suffisamment originaux.
De cette position de carrefour résulte parfois une difficulté d’affichage et de catégorisation thématique
de l’équipe dans les communautés traditionnelles. Notre sentiment est qu’il s’agit plus d’une question
de communication, dans le contexte d’une légère reconfiguration du paysage de la recherche en général,
qu’un défaut majeur de cohérence de notre part.
L’équipe est d’assez petite taille (4 permanents effectifs, 5 doctorants au 30/6/2010), un recrutement de
MC étant prévu pour 2011. Cependant, la cohésion thématique (et géographique) a bien progressé ; nous
chercherons bien sûr à la préserver. Pour assurer un cercle local suffisamment grand d’échanges sur les
activités en cours, nous échangeons très régulièrement avec les équipes voisines. Enfin, la petite taille
peut rendre difficile certains lissages d’activité ou de finances, mais des mutualisations avec d’autres
équipes ou le laboratoire peuvent y remédier.
7.12 Projet scientifique 2012-2015
Notre projet s’inscrit dans la question - large - de l’analyse et de l’interrogation des masses de
données selon trois voies décrites ci-dessous. Les directions liant classification de données, apprentissage et données distribuées seront étendues. Les application visées sont la recherche d’information et
les systèmes à recommandation collaboratifs. L’extension des tâches de classification de données à la
préservation de la confidentialité dans les données personnelles est initiée.
A - Apprentissage sur données distribuées
Les contenus numériques en ligne sont caractérisés par une croissance du volume de documents,
l’enrichissement des méta-données associées (cas notable des systèmes “participatif”). Du côté de l’utilisateur, des besoins et technologies de sélection/agrégation à partir de flux de contenus ont apparu. Par
ailleurs, la toile est devenue une ressource précieuse pour les tâches d’apprentissage automatique (utilisation de wikipedia [57], catégorisation d’images [58]). Sur cette masse de contenus est venu se greffer
le graphe des ”utilisateurs numériques”, en interaction entre eux et avec les contenus, qu’ils déposent,
annotent et évaluent. Cette évolution étend considérablement les possibilités de recherche de l’information (systèmes à recommandation, filtrage collaboratif) et d’observation du système. Simultanément, elle
suscite de nombreuses questions en matière de protection des informations personnelles.
Un objectif important serait de savoir mieux réaliser l’apprentissage dans un contexte de sources de
données dynamiques, volatiles, réparties. L’équipe a récemment apporté des contributions en agrégations
de modèles de données, à la fois sous l’angle ”structure de données/interrogation” et l’angle ”modèles
GRIM
201
probabilistes”. Une première voie cherche à les étendre à des formes de modèles discrets [61], puis mixtes
et non paramétriques [60]. Ce travail débute dans les cadres d’un stage de master et du projet OSEO Emap. En parallèle, nous souhaitons mieux exploiter la multiplicité de modèles probabilistes co-existants,
au delà de l’agrégation telle que nous l’avons étudiée jusqu’ici. Nous privilégions les modes décentralisés
de propagation de l’information [21]. Une collaboration interne au laboratoire débute, combinant nos
activités sur l’agrégation de mélanges et des compétences en protocoles épidémiques nouvelles au laboratoire (équipe GDD). En parallèle, nous cherchons à rendre l’agrégation d’un ensemble de modèles
statistiquement robuste à la présence de modèles non fiables, et ce de façon décentralisée (thèse d’A.
EL ATTAR). Enfin, des voies complémentaires consisteraient, d’une part à estimer et prendre en compte
la redondance des sources, d’autre part à clarifier le lien avec les méthodes d’ensembles non supervisées.
Parmi nos motivations pour l’apprentissage statistique en mode décentralisé figurent les réseaux sociaux décentralisés. Ils sont encore naissants mais prometteurs car recherchant de bonnes propriétés de
robustesse et de maı̂trise de la diffusion des données personnelles. Le défi qui nous intéresse est la proposition, dans ce contexte, de solutions de filtrage collaboratif, de recommandation [67]. Nous examinerons
en particulier l’extension nécessaire des modèles de mélanges à sémantique latente. Dans la voie B cidessous est étudié le probl‘eme des k-plus-proches voisins (kppv) en haute dimension, avec répartition
des données. Le filtrage collaboratif pouvant également se formuler comme des kppv, une réflexion commune sera à mener.
B - Classification et répartition de données
La recherche d’information est une problématique qui se renouvelle à la fois par la prise en compte de
plus en plus de types d’informations complexes et la génération de masses d’information de plus en plus
importantes. Cela fait surgir des probl‘emes (i) de modélisation de l’information, (ii) de comparaison et
de classification, (iii) de visualisation et (iv) de recherche à proprement parler.
L’efficience de la recherche est un probl‘eme clef à résoudre afin de permettre aux utilisateurs
d’accéder à ces masses de données en temps réel. Pourtant, d’un point de vue théorique le probl‘eme
n’en est pas un... En d’autres termes, il n’y a pas de verrou scientifique ! En effet, la principale forme
de recherche est la recherche des k plus proches voisins. Naı̈vement, résoudre une telle requête peut se
ramener à calculer une distance entre un objet-requête et chaque objet de la base. Une fois les distances
calculées, il suffit de les trier et de renvoyer les k premières. La complexité est donc en O(n. log n)
puisqu’elle est dominée par le tri. Sur une machine parallèle non bornée, le tri est réalisable en temps
logarithmique, donc optimal... si l’on dispose de n processeurs. Bien entendu, cela est irréaliste pour les
tailles de données considérées, qui se comptent actuellement en dizaines de millions et plus.
Il s’agit donc de lever un verrou technologique. Les difficultés de l’étude sont visiblement trés importantes puisque la littérature scientifique regorge de structures de données et d’indexation qui ont été
développées pour répondre à ces besoins croissants et/ou pour des applications nouvelles.
Nous visons à développer une approche permettant d’indexer / classifier et rechercher efficacement de
très grands volumes de données représentés dans des espaces multidimensionnels ou métriques. Dans des
√
résultats antérieurs, nous avons construit une solution dont la complexité en temps est en O( n) sur une
grappe de log2 n machines. Elle résout le problème des k plus proches voisins de manière exacte. Malheureusement, l’algorithme de classification utilisé est (trop) coûteux en temps ; il est en O(n2 . log2 n).
Dans le prolongement de ces résultats, l’approche poursuivie actuellement vise à atteindre les objectifs
suivants (pour partie dans le cadre d’une thèse MESR) :
– Nous souhaitons combiner classification et parallélisme dans un espace dont la seule propriété
connue est de disposer d’une métrique. En effet, les descripteurs de données multimédias, et plus
202
Bilan 2006–2009 et projet 2012-2015 GRIM
–
–
–
–
généralement les données complexes, sont très variables dans le temps (ex. : histogrammes, descripteurs MPEG-7, SIFT...). Développer une solution qui ne soit pas dépendante de la nature exacte des données manipulées évite qu’elle ne devienne obsolète en même temps que l’apparition
d’un nouveau descripteur plus efficace.
Nous souhaitons développer un algorithme de clustering plus efficient, la limite étant fixée à une
complexité en O(n. log2 n). A priori, les contraintes imposées par notre algorithme de recherche
permettent de se contenter d’un clustering assez grossier, et les algorithmes présentant une telle
complexité existent. Il s’agit donc de déterminer les conditions de leur viabilité dans notre contexte.
En outre, nous souhaitons obtenir un algorithme de clustering incrémental et parallélisable. Le
but est de permettre la création et la maintenance à la volée d’index adaptés aux besoins de
différents groupes d’utilisateurs. Le besoin est lié au fait que chaque utilisateur, lorsqu’il effectue
des recherches sur des données multimédias, ne s’intéresse ni aux mêmes types d’images ni aux
mêmes types de descripteurs. À titre illustratif, cela correspond, dans les premiers systèmes de
recherche d’images par le contenu, à la possibilité de sélectionner et/ou de pondérer le poids de
différents descripteurs lors d’une recherche.
Plus généralement, sur le plan algorithmique, nous souhaiterions aboutir à des algorithmes de
clustering et de recherche totalement répartis, c’est-à-dire sans contrôle central (fort).
Un point théorique ouvert est celui de la combinaison d’index entre eux plutôt que de la création
d’un nouvel index mixte. Il n’y a sans doute pas de solution dans le cas général, hormis l’agrégation
de rang, mais certaines propriétés des distances utilisées pourraient être exploitables.
C - Anonymisation de données personnelles
La divulgation consentie ou non de données à caractère personnel pose le problème de l’exercice du
droit à la vie privée au regard du progrès des technologies numériques. Les analyses commerciales, la
recherche scientifique, la création externalisée de logiciel, la personnalisation de services, l’ubiquité, etc.
sont autant de circonstances qui justifient la constitution de fichiers et la collecte de traces numériques.
Ainsi chaque individu est soumis à une exposition de plus en plus systématique de ses données à caractère
personnel, en présentant sa carte de fidélité à la caisse du supermarché, en réalisant un achat en ligne,
en envoyant un courriel, en utilisant son téléphone portatif, en faisant des recherches sur le web, en
participant à un réseau social numérique, etc.
En réaction, se développe aujourd’hui un large spectre de technologies numériques qui tendent à
favoriser l’exercice du droit à la vie privée. Dans ce contexte, nous nous proposons d’étudier le problème
de la publication de fichiers renfermant des données sensibles. La première difficulté consiste à ”assainir”
le fichier de sorte à garantir l’anonymat des individus, tout en préservant l’intégrité des données pour des
traitements et analyses futurs. Les méthodes proposées relèvent alors de l’anonymisation. Depuis [62],
la littérature scientifique regorge de méthodes et d’études sur ce thème. De nombreux problèmes ouverts
subsistent néanmoins, parmi lesquels la grandeur d’échelle des méthodes proposées.
À partir de techniques d’indexation spatiale éprouvées, nous proposons de développer des méthodes
d’anonymisation capables de traiter de très grandes masses de données. La thèse d’A. ANJUM entre
dans cette perspective. Nous visons l’efficacité et prétendons simultanément ne pas sacrifier à l’utilité des
fichiers assainis. L’adaptation des index spatiaux à l’anonymisation requiert des mécanismes spécifiques
que nous nous proposons de mettre en place. De plus, le partitionnement des individus selon leurs identifiants indirects (code postal, genre, âge, etc.), tel que suggéré par le k-anonymat de L. Sweenay, est
insuffisant pour empêcher l’identification de caractère sensible (diagnostic médical, etc.) présent dans
GRIM
203
un fichier assaini. De multiples extensions du k-anonymat ont été proposées, qui posent des contraintes
supplémentaires sur les attributs sensibles, chacune avec son algorithme ad hoc de construction de fichier
assaini. Nous envisageons de généraliser l’approche par index spatial de telle sorte à intégrer les contraintes sur les attributs sensibles et, partant, être en mesure de produire des fichiers assainis à même
de respecter la plupart des extensions du k-anonymat (l-diversité, t-proximité, etc.) présentées dans la
littérature.
Parmi les problèmes ouverts figurent également la publication séquentielle et la publication continue
de fichiers assainis. Il s’agit alors de considérer des versions anonymisées successives de fichiers dont le
croisement ne puisse conduire à rompre l’anonymat des individus. à terme, nous envisageons d’étudier
ce problème et d’étendre nos travaux vers l’anonymisation de données géo-référencées et données de
transactions.
7.13 Bibliographie
7.13.1 Publications de référence de l’équipe dans la période
[1] http ://hal.archives-ouvertes.fr/hal-00471313/en/
P. B RUNEAU, M. G ELGON, et F. P ICAROUGNE. Aggregation of probabilistic PCA mixtures
with a variational-Bayes technique over parameters. In IAPR Int. Conf. on Pattern Recognition
(ICPR’2010), IEEE Computer Society., 2010, Istambul, Turquie, pages 340–345
[2] http ://hal.archives-ouvertes.fr/hal-00379832/en/
R. H AYEK, G. R ASCHIA, P. V ALDURIEZ, et N. M OUADDIB. Data Sharing in P2P Systems. In
Handbook of Peer-to-Peer Networking, pages 531–570. Springer US, 2010
[3] http ://hal.archives-ouvertes.fr/inria-00396790/en/
P. B RUNEAU, A. P IGEAU, M. G ELGON, et F. P ICAROUGNE. Geo-temporal structuring of a personal image database with two-level variational-Bayes mixture estimation. In Revised selected papers from Adaptive Multimedia Retrieval workshops (AMR’08-AMR’09)., 2010, Berlin, Allemagne.
Springer, 2010, volume 5811 of LNCS, pages 127–139
[4] http ://hal.archives-ouvertes.fr/hal-00424925/en/
A. P IGEAU. Incremental and hierarchical classification of a personal image collection on mobile
devices. Journal of Multimedia Tools and Applications, 2010, 46(2-3) : 289–306
[5] http ://hal.archives-ouvertes.fr/hal-00379836/
R. H AYEK, G. R ASCHIA, P. V ALDURIEZ, et N. M OUADDIB. Managing Linguistic Data Summaries
in Advanced P2P Applications. In Handbook of Peer-to-Peer Networking, pages 571–600. Springer
US, 2010
[6] http ://hal.archives-ouvertes.fr/hal-00414325/en/
P. B RUNEAU, M. G ELGON, et F. P ICAROUGNE. Parsimonious reduction of Gaussian mixture
models with a variational-Bayes approach. Pattern Recognition, 2010, 43 : 850–858
[7] http ://hal.archives-ouvertes.fr/hal-00429419/en/
N. I DRISSI, J. M ARTINEZ, et D. A BOUTAJDINE. Bridging the Semantic Gap for Texture-based
Image Retrieval and Navigation. Journal of Multimedia, 2009, 4(5) : 277–283
204
Bilan 2006–2009 et projet 2012-2015 GRIM
[8] http ://tel.archives-ouvertes.fr/tel-00475917/en/
M. B ECHCHI. Clustering-based Approximate Answering of Query Result in Large and Distributed
Databases. Thèse de doctorat, Université de Nantes, 2009
[9] http ://tel.archives-ouvertes.fr/tel-00465943/en/
J. M ANJARREZ S ANCHEZ. Efficient Content-based Retrieval in Parallel Databases of Images.
Thèse de doctorat, Université de Nantes, 2009
[10] http ://hal.archives-ouvertes.fr/inria-00383948/en/
A. El A TTAR, A. P IGEAU, et M. G ELGON. Fast aggregation of Student mixture models. In Proc. of
EURASIP European Signal Processing Conference (Eusipco’2009), 2009, Glasgow, Royaume-Uni,
pages 312–216
[11] http ://hal.archives-ouvertes.fr/inria-00383945/en/
P. B RUNEAU, M. G ELGON, et F. P ICAROUGNE. Parsimonious variational-Bayes mixture aggregation with a Poisson prior. In Proc. of EURASIP European Signal Processing Conference (Eusipco’2009), 2009, Glasgow, Royaume-Uni, pages 280–284
[12] http ://hal.archives-ouvertes.fr/hal-00466861/en/
Q.-K. P HAM, G. R ASCHIA, R. S AINT -P AUL, B. B ENATALLAH, et N. M OUADDIB. Résumé de
Séquences Temporelles pour le passage à l’échelle d’applications dépendantes du temps. In Actes
des 25èmes journées Bases de Données Avancées (BDA), 2009, Namur, Belgique
[13] http ://tel.archives-ouvertes.fr/tel-00475913/en/
R. H AYEK. Techniques de localisation et de résumé des données dans les systèmes P2P. Thèse de
doctorat, Université de Nantes, 2009
[14] http ://hal.archives-ouvertes.fr/hal-00466864/en/
Q.-K. P HAM, G. R ASCHIA, N. M OUADDIB, R. S AINT -P AUL, et B. B ENATALLAH. Time Sequence
Summaries to Scale Up Time-dependent Applications. In Proc. of the 18th ACM Conf. on Information and Knowledge Management (CIKM), 2009, Hong-Kong, Chine, pages 1137–1146
[15] http ://hal.archives-ouvertes.fr/inria-00348313/en/
R. H AYEK, G. R ASCHIA, et P. V ALDURIEZ. Cluster-based Search Technique for P2P Systems.
Rapport technique, Université de Nantes - LINA - INRIA, 2008
[16] http ://hal.archives-ouvertes.fr/hal-00429390/en/
L. U GHETTO, A. V OGLOZIN, et N. M OUADDIB. Database querying with personalized vocabulary
using data summaries. Fuzzy Sets and Systems, 2008, 159(15) : 2030–2046
[17] http ://hal.archives-ouvertes.fr/inria-00396791/en/
M. G ELGON et A. N IKSERESHT. Decentralized learning of a Gaussian Mixture with variational
Bayes-based aggregation. In Proc. of the 16th Euromicro Int. Conf. on Parallel and Distributed,
2008, Toulouse, France. IEEE Computer Society, 2008, pages 242–250
[18] http ://hal.archives-ouvertes.fr/hal-00429423/en/
J. M ANJARREZ S ANCHEZ, J. M ARTINEZ, et P. VALDURIEZ. Efficient Processing of Nearest
Neighbor Queries in Parallel Multimedia Databases. In Proc. of Database Experts conference
(DEXA’2008), 2008, Torino, Italie. Springer, 2008, LNCS 5181, pages 326–339
[19] http ://tel.archives-ouvertes.fr/tel-00450587/en/
A. N IKSERESHT. Estimation de modèles de mélange probabilistes : une proposition pour un fonctionnement réparti et décentralise. Thèse de doctorat, Université de Nantes, 2008
GRIM
205
[20] http ://hal.archives-ouvertes.fr/hal-00471684/en/
N. M OUADDIB, G. R ASCHIA, W. A. V OGLOZIN, et L. U GHETTO. From User Requirements to
Evaluation Strategies of Flexible Queries in Databases. In Handbook of Research on Fuzzy Information Processing in Databases, pages 115–142. IGI global, 2008
[21] http ://hal.archives-ouvertes.fr/inria-00368854/en/
A. N IKSERESHT et M. G ELGON. Gossip-based computation of a Gaussian mixture model for
distributed multimedia indexing. IEEE Transactions on Multimedia, 2008, 10 : 385–392
[22] http ://tel.archives-ouvertes.fr/tel-00450812/en/
J. R OUGUI. Indexation de documents audio : Cas des grands volumes de données. Thèse de
doctorat, Université de Nantes/Université Mohammed V, 2008
[23] http ://hal.archives-ouvertes.fr/inria-00346528/en/
M. B ECHCHI, G. R ASCHIA, et N. M OUADDIB. Joining Distributed Database Summaries. Rapport
technique, Université de Nantes - LINA - INRIA, 2008
[24] http ://tel.archives-ouvertes.fr/tel-00465960/en/
N. I DRISSI. La navigation dans les bases d’images : prise en compte des attributs de texture. Thèse
de doctorat, Université de Nantes/Université Mohammed V, 2008
[25] http ://hal.archives-ouvertes.fr/hal-00466855/en/
Q.-K. P HAM, R. S AINT -P AUL, B. B ENATALLAH, N. M OUADDIB, et G. R ASCHIA. Mine your
own business ! Mine other’s news ! In Proceedings of the 11th international conference on Extending database technology : Advances in database technology (EDBT’2008), 2008, Nantes, France,
volume 261, pages 725–729
[26] http ://hal.archives-ouvertes.fr/inria-00346540/en/
M. B ECHCHI, A. V OGLOZIN, G. R ASCHIA, et N. M OUADDIB. Multi-Dimensional Grid-Based
Clustering of Fuzzy Query Results. Rapport technique, Université de Nantes - LINA - INRIA,
2008
[27] http ://hal.archives-ouvertes.fr/hal-00463825/en/
A. P IGEAU. MyOwnLife : incremental and hierarchical classification of a personal image collection
on mobile devices. In Proc. of IEEE Int. Conf. on Multimedia and Expo (ICME’2008), 2008,
Hannover, Allemagne, pages 873 – 876
[28] http ://hal.archives-ouvertes.fr/inria-00368883/en/
P. B RUNEAU, M. G ELGON, et F. P ICAROUGNE. Parameter-based reduction of Gaussian mixture
models with a variational-Bayes approach. In Proc. of IAPR International Conference on Pattern
Recognition (ICPR’2008), 2008, Tampa, USA. IEEE Computer Society, 2008, pages 450–453
[29] http ://hal.archives-ouvertes.fr/hal-00429422/en/
N. I DRISSI, J. M ARTINEZ, et D. A BOUTAJDINE. Semantic Texture Interpretation for Image Retrieval and Navigation. In Proc. Int. Symp. on Image/Video Communications over fixed and mobile
networks (ISIVC’08), 2008, Bilbao, Espagne, pages 124–130
[30] http ://hal.archives-ouvertes.fr/hal-00376969/en/
R. H AYEK, G. R ASCHIA, P. VALDURIEZ, et N. M OUADDIB. Summary Management in P2P Systems. In International Conference on Extending Database Technology (EDBT’2008), 2008, Nantes,
France, pages 16–25
206
Bilan 2006–2009 et projet 2012-2015 GRIM
[31] http ://hal.archives-ouvertes.fr/hal-00429428/en/
J. M ANJARREZ S ANCHEZ, J. M ARTINEZ, et P. VALDURIEZ. A Data Allocation Method for Efficient Content-Based Retrieval in Parallel Multimedia Databases. In Proc. of Frontiers of High
Performance Computing and Networking ISPA 2007 Workshop, 2007, Niagara Falls, Canada, pages
285–294
[32] http ://hal.archives-ouvertes.fr/hal-00469893/en/
A. N IKSERESHT et M. G ELGON. An approach to distributed probabilistic model selection for decentralized content-based indexing. In Proc. of IEEE Int. Conf. on Digital Information Management
(ICDIM’2007), 2007, Lyon, France, pages 387–392
[33] http ://hal.archives-ouvertes.fr/hal-00481025/en/
R. S AINT -P AUL, G. R ASCHIA, et N. M OUADDIB. Database Summarization : The SaintEtiQ System. In Proc. of the 23rd IEEE Int. Conf. on Data Engineering (ICDE’2007), 2007, Istambul,
Turquie, pages 1475–1481
[34] http ://hal.archives-ouvertes.fr/hal-00429402/en/
A. P IGEAU, A. N IKSERESHT, et M. G ELGON. Fast tracking of hierarchical partitions with approximate KL-divergence for geo-temporal organization of personal images. In Proc. of ACM
Symposium of applied computing (SAC’2007), 2007, Seoul, Rep. de Corée, pages 1088–1089
[35] http ://tel.archives-ouvertes.fr/tel-00481049/en/
W. A. V OGLOZIN. Le résumé linguistique de données structurées comme support pour l’interrogation. Thèse de doctorat, Université de Nantes, 2007
[36] http ://hal.archives-ouvertes.fr/hal-00204165/en/
M. B ECHCHI, G. R ASCHIA, et N. M OUADDIB. Merging Distributed Database Summaries. In Proceedings of the 16th ACM Conference on Information and Knowledge Management (CIKM’2007),
2007, Lisbonne, Portugal, pages 419–428
[37] http ://hal.archives-ouvertes.fr/hal-00429425/en/
J. M ANJARREZ S ANCHEZ, J. M ARTINEZ, et P. V ALDURIEZ. On the Usage of Clustering for
Content Based Image Retrieval. In Proc. of Computer Science - Theory and Applications, Second
International Symposium on Computer Science in Russia, CSR 2007, 2007, Ekaterinburg, Russie.
Springer, 2007, LNCS 4649, pages 281–289
[38] http ://hal.archives-ouvertes.fr/hal-00416675/en/
J. R OUGUI, M. G ELGON, D. A BOUTAJDINE, N. M OUADDIB, et M. R ZIZA. Organizing Gaussian
mixture models into a tree for scaling up speaker retrieval. Pattern Recognition Letters, 2007,
28(11) : 1314–1319
[39] http ://hal.archives-ouvertes.fr/hal-00379723/en/
R. H AYEK, G. R ASCHIA, P. V ALDURIEZ, et N. M OUADDIB. Peersum : Gestion des résumés de
données dans les systèmes P2P. In Actes du congrès Bases de Données Avancées (BDA’2007),
2007, Marseille, France, pages 60–75
[40] http ://hal.archives-ouvertes.fr/hal-00379711/en/
R. H AYEK, G. R ASCHIA, P. V ALDURIEZ, et N. M OUADDIB. PeerSum : a Summary Service for
P2P Applications. In Proc. of Advances in Grid and Pervasive Computing, Second International
Conference(GPC’2007), 2007, Paris, France. Springer, 2007, number 4459 in LNCS, pages 390–
410
GRIM
207
[41] http ://tel.archives-ouvertes.fr/tel-00450297/en/
M. G ELGON. Structuration statistique de données multimédia pour la recherche d’information.
HDR, Université de Nantes, 2007
[42] http ://hal.archives-ouvertes.fr/hal-00471679/en/
A. N IKSERESHT et M. G ELGON. Agrégation légère de mélanges de lois gaussiennes. In Actes du
congrès Reconnaissance des Formes et Intelligence Artificielle (RFIA’2006), 2006, Tours, France,
pages 242–251
[43] http ://hal.archives-ouvertes.fr/hal-00416678/en/
M. G ELGON et R. H AMMOUD. Building object-based hyperlinks in videos : Theory and Experiments. In Interactive video, pages 45–64. Springer-Verlag, 2006
[44] http ://hal.archives-ouvertes.fr/hal-00466848/
Q.-K. P HAM, N. M OUADDIB, et G. R ASCHIA. Datastream synopsis using SaintEtiQ. In Lecture
Notes in Computer Science 7th International Conference on Flexible Query Answering Systems,
2006, Milan, Italie, volume 4027/2006, pages 530–540
[45] http ://hal.archives-ouvertes.fr/hal-00448168/en/
A. N IKSERESHT et M. G ELGON. Decentralized Distributed Learning of a Multimedia Class for
Content-based Indexing. In 14th Euromicro Conference on Parallel, Distributed and Networkbased Processing (PDP 2006), 2006, Montbeliard, France. IEEE Computer Society, 2006, pages
373–379
[46] http ://hal.archives-ouvertes.fr/hal-00448172/en/
J. R OUGUI, M. G ELGON, M. R ZIZA, J. M ARTINEZ, et D. A BOUTAJDINE. Fast incremental clustering of Gaussian mixture speaker models for scaling up retrieval in on-line broadcast. In Proc. of
IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP 2006), 2006,
Toulouse, France, pages 521–524
[47] http ://hal.archives-ouvertes.fr/hal-00482799/en/
I. M BAYE, J. M ARTINEZ, et R. O ULAD H AJ T HAMI. Galois’ Lattice for Video Navigation in
a DBMS. In Proceedings of the International Workshop on Multimedia Content Representation,
Classification and Security (MRCS 2006), 2006, Istanbul, Turquie. Springer, 2006, volume 4105 of
LNCS, pages 418–425
[48] http ://hal.archives-ouvertes.fr/hal-00448173/en/
J. R OUGUI, M. G ELGON, M. R ZIZA, J. M ARTINEZ, et D. A BOUTAJDINE. Hierarchical clustering
of mixture models for scaling up speaker recognition. In Proceedings of ACM Symposium on
applied computing (SAC 2006), 2006, Dijon, France, pages 1369–1373
[49] http ://tel.archives-ouvertes.fr/tel-00101491/en/
C. C ANDILLIER. Méthodes d’Extraction de Connaissances à partir de Données (ECD) appliquées
aux Systèmes d’Information Géographiques (SIG). Thèse de doctorat, Université de Nantes, 2006
[50] http ://tel.archives-ouvertes.fr/tel-00465956/en/
I. M BAYE. Navigation conjointe dans une base de vidéos et d’images. Thèse de doctorat, Université
de Nantes / École Nationale Supérieure d’Informatique et d’Analyse des Systèmes (ENSIAS), 2006
[51] http ://hal.archives-ouvertes.fr/hal-00471681/en/
L. U GHETTO, A. V OGLOZIN, et N. M OUADDIB. Personalized Database Querying using data summaries. In Proc. of 15th IEEE International Conference on Fuzzy Systems (FUZZ-IEEE’2006),
2006, Vancouver, Canada, pages 734–743
208
Bilan 2006–2009 et projet 2012-2015 GRIM
[52] http ://hal.archives-ouvertes.fr/hal-00442749/en/
W. A. V OGLOZIN, G. R ASCHIA, L. U GHETTO, et N. M OUADDIB. Querying a Summary of
Database. Journal of Intelligent Information Systems (JIIS), 2006, 26(1) : 59–73
[53] http ://hal.archives-ouvertes.fr/hal-00416000/en/
A. P IGEAU et M. G ELGON. Structuration géo-temporelle incrémentale hiérarchique d’une collection d’images pour sa gestion sur un mobile. In Congrès Reconnaissance des Formes et Intelligence
Artificielle (RFIA’2006), 2006, Tours, France, pages 122–131
[54] http ://hal.archives-ouvertes.fr/hal-00471677/en/
L. N AOUM, G. R ASCHIA, et N. M OUADDIB. Towards On-Line Analytical Processing for Database
Summaries : The Core Algebra. In Proc. of the IEEE Int. Conf. on Fuzzy Systems (FUZZIEEE’2006), 2006, Vancouver, Canada, pages 728 – 735
[55] http ://tel.archives-ouvertes.fr/tel-00481046/en/
L. N AOUM. Un modèle multidimensionnel pour un processus d’analyse en ligne de résumés flous.
Thèse de doctorat, Université de Nantes, 2006
[56] http ://hal.archives-ouvertes.fr/hal-00359532/en/
M. B OUGHANEM, L. Tamine L ECHANI, J. M ARTINEZ, S. C ALABRETTO, et J. P. C HEVALLET. Un
nouveau passage à l’échelle en recherche d’information. revue Ingénierie des Systèmes d’information, 2006, 11(4) : 9–35
7.13.2 Bibliographie externe
[57] S. P. P ONZETTO et M. S TRUBE. Deriving a large scale taxonomy from wikipedia. In AAAI’07 :
Proceedings of the 22nd national conference on Artificial intelligence, 2007. AAAI Press, 2007,
pages 1440–1445. ISBN : 978-1-57735-323-2
[58] F. S CHROFF, A. C RIMINISI, et A. Z ISSERMAN. Harvesting image databases from the web. In IEEE
11th International Conference on Computer Vision (ICCV 2007), 2007, Rio de Janeiro, Brazil
[59] R. S AINT-PAUL, G. R ASCHIA, et N. M OUADDIB. General purpose database summarization. In
Proc. of the 31st Int. Conf. on Very Large Data Bases (VLDB’2005), Trondheim, Norway, August
30 - September 2, 2005, 2005, pages 733–744
[60] http ://citeseerx.ist.psu.edu/viewdoc/summary ?doi=10.1.1.61.5003
Y. W. T EH, M. J ORDAN, M. J. B EAL, et D. M. B LEI. Hierarchical dirichlet processes. Journal of
the American Statistical Association, 2003, 101
[61] http ://www.jmlr.org/papers/volume3/blei03a/blei03a.pdf
D. M. B LEI, A. Y. N G, et M. I. J ORDAN. Latent dirichlet allocation. Journal of Machine Learning
Research, 2003, 3 : 993–1022
[62] L. S WEENEY. k-anonymity : A model for protecting privacy. International Journal of Uncertainty,
Fuzziness and Knowledge-Based Systems, 2002, 10(5) : 557–570
[63] B. BABCOCK, S. BABU, M. DATAR, R. M OTWANI, et J. W IDOM. Models and issues in data stream
systems. In PODS, 2002, pages 1–16
[64] A. G IONIS, P. I NDYK, et R. M OTWANI. Similarity search in high dimensions via hashing. In Proc.
of Int. Conf. on Very Large Data Bases (VLDB’99), September 7-10, Edinburgh, Scotland, UK,
1999, pages 518–529
GRIM
209
[65] F. C UPPENS et R. D EMOLOMBE. Cooperative answering : A methodologies to provide intelligent access to databases. In Proceedings of Second International Conference on Expert Database
Systems, 1989, pages 621–643
[66] L. Z ADEH. The concept of a linguistic variable and its application to approximate reasoning.
Information Science, 1975, 8 : 199–249
[67] C. AGGARWAL et P. Y U. Privacy-Preserving Data Mining : Models and Algorithms. Springer,
2008
[68] C. B ISHOP. Pattern Recognition and Machine Learning. Springer, 2006
[69] G. M C L ACHLAN et T. K RISHNAN. The EM Algorithm and Extensions. Wiley, 2008
[70] H. S AMET. Foundations of Multidimensional and Metric Data Structures (The Morgan Kaufmann
Series in Computer Graphics and Geometric Modeling). Morgan Kaufmann Publishers Inc., San
Francisco, CA, USA, 2005. ISBN : 0123694469
Équipe
COD
Chapeau-résumé
”The data big bang and the expanding digital universe : high-dimensional, complex and massive data
sets in an inflationary epoch” 1 : le titre de cet article paru très récemment dans une revue spécialisée
illustre à lui seul les challenges transdisciplinaires de la fouille de données et de l’ingénierie des connaissances. Le changement d’échelle est devenu considérable pour le volume mais aussi pour la complexité
des données à traiter. Si l’algorithmique du traitement des données et des connaissances qui a été le principal objet d’attention de la décennie précédente reste un verrou majeur, elle doit aussi faire face, comme
le souligne le plan stratégique de l’INRIA 2 mais aussi d’autres rapports prospectifs 3 , ”à la qualité et à
l’intelligence des traitements attendus, mais également à l’interactivité et à l’adaptation de l’utilisateur”.
Les recherches de l’équipe COD se positionnent dans ce contexte. Centrées à l’origine sur la fouille
de données - notamment la fouille de règles- et la classification, les compétences de l’équipe se sont
enrichies dans le précédent quadriennal en ingénierie des connaissances, et sur la période 2006-2010 en
visualisation et en apprentissage - réseaux bayésiens-. L’ambition générale de l’équipe est d’améliorer les
1. M.Z. Pesenson, I. Z. Pesenson, B. McCollum (2010). In Advances in Astronomy, 10, ID 350891.
2. Plan stratégique 2008-12, www.inria.fr/inria/strategie
3. European Commission, Information and Communication Technologies, Work Programme 2009-10, cordis. europa.eu/fp7/ict
211
212
Bilan 2006–2009 et projet 2012-2015 COD
performances des algorithmes de fouille et d’apprentissage face à des données complexes en y intégrant
des connaissances de domaines et d’usages via un couplage avec des modèles de connaissances et des
supports visuels interactifs.
8.1 Composition de l’équipe au 30/06/2010
Nom
BLANCHARD
GUILLET
HARZALLAH
KUNTZ
LEHN
LERAY
PICAROUGNE
RAMSTEIN
SINOQUET
TRICHET
Nom
AIME
AMMARKESSENTINI
BEN MESSAOUD
BEN SAID
BRUNEAU
GERASHIM
JARRAYA
KAMOUN
MARINICA
MOURAD
N’GUYEN
NICOLICIN
GEORGESCU
PITON
THOVEX
YASIN
Prénom
JULIEN
FABRICE
MOUNIRA
PASCALE
REMI
PHILIPPE
FABIEN
GERARD
CHRISTINE
FRANCKY
Permanents au 30/06/10
Position
MC
MCHDR
MC
PR2
MC
PR2
MC
MC
MC
MC
Institution
UN
UN
UN
UN
UN
UN
UN
UN
UN
UN
Arrivée
01/09/2006
01/09/1997
01/09/2001
01/09/1998
01/09/2002
01/09/2007
01/09/2005
01/09/2000
01/09/2002
01/09/1999
Prénom
XAVIER
Doctorants au 30/06/10
Position
Cifre
Institution
TENNAXIA
Arrivée
01/09/2007
SOUROUR
ANR
UN
01/10/2007
MONTAMAR
ZOHRA
PIERRICK
TOADER
AIDA
KARIM
CLAUDIA
RAPHAEL
HOAI TUONG
Co-tutelle
PdL
ANR
FUI
Co-tutelle
Co-tutelle
PdL
PdL
PdL
UN
UN
UN
UN
UN
UN
UN
UN
UN
01/10/2009
01/11/2008
01/09/2007
30/09/2009
01/01/2010
01/06/2009
01/09/2006
01/10/2008
15/10/2008
VLAD
Cifre
SP2 SOLUTIONS
01/12/2007
THOMAS
CHRISTOPHE
AMANULLAH
Cifre
ANR
SFERE
VM MATERIAUX
UN
UN
01/09/2008
01/10/2009
01/10/2009
Les soutenances de thèse de C. Marinica et P. Bruneau sont planifiées au dernier trimestre 2010 et celles de X.
Aimé et V. Nicolicin-Georgescu au premier trimestre 2011.
COD
Nom
GAUTRAIS
GERASHIM
GREFFARD
KASSEIM ZEIN
KHUONG
LE GOFFIC
PERNA
TABIA
213
Personnels temporaires sur la période 2006-2010
Prénom
Position
Institution
JACQUES
IR
UN
TOADER
IR
UN
NICOLAS
IE
UN
OUSSAMA
P-D
UN
ANAIS
IE
UN
BLEUENN
IR
UN
ANDREA
IR
UN
KARIM
P-D
UN
Arrivée
12/04/2007
01/11/2007
01/10/2009
01/03/2008
09/11/2009
01/03/2008
01/10/2007
01/06/2009
Départ
30/09/2007
30/04/2009
31/07/2010
31/07/2008
31/07/2010
30/07/2008
30/06/2009
30/08/2010
Chercheurs associés : M. Bernadet (MC), H. Briand (PR émérite), R. Gras (PR émérite), P. Peter (MC)
Évolution de l’équipe sur la période 01/01/2006-30/06/2010
– Arrivées de permanents :
– 2006 : recrutement de J. Blanchard (MC) spécialiste en fouille de données (local)
– 2007 : recrutement de P. Leray (PR) spécialiste en apprentissage - méthodes graphiques probabilistes - (vient du LITIS, Rouen)
– 2009 : C. Sinoquet (MC) spécialiste de bio-informatique a rejoint l’équipe (était précédemment
dans l’équipe COMBI)
– Départs de permanents :
– 2006 : I. Kojadinovic, recruté en 2004, a passé son habilitation et est parti à l’université d’Auckland (a été nommé PR en 2010 à l’université de Pau et des Pays de l’Adour)
– 2009 : H. Briand, fondateur de l’équipe, a pris sa retraite et est PR émérite
– 2010 : M. Bernadet (63 ans) est devenu chercheur-associé
– Chercheurs en séjour temporaire et post-doctorants :
– 2007 (6 mois) : J. Gautrais (actuellement CR1 au CRCA, Toulouse)
– 2006 et 2007 (1 mois) : E. Kalisz (PR invité de Politehnica Bucarest, Roumanie)
– 2007 (1 mois) : S. Trausan (PR invité de Politehnica Bucarest, Roumanie)
– 2007-2009 : A. Perna en post-doc (actuellement chercheur à Uppsala, Suède)
– 2009 (1 mois) : J. Heim (PR invité de l’université de Hof, Allemagne)
– 2009-2010 : K. Tabia en post-doc (nommé MC en sept. 2010 à Lens)
– 2010 (1 mois) : N. Ben Amor (MC invitée de l’ISG, Tunis)
8.2 Faits marquants 2006-2010
Structuration et thèmes de recherche L’équipe COD est structurée autour de trois grandes
thématiques de recherche : (i) la fouille de données et l’apprentissage, (ii) l’ingénierie des connaissances, et (iii) la visualisation des connaissances. En fouille de données, les spécialités autour desquelles
s’est construite l’équipe sont la fouille de règles d’association et la classification non supervisée. Ces
compétences se sont étendues en apprentissage (méthodes graphiques probabilistes) avec l’arrivée de P.
Leray et en analyse de réseaux avec un investissement important ces dernières années de plusieurs membres. L’ambition transversale de l’équipe est d’améliorer les performances -en terme de complexité mais
aussi ”d’actionnabilité”- des algorithmes de fouille et d’apprentissage en y intégrant des connaissances
du domaine et/ou des utilisateurs. Cette intégration s’effectue via un couplage avec des modèles de connaissances (ontologies) ou via une interaction avec l’utilisateur grâce à des supports visuels interactifs
adaptés.
214
Bilan 2006–2009 et projet 2012-2015 COD
Publications majeures de l’équipe sur la période
1. Neurocomputing / EEG Neurocomputing. 2010 [1] : Décrit un modèle de durée basé sur les
modèles graphiques probabilistes permettant, contrairement aux approches classiques, de décrire
explicitement les lois de durée des états considérés.
2. Computers & Operations Research. 2010 [3] : Montre expérimentalement l’intérêt de la fouille
de données pour l’exploration d’espaces de recherche associés à des problèmes d’optimisation
combinatoire (ici la coloration de graphes) et l’amélioration de méta-heuristiques (ici tabou et
algorithmes génétiques).
3. Pattern Recognition. 2010 [4] : Présente un nouveau système de visualisation de résultats d’un
algorithme de classification semi-supervisée incrémental qui facilite l’interaction de l’utilisateur.
Co-publication avec l’équipe GRIM.
4. IEEE Transactions on Knowledge and Data Engineering. 2010 [5] : Propose une démarche
novatrice pour améliorer l’exploitation des masses de règles d’association en ciblant les règles
potentiellement utiles via un post-traitement intégrant des connaissances du décideur sous forme
d’ontologies et de schéma de règles.
5. 18th ACM Conference on Information and Knowledge Management. 2009 [13] : Recherche
appliquée présentant l’intérêt de techniques de fouille de données pour l’évaluation du gain
économique dans le cadre de la prédiction de canaux de marketing pour des données réelles très
volumineuses.
6. IEEE Intelligent Systems. 2008 [28] : Papier collectif présentant les résultats de comparaisons de
plusieurs méthodes d’alignement d’ontologies, dont une développée dans l’équipe.
7. Physica A. 2008 [29] : Premier article à présenter une extension de l’analyse de la mesure d’efficacité à des réseaux spatiaux tri-dimensionnels.
8. Evolutionary Computation. 2007 [33] : Présente un système de classification par nuage d’agents
permettant une interaction via une restitution visuelle dynamique.
9. Discrete Applied Mathematics. 2007 [37] : Analyse axiomatique de deux familles de valeurs
généralisées (extension à une coalition de la notion de valeur qui mesure l’influence d’un joueur)
en théorie des jeux coopératifs.
10. Soft Computing. 2006 [42] : Propose une généralisation nouvelle (appelée hiérarchie orientée) du
modèle classique de hiérarchie en classification à des similarités non symétriques rencontrées en
fouille de règles.
Prix et récompenses, organisation de conférences majeures, conférences invitées
– Présidence des comités scientifiques des conférences IC’07 (F. Trichet) et EGC’08 (F. Guillet)
– Organisation de la Semaine de la Connaissance (regroupement de 10 conférences), Nantes, 2006,
M. Harzallah était la présidente du comité d’organisation
– Organisation des 5èmes Journées Francophones sur les Réseaux Bayésiens, Nantes, 2010 (P. Leray
et C. Sinoquet)
– Lauréat du prix de la fondation des Treilles (A. Perna en post-doc dans l’équipe pour ses travaux
sur l’analyse des réseaux)
– Articles nominés aux workshops internationaux EVOCOP’09 et ENQOIR’09 et prix du meilleur
article à la conférence nationale IC’2009
COD
215
– Le logiciel ATANOR (en gestion de connaissances) dont le premier prototype a été développé
dans l’équipe en collaboration avec les sociétés Performanse SA puis Knowesia a été nominé aux
trophées Orange de l’innovation, 2008
– L’équipe est partenaire du master Erasmus Mundus ”Data Mining and Knowledge Discovery” qui
ouvre en septembre 2010 (responsable F. Guillet pour Nantes)
Tableau récapitulatif
ACL
25
ACLN
27
ASCL
0
Récapitulatif des publications par catégorie
BRE INV ACTI ACTN COM AFF
0
8
19
61
18
2
OS
39
OV
0
DO
9
AP
18
8.3 Fondements scientifiques
L’évolution de l’analyse de données vers la fouille de données au début des années 90 a été marquée
par un changement d’échelle dans les données manipulées. La question centrale pour les précurseurs de
la fouille de données était de trouver (”mining”) des informations potentiellement utiles parmi des masses
de données de plus en plus grandes : ” Data mining : data analysis on a large scale ?” 4 . Deux décennies
après le lancement du manifeste outre-atlantique pour l’Extraction de Connaissances dans les Données
[58] non seulement l’échelle des données a considérablement augmenté, mais leur nature a également
profondément changé. Cette nouvelle évolution se traduit par un accroissement de la complexité des
données traitées : il ne s’agit plus seulement d’enregistrements standards de bases de données relationnelles, mais de données dont la transformation classique Individus × V ariables est délicate. La fouille
de données se transforme en ”fouille de données complexes” voire, sous l’impulsion notamment du Web
sémantique, en ”fouille de connaissances”. Les recherches de l’équipe COD ont suivi cette évolution, et
se sont structurées dans le quadriennal autour de trois axes qui se nourrissent mutuellement : la fouille et
l’apprentissage de relations, l’ingénierie des ontologies, et la visualisation des connaissances.
8.3.1 Fouille et apprentissage de règles
L’identification des relations qui relient des phénomènes, qu’ils soient naturels, issus d’activités humaines ou de systèmes artificiels, est une clé essentielle de l’accès à leur compréhension. Ces relations
peuvent décrire des situations variées allant de la concomitance entre l’existence de deux phénomènes, à
la causalité -où l’antécédent est la cause et le conséquent son effet- souvent privilégiée dans les recherches
pour sa capacité prédictive potentielle. Nos travaux concernent essentiellement l’analyse de dépendances
non symétriques, et nos recherches portent sur deux axes : (1) la fouille exploratoire de règles d’association, et (2) l’apprentissage de modèles graphiques probabilistes.
En fouille de données, les règles d’association de type ”si a et b sont présents alors généralement c est
également présent”, introduites pour exprimer simplement des tendances implicatives entre des attributs
d’une table relationnelle, ont rapidement connu une utilisation intensive [56]. L’objectif prioritaire consiste à extraire les règles ”surprenantes” et potentiellement intéressantes pour l’utilisateur. Le verrou est
ici le volume important des règles engendrées par les algorithmes automatiques classiques qui ne permet
pas une interprétation aisée. Pour contourner cette difficulté nous nous inscrivons dans deux courants de
recherche. Le premier courant, statistique, consiste à définir des mesures -dites de qualité- qui quantifient
4. P. Smyth. Data mining : data analysis on a large scale ?, Statistical Methods in Medical Research, 9 :309-327, 2000.
216
Bilan 2006–2009 et projet 2012-2015 COD
la pertinence des règles et permettent de les filtrer, et à structurer les règles extraites en les classant par
des algorithmes de classification adaptés à des données non symétriques [62]. Le ”post mining” succède
au ”data mining”. La deuxième approche, plus récente, trouve ses racines en intelligence artificielle : elle
vise à filtrer les règles en introduisant de la connaissance via des modèles de connaissances, ou selon un
mode semi-supervisé en laissant l’utilisateur jouer un rôle d’heuristique dans l’exploration de l’espace
des règles via des supports visuels interactifs adaptés (voir paragraphe 1.3.3.).
En apprentissage, les réseaux bayésiens, issus d’une convergence entre les statistiques et l’intelligence
artificielle, sont des modèles graphiques probabilistes dont la structure peut permettre de représenter des
relations causales directes, ou la présence de variables latentes [63]. Et l’apprentissage de la structure des
réseaux bayésiens permet la découverte de nouvelles connaissances qui sont parfois plus utiles à l’expert
que le modèle lui-même. Les résultats théoriques sur les propriétés asymptotiques de ces réseaux associés aux résultats concluants dans un nombre croissant d’applications variées obtenus dans la dernière
décennie ont contribué à leur essor. Nos travaux ont pour objectif majeur le développement d’algorithmes
d’apprentissage prenant en compte des difficultés rencontrées par de nombreuses applications où notamment n << p (peu de données par rapport au nombre de variables). Nous nous inscrivons dans un courant
similaire à celui adopté pour les règles d’association qui vise à guider l’apprentissage de la structure du
réseau en s’appuyant sur des modèles de connaissances.
8.3.2 Ingénierie des ontologies
La problématique de la représentation des connaissances posée par les pionniers de l’intelligence
artificielle est devenue une problématique majeure des nouveaux systèmes d’information et de communication. Les formalismes sur lesquels s’appuient les représentations déterminent à la fois les types de
connaissances qui peuvent être représentées et les mécanismes de raisonnement qui peuvent être effectués. Associées à l’essor du Web sémantique, les représentations par les ontologies se sont imposées
dans la communauté de l’ingénierie des connaissances ; une ontologie étant souvent définie comme
une conceptualisation, selon un point de vue imposé par les applications, des objets et des relations
structurantes entre ces objets d’un domaine spécifique [57]. Un des enjeux majeurs reste la construction opérationnelle de ces ontologies, dont le volume des concepts et des relations considérés a considérablement évolué ces dernières années, passant de quelques centaines à plusieurs milliers dans des
domaines variés d’applications. Nous abordons cette problématique sous deux angles. D’un point de vue
expérimental, nous construisons des ontologies associées à des applications réelles, et nous cherchons à
dégager une méthodologie. D’un point de vue plus théorique, nos travaux portent à la fois sur l’extension
du modèle de hiérarchie de subsomption classique en prenant notamment en compte des axiomes (”ontologies lourdes”) et sur l’analyse et le développement de mesures de similarités sémantiques permettant
de comparer des concepts d’une même ontologie ou d’ontologies différentes.
8.3.3 Visualisation des connaissances
L’essor de la visualisation des connaissances (”visual analytics”), présentée par ses protagonistes
actuels comme un domaine interdisciplinaire nouveau, s’ancre dans une longue tradition (e.g. la
”graphique” de Bertin, 1967 ou l’analyse de données exploratoire de Tukey, 1977) qui met en évidence la
nécessité, pour les utilisateurs, du couplage entre la fouille de données et la visualisation. Constatant que
les méthodes actuelles d’extraction de connaissances ne sont pas applicables dans un cadre d’utilisation
intuitive, rapide et interactive, l’objectif est de dépasser le cadre de la visualisation comme simple restitution visuelle des résultats obtenus par des algorithmes automatiques : ”visual analytics is more than
COD
217
visualization and can rather be seen as an integrated approach combining visualization, human factors
and data analysis” [52]. Il s’agit donc bien de s’appuyer sur les technologies récentes de visualisation
(e.g. langages de programmation, supports physiques et effecteurs, cartes graphiques programmables)
pour développer des nouvelles approches d’exploration visuelle des données qui intègrent l’utilisateur
dans le processus de fouille. Nos recherches s’inscrivent dans ce courant, et le positionnement que nous
avons choisi est celui du recours aux environnements 3D et immersifs. Ces approches, encore très peu
développées dans la communauté de la fouille de données s’appuient sur des technologies qui connaissent une diffusion extrêmement rapide.
8.4 Applications et enjeux
Une part importante des travaux de l’équipe s’ancre résolument dans une recherche interdisciplinaire. La collaboration scientifique avec d’autres disciplines (biologie, éthologie, histoire, didactique)
est à double sens.
D’une part, la validation expérimentale des méthodologies et algorithmes développés dans l’équipe
s’appuie non seulement sur des jeux tests mais aussi, et surtout, sur des données réelles dans le cadre
de collaborations étroites avec des experts de ces données. Nos applications dans le domaine médical
menées avec deux chercheurs bio-informaticiens que nous hébergeons dans l’équipe et des chercheurs
de l’INSERM (U 601 spécialisée dans l’étude du système immunitaire et le développement de thérapies
contre le cancer, et l’Institut du Thorax de Nantes U 915) se situent en partie dans cette voie.
D’autre part, différents problèmes fondateurs des travaux de l’équipe sont issus directement de
”problématiques applicatives”. La fouille de règles s’est initialement appuyée sur l’analyse statistique
implicative dont les questions fondatrices proviennent de la didactique des mathématiques. Afin
d’évaluer les résultats d’une innovation pédagogique et de les comparer avec une taxonomie de complexité a priori, il s’agissait d’extraire puis de hiérarchiser des comportements de réponse de type ”quand
l’élève réussit ceci, alors, en général il réussit cela” [47]. L’essor de la visualisation de connaissances, et
de graphes en particulier, a été stimulé dans l’équipe par des collaborations variées. Avec des acteurs en
ressources humaines, dans un cadre industriel, il s’agissait de visualiser des graphes d’association entre
des tâches et des compétences. Avec des historiens et des mathématiciens, nous cherchons à visualiser,
à partir de connaissances extraites de corpus de transactions agraires, des propriétés structurelles de
réseaux de relations sociales entre des paysans du Moyen-Age. Et, dans le cadre d’une collaboration
qui date depuis quinze ans entre la responsable de l’équipe et l’équipe dirigée par G. Théraulaz au
Centre de Recherche en Cognition Animale de Toulouse, nous cherchons ces dernières années à
explorer les propriétés structurelles et fonctionnelles de réseaux construits par des insectes sociaux. Ces
travaux relèvent de ce que certains appellent une ”science de la complexité” qui est nécessairement
interdisciplinaire, et se présente comme un terrain extrêmement fécond pour la fouille exploratoire de
données.
8.4.1 Réseaux sociaux
Les structures en réseaux, modélisables par des graphes, sont une composante clé du fonctionnement des sociétés animales et humaines. Après l’essor du structuralisme et la maturité de la théorie
des graphes dans les années 70, l’analyse des réseaux a connu un regain d’intérêt considérable dans
la dernière décennie associé à l’évolution d’Internet, et plus généralement à l’explosion des capacités
de calculs qui permettent de traiter des réseaux à des échelles inenvisageables pour les pionniers des
218
Bilan 2006–2009 et projet 2012-2015 COD
réseaux sociaux. Les enjeux sont multiples : ils vont de la compréhension des mécanismes biologiques
et sociaux impliqués dans des structurations collectives à des échelles d’observation très variées, au
développement de nouvelles technologies (e.g. ”Social Semantic Web”) permettant aux individus humains et aux organisations de collaborer et de partager des connaissances. Nos travaux s’orientent dans
deux directions. En collaboration avec des biologistes, spécialistes de la cognition animale (G. Théraulaz,
Centre de Recherche en Cognition Animale), et des physiciens spécialistes des systèmes complexes
(S. Douady, Laboratoire Matière et Systèmes Complexes de Paris VII, et S.Valverde, Complex System Lab de Barcelonne), ils s’axent sur la caractérisation des structures en réseaux -notamment des
systèmes de communications dans les nids- produites par des insectes sociaux (fourmis, termites), et la
compréhension de leur morphogénèse. Après nous être intéressés à des structures bi-dimensionnelles
planaires modélisant des réseaux construits en laboratoire, nous analysons maintenant des structures
en réseaux tri-dimensionnelles modélisant des constructions issues du milieu naturel et nos recherches
sont pionnières dans ce domaine. La spécificité de ces réseaux est leur plongement spatial. Lorsqu’on
relâche cette contrainte, on retrouve des problématiques en plein essor dans l’analyse actuelle des réseaux
sociaux. En collaboration avec des médiévistes (F. Hautefeuille, FRAMESPA) et des mathématiciens
(B. Jouve, Institut de Mathématiques de Toulouse), nous nous intéressons à l’analyse et à la visualisation de l’évolution temporelle de réseaux sociaux de taille moyenne. Et nous étendons depuis peu ces
problématiques restreintes jusque là à l’analyse de réseaux modélisant la présence/absence d’une relation entre deux entités modélisées par des nœuds à la prise en compte de données sémantiquement riches
(projet SOCIOPRISE).
8.4.2 Applications bio-médicales
L’équipe héberge depuis dix ans un bio-informaticien qui a été rejoint l’an dernier par une collègue
qui était précédemment dans l’équipe COMBI. La raison de leur rattachement à l’équipe COD relève
de la gestion des ressources humaines du laboratoire. Néanmoins, au-delà des aspects humains et organisationnels, la réussite de leur intégration peut s’expliquer par des raisons scientifiques. En effet,
dans les rapports prospectifs de la communauté de l’extraction de connaissances, la bio-informatique est
régulièrement citée, aux côtés du marketing (CRM et recommandation) et de la sécurité, comme l’un
des trois domaines phares d’application. Les analyses à l’échelle du génome (e.g. GWAS : GenomeWide Association Studies) s’appuient sur des masses de données considérables (e.g. 500 000 à 1 million par individu, pour une puce de génotypage), produites par des technologies haut-débit. Ces analyses nécessitent non seulement des approches statistiques adaptées en terme de complexité de calcul,
mais aussi capables de tenir compte des erreurs de mesures inévitables, ou encore, des données manquantes. Ce cadre fournit un terrain expérimental très riche pour évaluer des modèles graphiques probabilistes que nous développons dans l’équipe. En sus du traitement des données issues directement d’un
cadre expérimental, une nouvelle thématique est apparue plus récemment : les acteurs du domaine de
la recherche bio-médicale sont de plus en plus souvent confrontés à des problèmes d’extraction de connaissances à partir de données hétérogènes, souvent même collectées par des équipes indépendantes
(e.g. méta-analyse intégrative à grande échelle pour la découverte de fonctions biologiques ; approche
intégrative génomique/génétique pour l’identification de gènes responsables d’une maladie génétique).
COD
219
8.5 Nouveaux résultats pour la période 2006-2010
8.5.1
Fouille de règles : mesures de qualité
Participants : Fabrice Guillet, Julien Blanchard, Régis Gras, Pascale Kuntz, Henri Briand, Philippe
Peter, Maurice Bernadet
Les premiers travaux de l’équipe, initiés par R. Gras, ont porté sur la mesure statistique d’intensité
d’implication qui permet de quantifier la surprise d’une règle d’association eu égard aux résultats attendus selon la distribution des items dans la base de données. Nous avons poursuivi les travaux menés dans
le quadriennal précédant en étendant cette mesure à des données plus complexes que le cadre binaire
de présence/absence d’attribut initial (variables d’intervalle, variables ordinales, motifs séquentiels) et
proposé d’autres mesures de qualité permettant de pallier les limites de l’intensité d’implication pour des
données volumineuses [47, 48, 49].
En complément, nous avons mené une étude comparative approfondie des mesures de qualité proposées dans la littérature (40 mesures) sur la base de critères axiomatiques [20], et d’une classification
à large échelle menée sur des données expérimentales (jeux tests et données réelles) [49]. L’approche
axiomatique a considéré trois types de critères : la notion mesurée par l’indice (ex : écart à l’équilibre ou
à l’indépendance), la relation entre les variables modélisée par la mesure (ex : quasi-équivalence, quasiimplication), et la nature descriptive versus statistique de l’indice. Elle a permis de mettre en évidence
le fait que peu de mesures concernent exclusivement des relations non symétriques et d’identifier des
classes de mesures complémentaires pour la fouille.
Des résultats expérimentaux additionnels ont permis d’exhiber un ensemble de classes communes à tous
les jeux de données étudiées avec la présence de classes de mesures très significativement corrélées ou
significativement non corrélées. Certaines de ces classes sont facilement interprétables -comme celle
des mesures de dépendance et celle des mesures d’inclusion- et sont en adéquation avec la classification basée sur des critères axiomatiques. En revanche, l’absence de corrélation entre d’autres mesures
(notamment entre la J-mesure et la mesure IPEE basée sur un test d’indépendance) s’est avérée plus
surprenante.
8.5.2 Fouille visuelle interactive
Participants : Fabien Picarougne, Julien Blanchard, Pascale Kuntz, Fabrice Guillet
Dans le cadre de la fouille interactive de règles pilotée par l’utilisateur/décideur, nous avons
implémenté une nouvelle approche qui intègre trois composants : (1) une restitution graphique adaptée
aux règles d’association basée sur une métaphore développée en réalité virtuelle, (2) des opérateurs d’interaction avec la représentation visuelle qui permettent à l’utilisateur de guider le processus de fouille,
(3) des algorithmes de fouille basés sur des recherches locales dans la base de données, ce qui facilite
un passage à l’échelle [32, 39]. Cette approche a été expérimentalement validée dans un cadre applicatif
(recherche de profils psychologiques en gestion de ressources humaines).
Dans le cadre d’une collaboration avec l’équipe GRIM, nous avons développé une approche de
classification semi-supervisée qui combine une technique de classification incrémentale (modèle de
mélanges) à une restitution visuelle 3D immersive et interactive [4]. Dans un contexte semi-supervisé,
la représentation visuelle de l’évolution temporelle des résultats du classifieur permet à l’utilisateur de
corriger et de guider l’apprentissage par des critères de regroupement subjectif. La restitution visuelle
3D interactive a facilité la détection des relations de proximité entre les regroupements proposés automatiquement par la méthode de classification.
220
Bilan 2006–2009 et projet 2012-2015 COD
8.5.3 Analyse structurelle de réseaux sociaux
Participants : Pascale Kuntz, Fabien Picarougne
Une part importante de nos recherches a porté sur l’analyse des propriétés structurelles et fonctionnelles de systèmes de relations modélisables par des graphes où la structure combinatoire est dépendante
de contraintes géométriques. Notre apport majeur a été l’adaptation de métriques permettant de quantifier les propriétés de ces réseaux (robustesse, efficacité, centralité), et, en collaboration avec des physiciens, la construction de modèles théoriques, pour leur comparaison et leur interprétation fonctionnelle.
Nos travaux ont porté sur des réseaux bi-dimensionnels, mais aussi tri-dimmensionnels qui ont été très
peu étudiés jusqu’alors dans la littérature. Les expérimentations numériques ont porté sur trois familles
de réseaux : des réseaux de galeries 2D construits en laboratoire chez la fourmi, des réseaux de rues
dans des architectures sans adressage préalable, et des réseaux de galeries 3D extraits d’une collection du MHN de Paris chez les termites. Pour les réseaux 3D, la navigation via des interfaces visuelles
(stéréoscopie et dôme de visualisation) dans leur espace physique de plongement a fortement contribué
à la caractérisation de certaines propriétés. En parallèle, portés initialement par une problématique applicative, nous avons commencé à nous intéresser à la caractérisation de réseaux sociaux dynamiques et
à leur visualisation 3D via un algorithme de type force et ressort.
8.5.4 Réseaux bayésiens
Participants : Philippe Leray
Notre apport majeur a porté sur la conception d’un modèle graphique de durée. Introduits à l’origine
pour des applications spécifiques (biologie, médecine, démographique), ces modèles se sont généralisés.
Nous avons défini un nouveau modèle de réseau bayésien dynamique permettant de décrire explicitement des modèles de durée tout en incorporant des dépendances à des variables contextuelles. Pour que
ce modèle soit utilisé efficacement, nous avons introduit en sus un algorithme d’apprentissage à partir de
données censurées, et un algorithme d’inférence tirant partie de la structure du modèle pour optimiser les
calculs [1]. Notre collaboration avec l’INRETS et la RATP a permis d’illustrer l’intérêt de ces modèles
sur des applications réelles dans le domaine de la fiabilité.
En parallèle, des premiers travaux ont été entrepris sur l’apprentissage de la structure causale des réseaux
bayésiens guidé par des modèles de connaissances exogènes (ontologies). En nous basant sur des résultats
antérieurs obtenus, en collaboration avec la Vrije Universiteit, sur la découverte de causalités nous avons
intégré des informations captées par une distance sémantique entre variables dans le processus d’apprentissage [16].
Notons que les recherches sur les modèles graphiques probabilistes ont débuté avec l’arrivée de P. Leray
en 2007.
8.5.5 Ingénierie des ontologies : similarités sémantiques et alignement
Participants : Francky Trichet, Mounira Harzallah, Fabrice Guillet, Pascale Kuntz, Henri Briand
Suivant une démarche similaire à celle menée pour les mesures de qualité, nous avons effectué une
étude comparative des similarités sémantiques proposées dans la littérature. En regroupant les mesures
les plus utilisées dans deux familles de similarité paramétrées, nous avons établi une comparaison sous
des critères métriques et ordinaux [21]. De plus, dans le cadre de la conception d’ontologies de domaine,
nous avons proposé une nouvelle mesure qui agrège les trois dimensions sémiotiques de la conceptualisation que sont l’intention, l’extension et l’expression (les termes utilisés pour dénoter à la fois les
COD
221
concepts et leurs instances) [7].
En parallèle, nous avons proposé deux nouvelles approches pour aligner des ontologies dans des cadres
spécifiques extrêmes : (1) des taxonomies instanciées par un corpus textuel [36], (2) des ontologies de
domaine ”denses” intégrant des axiomes [10]. Dans le premier cas, l’alignement est basé sur une approche extensionnelle asymétrique qui calcule des règles d’association entre concepts. Dans le second
cas, l’alignement est basé sur une comparaison des axiomes effectuée par un opérateur de projection des
graphes conceptuels.
8.5.6 Fouille et optimisation combinatoire
Participants : Pascale Kuntz
Dans le cadre du problème de la coloration de graphes, nous avons utilisé des techniques de fouille
de données pour explorer les propriétés des espaces de recherche et améliorer des heuristiques en introduisant des stratégies de recherche plus informées. La cartographie (classification entre solutions
échantillonnées) de l’espace de recherche a nécessité le recours massif à un calcul de distances entre
solutions (ici des colorations) qui nous a conduit à proposer un algorithme exact de calcul de la distance
de transfert entre colorations de meilleure complexité (linéaire en nombre de sommets) lorsque les colorations sont proches que celle de l’algorithme hongrois utilisé classiquement. D’autre part, nous avons
proposé une amélioration de la méthode tabou en introduisant deux nouvelles fonctions d’évaluation qui
tiennent compte de la structure du graphe et de solutions trouvées au cours de l’exploration, ainsi qu’un
nouvel algorithme évolutionaire avec un croisement ”informé” et une diversité de la population garantie
par la mesure de distance entre les individus [3, 2].
8.5.7 Biomédical : inférence de données manquantes en génotypage et recherche d’homologues distants
Participants : Gérard Ramstein, Christine Sinoquet
Les techniques actuelles de génotypage à haut débit ne réussissent pas systématiquement à fournir
pour chaque individu tous les variants observables correspondant aux marqueurs génétiques étudiés.
Nous avons amélioré la méthode proposée par Roberts et al (2007) permettant de prédire les données
manquantes dans des tableaux de marqueurs génétiques, à l’échelle du génome [17]. L’approche est basée
sur une méthode des k plus proches voisins mise en oeuvre à l’intérieur d’une ”fenêtre glissante” parcourant le génome. Les fenêtres considérées successivement étant chevauchantes, une grande partie des
calculs est réutilisable. L’amélioration de la qualité de la méthode initiale est due à une meilleure exploitation des dépendances entre les fenêtres. L’inférence en cours dépendant des résultats préalables, nous
avons introduit une succession de balayages du tableau, en directions opposées. Les expérimentations
numériques sur des chromosomes de souris (projet Perlegen) ont montré un gain significatif par rapport
à la version à balayage unique.
La recherche d’homologues distants à partir de séquences protéiques vise à découvrir la famille
d’appartenance d’une protéine dont on ne connaı̂t que la séquence primaire. Pour ce problème de discrimination, nous avons développé une nouvelle approche basée sur les Séparateurs à Vastes Marges
(SVM) connus comme performants pour ce problème [12]. Notre approche comprend plusieurs classifieurs, utilisant une transformation de la séquence en vecteur booléen indiquant la présence/absence
de motifs, ou une mesure de similarité entre séquences basée sur des comparaisons locales. Le vecteur
d’entrée du SVM exprime les valeurs de similarité entre la séquence inconnue et un jeu de séquences
222
Bilan 2006–2009 et projet 2012-2015 COD
de référence formé par des membres de la famille d’intérêt ainsi que par des contre-exemples. L’introduction de classifieurs bayésiens naı̈fs reposant sur des caractéristiques biologiques supplémentaires
(taille de la séquence, point isoélectrique) a permis d’améliorer les performances. Les expérimentations
numériques ont porté sur la superfamille des cytokines, qui sont impliquées dans le système immunitaire,
et qui constituent l’une des plus grandes et des plus hétérogènes des familles de protéines.
8.5.8 Décision et théorie des jeux
Participants : Ivan Kojadinovic
En théorie des jeux, la notion de ”valeur” a été introduite pour mesurer l’influence individuelle de
chaque joueur dans un jeu coopératif. Nos travaux ont porté sur l’extension de cette notion à des coalitions de joueurs (on parle de ”valeur généralisée”). En particulier, nous avons introduit deux familles de
valeurs généralisées : les valeurs généralisées probabilistes et les semi-valeurs qui intègrent un axiome
de symétrie.
Notons que les recherches en agrégation des préférences et en théorie des jeux ont été interrompues dans
l’équipe suite au départ d’I. Kojadinovic.
8.6 Logiciels
Faute de ressources humaines stables - de type Ingénieur de Recherche - pour nous accompagner en
développement logiciel, l’équipe a privilégié sur ce quadriennal le développement de prototypes avec une
stratégie de diffusion orientée selon trois directions : 1) la mise à disposition des prototypes développés
sur la toile, 2) la diffusion de routines sur la plate-forme libre R, et 3) le transfert technologique en
collaboration avec des entreprises.
1. Prototypes disponibles sur le Web :
– AROMA (en partenariat avec l’INRIA Rhône Alpes) : outil de comparaisons d’ontologies sous
OWL
URL : https://gforge.inria.fr/projects/aroma/
– TooCom (en partenariat avec le LARIA, Amiens) : éditeur d’ontologies - licence GPL
URL : http://sourceforge.net/projects/toocom/
– ARVAL : atelier logiciel de validation de règles d’association
URL : http://www.polytech.univ-nantes.fr/arval/
2. Routines diffusées sous R :
– LLAhclust (en partenariat avec l’IRISA, Rennes) : classification hiérarchique basée sur la
méthode de vraisemblance du lien et étendue à des descripteurs variés. Maintenue par I. Kojadinovic à l’université d’Auckland
URL : http://www.stat.auckland.ac.nz/˜ivan/LLAhclust/
– KAPPALAB : routines pour l’analyse d’ensemble de fonctions (capacités) qui permet de calculer de nombreuses intégrales non additives (Choquet, Sugeno, . . .). La première version a été
développée par I. Kojadinovic lors de son séjour dans l’équipe.
URL : http://www.stat.auckland.ac.nz/˜ivan/kappalab/
3. Transfert technologique
– ATANOR : plate-forme logicielle de gestion de connaissances - Le premier prototype a été
développé dans l’équipe en partenariat étroit avec la société Performance Corp, puis Knowesia
dont la marque a été achetée par le groupe ASI SSII.
COD
223
URL : http://www.knowesia.com/produits.htm
– Ontologie du domaine HSE (Hygiène/Sécurité/Environnement) : ontologie développée dans le
cadre d’une thèse CIFRE avec la société Tennaxia. Déposée à l’INPI (Dépôt INPI - 13/06/2008
- No 2008090075)
En dehors ce cadre, G. Ramstein est responsable de la plate-forme bio-informatique BIRD (Bioinformatics Research & Development) créée dans le cadre de Biogenouest et hébérgée au sein de l’institut
du Thorax qui est une composante de l’Institut fédératif de recherche thérapeutique de Nantes (IFR 26 Inserm/MESR/Université)
Madtools
URL
Participants : G. Ramstein (resp),
Type de licence : logiciel web, accès gratuit des outils
Mots clés: analyse de données de puces à ADN
MADtools est une suite d’outils dédiés à l’analyse de données de puces à ADN. MADtools est composé
de 7 modules interconnectés qui permettent de stocker (Base), de traiter (Madscan, Madpro) et d’annoter fonctionnellement (Madsense, Madcow) les données de puces à ADN. A cela s’ajoute un module
d’identifiant de gènes (Madgene) et une base de données spécialisée dans le transcriptome musculaire
(Madmuscle).
8.7 Contrats et subventions
Les recherches de l’équipe ont été soutenues au cours du quadriennal par une politique contractuelle
forte (plus de 1.2 Me de contrats). Cette politique s’est déployée dans deux directions complémentaires.
La première direction a été la poursuite de la collaboration industrielle mise en place dans le
précédent quadriennal avec des entreprises principalement régionales. Depuis sa création, l’équipe a
développé des relations étroites avec le tissu industriel, et notamment avec des PME ayant des stratégies
d’innovation fortes ; cela permet d’évaluer nos travaux sur des données réelles dans des contextes applicatifs complexes avec accès à de l’expertise métier, et de faire du transfert technologique. Cette collaboration est facilitée par l’implication de plusieurs membres de l’équipe dans des relations avec les agences
d’innovation et d’incubation (OSEO, Atlanpôle, etc), et d’autre part par la dynamique du site sur lequel
se situe la direction de l’équipe (Polytech’Nantes) envers les relations industrielles.
La deuxième direction, qui s’est renforcée dans ce quadriennal, a été la consolidation de partenariats académiques existants et le développement de nouveaux partenariats au niveau national à travers
la participation à des projets de type ANR ou FUI. En sus, nous avons bénéficié par opportunité de
projets régionaux structurants. Cette direction a été gouvernée par une volonté de renforcer notre positionnement sur des thématiques en émergence dans le précédent quadriennal (ingénierie des ontologies),
et de développer notre implication sur de nouvelles thématiques (réseaux sociaux et visualisation).
224
Bilan 2006–2009 et projet 2012-2015 COD
Type
Europe
ANR
ANR
ANR
ANR
ANR
ANR
FUI
GDR
Région
Région
Région
Région
Région
Pôle Images et
réseau
Tableau des contrats et subventions
Institution
Nom
Début/Durée
gestionnaire
INTEROP
UN
11.2003/36 mois
GRAPH-COMP
UN
12.2005/42 mois
MESOMORPH
UN
11.2006/42 mois
SAFIMAGE
UN
02.2007/42 mois
GRACE
UN
12.2003/30 mois
PLACID
UN
01.2007/36 mois
SOCIOPRISE
UN
11.2009/24 mois
ISTA3
UN
10.2008/36 mois
GDR RO
GDR
01.2006/12 mois
Conseil régional
OASIS Megalis
01.2004/36 mois
PdL
CPER
Conseil régional
09.2007/12 mois
Stic&Calculs
PdL
Conseil régional
CPER Miles
01.2007/36 mois
PdL
Conseil régional
CPER BIL
01.2007/48 mois
PdL
Conseil régional
GENORALITE
01.2009/36 mois
PdL
SAFIMAGE
CIFRE
CIFRE
CIFRE
CIFRE
CIFRE
Thèse V.
Georgescu
Thèse T. Piton
Thèse X. Aimé
Thèse H. Desmier
Thèse S. Daviet
Thèse B. Pinaud
Contrat privé
OpenPortal
CIFRE
Montant
69.977
17.889
126.273
160.000
74.009
212.877
124.582
97.456
1.000
64.000
50.000
8.000
47.000
7.263
UN
03.2008/30 mois
9.000
SP2 Solutions
01.2008/36 mois
26.910
VM Matériaux
Tennaxia
PerformanSe SA
Knowesia
Knowesia
OpenPortal
Software
09.2008/36 mois
09.2007/36 mois
04.2003/36 mois
12.2004/36 mois
12.2003/36 mois
26.910
53.820
20.580
20.580
20.580
05.2009/36 mois
53.820
8.7.1 Contrats directs avec des entreprises
Les contrats directs avec les entreprises se déclinent selon trois axes . Le premier axe concerne l’application de méthodes de fouille de données en ≪ business intelligence ≫ pour différents domaines : le
marketing (thèse de T. Piton) et la gestion de ressources humaines (thèse de H. Desmier). Le deuxième
axe concerne l’ingénierie des connaissances avec la construction d’une ontologie de domaine en hygiènesécurité-environnement associée à un système de recherche d’information spécialisé dans la veille
réglementaire (thèse de X. Aimé), et la construction d’un système de règles pour l’aide à la maintenance
de datawarehouses (thèse de V. Georgescu). Le troisième axe porte sur la visualisation des connaissances
avec le développement d’un modèle de représentation à base de graphes interactifs dans un système de
gestion de connaissances (thèse de B. Pinaud).
COD
225
8.7.2 Projets collaboratifs
Actions régionales
BIL
Début : 08/01/2007, durée : 48 mois
Partenaires : LINA, INRA-BIA, INSERM U694, LERIA, Thorax-INSERM U533, COMBI, LEPA,
INSERM U601
Coordinateur : Rémi Houlgatte
Participants : G. Ramstein (resp), C. Sinoquet, P. Leray, R. Mourad, H.-T. Nguyen
Montant équipe : 47 Ke
Montant total : 600 Ke
Mots clés : fouille de données biologiques, puces à ADN, méta-analyse
Le projet BIL regroupe les acteurs ligériens en bio-informatique. Notre équipe contribue à deux axes. Le
premier porte sur la mise au point de méta-analyses de bases de données publiques pour la découverte
et la validation de signatures de gènes spécifiques de pathologies et de fonctions biologiques. En effet,
l’accroissement des informations contenues dans ces bases nécessite la conception et le développement
de méthodes dédiées pour intégrer des sources de données hétérogènes, et leur richesse permet de
pratiquer des méta-analyses à une échelle encore peu exploitée. L’équipe COD pilote le développement
d’une boı̂te à outils innovants : www.madtools.org. Le second axe concerne l’analyse d’associations
à l’échelle du génome (GWAS) pour l’identification de marqueurs génétiques pour une pathologie (le
cadre expérimental est celui des dystrophies valvulaires mitrales).
Musée Virtuel - CPER STIC ET CALCULS
Début : 01/09/2007, durée : 12 mois
Partenaires : /
Coordinateur : F. Benhamou
Participants : P. Kuntz (resp), F. Picarougne
Montant équipe : 50 Ke
Montant total : 103 Ke
Mots clés : visualisation immersive
Ce projet a été initié par le projet ANR MESOMORPH consacré à l’analyse des nids construits par
des insectes sociaux. Les nids dont nous disposons pour l’analyse sont pour la plupart conservés dans
une collection privée du Muséum d’Histoire Naturelle de Paris -une des toutes premières mondiales-.
Ces nids sont donc difficilement accessibles. Pour analyser leur structuration interne, et diffuser
cette connaissance auprès d’un public plus large des outils de visualisation adaptés se sont avérés
nécessaires. Ce projet nous a permis d’obtenir un équipement de pointe : un système immersif de
projection en dôme.
Projets nationaux
MESOMOPRH (ANR Biologie Systèmique)
Début : 06/11/2006, durée : 36 mois
Partenaires : Centre Cognition Animal, Toulouse - Lab. Matière et Systèmes Complexes, Paris - Complex System Lab., Universitat Pompeu Fabra Barcelone
Coordinateur : G.
Théraulaz
Participants : P. Kuntz (resp), F. Picarougne, A. Perna, A. Tuong, J. Gautrais
Montant équipe : 126 Ke
Montant total : 1 127 Ke
Mots clés : insectes sociaux, réseaux spatiaux, analyse structurelle, visualisation 3D
226
Bilan 2006–2009 et projet 2012-2015 COD
Les nids construits par les insectes sociaux présentent souvent des structures très complexes qui sont
guidés par les besoins ingénieux développés par les agents pour s’adapter aux besoins de la colonie.
Le projet MESOMORPH (Social insects nests as 3D networks : morphogenesis and structural designs)
porte sur l’analyse quantitative des nids tri-dimensionnels et l’analyse fonctionnelle. La contribution
de l’équipe COD porte en particulier sur : (i) l’analyse structurelle des réseaux 3D modélisant les
intersections entre galeries issues de tomographies de nids réels à travers la définition et l’analyse
d’indicateurs spécifiques, et sur (ii) la visualisation 3D et immersive de ces structures.
GRAPHES-COMP (ANR Blanc)
Début : 20/12/2005, durée : 42 mois
Partenaires : Institut de Mathématiques de Toulouse, IRIT, Laboratoire FRAMESPA (Toulouse) Coordinateur : B. Jouve
Participants : P. Kuntz (resp), F. Picarougne, I. Kojadinovic
Montant équipe : 17 Ke
Montant total : 64 Ke
Mots clés : réseaux sociaux, visualisation de graphes, visualisation 3D
Le projet a porté sur la comparaison de graphes dans le cadre applicatif de la recherche de réseaux de
sociabilité dans la société paysanne du Moyen-Age. Les données provenaient de plusieurs milliers de
contrats agraires recueillis sur un espace géographique bien défini et sur une période s’étendant sur
plus de trois siècles. Les relations sous-jacentes aux graphes sont définies par la présence simultanée
de personnes sur un même contrat. L’équipe COD a construit la base de données permettant de
numériser et de structurer les informations contenues dans les archives, et a développé un prototype de
visualisation 3D permettant de suivre l’évolution de la construction des réseaux dans le temps.
SOCIOPRISE (Web innovant)
Début : 01/11/2009, durée : 24 mois
Partenaires : Open Portal Software
Coordinateur : F. Trichet
Participants : F. Trichet (resp), C. Thovex
Montant équipe : 124 Ke
Montant total : 356 Ke
Mots clés : réseaux sociaux, analyse structurelle, dynamique et sémantique
Le projet SocioPrise est dédié à l’émergence du concept d’Entreprise Sociale où les acteurs de l’organisation sont fédérés au sein de réseaux actifs qui sont au cœur de la performance socio-économique. La
contribution scientifique de l’équipe COD porte sur la définition de nouvelles méthodes opérationnelles
d’analyse de réseaux sociaux d’entreprises et d’institutions (RSEI) qui intègrent simultanément les
dimensions structurelle, dynamique et sémantique.
SAFIMAGE (ANR concepts, systèmes et outils pour la sécurité globale)
Début : 09/02/2007, durée : 42 mois
Partenaires : ALCATEL, ,IRCCYN,QOSMETRICS, DGPN, Sarl IST
Coordinateur : A. Maillet
Participants : R. Lehn (resp), F. Picarougne, P. Kuntz
Montant équipe : 160 Ke
Montant total : 1 882 Ke
Mots clés : analyse de trafic sur Internet, ontologie de protocoles, classification incrémentale, visualisation de classes
COD
227
Le projet SAFIMAGE vise à construire une plate-forme d’interception légale sur Internet extensible
et ouverte. L’équipe COD intervient sur deux lots du projet. Le premier consiste à définir, de manière
standardisée, les caractéristiques du trafic analysé en termes de protocole, de comportement des
applications et de leurs caractéristiques d’usage, en partant du trafic capturé en temps réel sous
la forme de trames ethernet. Le travail consiste à renseigner la partie statique (indépendante de
chaque observation) à partir d’une ontologie des protocoles Internet -construite par l’équipe-, et la
partie dynamique à partir d’un automate à état fini. Le deuxième lot vise à développer des méthodes
semi-automatiques d’étiquetage de contenus (ex : blogs) potentiellement répréhensibles à modérer. La
contribution de l’équipe porte sur le développement d’une approche de visualisation 3D interactive
des classes couplée à un algorithme de classification semi-supervisé développé en collaboration avec
l’équipe GRIM.
PLACID (ANR Sécurité)
Début : 01/01/2007, durée : 36 mois
Partenaires : SUPELEC, CRIL, LITIS
Coordinateur : P. Leray
Participants : P. Leray (resp), S. Ammar-Kessenti, K. Tabia
Montant équipe : 212 Ke(géré par le LITIS)
Montant total : 512 Ke
Mots clés : détections d’intrusion et d’évènements graves, réseaux bayésiens
Le projet PLACID vise à modéliser les préférences d’un administrateur sécurité dans le cadre de la
détection d’intrusion dans des réseaux informatiques et à filtrer les alarmes. L’équipe est co-responsable
du lot ”Bayesian-based approaches for alert correlation” dont le but est de modéliser l’aspect incertain
des alertes émises par les systèmes de détection d’intrusion et les relations de dépendance entre ces
alertes. L’utilisation des réseaux bayésiens permet ainsi d’évaluer le succès d’une attaque, de réduire
l’ensemble des scénarii d’attaque possibles, et de découvrir des relations de dépendance entre les
alertes. L’équipe est responsable de la mise en place de composants logiciels ”réseaux bayésiens” pour
cette tâche.
ISTA 3 (FUI)
Début : 15/10/2008, durée : 36 mois
Partenaires : GFI Consulting, Université Bordeaux 1, Ecole Centrale de Lille, ESTIA, ARCNAM,
ECM, Clairis Technologies, ENI
Coordinateur : P. Gimet
Participants : M. Harzallah (resp), T. Gerashim, P. Kuntz
Montant équipe : 97 Ke
Montant total : 97 Ke
Mots clés : interopérabilité des systèmes hétérogènes, ontologies, évolution et validation d’ontologies
Le projet ISTA 3 vise à améliorer la compétitivité des acteurs de la chaı̂ne de sous-traitance dans
l’industrie aéronautique en simplifiant la collaboration, à travers une meilleure interopérabilité,
entre les sous-traitants de rang 1 et ceux des rangs suivants. L’équipe COD est responsable de la
tâche ≪ Conception, Validation, Exploitation et maintenance des ontologies pour l’interopérabilité
des systèmes hétérogènes ≫ et intervient sur trois aspects : (i) la conception manuelle de l’ontologie
générique du domaine d’étude et sa spécialisation en ontologies des cas industriels, à partir de données
non-structurées, (ii) le développement d’une méthode pour permettre l’évolution de ces ontologies, et
(iii) la contribution à la construction d’une architecture basée sur l’exploitation des ontologies facilitant
l’interopérabilité des systèmes hétérogènes.
228
Bilan 2006–2009 et projet 2012-2015 COD
8.8 Rayonnement
8.8.1 Évaluation de la recherche
Comités de programme (conférences) et de lecture (revues)
– Revues
– Comités éditoriaux de revue scientifique
– R. Gras : Mediterranean Journal for Research in Mathematics Education, Quaderni in Ricerca
in Didattica del G.R.I.M.
– P. Kuntz : Mathématiques et Sciences Humaines, Revue d’Intelligence Artificielle
– Les comités de lecture (numéro spécial d’une revue)
– J. Blanchard et F. Guillet : Revue des Nouvelles Technologies de l’Information : numéros
spéciaux Qualité des données et des Connaissances (2010), Modélisation des connaissances
(2009) ;
– P. Kuntz : Revue des Nouvelles Technologies de l’Information : numéros spéciaux Visualisation et fouille de données (2010), Classification (2006)
– F. Picarougne : Revue des Nouvelles Technologies de l’Information : numéro spécial Fouille
du Web (2010)
– Rapports
– P. Leray : Neurocomputing, IEEE Transactions on Neural Networks, Journal of Machine
Learning Research, Revue d’Intelligence Artificielle, Journal Européen des Systèmes Automatisés ;
– F. Guillet : Data & Knowledge Engineering Journal, Int. Journal of Pattern Recognition
and Artificial Intelligence, Computational Statistics and Data Analysis, Revue Ingénierie des
Systèmes d’Information ;
– F. Picarougne : WIREs Data Mining and Knowledge Discovery
– Conférences
– Comités de programme
– F. Guillet : IEEE Int. Conf. on Data Mining (ICDM), 2010, 07, 06 ; 15th ACM Int. Conf.
on Knowledge Discovery and Data Mining (SIGKDD), 2009 ; SIAM Int. Conf. on Knowledge Discovery and Data Mining (SDM), 2010 ; Int. Conf. on Applied Stochastic Models
for Data Analysis (ASMDA), 2007,09 ; 19th Int. Conf. on Computational Statistics (COMPSTAT), 2010 ; Int. Conf. on Advances in Social Network Analysis and Mining (ASONAM),
2010 ; Workshop Knowledge Acquisition (PKAW@PRICAI), 2008, 10 ; Int. Conf. on Discovery Science (DS), 2006, 07 ; 18th IEEE Int. Conf. on Tools with Artificial Intelligence
(ICTAI), 2006 ; Quality issues, measures of interestingness and evaluation of data mining
models workshop (QIMIE@PAKDD), 2009 ;
– M. Harzallah : Ontology DataBases and Applications of Semantics (ODBASE), depuis 2007 ;
– P. Kuntz : 34th Conf. of the German Classification Society, Karlsruhe, 2010 ; Special session ”Nature Inspired Methods in Knowledge Based Systems”, joint with the 13th Int. Conf.
on Knowledge-Based and Intelligent Information and Engineering Systems, 2009 ; IEEE
Congress on Evolutionary Computation (CEC), 2007 ; First joint meeting of the Société Francophone de Classification and the Classification and Data Analysis Group of SIS, 2008 ;
Workshop Complex Data Mining, joint with IEEE ICDM, 2008 ;
– F. Trichet : Int. Conf. on Knowledge Engineering and Knowledge Management Patterns
(EKAW), 2008, 10 ; Int. Conf. on Information System (IS), depuis 2008 ; Ontology DataBases
COD
229
and Applications of Semantics (ODBASE), depuis 2007
Expertises régions, ANR, Europe, AERES, ...
– H. Briand, R. Gras : membre du conseil scientifique de la fondation VediorBis-Fondation de France
(2006)
– F. Guillet : expertise de dossiers pour OSEO (2008)
– P. Kuntz : expertise de dossiers pour ANR Blanc (2010), ANR Cosinus (2010), ANR (2009),
C.C.R.D.P. région centre (2008), C.C.R.D.P Aquitaine (2009), C.C.R.D.P. Bretagne (2009), Ile de
France, DIM (2010)
– P. Leray : expertise de dossiers pour Ile de France, Digiteo (2009)
– F. Trichet : dossiers Jeunes Entreprises Innovantes et Crédit Impôt Recherche, Région Pays de la
Loire (2009, 10)
– les membres de l’équipe sont régulièrement (plusieurs fois par an) sollicités par l’agence locale
Atlanpôle pour l’expertise de dossiers d’entreprises à incuber
Rapports de thèse, comité de sélection, concours INRIA, ...
– R. Gras : rapporteur des 3 thèses suivantes : F. Jore, Paris VII, 2006 ; J.-C. Oriol, Lyon II, 2007 ;
L. Ndong, Paris V, 2008
– P. Kuntz : rapporteur des 10 thèses suivantes : N. Grozavu, Paris XIII, 2009 ; P.-Y. Koenig Montpellier II, 2009 ; J. Lavergne, Tours, 2008 ; R. Bourqui, Bordeaux 1, 2008 ; L. Karoui, Paris Sud,
2008 ; D. Dacosta, Tours, 2007 ; Y. Yang, Kalrsruhe, Allemagne, 2007 ; L. Denoeud, Telecom
Paris, 2006 ; B. Vaillant, Telecom Bretagne, 2006 ; S. Guérif, Paris XIII, 2006
– P. Kuntz : rapporteur des 3 HDR suivantes : F. Brucker, Metz, 2008 ; E. Viennet, Paris XIII, 2007 ;
P. Maret, INSA Lyon, 2006
– P. Kuntz : membre des comités de sélection des universités : Paris-Dauphine (2010), Nantes (2010),
Angers (2009) ; et des commissions de spécialistes des universités de La Réunion (2005-2008), et
de Nantes (2007-2008)
– P. Kuntz : membre du jury du concours national d’aide à la création d’entreprises innovantes, 2010
– P. Kuntz : membre du jury du prix de la vocation scientifique et technique des filles du Ministère
du travail, des relations sociales de la famille et de la solidarité, Délégation régionale aux droits
des femmes et à l’égalité des Pays de la Loire, 2009
– P. Leray : rapporteur des 10 thèses suivantes : Rodrigues de Morais, INSA Lyon, 2009 ; Z. Kebaili,
Lyon I, 2009 ; D. Tardieu, IRCAM/UPMC, 2008 ; P. Gacquer, Valenciennes, 2008 ; K. Sedki, Lens,
2008 ; D. Weissenbacher, Paris XIII, 2008 ; C. Auliac, Evry-Val d’Essonne, 2008 ; P. Dangauthier,
INPG, 2007 ; A. Delaplace, Tours , 2007 ; V. Auvray, Liège, Belgique 2007
– P. Leray : rapporteur de la HDR de R. Sabbadin, Toulouse-Paul Sabatier, 2009
– P. Leray : membre des commissions de sélection des l’universités Paris XIII (2010), et Nantes
(2010)
– F. Picarougne : membre des commissions de sélection des universités de Nantes (2009,2010), Paris
XIII (2009, 2010), et Montpellier 2 (2010)
– F. Trichet : membre de la commission de spécialistes de l’université de Nantes (2008-2009)
8.8.2 Animation de la communauté
Participation à des steering comittees, des GDR et leurs groupes de travail
230
Bilan 2006–2009 et projet 2012-2015 COD
– H. Briand : membre du comité de pilotage de la conférence Extraction et Gestion de Connaissances
(EGC) ; R. Gras trésorier de l’association jusqu’en 2007
– F. Guillet : membre du comité de pilotage de la conférence Extraction et Gestion des Connaissances (EGC), depuis 2003 ; membre fondateur et trésorier de l’association EGC, depuis 2008
– M. Harzallah : membre du conseil scientifique du pôle GSO (un des neuf pôles de INTEROP-Vlab
- The International Virtual Laboratory for Enterprise Interoperability)
– P. Kuntz : membre du conseil d’administration de la Société Francophone de Classification (SFC),
depuis 2005
– P. Kuntz : membre du conseil scientifique du BILab, laboratoire commun EDF R&D et TelecomParisTech
– P. Leray : animateur du thème Modèles Graphiques du groupe Data-Mining et Apprentissage de
la Société Française de Statistiques (SFdS)
– G. Ramstein : membre du conseil scientifique de Biogenouest
– F. Trichet : membre du bureau du Groupe National de Recherche en Acquisition des Connaissances (GRACQ) ; membre fondateur de l’association internationale ≪ Ontology Outreach Advisory ≫ (OOA)
– C. Sinoquet, G. Ramstein : membres du GDR 3003 Bioinformatique Moléculaire
Conférences invitées
– F. Guillet (et H. Hamilton) : Interestingness Measures for Knowledge Discovery. Invited tutorial,
Discovery Science (DS), Porto, Portugal, 2009
– F. Guillet et J. Blanchard. Les outils du décisionnel - aide à la décision en anesthésie. conférence
invitée, Congrès National d’Anesthésie et de Réanimation (SFAR), Paris, 2009
– P. Kuntz, I.C. Lerman : Graph and hierarchical-based approaches for structuring association
rule sets, Invited session Graph theoretical methods for clustering, International Federation of
Classification Societies (IFCS), Dresde, Allemagne, 2009
– P. Kuntz : Non-supervised graph mining - Different approaches for new applications, The 16th
Annual Meeting of the Belgian Statistical Society, Namur, Belgique, 2009
– P. Kuntz : Classification non supervisée de graphes : approches et problèmes ouverts, 3èmes
journées thématiques Apprentissage Artificielle et Fouille de Données, Paris, 2008
– P. Kuntz : L’Analyse Statistique Implicative en réponse à des problèmes fondateurs, 4th Int. Meeting on Statistical Implicative Analysis, Castellon, Espagne, 2007
– P. Kuntz : Sur quelques approches de classification non supervisée de graphes, XIVèmes Rencontres de la Société Francophone de Classification, Paris, 2007
– R. Gras : L’analyse statistique implicative, 8ème Congrès des Enseignants Mathématiciens de
Chypre, Paphos, Grèce, 2006
Organisation de conférences, d’ateliers, d’écoles d’été
– F. Guillet : président du comité de programme de la 8ème conférence Francophone Extraction et
Gestion des Connaissances (EGC), 2008
– F. Trichet : président du comité de pilotage des 18èmes Journées francophones de l’Ingénierie des
Connaissances, Plateforme AFIA, 2007
– M. Harzallah : présidente du comité d’organisation de la Semaine de la Connaissance (regroupement de 10 conférences), Nantes, 2006
– P. Kuntz : co-organisatrice du workshop Workshop on Engineering principles of innovation in
COD
–
–
–
–
–
–
–
–
–
–
231
swarm-made architectures, European Center for Living Technology, Venise - Workshop sur invitation après avis du comité scientifique de l’institut, 2009
P. Leray : Organisation des 5èmes Journées Francophones sur les Réseaux Bayésiens (JFRB),
Nantes, 2010
R. Gras : président du comité scientifique du 4th Int. Meeting on Statistical Implicative Analysis,
Castellon, Espagne, 2007
F. Guillet : co-organisation de l’atelier Qualité des données et des connaissances,Journées Francophones Extraction et Gestion des Connaissances, de 2005 à 2008
P. Kuntz : co-organisatrice du workshop Spatial Networks in Nature and Technology, Paris, 2010
P. Kuntz : co-organisation de l’atelier Similarités Sémantiques, Journées Francophones Extraction
et Gestion des Connaissances, Nice, 2008
P. Leray et C. Sinoquet : organisation de la journée satellite Modéles graphiques probabilistes pour
l’intégration de données hétérogènes et la découverte de modèles causaux en biologie, JOBIM,
Nantes, 2009
F. Picarougne : co-organisation de l’atelier Atelier Modélisation des Connaissances, Journées
Francophones Extraction et Gestion des Connaissances, Nice, 2008 ; Membre du comité d’organisation du 15ème congrès francophone AFRIF-AFIA Reconnaissance des Formes et Intelligence
Artificielle (RFIA 2006)
G. Ramstein : co-organisation de l’atelier Extraction et gestion de connaissances appliquées aux
données biologiques, Journées Francophones Extraction et Gestion des Connaissances Lille, 2006
G. Ramstein et C. Sinoquet : Membres du comité d’organisation des Journées Ouvertes en Biologie, Informatique et Mathématiques (JOBIM), Nantes, 2009
F. Trichet : co-organisation de la journée thématique Raisonner sur le Web Sémantique avec des
graphes , Semaine de la Connaissance, Nantes, 2006
Collaborations nationales et internationales
– Vrije Universiteit Brussels (Belgique) [24, 34, 38]
– Université de Liège (Belgique) [19]
– ISG Tunis (Tunisie) [16], et deux co-tutelles de thèse
– Faculté des sciences de Tunis (Tunisie) [une co-tutelle de thèse]
– Universitat Pompeu Fabra Barcelone, Complex System Lab.(Espagne) [18, 29, 30]
– Université de Palerme (Sicile) [48]
– Université de Bergen (Norvège) [8]
– University of Regina (Canada) [49]
– Kyushu University (Japon) [48]
– Université de Cantho (Vietnam) [15]
Collaborations nationales et internationales
– LARIA, Amiens [7, 10, 28] et une thèse en co-encadrement
– LERIA, Angers [3, 2] et deux thèses en co-direction [9, 31]
– Centre de Recherche sur la Cognition Animale, Toulouse [18, 29, 46]
– Université de Bretagne Sud [8] et une thèse en co-direction
– INSERM, U601 Nantes [6, 27, 22], deux thèses soutenues en co-encadrement [23, 26], deux thèses
en cours en co-encadrement
– LI, Université de Tours [33] et une thèse en co-encadrement
232
Bilan 2006–2009 et projet 2012-2015 COD
– ENS-LSH, Université de Lyon [47]
8.9 Formation par la recherche
Pilotage d’écoles doctorales, de spécialités de filières, de master
– H. Briand : responsable du master Extraction et Gestion des Connaissances, co-habilité avec Lyon
II (jusqu’en 2008) ;
– F. Guillet : responsable à Polytech Nantes du master Erasmus Mundus DMKM (consortium de
6 universités Européennes, ouverture en 2010), et du master Extraction et Gestion des Connaissances, co-habilité avec Lyon II (depuis 2009) ;
– M. Harzallah : directrice des études du département QLIO, IUT Nantes (2008-2010) ;
– P. Leray : directeur du département informatique de Polytech Nantes (depuis 2008) ;
– C. Sinoquet : responsable du master I Informatique pour la Biologie, et du master II professionnel
de Bio-informatique de l’université de Nantes (depuis 2005) ;
– F. Trichet : responsable du master Langues Etrangères Appliquées, spécialité Logistique Internationale, université de Nantes (depuis 2005)
Participation aux enseignements de master, de filière, d’école doctorale
– Etablissements tutelles
– R. Lehn : Gestion des connaissances (4h en Master ECD), Web sémantique (9h en cursus Informatique Décisionnelle à Polytech’Nantes) ;
– J. Blanchard : Fouille de motifs et de règles (12h en Master ECD), Business Intelligence (12h en
Master ECD, 9h en Master ORO, 2008-2010), Data Mining (6h en option GIPAD de l’EMN),
Extraction de connaissances dans les données (14h en cursus Informatique Décisionnelle de
Polytech Nantes) ;
– F. Guillet : Fouille de motifs et de règles (responsable du module et 10h en Master ECD),
Extraction de Connaissances dans les Données (responsable du module et 12h en en cursus
Informatique Décisionnelle de Polytech Nantes), Gestion des Connaissances (responsable du
module et 12h en en cursus Informatique Décisionnelle de Polytech Nantes), Web Sémantique
(responsable du module et 4h en en cursus Informatique Décisionnelle de Polytech Nantes) ;
– P. Kuntz : Visualisation et fouille de données (responsable du module et 10 h en Master ECD),
Business Intelligence (responsable du module et 3h en Master ORO, 2008-2010), Fouille de
données et gestion des connaissances (responsable du module et 9h en Master SAD, 20062008), Visualisation des connaissances (responsable du module et 9h en cursus Informatique
Décisionnelle de Polytech), Data Mining (responsable du module et 3h en en option GIPAD de
l’Ecole des Mines) ;
– R. Lehn : Fouille de motifs et de règles (3h en Master ECD), Gestion des connaissances (6h
en cursus Informatique Décisionnelle de Polytech Nantes), Fouille de données et gestion des
connaissances (6h en Master SAD, 2006-2007), Knowledge Based Systems (responsable du
module et 30h, Master Htech, 2006-2009) ;
– P. Leray : Réseaux bayésiens (responsable du module et 20h en Master ECD, depuis 2007),
Systèmes de raisonnement probabilistes et Modèles graphiques probabilistes (responsable des
deux modules, et 20h dans la filière Informatique Décisionnelle de Polytech’Nante, depuis
2007), Business Intelligence (3h en Master ORO, 2008-2010) ;
– M. Harzallah : Web Sémantique (6h en cursus Informatique Décisionnelle de Polytech Nantes) ;
COD
233
– F. Picarougne : Visualisation et fouille de données (11h en Master ECD), Visualisation en fouille
de données, projections 3D et GIS (12h en Master ALMA), Visualisation des connaissances
(13h en cursus Informatique Décisionnelle de Polytech Nantes) ;
– F. Trichet : Représentation des connaissances et intelligence artificielle (30h en option GIPAD
de l’Ecole des Mines)
– Autres établissements
– P. Kuntz : Apprentissage de graphes et réseaux sociaux I (Ecole d’hiver e-EGC, Thème Apprentissage et Data Mining, Hammamet, 2010) ;
– P. Leray : Réseaux Bayésiens (Ecole d’hiver e-EGC, Thème Apprentissage et Data Mining,
Hammamet, 2010) ;
– F. Picarougne : Recherche d’informations sur Internet et visualisation de données (8h en Master
recherche Informatique de l’université F. Rabelais, Tours, 2006-2008) ;
– F. Trichet : Knowledge Engineering, Ontological Engineering and Semantic Web (Bachelor of
Sciences in Communication Technologies, Faculty of Communication Sciences and Technologies, South East European University, Republic of Macedonian )
HDR et thèses soutenues sur la période
Nom
F. GUILLET
I. KOJADINOVIC
Publications
[45]
[41]
Nom
N. BEAUME
E. BLANCHARD
J. DAVID
H. DAVIET
S. DAVIET
X-H. HUYNH
J. LOREC
B. PINAUD
D. C. PORUMBEL*
T. RAIMBAULT
Publications
[23]
[25]
[35]
[11]
[14]
[43]
[26]
[40]
HDR
Institution
UN
UN
Thèses
Institution
UN
UN
UN
UN
UN
UN
UN
UN
[9]
[31]
Soutenance
06/12/2006
21/11/2006
Devenir
PR Nantes
PR Pau
Soutenance
27/06/2008
30/05/2008
08/11/2007
11/03/2009
13/03/2009
07/12/2006
02/10/2008
22/05/2006
Devenir
Chercheur Delhi
Enseignant Privé
MC Grenoble
Ingénieur
Ingénieur
PR Vietnam
UN
19/11/2009
MC Béthune
UN
21/11/2008
MC ESILV Paris
MC Bordeaux 1
* Codirection avec l’Université d’Angers
8.10 Gouvernance
Organisation de l’équipe, animation scientifique
La taille de l’équipe, et la dispersion géographique de ses membres sur quatre sites ont nécessité la
mise en place d’une organisation qui assure à la fois l’unité collective et la proximité des permanents avec
les jeunes chercheurs, et qui contribue à renforcer l’identité de l’équipe en interne et en externe. Ainsi,
l’animation scientifique s’est mise en place autour de deux dynamiques complémentaires. En interne,
234
Bilan 2006–2009 et projet 2012-2015 COD
un atelier de l’équipe est organisé tous les mois avec un ordre du jour ciblé autour d’une transmission
d’informations sur l’environnement de la recherche, et des présentations des travaux des doctorants. Et,
pour approfondir les échanges sur des thématiques spécifiques et tisser des liens avec des chercheurs
extérieurs, nous nous sommes investis dans la co-organisation d’ateliers, de journées thématiques ou de
workshops internationaux spécialisés à Nantes, ou à l’extérieur dans lesquels les jeunes chercheurs de
l’équipe sont fortement présents. En outre, une majorité des doctorants a participé à une école d’été sur
son domaine de recherche.
Stratégies de publication
Durant ce quadriennal, la stratégie de publications s’est déclinée selon deux objectifs principaux. Un
travail éditorial important (10 ouvrages et 20 chapitres) a permis de synthétiser et de valoriser les travaux
fondateurs de l’équipe des précédents quadriennaux et d’asseoir la reconnaissance de l’équipe en extraction de connaissances. Le second objectif a été d’accroı̂tre significativement la qualité des publications
par rapport au quadriennal précédent. Pour cela, deux axes ont été privilégiés :
– Nous publions à chaque édition de deux des meilleures conférences européennes de nos communautés (European Conference on Artificial Intelligence (ECAI) et European Conference on Symbolic and Quantitative Approaches to Reasoning with Uncertainty (ESCQARU)). Et nous avons
augmenté nos publications dans des revues et conférences internationales de premier plan : IEEE
Trans. on Knowledge and Data Engineering (ISI 1.89), Int. J. of Semantic Web and Information
Systems (ISI 1.8), IEEE Intelligent Systems (ISI 1.34), ACM Conf. on Information and Knowledge Management (A+).
– Nous avons valorisé nos recherches interdisciplinaires sur les réseaux sociaux dans des revues
de physique statistique qui ont eu, dans la dernière décennie, un impact majeur sur le domaine :
Physica E (ISI 2.36), European Physical Journal (ISI 1.72), Physica A (ISI 1.44).
Au-delà de ces grandes lignes fédératrices, nous soutenons l’importance en recherche de l’exploration de
nouvelles pistes qui sortent des sentiers balisés de l’équipe ; d’où quelques publications de qualité dans
des domaines connexes (e.g. Computers and Operations Research [3], Computers in Industry [8], Journal
of Heuristics [44]).
8.11 Auto-évaluation
Durant la période 2006-2010, l’équipe COD a consolidé son positionnement dans la communauté
nationale de l’extraction de connaissances dans les données (ECD), et a franchi un pas significatif
dans un positionnement européen. En complément, de par ses activités croisées et grâce à l’implication de plusieurs de ses membres, l’équipe a acquis une reconnaissance dans la communauté nationale
de l’ingénierie des connaissances, et a contribué, à son échelle, au dialogue entre les deux communautés.
Le thème visualisation des connaissances, a été développé plus récemment ; il a fait une percée dans la
communauté nationale de l’ECD et sa visibilité sera l’un des enjeux du prochain quadriennal. Nous
présentons ci-dessous les critères d’évaluation de ce positionnement.
Extraction de connaissances et apprentissage
L’extraction de connaissances dans les données a été la thématique fondatrice de l’équipe. Nos
compétences sont reconnues en fouille de règles, et en classification non supervisée. Plus récemment,
COD
235
nos travaux en analyse de réseaux sociaux ont acquis une certaine visibilité qui, associée à la visualisation, devra croı̂tre dans le prochain quadriennal.
Notons, que suivant les conseils du comité d’évaluation du quadriennal précédent qui nous avait encouragé à préciser notre positionnement par rapport à la communauté apprentissage, nous avons recruté
en 2007 un spécialiste de modèles graphiques probabilistes, dont l’intégration a été facilitée par un socle
commun avec plusieurs membres de l’équipe autour des modèles ”à base de graphes”. On peut remarquer que durant la période 2006-2010, tant sur le plan national qu’international, les frontières entre les
communautés apprentissage et ECD se sont fortement relâchées. Notre projet à venir se situe pleinement dans ce décloisonnement autour de problématiques scientifiques dont la résolution fait appel à des
compétences complémentaires.
– Sur le plan national, nous sommes membres du conseil de pilotage de l’association EGC (Extraction et Gestion des Connaissances), du conseil d’administration de la SFC (Société Francophone de
Classification), et des comités de programme des conférences IC (Ingénierie des Connaissances)
et CAP (Apprentissage). Nous avons piloté le comité scientifique de EGC’08 et avons organisé
la conférence francophone sur les réseaux bayésiens (JFRB) en 2010. Et nous avons participé à
l’organisation de nombreux ateliers et de cours dans ces domaines. Nous sommes co-responsables
du master national Extraction et Gestion des Connaissances.
– Sur le plan international, notre objectif est maintenant de conforter le positionnement de l’équipe
sur l’espace européen. Un cap majeur a été franchi dans la deuxième partie du quadriennal avec
notamment : la présence dans les comités scientifiques des meilleures conférences internationales
(ICDM, KDD), une croissance des invitations dans les conférences internationales, et la participation active au master Erasmus Mundus Data Mining & Knowledge Management (responsabilité
de l’antenne nantaise). Cette dynamique s’est également appuyée sur une stratégie de publication
qui a permis à l’équipe d’être présente dans des conférences et des revues de premier plan dans
nos communautés.
Pour atteindre notre objectif, le principal risque, à effectif constant, est celui de la saturation. D’une part,
tous les membres de l’équipe sont des enseignants-chercheurs qui sont fortement investis dans le montage
et la direction de formations. Cela a un impact positif sur la recherche en rendant l’équipe attractive
pour les étudiants. Cependant, cette implication mobilise aussi des ressources humaines importantes.
D’autre part, l’investissement en montage de projets a connu une très forte croissance. Si l’importance
de nos axes de recherche tant dans la communauté scientifique que dans le monde socio-économique ne
laisse pas entrevoir à moyen terme une pénurie d’opportunités, il ne faudra pas que les moyens humains
affectés à cet investissement freinent la dynamique mise en place dans le quadriennal sur la valorisation
académique.
Ingénierie et visualisation des connaissances
Comme nous l’avons expliqué dans ce rapport, l’intégration des connaissances de l’utilisateur dans
les processus de fouille et d’apprentissage est l’axe structurant de la dynamique collective de l’équipe.
Avec la thèse de R. Lehn (2001), nous avons été une des premières équipes en France à nous positionner sur cette problématique. Depuis, nous avons poursuivi la collaboration entre ces divers champs
thématiques avec quatre thèses (B. Pinaud, 2006 ; J. David, 2007 ; E. Blanchard, 2008 ; C. Marinica,
soutenance prévue fin 2010).
– L’équipe s’est positionnée sur le plan national en ingénierie des connaissances avec notamment :
la présidence du comité de programme de IC’07, l’organisation de la Semaine de la Connaissance
à Nantes en 2006, la co-organisation de plusieurs ateliers nationaux sur la thématique, et l’im-
236
Bilan 2006–2009 et projet 2012-2015 COD
plication récente dans plusieurs projets nationaux (FUI ISTA3, Web innovant SOCIOPRISE) et
industriels. Cependant, ces activités reposent notamment sur deux membres de l’équipe qui n’ont
pas encore leur HDR (F. Trichet et M. Harzallah) ; ce qui restreint les capacités d’encadrement.
L’accompagnement de ces habilitations rentre dans les objectifs du prochain quadriennal.
– L’investissement en visualisation des connaissances s’est développé au cours de ce quadriennal.
Au plan international, le couplage de la visualisation avec l’extraction de connaissances est une
problématique très récente qui connaı̂t un essor rapide. Notre originalité est le choix de l’immersif
3D comme support de restitution interactive. Les moyens financiers dont nous avons disposés
nous ont permis d’acquérir un équipement de pointe et de financer un CDD d’ingénieur pour
nous aider au développement de briques logicielles spécifiques nécessaires au développement de
prototypes. Cependant, cette dynamique repose sur des ressources humaines précaires. D’un point
de vue scientifique, la difficulté principale est ici celle de notre positionnement à l’intersection de
deux domaines. En effet, notre visibilité dans la communauté de la visualisation de l’information
(InfoViz) passe par une étape d’évaluation de nos prototypes qui reste une question ouverte très
délicate pour la fouille interactive de données.
Interdisciplinarité
Nos recherches, mais aussi le parcours personnel de plusieurs membres de l’équipe, nous ont conduits sur le terrain de l’interdisciplinarité. Les collaborations avec des spécialistes reconnus dans d’autres
disciplines ont sans aucun doute joué un rôle important dans la dynamique de l’équipe. Nos travaux interdisciplinaires ont eu un impact significatif au niveau international. Citons plusieurs exemples à titre
illustratif. Le workshop interdisciplinaire ”Workshop on engineering principles of innovation in swarmmade architecture” que nous avons co-organisé en 2009 avec nos collègues biologistes et physiciens
dans le cadre du projet ANR MESOMORPH a donné lieu à un article dans New Scientist (Ball, 2010)
qui a recueilli de très nombreuses citations. Le workshop ”Transportation networks in nature and technology” que nous avons co-organisé à l’Institut des Systèmes Complexes d’Ile de France en 2010 a
regroupé des spécialistes européens du domaine. Le projet ANR GRAPHCOMP que nous avons mené
avec nos collègues historiens et mathématiciens a été cité dans Nature News (Brumfield, 2008). Cependant, malgré la fécondité objectivable de cet apport, l’exercice interdisciplinaire reste à risque en France
où peu de structures l’accueillent explicitement et où la diversité des publications peut passer pour un
éparpillement.
8.12 Projet scientifique 2012-2015
Suivant une évolution semblable à celle de l’aide à la décision qui a successivement intégré les
préférences des utilisateurs/décideurs puis leurs stratégies cognitives (”systèmes anthropocentrés d’aide
à la décision”), les méthodes de traitement de données et de connaissances visent de plus en plus à
établir un couplage entre une algorithmique automatique performante et des modèles de connaissances
ou d’usages. Cette ligne directrice émerge simultanément dans différentes communautés. En extraction
de connaissances dans les données (ECD), le dernier numéro de l’année 2009 de SIKDD Explorations
avait pour thème la relation entre la visualisation et l’ECD. Il souligne qu’une voie de recherche très
intéressante consiste à développer des combinaisons ”optimales” de la visualisation et des approches automatiques pour différentes classes de problèmes en prenant en considération l’utilisateur, la tâche et les
caractéristiques des données [52]. En ingénierie des connaissances, où l’on voit apparaı̂tre les notions de
”Social Semantic Web” [59] voire même de ”Collective Knowledge Systems” [54], il s’agit de compléter
COD
237
l’analyse sociométrique actuelle des réseaux sociaux qui porte essentiellement sur une description combinatoire des systèmes de relations avec de l’information sémantique.
Comme l’indique notre rapport d’activités, nous nous sommes placés dès le quadriennal précédent dans
ce courant de recherche. En nous appuyant sur notre expérience, et en tirant profit de l’évolution des
technologies de ces dernières années à la fois en visualisation et en modélisation des connaissances,
nous chercherons à répondre dans le quadriennal à venir à deux problématiques scientifiques : (1) analyser les structures et les fonctionnalités de réseaux sociaux complexes qui intègrent des informations
topologiques, sémantiques et dynamiques ; (2) améliorer le passage à l’échelle de l’extraction de relations causales dans les données par apprentissage ”informé” de modèles graphiques probabilistes.
Analyse de réseaux sociaux intégrant des informations structurelles, sémantiques et dynamiques
Stimulés à la fois par un challenge scientifique dû à l’accessibilité de réseaux sociaux de grandes
tailles dans de très nombreux domaines, mais aussi par des enjeux économiques considérables dans la
nouvelle économie numérique et des enjeux politiques liés à la sécurité, l’analyse des réseaux sociaux
est sans conteste un des domaines de nos communautés les plus productifs de ces dernières années. La
compréhension de leur structuration et des fonctionnalités associées repose sur trois composantes : une
quantification statistique de leurs propriétés, une extraction de patterns caractéristiques, et une visualisation adaptée.
La plupart des mesures populaires actuelles reprennent des définitions -essentiellement combinatoiresposées dans les années 70, voire antérieurement. Elles ont certes été étendues à des familles différentes
de réseaux (réseaux pondérés, réseaux spatiaux, etc.) mais, elles intègrent très peu d’informations
sémantiques. En parallèle, de très nombreux algorithmes ont été développés pour partitionner les grands
réseaux en composantes pouvant s’apparenter à des ”communautés” de nœuds, ou pour rechercher des
sous-graphes spécifiques [61] mais, à nouveau, ces approches sont restées essentiellement combinatoires.
Et, en visualisation, la prise en compte de la taille croissante des réseaux a été le défi majeur de la dernière
décennie éludant très souvent une part de l’information de plus haut niveau associée aux nœuds et aux
arêtes.
Cependant, les outils du Web sémantique offrent maintenant un modèle (RDF), un langage de requête
(SPARQL) et des cadres conceptuels (ex : RDFS et OWL) pour représenter et échanger des connaissances. Et, via les applications du web 2.0, ces outils s’intègrent de plus en plus dans les plates-formes
d’échanges sociaux. On passe donc de l’analyse des réseaux sociaux à ”l’analyse des réseaux sociaux
sémantiques” [51]. L’impact de ces nouvelles technologies ne se limite pas aux réseaux populaires mais
s’étend au monde de l’entreprise (Enterprise 2.0) et ouvre des perspectives dans d’autres disciplines (biologie, histoire, ethnologie,. . .) pour traiter globalement des informations relationnelles disséminées dans
des sources différentes.
L’analyse synthétique de ces informations, à laquelle s’ajoute la dimension dynamique dont l’importance ne cesse de croı̂tre dans tous les domaines précédemment cités, est un nouveau défi auquel nous
souhaitons contribuer en développant :
1. des nouvelles mesures ”sémantiques” intégrant les différentes dimensions. Outre la construction
des mesures, nous nous attacherons à étudier leurs propriétés mathématiques, en particulier ordinales, qui priment bien souvent dans la pratique, mais qui ont été très peu étudiées jusque là
en ingénierie des connaissances. Cette analyse est un préalable nécessaire au choix des méthodes
d’extraction de patterns, et surtout aux représentations visuelles quand la conservation de distances
ou d’ordres doit être recherchée.
238
Bilan 2006–2009 et projet 2012-2015 COD
2. de nouvelles méthodes d’extraction de patterns. Nous nous intéresserons à deux aspects en particulier : l’intégration d’informations sémantiques pour contraindre l’exploration des espaces de
recherche, et la quantification de la qualité des patterns, étendant en cela nos travaux sur les règles
d’association où nous cherchions à filtrer les règles selon la ”surprise” de leur apparition eu égard
à des hypothèses statistiques.
3. de nouvelles représentations visuelles qui intègrent les informations combinatoires, sémantiques et
dynamiques. Dans le prolongement des premiers travaux entrepris dans le quadriennal écoulé nous
faisons le pari de la 3D immersive qui nous paraı̂t la plus à même de restituer cette complexité.
Nous serons confrontés à l’évaluation des restitutions visuelles proposées ; qui est une question
très délicate en fouille de données. En effet, les recherches sur l’apport spécifique de la 3D immersive en visualisation de réseaux débutent [53]. Mais, le véritable challenge est surtout d’ordre méthodologique. S’appuyant sur une démarche largement éprouvée en IHM, les évaluations
actuelles se basent sur une schéma de type résolution de tâches où l’on quantifie statistiquement les
performances d’individus dans la résolution. Or, le contexte de la fouille exploratoire de données
n’est pas équivalent à celui de la résolution de problème puisque les tâches précises ne sont pas
explicitées préalablement, et que les modèles se construisent au cours de l’exploration. Il s’agit
donc de définir un nouveau cadre d’évaluation ; et nous comptons nous appuyer sur notre forte
expérience en traitement de données pour contribuer au débat qui s’ouvre dans les communautés
concernées.
Apprentissage ”informé” de modèles graphiques probabilistes
La question du couplage entre une algorithmique efficace du traitement de données et une
modélisation riche des connaissances est au cœur du développement des réseaux bayésiens. Ces derniers,
et plus généralement les méthodes graphiques probabilistes, ont fait l’objet d’un investissement important
dans la dernière décennie -souligné par la Benjamin Franklin Medal in Computers and Cognitive Science
de J. Pearl en 2008- qui conduit à les placer aujourd’hui comme une des approches les plus performantes
pour découvrir des associations et des relations causales entre variables, cachées parmi des observations
de plus en plus nombreuses 5 . Outre leur possibilité de rassembler des connaissances de diverses natures
dans un même modèle associé à une représentation graphique intelligible, une des propriétés essentielles
des réseaux bayésiens eu égard à d’autres approches ”concurrentes” (ex : réseaux neuronaux, arbres de
décision) est leur capacité intrinsèque -dérivant de la formule de Bayes- d’apprentissage incrémental.
Cependant, avec l’essor de nouveaux champs d’applications et les changements d’échelle, les performances des méthodes graphiques probabilistes se heurtent encore à deux verrous majeurs. Le premier
est d’ordre algorithmique : l’apprentissage de la structure d’un réseau bayésien fait partie des problèmes
NP-difficiles [60] avec un espace de recherche associé de taille super-exponentielle par rapport au nombre de variables. Le deuxième verrou est lié au recueil de données : la qualité des résultats produits par
les algorithmes repose sur un volume de données (n) supérieur à ce que ce qu’il est raisonnablement
possible d’obtenir dans certains domaines, comme par exemple en bio-informatique, où p >> n, avec p
le nombre de variables.
Un contournement de ces problèmes passe par une restriction de l’espace de recherche (i.e. de l’ensemble des graphes potentiellement intéressants). Une première voie classique que nous avons commencée
à suivre est similaire au recours aux forêts aléatoires pour le calcul d’arbres de décision ; elle consiste
à effectuer des agrégations de structures pour lesquelles la complexité de calcul est faible (e.g. arbres),
5. The AI Report : The past, present and future of artificial intelligence, Forbes, 2009.
COD
239
et qui peuvent donc être calculées en grand nombre [50] . La seconde voie, que nous allons explorer, se
place dans la lignée de nos recherches sur le filtrage ”informé” de règles d’association. Le potentiel du
couplage entre les modèles graphiques probabilistes et l’ingénierie des connaissances a été encore très
peu exploité [55] mais les premiers travaux s’avèrent très prometteurs. Il s’agit d’intégrer dans le processus d’apprentissage des structures des réseaux bayésiens des connaissances exogènes en couplant d’une
part les algorithmes avec des ontologies-, et en facilitant d’autre part l’intervention des experts dans le
processus d’apprentissage via des interfaces visuelles interactives adaptées. En particulier, la construction d’un graphe complètement causal ne peut généralement se faire qu’en utilisant des données issues
d’expérimentations sur le système étudié ; ce qui peut être très coûteux. Des informations exogènes permettraient de restreindre ces expérimentations en guidant notamment la découverte de nouvelles relations
causales vers les relations les plus inattendues.
Au-delà de la validation ”terrain” de cette approche dans des contextes applicatifs, l’évaluation de sa
valeur ajoutée passe par l’utilisation de jeux tests de références. A la différence des problèmes d’apprentissage classiques pour lesquels des données d’observations de références sont nombreuses, il existe
pour l’instant peu de jeux tests proposant des données d’expériences. Des premiers prototypes commencent à voir le jour (e.g. ”Causality Workbench”), mais ne permettent pas encore de comparer efficacement les méthodes d’apprentissage interactives ”informées”. Ainsi, nous prévoyons de participer au
développement de cet axe en plein essor.
8.13 Bibliographie
8.13.1 Publications de référence de l’équipe dans la période
[1] http ://hal.archives-ouvertes.fr/hal-00425443/en/
R. D ONAT, P. L ERAY, L. B OUILLAUT, et P. A KNIN. A dynamic bayesian network to represent
discrete duration models. Neurocomputing / EEG Neurocomputing, 2010, 4-6(73) : 570–577
[2] http ://hal.archives-ouvertes.fr/hal-00421673/en/
D. C. P ORUMBEL, J.-K. H AO, et P. K UNTZ. A Search Space ”Cartography” for Guiding Graph
Coloring Heuristics. Computers & Operations Research, 37(4), 2010, pages 769–770
[3] http ://hal.archives-ouvertes.fr/hal-00453545/en/
D. C. P ORUMBEL, J.-K. H AO, et P. K UNTZ. An evolutionary Approach with Diversity Guarantee and Well-Informed Grouping Recombination for Graph Coloring. Computers & Operations
Research, 37(10), 2010, pages 1822–1832
[4] http ://hal.archives-ouvertes.fr/inria-00396789/en/
P. B RUNEAU, F. P ICAROUGNE, et M. G ELGON. Interactive unsupervised classication and visualization for browsing an image collection. Pattern Recognition, 2010, 43 : 485–493
[5] http ://hal.archives-ouvertes.fr/hal-00459393/en/
C. M ARINICA et F. G UILLET. Knowledge-Based Interactive Postmining of Association Rules
Using Ontologies. IEEE Transactions on Knowledge and Data Engineering, 2010, 22(6) : 784–
797
[6] http ://hal.archives-ouvertes.fr/hal-00448912/en/
240
Bilan 2006–2009 et projet 2012-2015 COD
G. L AMIRAULT, N. L E M EUR, J.-C. ROUSSEL, D. B ARON, A. B IHOUEE, I. G UISLE, M. R A HARIJOANA , G. R AMSTEIN , R. T EUSAN , C. C HEVALIER , J. G UEFFET, J. T ROCHU , J. L ÉGER ,
R. H OULGATTE, et M. S TEENMAN. Molecular risk stratification in advanced heart failure patients.
Journal of Cellular and Molecular Medicine Volume 14, Issue 6b, 2010, pages 1443–1452
[7] http ://hal.archives-ouvertes.fr/hal-00462555/en/
X. A IME, F. F ÜRST, P. K UNTZ, et F. T RICHET. Prototypicality gradient and similarity measure : a
semiotic-based approach dedicated to ontology personalization. Journal of Intelligent Information
Management, 2010, 2(2) : 65–158
[8] http ://hal.archives-ouvertes.fr/hal-00405142/en/
V. A NAYA, G. B ERIO, M. H ARZALLAH, P. H EYMANS, R. M ATULEVICIUS, A. O PDAHL,
H. P ANETTO, et M. J. V ERDECHO. The Unified Enterprise Modelling Language -Overview and
further work. Computers in Industry, 2010, 61(2) : 99–111
[9] http ://tel.archives-ouvertes.fr/tel-00481253/en/
D. C. P ORUMBEL. Algorithmes Heuristiques et Techniques d’Apprentissage - Applications au
Probleme de Coloration de Graphe. Thèse de doctorat, Université d’Angers, 2009
[10] http ://hal.archives-ouvertes.fr/hal-00421787/en/
F. T RICHET et F. F ÜRST. Axiom-based ontology matching. Expert Systems : The Journal of
Knowledge Engineering, 2009, 26(2) : 218–246
[11] http ://tel.archives-ouvertes.fr/tel-00481931/en/
H. D AVIET. Class-Add, une procédure de sélection de variables basée sur une troncature k-additive
de l’information mutuelle et sur une classification ascendante hiérarchique en pré-traitement.
Thèse de doctorat, Université de Nantes, 2009
[12] http ://hal.archives-ouvertes.fr/hal-00421947/en/
G. R AMSTEIN, N. B EAUME, et Y. J ACQUES. Detection of Remote Protein Homologs using Social
Programming. In Bio-Inspired Data Mining, pages 277–296. Springer, 2009
[13] http ://hal.archives-ouvertes.fr/hal-00421819/en/
T. P ITON, J. B LANCHARD, H. B RIAND, et F. G UILLET. Domain Driven Data Mining to Improve
Promotional Campaign ROI and Select Marketing Channels. In Proceedings of the The 18th ACM
Conference on Information and Knowledge Management, 2009, Hong-Kong. ACM, 2009, pages
1057–1066
[14] http ://tel.archives-ouvertes.fr/tel-00482642/en/
S. D AVIET. Etude du comportement humain grâce à la simulation multi-agents et aux méthodes de
fouille de données temporelles. Thèse de doctorat, Université de Nantes, 2009
[15] http ://hal.archives-ouvertes.fr/hal-00421569/en/
T. T. N GUYEN L E, X.-H. H UYNH, et F. G UILLET. Finding the most Interesting Association Rules
by Aggregrating Objective Interestingness Measures. In Pacific Rim Knowledge Acquisition Workshop (PKAW08), in conjunction with PRICAI08, 2009, Hanoi Viet Nam. Springer, 2009, volume
5465 of Lecture Notes in Computer Science (LNCS), pages 40–49
[16] http ://hal.archives-ouvertes.fr/hal-00412286/en/
M. B EN M ESSAOUD, P. L ERAY, et N. B EN A MOR. Integrating ontological knowledge for iterative
causal discovery and vizualisation. In Proceedings of the 10th European Conference on Symbolic
and Quantitative Approaches to Reasoning with Uncertainty (ECSQARU 2009), 2009, Italie, pages
168–179
COD
241
[17] http ://hal.archives-ouvertes.fr/hal-00423339/en/
C. S INOQUET. Iterative two-pass algorithm for missing data imputation in SNP arrays. Journal of
Bioinformatics and Computational Biology, 2009, 7(5) : 833–852
[18] http ://hal.archives-ouvertes.fr/hal-00423679/en/
S. V ALVERDE, B. C OROMINAS -M URTRA, A. P ERNA, P. K UNTZ, G. T HERAULAZ, et R. V. S OL É.
Percolation in insect nest networks : Evidence for optimal wiring. Physical Review E : Statistical,
Nonlinear, and Soft Matter Physics, 2009, pages 79, 32767
[19] http ://hal.archives-ouvertes.fr/hal-00412283/en/
S. A MMAR, P. L ERAY, B. D EFOURNY, et L. W EHENKEL. Probability density estimation by perturbing and combining tree structured markov networks. In Proceedings of the 10th European
Conference on Symbolic and Quantitative Approaches to Reasoning with Uncertainty (ECSQARU
2009), 2009, Italie, pages 156–167
[20] http ://hal.archives-ouvertes.fr/hal-00420971/en/
J. B LANCHARD, F. G UILLET, et P. K UNTZ. Semantics-based classification of rule interestingness
measures. In L. C. Y. Z HAO , C. Z HANG, réd., Post-Mining of Association Rules : Techniques for
Effective Knowledge Extraction, pages 56–79. IGI Global, 2009
[21] http ://hal.archives-ouvertes.fr/hal-00421382/en/
E. B LANCHARD, M. H ARZALLAH, et P. K UNTZ. A generic framework for comparing semantic similarities on a subsumption hierarchy. In Proceedings of the 18th European Conference on
Artificial Intelligence (ECAI)), 2008, Grèce. IOS Press, 2008, pages 20–24
[22] http ://hal.archives-ouvertes.fr/hal-00421951/en/
G. R AMSTEIN, N. B EAUME, et Y. J ACQUES. A Grammatical Swarm for Protein Classification. In
IEEE World Congress on Computational Intelligence CEC 2008, 2008, Hong-Kong, pages 2561–
2568
[23] http ://tel.archives-ouvertes.fr/tel-00481408/en/
N. B EAUME. Agrégation de classifieurs et d’experts pour la recherche d’homologues chez les
cytokines à quatre hélices alpha. Thèse de doctorat, Université de Nantes, 2008
[24] http ://hal.archives-ouvertes.fr/hal-00412263/en/
P. L ERAY, S. M EGANCK, S. M AES, et B. M ANDERICK. Causal graphical models with latent variables : learning and inference. In D. H OLMES et L. J AIN, réds., Innovations in Bayesian Networks :
Theory and Applications, pages 219–249. Springer, 2008
[25] http ://tel.archives-ouvertes.fr/tel-00485099/en/
E. B LANCHARD. Exploitation d’une hiérarchie de subsomption par le biais de mesures
sémantiques. Thèse de doctorat, Université de Nantes, 2008
[26] http ://tel.archives-ouvertes.fr/tel-00481403/en/
J. L OREC. Extraction d’informations sur la régulation transcriptionnelle de gènes à partir d’articles biomédicaux 2008. Thèse de doctorat, Université de Nantes, 2008
[27] http ://hal.archives-ouvertes.fr/hal-00423408/en/
C. S INOQUET, S. D EMEY, et F. B RAUN. Large-scale computational and statistical analyses of
high transcription potentialities in 32 prokaryotic genomes. Nucleic Acids Research, 2008, 36(10) :
3332–3340
242
Bilan 2006–2009 et projet 2012-2015 COD
[28] http ://hal.archives-ouvertes.fr/hal-00421803/en/
F. T RICHET, M. L ANZENBERGER, J. S AMPSON, H. K ARGL, M. W IMMER, C. C ONROY, D. O’S ULLIVAN, D. L EWIS, R. B RENNAN, J. Á NGEL R AMOS -G ARGANTILLA, A. Gómez P ÉREZ,
F. F ÜRST, F. T RICHET, J. E UZENAT, A. P OLLERES, F. S CHARFFE, et K. KOTIS. Making Ontologies Talk : Knowledge Interoperability in the Semantic Web. IEEE Intelligent Systems, 2008,
23(6) : 72–85
[29] http ://hal.archives-ouvertes.fr/hal-00318963/en/
A. P ERNA, S. V ALVERDE, J. G AUTRAIS, C. J OST, R. S OL É, P. K UNTZ, et G. T HERAULAZ. Topological efficiency in three-dimensional gallery networks of termite nests. Physica A, 2008, 387(24) :
6235–6244
[30] http ://hal.archives-ouvertes.fr/hal-00423600/en/
A. P ERNA, S. D OUADY, D. P INTILEI, G. T HERAULAZ, S. V ALVERDE, F. P ICAROUGNE, et
P. K UNTZ. Topological properties of layered spatial networks built by termites. In Proceedings
of the Conference Net-Works 08 Net-Works 2008, 2008, Espagne, pages 139–144
[31] http ://tel.archives-ouvertes.fr/tel-00482664/en/
T. R AIMBAULT. Transition de modèles de connaissances - Un système de connaissance fondé sur
OWL, Graphes conceptuels et UML. Thèse de doctorat, Université de Nantes, 2008
[32] http ://hal.archives-ouvertes.fr/inria-00335928/en/
J. B LANCHARD, B. P INAUD, P. K UNTZ, et F. G UILLET. A 2D-3D visualization support for humancentered rule-mining. Computer and Graphics, 2007, 31 : 350–360
[33] http ://hal.archives-ouvertes.fr/hal-00462132/en/
F. P ICAROUGNE, H. A ZZAG, G. V ENTURINI, et C. G UINOT. A new approach of Data Clustering
Using a Flock of Agents. Evolutionary Computation, 2007, 15(3) : 345–367
[34] http ://hal.archives-ouvertes.fr/hal-00412264/en/
S. M AES, S. M EGANCK, et P. L ERAY. An integral approach to causal inference with latent variables. In F. R USSO et J. W ILLIAMSON, réds., Causality and Probability in the Sciences, pages
17–41. London College Publications, 2007
[35] http ://tel.archives-ouvertes.fr/tel-00200040/en/
J. D AVID. AROMA : une méthode pour la découverte d’alignements orientés entre ontologies à
partir de règles d’association. Thèse de doctorat, Université de Nantes, 2007
[36] http ://hal.archives-ouvertes.fr/hal-00461292/en/
J. D AVID, F. G UILLET, et H. B RIAND. Association Rule Ontology Matching Approach. International Journal on Semantic Web and Information Systems, 2007, Special Issue on Ontology Matching 3(2) : 27–49
[37] http ://hal.archives-ouvertes.fr/hal-00423582/en/
J.-L. M ARICHAL, I. K OJADINOVIC, et K. F UJIMOTO. Axiomatic characterizations of generalized
values. Discrete Applied Mathematics, 2007, 155(1) : 26–43
[38] http ://hal.archives-ouvertes.fr/hal-00412946/en/
S. M EGANCK, P. L ERAY, et B. M ANDERICK. Causal graphical models with latent variables :
Learning and inference. In Ninth European Conference on Symbolic and Quantitative Approaches
to Reasoning with Uncertainty ECSQARU 2007, 2007, Tunisie, pages 5–16
COD
243
[39] http ://hal.archives-ouvertes.fr/hal-00420938/en/
J. B LANCHARD, F. G UILLET, et H. B RIAND. Interactive visual exploration of association rules
with rule-focusing methodology. Knowledge and Information Systems, 2007, 13(1) : 43–75
[40] http ://tel.archives-ouvertes.fr/tel-00335934/en/
B. P INAUD. Contribution à la visualisation des connaissances par des graphes dans une mémoire
d’entreprise : application sur le serveur Atanor. Thèse de doctorat, Université de Nantes, 2006
[41] http ://tel.archives-ouvertes.fr/tel-00481256/en/
I. K OJADINOVIC. Contributions à l’interprétation de mesures non additives et ‘a l’identification
de modèles décisionnels fondés sur l’intégrale de Choquet. HDR, Université de Nantes, 2006
[42] http ://hal.archives-ouvertes.fr/hal-00421317/en/
R. G RAS et P. K UNTZ. Discovering R-rules with a directed hierarchy. Soft computing, 2006, 10(5) :
453–460
[43] http ://tel.archives-ouvertes.fr/tel-00482649/en/
X.-H. H UYNH. Interestingness Measures for Association Rules in a KDD Process : PostProcessing
of Rules with ARQAT Tool. Thèse de doctorat, Université de Nantes, 2006
[44] http ://hal.archives-ouvertes.fr/inria-00335904/en/
P. K UNTZ, B. P INAUD, et R. L EHN. Minimizing crossings in a hierarchical digraphs with a hybridized genetic algorithm. Journal of Heuristics, 2006, 12 : 23–36
[45] http ://tel.archives-ouvertes.fr/tel-00481938/en/
F. G UILLET. Qualité, Fouille et Gestion des Connaissances. HDR, Université de Nantes, 2006
[46] http ://hal.archives-ouvertes.fr/hal-00462559/en/
J. B UHL, J. G AUTRAIS, J.-L. D ENEUBOURG, P. K UNTZ, et G. T HERAULAZ. The growth and form
of tunneling networks in ants. Journal of Theoretical Biology, 2006, 243(3) : 287–298
[47] http ://halshs.archives-ouvertes.fr/halshs-00396018/en/
R. G RAS, J.-C. R EGNIER, et F. G UILLET. Analyse statistique implicative. Cépadues Editeur, 2009
[48] http ://hal.archives-ouvertes.fr/hal-00421518/en/
R. G RAS, E. S UZUKI, F. G UILLET, et F. S PAGNOLO. Statistical Implicative Analysis. Springer
Verlag, 2008
[49] http ://hal.archives-ouvertes.fr/hal-00445178/en/
F. G UILLET et H. H AMILTON. Quality measures in Data Mining. Springer, 2006
8.13.2 Bibliographie externe
[50] S. A MMAR, P. L ERAY, B. D EFOUMY, et L. W EHENKEL. Probability density estimation by perturbing and combining tree structured markow networks. In Proc. of the tenth European Conference on
Symbolic and Quantitative Approaches to Reasoning with Uncertainty, 2009, pages 157–167
[51] G. E RETO, F. G ANDON, O. C ORBY, et M. B UFFA. Semantic social network analysis. In In proc.
of Web Science (on web science website), 2009
[52] D. K EIM, F. M ANSMANN, et J. T HOMAS. Visual analytics : How much visualization and how
much analytics ? In SIGKDD Explorations, volume 11, pages 5–8, 2009
244
Bilan 2006–2009 et projet 2012-2015 COD
[53] C. WARE et P. M ITCHELL. Visualizing graphs in three dimensions. In ACM Trans. Appl. Percept,
volume 5, pages 1–15, 2008
[54] T. G RUBER. Collective knowledge systems : where the social web meets the semantic web. In
Journal of Websemantics : Science, Services and Agents on the World Wide Web, pages 4–13, 2007
[55] A. D EVITT, B. DANEV, et K. M ATUSIKOVA. Constructing bayesian netwoks automatically using
ontologies. In Proc. of Second workshop on formal ontologies meets industry, 2006, pages 1–11
[56] R. AGRAWAL, T. I MIELINSKI, et A. S WAMI. Mining association rules between sets of items in large
data bases. In Proc. of ACM-SIGMOD Int. Conf. on Management of Data, 1993, pages 207–216
[57] T. G RUBER. A translation approach to portable ontology specifications. In Knowledge Acquisition,
volume 5, pages 199–220, 1993
[58] W. F RAWLEY, G. P IATETSKY-S HAPIRO, et C. M ATHEUS. Knowledge discovery in databases : an
overview. In AI Magazine, volume Fall, pages 57–70, 1992
[59] J. B RESLIN, A. PASSANT, et S. D ECKER. The social semantic web. Springer, 2009
[60] D. C HICKERING, D. G EIGER, et D. H ECKERMAN. Learning bayesian networks is NP-hard. Technical Report MSR-TR-94-17, Microsoft Technical Report, 2007
[61] D. C OOK et L. H OLDER. Mining graph data. Wiley, 2007
[62] R. H ILDERMAN et H. H AMILTON. Knowledge discovery and measures of interest. Kluwer Academic Publisher, 2001
[63] J. P EARL. Causality : Models, Reasoning, and Inference. Cambridge University Press, 2000
Équipe
COMBI
Chapeau-résumé
Démarrée sur des bases exclusivement combinatoires qui ont constitué le principal fondement de
l’équipe jusqu’en 2006, ComBi a effectué depuis le virage tant souhaité mais plutôt difficile à mettre en place vers une bio-informatique réellement interdisciplinaire, appuyée non seulement sur des
problématiques issues de la biologie mais également sur les spécificités liées aux données et systèmes
biologiques. Notre thématique traditionnelle qui concerne l’analyse de séquences biologiques s’est donc
focalisée sur la comparaison de génomes avant d’entamer, très récemment, une évolution vers la comparaison de réseaux biologiques de provenances et natures différentes. Elle a été rejointe par une nouvelle
thématique visant à la modélisation et l’analyse dynamique des réseaux biologiques. L’équipe ComBi
s’attaque ainsi de deux manières convergentes, à la fois sur le plan statique et dynamique, à ce nouvel enjeu de la biologie actuelle qu’est la compréhension du fonctionnement des systèmes vivants, dont
l’étude est devenue aujourd’hui possible grâce à des données inexistantes il y a quelques années.
Nous entendons avoir vis-à-vis des problèmes traités une approche rigoureuse qui nous permette
d’atteindre un double but : participer à l’avancement des connaissances biologiques, tout en proposant
une démarche informatique propre, robuste, à la pointe des connaissances actuelles. L’équipe est le reflet de cette volonté, puisqu’elle affiche des compétences en algorithmique, probabilités, statistiques,
complexité, complétées depuis le dernier recrutement par des compétences en microbiologie et en applications de la programmation par contraintes.
245
246
Bilan 2006–2009 et projet 2012-2015 COMBI
Nos collaborations avec des collègues biologistes sont réelles et suivies, notamment au travers de
thèses en co-encadrement et de projets communs. Nos publications en revues et conférences interdisciplinaires de très bon niveau sont devenues une priorité, ainsi que la participation à des comités de
programme. ComBi est une équipe de petite taille, mais qui grandit.
9.1 Composition de l’équipe au 30/06/2010
Nom
BOURDON
EVEILLARD
FERTIN
RUSU-ROBINI
Prénom
Jérémie
Damien
Guillaume
Irena
Nom
BORDRON
CLIQUET
MOHAMEDBABOU
Prénom
Philippe
Freddy
Permanents au 30/06/10
Position
MC
MC
PR2
PR1
Doctorants au 30/06/10
Position
AM
PdL
Hafedh
AM
Nom
ANGIBAUD
BULTEAU
Institution
UN
UN
UN
UN
Arrivée
01/09/2003
01/09/2006
01/09/2000
01/09/2000
Institution
UN
UN
Arrivée
01/09/2008
01/10/2007
UN
01/09/2009
Personnels temporaires sur la période 2006-2010
Prénom
Position
Institution
Arrivée
Sébastien
ATER
UN
01/09/2009
Laurent
StageENS
UN
23/11/2009
Départ
31/08/2010
30/07/2010
Évolution de l’équipe sur la période 01/01/2006-30/06/2010
L’approche réellement interdisciplinaire de la bio-informatique au sein de ComBi a pris un réel départ
en septembre 2006, lorsque nous avons recruté Damien Eveillard (en tant que MC), biologiste de formation et ayant effectué une thèse en bio-informatique à Nancy. Son arrivée, après deux années postdoctorales à l’Université de Texas A&M, a apporté à l’équipe une compétence en microbiologie qui lui
manquait cruellement, des collaborations internationales, ainsi qu’une ouverture sans précédent vers les
biologistes.
L’accueil de Christine Sinoquet dans ComBi, débuté en 2002 (mutation depuis l’Université de
Clermont-Ferrand), s’est terminé début 2008 par sa migration vers l’équipe COD.
9.2 Faits marquants 2006-2010
La période de référence a été pour l’équipe ComBi une période de consolidation et de montée en
puissance, tant en ce qui concerne les ressources humaines, qu’en ce qui concerne le positionnement
thématique et la visibilité locale, nationale et internationale.
Structuration et thèmes de recherche L’évolution de ComBi en terme de membres permanents a
engendré une évolution naturelle de ses thématiques de recherche, dans le but, d’une part, d’assurer une
COMBI
247
réponse rapide et efficace de l’équipe aux diverses sollicitations au niveau recherche et, d’autre part, de
permettre à chacun de trouver son rôle dans l’équipe. Ainsi, deux axes de recherche sont actuellement
présents au sein de ComBi :
• Un premier axe, ayant comme thématique générale la Génomique comparative, a été constitué
par G. Fertin, I. Rusu et C. Sinoquet. Il s’est concrétisé par la participation à deux ACI et par un
partenariat privilégié avec S. Vialette, CR1 CNRS au LIGM (Université Paris-Est). Depuis peu,
cet axe évolue vers la comparaison de réseaux biologiques. Une allocation fléchée du ministère
sur ce sujet a d’ailleurs été obtenue en 2009.
• Un second axe, ayant comme thématique générale la Biologie des systèmes a été initié par J. Bourdon et D. Eveillard, autour - au départ - d’un projet financé par la fédération AtlanSTIC avec
l’équipe d’O. Roux à l’IRCCyN/MOVES, UMR CNRS 6597. Cet axe est aujourd’hui renforcé
par deux co-encadrements de thèse : l’un avec O. Roux, l’autre avec R. Houlgatte de l’Institut de
Recherche Thérapeutique de Nantes. Nous avons mis en place des collaborations privilégiées :
d’une part, avec A. Siegel de l’EPI SYMBIOSE du Centre INRIA Rennes Bretagne Atlantique
(CIRBA) à l’occasion d’une délégation de 2 ans (2008-2010) de J. Bourdon dans l’EPI SYMBIOSE ; d’autre part, avec le NII et Waseda University - Tokyo, Japon, et l’équipe MEO du LINA
à l’occasion d’un projet PHC SAKURA.
Des travaux en commun ont lieu régulièrement (cf. Section 9.5) et des projets communs sont mis
en place (projet régional BIL 2007-2011 porté par R. Houlgatte, soumission ANR en 2010 du projet
BioTempo porté par A. Siegel et classé 2ème sur liste d’attente), soulignant la convergence des deux
axes.
Il arrive également que des thématiques nouvelles soient abordées de façon ponctuelle : identification
de protéines par spectrométrie de masse en tandem [8] (collaboration avec l’INRA de Nantes, thèse de
F. Cliquet en cours), modélisation du métabolisme des monocarbones [19] (collaboration avec l’Institut
LaSalle de Beauvais), modélisation de la diversité microbienne du sol (collaboration avec le CAREN
UMS3343).
Publications majeures de l’équipe sur la période
1. CPM. 2009 [16, 12] : la conférence de référence concernant les aspects algorithmiques de l’alignement et la comparaison de séquences.
2. Bioinformatics. 2009 [10] : le journal interdisciplinaire de référence pour la bio-informatique
dans sa globalité.
3. ACM/IEEE Trans. Computational Biology and Bioinformatics. 2007 [27] : article présentant
un large panel de résultats algorithmiques sur la génomique comparative.
4. MIT Press. 2009 [35] : ouvrage présentant un état de l’art complet des résultats algorithmiques et
combinatoires relatifs aux réarrangements génomiques.
5. Biosystems. 2009 [17] : journal de référence en Biologie des systèmes.
6. Environmental Microbiology. 2007 [25] : très bon journal à forte composante biologique.
7. Journal of Bioinformatics and Computational Biology. 2010 [3] : collaboration interdisciplinaire très réussie.
8. ISAAC. 2009 [11] : conférence de haut niveau en algorithmique.
9. Journal of Computational Biology. 2008 [20] : revue de référence en bio-informatique.
248
Bilan 2006–2009 et projet 2012-2015 COMBI
Prix et récompenses, organisation de conférences majeures, conférences invitées
– D. Eveillard : participation au projet National Science Fundation (NSF) Integrative Biology and
adaptation of Antarctic marine organisms. Janvier 2010 - Février 2010. http ://antarctica.usc.edu/
– D. Eveillard : Brevet biologique référencé N˚ 0903778, 31/07/2009 sur la sélection de molécules
inhibitrices dans le cas de cancers (Rad51).
– G. Fertin : Exposé invité au minisymposium “Combinatorial Problems in Genomics” de la
conférence CanaDAM 2007 (Banff, Canada).
– G. Fertin : Membre du comité d’organisation de la conférence internationale RECOMB-CG
2008 (Paris).
– I. Rusu : co-présidente du comité de programme de JOBIM 2009.
– ComBi : participation à l’organisation de JOBIM 2009 à Nantes.
Tableau récapitulatif
ACL
26
ACLN
0
ASCL
0
Récapitulatif des publications par catégorie
BRE INV ACTI ACTN COM AFF
1
0
21
6
2
0
OS
3
OV
0
DO
0
AP
2
9.3 Fondements scientifiques
La bio-informatique est un domaine très vaste, issu de la multitude de questions que la biologie
soulève et du nombre important d’approches que l’informatique propose, étudie et évalue. Devant cette
diversité de défis et de solutions potentielles, le choix d’une ligne de conduite est nécessaire. Nous nous
focalisons ci-dessous et dans la suite du document sur les deux axes permanents, mais rappelons au
lecteur l’existence de tous les autres travaux énoncés dans la Section 9.2.
9.3.1 Axe Génomique comparative : combinatoire, algorithmique, complexité
La Génomique comparative est l’étude des relations de similarité/dissimilarité entre les génomes
de différentes espèces - dans un sens large, incluant des entités biologiques diverses (gènes, protéines,
ARNm) - dans le but d’inférer des connaissances (arbres d’évolution, sites fonctionnels, prédiction de
structures, localisation de gènes, fonctions de gènes, etc.) et de transférer des informations d’une espèce
à une autre.
Le séquençage des génomes de l’homme, de la souris et d’autres organismes dans le cadre de grands
programmes a ouvert la voie à cette nouvelle discipline, dont certains résultats surprenants n’ont pas
tardé à apparaı̂tre. En 2000, il a été estimé qu’environ 60% des gènes de l’homme ont un correspondant
génétique chez la mouche du vinaigre (Drosophila melanogaster), ce qui est également le cas pour deuxtiers des gènes impliqués dans le cancer [53]. Cet organisme est pour cette raison utilisé comme modèle
génétique pour l’étude de diverses maladies humaines, dont la maladie de Parkinson [54].
En mai 2010, plus de 2300 génomes sont soit déjà séquencés, soit en cours de séquençage, et la
génomique comparative se conjugue en termes de comparaison au niveau de l’ADN entier [48], de
sous-séquences spécifiques d’ADN [51], de l’ensemble des gènes d’un génome [61], de la séquence
ordonnée [63] ou partiellement ordonnée [43] des gènes, de la séquence [50] ou la structure [55] de
l’ARN, etc.
Les travaux de l’équipe ComBi se sont focalisés plus précisément sur la comparaison de génomes vus
comme des ensembles de gènes (non ordonnés, totalement ordonnés ou partiellement ordonnés), et sur
COMBI
249
la comparaison de structures 2D d’ARN. Dans chaque cas, le problème est formulé comme un problème
de combinatoire, pour lequel nous étudions la difficulté algorithmique à divers niveaux (polynomialité
ou non, approximabilité ou non, polynomialité à un petit paramètre fixé près ou non) ; nous proposons
en conséquence une ou plusieurs solutions, et nous évaluons ces solutions. La première problématique,
qui s’intéresse donc à ce qu’on appelle usuellement les réarrangements génomiques, trouve ses racines
dans le papier de Watterson et al. [63] et a pris son essor avec divers travaux sur les distances entre
génomes sans duplications [60, 59, 62], avant de connaı̂tre un important intérêt pour les génomes avec
duplications [57]. La seconde porte plus particulièrement sur la comparaison de structures d’ARNm,
initiée dans [55].
9.3.2 Axe Biologie des systèmes : modélisation probabiliste, systèmes dynamiques,
théorie des graphes
Durant les quinze dernières années, de nouvelles techniques expérimentales ont profondément
changé notre perception d’un système vivant. Elles fournissent, pour un même système, un nombre
impressionnant de données biologiques de nature hétérogène, obtenues par des expériences diverses
[45] à des moments différents et dans des conditions variées. La compréhension du fonctionnement
complexe du système nécessite alors la collaboration de nombreuses disciplines (biologie moléculaire,
chimie, physique, informatique) dans une approche holiste (par opposition au réductionnisme très présent
jusqu’ici en biologie) [46], qui vise à inférer des connaissances biologiques d’une nature complexe à partir de l’ensemble des connaissances existantes, souvent bien plus simples. ComBi se focalise sur deux
problématiques :
L’analyse mono- et multi-échelle se place en aval des méthodes de fouille de données, et porte sur
l’étude de modèles structurés du système vivant, qui sont souvent des réseaux. Elle est motivée par le fait
qu’une cellule peut être observée sous plusieurs angles (génomique, protéique, métabolique,. . .) : on parle
souvent d’observations multi-échelle, chaque échelle étant représentée par un réseau (réseau de régulation
de gènes, réseau d’intéraction protéines-protéines, réseau métabolique, etc.). Nous sommes plus particulièrement intéressés par l’identification de modules biologiques (introduits dans [56]), qui sont définis
intuitivement comme des unités fonctionnelles relativement autonomes. Pour cela, nous avons à la fois
des approches mono-échelle (étude d’un seul réseau, dont les performances ont été soulignées entre
autres dans [49]) et multi-échelle (en combinant des informations de plusieurs échelles dans un seul
réseau, comme suggéré dans [40]), qui exploitent fortement la topologie des réseaux (par des méthodes
de théorie des graphes) en tenant compte des spécificités biologiques.
La modélisation dynamique s’intéresse au comportement d’un système vivant au cours du temps,
dans le but, premièrement, de comprendre le rôle de chacun de ses composants dans le fonctionnement du
système et, deuxièmement, de reproduire ou simuler ce fonctionnement (pour tout ou partie du système).
La complexité de cette tâche impose une approche progressive, dans laquelle on se limite d’abord à un
aspect du système, que l’on modélise et étudie avant de produire un modèle plus riche en intégrant des informations supplémentaires. Nous sommes plus particulièrement intéressés par les réseaux de régulation
de gènes [52, 38]. Ainsi, nous étudions l’impact de la régulation des gènes sur les changements d’état du
système, à l’aide de nouvelles informations quantitatives comme, par exemple, le temps ou les concentrations protéiques.
250
Bilan 2006–2009 et projet 2012-2015 COMBI
9.4 Applications et enjeux
9.4.1 Axe Génomique comparative
Dans le cadre de la génomique comparative, on cherche à expliquer les mécanismes du vivant en confrontant les mêmes données (des génomes) provenant d’espèces différentes. Cette méthodologie permet
de progresser dans notre connaissance du vivant, principalement dans trois directions :
– L’extraction de connaissances communes aux espèces comparées : inférence d’arbres d’évolution,
de la présence de sites fonctionnels, etc.
– Le transfert des connaissances d’une espèce vers une autre : prédiction de structures, localisation
de gènes, fonctions de gènes, etc.
– La confirmation/infirmation/correction des données fournies : par des méthodes algorithmiques,
des données incomplètes sur une espèce peuvent être complétées par comparaison avec une ou
plusieurs autres.
Ces nouvelles connaissances amènent à des découvertes fondamentales, par exemple sur le fonctionnement de la cellule ou sur son métabolisme. Elles peuvent aussi être réinjectées dans les données,
lesquelles permettent alors l’élaboration de nouvelles connaissances. Les enjeux associés à la génomique
comparative couvrent de nombreux aspects socio-économiques ; on peut entre autres citer ceux liés à la
santé (pathologies chez les mammifères) et l’environnement (cycles de développement des végétaux et
animaux marins), mais aussi ceux liés à une meilleure compréhension du passé (reconstruction de phylogénies ou de génomes ancestraux).
Afin de mieux cibler ces enjeux, le National Human Genome Research Institute (NHGRI, USA)
a décidé 1 de choisir de manière ciblée les espéces animales à séquencer, de sorte à privilégier les
avancées par génomique comparative dans les domaines suivants : compréhension du génome humain, compréhension des génomes des espèces animales qui constituent des modèles biomédicaux,
compréhension de l’évolution des génomes. Le 6ème Framework Program (FP6, 2002-2006) comptait parmi ses sept thématiques prioritaires celle intitulée “Life sciences, genomics and biotechnologies
for health”, dont les objectifs prioritaires étaient le décodage et l’analyse (y compris par la génomique
comparative) de génomes en vue de leurs applications à la santé.
9.4.2 Axe Biologie des systèmes
Un des enjeux de la thématique est de proposer une unique méthodologie pour analyser des systèmes
vivants variés (du virus à la population). Les applications sont donc aussi nombreuses que le nombre de
systèmes vivants qui suscitent l’intérêt des biologistes. Dans une moindre mesure, les domaines d’application privilégiés de ComBi sont la santé et la microbiologie environnementale, dans lesquels les enjeux
suivants sont primordiaux :
– La définition de modèles multi-échelle - intégrant donc un nombre important de données
hétérogènes - et de méthodes appropriées d’analyse et d’inférence de connaissances.
– La mise en place d’outils efficaces basés sur des algorithmes nouveaux, adaptés à la taille très
importante des modèles ainsi obtenus.
– La validation automatique des modèles et des connaissances inférées, en adéquation avec les propriétés reconnues du système.
– L’expérimentation sur des données réelles, dont celles provenant du milieu marin ont une place
privilégiée (applications en perspective sur l’oursin).
1. http ://www.genome.gov/11509542
COMBI
251
La compréhension du fonctionnement des systèmes vivants par intégration de données hétérogènes est
une nécessité mise en avant dans le 7ème Framework Program (FP7, 2007-2013), et plus précisément
dans le domaine de la Santé (l’un des 10 domaines prioritaires). Ce programmme fait directement écho
à Leroy Hood [47] qui justifie notamment l’application de la biologie des systèmes sur l’homme comme
un moyen d’aboutir à une médecine préventive et prédictive. Différents instituts ont ouvert en fonction
des domaines d’application, le plus illustre étant le Systems Biology Institute à Seattle 2 qui couvre un
large spectre d’applications. Dans le même programme FP7, un autre domaine prioritaire est celui de
l’environnement, où la gestion de l’environnement marin est également un axe de recherche principal.
Cette motivation est confortée également Outre-Atlantique par la mise en place d’un institut interuniversitaire supporté par NSF 3 dans lequel la biologie intégrative pour le syst‘emes microbiens marins est un
axe central, comme justifié récemment dans le journal Nature par Edward F. DeLong (MIT) [36].
9.5 Nouveaux résultats pour la période 2006-2010
9.5.1 Génomique Comparative
Comparaison de génomes en présence de gènes dupliqués
Participants : Sébastien ANGIBAUD, Damien EVEILLARD, Guillaume FERTIN, Irena RUSU
Comparer deux génomes pour évaluer leur (dis)similarité est un problème étudié sous l’angle algorithmique depuis le début des années 1990. Pour l’essentiel il a été résolu, en partant du principe que
chaque gène n’apparaı̂t qu’une fois dans le génome. Or, depuis la fin des années 1990, on sait que cette
hypothèse est fausse (il n’est pas rare de voir 15 à 20% de gènes dupliqués dans les génomes, même si
ce chiffre est très variable selon les espèces).
Il a donc été nécessaire de revoir la comparaison de génomes à l’aune de cette nouvelle réalité.
Nous avons contribué de façon très significative au niveau international à l’avancée des connaissances
dans le domaine. Nous avons d’abord étudié de manière complète la complexité algorithmique des
différentes variantes liées au problème, afin d’avoir une vue claire des difficultés inhérentes à celuici [22, 14, 27, 18, 28, 31, 33]. Nous avons ensuite proposé des solutions exactes, basées sur la programmation pseudo-booléenne, ou des algorithmes d’approximation [22, 24, 20, 14, 34, 23]. Certaines des
solutions exactes que nous avons proposées passent à l’échelle de grands génomes, et sont donc des
méthodes utilisables telles quelles pour les comparer. D’autres trouvent leurs limites quand les génomes
sont grands et/ou quand ils présentent de nombreuses duplications. Nous avons alors proposé plusieurs
heuristiques, dont nous avons pu montrer (en les comparant aux solutions exactes) leur grande efficacité,
malgré leur apparente simplicité. Enfin, nous avons produit le logiciel Match & Watch [7], qui permet
d’évaluer la (dis)similarité des génomes en mesurant leur nombre d’intervalles communs. Dans ce logiciel, des outils d’analyse et de visualisation sont également proposés.
Cartes de gènes : erreurs de séquençage et ordres partiels
Participants : Sébastien ANGIBAUD, Laurent BULTEAU, Guillaume FERTIN, Irena RUSU
Même si les avancées technologiques permettent un séquençage de plus en plus rapide et fiable,
certaines techniques ne sont parfois capables de fournir que des génomes partiellement ordonnés. Dans
d’autres cas, certains marqueurs génétiques sont indiqués comme étant présents sans l’être en réalité. En
2. http ://www.systemsbiology.org/
3. http ://cmore.soest.hawaii.edu/index.htm
252
Bilan 2006–2009 et projet 2012-2015 COMBI
conséquence, les données sont fausses, dans le sens où l’on est en présence de génomes (ici totalement
ordonnés) dans lesquels certains gènes ne devraient pas apparaı̂tre.
Dans ces deux cas, la génomique comparative permet de modifier, voire de corriger les données
brutes : en comparant le génome “imparfait” (i.e., partiellement ordonné dans le premier cas ou contenant
des gènes inadéquats dans le deuxième cas) au génome (complet et correct) d’une espèce proche, et en se
basant sur une mesure de similarité à optimiser entre les deux génomes, on vise à compléter ou corriger
le génome initial.
Nous nous sommes récemment intéressés à cette thématique, et avons obtenu les résultats suivants :
d’une part, de plus amples connaissances en ce qui concerne la complexité algorithmique des problèmes
étudiés [11, 5], d’autre part des algorithmes rapides et performants (algorithmes exacts et d’approximation) qui permettent de répondre au problème, dans certaines de leurs variantes [15, 5].
9.5.2 Biologie des systèmes
Modélisation de la dynamique des systèmes vivants : gestion du temps
Participants : Jérémie BOURDON, Damien EVEILLARD
L’étude de la dynamique d’un système biologique se base sur l’observation du comportement d’un
nombre important de composants biologiques, parmi lesquels les gènes sont incontournables. Les comportements des gènes (activation ou inhibition à un moment donné de la production de la protéine associée) sont intimement liés les uns aux autres selon un mécanisme complexe et actuellement peu compris dans sa généralité. Ce mécanisme est représenté biologiquement par un réseau dit de régulation des
gènes, dont les modélisations oscillent entre des formes discrètes forcément simplificatrices (ensemble
de variables discrètes soumises à des contraintes discrètes) et des formes continues bien plus générales
(équations différentielles), chacune avec ses avantages et ses inconvénients. La prise en compte du facteur temps dans la modélisation du comportement des gènes est une préoccupation permanente, et une
problématique à part entière à laquelle nous avons contribué de manière significative.
Ainsi, nous nous sommes concentrés sur la mise en place de modèles hybrides, où variables discrètes
(par exemple, la quantité de chaque protéine à un moment donné) et variables continues (typiquement,
une ou plusieurs variables temps) cohabitent pour une description à la fois aisée et riche du réseau de
régulation. Dans [4], nous avons proposé un premier modèle sous la forme d’un automate linéaire hybride particulier (un automate temporisé), qui permet une modélisation synchrone de la dynamique du
réseau de régulation en se focalisant sur les aspects qualitatifs du comportement des gènes (i.e. quelle
variation pour quelle protéine produite par quel gène) plutôt que sur les aspects quantitatifs (i.e. quantité
de protéine produite). Nous avons montré que cette approche permet de compenser le handicap d’une
information quantitative incomplète, et nous l’avons utilisée pour modéliser le cycle circadien de la
drosophile. Dans [17], nous avons étendu ce modèle en ajoutant une nouvelle classe de variables continues permettrant de paramétriser certains délais observés expérimentalement. Une démarche précise pour
obtenir le modèle hybride à partir d’un modèle d’équations différentielles affines par morceaux a été
fournie, et des conclusions ont été tirées sur l’influence des délais sur la dynamique globale. L’étude de
grands réseaux de gènes a nécessité le développement de nouveaux algorithmes d’analyse des propriétés
des automates hybrides.
COMBI
253
Identification de modules
Participants : Damien EVEILLARD, Guillaume FERTIN, Irena RUSU
En biologie, l’identification d’unités fonctionnelles relativement autonomes (ou modules) apparaı̂t
comme une manière naturelle de structurer l’étude des systèmes vivants, qui sont par définition
extrêmement complexes. Aux difficultés d’interprétation posées par la définition formelle d’un module
biologique s’ajoutent des difficultés algorithmiques, qui sont croissantes lorsque le nombre d’échelles
considérées augmente. L’analyse mono-échelle est, par conséquent, très utilisée actuellement dans la
communauté alors que l’analyse multi-échelle, sûrement plus riche en informations, est à ses débuts.
En analyse mono-échelle, les résultats obtenus sont les suivants :
– Décomposition d’un réseau en modules : nous avons proposé [10] une décomposition hiérarchique
en modules d’un réseau d’interactions protéines-protéines, dont l’originalité est son degré de
détail, permettant de mettre en évidence tant les interactions entre modules (comme le font d’autres
méthodes existantes) que des interactions à l’intérieur de chaque module. Nous avons ainsi mis en
évidence l’existence de 21 complexes protéiques très hautement connectés chez la levure.
– Recherche de motifs dans un réseau : cette classe de problèmes consiste à chercher un sous-graphe
G′ dans un graphe G, G′ devant respecter des contraintes qui varient en fonction de l’application.
Nous avons étudié, sous l’angle de la complexité algorithmique, deux types de contraintes : (1) à
chaque sommet de G′ est associé une liste de sommets dans G [9] ; (2) le graphe G a ses sommets
coloriés, le motif devient un multi-ensemble M de couleurs, et les couleurs portées par G′ doivent
correspondre à M [30, 12, 29]. Dans les deux cas, nos résultats nous ont permis de mieux cerner
les difficultés intrinsèques des problèmes étudiés, et de proposer des solutions algorithmiques satisfaisantes, tant en rapidité d’exécution qu’en qualité du résultat.
En analyse multi-échelle, nos travaux sont en cours et portent sur l’intégration de données
génomiques et d’expression de gènes dans un réseau métabolique, dans le but d’inférer des connaissances fonctionnelles (complexes protéiques, opérons etc.). Nous avons dores et déjà montré qu’un nombre relativement important d’opérons (suite de gènes consécutives sur le génome, formant une unité
dite de transcription) se projettent sur le réseau métabolique sous la forme d’une cascade de réactions
successives (soumission en cours).
9.6 Logiciels
Ces logiciels accompagnent (pour la plupart) des travaux publiés, afin de permettre la visualisation
des résultats ou la reproduction des expérimentations. Ils ne sont pas, a priori, destinés à une large diffusion.
Match&Watch
URL
Participants : S. Angibaud (resp), D. Eveillard, G. Fertin, I. Rusu
Type de licence : CeCILL
Mots clés: comparaison de génomes, gènes dupliqués, intervalles communs
Le logiciel Match and Watch permet de calculer les intervalles communs entre deux génomes unichromosomaux pouvant contenir des gènes dupliqués. L’outil (en C++) permet également de visualiser ces
intervalles et met en évidence les gènes d’un intervalle commun qui sont présents dans un même réseau
métabolique de la base KEGG. [23, 20, 14, 7]
254
Bilan 2006–2009 et projet 2012-2015 COMBI
HD
URL
Participants : G. Del Mondo (resp), D. Eveillard, I. Rusu
Type de licence : CeCILL
Mots clés: réseau d’intéraction de protéines, décomposition hiérarchique, module
Ce logiciel permet de décomposer les graphes d’interaction protéine-protéine en modules. À la différence
des autres approches, il met en évidence une hiérarchie plus fine entre les sous-modules d’un module.
Cela représente une indication fonctionnelle supplémentaire pour l’interprétation biologique des modules. [10]
SIFPackets
URL
Participants : F. Cliquet (resp), G. Fertin, I. Rusu
Type de licence : CeCILL
Mots clés: identification de protéines, spectrométrie de masse
SIFpackets est un logiciel permettant la comparaison de spectres de masse MS/MS avec des spectres
de protéines issues de banques de données. Il a pour but d’identifier des protéines d’un organisme nonséquencé, en présence de modifications (insertion, suppression ou substitution d’un ou plusieurs acides
aminés). [8]
POGG
URL
Participants : J. Bourdon (resp),
Type de licence : CeCILL
Mots clés: réseau de gènes, inférence de modèles gènes/protéines
POGG est un logiciel qui permet d’inférer les paramètres d’un modèle Markovien de description d’un
réseau de gènes à partir de données protéiques.
MotifsComparator
URL
Participants : J. Bourdon (resp), S. Carat
Type de licence : GPL, en cours
Mots clés: ADN, motifs
Ce logiciel permet de construire des regroupements de motifs ADN proches. Il permet d’intégrer les
résultats de plusieurs logiciels d’extraction de motifs et des bases de données existantes. [3]
9.7 Contrats et subventions
ComBi privilégie les coopérations académiques de proximité, permettant le contact direct et régulier
entre les partenaires et ce pour favoriser le partage des réflexions, des choix et des réalisations à toutes
les étapes des collaborations. Les projets régionaux ou nationaux constituent donc l’essentiel de nos
engagements scientifiques, et dans ce cadre le support de la région est très significatif. Ils permettent
la mise en place d’un travail collaboratif suivi, une bonne diversité thématique, d’importants échanges
interdisciplinaires et assurent, jusqu’à présent, l’indépendance financière de l’équipe. Une fois ce cadre
posé, des travaux d’une nature plus décentralisée, ou d’une amplitude financière limitée, ou exploratoires
(mais qui risquent de devenir productifs bien plus tard) peuvent avoir lieu, en fonction des souhaits,
intérêts, et sollicitations de chacun des membres de l’équipe.
COMBI
255
Type
Région PdL
Région PdL
AtlanSTIC
ACI MD
Coop.
France-Québec
PHC SAKURA
PHC PESSOA
ACI IMPBio
ACI NIM
PHC PROCOPE
ANR Blanc
ANR Blanc
PEPS
GDR
Tableau des contrats et subventions
Institution
Nom
Début/Durée
gestionnaire
Ouest-Génopole
UN
01.2006/24mois
BIL
UN
01.2007/48 mois
BioAtlanSTIC
AtlanSTIC
09.2006/24 mois
Navgraphe
UN
08.2003/48mois
Montant équipe
75 Ke
47 Ke
20 Ke
8,1 Ke
CPCFQ
UN
03.2005/24 mois
8 Ke
Hybrid CC
GeneMaps
AReNA
π-vert
TiGeRNET
LAREDA
SADA
QuantOursins
IM
NII
UN
Université Paris XI
UN
Ecole Centrale
Univ Caen
Univ Caen
INRIA
UN
03.2009/24 mois
01.2008/24 mois
12.2004/36 mois
04.2005/36 mois
06.2009/24 mois
01.2008/36mois
01.2006/36mois
01.2010/12mois
04.2010/2 mois
4 Ke
4 Ke
3,5 Ke
3 Ke
2 Ke
1 Ke
1 Ke
1 Ke
0,4 Ke
9.7.1 Projets collaboratifs
Actions régionales
BIL
URL
Début : 07/01/2007, durée : 48 mois
Partenaires : IECM, LEPA/IMAD, INRA/BIA, INSERM U601, INSERM U694, INSERM U915,
IRCCyN/MOVES, LERIA, LINA/COD
Coordinateur : R. Houlgatte
Participants : I. Rusu (resp), J. Bourdon, D. Eveillard, G. Fertin
Montant équipe : 47 Ke
Montant total : 920 Ke
Mots clés : données génomiques, analyse, bio-informatique, ligérienne
L’objectif est de promouvoir la recherche et l’enseignement en bio-informatique dans la région
Pays de Loire. Pour cela, des équipes impliquées dans la production de données génomiques ou
développant des approches fonctionnelles à l’échelle du génome, et des équipes développant des
méthodes innovantes d’analyse ont mis en place un groupe de travail collaboratif.
BioAtlanSTIC
URL
Début : 01/09/2006, durée : 24 mois
Partenaires : IRCCyN/MOVES, LINA/COD
Coordinateur : J. Bourdon
Participants : J. Bourdon (resp), D. Eveillard
Montant équipe : 20 Ke
Montant total : 40 Ke
Mots clés : réseau de régulation de gènes, temps, concentrations protéiques
L’objectif est de proposer une démarche de modélisation et d’analyse des réseaux de régulation de
gènes qui intègre des paramètres quantitatifs, le temps ou la concentration de certaines protéines.
Nous avons développé des modélisations probabilistes (à base de chaı̂nes de Markov pondérées), des
modélisations temporelles à base d’automates hybrides et des modélisations quantitatives à base de
pi-calcul stochastique.
256
Bilan 2006–2009 et projet 2012-2015 COMBI
Projets nationaux
Ouest-Génopole
URL
Début : 2006, durée : 24 mois
Partenaires : Plus de 50 dans le Grand Ouest
Coordinateur : M. Renard
Participants : I. Rusu (resp), J. Bourdon, D. Eveillard, G. Fertin
Montant équipe : 75 Ke
Montant total : inconnu
Mots clés : Agro, Mer, Santé, Bio-informatique
Ouest-Génopole (actuellement BiogenOuest) est le réseau des plates-formes en sciences du vivant
du Grand Ouest, démarré en 2002 et soutenu financièrement notamment par les Régions Pays de la
Loire et Bretagne. Depuis 2008, les programmes de recherche sont encouragés mais pas financés.
PEPS QuantOursin
Début : 01/05/2010, durée : 24 mois
Partenaires : CRIBA/EPI SYMBIOSE, Station Biologique de Roscoff, I3S Nice
Coordinateur : A. Siegel
Participants : J. Bourdon (resp), D. Eveillard
Montant équipe : 1 Ke
Montant total : 8 Ke
Mots clés : Système dynamiques, réseaux booléens probabilistes, inférence grammaticale
Ce projet vise à développer une nouvelle modélisation des réseaux de régulation des gènes, qui
intègre des aspects temporels (à l’échelle du gène dans la cellule, inspiré des modèles dynamiques)
et quantitatifs (à l’échelle de la protéine dans une population ; inspiré des approches probabilistes).
Nous nous appuierons sur des chaı̂nes de Markov et des méthodes d’inférence grammaticale, et validerons cette approche sur un modèle réel d’initiation de la traduction chez l’oursin.
Projets internationaux
PHC PROCOPE : TiGeRNet (Timed Genetic Regulatory Networks)
Début : 01/01/2009, durée : 24 mois
Partenaires : IRCCyN/MOVES, I3S - Université de Nice,
Matheon Frei Universität Berlin (Allemagne)
Coordinateur : IRCCyN
Participants : D. Eveillard (resp), J. Bourdon
Montant équipe : 2 Ke
Montant total : 10 Ke
Mots clés : gene regulatory network, temporal modeling, model-checking
A la suite du projet BioAtlanSTIC, ce projet rassemble trois partenaires qui ont proposé, chacun,
un formalisme différent pour intégrer le temps dans les modèles de réseaux de régulation de gènes.
Les équipes de Nantes se focalisent sur la vérification des systèmes temporisés, l’équipe de Nice est
spécialiste de la simulation des réseaux, tandis que l’équipe de Berlin attaque cette problématique
avec des automates temporisés. L’objectif de ce projet est d’utiliser les avantages de chaque technique
déjà développée indépendamment pour produire un formalisme unique, plus riche et plus puissant.
Coopération Franco-Québécoise : Réarrangements génomiques
Début : 16/03/2005, durée : 24 mois
Partenaires : LRI, Univ. Paris-Sud, LACIM - UQAM (Canada)
Coordinateur : LINA
Participants : G. Fertin (resp), G. Blin, G. Fertin, I. Rusu
Montant équipe : 8 Ke
Montant total : 20 Ke
Mots clés : réarrangements génomiques, gènes dupliqués, génomique comparative, algorithmes
COMBI
257
Ce projet bilatéral France-Québec a financé des missions croisées (voyage et séjour) : séjours courts
(1 à 2 semaines) pour les permanents, séjours plus longs (1 mois) pour les doctorants. Il avait pour
thématique générale la comparaison de génomes en présence de gènes dupliqués, et a permis (i) d’initier des collaborations solides avec les chercheurs de l’UQAM (Cedric Chauve, Anne Bergeron) et
(ii) d’être présent et reconnu internationalement dans cette thématique, à laquelle émargent de nombreux chercheurs canadiens.
9.8 Rayonnement
9.8.1 Évaluation de la recherche
Comités de programme (conférences) et de lecture (revues)
– Revues
– Comités éditoriaux de revue scientifique
– G. Fertin : Editeur associé de la revue BMC Bioinformatics
– Rapports pour des comités de revues scientifiques
– J. Bourdon : Bioinformatics, Discrete Mathematics
– D. Eveillard : Bioinformatics, Briefings in Bioinformatics, Deep Sea Research, Environmental Microbiology
– G. Fertin : J. Discrete Algorithms, Discrete Mathematics, Discrete Applied Mathematics, Information Processing Letters, J. Graph Theory, Networks, J. Computational Biology, IEEE/ACM Transactions on Computational Biology and Bioinformatics, International
J. Bioinformatics Research and Applications
– I. Rusu : Discrete Mathematics, Discrete Applied Mathematics, Discussiones Mathematicae
Graph Theory, International J. of Foundations of Computer Science
– Conférences
– Comités de programme
– G. Fertin : JOBIM 2006, 2009 ; ISBRA 2009, 2010 ; RECOMB-CG 2008, 2009, 2010
– I. Rusu : JOBIM 2009 (co-présidente), JOBIM 2010
– Rapports pour un membre d’un comité de programme
– J. Bourdon : PSC 2008, JIS 2008, AofA 2010, ISBRA 2010
– D. Eveillard : CPAIOR 2008, CP 2009
– G. Fertin : MFCS 2006, CPM 2007, CPM 2008, STACS 2009, FSTTCS 2009
– I. Rusu : JOBIM 2006, RECOMB-CG 2008, ISBRA 2009, ISBRA 2010
Expertises régions, ANR, Europe, AERES, ...
– J. Bourdon : expertises ANR. Projets Blanc (2009) ; projets DEFI (2008)
– I. Rusu : expertise pour le National Security Agency (NSA) Mathematical Sciences Program, Standard Grant
Rapports de thèse, comité de sélection, concours INRIA, ...
– J. Bourdon : commission de spécialistes MC UN (27), 2007 et 2008
comité de sélection chaire INRIA/U. Paris Sud (27), 2010
– D. Eveillard : comité de sélection pour 1 poste MC UN (27), 2009 et 2010
comité de sélection pour 1 poste MC U. Rennes 1 (65), 2009
jury de thèse de Jamil Ahmad, Ecole Centrale de Nantes, 2009
jury de thèse de David Thybert, U. Rennes 1, 2010
258
Bilan 2006–2009 et projet 2012-2015 COMBI
– G. Fertin :
– I. Rusu :
commission de spécialistes UN (27), 2007 et 2008
membre du comité de sélection pour 1 poste PR et 1 poste MC UN (27), 2009
membre du comité de sélection pour 1 poste PR U. Bordeaux 1 (27), 2009
président du comité de sélection pour 1 poste PR et 1 poste MC UN (27), 2010
membre du comité de sélection pour 1 poste PR U. Lille 1 (27), 2010
rapport d’HDR de Pascal Ferraro, U. Bordeaux 1, 2009
rapport de thèse A. Joulie, U. Versailles - Saint Quentin, 2007
rapport de thèse C. Herrbach, U. Paris-Sud, 2007
examinateur de la thèse de G. Jean, U. Bordeaux 1, 2008
rapport de thèse A. Darracq, U. Lille 1, 2010
commission de spécialistes UN (27) jusqu’en 2008
commission d’admissibilité INRIA Bordeaux Sud-Ouest, 2010
rapport de thèse R. Ravaux, U. Versailles - Saint Quentin, 2009
9.8.2 Animation de la communauté
Participation à des steering comittees, des GDR et leurs groupes de travail
– G. Fertin : comité scientifique de GTGC (Groupe de Travail en Génomique Comparative)
– I. Rusu : membre du conseil scientifique du programme régional BIL
– J. Bourdon : membre du conseil scientifique de la Genopole Ouest.
Conférences invitées
– G. Fertin : “Counting the number of breakpoints between genomes containing duplicates”, minisymposium “Combinatorial Problems in Genomics”, conférence CanaDAM 2007.
Organisation de conférences, d’ateliers, d’écoles d’été
– J. Bourdon et D. Eveillard : organisation des journées satellites à JOBIM, intitulées Modélisation
dynamique et simulation des réseaux biologiques Lille 2008 et Nantes 2009.
– G. Fertin : Membre du Comité d’Organisation de la conférence internationale RECOMB-CG
2008 (Paris).
– G. Fertin : organisation de la journée satellite à JOBIM 2009 intitulée 6èmes Journées du Groupe
de Travail en Génomique Comparative. Nantes, 2009.
– ComBi : participation à l’organisation de JOBIM 2009, à Nantes.
– ComBi : organisation des 2èmes Journées GTGC (Groupe de Travail en Génomique Comparative),
Nantes, 2006.
Collaborations nationales et internationales
– Collaborations nationales :
– LRI, U. Paris-Sud [24, 20, 14, 15]
– LIGM, U. Paris-Est [20, 14, 15, 21, 18, 12, 13, 35, 9]
– LBBE, U. Claude Bernard Lyon 1 [35]
– Institut Polytechnique LaSalle, Beauvais [19]
– Collaborations internationales :
– Princeton University (USA) [25]
– Texas A&M University (USA) [25]
– U. Milano-Bicocca (Italie) [28, 31]
COMBI
–
–
–
–
–
259
U. Bergamo (Italie) [28, 31, 30, 12]
U. Udine (Italie) [27, 28, 33, 26, 9]
UQAM Montréal (Canada) [27, 33]
U. Newcastle (Australie) [29]
U. Haifa (Israël) [21, 29, 26]
Divers
– ComBi : 2 chapitres écrits sur invitation pour le livre Algorithms in Computational Molecular
Biology : Techniques, Approaches and Applications, Wiley Series en Bioinformatics, M. Elloumi,
A. Zomaya eds, à paraı̂tre début 2011.
9.9 Formation par la recherche
Pilotage d’écoles doctorales, de spécialités de filières, de master
– G. Fertin : De 2006 à 2009, porteur de l’habilitation Masters Informatique FST U. Nantes 20082011, puis responsable des Masters Informatiques de la FST U. Nantes
– G. Fertin : Membre du Conseil de l’ED STIM (2009-)
– I. Rusu : Responsable du master recherche SAD (“Systèmes d’aide à la décision”, 2004-2008)
Participation aux enseignements de master, de filière, d’école doctorale
– Etablissements tutelles
– G. Fertin : Optimisation discrète et applications aux données biologiques, 9hCM/an, 2004-2008
en Master Recherche SAD
– G. Fertin : Operational Solutions for Real-World Optimization Problems, 3hCM et 3hTP par an,
2008-2010 en Master ORO
– I. Rusu : Optimisation discrète et applications aux données biologiques, 12hCM/an, 2004-2008
en Master Recherche SAD
– I. Rusu : Graphs and Networks, 12hCM et 12hTD par an, 2009-2010, en master ORO
– I. Rusu : Operational Solutions for Real-World Optimization Problems, 3hCM et 3hTP par an,
2008-2010 en Master ORO
– J. Bourdon : encadrements de 5 stages recherche, dont 2 en co-encadrement (50%) interne et 3
en co-encadrement (50%) externe (R. Andonov, R. Houlgatte, A. Siegel).
– D. Eveillard : encadrements de 2 stages recherche, dont 1 en co-encadrement (50%) interne.
– G. Fertin : encadrements de 2 stages recherche, dont 1 en co-encadrement (50%) interne.
– I. Rusu : encadrements de 5 stages recherche, dont 4 en co-encadrement (50%) interne.
– Autres établissements
– J. Bourdon : Optimisation problems and Graph Theory, International Summer School “Interfaces between Physics and Computer Science”, Bremen, Germany, 2007 (2 cours de 3h).
– G. Fertin : Graphes et Bio-informatique, Ecole Jeunes Chercheurs en Algorithmique et Calcul
formel - LaBRI, Bordeaux, mai 2006 (cours de 4h).
260
Bilan 2006–2009 et projet 2012-2015 COMBI
HDR et thèses soutenues sur la période
Nom
A. Mancheron
S. Angibaud
Publications
[1, 2, 32]
[23, 20, 14, 7, 6]
Thèses
Institution
UN
UN
.
Soutenance
29/09/2006
07/10/2009
Devenir
IR LIRMM
ATER UN
9.10 Gouvernance
Organisation de l’équipe, animation scientifique
ComBi fonctionne sur le principe d’échanges nombreux, divers, spontanés ou organisés, entre tous
ses membres :
• Les séminaires de ComBi ont lieu deux fois par mois, le lundi après-midi. Ils sont précédés d’une
réunion d’équipe d’environ une demi-heure, dédiée à la diffusion d’informations, au partage d’expériences diverses, parfois à la distribution de tâches. Chaque membre de l’équipe, permanent
ou non, y participe.
• Les étudiants en thèse sont tous doublement encadrés (soit avec un co-encadrement externe, soit
avec deux co-encadrants internes à l’équipe) ce qui leur donne l’assurance de n’être jamais seuls
en cas de besoin.
• Ils ont des rendez-vous hebdomadaires avec leurs deux encadrants, ce qui permet un suivi régulier
et approfondi.
• En fonction de leur sujet et des contacts de ComBi, certains doctorants sont encouragés à former
des groupes de travail avec des doctorants externes au sujet de thèse proche. Un tel groupe de
travail qui a bien fonctionné a été S. Angibaud-A. Thévenin (LRI, Université Paris-Sud), un autre
est mis en place en juin 2010 entre H. Mohamed-Babou et F. Sikora (LIGM, Université Paris-Est),
avec des visites croisées, prévues en juin 2010, et financées par le GDR IM.
Le recrutement des étudiants stagiaires et des étudiants en thèse est fait nationalement, comme le
montre la composition actuelle de l’équipe : sur 3 étudiants en thèse et un stagiaire actuellement dans
l’équipe, un seul a fait des études à Nantes avant son arrivée dans l’équipe.
Stratégies de publication
Durant ce quadriennal l’équipe a essayé de privilégier 4 objectifs :
– la publication dans des revues de référence du domaine : Bioinformatics, Biosystems, Journal of
Computational Biology, attestant l’interdisciplinarité acquise des travaux effectués par ComBi.
– la publication d’articles validant biologiquement nos approches, publiés dans des revues à forte
composante biologique : Journal of Nutritional Biochemistry, Cancer Epidemiology Biomarkers
& Prevention, Environmental Microbiology.
– l’intégration dans le réseau international du domaine, par une participation répétée à des
conférences de très bon niveau : RECOMB-CG 2009, 2007 et 2006, CPM 2009 (deux articles),
2007.
– la continuité des travaux théoriques publiés dans des revues/conférences de très bon niveau :
ISAAC, Theoretical Computer Science, Discrete Applied Mathematics.
COMBI
261
9.11 Auto-évaluation
Pendant la période 2006-2010, ComBi a consolidé sa place dans la communauté de la Génomique
comparative et a démarré, puis progressé, dans le domaine en pleine émergence de la Biologie des
systèmes. Nous discutons ci-dessous les modalités et les résultats de notre implication dans deux, les
plus suivies, des problématiques que nous avons abordées.
9.11.1 Réarrangements Génomiques
Nous avons fait de cette problématique l’une de nos priorités en terme de moyens humains, d’investissement scientifique et de visibilité internationale.
– Nous sommes dans les comités de programme des meilleures conférences pour la Génomique
comparative (RECOMB-CG 2008, 2009, 2010, ISBRA 2009, 2010), dans le comité d’édition de la
revue BMC Bioinformatics et nous participons vivement à l’animation du domaine (participation
au comité scientifique du GTGC, ainsi qu’organisation des journées GTGC en 2006 et 2009 à
Nantes).
– Nous sommes co-auteurs d’un livre [35] sur l’approche combinatoire des réarrangements
génomiques, publié chez MIT Press en août 2009, et qui présente un état de l’art complet des
travaux dans le domaine.
– La thèse de S. Angibaud [6] est l’étude la plus complète sur le calcul de distances entre deux
génomes avec gènes dupliqués : une étude exhaustive des modèles et mesures possibles est effectuée, des algorithmes sont proposés et comparés, une implémentation visuellement très efficace
est mise en place dans le logiciel Match&Watch. Une autre thèse, celle de L. Bulteau, démarrera
en septembre 2010 sur la prise en compte des erreurs dans la comparaison de cartes génomiques ;
cette thèse bénéficie d’une bourse de l’ENS Paris.
– Notre souhait de poursuivre ces travaux dans la direction, très prometteuse et présentant de
nombreux et nouveaux défis, de la comparaison de réseaux bénéficie d’une bonne opportunité
représentée par l’obtention d’une allocation ministérielle fléchée Comparaison de réseaux biologiques.
9.11.2 Modélisation de la dynamique du vivant
L’émergence de cette thématique est due à la volonté de ComBi de réunir des forces et compétences
diverses autour d’une problématique difficile mais très prometteuse. Les premières publications datent
de 2008, et d’autres sont en cours.
– Dans un premier temps, notre politique a été de fédérer autour de cette thématique au niveau
local, dans le cadre d’un projet de recherche (2006-2008) financé par la fédération de recherche
AtlanSTIC entre l’IRCCyN/MOVES et ComBi. Cette période a été propice à un positionnement
théorique de nos travaux tant au niveau local que national, avec notamment la mise en place de
collaborations dont une thèse avec le Matheon - Frei Universität Berlin dans le cadre d’un projet
PROCOPE (2009-2010).
– En marge de l’implantation locale, cette même thématique a permis de développer une collaboration étroite avec l’IRISA à Rennes, qui s’est notamment concrétisée par une délégation de Jérémie
Bourdon dans CIRBA/SYMBIOSE (2008-2010), l’obtention d’un PEPS CNRS en 2010 et le dépôt
d’un ANR commune BioTempo. L’effet direct de la collaboration est la mise en place de méthodes
pour la modélisation dynamique à plusieurs échelles du vivant.
262
Bilan 2006–2009 et projet 2012-2015 COMBI
– Cette thématique de recherche n’a cependant pas encore porté tous ses fruits. Plusieurs collaborations nationales (Station Biologique de Roscoff, CAREN - Rennes) et internationales (Lawrence
Berkeley Laboratory, Princeton University, University California Davis) avec des biologistes sont
actuellement initiées, avec une valorisation scientifique attendue dans un avenir proche. Afin de
faciliter cette valorisation, nous envisageons de focaliser particulièrement nos applications sur les
systèmes vivants en interaction avec l’environnement, qui sont par définition des systèmes multiéchelles bien identifiés.
9.12 Projet scientifique 2012-2015
L’équipe ComBi vise une recherche structurée et cohérente autour d’un sujet d’intérêt à court, moyen
et long terme : les réseaux biologiques. Pour cela, les deux aspects fondamentaux des réseaux - statique (topologie, contenu, structuration) et dynamique (activation/inhibition, chronologie, états stables)
- trouveront chacun une approche dédiée dans l’un des deux axes. L’axe Génomique comparative va
développer son activité récemment démarrée en comparaison de réseaux. L’axe Biologie des systèmes va
approfondir ses travaux sur l’analyse multi-échelles et la modélisation dynamique des systèmes vivants.
De la Génomique comparative à la comparaison de réseaux. La comparaison de réseaux biologiques
est actuellement l’une des approches les plus prometteuses pour aider à la compréhension du fonctionnement des organismes vivants. Elle apparaı̂t (voir [41] pour plus de détails) comme la suite attendue
de la comparaison de séquences biologiques, dont l’étude a permis le développement de concepts nouveaux - spécifiques au cadre biologique des applications - et une réelle avancée scientifique, mais qui ne
représente en réalité qu’un aspect (l’aspect génomique) des informations fournies et manipulées par les
biologistes.
Les réseaux biologiques représentent chacun une vue partielle (une échelle) de l’activité moléculaire
à l’intérieur de la cellule. Des études récentes ont montré les avantages indéniables de l’approche
expérimentale comparative pour interpréter ces réseaux, en confrontant des réseaux d’espèces différentes
et de types différents (réseaux d’interaction protéine-protéine, de régulation des gènes, métaboliques
etc.), et dans des conditions différentes.
Avec l’expérience acquise de par nos travaux en génomique, nous proposons de mettre en place
une approche par l’algorithmique et la théorie des graphes, qui soit donc comparative, multi-échelles et
multi-réseaux. Nous nous proposons d’orienter nos recherches dans les directions suivantes :
– Comparaison de deux réseaux hétérogènes (intra-espèce). Un nombre important d’études a été
consacré à la comparaison de réseaux d’un même type, et plus particulièrement des réseaux d’interactions protéine-protéine provenant d’espèces différentes (voir par exemple [42, 39]). Dans notre
cas, nous voulons tirer parti des informations multi-échelles d’une même espèce, qui représentent
plusieurs vues d’un même phénomène. Chaque échelle étant représentée sous la forme d’un réseau
(orienté ou non), il s’agit donc de chercher dans chaque réseau la représentation d’un même
phénomène. A la grande différence du cas où les réseaux sont de même type, ces représentations
seront ici le plus souvent différentes (par exemple, un chemin orienté dans un réseau, et un sousgraphe connexe dans l’autre réseau). La généricité de l’analyse jusqu’à un certain point (types de
réseaux, types de sous-graphes recherchés, type de correspondance entre les composants des deux
réseaux) devrait permettre le développement d’une démarche algorithmique standard, qui serait
ensuite personnalisée au moment de l’application sur des réseaux spécifiques.
– Comparaison de plusieurs réseaux hétérogènes (intra- et inter-espèces). L’aboutissement d’une
COMBI
263
démarche ambitieuse comme celle indiquée au point précédent permettrait ensuite d’élargir les investigations à des réseaux provenant de plusieurs espèces (par exemple, le réseau métabolique et le
réseau d’interactions de protéines d’une espèce, et le réseau d’interaction de protéines d’une autre
espèce). Ainsi, (1) les fonctions communes aux espèces pourraient être étudiées en s’appuyant sur
des réseaux du même type lorsqu’elles existent et, en plus, sur des informations complémentaires
provenant d’un ou plusieurs autres réseaux, et (2) une fonction d’un organisme pourrait être étudiée
en s’appuyant sur les réseaux disponibles pour cet organisme, et sur un ou plusieurs autres réseaux
d’un organisme proche (éventuellement mieux étudié, et donc bénéficiant de réseaux plus complets).
Ces deux problématiques sont très larges et très peu étudiées jusqu’ici. Les seuls travaux
précédents [58, 44, 37] portent tous sur une même approche, dans laquelle les réseaux sont tous
considérés - pour simplifier - comme non-orientés. C’est une limite forte à l’utilisation de ces
méthodes puisque la plupart des interactions biologiques sont très clairement orientées (par exemple,
réactions métaboliques irréversibles) voire même orientées et labellisées (par exemple, relation d’activation/inhibition d’un gène sur un autre gène).
Biologie des systèmes. La biologie des systèmes est actuellement à un tournant que nos compétences
en algorithmique, statistique et modélisation nous permettent d’appréhender dans de bonnes conditions.
En effet, ces dernières années sont apparues de manière quasiment indépendante deux communautés. La
première est proche des données produites (principalement des séries temporelles d’activités de gènes)
qu’elle traite par des méthodes probabilistes (réseaux bayésiens, réseaux booléens probabilistes, etc.)
pour fournir des résultats quantitatifs. L’autre se base sur des modèles produits par expertise qu’elle
analyse en utilisant des méthodes formelles pour fournir des résultats qualitatifs. Les attentes des biologistes sont mixtes (qualitatives et quantitatives). Ils disposent souvent de données multiples sur le
système vivant à l’étude mais ne peuvent en exploiter, de par leur expérience, qu’une partie.
Notre équipe est à une place privilégiée. Nous collaborons depuis longtemps avec des experts tant
sur des méthodes qualitatives que sur des méthodes quantitatives. Nous interagissons régulièrement avec
des biologistes fournisseurs de données et de questions biologiques. Nous sommes conscients des enjeux
d’une approche intégrant plusieurs échelles.
– D’un point de vue mixte (qualitatif et quantitatif), l’un des défis actuels de la biologie des systèmes
consiste à intégrer dans des modélisations purement formelles des notions quantitatives autres
que le temps. Nous avons déjà entrepris d’investiguer l’intégration des données de concentration
protéique dans nos modèles, afin d’observer dans ces conditions l’évolution dans le temps des
paramètres des réseaux de gènes. Nous souhaitons développer cette étude de trois manières :
– en obtenant des résultats théoriques plus précis sur les chaı̂nes de Markov pondérées (l’objet
mathématique central de notre étude) ;
– en appliquant nos résultats théoriques à d’autres types de modélisations plus proches des
données, notamment aux réseaux booléens probabilistes, déjà très utilisés pour modéliser des
séries temporelles d’activités des gènes ;
– en développant des méthodes informatiques (résolution de contraintes, programmation parallèle) nous permettant de “passer à l’échelle” et d’étudier des problèmes biologiques concrets
(une vingtaine de gènes alors que nous sommes limités à une dizaine de gènes pour le moment,
en raison de la taille importante des données et modèles que nous devons traiter).
– D’un point de vue purement qualitatif, nos études en analyse multi-échelle portent sur l’intégration
de données variées (génomiques, de co-expression etc.) dans des réseaux métaboliques, afin
d’obtenir des signatures multi-échelles des unités fonctionnelles diverses (complexes protéiques,
264
Bilan 2006–2009 et projet 2012-2015 COMBI
opérons etc.). Nous comptons poursuivre nos travaux en cours visant l’obtention d’un cadre
générique (1) d’intégration de données diverses dans un réseau métabolique et (2) d’analyse de
ce réseau, en poursuivant plus particulièrement ces deux directions :
– développement de l’aspect générique de notre approche, et
– passage à une dimension supérieure, avec la prise en compte de plusieurs réseaux (au lieu d’un
seul, le réseau métabolique), probablement en créant un modèle plus complexe de type multigraphe.
9.13 Bibliographie
9.13.1 Publications de référence de l’équipe hors période
[1] A. M ANCHERON et C. M OAN. Combinatorial Characterization of the Language Recognized by
Factor and Suffix Oracles. IJFCS, 2005, 16(6) : 1179–1191
[2] A. M ANCHERON et I. RUSU. Pattern discovery allowing wild-cards, substitution matrices and
multiple score functions. In Proc. WABI, 2003. Springer-Verlag, 2003, volume LNBI 2812, pages
124–138
9.13.2 Publications de référence de l’équipe dans la période
[3] http ://hal.archives-ouvertes.fr/hal-00461973/en/
S. C ARAT, R. H OULGATTE, et J. B OURDON. A parallel scheme for comparing transcription factor
binding sites matrices. Journal of Bioinformatics and Computational Biology, 2010, 8(3) : 18
[4] http ://hal.archives-ouvertes.fr/hal-00346588/en/
J. F ROMENTIN, D. E VEILLARD, et O. R OUX. Hybrid Modeling of Gene Regulatory Networks :
Mixing Temporal and Qualitative Biological Properties. BMC Systems Biology, 2010, 4(79) : 1–12.
12 pages
[5] http ://hal.archives-ouvertes.fr/hal-00482856/en/
L. B ULTEAU, G. F ERTIN, et I. R USU. Revisiting the Minimum Breakpoint Linearization Problem.
In Proc. 7th Annual Conference on Theory and Applications of Models of Computation (TAMC
2010), 2010, Prague. Springer, 2010, volume 6108 of Lecture Notes in Computer Science, pages
163–174
[6] http ://tel.archives-ouvertes.fr/tel-00481179/en/
S. A NGIBAUD. Comparaisons de génomes avec gènes dupliqués : étude théorique et algorithmes.
Thèse de doctorat, Université de Nantes, 2009
[7] http ://hal.archives-ouvertes.fr/hal-00416466/en/
S. A NGIBAUD, D. E VEILLARD, G. F ERTIN, et I. R USU. Comparing Bacterial Genomes by Searching their Common Intervals. In Proc. 1st International Conference on Bioinformatics and Computational Biology (BICoB 2009), 2009. Springer, 2009, volume 5462 of Lecture Notes in BioInformatics, pages 102–113
COMBI
265
[8] http ://hal.archives-ouvertes.fr/hal-00416462/en/
F. C LIQUET, G. F ERTIN, I. R USU, et D. T ESSIER. Comparison of Spectra in Unsequenced Species.
In Proc. 4th Brazilian Symposium on Bioinformatics (BSB 2009), 2009. Springer, 2009, volume
5576 of Lecture Notes in BioInformatics, pages 24–35
[9] http ://hal.archives-ouvertes.fr/hal-00416394/en/
G. F ERTIN, R. R IZZI, et S. V IALETTE. Finding Occurrences of Protein Complexes in ProteinProtein Interaction Graphs. Journal of Discrete Algorithms, 2009, 7(1) : 90–101
[10] http ://hal.archives-ouvertes.fr/hal-00415905/en/
G. Del M ONDO, D. E VEILLARD, et I. R USU. Homogeneous decomposition of protein interaction
networks : refining the description of intra-modular interactions. Bioinformatics, 2009, 25(7) :
926–32
[11] http ://hal.archives-ouvertes.fr/hal-00425145/en/
L. B ULTEAU, G. F ERTIN, et I. R USU. Maximal Strip Recovery Problem with Gaps : Hardness and
Approximation Algorithms. In Proc. 20th International Symposium on Algorithms and Computation) ISAAC 2009, 2009. Springer, 2009, volume 5878 of Lecture Notes in Computer Science, pages
710–719
[12] http ://hal.archives-ouvertes.fr/hal-00416463/en/
R. D ONDI, G. F ERTIN, et S. V IALETTE. Maximum Motif Problem in Vertex-Colored Graphs. In
Proc. 20th Annual Symposium on Combinatorial Pattern Matching (CPM 2009), 2009. Springer,
2009, volume 5577 of Lecture Notes in Computer Science, pages 221–235
[13] http ://hal.archives-ouvertes.fr/hal-00416577/en/
I. FAGNOT, G. F ERTIN, et S. V IALETTE. On Finding Small 2-Generating Sets. In Springer V ER LAG , réd., Proc. 15th International Computing and Combinatorics Conference (COCOON 2009),
2009, Niagara Falls, États-Unis. Springer-Verlag, 2009, volume Lecture Notes in Computer Science (LNCS) of Lecture Notes in Computer Science (LNCS), pages 378–387
[14] http ://hal.archives-ouvertes.fr/hal-00416440/en/
S. A NGIBAUD, G. F ERTIN, I. R USU, A. T H ÉVENIN, et S. V IALETTE. On the Approximability
of Comparing Genomes with Duplicates. Journal of Graph Algorithms and Applications, 2009,
13(1) : 19–53
[15] http ://hal.archives-ouvertes.fr/hal-00416458/en/
S. A NGIBAUD, G. F ERTIN, A. T HEVENIN, et S. V IALETTE. Pseudo-Boolean Programming for
Partially Ordered Genomes. In Proc. 7th RECOMB Comparative Genomics Satellite Workshop
(RECOMB-CG 2009), 2009. Springer, 2009, volume 5817 of Lecture Notes in BioInformatics,
pages 126–137
[16] http ://hal.archives-ouvertes.fr/hal-00415952/en/
J. B OURDON et I. R USU. Statistical Properties of Factor Oracles. In Springer V ERLAG, réd.,
Proceedings of CPM 2009 COMBINATORIAL PATTERN MATCHING, 2009, Lille, France, volume
5577 of LNCS, pages 326–338
[17] http ://hal.archives-ouvertes.fr/hal-00415921/en/
J. A HMAD, J. B OURDON, D. E VEILLARD, J. F ROMENTIN, O. R OUX, et C. S INOQUET. Temporal
constraints of a gene regulatory network : Refining a qualitative simulation. Biosystems, 2009,
98(3) : 149–159
266
Bilan 2006–2009 et projet 2012-2015 COMBI
[18] http ://hal.archives-ouvertes.fr/hal-00416491/en/
G. B LIN, G. F ERTIN, F. S IKORA, et S. V IALETTE. The Exemplar Breakpoint Distance for nontrivial genomes cannot be approximated. In Proc. 3rd Workshop on Algorithms and Computation
(WALCOM 2009), 2009. Springer, 2009, volume 5431 of Lecture Notes in Computer Science, pages
357–368
[19] http ://hal.archives-ouvertes.fr/hal-00415914/en/
A. C HANGO, A. A. N OUR, S. B OUSSEROUEL, D. E VEILLARD, P. M. A NTON, et J.-L. G U ÉANT.
Time course gene expression in the one-carbon metabolism network using HepG2 cell line grown
in folate-deficient medium. J Nutr Biochem, 2009, 20(4) : 312–20
[20] http ://hal.archives-ouvertes.fr/hal-00416446/en/
S. A NGIBAUD, G. F ERTIN, I. R USU, A. T HEVENIN, et S. V IALETTE. Efficient Tools for Computing the Number of Breakpoints and the Number of Adjacencies between two Genomes with
Duplicate Genes. Journal of Computational Biology, 2008, 15(8) : 1093–1115
[21] http ://hal.archives-ouvertes.fr/hal-00416442/en/
G. B LIN, G. F ERTIN, D. H ERMELIN, et S. V IALETTE. Fixed-Parameter Algorithms For Protein
Similarity Search Under mRNA Structure Constraints. Journal of Discrete Algorithms, 2008, 6(4) :
618–626
[22] http ://hal.archives-ouvertes.fr/hal-00416492/en/
S. A NGIBAUD, G. F ERTIN, et I. R USU. On the Approximability of Comparing Genomes with Duplicates. In Proc. 2nd Workshop on Algorithms and Computation (WALCOM 2008), 2008. Springer,
2008, volume 4921 of Lecture Notes in Computer Science, pages 34–45
[23] http ://hal.archives-ouvertes.fr/hal-00417735/en/
S. A NGIBAUD, G. F ERTIN, I. R USU, et S. V IALETTE. A General Framework for Computing
Rearrangement Distances between Genomes with Duplicates. Journal of Computational Biology,
2007, 14(4) : 379–393
[24] http ://hal.archives-ouvertes.fr/hal-00417902/en/
S. A NGIBAUD, G. F ERTIN, I. R USU, A. T HEVENIN, et S. V IALETTE. A Pseudo-Boolean programming approach for computing the breakpoint distance between two genomes with duplicate
genes. In Proc. 5th RECOMB Comparative Genomics Satellite Workshop (RECOMB-CG 2007),
2007. Springer, 2007, volume 4751 of Lecture Notes in BioInformatics, pages 16–29
[25] http ://hal.archives-ouvertes.fr/hal-00346599/en/
B. B. W ARD, D. E VEILLARD, J. D. K IRSHTEIN, J. D. N ELSON, M. A. V OYTEK, et G. A. JACK SON . Ammonia-oxidizing bacterial community composition in estuarine and oceanic environments
assessed using a functional gene microarray. Environmental microbiology, 2007, 9(10) : 2522–2538
[26] http ://hal.archives-ouvertes.fr/hal-00418241/en/
G. F ERTIN, D. H ERMELIN, R. R IZZI, et S. V IALETTE. Common Structured Patterns in Linear
Graphs : Approximations and Combinatorics. In Proc. 18th Annual Symposium on Combinatorial
Pattern Matching (CPM 2007), 2007. Springer, 2007, volume 4580 of Lecture Notes in Computer
Science, pages 214–252
[27] http ://hal.archives-ouvertes.fr/hal-00417720/en/
G. B LIN, C. C HAUVE, G. F ERTIN, R. R IZZI, et S. V IALETTE. Comparing Genomes with Duplications : a Computational Complexity Point of View. ACM/IEEE Trans. Computational Biology and
Bioinformatics, 2007, 4(4) : 523–534
COMBI
267
[28] http ://hal.archives-ouvertes.fr/hal-00417728/en/
P. B ONIZZONI, G. D ELLA V EDOVA, R. D ONDI, G. F ERTIN, R. R IZZI, et S. V IALETTE. Exemplar
Longest Common Subsequence. ACM/IEEE Trans. Computational Biology and Bioinformatics,
2007, 4(4) : 535–543
[29] http ://hal.archives-ouvertes.fr/hal-00417928/en/
M. R. F ELLOWS, G. F ERTIN, D. H ERMELIN, et S. V IALETTE. Sharp Tractability Borderlines
for Finding Connected Motifs in Vertex-Colored Graphs. In Proc. 34th International Colloquium
on Automata, Languages and Programming (ICALP 2007), 2007. Springer, 2007, volume 4596 of
Lecture Notes in Computer Science, pages 340–351
[30] http ://hal.archives-ouvertes.fr/hal-00417910/en/
R. D ONDI, G. F ERTIN, et S. V IALETTE. Weak pattern matching in colored graphs : Minimizing
the number of connected components. In Proc. 10th Italian Conference on Theoretical Computer
Science (ICTCS 2007), 2007. World-Scientific, 2007, Conference Proceedings, pages 27–38
[31] http ://hal.archives-ouvertes.fr/hal-00461780/en/
P. B ONIZZONI, G. D ELLA V EDOVA, R. D ONDI, G. F ERTIN, et S. V IALETTE. Exemplar Longest
Common Subsequence (extended abstract). In Proc. International Workshop on Bioinformatics
Research and Applications (IWBRA 2006), 2006. Springer, 2006, volume 3992 of Lecture Notes in
Computer Science, pages 622–629
[32] http ://tel.archives-ouvertes.fr/tel-00257587/en/
A. M ANCHERON. Extraction de Motifs Communs dans un Ensemble de Séquences.Application à
l’identification de sites de liaison aux protéines dans les séquences primaires d’ADN. PhD thesis,
Université de Nantes, 2006
[33] http ://hal.archives-ouvertes.fr/hal-00418260/en/
C. C HAUVE, G. F ERTIN, R. R IZZI, et S. V IALETTE. Genomes containing Duplicates are Hard to
compare. In Proc. International Workshop on Bioinformatics Research and Applications (IWBRA
2006), 2006. Springer, 2006, volume 3992 of Lecture Notes in Computer Science, pages 783–790
[34] http ://hal.archives-ouvertes.fr/hal-00418258/en/
S. A NGIBAUD, G. F ERTIN, I. R USU, et S. V IALETTE. How Pseudo-Boolean Programming can help
Genome Rearrangement Distance Computation. In Proc. 4th RECOMB Comparative Genomics
Satellite Workshop (RECOMB-CG 2006), 2006. Springer, 2006, volume 4205 of Lecture Notes in
BioInformatics, pages 75–86
[35] http ://hal.archives-ouvertes.fr/hal-00416453/en/
G. F ERTIN, A. L ABARRE, I. R USU, E. T ANNIER, et S. V IALETTE. Combinatorics of Genome
Rearrangements. Computational Molecular Biology. MIT Press, 2009
9.13.3 Bibliographie externe
[36] E. F. D E L ONG. The microbial ocean from genomes to biomes. Nature, 2009, 459(7244) : 200–6
[37] Y.-P. D ENI ÉLOU, F. B OYER, A. V IARI, et M.-F. S AGOT. Multiple alignment of biological networks : A flexible approach. In Annual Computational Pattern Matching (CPM) Symposium, pages
263–273. The Association for Computing Machinery, Inc., 2009
268
Bilan 2006–2009 et projet 2012-2015 COMBI
[38] G. K ARLEBACH et R. S HAMIR. Modelling and analysis of gene regulatory networks. Nat Rev Mol
Cell Biol, 2008, 9(10) : 770–80
[39] B. C HOR et T. T ULLER. Biological networks : Comparison, conservation, and evolution via relative
description length. Journal of Computational Biology, 2007, 14(6) : 817–838
[40] A. R. J OYCE et B. Ø. PALSSON. The model organism as a system : integrating ’omics’ data sets.
Nature Reviews Molecular Cell Biology, 2006, 7(3) : 198–210
[41] R. S HARAN et T. I DEKER. Modeling cellular machinery through biological network comparison.
Nature Biotechnology, 2006, 4(4) : 427–433
[42] R. S HARAN et al. COMPLETER. Conserved patterns of protein interaction in multiple species.
Proc. Natl. Acad. Sci. USA (PNAS), 2005, 102 : 1974–1979
[43] C. Z HENG, A. L ENERT, et D. S ANKOFF. Reversal distance for partially ordered genomes. Bioinformatics, 2005, 21(Suppl 1) : i502–i508
[44] F. B OYER, A. M ORGAT, L. L ABARRE, J. P OTHIER, et A. V IARI. Syntons, metabolons and interactons : an exact graph-theoretical approach for exploring neighbourhood between genomic and
functional data. Bioinformatics, 2005, 21(23) : 4209–4215
[45] H. K ITANO. Biological robustness. Nat Rev Genet, 2004, 5(11) : 826–37
[46] H. V. W ESTERHOFF et B. O. PALSSON. The evolution of molecular biology into systems biology.
Nat Biotechnol, 2004, 22(10) : 1249–52
[47] L. H OOD, J. R. H EATH, M. E. P HELPS, et B. L IN. Systems biology and new technologies enable
predictive and preventative medicine. Science, 2004, 306(5696) : 640–643
[48] S. S CHWARTZ, W. K ENT, A. S MIT, Z. Z HANG, R. BAERTSCH, R. H ARDISON, D. H AUSSLER, et
W. M ILLER. Human-mouse alignments with blastz. Genome Research, 2003, 13(1) : 103–107
[49] V. S PIRIN et L. A. M IRNY. Protein complexes and functional modules in molecular networks. Proc
Natl Acad Sci USA, 2003, 100(21) : 12123–12128
[50] J. A. B RUENN. A structural and primary sequence comparison of the viral rna-dependent rna
polymerases. Nucleic Acids Research, 2003, 31(7) : 1821–1829
[51] A. T OYODA, H. N OGUCHI, T. D. TAYLOR, T. I TO, M. T. P LETCHER, Y. S AKAKI, R. H. R EEVES,
et M. H ATTORI. Comparative genomic sequence analysis of the human chromosome 21 down
syndrome critical region. Genome Research, 2002, 12 : 1323–1332
[52] H. de de J ONG. Modeling and simulation of genetic regulatory systems : a literature review. J
Comput Biol, 2002, 9(1) : 67–103
[53] G. RUBIN, M. YANDELL, J. W ORTMAN, G. M IKLOS, C. N ELSON, I. H ARIHARAN, M. F ORTINI,
P. L I, R. A PWEILER, et W. F LEISCHMANN. Comparative genomics of the eukaryotes. Science,
2000, 287 : 2204–2215
[54] M. F ORTINI, M. S KUPSKI, M. B OGUSKI, et I. H ARIHARAND. A survey of human disease gene
counterparts in the drosophila genome. Journal of Cellular Biology, 2000, 150(2) : 23–30
[55] P. E VANS. Algorithms and Complexity for Annotated Sequences Analysis. Thèse de doctorat,
University of Victoria, 1999
[56] L. H. H ARTWELL, J. J. H OPFIELD, S. L EIBLER, et A. W. M URRAY. From molecular to modular
cell biology. Nature, 1999, 402(6761 Suppl) : C47–52
[57] D. S ANKOFF. Genome rearrangements with gene families. Bioinformatics, 1999, 15(11) : 909–917
COMBI
269
[58] H. O GATA, S. G OTO, K. S ATO, W. F UJIBUCHI, H. B ONO, et M. K ANEHISA. Kegg : Kyoto encyclopedia of genes and genomes. Nucleic Acids Res, 1999, 27 : 29–34
[59] S. H ANNENHALI et P. P EVZNER. Transforming cabbage into turnip (polynomial algorithm for
sorting signed permutations by reversals). Journal of ACM, 1999, 46 : 1–27
[60] V. BAFNA et P. P EVZNER. Genome rearrangements and sorting by reversals. SIAM Journal on
Computing, 1996, 25(2) : 272–289
[61] V. F ERRETTI, J. H. NADEAU, et D. S ANKOFF. Original synteny. In Procs. of the 7th Annual
Symposium on Combinatorial Pattern Matching, pages 159–167, 1996
[62] J. K ECECIOGLU et D. S ANKOFF. Exact and approximation algorithms for sorting by reversals,
with application to genome rearrangement. Algorithmica, 1995, 13 : 180–210
[63] G. WATTERSON, W. E VENS, T. H ALL, et A. M ORGAN. The chromosome inversion problem.
Journal of Theoretical Biology, 1982, 99 : 1–7
Équipe
CONTRAINTES
Chapeau-résumé
L’objectif de l’équipe est de produire des avancées significatives dans le domaine de la programmation par contraintes afin de :
1. synthéthiser des composants pour la résolution de problèmes d’aide à la décision pouvant être
déployés et maintenus aisement au sein de plateformes de programmation par contraintes.
2. combiner, et à plus long terme faire converger, les techniques de résolution sur les domaines continus et discrets.
3. considérer des problèmes de grande taille dans lesquels interviennent des aspects dynamiques.
Finalement, l’équipe est investie aussi bien :
1. dans la mise en oeuvre de ces avancées dans le contexte de problèmes industriels complexes
dans lesquels on retrouve simultanément des aspects optimisation et relaxation, des contraintes
dynamiques, et des règles métiers,
2. que dans la vulgarisation et la diffusion de la programmation par contraintes au niveau académique
et industriel.
271
272
Bilan 2006–2009 et projet 2012-2015 CONTRAINTES
10.1 Composition de l’équipe au 30/06/2010
Nom
Beldiceanu
Benhamou
Chabert
Christie
David
Debruyne
Demassey
Jussien
Lorca
Rampon
Thierry
Truchet
Prénom
Nicolas
Fréderic
Gilles
Marc
Philippe
Romuald
Sophie
Narendra
Xavier
Jean-Xavier
Petit
Charlotte
Permanents au 30/06/10
Position
PR
PR
MC
MC-DET
MC
MC
MC
PR
MC
PR
MC
MC
Institution
EMN
UN
EMN
UN
EMN
EMN
EMN
EMN
EMN
UN
EMN
UN
Arrivée
01/01/2006
01/01/2006
01/09/2009
01/01/2006
01/09/2006
01/09/2006
01/01/2006
01/01/2006
01/09/2008
01/01/2006
01/01/2006
01/01/2006
Nom
De Clercq
Malapert
Menana
Merel
Pelleau
Prénom
Alexis
Arnaud
Julien
Aurélien
Marie
Doctorants au 30/06/10
Position
EMN
EMN
A
A
CNRS/Région
Institution
EMN
EMN
UN
UN
CNRS
Arrivée
01/11/2009
01/10/2006
01/10/2007
01/10/2008
01/10/2009
Nom
Chabert
Fortin
Hladik
Poder
Prud’Homme
Sbihi
Vion
Zampelli
Personnels temporaires sur la période 2006-2010
Prénom
Position
Institution
Arrivée
Gilles
Associé
EMN
01/09/2008
Jérome
Associé
EMN
01/09/2007
PierreAssocié
EMN
01/09/2006
Emmanuel
Emmanuel
PostDoc
EMN
01/09/2006
Charles
IR
EMN
01/01/2007
Mohammed
PostDoc
EMN
01/09/2007
Julien
PostDoc
EMN
01/09/2008
Stéphane
PostDoc
EMN
01/09/2008
Départ
31/08/2009
31/08/2009
31/08/2007
31/08/2007
31/12/2013
31/08/2008
31/09/2009
31/08/2009
Évolution de l’équipe sur la période 01/01/2006-30/06/2010
Marc Christie a été détaché à l’INRIA entre Septembre 2007 et Aôut 2009, et en délégation à l’INRIA entre Septembre 2009 et Aôut 2010. Apportant leur compétences respectives dans les domaines de
la recherche opérationnelle (i.e., programmation mathématique, hybridation) et dans le domaine des contraintes numériques sur le continu, Sophie Demassey et Gilles Chabert ont intégré l’équipe Contraintes
en 2006 et 2010.
CONTRAINTES
273
10.2 Faits marquants 2006-2010
Structuration et thèmes de recherche
suivant :
L’équipe est structurée autour des quatre thèmes de recherche
1. Classification de contraintes, reformulation et filtrage.
2. Contraintes dynamiques, explications et problèmes surcontraints.
3. Solveurs.
4. Convergence entre continu et discret.
Publications majeures de l’équipe sur la période
1. Annals of Operations Research.2010 [2].
2. Artificial Intelligence. 2010 [5].
3. Constraints. 2008 [14].
4. Artificial Intelligence. 2008 [17].
5. Constraints. 2007 [20].
6. Constraints. 2006 [21].
7. Constraints. 2006 [23].
8. IJCAI. 2009 [7].
9. CP. 2008 [12].
10. CP. 2007 [18].
Prix et récompenses, organisation de conférences majeures, conférences invitées
– J.-M. Normand : prix du meilleur article jeune chercheur à CP 2008 (Sidney, Australie).
– G. Chabert :. 1er prix dans la catégorie logiciel scientifique et éducatif aux étoiles du libre en 2009.
Tableau récapitulatif
ACL
17
ACLN
3
Récapitulatif des publications par catégorie
ASCL BRE INV ACTI ACTN COM AFF
0
0
1
22
27
3
0
OS
13
OV
0
DO
0
AP
6
10.3 Fondements scientifiques
10.3.1 Classification de contraintes et filtrage
Nous nous concentrons sur l’identification de structures combinatoires récurrentes apparaissant dans
un grand nombre de problèmes d’aide à la décision ainsi que sur l’exploitation de ces structures pour
obtenir des algorithmes efficaces dans différents contextes. La classification systématique des contraintes
globales et de leur relaxation apporte une vue synthétique du domaine. Elle permet d’établir des liens entre d’une part la description explicite de la sémantique des contraintes en terme de graphes, d’automates
et de formules logiques, et d’autre part les propriétés de ces contraintes.
274
Bilan 2006–2009 et projet 2012-2015 CONTRAINTES
Nous étudions des algorithmes de filtrage maintenant différentes formes de consistances pour certains
types de contraintes. Un effort particulier est mis sur l’obtention d’algorithmes efficaces garantissant un
degré de consistance donné. Des contraintes génériques dans le domaine de partionnement de graphes et
dans le domaine de problèmes de placement ont été considérés.
Nous considérons aussi des méthodes hybrides (i.e., des méthodes faisant intervenir plusieurs techniques telles que la programmation par contraintes, la programmation mathématique, la recherche locale) tirant partie des avantages respectifs de ces techniques (i.e., recherche d’une solution réalisable,
évaluation d’un cout, diversification).
10.3.2 Contraintes dynamiques et problèmes surcontraints
Un certain nombre d’applications industrielles font intervenir des contraintes variant au cours du
temps. Dans le cadre de problèmes réels, il est également courant d’avoir un ensemble de contraintes
ne pouvant pas être toutes simultanément satisfaites. Motivés par cela, nous dévelopons des techniques
génériques (i.e., pouvant s’appliquer à des familles de contraintes) prenant en compte ces aspects.
10.3.3 Solveurs
La majorité de nos travaux théoriques est mise en oeuvre à travers des solveurs de contraintes concrets. Dans le domaine discret l’équipe développe et maintiens la plate-forme CHOCO depuis 1999 en
collaboration avec Bouyges et Amadeus (industriels) et 4C (centre de recherche). Plus récemment, dans
le continu avec l’arrivée de G. Chabert, l’équipe développe et maintiens IBEX.
Le domaine de recherche concerne l’aspect portabilité des contraintes et leur indépendance avec
les solveurs, l’intégration des explications (dans CHOCO), et les aspects incrémentalité. Ce dernier
point est traité en collaboration avec l’équipe Ascola. Les aspects portabilités des contraintes sont
également expérimentés au niveau international sur des plates-formes développées en dehors de l’équipe
(i.e., Gecode).
10.3.4 Continu et discret
Motivé par le fait qu’un certain nombre de problémes industriels relèvent à la fois du discret et du
continu l’équipe a commencé à s’investir dans cette thématique depuis la fin 2009. Les aspects continus relèvent souvent de la physique (e.g., position, vitesse d’un objet) tandis que les aspects discret
relèvent de la logique (e.g., choix parmi un ensemble fini d’alternatives). Dans le cadre de problèmes de
localisation dans le domaine de la robotique mobile, les travaux se sont initialement concentrés sur des
contraintes globales opérant sur des variables continues.
10.4 Applications et enjeux
10.4.1 Problèmes de placement en liaison avec la logistique
Pour des raisons d’exportation que nous verrons plus loin, un certain nombre d’industriels européens
sont amenés à séparer leur processus de production en deux phases :
– Dans une première phase les composants et/ou pièces détachées du produit final sont produites en
Europe.
– Dans une deuxième phase toutes les pièces d’un produit final sont exportées et assemblées dans
une usine en dehors de l’Europe.
CONTRAINTES
275
Les motivations derrière cette approche ont plusieurs raisons telles que :
– Les taxes douanières sont souvent moindre pour des piéces détachées que pour des produit finaux.
– Les pays acheteurs veulent souvent créer une activité industrielle dans leur propre pays.
Dans ce contexte, le projet européen NetWMS traite essentiellement de problèmes de placement de
pièces de voitures destinées à être finalement assemblées à l’étranger. L’une des difficultés principales du
problème posé est qu’il s’agit non seulement d’optimiser le placement (par exemple minimiser le nombre
de containers prévus pour le transport des pièces), mais également de considérer des règles métiers de
placement prenant en compte des aspects tels le poids des pièces, fragilité des pièces et l’équilibrage
global sur chaque container. Afin d’éviter de devoir reprogrammer chaque nouvelle règle que l’on désire
introduire dans le système, un noyau géométrique et un langage basé sur la logique du premier ordre,
dans lequel les prédicats sont remplacés par des contraintes arithmétiques, ont été développés de manière
intégrée (i.e., toutes les contraintes et les règles sont traduites de manière à ce qu’au final, le noyau
géométrique traite l’ensemble avec un algorithme de balayage multi-dimensionel). L’aspect passage à
l’échelle a été pris en compte dès le début afin de traiter des problèmes impliquant jusqu’à 200000
objets.
10.4.2 Emplois du temps avec contraintes réglementaires
Si beaucoup de problèmes d’ordonnancement à contraintes de ressources sont bien traités par la
programmation par contraintes, ce n’est guère le cas des problèmes d’emplois du temps où l’on peut
observer une grande instabilité des solveurs disponibles. L’une des grosses difficultés provient du fait
que les personnes sont généralement soumises à des règles diverses et variées pouvant même être plus
ou moins violées dans certains cas. Les différents travaux de l’équipe sur les automates (i.e., différents
modéles d’automates, et en particulier certains prenant directement en compte les aspects coût et relaxation, et la génération de conditions nécessaires à partir d’un ensemble d’automates) ont des applications
directes dans ce domaine. Les résultats théoriques ont été systématiquement mis à l’épreuve, aussi bien
sur les jeux d’essais reconnus du domaine, que sur la compétition internationale dans le domaine des
emplois du temps.
10.4.3 Énergie et centre de calcul
En collaboration avec l’équipe ASCOLA, nous avons traité un problème générique d’affectation
de tâches sur des serveurs de manière à minimiser le nombre de machines effectivement utilisées afin de
réduire la consommation globale électrique d’un centre de calcul. Notre contribution dans ce domaine fut
la réalisation d’un solveur (écrit en CHOCO) traitant ce problème en prenant en compte les contraintes
de ressources attachées aux serveurs (i.e., ressource mémoire restreinte et temps du processeur limité).
Dans ce cadre nous avons été amenés à introduire dans CHOCO de nouvelles contraintes de sac à dos
offrant un filtrage efficace.
10.5 Nouveaux résultats pour la période 2006-2010
10.5.1 Premier résultat : problèmes de placement multidimensionnels
Participants : Nicolas Beldiceanu, Gilles Chabert, Sophie Demassey, Thierry Petit, Emmanuel
Poder, Rida Sadek, Mohammed Sbihi, Charlotte Truchet, Stéphane Zampelli
276
Bilan 2006–2009 et projet 2012-2015 CONTRAINTES
Dans le cadre de problèmes de placement multi-dimensionel (impliquant des rectangles, des
boı̂tes, . . .) nous avons obtenu un algorithme générique basé sur un balayage systématique de l’espace de placement et sur le calcul de régions interdites pour l’origine d’un objet soumis à des contraintes géométriques variées. Une partie de ces contraintes sont exprimées par un langage de règles
basé sur des contraintes arithmétiques et sur la logique du premier ordre à partir desquelles les régions
interdites sont calculées automatiquement. Ce résultat a donné lieu à différentes publications internationales [10, 13, 18]. Les aspects cumulatifs des problèmes de placement ont donné lieu aux publications
suivante [2, 1]. Ce résultat a été implémenté dans quatre systèms différents, à savoir CHOCO, JaCoP,
SICStus et Ibex. En ce qui concerne CHOCO et Ibex, l’implémentation a été faite par nos soins. Une
suite logicielle de produits pour le colisage basée sur la version CHOCO a été réalisée par la société KLS
et mise en production journalière chez certain de ses clients.
10.5.2 Deuxième résultat : nouveaux modèles d’automates
Participants : Nicolas Beldiceanu, Sophie Demassey, Julien Menana
Si depuis 2004 les automates ont été rapidement adoptés par la communauté programmation par contraintes pour leur facilité de mise en oeuvre qui ne requiert pas la conception d’algorithmes de filtrages
dédiés, un certain nombre de limitations ont été constatées. On a d’une part des limites au niveau de
l’expressivité liées à l’utilisation de modèles purs d’automates et d’autre part des limites au niveau de la
propagation liées au manque de globalité dans certaines situations-types.
Dans ce cadre, nous avons proposé de nouveau modèles d’automates, avec leur algorithme de filtrage,
prenant directement en compte les notions de coût et de comtpeurs.
Dans le cadre de probèmes s’exprimant naturellement comme une matrice de variables dans laquelle
chaque ligne doit respecter une contrainte décrite par un automate et chaque colonne une contrainte
de cardinalités nous avons introduit la notion d’automate de cardinalité qui simule l’exécution d’un
ensemble d’automates et donne des conditions nécessaires de faisabilité.
Ces travaux ont conduits à des publications dans des revues et des conférences internationales [21,
3, 9].
10.5.3 Troisième résultat : algorithmes de filtrages sur des graphes
Participants : Nicolas Beldiceanu, Romuald Debruyne, Sophie Demassey, Narendra Jussien, Xavier
Lorca, Thierry Petit
Un grand nombre de contraintes s’expriment naturellement avec des graphes, cela aussi bien dans
le cadre des contraintes globales que des contraintes décrites en terme de réseaux de contraintes
élémentaires. Dans ce cadre une question clef consiste d’abord à déterminer la complexité pour décider
si une contrainte partiellement instanciée admet au moins une solution. Cette question élucidée (dans un
sens ou dans l’autre), il faut ensuite trouver des algorithmes de filtrage efficaces pour enlever les valeurs
n’apparaissant dans aucune solution.
Nous avons apporté des résultats concernant (1) le filtrage de contraintes de partionnement de
graphes [11, 14, 25], (2) des méthodes génériques de propagation pour les contraintes de graphes [20, 22],
(3) des méthodes génériques de propagation sur les réseaux de contraintes [4, 6, 17, 7].
CONTRAINTES
277
10.6 Logiciels
CHOCO
URL
Participants : N. Jussien (resp), N. Beldiceanu, H. Cambazard, S. Demassey, X. Lorca, A. Malapert, J.
Menana, T. Petit, T. Poder, C. Prud’Homme, G. Richaud, R. Sadek, M. Sbihi, J. Vion, S. Zampelli
Type de licence : BSD
Mots clés: Contraintes discrètes, Java
CHOCO est une bibliothèque de programmation par contraintes dans le domaine discret intégrant des
aspects explications, relaxation de contraintes et contraintes globales (90000 lignes de code source en
Mai 2010). CHOCO est téléchargée en moyenne 450 fois par mois depuis 2006, et totalise un nombre
de 9200 téléchargement depuis ces douze derniers mois. Elle est développée et maintenue par l’équipe
Contraintes avec l’assistance du e-lab de Bouygues (G. Rochart), d’Amadeus (F. Laburthe), et d’autres
chercheurs extérieurs tels que H. Cambazard (4C). Sur la période 2006-2009 les contributions suivantes
ont été réalisées :
– Refonte du noyau (N. Jussien, X. Lorca, C. Prud’Homme).
– Documentation de 200 pages (S. Demassey, C. Prud’Homme).
– Contraintes géométriques (N. Beldiceanu, R. Sadek, M. Sbihi, S. Zampelli).
– Contraintes de partionnement de graphes (N. Beldiceanu, X. Lorca, G. Richaud).
– Automates et contraintes (S. Demassey, J. Menana, G. Richaud).
– Contraintes pour l’ordonnancement et l’ordonnancement surcontraint (H. Cambazard, A. Malapert,
T. Petit, E. Poder).
– Consistances fortes (J. Vion).
– Apprentissage de contraintes (T. Petit).
Notons que CHOCO est également utilisé par des industiels tels que Thinksmart en Irlande, la NASA
aux États-Unis, Valéo, KLS, Bouygues, Amadeus, et Cap Gemini en France. CHOCO est utilisé dans le
projet de gestion d’energie dans les centres de données Entropy (http ://entropy.gforge.inria.fr) mené par
J.-M. Menaud de l’équipe Ascola. Dans ce cadre, H. Cambazard et X. Lorca ont été fortement impliqués
dans le développement du solveur de placement (contrainte de sac à dos et modélisation).
IBEX
Participants : G. Chabert (resp), N. Beldiceanu
Type de licence : GPL
Mots clés: Contraintes continues, intervalles, C++
URL
278
Bilan 2006–2009 et projet 2012-2015 CONTRAINTES
IBEX est une bibliothèque C++ de programmation par contraintes sur les intervalles offrant un langage
de modélisation de problèmes (25000 lignes de code source en Mai 2010). Elle est développée depuis
2004 par G. Chabert en collaboration avec l’INRIA (Sophia Antipolis). Il y a en moyenne 200 accés par
mois au site concernant IBEX. IBEX est utilisée en externe (contacts direct avec G. Chabert) par :
– l’UTC de Compiègne,
– le GESMA et l’ENSIETA à Brest,
– le LIRMM à Montpellier,
– le FEMTO à Besançon,
– le FPMS à Mons.
IBEX est utilisée en interne par G. Chabert dans le cadre d’un problème d’électro localisation d’un
robot anguille en collaboration avec F. Boyer (projet FET-STREP ANGELS). Elle est également étendue
pour prendre en compte des problèmes de placement avec des objets de forme courbe. IBEX a obtenu le
premier prix dans la catégorie logiciel scientifique/éducatif à la première édition des étoiles du libre en
Décembre 2009.
Catalogue de Contraintes Globales
URL
Participants : N. Beldiceanu (resp), S. Demassey, J.-X. Rampon
Type de licence : Mozilla
Mots clés: Contraintes globales, graphe, automate, logique
Le catalogue de contraintes globales répertorie et classifie les contraintes globales. Il décrit la
sémantique des contraintes en terme de propriétés de graphes, d’automates et de formules logiques
du premier ordre et présente les utilisations typiques de chaque contrainte ainsi que les algorithmes
de filtrages associés. Enfin, il fait le lien avec des systèmes de contraintes concrets tels CHOCO
(http ://choco.emn.fr/), Gecode (http ://www.gecode.org/), JaCoP (http ://www.jacop.eu/) et SICStus
(http ://www.sics.se/sicstus/). Le catalogue comporte :
– Une version pdf téléchargeable à partir de l’adresse http//www.emn.fr/x-info/sdemasse/gccat/ (2580
pages, 350 contraintes, 700 figures).
– Une version en ligne à l’adresse indiquée mise à jour chaque année.
– Un fichier de méta données associées pour chaque contrainte accessible en ligne à l’adresse indiquée.
Le catalogue est développé et maintenu par N. Beldiceanu depuis l’an 2000 en collaboration avec
M. Carlsson du Swedish Institute of Computer Science, ce dernier travaillant principalement sur la partie méta données et génération automatique du catalogue à partir des méta données. La partie preuve
des invariants de graphe est faite avec J.-X. Rampon. Finalement la version en ligne du catalogue est
réalisée et maintenue par S. Demassey. En mai 2010 y avait 1320 références au catalogue sur google.
Sur la période d’un an située entre avril 2009 et avril 2010, 20500 pages ont été consultées par 5600
visiteurs (dont 2400 visiteurs distincts).
10.7 Contrats et subventions
Les contrats concernent aussi bien des parties recherches appliquée en partenariat avec des petites et
moyennes entreprises (KLS, FCI-System) ou des grands groupes (Amadeus, Bouygues, Total, Sagem),
que des recherches amont. Concernant la partie appliquée, notons que certains sujets constituent de
véritables défis nécessitant un certains nombre de développements théoriques. Notons également que
certains contrats appliqués (KLS) on menés à des solutions tournant quotidienement chez des utilisateurs finaux (VALEO). Finalement soulignons que, concernant les contrats avec des entreprises, nous
CONTRAINTES
279
favorisons ceux qui nous permettent d’enrichir nos plates-formes logicielles de briques génériques pouvant être réutilisées dans plusieurs contextes (sans pour autant rendre public les aspects métiers concernant le coeur d’activité de l’entreprise). Dans le même ordre d’idée nous sollicitons le soutien actif
de développement de logiciel libre (Amadeus, Bouygues, CPER). Enfin, nombre de contrats constituent
un terrain d’observation privilégié concernant la facilité de prise en main de la programmation par contraintes par des utilisateurs non avertis, orientant certaines de nos recherches.
Type
direct
direct
ANR-RIAM
STREP
ANR
Atlanstic
Atlanstic
GDR
direct
direct
direct
direct
Région
GDR
ANR-ARPEGE
Région
ANR
STREP
Région
Atlanstic
Atlanstic
direct
Tableau des contrats et subventions
Institution
Nom
Début/Durée
gestionnaire
TOTAL
ARMINES
09.2006/2 jours
BOUYGUES
ARMINES
09.2006/10 jours
SEISM
ARMINES
09.2006/24 mois
NetWMS
ARMINES
09.2006/40 mois
CANAR
ARMINES
11.2006/40 mois
Multimedia
Atlanstic
01.2007/12 mois
Tournées
Atlanstic
01.2007/12 mois
ROC TV
GDR RO
01.2007/12 mois
SAGEM
ARMINES
05.2007/1 mois
ADEME
EMN
11.2007/12 mois
BOUYGUES
EMN
09.2007/6 mois
AMADEUS
EMN
09.2007/6 mois
MILES
Université
09.2007/36 mois
CONS PACK 2
GDR RO
01.2008/12 mois
SELFXL
ARMINES
12.2008/36 mois
LIGERO
Université
09.2009/36 mois
BOOLE
Université
09.2009/36 mois
ANGELS
ARMINES
09.2009/36 mois
CPER
EMN
01.2010/60 mois
ISGOOD
Atlanstic
01.2010/12 mois
RUBIS
Atlanstic
01.2010/12 mois
FCI-System
ARMINES
05.2010/3 jours
Montant des contrats
3 Ke
10 Ke
140 Ke
250 Ke
131 Ke
5 Ke
5 Ke
1.5 Ke
10 Ke
51 Ke
25 Ke
25 Ke
2 Ke
1.5 Ke
40 Ke
0 Ke
0 Ke
0 Ke
250 Ke
3 Ke
5 Ke
5 Ke
Noter que :
– Pour ANGELS les travaux de G. Chabert concernant l’électro localisation ont débutés en Janvier
2010 (les frais de missions lui sont réglés).
– Pour BOOLE, C. Truchet y est associée et a des missions réglées par ce projet.
– Noter que pour LIGERO une enveloppe globale de 500 Keest distribuée au fur et à mesure des
besoins aux partenaires (financement de théses, matériels et missions).
10.7.1 Contrats directs avec des entreprises
TOTAL
Début : 01/09/2006, durée : 2 jours
Partenaires : Contraintes
URL
Coordinateur : Contraintes
280
Bilan 2006–2009 et projet 2012-2015 CONTRAINTES
Participants : N. Beldiceanu (resp), S. Demassey
Montant équipe : 3 Ke
Montant total : 3 Ke
Mots clés : hybridation, programmation par contraintes, programmation linéaire
Conseil état de l’art sur l’hybridation programmation par contraintes programmation linéaire.
BOUYGUES
Début : 01/09/2006, durée : 2 jours
Partenaires : Contraintes
Participants : N. Jussien (resp), H. Camabazard
Montant équipe : 10 Ke
Mots clés : heuristiques
URL
Coordinateur : Contraintes
Montant total : 10 Ke
Dévelopement d’heuristiques génériques basées sur les impacts.
SAGEM
Début : 21/05/2007, durée : 1 mois
Partenaires : Contraintes
Participants : N. Beldiceanu (resp), X. Lorca
Montant équipe : 10 Ke
Mots clés : planification de missions
URL
Coordinateur : Contraintes
Montant total : 10 Ke
Développement de contrainte de partitionnement de graphe dans le cadre de la planification de missions.
BOUYGUES
Début : 15/09/2007, durée : 6 mois
Partenaires : Contraintes
Participants : N. Jussien (resp), C. Prud’homme
Montant équipe : 25 Ke
Mots clés : CHOCO
Maintenance de la plate forme CHOCO.
AMADEUS
Début : 01/09/2007, durée : 6 mois
Partenaires : Contraintes
Participants : N. Jussien (resp), C. Prud’homme
Montant équipe : 25 Ke
Mots clés : CHOCO
Maintenance de la plate forme CHOCO.
URL
Coordinateur : Contraintes
Montant total : 25 Ke
URL
Coordinateur : Contraintes
Montant total : 25 Ke
FCI-System
URL
Début : 01/05/2010, durée : 2 jours
Partenaires : Contraintes
Coordinateur : Contraintes
Participants : N. Beldiceanu (resp), C. Prud’homme,X. Lorca
Montant équipe : 5 Ke
Montant total : 5 Ke
Mots clés : CHOCO
Formation à CHOCO dans le but de traiter des problèmes de planification de techniciens EDF GDF.
CONTRAINTES
281
10.7.2 Projets collaboratifs
Actions règionnales
Atlanstic/Multimedia
Début : 01/01/2007, durée : 12 mois
Partenaires : IRCCyN
Participants : M. Christie (resp), J.-M. Normand
Montant équipe : 5 Ke
Mots clés : contrainte continu, caméra
Contrôle de caméra : Approches hybrides et Applications.
Atlanstic/Tournées
Début : 01/01/2007, durée : 12 mois
Partenaires : IRCCyN, CRT Montréal
Participants : N. Jussien (resp), H. Cambazard, X. Lorca
Montant équipe : 5 Ke
Mots clés : tournés de véhicules
Méthodes hybrides pour les tournées de véhicules.
URL
Coordinateur : Contraintes
Montant total : 10 Ke
URL
Coordinateur : Contraintes
Montant total : 10 Ke
MILES
URL
Début : 01/09/2007, durée : 36 mois
Partenaires : IRCCyN/SLP, ROOM, LISA, LERIA
Coordinateur : IRCCyN
Participants : N. Jussien (resp), A. Malapert
Montant équipe : 2 Ke
Montant total : 300 Ke
Mots clés : tournés de véhicules
Développement de méthodes de recherche opérationnelle et de programmation par contraintes pour la
résolution de problèmes de tournées de véhicules avec contraintes de chargement.
LIGERO
Début : 01/09/2009, durée : 36 mois
Partenaires : LISA/MSD, IRCCyN/SLP, LERIA/MOA, LINA/ROOM
Participants : S. Demassey (resp), X. Lorca, C. Prud’homme
Montant équipe : 0 Ke
Mots clés : recherche opérationnelle
URL
Coordinateur : IRCCyN
Montant total : 500 Ke
L’objectif du projet LigéRO est la création d’un groupe de recherche régional fédérant les différents
acteurs de la Recherche Opérationnelle permettant de positionner les Pays de la Loire comme un des
pôles incontournables dans la discipline.
CPER
URL
Début : 01/01/2010, durée : 60 mois
Partenaires : pas de partenaires
Coordinateur : EMN
Participants : N. Jussien (resp), C. Prud’homme
Montant équipe : 250 Ke
Montant total : 2000 Ke
Mots clés : CHOCO
Maintenance et développement de la plate forme de programmation par contraintes CHOCO.
282
Bilan 2006–2009 et projet 2012-2015 CONTRAINTES
Atlanstic/ISGOOD
Début : 01/01/2010, durée : 12 mois
Partenaires : U. d’Angers
Participants : G. Chabert (resp),
Montant équipe : 3 Ke
Mots clés : contraintes continues
Contraintes continues appliquées au domaine de la thermique.
Atlanstic/RUBIS
Début : 01/01/2010, durée : 12 mois
Partenaires : U. d’Angers
Participants : C. Truchet (resp), M. Pelleau
Montant équipe : 5 Ke
Mots clés : contraintes continues, recherche locale
URL
Coordinateur : U. d’Angers
Montant total : 10 Ke
URL
Coordinateur : U. de Nantes
Montant total : 10 Ke
Contraintes continues et recherche locale.
Projets nationaux
GDR RO ROC TV
URL
Début : 01/01/2007, durée : 12 mois
Partenaires : IRCCyN/SLP, CREAM/OSPL
Coordinateur : SLP
Participants : N. Jussien (resp), S. Demassey
Montant équipe : 1.5 Ke
Montant total : 3 Ke
Mots clés : tournées de véhicules
Initie des travaux dans le domaine du développement de méthodes hybrides issues de la recheche
opérationnelle et de la programmation par contraintes pour la résolution de problèmes de tournées de
véhicules.
GDR RO CONS PACK 2
Début : 01/01/2008, durée : 12 mois
Partenaires : LIFL, Heudiasyc, LAMIH, IRCCyN/SLP
Participants : N. Beldiceanu (resp), N. Beldiceanu
Montant équipe : 1.5 Ke
Mots clés : bin packing, placement
URL
Coordinateur : LIFL
Montant total : 3 Ke
Étude de problèmes de découpe et de conditionnement, notamment de placement de rectangles.
ANR-RIAM SEISM
Début : 01/09/2006, durée : 24 mois
Partenaires : Succubus Interactive, École du Design de Nantes
Participants : A. Beldiceanu (resp), E. Poder
Montant équipe : 140 Ke
Mots clés : visualisation, graphe, contraintes
URL
Coordinateur : Succubus Interactive
Montant total : 300 Ke
Logiciel d’édition et de visualisation de scénarios complexes pour la conception et production de jeux
vidéos utilisant la programmation par contraintes pour une visualisation 3D de graphes.
CONTRAINTES
283
ANR blanc CANAR
Début : 01/11/2006, durée : 40 mois
Partenaires : LIFO Orléans, LIRMM Montpellier, GREYC Caen
Participants : T. Petit (resp), N. Beldiceanu, E. Dutang, P. David, J. Vion
Montant équipe : 131 Ke
Mots clés : acquisition, reformulation
URL
Coordinateur : LIFO
Montant total : 400 Ke
Apprentissage et reformulation automatique de contraintes.
ADEME, LMD
Début : 15/11/2007, durée : 12 mois
Partenaires : Euromed Textile, Bénédicta, UTT, LIP6, IRCCyn
Participants : N. Jussien (resp), C. Prud’homme
Montant équipe : 51 Ke
Mots clés : logistique
URL
Coordinateur : IRCCyn
Montant total : 200 Ke
Développement d’outils logiciels pour aider les PME à concevoir des réseaux communs de livraison
aux clients. Ces outils déterminent la localisation d’entrepôts partagés et les itinéraires de livraison
répondant le mieux aux critéres de minimisation des coûts de distribution et d’impact sur l’environnement.
ANR-ARPEGE SELFXL
Début : 15/12/2008, durée : 36 mois
Partenaires : IRIT, France Telecom RD, Bull, Adèle/LIG, Scalagent
Participants : A. Beldiceanu (resp), P. David
Montant équipe : 40 Ke
Mots clés : placement, grille
URL
Coordinateur : ASCOLA
Montant total : 316 Ke
Problème de placement de tâches sur des serveurs en tenant compte de contraintes de resources et de
contraintes thermiques.
ANR blanc Boole
URL
Début : 01/09/2009, durée : 36 mois
Partenaires : U. Caen, U. Paris 8, U. Aix-Mars. I et II, U. Paris Nord, U. Paris 11, ENSCoordinateur :
UVSQ
Participants : C. Truchet (resp), X. Lorca
Montant équipe : 0 Ke
Montant total : 200 Ke
Mots clés : fonction Boolénnes
Étude de méthode probabilistes dans le cadre d’algorithmes incomplets pour SAT.
Projets internationaux
STREP NetWMS
URL
Début : 01/09/2006, durée : 40 mois
Partenaires : INRIA, CEA, SICS, KLS, PSA, Fiat, Mind2Biz, WideScope
Coordinateur : ERCIM
Participants : N. Beldiceanu (resp), R. Sadek,E. Poder, M. Sbihi,S. Demassey,X. Lorca,S. Zampelli
Montant équipe : 250 Ke
Montant total : 1900 Ke
Mots clés : contraintes géométriques, placement, logistique
284
Bilan 2006–2009 et projet 2012-2015 CONTRAINTES
Le projet concerne le développement d’outils se basant à la fois sur la programmation par contraintes
et la réalité virtuelle augmentée pour la gestion des entrepots. L’équipe Contraintes développe dans ce
projet des contraintes géométriques génériques et des contraintes métiers dans le domaine du placement
dans les entrepots et la logistique.
STREP ANGELS
Début : 01/09/2009, durée : 36 mois
Partenaires : EPFL, U. de Pise, U. de Stuttgart
Participants : G. Chabert (resp), G. Chabert
Montant équipe : 0 Ke
Mots clés : robotique
URL
Coordinateur : IRCCyN
Montant total : 2000 Ke
G. Chabert contribue dans la résolution du problème d’électro-localisation d’un robot anguille en
utilisant des contraintes sur des intervalles. La venue de G. Chabert dans l’équipe Contraintes après le
démarage du projet ANGELS explique le fait qu’il n’y a pas de financement sur ce projet, hormis bien
entendu les missions ponctuelles que G. Chabert est amené à faire dans ce cadre.
10.8 Rayonnement
10.8.1 Évaluation de la recherche
Comités de programme (conférences) et de lecture (revues)
– Revues
– Comités éditoriaux de revue scientifique
– N. Beldiceanu : area editor (Global constraints) pour la revue électronique Constraint Programming Letter depuis 2006, numéro spécial de la revue Constraints sur les contraintes
globales en 2006 ;
– F. Benhamou : membre du comité de rédaction de la revue Information - Interaction - Intelligence, Cepaduès-Editions depuis sa création ;
– N. Jussien : area editor (Over-constrained problems and explanations) pour la revue
électronique Constraint Programming Letter depuis 2006, membre de l’advisory board de
la revue Constraints depuis 2009, numéro spécial de la revue RAIRO-OR en 2006, directeur
de la collection ”Programmation par contraintes” chez Hermes et chez Wiley/ISTE ;
– Rapports
– N. Beldiceanu : Constraint Programming Letters en 2006, ACP doctoral dissertation award
en 2008 ;
– F. Benhamou : Journal on Satisfiability, Boolean Modeling and Computation 2007, Constraints 2006 ;
– R. Debruyne : Constraint Programming Letters en 2007 ;
– S. Demassey : Mathematical Programming, Discrete Optimization, INFORMS Journal on
Computing, Journal of Scheduling, European Journal of Operational Research, Journal of
Heuristics, Annals of Operations Research, Rairo-RO ;
– M. Christie : TVCG,CAVW, Smartgraphics (deux fois) ;
– N. Jussien : Annals of Operations Research, Artificial Intelligence Journal, Asia-Pacific Journal of Operations Research, Computers and Operations Research, Constraints, European
Journal of Operational Research, INFORMS Journal on Computing, Journal of Scheduling,
Technique et Science Informatiques, Recherche, Transports, Sécurité ;
CONTRAINTES
285
– C. Truchet : Constraints en 2010 ;
– Conférences
– Comités de programme
– N. Beldiceanu : CP’08, CP’06 ;
– F. Benhamou : program chair de CP’06 ; PC member de CP’07, CP’08, CP’09, ECAI’08,
ICTAI’09, CPAIOR’07, CPAIOR’08, PSI’06, PSI’09
– R. Debruyne : Workshop CPAI’06 ;
– S. Demassey : JFPC’09, JDIR’09, JFPC’08, JFPC’07 ;
– G. Chabert : JFPC’08 et JFPC’10 ;
– N. Jussien : CP’07, CPAIOR’09, CPAIOR’08, CPAIOR’06, SAC’09, SAC’08, SAC’07,
SAC’06, LION’10, LION’09, LION’07, RIVF’10, RIVF’08, RIVF’07, MOPGP’06,
PADL’06, JFPC’10, JFPC’07, JFPC’06 ;
– C. Truchet : MCM’09, JFPC depuis 2004 (sauf 2008) ;
– T. Petit :JFPC’10, SOFT’workshop 2010, ECAI’06 ;
– Rapports pour un membre d’un comité de programme
– X. Lorca : MODREF’08 (workshop CP), TRICS’10 (workshop CP) ;
– R. Debruyne :LION’08 (Learning and Intelligent OptimizatioN), JFPC’08,
CP’08,JFPC’07,ECAI’06, CP’06 ;
– S. Demassey : CPAIOR, CP (régulièrement depuis 2006) ;
– G. Chabert : CP’06, CP’07, JFPC’08, JFPC’10, Reliable Computing ;
– N. Jussien : CP, IJCAI, ICTAI, ECAI, PATAT ;
– C. Truchet : ISMIR’08, ICMC’09, CP et CP-AI-OR régulièrement depuis 2003 ;
– T. Petit : ECAI’06, CP’06, IJCAI’07, LION’08, CPAIOR’08, CP’08, JFPC’08, LION’08,
IJCAI’09, SAC’10, JFPC’10 ;
Expertises régions, ANR, Europe, AERES, ...
– F. Benhamou : expert auprès de Science Foundation Ireland 2007, 2008. Expert auprès de l’Académie des sciences d’Autriche 2006. Expert auprès du comité scientifique de Banff International
Research Station, Canada, 2007. Expert auprès de l’ANR 2008, 2009. Président du comité de visite AERES de l’UE ERIC, 2010. Membre du comité d’évaluation de l’UMR I3S, 2006. Membre
du jury d’attribution des PEDR, 2006, 2007. Membre du comité d évaluation des PES 2009. 2010.
Membre du jury régional du concours national d’aide à la création d’entreprises de technologies
innovantes, 2006. Expert auprès du ministère de la Recherche pour les opérations Crédit ImpôtRecherche et Jeune entreprise innovante 2006, 2007, 2008. Président de la commission sciences
exactes et membre du bureau du comité consultatif régional pour la recherche et le développement
technologique (CCRRDT) des Pays de la Loire (2005 à ce jour, rénouvelé en 2008). Membre du
conseil scientifique de la fête de la science, 2009, 2010.
– S. Demassey : experte auprès de l’ANR. Projets Cosinus (2010) ;
– N. Jussien : expert auprès de l’ANR en 2008 ;
– T. Petit : expert auprès de l’ANR pour le projet SECOND (Sécurité et confidentialité des CSP
distribués) ;
Rapports de thèse, comité de sélection, concours INRIA, ...
– N. Beldiceanu : membre des jurys de thèse de Michael Heusch (Université de Nantes, janvier
2006), Glen-Brug Guenver (Université de Nantes, octobre 2006), Xavier Lorca (Université de
Nantes, octobre 2007), et Mats Petter Pettersson (Université de Lund, rapporteur, juin 2009) ;
286
Bilan 2006–2009 et projet 2012-2015 CONTRAINTES
– F. Benhamou : rapporteur du docent (tenure) de Christian Schulte (informatique, Univ. of Stockholm, Sweden, 2009). Rapporteur de l’HdR de Gilles Trombettoni (informatique, Université de
Nice, 2009). Examinateur de l’HdR de Mario Sudholt (informatique, Université de Nantes. 2007).
Rapporteur de la thèse de Pau Herrero (mathématiques, University of Girona, 2007). Rapporteur
de la thèse de Guido Tack (informatique, University of Saarbrucken, Germany, 2008). Rapporteur
de la thèse de Thibaut Feydy (informatique, University of Melbourne, Australia, 2010). Rapporteur de la thèse d’Ignacio Arraya (informatique, Université de Nice, 2010). Rapporteur de la thèse
de Carlos Grandon (informatique, Université de Nice, 2007), rapporteur de la thèse de Nicolas
Delanoue (mathématiques, université d’Angers, 2006). Membre de 2 comités de sélection en 2008
(1 PR et 1 MC 27 à Nantes) et 3 comités de sélection en 2009 (1 PR et 1 MC Nantes, 1 MC Nice).
Membre du jury de concours CR2 INRIA Rocquencourt 2007. Membre du jury des prix de thèse
Gilles Khan 2007, 2008, 2009.
– X. Lorca : membre du jury de thèse de Guillaume Richaud, Université de Nantes, 2009 ;
– M. Christie : membre de la CS 27, Université de Nantes, 2007 ;
– N. Jussien : membre des jurys de thèse de Jean-Philippe Métivier (Université de Caen, rapporteur,
avril 2010), Pierre-Selim Huart (Institut Supérieur de l’Aéronautique et de l’Espace, rapporteur,
décembre 2009), Grégoire Carpentier (Université Paris VI, rapporteur, décembre 2008), Sébastien
Tabary (Université d’Artois, rapporteur, novembre 2007), Sébastien Sorlin (Université de Lyon
I, rapporteur, décembre 2006), et Rémi Coletta (Université de Montpellier II, rapporteur, juillet
2006), membre du jury d’HdR de Brahim Hnich (Université de Montpellier II, rapporteur, janvier
2008), membre du jury du concours de recrutement de l’EMN en 2010, 2009 et 2008 ;
– C. Truchet : membre de la CS 27, Université de Nantes, en 2008, et du comité de sélection pour
un poste de MC, Université de Nantes, 2009 ;
– T. Petit :membre des jurys de thèse de Guillaume Verger, 2009 et Jean-Philippe Métivier, 2010 ;
10.8.2 Animation de la communauté
Participation à des steering comittees, des GDR et leurs groupes de travail
– F. Benhamou : membre de l’ Executive committee de l’International Association for Constraint
Programming (2006). Membre du board de l’association Informatics-Europe (2009-)
– N. Jussien :président puis vice-président de l’AFPC (Association Francophone de Programmation par Contraintes), et co-animateur du groupe Contraintes et RO de l’AFPC et de la ROADEF
(jusqu’en janvier 2007) ;
– C. Truchet : secrétaire de l’AFPC depuis 2009, et responsable du Groupe de Travail Contraintes,
Musique et Interaction de l’AFIM (Association Française d’Informatique Musicale), 2008-2010 ;
Conférences invitées
– N. Beldiceanu : workshop SweConsNet Suédois en 2007, ACP Summer School (cours sur les
contraintes globales, 2006), École Jeunes chercheurs en programmation (cours sur les contraintes
globales, 2008) ;
– S. Demassey : NATO Workshop on Hybrid methods and branching rules in combinatorial optimization (Hybrid’06), 18-22 September 2006, Montréal, Canada ;
– N. Jussien : workshop CSPSAT Japonais (trois fois) ;
– T. Petit : présentation invitée au GdR Contraintes et RO en 2007 ;
Organisation de conférences, d’ateliers, d’écoles d’été
CONTRAINTES
287
– F. Benhamou : intervenant, Third Summer School in Constraint Programming, Lloret de Mar,
Espagne 2007.
– G. Chabert : participation à l’organisation du workshop SWIM’10 à Nantes (local organizer) ;
– N. Jussien et F. Benhamou : présidents de la conférence CP 2006 (Nantes) ;
– N. Jussien : coorganisateur d’une session ”programmation par contraintes” ROADEF 2006 ;
– C. Truchet : présidente des JFPC 2008 ;
– toute l’équipe : organisation des JFPC 2008 ;
– toute l’équipe : organisation de CP 2006 ;
Collaborations nationales et internationales
– N. Beldiceanu : M. Carlsson (SICS, Suède) : 9 articles, P. Flener (Uppsala University, Suède) : 2
articles, I. Katriel (Brown University, USA) : 2 articles ;
– M. Christie : projet MOU avec le NII Tokyo (1 article à Smartgraphics 2006) ;
– S. Demassey : L.M. Rousseau et G. Pesant (CIRRELT, Canada) : 1 article, M. Carlsson (SICS,
Suède) : 3 articles, Ch. Artigues (LAAS, Toulouse) et E. Néron (LI, Tours) : 1 livre + 1 chapitre,
Ph. Baptiste (LIX, Paris) et J. Carlier (Heudiasyc, Compiègne) : 1 chapitre ;
– N. Jussien : 4C CORK (publications), CIRRELT / Polytech Montréal (co-encadrement thèse
Arnaud Malapert), LIFO, Orléans (publications), IRCCYN, équipe SLP (co-encadrement de 3
thèses), IRCCYN, équipe STR (publications), Bouygues e-lab (contrat, publications) ;
– X. Lorca : collaborations avec Pierre Flener, Uppsala University, (Contraintes de partitionnement
de graphe, 1 article CPAIOR, 1 article Constraints), Irit Katriel, Brown University (Contraintes de
partitionnement de graphe, 1 article CPAIOR, 1 article Annals of OR), Nicolas Loriant, INRIA
Bordeaux, équipe Phoenix (maintien paresseux de propriétés de graphe, 1 article SC) ;
– F. Benhamou et C. Truchet : Pascal Van Hentenryck, Brown University (co-encadrement thèse) ;
– T. Petit : Christian Bessière (deux IJCAI, un CP, deux JFPC), Rémi Coletta (un article à CP),
Bruno Zanuttini (un article IJCAI), Emmanuel Poder (annals of OR, CPAIOR) ;
10.9 Formation par la recherche
Pilotage d’écoles doctorales, de spécialités de filières, de master
– F. Benhamou : Directeur du département informatique de la faculté des sciences de l’Université ;
– S. Demassey : Responsable de l’option GIPAD à l’EMN ;
– N. Jussien : Directeur-adjoint de l’École Doctorale STIM, responsable département informatique
à l’EMN, responsable de l’option GIPAD à l’EMN sur 1 an.
Participation aux enseignements de master, de filière, d’école doctorale
– Université de Nantes
– N. Beldiceanu : Programmation par Contraintes (Master ORO) ;
– S. Demassey : Programmation Linéaire (Master ORO) ;
– N. Jussien : Informatique (Polytech) ;
– X. Lorca : Programmation par Contraintes (Master ORO).
– EMN
– N. Beldiceanu : option GIPAD de l’École des Mines ;
– P. David : option GIPAD de l’École des Mines ;
– S. Demassey : option GIPAD de l’École des Mines ;
288
Bilan 2006–2009 et projet 2012-2015 CONTRAINTES
– N. Jussien : options GIPAD et GOPL de l’École des Mines ;
– X. Lorca : options GIPAD et GOPL de l’École des Mines ;
– T. Petit : option GIPAD de l’École des Mines.
– ENSIETA
– G. Chabert : programmation par contracteurs ;
HDR et thèses soutenues sur la période
Nom
H. Cambazard
É. Grellier
G.-B. Guenver
X. Lorca
J.-M. Normand
B. Pajot
G. Richaud
Publications
[24]
[15]
à déposer
[19]
[16]
à déposer
[8]
Thèses
Institution
EMN
EMN
UN
UN
UN
UN
EMN
Soutenance
15/11/2006
30/01/2008
16/10/2006
29/10/2007
29/01/2008
26/11/2006
29/10/2009
Devenir
Chercheur Cork
Optilogistic
MdC
PostDoc Barcelone
Privé
Ingénieur
10.10 Gouvernance
Organisation de l’équipe, animation scientifique
Le responsable d’équipe est N. Beldiceanu et la responsable adjointe C. Truchet. Les actions suivantes sont menées :
– Chaque année un séminaire commun sur deux jours est organisé pour que les membres de l’équipe
présentent leur travaux et engagent une discussion dessus.
– Les étudiants en première année de thèse se voient la possibilité de participer à l’école d’été sur
les contraintes et (ou) au doctoral program de la conférence internationale sur les contraintes, CP.
– Les étudiants en thèse vont à la conférence francophone sur les contraintes (i.e., JFPC).
– Deux stagiaires indiens ont été accueilli sur la période pour des travaux sur CHOCO.
– Un certain nombre de thèses de l’équipe sont encadrées par des maı̂tres de conférence de l’équipe
(i.e., thèse d’A. de Clercq par T. Petit, thèse d’A. Merel et de J. Menana par S. Demassey, thèse de
M. Pelleau par C. Truchet).
– Un certain nombre de thèses à cheval sur deux domaines (typiquement contraintes et recherche
opérationnelle) sont co-encadrées (i.e., thèse d’É. Grellier avec C. Guéret de SLP/IRRCyN),
(i.e., thèse d’A. Malapert avec C. Guéret de SLP/IRRCyN et L.-M. Rousseau de Polytechnique
Montréal), (i.e., thèse d’A. Merel avec X. Gandibleux de ROOM/LINA), (i.e., thèse de M. Pelleau
avec P. Van Hentenryck de Brown).
– Un séminaire d’équipe dans lequel chacun présente ses travaux en cours (ou plus rarement une
mise à niveau sur un sujet donné ou un article de recherche de l’extérieur) est en activité depuis
septembre 2010. Notons que quelques uns de ces séminaires sont présentés par des intervenants
extérieurs (par exemple, P. Deransart de l’INRIA, C. de la Higuera de l’équipe TALN/LINA,
A. Miné de l’ENS Ulm, É. Péroches d’Areva). Pour information, la liste de ces séminaires est
donnée ci-dessous :
– 16 juin 2010, Soft cumulative, Alexis de Clercq.
– 2 juin 2010, Contraintes continues, cours, Gilles Chabert.
– 26 mai 2010, Contrainte globale généralisant increasing-nvalue, Thierry Petit, Xavier Lorca, Nicolas Beldiceanu.
CONTRAINTES
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
289
19 mai 2010, Réflexion autour de la présentation de l’équipe, tout le monde.
12 mai 2010, Contraintes et combinatoire, Charlotte Truchet et Xavier Lorca.
5 mai 2010, Challenge PATAT, Julien Menana et Sophie Demassey.
28 avril 2010, Conception de trace générique et application (entre autres) aux solveurs de contraintes, Pierre Deransart, INRIA Rocquencourt.
14 avril 2010, Automates augmentés par des contraintes linéaires : modèles et exemple d’utilisation, Nicolas
Beldiceanu.
31 mars 2010, Introduction à la PLNE, cours 3, Sophie Demassey.
24 mars 2010, TPs Choco, Sophie Demassey.
17 mars 2010, Génération de colonnes appliquée au ferroviaire, Aurélien Merel.
10 mars 2010, Vers une ontologie pour les contraintes globales : description de travaux en cours, Nicolas Beldiceanu.
3 mars 2010, Introduction à la PLNE, cours 2, Sophie Demassey.
17 février 2010, Centrales nucléaires et optimisation des combustibles, Élodie Péroches, ingénieur d’études chez
Areva.
10 février 2010, Apron : A Library of Numerical Abstract Domains for Static Analysis, Antoine Miné (ENS).
3 février 2010, Introduction à la PLNE, cours 1, Sophie Demassey.
27 janvier 2010, Automates, Julien Menana.
20 janvier 2010, Soft constraints, Thierry Petit.
13 janvier 2010, Packing en continu, Gilles Chabert.
16 décembre 2009, Automates probabilistes et apprentissage d’automates, Colin de la Higuera, équipe TALN.
11 décembre 2009, Edge finding, Alexis de Clercq.
2 décembre 2009, Contraintes et interprétation abstraite, Marie Pelleau.
25 novembre 2009, Language pour décrire la génération d’automates, Nicolas Beldiceanu.
18 novembre 2009, SAT, probabilités et fonctions booléennes, Charlotte Truchet.
4 novembre 2009, Open Shop Arnaud Malapert.
28 octobre 2009, Répétition de soutenance de thése Guillaume Richaud.
14 octobre 2009, Standardization, Narendra Jussien.
7 octobre 2009, Retour de CP : la compétition de Solveurs, Charles Prud’homme.
30 septembre 2009, Retour de CP : la conférence, Nicolas Beldiceanu.
2 septembre 2009, Contraintes et automates sur des matrices, Nicolas Beldiceanu.
Stratégies de publication
Les canaux privilégiés de publications de l’équipe concernent les deux conférences internationales
et la revue internationale de la communauté contraintes, à savoir CP, CPAIOR, et Constraints.
Les contraintes étant originellement rattachées à l’intelligence artificielle l’équipe publie également
dans des conférences internationales telles que IJCAI ou dans des revues telles que Artificial Intelligence.
De part ces travaux connexes à la recherche opérationelle et/ou aux mathémathiques discrètes,
l’équipe publie aussi dans des revues telles que Annals of Operations Research ou Order.
Dans le cadre de la collaboration interdisciplinaire avec ASCOLA sur les aspects énergie et
également sur les aspects architecture de solveurs, l’équipe a publié dans des conférences internationales
dans le domaine du système (i.e., ACM SIGPLAN/SIGOPS) et du génie logiciel (i.e., Intenational Conference on Software Composition).
Finalement, dans un souci d’animation de la communauté francophone des contraintes l’équipe publie régulièment dans la conférence francophone dédiée aux contraintes (JFPC).
10.11 Auto-évaluation
– Une des 5 meilleures équipes dans le domaine des contraintes au niveau international (Brown,
Cork, Melbourne).
290
Bilan 2006–2009 et projet 2012-2015 CONTRAINTES
– Sans doute celle en France où l’on a le meilleur équilibre entre théorie et pratique, une grande
variétés de compétences complémentaires, une bonne masse critique. La plus visible en France au
niveau logiciels.
– Mise à part Brown, l’une des plus visibles au niveau logiciel (solveurs discret et continu, catalogue
de contraintes globales).
– Mise à part Brown, la seule équipe sur les aspects discret et continus.
10.12 Projet scientifique 2012-2015
En dépit de son importance, le domaine de l’aide à la décision au sens large (et des contraintes en
particulier) souffre d’un certain nombre de faiblesses et de cloisonnements intrinsèques empêchant de
tirer parti de tout son potentiel. Ces faiblesses constituent un frein à l’appréhension et à la résolution de
problématiques de plus en plus complexes, que ce soit au niveau de la taille des problèmes, qu’au niveau
des types de contraintes mis en jeux. Ces faiblesses prennent leur source dans la diversité des acteurs
travaillant sur ces problèmatiques :
– Ces acteurs sont le plus souvent dispersés dans des communautés scientifiques distinctes, chacune
ayant son propre agenda de recherche :
– D’une part, le côté informatique pour les aspects mise en oeuvre : fournir des langages, des
outils de modélisation et des bibliothèques. Se focalisant sur les aspects tels que les langages de
programmation, la flexibilité et la maintenance du logiciel, ces acteurs ignorent complètement
la question centrale suivante : comment synthétiser automatiquement des composants logiciels
traitant efficacement un aspects précis d’un problème d’aide à la décision, étant entendu que le
problème en question n’est pas complètement connu à l’avance.
– D’autre part, le côté mathématiques appliquées pour la partie théorique. Se focalisant sur la
recherche de méthodes efficaces s’appuyant sur la structure de problèmes particuliers, le côté
mise en oeuvre dans des logiciels flexibles est laissé pour compte.
En résumé, on peut caricaturer la première approche en disant qu’elle produit des méthodes
générales s’appliquant à nombre de problèmes, mais potentiellement inéfficaces car ne tirant pas
parti des caractéristiques de ces problèmes. Tandis que la deuxième approche apporte elle des
méthodes efficaces dont l’applicabilité est soumise à des conditions précises.
– Ces acteurs sont dispersés dans des communautés technologiques distinctes, chacune poussant son
propre paradigme de résolution tels la programmation par contraintes 1 , la programmation linéaire
ou la recherche locale. On peut dire que, lorsqu’ils s’appuient sur la structure des problèmes considérés, tous ces paradigmes exploitent un fond commun de résultats mathématiques en les adaptant manuellement aux spécificités techniques des paradigmes technologiques en question.
En conséquence les points principaux du projet scientifique sont :
– Développer des langages de modélisation et des techniques de résolution de problémes
indépendant d’un paradigme de résolution particulier et/ou valable pour certaines classe de
problèmes. On s’attachera en particulier à rechercher des notions abstraites pouvant irriger et
éclairer différents paradigmes de résolution.
– Continuer à capitaliser dans une base de connaissances les différents types de connaissances intervenant en résolution de problémes d’aide à la décision et utiliser de manière inattendue cette base
1. La programmation par contrainte peut être vue comme un paradigme de résolution à part entière – c’est le sens qu’elle
a dans cette énumération –, mais elle peut également être vue comment étant le moyen d’unifier différents paradigmes de
résolution. C’est ce dernier sens que nous voulons développer.
CONTRAINTES
291
de connaissance (par exemple pour faire de l’acquisition de modèles de contraintes indépendament
de la technique de résolution).
– Traiter des problèmes complexes au sens où ils mélangent de manière intime des aspects discret,
continu, dynamique et relaxation.
10.13 Bibliographie
10.13.1 Publications de référence de l’équipe dans la période
[1] http ://hal.archives-ouvertes.fr/hal-00482014/en/
T. P ETIT et E. P ODER. Global propagation of side constraints for solving over-constrained problems. Annals of Operations Research, 2010, page 20
[2] http ://hal.archives-ouvertes.fr/hal-00485563/en/
N. B ELDICEANU, M. C ARLSSON, S. D EMASSEY, et E. P ODER. New Filtering for the cumulative
constraint in the context of non-overlapping rectangles. Annals of Operations Research, 2010,
pages 1–20
[3] http ://hal.archives-ouvertes.fr/hal-00485568/en/
N. B ELDICEANU, M. C ARLSSON, P. F LENER, et J. P EARSON. On matrices, automata and double
counting. In 7th International Conference on Integration of AI and OR Techniques in Constraint
Programming for Combinatorial Optimization Problems (CPAIOR’10), 2010, Italie, pages 100–115
[4] http ://hal.archives-ouvertes.fr/hal-00482021/en/
J. V ION, T. P ETIT, et N. J USSIEN. A generic scheme for integrating strong consistencies into
constraint solvers. In 14th ERCIM International Workshop on Constraint Solving and Constraint
Logic Programming (CSCLP’09) CSCLP, 2009, Espagne, page 15
[5] http ://hal.archives-ouvertes.fr/hal-00428957/en/
G. C HABERT et L. J AULIN. Contractor Programming. Artificial Intelligence, 2009, 173 : 1079–
1100
[6] http ://hal.archives-ouvertes.fr/hal-00482383/en/
J. V ION et R. D EBRUYNE. Light Algorithms for Maintaining Max-RPC During Search. In SARA2009 Eighth Symposium on Abstraction, Reformulation, and Approximation, 2009, Lake Arrowhead, CA États-Unis, pages 167–174
[7] http ://hal-lirmm.ccsd.cnrs.fr/lirmm-00382609/en/
C. B ESSIERE, T. P ETIT, et B. Z ANUTTINI. Making Bound Consistency as Effective as Arc Consistency. In IJCAI’09, 2009
[8] http ://tel.archives-ouvertes.fr/tel-00483061/en/
G. R ICHAUD. Outillage logiciel pour les problèmes dynamiques. Thèse de doctorat, Université de
Nantes, 2009
[9] http ://hal.archives-ouvertes.fr/hal-00394434/en/
J. M ENANA et S. D EMASSEY. Sequencing and counting with the multicost-regular constraint. In
6th international conference Integration of AI and OR Techniques in Constraint Programming for
292
Bilan 2006–2009 et projet 2012-2015 CONTRAINTES
Combinatorial Optimization Problems (CPAIOR’09), 2009, États-Unis, volume 5547 of Lecture
Notes in Computer Science, pages 178–192
[10] http ://hal.archives-ouvertes.fr/hal-00481521/en/
N. B ELDICEANU, M. C ARLSSON, M. S BIHI, C. T RUCHET, S. Z AMPELLI, et M. A GREN. Six
Ways of Integrating Symmetries within Non-Overlapping Constraints. In Springer V ERLAG, réd.,
6th International Conference on Integration of AI and OR Techniques in Constraint Programming
for Combinatorial Optimization Problems (CPAIOR’09), 2009, États-Unis, volume 5547 of Lecture
Notes in Computer Science, pages 11–25
[11] http ://hal.archives-ouvertes.fr/hal-00481471/en/
N. B ELDICEANU, I. K ATRIEL, et X. L ORCA. Undirected Forest Constraints. Annals of Operations
Research, 2009, 171(1) : 127–147
[12] http ://hal.archives-ouvertes.fr/hal-00481180/en/
J.-M. N ORMAND, A. G OLDSZTEJN, M. C HRISTIE, et F. B ENHAMOU. A Branch and Bound Algorithm for Numerical MAX-CSP. In LNCS The 14th International Conference on Principles and
Practice of Constraint Programming, 2008, Australie, volume 5202/2008, pages 205–219
[13] http ://hal.archives-ouvertes.fr/hal-00481539/en/
N. B ELDICEANU, M. C ARLSSON, et J. M ARTIN. A Geometric Constraint over k-Dimensional
Objects and Shapes Subject to Business Rules. In Springer V ERLAG, réd., 14th International Conference on Principles and Practice of Constraint Programming (CP’08), 2008, Australie, volume
5202 of Lecture Notes in Computer Science, pages 220–234
[14] http ://hal.archives-ouvertes.fr/hal-00481533/en/
N. B ELDICEANU, P. F LENER, et X. L ORCA. Combining tree Partitioning, Precedence, and Incomparability Constraints. Constraints, 2008, 13(4) : 459–489
[15] http ://tel.archives-ouvertes.fr/tel-00483057/en/
E. G RELLIER. Optimisation de tournées de véhicules dans le cadre de la logistique inverse :
modélisation et résolution par des méthodes hybrides. Thèse de doctorat, Université de Nantes,
2008
[16] http ://tel.archives-ouvertes.fr/tel-00485074/en/
J.-M. N ORMAND. Placement de caméra en environnements virtuels. Thèse de doctorat, Université
de Nantes, 2008
[17] http ://hal-lirmm.ccsd.cnrs.fr/lirmm-00230949/en/
C. B ESSIERE et R. D EBRUYNE. Theoretical Analysis of Singleton Arc Consistency and Its Extensions. Artificial Intelligence, 2008, 172(1) : 29–41. Elsevier
[18] http ://hal.archives-ouvertes.fr/hal-00481558/en/
N. B ELDICEANU, M. C ARLSSON, E. P ODER, R. S ADEK, et C. T RUCHET. A Generic Geometrical
Constraint Kernel in Space and Time for Handling Polymorphic k-Dimensional Objects. In 13th
International on Principles and Practice of Constraint Programming (CP’07), 2007, Brown ÉtatsUnis, volume 4741, pages 180–194
[19] http ://tel.archives-ouvertes.fr/tel-00484354/en/
X. L ORCA. Contraintes de Partitionnement de Graphe. Thèse de doctorat, Université de Nantes,
2007
CONTRAINTES
293
[20] http ://hal.archives-ouvertes.fr/hal-00481554/en/
N. B ELDICEANU, M. C ARLSSON, S. D EMASSEY, et T. P ETIT. Global Constraint Catalog : Past,
Present and Future. Constraints, 2007, 12(1) : 21–62
[21] http ://hal.archives-ouvertes.fr/hal-00293562/en/
S. D EMASSEY, G. P ESANT, et L.-M. R OUSSEAU. A Cost-Regular based Hybrid Column Generation Approach. Constraints, 2006, 11(4) : 315–333
[22] http ://hal.archives-ouvertes.fr/hal-00442811/en/
N. B ELDICEANU, T. P ETIT, et G. R OCHART. Bounds of graph properties. RAIRO Operations
Research, 2006, pages 742–746. ISSN 0399 0559
[23] http ://hal.archives-ouvertes.fr/hal-00293899/en/
H. C AMBAZARD et N. J USSIEN. Identifying and exploiting problem structures using explanationbased constraint programming. Constraints, 2006, 11(4) : 295–313
[24] http ://tel.archives-ouvertes.fr/tel-00483049/en/
H. C AMBAZARD. Résolution de problèmes combinatoires par des approches fondées sur la notion
d’explication. Thèse de doctorat, Université de Nantes, 2006
[25] http ://hal.archives-ouvertes.fr/hal-00481573/en/
N. B ELDICEANU, I. K ATRIEL, et X. L ORCA. Undirected Forest Constraints. In Lecture Notes
in Computer S CIENCE, réd., 3rd International Conference on Integration of AI and OR Techniques
in Constraint Programming for Combinatorial Optimization Problems (CPAIOR’06), 2006, Cork
Irlande, volume 3990 of Springer-Verlag, pages 29–43
Équipe
MEO
Chapeau-résumé
L’équipe MEO étudie la modélisation et la résolution des problèmes de satisfaction de contraintes
et d’optimisation numériques. Elle développe la théorie, l’algorithmique et des logiciels permettant de
traiter ces problèmes de manière automatique, certifiée et très efficace. Elle se trouve au confluent de
plusieurs domaines de l’informatique et des mathématiques appliquées comme l’analyse par intervalles,
la programmation par contraintes et l’optimisation globale.
Les méthodes ensemblistes basées sur le domaine de calcul des intervalles permettent d’approximer conservativement toutes les solutions d’un problème et de fournir automatiquement un certificat
des calculs comme une preuve de satisfiabilité ou la garantie d’un optimum global. Elles s’appliquent
naturellement à des situations critiques, par exemple en robotique parallèle pour éviter des poses singulières, ou à des problèmes constitués de données incertaines, par exemple en conception avant-projet
pour explorer des ensembles de solutions réalisables.
La suite du document présentera un bilan de l’équipe MEO créée fin 2006. Le projet scientifique
du quadriennal 2012-2015, commun avec l’équipe ROOM, proposera de fonder une nouvelle équipe
OPTIMISATION au LINA.
295
296
Bilan 2006–2009 MEO
11.1 Composition de l’équipe au 30/06/2010
Nom
GOLDSZTEJN
GOUALARD
GRANVILLIERS
JERMANN
Nom
BERGER
Nom
CHENOUARD
ISHII
SOTO DE
GIORGIS
Permanents au 30/06/2010
Prénom
Position
Institution
Arrivée
Alexandre
CR2
CNRS
01/10/2007
Frédéric
MC
UN
01/12/2001
Laurent
PR
UN
01/09/2005
Christophe
MC
UN
01/09/2003
Doctorants au 30/06/2010
Prénom
Position
Institution
Arrivée
Nicolas
BDI
CNRS
01/10/2006
Personnels temporaires sur la période 2006-2010
Prénom
Position
Institution
Arrivée
Départ
Raphael
ATER
UN
01/09/2007
31/08/2009
Daisuke
PostDoc
INRIA
01/04/2010
01/04/2011
Ricardo Javier
ATER
UN
01/09/2009
01/02/2010
Évolution de l’équipe sur la période 01/01/2006-30/06/2010
F. Goualard, L. Granvilliers et C. Jermann ont créé MEO fin 2006 après le découpage de l’équipe
contraintes continues et applications ≫. Leur objectif était de constituer un groupe de recherche de rang
international en calcul certifié (reliable computing) et optimisation globale en bénéficiant d’une approche
originale fondée sur leur expérience des contraintes continues.
A. Goldsztejn a été recruté fin 2007 pour renforcer les compétences de l’équipe en mathématiques
appliquées. Daisuke Ishii a été recruté pour un an en tant que chercheur post-doctorant sur le projet ANR
SIROPA relatif aux singularités des robots parallèles.
≪
11.2 Faits marquants 2006-2010
Structuration et thèmes de recherche L’équipe s’est investie dans deux thèmes de recherche principaux relatifs d’une part à la modélisation et transformation de problèmes et d’autre part à leur résolution.
Ces travaux ont été largement influencés par les applications en robotique parallèle étudiées dans le projet
ANR SIROPA et en conception architecturale dans le cadre de la thèse de R. Chenouard.
Un premier thème concerne la transformation automatique des modèles des utilisateurs dans un
langage donné vers des outils de résolution cible. Les transformations ont pour but la traduction entre différents langages et formalismes, la projection des modèles sur les outils et l’enrichissement des
modèles pour améliorer la résolution. L’approche originale a été de se placer dans le cadre de l’ingéniérie
dirigée par les modèles et de développer un outil au sein de l’environnement Eclipse.
Le thème principal, au centre de l’équipe, concerne la résolution des problèmes numériques, par
nature NP-difficiles, non convexes, non linéaires, ou encore de dimensions non nulles. Les algorithmes
mis en œuvre de type branch-and-prune ou branch-and-bound ont une complexité exponentielle en
fonction du nombre de variables de décision dans le pire cas. Pour contrer ces limitations théoriques, les
approches suivies sont par exemple de définir de nouveaux domaines de calcul certifié et l’algorithmique
MEO
297
associée, de réaliser des méthodes hybrides contrôlées par des stratégies adaptatives ou de paralléliser
les calculs.
Publications majeures de l’équipe sur la période
1. ACM TOMS 2006 [36] : logiciel de modélisation et d’optimisation Realpaver.
2. IJCGA 2006 [37] : décomposition des systèmes de contraintes géométriques.
3. CP 2007 [34] : modélisation de problèmes numériques en conception architecturale.
4. CP 2008 [17] : calculs certifiés sur des parallépipèdes.
5. PPDP 2008 [23] : programmation par contraintes dirigée par les modèles.
6. Constraints 2008 [18] : stratégies de résolution par apprentissage.
7. PDCAT 2008 [16] : algorithme de résolution data-parallèle.
8. IJCAI 2009 [13] : algorithme de résolution anytime.
9. MODELS 2009 [7] : chaı̂nage de transformations de modèles.
10. Constraints 2009 [8] : résolution de contraintes universellement quantifiées.
Prix et récompenses, organisation de conférences majeures, conférences invitées
– R. Chenouard : prix de thèse Pierre Bézier 2008 (Résolution par satisfation de contraintes appliquée à l’aide à la décision en conception architecturale).
– A. Goldsztejn et L. Granvilliers : Co-lauréats du prix du meilleur article à la conférence CP 2008
(A New Framework for Sharp and Efficient Resolution of NCSP with Manifolds of Solutions).
– F. Goualard : conférence invitée à GAMM-IMACS SCAN 2008, El Paso, TX (Interval Multivalued
Inverse Functions : Relational Interval Arithmetic and its Use).
– F. Goualard : expert dans le groupe IEEE P1788 (Interval Standard Working Group) depuis 2008.
– Organisation de l’atelier Small Workshop on Interval Methods 2010.
– A. Goldsztejn : Co-lauréat du prix du meilleur article étudiant à CP 2008 (A Branch and Bound
Algorithm for Numerical MAX-CSP).
– F. Goualard et C. Jermann : membres du comité d’organisation de CP 2006 à Nantes.
Tableau récapitulatif
ACL
9
ACLN
2
Récapitulatif des publications par catégorie
ASCL BRE INV ACTI ACTN COM AFF
0
0
1
17
15
4
0
OS
8
OV
0
DO
0
AP
5
11.3 Fondements scientifiques
11.3.1 Analyse par intervalles
L’analyse par intervalles est une discipline consacrée à l’étude des algorithmes pour résoudre des
problèmes continus par des calculs approchés sur les intervalles de nombres réels. Dans ce cadre, les
méthodes ont en général de bonnes propriétés de convergence et de complétude. Les travaux de Moore
dans les années 1960 [55] sont à l’origine des développements modernes du domaine, par exemple sur la
résolution d’équations [56] ou l’optimisation globale [53, 54].
298
Bilan 2006–2009 MEO
L’arithmétique des intervalles décrit les opérations et les fonctions élémentaires sur ces nombres. Son
implantation en machine utilise des calculs sur les nombres flottants aux bornes avec arrondis extérieurs.
Ainsi, chaque nombre ou ensemble de nombres réels peut être représenté par un intervalle englobant.
La propagation de ces intervalles dans les calculs conduit à une majoration des erreurs de calcul. L’algorithmique est une extension de l’analyse numérique construite sur l’arithmétique des intervalles. Pour
obtenir un nouvel algorithme, une approche courante est de capturer les termes d’erreurs apparaissant
dans un théorème par un raisonnement ensembliste de nature pessimiste conduisant à couvrir la quantité
réelle correspondante. L’une des difficultés est précisément de limiter le pessimisme pour conserver une
bonne précision des calculs.
La résolution des systèmes de contraintes numériques est réalisée classiquement par un algorithme
branch-and-prune capable de calculer des approximations couvrantes (pavages) des espaces de solutions
au moyen d’hyper-rectangles de Rn . C’est une procédure de semi-décision pour l’insatisfiabilité des
systèmes qui permet de conclure si le pavage calculé est vide. Le principe est d’alterner des pas de
contraction des domaines des variables avec des pas de découpage jusqu’à atteindre une précision fixée.
La méthode de Newton par intervalles constitue un opérateur de contraction essentiel pour deux raisons :
la faculté de converger quadratiquement au voisinage d’une solution et la capacité à prouver l’existence
d’une solution dans un hyper-rectangle grâce au théorème du point-fixe de Brouwer. L’une des difficultés
est liée à la forme des hyper-rectangles donnant par exemple des approximations grossières des espaces
de dimension non nulle. Un autre problème provient de la nature exponentielle de l’algorithme branchand-prune et la difficulté à contracter des domaines larges.
11.3.2 Programmation par contraintes
La programmation par contraintes est un paradigme de programmation dans lequel l’utilisateur
modélise les propriétés attendues d’un système par des contraintes et le solveur en calcule les solutions. Une contrainte est une relation sur des variables souvent interprétée comme un ensemble d’affectations valides. Ce domaine est issu de la convergence dans les années 1980 de travaux en programmation logique [47, 45] et en intelligence artificielle sur les problèmes de satisfaction de contraintes
(CSP) [51, 50, 49].
La résolution complète des CSP peut être réalisée par un algorithme branch-and-prune dans lequel
les pas de contraction filtrent les domaines des variables. Les algorithmes de filtrage consistent à rejeter les affectations des variables ne satisfaisant pas des propriétés de cohérence des contraintes ou à
appliquer des algorithmes spécialisés sur des contraintes globales. Les filtrages sont propagés dans le
réseau de contraintes jusqu’à l’obtention d’un point-fixe [43]. L’algorithme de propagation est décrit abstraitement comme une itération équitable appliquant un ensemble d’opérateurs de contraction sur un
bon ordre. Un objectif est d’obtenir une bonne complexité pratique de l’algorithme branch-and-prune
en trouvant un équilibre entre le temps passé à filtrer (polynomial) et le nombre de pas de découpage (au
pire exponentiel).
Les CSP numériques sont des CSP sur des variables continues dont les domaines sont des intervalles. Ils sont apparus dans les travaux fondateurs sur l’introduction d’une arithmétique relationnelle
en programmation logique [48, 46]. Les filtrages calculent des propriétés de cohérence définies par approximation conservative des projections des contraintes sur les variables. Ils sont obtenus au moyen
de l’arithmétique des intervalles étendue avec les fonctions inverses. Comme l’ensemble des intervalles
muni de l’inclusion est un bon ordre, l’algorithme de propagation converge et termine. Le lien entre
les CSP numériques et l’analyse par intervalles a été déterminant [44]. En effet, l’algorithme de propagation est suffisamment général pour permettre la combinaison des opérateurs de contraction des CSP
MEO
299
numériques et de l’analyse par intervalles.
11.3.3 Optimisation globale
L’optimisation globale consiste à calculer l’extremum global d’une fonction sur un domaine. L’algorithme du simplexe en est la référence en programmation linéaire. Il existe différentes approches pour
traiter les problèmes numériques, non linéaires et non convexes.
Les méthodes par intervalles donnent des moyens pour réaliser un algorithme branch-and-bound
complet et rigoureux [53, 54]. Comme dans un branch-and-prune, le principe est de subdiviser l’espace
de recherche et de couper des régions infaisables. De plus, la gestion de bornes inférieure et supérieure de
la fonction objectif permet de couper des régions non optimales et de fournir un encadrement rigoureux
de l’extremum global. Pour obtenir un algorithme efficace, il est nécessaire de combiner plusieurs classes
de méthodes, par exemple des opérateurs de contraction opérant sur les conditions du premier ordre et
des techniques de recherche locale pour améliorer les bornes de la fonction.
Les techniques de reformulation-linéarisation consistent à relaxer les problèmes non linéaires pour
permettre l’application de méthodes de programmation linéaire [57]. La programmation non linéaire
rassemble de nombreux algorithmes permettant de converger localement [52]. Les métaheuristiques continues comme les algorithmes génétiques ou les colonies de fourmis sont capables d’explorer globalement l’espace de recherche d’un problème d’optimisation. Toutes ces classes de méthodes sont exploitables dans un cadre branch-and-bound par intervalles.
11.4 Applications et enjeux
Les méthodes ensemblistes sur les intervalles et l’optimisation globale conduisent naturellement
à s’intéresser aux applications critiques dans lesquelles la certification des calculs est nécessaire ou
aux problèmes de décision constitués de données incertaines ou imprécises pour lesquels il faut savoir
propager une information mal connue.
Nous avons ouvert des collaborations avec des partenaires académiques dans trois domaines. En conception architecturale (ENSAM Bordeaux), notre objectif est de dimensionner des systèmes modélisés
par des contraintes numériques sur des variables discrètes ou continues en présence d’incertitude, et de
faire un choix dans un espace de concepts souvent très grand. En robotique (MCM/IRCCyN), nous avons
étudié les propriétés des robots parallèles modélisés par des systèmes d’équations non linéaires. La certification des calculs est nécessaire pour éviter par exemple de casser un robot dans une configuration singulière (projet ANR SIROPA). En biologie systémique (COMBI/LINA), nous avons étudié des systèmes
hybrides décrit par des évolutions continues entrecoupées de changements discrets et réprésentés par des
contraintes et des équations différentielles.
11.5 Nouveaux résultats pour la période 2006-2010
11.5.1 Langages de modélisation et transformation de modèles
Participants : Laurent Granvilliers, Raphaël Chenouard, Ricardo Soto
Les plateformes modernes de programmation par contraintes et d’optimisation ont une architecture
à trois couches. Un langage de modélisation de haut niveau constitue l’interface avec les utilisateurs.
Un ensemble de solveurs permettent de résoudre des problèmes spécifiques. La couche intermédiaire
300
Bilan 2006–2009 MEO
réalise la transformation (reformulation, enrichissement, simplification) des modèles vers les solveurs.
D’une part, un nouveau langage de modélisation à contraintes et objets a été défini dans la thèse de
R. Soto [35, 24, 29]. D’autre part, nous avons proposé une implémentation générique de ces architectures
par des techniques d’ingénierie des modèles [23, 14, 11]. Grâce à la métamodélisation, il est possible de
s’abstraire des langages, de représenter la sémantique des modèles et de définir déclarativement les règles
de transformation.
11.5.2 Algorithmique parallèle
Participants : Frédéric Goualard, Alexandre Goldsztejn
Les fondeurs de processeurs se trouvent de plus en plus confrontés aux limites de la physique
dans leur recherche d’augmentation des performances. De plus en plus, l’accélération des calculs s’obtient par leur parallélisation pour exploiter les architectures multi-cores et les jeux d’instructions SIMD
(Intel SSE, Intel AVX, . . .). Nous avons proposé de nouveaux algorithmes permettant d’obtenir une
arithmétique d’intervalles parallèle correcte et efficace utilisant les instructions SIMD SSE2 et SSE3 [2].
Une implémentation a été faite dans la librairie C++ GAOL développée au sein de l’équipe, en faisant à
notre connaissance la première librairie publique avec une implémentation vectorisée de l’arithmétique
d’intervalles.
Nous avons reformulé l’algorithme de calcul de la box consistance autorisant la parallélisation des
calculs sur les deux bornes des domaines des variables [16]. Une extension de cet algorithme basée sur
une adaptation dynamique de la taille des intervalles aux bornes a permis de gagner en robustesse [1].
11.5.3 Résolution de contraintes numériques
Cet axe constitue le cœur théorique et algorithmique de MEO où tous ses membres se retrouvent. La
stratégie de l’équipe a été d’attaquer différents problèmes du zoo des contraintes numériques présentant
des disjonctions, des dimensions non nulles, des incohérences ou une grande taille.
L’espace des solutions de systèmes d’équations sous-contraints permet de décrire des ensembles
caractéristiques rencontrés dans de nombreux domaines. Les algorithmes branch-and-prune classiques
sont mal adaptés car les approximations calculées au moyen des hyper-rectangles alignés sur les axes sont
peu précises. Nous avons introduit un nouveau domaine de calcul sur les parallépipèdes et nous avons
étendu les algorithmes comme l’opérateur de Newton par intervalles [17, 6] (prix du meilleur article à CP
2008). Ces travaux ont été rendus possibles grâce à l’expertise de l’équipe sur les théorèmes d’existence,
concrétisée en particulier par le résultat théorique [31]. Nous travaillons actuellement à l’application de
ces techniques à l’étude des espaces de travail des manipulateurs industriels.
Les algorithmes branch-and-prune doivent être spécialisés pour traiter des formules du premier ordre
où les atomes sont des contraintes numériques. Nous avons proposé un nouvel algorithme pour exploiter
la structure logique des formules disjonctives. Le principe est d’utiliser une méthode de disjonction constructive et d’exploiter la structure logique de ces problèmes, en particulier les trous dans les domaines
des variables [39, 27]. Nous avons également défini un nouvel algorithme pour résoudre des formules
conjonctives sur des inégalités avec des quantificateurs universels. Le principe est de projeter ces quantificateurs sur chaque atome de la formule et de les résoudre localement [19, 8].
Certaines méthodes de résolution de contraintes numériques non linéaires s’apparentent à la méthode
classique de Gauss-Seidel. Nous avons montré en 2006 [42] que, contrairement au cas linéaire bien
connu, il n’existe pas de transversale sélectionnable statiquement pour le cas non linéaire, mais que la
notion de ≪ meilleure transversale ≫ du point de vue de la réduction de domaine varie au cours de la
MEO
301
résolution. Nous avons alors proposé de voir le mécanisme de propagation dans un réseau de contraintes
comme un problème de bandit-manchot non stationnaire [40] et d’appliquer des algorithmes d’apprentissage chargés de découvrir et mettre à jour en cours de résolution les bonnes transversales [18].
Les algorithmes branch-and-prune s’appliquent mal aux problèmes ayant de grands espaces de solutions. Nous avons proposé une heuristique de recherche qui hybride les recherches en profondeur et
en largeur permettant de calculer des solutions représentatives de l’espace des solutions dès le début de
la recherche [13]. Nous ouvrons ainsi la voix vers une utilisation any-time de l’algorithme branch-andprune qui présente de nombreux avantages sur les méthodes du type Monte-Carlo.
De nombreux systèmes réels sont modélisés par des systèmes dynamiques. Notre objectif est de les
intégrer dans le cadre des contraintes numériques. Nous avons développé des méthodes pour la simulation [10, 4] et la vérification de propriétés [28, 5] de ces systèmes.
11.5.4 Optimisation globale
Participants : Laurent Granvilliers, Alexandre Goldsztejn, Nicolas Berger
L’optimisation globale par intervalles permet de fournir une approximation garantie de l’extremum
global d’une fonction non linéaire sur un domaine. La stratégie de MEO a été d’utiliser les résultats du
thème ≪ résolution de contraintes numériques ≫ et de développer de nouvelles recherches pour accélérer
les algorithmes branch-and-bound.
Une méthode de Newton de convergence quadratique dédiée à la résolution locale de systèmes
d’équations sous-contraints a été mise au point [25, 21]. Un algorithme hybride intégrant des méthodes
d’analyse par intervalles, de programmation par contraintes, de programmation non linéaire et des
métaheuristiques continues est actuellement en phase finale d’intégration dans la version 1.1 de Realpaver. Ces techniques ont été mises en œuvre pour majorer l’erreur de positionnement d’un manipulateur
industriel pour des erreurs bornées sur leurs articulations [3], en collaboration avec l’équipe MCM de
l’IRCCyN.
11.5.5 Applications
Nous avons étudié les contraintes géométriques et leurs applications en CAO [30, 15, 38]. La mise
en œuvre de hiérarchies de contraintes peut aider le concepteur dans la recherche des solutions attendues
lorsque son problème, sur-contraint, n’en admet pas grâce au mécanisme de relaxation automatique basée
sur les préférences de l’utilisateur. De plus, cette approche s’intègre naturellement avec les méthodes de
résolution par décomposition [37] utilisées dans ce domaine. Nous avons écrit un état de l’art [37] des
méthodes du domaine et un chapitre sur la modélisation géométrique avec contraintes [32].
L’analyse de sensibilité des solutions d’un problème de contraintes ou d’optimisation revêt une
grande importance pratique. Nous avons abordé ce problème dans le cadre de l’étude de la sensibilité de
la position d’un manipulateur industriel aux erreurs de constructions au moyen d’outils d’optimisation
globale [3]. D’autre part, nous avons proposé une méthode simple et efficace pour l’analyse de sensibilité
pour de petites perturbations [26].
Nous avons étudié des problèmes de conception architecturale de systèmes énergétiques et
mécaniques dans la thèse de R. Chenouard. Un système de conditionnement d’air complexe a été totalement modélisé et résolu [34, 12]. Nous avons également proposé un nouvel algorithme de recherche
de solutions représentatives [13].
302
Bilan 2006–2009 MEO
11.6 Logiciels
GAOL
URL
Participants : F. Goualard (resp), F. Goualard
Type de licence : LGPL
Mots clés: C++, arithmétique d’intervalles
GAOL est une librairie C++ pour l’arithmétique d’intervalles. Elle offre des fonctionnalités originales pour la résolution de contraintes rarement disponibles dans les autres librairies. GAOL a servi
d’implémentation de référence pour la définition de la section concernant les fonctions inverses multivaluées [22] lors de la rédaction de la proposition d’introduction de l’arithmétique d’intervalles dans
le standard du langage C++. Dans ses versions successives, GAOL a été téléchargée près de trois mille
fois. La version 4.0.0 disponible en 2010 introduit une implémentation SIMD de l’arithmétique d’intervalles, caractéristique actuellement unique parmi les librairies comparables. GAOL est utilisée dans
Realpaver [36], et dans divers projets de recherche à travers le monde. Une version sous licence non
LGPL est utilisée dans l’outil ConstraintExplorer de Dassault Aviation.
Realpaver
URL
Participants : L. Granvilliers (resp), C. Jermann
Type de licence : LGPL
Mots clés: C++, langage de modélisation, résolution de contraintes numériques, optimisation globale
Realpaver est une librairie C++ fournissant un langage de modélisation de problèmes numériques non
linéaires de type AMPL et des méthodes de résolution et d’optimisation globale [36]. Le cœur est constitué d’un ensemble d’opérateurs de contraction basés sur l’arithmétique des intervalles implémentée
dans GAOL [22]. Ces opérateurs implémentent des méthodes de l’analyse par intervalles et de la programmation par contraintes. Nous intégrons actuellement dans la version 1.1 des outils de la programmation non linéaire et des métaheuristiques continues pour obtenir des algorithmes d’optimisation efficaces. L’objectif est de diffuser cette version dans les prochains mois. Realpaver est cité comme logiciel
de référence dans de nombreuses publications. Il a été utilisé avec succès dans des applications en automatique, en conception et en robotique.
11.7 Contrats et subventions
L’équipe a ciblé quelques projets sur des thèmes scientifiques pointus développés avec des partenaires
académiques.
MEO
303
Type
Régional
Régional
Régional
National
International
International
Tableau des contrats et subventions
Institution
Nom
Début/Durée
gestionnaire
MILES / axe SAD
CPER
01.2006/36 mois
RoboCoop
AtlanSTIC
01.2007/12 mois
Multi-modèles
AtlanSTIC
01.2007/12 mois
SIROPA
ANR PsiRob
04.2007/48 mois
Hybrid Systems
NII-Tokyo
01.2007/36 mois
Constraint
NII-Tokyo
01.2006/12 mois
Hierarchies
Montant
15 Ke
2.5 Ke
2.5 Ke
67 Ke
24 Ke
8 Ke
11.7.1 Contrats directs avec des entreprises
11.7.2 Projets collaboratifs
Actions régionnales
MILES / axe SAD
Début : 01/01/2006, durée : 24 mois
Partenaires : CREAM, IRCCyN (ACSED, COMMANDE, IVGI, MCM, SLP), IREENA, LERIA
(MOA, ILCN), LINA (COD, COMBI, Contraintes, MEO, ROOM), LISA
Coordinateur :
X. Gandibleux, P. Depincé
Participants : L. Granvilliers (resp), C. Jermann
Montant équipe : 15 Ke
Montant total : 115 Ke
Mots clés : Optimisation, discret-continu, SAT+Intervalles
En collaboration avec LERIA-MOA, étude de la combinaison des méthodes SAT et Intervalles pour la
résolution de formules logiques du premier ordre sur contraintes numériques, et de l’utilisation d’algorithmes d’apprentissage pour l’accélération de la phase de propagation des algorithmes de résolution
de contraintes numériques.
RoboCoop
Début : 01/01/2007, durée : 12 mois
Partenaires : LINA (Contraintes, MEO), IRCCYN (MCM)
Coordinateur : C. Jermann
Participants : C. Jermann (resp),
Montant équipe : 2.5 Ke
Montant total : 5 Ke
Mots clés : Robotique, manipulateurs sériels coopératifs, calcul de trajectoire
En collaboration avec IRCCYN-MCM, étude des approches par calcul d’intervalles pour le calcul de
trajectoires de robots sériels coopératifs (type porteur-usineur).
Multi-modèles
Début : 01/01/2007, durée : 12 mois
Partenaires : LINA (MEO), IRCCYN (MCM)
Coordinateur : C. Jermann
Participants : L. Granvilliers (resp), C. Jermann
Montant équipe : 2.5 Ke
Montant total : 5 Ke
Mots clés : Robotique, manipulateurs parallèles
En collaboration avec IRCCYN-MCM, étude des approches par calcul d’intervalles pour la conception
préliminaire de robots parallèles.
304
Bilan 2006–2009 MEO
Projets nationaux
ANR SIROPA
Début : 01/04/2007, durée : 48 mois
Partenaires : INRIA Sophia-Antipolis (COPRIN), INRIA Rocquencourt (SALSA), IRCCYN (MCM),
IRMAR, LINA (MEO)
Coordinateur : J.-P. Merlet (COPRIN)
Participants : L. Granvilliers (resp), A. Goldsztejn, F. Goualard, D. Ishii, C. Jermann
Montant équipe : 67 Ke
Montant total : 582 Ke
Mots clés : Robotique, Manipulateurs parallèles, Singularités, Espace de travail dextre
Etude des SIngularités des RObots PArallèles. Le point fort de l’étude réside dans la pluralité des approches utilisées (algébriques, analytiques, intervalles) et l’utilisation complémentaire de celles-ci est
l’une des contributions attendues. L’un des objectifs fixés est le calcul de l’espace de travail dextre (sans
singularités) et des aspects généralisés (composantes connexes maximales de l’espace dextre) de ces
robots. MEO bénéficie d’un financement de postdoc (Daisuke Ishii) pour travailler sur ce sujet.
Projets internationaux
Hybrid Systems
Début : 01/01/2007, durée : 36 mois
Partenaires : LINA (COMBI, MEO), NII, Waseda University
Coordinateur : K. Ueda (Waseda
University)
Participants : A. Goldsztejn (resp), C. Jermann
Montant équipe : 24 Ke
Montant total : 48 Ke
Mots clés : Systèmes hybrides, simulation, vérification, bio-informatique
Etude des approches par intervalles pour la simulation garantie de systèmes hybrides (combinant phases
d’évolution continues et transition de phases discrètes) et la vérification de propriétés (atteignabilité,
stabilité, ...) de ces systèmes. Application en biologie systémique.
Constraint Hierarchies
Début : 01/01/2006, durée : 12 mois
Partenaires : LINA (Contraintes, MEO), NII
Participants : C. Jermann (resp),
Montant équipe : 8 Ke
Mots clés : Préférences, Contraintes, Optimisation
Coordinateur : K. Satoh (NII)
Montant total : 16 Ke
Etude des approches à base de contraintes et optimisation globale pour la résolution garantie de
problèmes de hiérarchies de contraintes (problèmes de contraintes avec préférences permettant la relaxation automatique en cas d’absence de solutions).
11.7.3 Accords de coopération
11.8 Rayonnement
11.8.1 Évaluation de la recherche
Comités de programme (conférences) et de lecture (revues)
– Revues
– Comités éditoriaux de revue scientifique
MEO
305
– L. Granvilliers : Constraint Programming Letters
– Comités de lecture (numéro spécial d’une revue)
– C. Jermann : International Journal of Computational Geometry and Applications (IJCGA),
numéro spécial Geometric Constraints (2006)
– Rapports
– F. Goualard : Constraints (2006, 2007), Constraint Processing Letters (2008), Mathematical
Reviews (2008, 2009, 2010)
– A. Goldsztejn : Journal of Logic and Algebraic Programming (2007), SIAM Journal on Matrix Analysis and Applications (2007, 2008), International Journal of Computers Mathematics (2008), AI journal (2008), Applied Mathematics and Computation (2008), International
Journal of Approximate Reasoning (2008), Annals of Operations Research (2009), Reliable
Computing (2009)
– L. Granvilliers : Theoretical Computer Science, Constraints, Computing, ACM Transactions
on Programming Languages and Systems, IEEE Transactions on Automatic Control, Journal of Numerical Algorithms, Parallel Processing Letters, Journal of Functional and Logic
Programming, Archives of Control Sciences
– C. Jermann : Artificial Intelligence, Artificial Intelligence for Engineering Design, Analysis
and Manufacturing, Constraints, Computer Aided Design and Applications
– Conférences
– Comités de programme
– A. Goldsztejn : Workshop on Quantification in Constraint Programming (2008), Conference
on Principles and Practice of Constraint Programming (2009), Journées Francophones de
Programmation par contraintes (2009)
– F. Goualard : Journées Francophones de Programmation par Contraintes (2008)
– L. Granvilliers : Conference on Principles and Practice of Constraint Programming (2006),
Workshop on Constraint Programming Tools (2006), ACM Symposium on Applied Computing (2006), Workshop on Bound Reduction Techniques for Constraint Programming and
Mixed-Integer Nonlinear Programming (2009), Workshop on Integration of Mixed Integer
Non-Linear Programming and CP (2010), Workshop on Quantification in Constraint Programming (2010)
– C. Jermann : Workshop on Interval Methods (2010), Geometric Constraints and Reasonning,
ACM Symposium on Applied Computing (2010), Workshop on Interval Analysis, Constraint
Propagation and Applications (2006, 2009), Journées Francophones de Programmation par
Contraintes (2006, 2007)
– Rapports pour un membre d’un comité de programme
– A. Goldsztejn : CP (2007, 2008, 2009), CPAIOR 2008, IJCAI (2007, 2009), IntCP 2009,
JFPC 2009, NOLCOS 2010
– F. Goualard : AISC 2006, RCA 2006, PPCP 2007, JFPC 2007, PPCP 2008, CPAIOR 2008,
JFPC 2008, PPAM 2009
– L. Granvilliers : IJCAI (2007, 2009), CP (2007, 2008, 2009), SAC (2007, 2008, 2009). . .
– C. Jermann : CP, CPAIOR, SAC
Expertises régions, ANR, Europe, AERES, ...
– A. Goldsztejn : expert de l’ANR pour l’évaluation d’un projet jeune chercheur (2010)
– F. Goualard : expert auprès de la NSF (USA) pour l’évaluation d’un NSF CAREER Proposal
(2009)
306
Bilan 2006–2009 MEO
Rapports de thèse, comité de sélection, concours INRIA, ...
– F. Goualard : rapporteur pour la thèse de Michael Heusch (2006)
– F. Goualard : membre de la commission de sélection en informatique de l’université d’Orléans
(2009)
– L. Granvilliers : président de la commission de spécialistes 27e section de Nantes (2007 et 2008),
membre externe du comité de sélection 27e section de l’université d’Angers (2009)
– C. Jermann : membre titulaire élu de la commission de spécialistes 27e section de Nantes (20062008), membre externe du comité de sélection 27e section de l’université d’Angers (2009)
11.8.2 Animation de la communauté
Participation à des steering comittees, des GDR et leurs groupes de travail
Conférences invitées
– F. Goualard : GAMM-IMACS SCAN 2008 (Interval Multivalued Inverse Functions : Relational
Interval Arithmetic and its Use)
Organisation de conférences, d’ateliers, d’écoles d’été
– Équipe MEO : SWIM 2010
– C. Jermann : Workshop on Interval Analysis, Constraint Propagation and Applications (2006,
2009)
Collaborations nationales et internationales
– National Institute for Informatics et Waseda University (Japon) [15, 30, 38]
– Université de Nice Sophia Antipolis et INRIA Sophia Antipolis [25, 20, 19, 8, 21, 37]
– Universités de Bourgogne et de Strasbourg [32, 37]
11.9 Formation par la recherche
Pilotage d’écoles doctorales, de spécialités de filières, de master
– L. Granvilliers : Responsable de la seconde année du master ORO (2008, 2009)
– C. Jermann : Responsable adjoint du master ALMA (2005-2010)
Participation aux enseignements de master, de filière, d’école doctorale
– Etablissements tutelles
– A. Goldsztejn : responsable du module Recherche Opérationnelle II (1ère année master ORO,
40h)
– L. Granvilliers : responsable du module Advanced Global Optimization (2ème année master
ORO, 24h)
– C. Jermann : Conception assistée par ordinateur (24h en master ALMA), Etude de cas en
Ingénierie et CAO (12h en master ORO)
– Autres établissements
MEO
307
HDR et thèses soutenues sur la période
Nom
Publications
Thèses
Institution
Soutenance
R. Chenouard
[33]
ENSAM Bordeaux
17/12/2007
M. Heusch
[41]
UNantes
30/01/2006
R. Soto
[9]
UNantes
25/06/2009
Devenir
MCF Ecole Centrale de Nantes
Ingénieur
développement
ILOG
Professeur
assistant
PUCV
Chili
11.10 Gouvernance
Organisation de l’équipe, animation scientifique
Les membres de cette équipe se rencontrent tous les jours. En plus des discussions courantes devant
un tableau, ils organisent un séminaire interne mensuel leur permettant de présenter des travaux aboutis
avant une conférence, des travaux en cours et d’accueillir des membres extérieurs.
Stratégies de publication
L’équipe vise les meilleures conférences (CP, IJCAI) et revues (Constraints, ACM TOMS). Les publications font souvent suite à un long travail d’implémentation au sein des logiciels de l’équipe et d’autres
logiciels standards de calcul scientifique.
L’impact en optimisation globale est faible à ce jour, en partie à cause de retards pris dans le
développement des logiciels. Tous les moyens sont mis en œuvre actuellement pour réussir notre pari
scientifique (montrer que les calculs certifiés permettent de résoudre des problèmes complexes en optimisation globale).
Autres éléments de stratégie de l’équipe
L’équipe collabore avec des spécialistes mondiaux de l’optimisation globale et de l’analyse par intervalles (A. Neumaier, N. Nedialkov, etc.).
11.11 Auto-évaluation
MEO a été évaluée favorablement lors de l’évaluation du CNRS en 2007. Dans le quadriennal en
cours, elle a réussi à avoir un impact fort sur l’algorithmique des contraintes numériques en cohérence
avec les applications en conception et robotique. Les publications ont été meilleures en nombre et en
qualité que celles de l’équipe ≪ contraintes continues et applications ≫ dans le quadriennal précédent.
Elle n’a cependant pas encore atteint ses objectifs de publication en optimisation globale.
Dans ce contexte, la stratégie de MEO est de fusionner avec l’équipe ROOM en 2012 et de rassembler
les forces dans une équipe d’optimisation. Le thème ≪ modélisation et transformations de modèles ≫ est
abandonné faute de moyens au profit de l’algorithmique.
308
Bilan 2006–2009 MEO
11.12 Projet scientifique 2012-2015
Dans le cadre du nouveau quadriennal, nous présenterons la continuité de nos travaux dans le contexte
de la nouvelle équipe OPTI.
11.13 Bibliographie
11.13.1 Publications de référence de l’équipe dans la période
[1] http ://hal.archives-ouvertes.fr/hal-00428678/en/
A. G OLDSZTEJN et F. G OUALARD. Box consistency through Adaptive Shaving. In Proceedings of
ACM SAC 2010 25th Symposium On Applied Computing, 2010, Sierre, Suisse, pages 2049–2054
[2] http ://hal.archives-ouvertes.fr/hal-00288456/en/
F. G OUALARD. Fast and Correct SIMD Algorithms for Interval Arithmetic. In Proceedings of
PARA ’08, 2010, Trondheim, Norvège. Springer, 2010, Lecture Notes in Computer Science
[3] http ://hal.archives-ouvertes.fr/hal-00462935/en/
N. B ERGER, R. S OTO, A. G OLDSZTEJN, S. C ARO, et P. C ARDOU. Finding the Maximal Pose Error in Robotic Mechanical Systems Using Constraint Programming. In IEA-AIE 2010 The Twenty
Third International Conference on Industrial, Engineering & Other Applications of Applied Intelligent Systems (IEA-AIE 2010), 2010, Cordoba, Espagne
[4] http ://hal.archives-ouvertes.fr/hal-00481169/en/
D. I SHII, K. U EDA, H. H OSOBE, et A. G OLDSZTEJN. Interval-based Solving of Hybrid Constraint
Systems. In Proceedings of the 3rd IFAC Conference on Analysis and Design of Hybrid Systems,
2010, Espagne, pages 144–149
[5] http ://hal.archives-ouvertes.fr/hal-00481202/en/
A. G OLDSZTEJN et W. H AYES. A New Containment Method For Rigorous Shadowing. In International Conference on SCIentific Computation And Differential Equations, 2009, France
[6] http ://hal.archives-ouvertes.fr/hal-00481066/en/
A. G OLDSZTEJN et L. G RANVILLIERS. A New Framework for Sharp and Efficient Resolution of
NCSP with Manifolds of Solutions. Constraints, 2009, 15(2) : 190–212
[7] http ://hal.archives-ouvertes.fr/hal-00460761/en/
R. C HENOUARD et F. J OUAULT. Automatically Discovering Hidden Transformation Chaining Constraints. In Model Driven Engineering Languages and Systems ACM/IEEE 12th International Conference on Model Driven Engineering Languages and Systems, 2009, Denver États-Unis. Springer
Berlin / Heidelberg, 2009, volume 5795/2009 of Lecture Notes in Computer Science, pages 92–106
[8] http ://hal.archives-ouvertes.fr/hal-00431129/en/
A. G OLDSZTEJN, M. RUEHER, et M. C LAUDE. Efficient Handling of Universally Quantified Inequalities. Constraints, 2009, 14(1) : 117–135
[9] http ://tel.archives-ouvertes.fr/tel-00483262/fr/
R. S OTO. Langages et transformation de modèles en programmation par contraintes. Thèse de
doctorat, Université de Nantes, 2009
MEO
309
[10] http ://hal.archives-ouvertes.fr/hal-00411330/en/
A. G OLDSZTEJN. On the Exponentiation of Interval Matrices, 2009. 65G20 65G40 65F99 65L70
[11] http ://hal.archives-ouvertes.fr/hal-00456824/en/
R. C HENOUARD, L. G RANVILLIERS, et R. S OTO. Rewriting Constraint Models with Metamodels.
In V. B ULITKO et J. B ECK, réds., SARA2009 Symposium proceedings The eight symposium on
abstraction, reformulation, and approximation, 2009, Lake Arrowhead, États-Unis. AAAI Press,
2009, pages 42–49
[12] http ://hal.archives-ouvertes.fr/hal-00426706/en/
R. C HENOUARD, L. G RANVILLIERS, et P. S ÉBASTIAN. Search Heuristics for Constraints-Aided
Design. Artificial Intelligence for Engineering Design, Analysis and Manufacturing, 2009, 23(2) :
175–195
[13] http ://hal.archives-ouvertes.fr/hal-00421506/en/
R. C HENOUARD, A. G OLDSZTEJN, et C. J ERMANN. Search Strategies for an Anytime Usage of
the Branch and Prune Algorithm. In Proceedings ofthe twenty-first International Joint Conference
on Artificial Intelligence, 2009, États-Unis, pages 468–473
[14] http ://hal.archives-ouvertes.fr/hal-00456940/en/
R. C HENOUARD, L. G RANVILLIERS, et R. S OTO. Using ATL to define advanced and flexible
constraint model transformations. In F. J OUAULT, réd., Proceedings of 1st International Workshop
on Model Transformation with ATL MtATL2009, 2009, Nantes, France. CEUR Workshop, 2009,
pages 102–118
[15] http ://hal.archives-ouvertes.fr/hal-00421496/en/
C. J ERMANN et H. H OSOBE. A constraint hierarchies approach to geometric constraints on
sketches. In Proceedings of the 2008 ACM symposium on Applied computing Symposium on Applied Computing, 2008, Brésil, pages 1843–1844
[16] http ://hal.archives-ouvertes.fr/hal-00288207/en/
F. G OUALARD et A. G OLDSZTEJN. A Data-Parallel Algorithm to Reliably Solve Systems of Nonlinear Equations. In I. computer S OCIETY, réd., Procs. of the Ninth International Conference on
Parallel and Distributed Computing, Applications and Technologies (PDCAT ’08), 2008, Dunedin,
Nouvelle-Zélande. IEEE computer Society, 2008, pages 39–46
[17] http ://hal.archives-ouvertes.fr/hal-00480819/en/
A. G OLDSZTEJN et L. G RANVILLIERS. A New Framework for Sharp and Efficient Resolution
of NCSP with Manifolds of Solutions. In P. J. S TUCKEY, réd., Proceedings of 14th International
Conference on Principles and Practice of Constraint Programming CP, 2008, France. Springer,
2008, volume 5202 of LNCS, pages 190–204
[18] http ://hal.archives-ouvertes.fr/hal-00421423/en/
F. G OUALARD et C. J ERMANN. A Reinforcement Learning Approach to Interval Constraint Propagation. Constraints, 2008, 13(1-2) : 206–226
[19] http ://hal.archives-ouvertes.fr/hal-00297250/en/
A. G OLDSZTEJN, C. M ICHEL, et M. R UEHER. An Efficient Algorithm for a Sharp Approximation
of Universally Quantified Inequalities. In Proceedings of the 2008 ACM symposium on Applied
computing ACM symposium on Applied computing, 2008, Fortaleza, Ceara, Brésil. ACM, 2008,
pages 134–139
310
Bilan 2006–2009 MEO
[20] http ://hal.archives-ouvertes.fr/inria-00293749/en/
A. G OLDSZTEJN, C. M ICHEL, et M. R UEHER. An Efficient Algorithm for a Sharp Approximation
of Universally Quantified Inequalities. In Gilles T ROMBETTONI, réd., JFPC 2008- Quatrièmes
Journées Francophones de Programmation par Contraintes, 2008, Nantes, France, page 373
[21] http ://hal.archives-ouvertes.fr/hal-00481388/en/
M. RUEHER, A. G OLDSZTEJN, Y. L EBBAH, et C. M ICHEL. Capabilities of Constraint Programming in Rigorous Global Optimization. In 2008 International Symposium on Nonlinear Theory
and its Applications, 2008, Hongrie
[22] http ://hal.archives-ouvertes.fr/hal-00422053/en/
F. G OUALARD. Interval Multivalued Inverse Functions : Relational Interval Arithmetic and its Use.
In Procs. of 13th GAMM - IMACS International Symposium on Scientific Computing, Computer
Arithmetic and Verified Numerical Computations, 2008, El Paso, TX États-Unis
[23] http ://hal.archives-ouvertes.fr/hal-00456549/en/
R. C HENOUARD, L. G RANVILLIERS, et R. S OTO. Model-Driven Constraint Programming. In
PPDP ’08 Proceedings of the 10th International ACM SIGPLAN Conference on Principles and
Practice of Declarative Programming, 2008, Valence, Espagne. ACM, 2008, pages 236–246
[24] http ://hal.archives-ouvertes.fr/hal-00480818/en/
R. S OTO et L. G RANVILLIERS. On the Pursuit of a Standard Language for Object-Oriented Constraint Modeling. In New Challenges in Applied Intelligence Technologies, Studies in Computational Intelligence, pages 123–133. Springer, 2008
[25] http ://hal.archives-ouvertes.fr/hal-00297086/en/
A. G OLDSZTEJN, Y. L EBBAH, C. M ICHEL, et M. RUEHER. Revisiting the upper bounding process
in a safe Branch and Bound algorithm. In P. S TUCKEY, réd., Proceedings of the 14th International
Conference on Principles and Practice of Constraint Programming, 2008, Sydney, Australie, volume LNCS, pages 598–602
[26] http ://hal.archives-ouvertes.fr/hal-00339377/en/
A. G OLDSZTEJN. Sensitivity Analysis Using a Fixed Point Interval Iteration, 2008
[27] http ://hal.archives-ouvertes.fr/hal-00421462/en/
T. D OUILLARD et C. J ERMANN. Splitting heuristics for disjunctive numerical constraints. In
Proceedings of the 2008 ACM Symposium on Applied Computing, 2008, Brésil, pages 140–144
[28] http ://hal.archives-ouvertes.fr/hal-00431183/en/
C. P IETER et A. G OLDSZTEJN. The Reach-and-Evolve Algorithm for Reachability Analysis of
Nonlinear Dynamical Systems. In Electronic Notes in Theoretical Computer Science Second Workshop on Reachability Problems in Computational Models, 2008, Royaume-Uni, volume 223, pages
87–102
[29] http ://hal.archives-ouvertes.fr/hal-00480817/en/
R. S OTO et L. G RANVILLIERS. Tuning Constrained Objects. In Proceedings of 21st International
Conference on Industrial, Engineering and Other Applications of Applied Intelligent Systems AIEIEA, 2008, France. Springer, 2008, volume 5027 of LNCS, pages 408–414
[30] http ://hal.archives-ouvertes.fr/hal-00421498/en/
C. J ERMANN et H. H OSOBE. Une approche orientée hiérarchie de contraintes pour la résolution de
contraintes géométriques. In 7e Conférence Internationale de MOdélisation et SIMulation, 2008,
France
MEO
311
[31] http ://hal.archives-ouvertes.fr/hal-00431164/en/
A. G OLDSZTEJN. Comparison of the Hansen-Sengupta and the Frommer-Lang-Schnurr Existence
Tests. Computing, 2007, 79(1) : 53–60
[32] http ://hal.archives-ouvertes.fr/hal-00481553/en/
C. J ERMANN, D. M ICHELUCCI, et P. S CHRECK. Modélisation géométrique par contraintes. In
D. B ECHMANN et B. P ÉROCHE, réds., Informatique graphique, modélisation géométrique et animation, pages 185–210. Hermés Science, 2007
[33] http ://tel.archives-ouvertes.fr/tel-00482208/en/
R. C HENOUARD. Résolution par satisfation de contraintes appliquée à l’aide à la décision en conception architecturale. Thèse de doctorat, Ecole nationale supérieure d’arts et métiers - ENSAM,
2007
[34] http ://hal.archives-ouvertes.fr/hal-00480815/en/
R. C HENOUARD, P. S ÉBASTIAN, et L. G RANVILLIERS. Solving an Air Conditioning Problem in
an Embodiment Design Context using Constraint Satisfaction Techniques. In C. B ESSI ÈRE, réd.,
Proceedings of 13th International Conference on Principles and Practice of Constraint Programming CP, 2007, France. Springer, 2007, volume 4741 of LNCS, pages 18–32
[35] http ://hal.archives-ouvertes.fr/hal-00480816/en/
R. S OTO et L. G RANVILLIERS. The Design of COMMA : An Extensible Framework for Mapping
Constrained Objects to Native Solver Models. In Proceedings of 19th IEEE International Conference on Tools with Artificial Intelligence ICTAI, 2007, France. IEEE Computer Society, 2007,
pages 243–250
[36] http ://hal.archives-ouvertes.fr/hal-00480813/en/
L. G RANVILLIERS et F. B ENHAMOU. Algorithm 852 : RealPaver : an interval solver using constraint satisfaction techniques. ACM Transactions on Mathematical Software, 2006, 32(1) : 138–
156
[37] http ://hal.archives-ouvertes.fr/hal-00481267/en/
C. J ERMANN, G. T ROMBETTONI, B. N EVEU, et P. M ATHIS. Decomposition of Geometric Constraint Systems : a Survey. Internation Journal of Computational Geometry and Applications, 2006,
16(5-6) : 379–414. CNRS MathSTIC
[38] http ://hal.archives-ouvertes.fr/hal-00481543/en/
F. B ENHAMOU, M. C EBERIO, P. C ODOGNET, H. H OSOBE, C. J ERMANN, K. S ATOH, et K. U EDA.
Franco-Japanese Research Collaboration on Constraint Programming. Progress in Informatics,
2006, 3 : 59–65
[39] http ://hal.archives-ouvertes.fr/hal-00481596/en/
T. D OUILLARD, C. J ERMANN, et F. B ENHAMOU. Intelligent Splitting for Disjunctive Numerical
CSPs. In Third international workshop on interval analysis, constraint propagation and applications (IntCP), 2006, France, pages 33–37
[40] http ://hal.archives-ouvertes.fr/inria-00085772/en/
F. G OUALARD et C. J ERMANN. La propagation d’intervalles vue comme un problème de banditmanchot non stationnaire. In Journées Francophones de Programmation par Contraintes, 2006,
Nı̂mes - Ecole des Mines d’Alès
312
Bilan 2006–2009 MEO
[41] http ://tel.archives-ouvertes.fr/tel-00481598/fr/
M. H EUSCH. Modélisation et résolution d’une application d’aide au déploiement d’antennes radio
en programmation par contraintes sur le discret et le continu. Thèse de doctorat, Université de
Nantes, 2006
[42] http ://hal.archives-ouvertes.fr/hal-00480789/en/
F. G OUALARD et C. J ERMANN. On the Selection of a Transversal to Solve Nonlinear Systems with
Interval Arithmetic. In Procs. of the 6th International Conference on Computational Science (ICCS
2006), 2006, Reading, Royaume-Uni. Springer, 2006, volume 3991 of Lecture Notes in Computer
Science, pages 332–339
11.13.2 Bibliographie externe
[43] K. R. A PT. The Essence of Constraint Propagation. Theoretical Computer Science, 1999, 221(1-2) :
179–210
[44] P. VAN H ENTENRYCK, D. M C A LLESTER, et D. K APUR. Solving Polynomial Systems Using a
Branch and Prune Approach. SIAM Journal of Numerical Analysis, 1997, 34(2) : 797–827
[45] A. C OLMERAUER. An Introduction to Prolog III. Communications of the ACM, 1990, 33(7) :
69–90
[46] W. J. O LDER et A. V ELLINO. Extending Prolog with Constraint Arithmetic on Real Intervals. In
Proceedings of IEEE Canadian Conference on Electrical and Computer Engineering, 1990, New
York. IEEE Computer Society Press, 1990
[47] J. JAFFAR et J.-L. L ASSEZ. Constraint Logic Programming. In POPL’87 : Proceedings 14th ACM
Symposium on Principles of Programming Languages, 1987, Munich. ACM, 1987, pages 111–119
[48] J. G. C LEARY. Logical arithmetic. Future Generation Computing Systems, 1987, 2(2) : 125–149
[49] A. M ACKWORTH. Consistency in Networks of Relations. Artificial Intelligence, 1977, 8(1) : 99–
118
[50] D. L. WALTZ. Generating Semantic Descriptions from Drawings of Scenes with Shadows. In P. H.
W INSTON, réd., The Psychology of Computer Vision. McGraw Hill, 1975
[51] U. M ONTANARI. Networks of Constraints : Fundamental Properties and Applications to Picture
Processing. Information Science, 1974, 7(2) : 95–132
[52] D. B ERTSEKAS. Nonlinear Programming. Athena Scientific, 1999, 2nd édition
[53] E. R. H ANSEN. Global Optimization using Interval Analysis. Marcel Dekker, 1992
[54] R. B. K EARFOTT. Rigorous Global Search : Continuous Problems. Nonconvex Optimization and
Its Applications. Kluwer Academic Publishers, 1996
[55] R. E. M OORE. Interval Analysis. Prentice-Hall, Englewood Cliffs, NJ, 1966
[56] A. N EUMAIER. Interval Methods for Systems of Equations. Cambridge University Press, 1990
[57] H. D. S HERALI et W. P. A DAMS. A Reformulation-Linearization Technique for Solving Discrete
and Continuous Nonconvex Problems. Kluwer Academic Publishers, 1999
Équipe
ROOM
Chapeau-résumé
L’activité scientifique de l’équipe “Recherche Opérationnelle et Optimisation Multi-objectif
(ROOM)” est guidée par la problématique de l’optimisation multiobjectif et ses applications en environnement complexes. Plus précisément, les travaux s’adressent (1) à la résolution exacte et approchée
de problèmes d’optimisation combinatoire multiobjectif et (2) à l’expérimentation et insertion de processus décisionnels in situ. Ses productions se mesurent par le développement de connaissances, méthodes,
algorithmes et codes de calculs performants en réponse à cette classe de problèmes d’optimisation.
Tout en restant dûment active sur les questions relatives aux méthodes de résolution approchées relevant des métaheuristiques, les efforts de l’équipe se concentrent ces dernières années sur les méthodes
de résolution exacte. C’est une voie risquée du fait des nombreux verrous difficiles à lever, et que
des résultats significatifs s’obtiennent à l’issue d’efforts et investissements consentis sur le long terme.
Cependant il y a ici de vrais challenges scientifiques auxquels l’équipe à présent structurée s’attaque
seule ou en collaboration. Cette orientation se constate dans les thèses en cours dans l’équipe.
Résolument inscrite dans la communauté “recherche opérationnelle”, l’équipe ROOM participe aux
conférences scientifiques majeures du domaine (MOPGP, MCDM, EMO, MIC, EURO, ROADEF), publie dans les journaux reconnus dans le domaine et participe à l’animation scientifique tant au niveau
national qu’international. Positionnée sur l’optimisation multiobjectif depuis plus de 15 ans, elle s’est
313
314
Bilan 2006–2009 ROOM
dotée d’un réseau scientifique conséquent (échelle régionale, nationale et internationales) à partir duquel
de nombreuses collaborations inscrites dans le temps sont mesurables dans nos productions. Ce réseau
est également mis à contribution dans le cadre du master international “Optimisation en Recherche
opérationnelle”, de parcours professionnel et recherche. L’équipe est complètement impliquée dans cette
formation en assurant fonctionnement et responsabilités pour la communauté “optimisation” nantaise.
12.1 Composition de l’équipe au 30/06/2010
Nom
GANDIBLEUX
PRZYBYLSKI
Nom
JORGE
MEREL
FOUCHAL
VINCENT
GUEDAS
DEGOUTIN
Nom
PRZYBYLSKI
EHRGOTT
ISHIZAKA
HUGOT
BELMOKHTAR
COUTAND
Nom
RAITH
LI
PINOT
Permanents au 30/06/2010
Position
Institution
PR
UN
MC
UN
Doctorants au 30/06/2010
Prénom
Position
Institution
Julien
ATER
UN
Aurélien
A
UN
Hugo
Projet MILES
UN
Thomas
Nantes Métropole
UN
Benoit
ATER
ECN
Fabien
A
autre
Personnels temporaires sur la période 2006-2010
Prénom
Position
Institution
Arrivée
Anthony
ATER
UN
12/2006
Matthias
DR2
CNRS
12/2006
Alessio
Associé
Audencia
12/2006
Hadrien
PostDoc
CNRS
09/2007
Sana
ATER
UN
12/2006
Valérie
Assistante
CDD
09/2008
Visiteurs 3 mois ou plus sur la période 2006-2010
Prénom
Position
Institution
Arrivée
Andréa
doctorant
autre
08/2007
Hui
PostDoc
autre
07/2007
Guillaume
ATER
ECN
09/2008
Prénom
Xavier
Anthony
Arrivée
12/2006
10/2007
Arrivée
12/2006
10/2008
10/2008
10/2009
09/2007
12/2006
Départ
09/2007
05/2008
01/2007
01/2008
09/2007
05/2009
Départ
12/2007
07/2010
09/2010
Note : Plusieurs thèses font l’objet d’un co-encadrement : MEREL Aurélien, co-encadrement avec Sophie Demassey (EMN) ; FOUCHAL Hugo, co-encadrement avec Fabien Lehuédé (EMN) ; VINCENT
Thomas, co-encadrement avec Anthony Przybylski ; GUEDAS Benoit, co-encadrement avec Philippe
Dépincé (ECN) ; DEGOUTIN Fabien, co-encadrement avec Joaquin Rodriguez (INRETS) et Arnaud
Fréville (CR Nord-PdC).
Évolution de l’équipe sur la période 01/01/2006-30/06/2010
L’équipe ayant été créée en décembre 2006, toutes les arrivées dans l’équipe figurent au 12/2006 au
plus tôt. Plusieurs mouvements de personnes sont à relever au cours du quadriennal écoulé :
ROOM
315
– Matthias Ehrgott, senior lecturer à l’Université d’Auckland, a été membre de l’équipe en qualité
de DR2 CNRS à raison de 50% durant deux ans (exerçant ses fonctions d’enseignant-chercheur à
l’Université d’Auckland durant l’autre mi-temps). Il a renoncé à son poste CNRS en mai 2008 pour
raison familiale (difficultés d’intégration de sa conjointe d’expression anglophone sur Nantes).
– Alessio Ishizaka, docteur de l’Université de Basel (CH), a été membre associé à l’équipe alors
qu’il était en fonction à Audencia Management School. Il a obtenu un poste de senior lecturer au
premier semestre 2007 à l’Université de Portsmouth (UK) où il est en fonction depuis.
– Hadrien Hugot, docteur de l’Université de Paris 9 Dauphine, a obtenu un poste de post-doc CNRS
d’un an à compter de la rentrée 2007. Il a pris ses fonctions chez Eurodécision (Versailles) en
février 2008 où il exerce depuis, l’amenant à mettre un terme prématurément son post-doctorat.
– Sana Belmokhtar a occupé des fonctions d’ATER pendant qu’elle terminait sa thèse sous la direction d’Alexandre Dolgui (Ecole des Mines de Saint-Etienne) sur des problèmes d’usinage. Durant
son année sur Nantes, elle a été membre de l’équipe. Aujourd’hui elle est enseignante-chercheur à
l’Université de Nancy (ENSTIB, Epinal).
– Fabien Degoutin est un étudiant pour lequel j’ai été co-directeur de sa thèse de doctorat. Ses
travaux ont commencé alors que j’étais en poste à l’Université de Valenciennes. Il a mené ses
travaux à l’INRETS de Lille sous la co-direction de Joaquin Rodriguez (INRETS) et Arnaud
Fréville (Conseil général Nord Pas de Calais). Il est employé dans le secteur privé.
– Andréa Raith est une étudiante qui a préparé sa thèse à l’Université d’Auckland sous la direction
de Matthias Ehrgott. Elle a séjourné un trimestre au sein de l’équipe ROOM.
– Guillaume Pinot (docteur) et Benoit Guédas (doctorant) sont deux collaborateurs de l’IRCCyN
(Nantes), respectivement membres de l’équipe ACSED et MCM. Occupant des fonctions d’ATER
à l’UFR sciences de l’Université de Nantes où ils sont installés, ils participent activement au quotidien à la vie et aux travaux de notre équipe depuis deux et un an respectivement. En outre, Xavier
Gandibleux est co-encadrant de la thèse de Benoit Guédas depuis septembre 2007.
– Hui Li, docteur de l’Université d’Essex (UK) est en post-doctorat à l’Université de Nottingham
dans le cadre d’un projet de recherche financé par le EPSRC obtenu sur un projet porté conjointement avec notre équipe. Il a effectué plusieurs séjours au sein de ROOM au cours de ses travaux.
ROOM accueille régulièrement des visiteurs. Cela s’inscrit soit dans le cadre d’un séjour d’un mois
en qualité de professeur invité sur un support de l’UFR sciences, soit dans le cadre d’une visite ponctuelle
motivée par l’avancement d’une collaboration. En particulier nous avons reçu :
–
–
–
–
–
–
–
–
–
–
Prof. Eric Taillard (Univ. Applied Sciences of Western Switzerland, CH), 1 mois en 2006,
Prof. Margaret Wiecek (Clemson University, USA), 1 mois en 2007,
Prof. Eckart Zitzler (ETH Zurich, CH), 1 mois en 2008,
Prof. Karl Doerner (Université de Vienne, AU), visite en 2008,
Dr. Sophie Parragh (Université de Vienne, AU), visites en 2008 et 2009,
Prof. Kalyanmoy Deb (IIT Kanpur, India), visites en 2008 et 2009,
Prof. Jacques Teghem (Université de Mons, B), visite en 2009,
Prof. Daniel Tuyttens (Université de Mons, B), visite en 2010,
Prof. Dario Landa-Silva (Université de Nottingham, UK), visite en 2010,
Prof. Matthias Ehrgott (Université d’Auckland, NZ), visites régulières depuis mai 2008 et long
séjour prévu pour 2011 dans le cadre d’un semestre sabbatique.
316
Bilan 2006–2009 ROOM
12.2 Faits marquants 2006-2010
1. Sur 2006-2009, ROOM a organisé les trois congrès internationaux de référence du domaine, rencontrant à ces occasions l’ensemble de la communauté mondiale contemporaine du domaine :
– MOPGP’06 : 7th International Conference on Multi-Objective Programming and Goal Programming. Loire Valley (Tours), June 12–14, 2006.
– MCDM’08 : 19th International Conference on Multiple Criteria Decision Making. Auckland,
Nouvelle-Zélande, January 2008.
– EMO’09 : 5th International Conference on Evolutionary Multi-Criterion Optimization. Nantes,
April 07–10, 2009.
Ces trois événements scientifiques majeurs couvrent l’ensemble des travaux actuels de l’aide multicritère à la décision. Par ailleurs ROOM a organisé un atelier national du domaine à l’occasion
des 10 ans d’existence de ce groupe de travail fondé par Xavier Gandibleux en 1999 à l’Université
de Valenciennes : Journée “Programmation mathématique multiobjectif (PM2O)”, Nantes, 2009.
2. A l’été 2009, ROOM s’est distinguée avec le papier ”Matthias Ehrgott and Xavier Gandibleux.
A survey and annotated bibliography of multiobjective combinatorial optimization. OR Spectrum, 22 :425-460, 2000”, pour être le papier le plus cité (128 fois selon ISI Web of Knowledge)
dans l’historique de la revue. OR Spectrum est une revue internationale publiée depuis 1979 par
Springer. A l’été 2009, elle présentait un impact factor de 1.057 et totalisait 842 papiers publiés.
3. Au cours du quadriennal écoulé, ROOM s’est investie significativement à la structuration de l’optimisation et la recherche opérationnelle sur Nantes et région :
– Projet inter-régional IROCOI financé par le GDR CNRS RO (porteur du projet)
– Projet régional MILES financé par la région Pays de Loire (initiateur, porteur d’un axe)
– Projet régional LigeRO financé par la région Pays de Loire (initiateur, porteur d’un axe)
Dans l’esprit de contribuer aux synergies nouvelles entre équipes connexes autour de la discipline
“recherche opérationnelle”, entrainée par la dynamique de la fédération AtlanSTIC, ROOM s’est
ouverte vers des questions inédites étudiées dans le cadre de thèses co-encadrées :
– Optimisation multidisciplinaire multiobjectif (avec IRCCyN-MCM/ECN)
– Préférences et optimisation combinatoire (avec IRCCyN-SLP/EMN)
– Optimisation robuste en transport ferroviaire (avec LINA-Contraintes/EMN)
4. Mandatée par le département d’informatique de l’UFR sciences, ROOM est l’artisante du master
informatique spécialité“Optimisation en Recherche opérationnelle”, de parcours professionnel et
recherche, répondant au label international de l’Université de Nantes et cohabilité avec l’Ecole des
Mines de Nantes.
Structuration et thèmes de recherche
1. Thème 1 : optimisation multiobjectif
– fondement 1 : Caractérisation des instances
– fondement 2 : Méthodes et algorithmes exacts
– fondement 3 : Métaheuristiques
– fondement 4 : Préférences et combinatoire
– application 1 : transport ferroviaire
– application 2 : ingénierie mécanique
– application 3 : réseaux de communication
ROOM
317
Publications majeures de l’équipe sur la période
1. Revue : Computers and Operations Research. 2007 [36].
2. Revue : European Journal of Operational Research. 2008 [34].
3. Revue : European Journal of Operational Research. 2010 [18].
4. Revue : INFORMS Journal on Computing. 2010 [12].
5. Revue : Discrete Optimization. 2010 [1].
6. Revue : Networks. 2009 [11].
7. Chapitre de livre : Hybrid Metaheuristics-Springer. 2008 [30].
8. Chapitre de livre : Fourmis articielles-Hermès. 2010 [2].
9. Conférence : Lecture Notes in Computer Science. 2007 [38].
10. Conférence : Lecture Notes in Economics and Mathematical Systems. 2010 [8].
Prix et récompenses, organisation de conférences majeures, conférences invitées
– A. Mérel : 3e prix du meilleur poster aux JDOC 2010.
– A. Przybylski a été invité une semaine à l’Université de Kaiserslautern (Allemagne) en 2009.
– X. Gandibleux a été invité une semaine à l’Université de Vienne (Autriche) en mai 2006.
Tableau récapitulatif
ACL
13
ACLN
2
Récapitulatif des publications par catégorie
ASCL BRE INV ACTI ACTN COM AFF
0
0
0
7
1
32
0
OS
4
OV
0
DO
3
AP
5
Sont reprises sous ACL les publications reprises A ou B dans la classification
CORE ou groupe 1 de la classification des revues réalisée par ESSEC Business School
(http://econtent.essec.fr/mediabanks/ESSEC-PDF/Enseignement%20et%20Rec
herche/Recherche/Classification revues.pdf). A noter que toutes les revues classées
A ou B dans le CORE sont classées 1 (Groupe 1 “very good” : Revues scientifiques de très bon niveau,
reconnues et diffusées au plan international, sans toutefois faire partie des toutes premières revues de la
discipline. On y trouve des revues généralistes et spécialisées) selon la classification de l’ESSEC. Seules
deux revues américaines (Management Science ; Operations Research) relevant de notre discipline
sont classées 0. A noter que la revue JOTA (Journal of Optimization Theory and Applications ; impact
factor : 0.996 en 2009) qui existe depuis 1967 et relève de mathématiques appliquées n’apparait pas
dans ces classements. A noter encore que la revue 4OR (Quarterly Journal of Operations Research ;
impact factor : 0.75 en 2009) plus récente (2003) n’apparait pas sur ces classements bien que connue.
12.3 Fondements scientifiques
Nos travaux relèvent de la ‘recherche opérationnelle’, domaine qui concerne l’informatique et les
mathématiques appliquées. Ils abordent l’optimisation, les métaheuristiques et la prise en compte des
préférences pour le traitement de problèmes (discrets) multiobjectif de grandes tailles. Il s’agit principalement de développer des connaissances contribuant à répondre à cette classe de problèmes d’optimisation exprimés à l’aide du formalisme de la programmation mathématique, et comportant plusieurs
318
Bilan 2006–2009 ROOM
fonctions économiques souvent antagonistes. Ce courant scientifique dénommé ”optimisation multiobjectif”, relève de la communauté de l’aide multicritère à la décision (MultiCriteria Decision Making).
Il faut remonter à Vilfredo Pareto, sociologue et économiste italien (1848-1923) pour trouver un
fondement de l’optimisation multiobjectif. C’est lui qui a introduit l’optimum de Pareto, situation dans
laquelle l’utilité (le bien-être) d’aucun individu ne peut être augmentée sans que ne soit réduite l’utilité
d’un autre individu. Emmené depuis les années 60 par les travaux de Bernard Roy qui a développé
l’école ‘française’ de l’aide multicritère à la décision (fortement active en France, Suisse, Belgique et
Canada), ce courant de travaux occupe une place privilégiée dans la recherche opérationnelle française.
Pendant plusieurs décennies le LAMSADE, laboratoire de notoriété internationale de l’Université Paris
IX-Dauphine, a fait quasiment figure de lieu unique en ce qui concerne les avancées de l’optimisation
multiobjectif en France. Sur la même période, de nombreuses contributions majeures étaient issues de
l’Amérique du nord, dont le goal-programming, l’optimisation linéaire multiobjectif, l’utilité multiattribut et ainsi que plusieurs ouvrages fondamentaux du domaine (Charnes et Cooper en 1961, Ralph
Keeney et Howard Raiffa en 1976, Thomas Saaty, Stan Zionts, Milan Zeleni, Po-Lung Yu, et encore
Ralph Steuer pour mentionner les plus connus).
12.3.1 Thème ”optimisation multiobjectif”
Au cours des années 80, l’optimisation multiobjectif, et en particulier les avancées sur les problèmes
en variables discrètes, étaient en demi sommeil. Cette situation s’explique notamment par (1) la puissance de calcul des ordinateurs de l’époque insuffisante pour traiter des problèmes même de petite taille
de fait du besoin calculatoire des procédures de résolutions, (2) la connaissance parcellaire de résultats
forts sur cette catégorie de problèmes d’optimisation et les nombreux verrous énoncés, voire une mauvaise compréhension des véritables difficultés des problèmes à résoudre qui se mesure par l’existance
de plusieurs résultats inccorects [17, 47] et (3) le message porté par une partie de la communauté scientifique, faisant apparaı̂tre l’optimisation multiobjectif comme discipline ‘molle’ à coté de l’optimisation
classique mono-objectif, ce qui se mesure par une utilisation quasi inexistante sur les applications réelles.
A la fin des années 80, les travaux s’attachaient aux méthodes dites interactives et méthodes visuelles
comme Trimap et Triple C. C’est notamment sur ces fondements scientifiques que s’est construite la
thèse de doctorat de Xavier Gandibleux (1995).
La situation a évolué au début des années 1990, notamment avec l’émergence et le succès rencontré
par les métaheuristiques. Ces techniques dites incomplètes se sont alors présentées comme réponse possible aux exigences calculatoires des procédures de résolution exacte, dites complètes. Introduits en 1984
par Schaffer et revisités en 1989 par Goldberg, les algorithmes génétiques ont ouvert un champs de
recherche qui donnera naissance au domaine des metaheuristiques multiobjectifs. Ce nouveau champs
d’investigation a vu apparaı̂tre un champs de recherche inédit autour des problèmes d’optimisation combinatoires multiobjectif (MOCO pour MultiObjective Combinatorial Optimization en anglais). Connu
pour être durs, des problèmes MOCO comme les versions multiobjectif du sac-à-dos, de l’affectation linéaire, ou encore du voyageur de commerce furent utilisées comme benchmarks classiques des
metaheuristiques multiobjectifs. Historiquement introduit dans la thèse de Berthold Ulungu en 1993, le
courant MOCO fut structuré à partir de 1997 par Matthias Ehrgott et Xavier Gandibleux qui donna lieu à
un état de l’art du domaine en 2000, résultat de leur travail conjoint sur la classification de la littérature.
A coté des nombreuses thèses de doctorat, plusieurs habilitations à diriger les recherches sur le thème ont
été présentées ces 10 dernières années (Andrzej Jaszkiewicz, Poznan, 2001 ; Matthias Ehrgott, Kaiserslautern, 2001 ; Xavier Gandibleux, Valenciennes, 2003 ; Clarisse Dhaenens-Flipo, Lille, 2005 ; Vincent
T’Kindt, Tours, 2005 ; etc.). Depuis 2000, deux facteurs se conjuguent et contribuent à la croissance sans
ROOM
319
précédent que rencontre aujourd’hui l’optimisation multiobjectif.
D’abord les progrès enregistrés sur la résolution approchée par application des métaheuristiques de
problèmes d’optimisation combinatoires multiobjectif a eu pour effet de placer l’étude de ces problèmes
au centre des préoccupations de la communauté optimisation multiobjectif. En effet, ces problèmes ont
une portée pratique considérable. Par exemple, un sac-à-dos peut traduire un problème de gestion de
portefeuille d’actions, un voyageur de commerce peut être central dans un problème de tournées de
véhicules, etc. De ce fait, une multitude de problèmes industriels réels apparaissent à la portée de traitement par la discipline. On observe donc des équipes qui étaient traditionnellement positionnées sur l’optimisation classique dans les systèmes de production par exemple, s’intéresser à l’optimisation multiobjectif (cas du laboratoire d’informatique de l’Université de Tours). La puissance de calcul des réseaux
d’ordinateurs étant devenue considérable, on assiste également au positionnement d’équipe venant du
calcul intensif sur l’optimisation multiobjectif (cas de l’équipe dolphin de l’INRIA Nord-Europe).
Ensuite, le second facteur vient de la limitation du modèle classique de l’optimisation fondé sur une
fonction unique, qui ne permet pas de véhiculer la complexité d’un problème de terrain. En effet, les
problèmes d’optimisation rencontrés dans les systèmes socio-économiques comportent intrinsèquement
plusieurs objectifs appelés à être optimisés simultanément. D’une manière assez surprenante, on assiste
aujourd’hui à une véritable prise de conscience qui conduit par exemple a ne plus concevoir l’optimisation de coûts liés à la constitution d’équipages de vols affectés à des avions, sans simultanément se
soucier de la robustesse des rotations des aéronefs sur les différents vols. Les praticiens sont en attente de
moyens (méthodes, outils et logiciels) d’optimisation dépassant le cadre de l’optimisation mono-objectif
classique.
Dans cette effervescence, la caractéristique des travaux de ROOM tient au fait que nous nous adressons à des problèmes d’optimisation discrets multiobjectif possédant essentiellement une structure combinatoire. Nos travaux s’adressent directement à trois enjeux de l’optimisation multiobjectif.
– Fondamental : étude, caractérisation et élaboration de connaissances sur les problèmes d’optimisation discrets et combinatoires multiobjectif. En particulier, étude des structures mathématiques
sous-jacentes comme les polytopes dépendant des paramètres, meilleure caractérisation de la difficulté des problèmes (sachant que tous les problèmes d’optimisation combinatoire multiobjectif
sont NP hard et peuvent comporter un nombre exponentiel de solutions efficaces).
Depuis la thèse de B. Ulungu en 1993, laquelle visait des objectifs de caractérisation des solutions,
très peu de travaux à l’extérieur des nôtres sont revenus sur ces questions. Effectivement, ce travail
qui a marqué le domaine a souligné l’énorme difficulté posée par ces questions. Toutefois, nos
récentes contributions, mesurables au travers des travaux d’Anthony Przybylski ont reculé pour la
premiere fois significativement des limites posées en 1993, en ouvrant de nouvelles perspectives.
– Méthodologique et algorithmique : nouvelles techniques et méthodes pour la résolution de
problèmes d’optimisation discrets et combinatoires multiobjectif de grande taille. Développement
d’algorithmes performants pour faciliter le traitement de problèmes NP-difficiles mono et multiobjectif (coupes, réductions, etc.) en vue de les résoudre efficacement. En particulier, cela inclut le développement d’algorithmes reposant sur la méthode primale-duale, la généralisation de
méthodes bi-objectifs à des situations multiobjectif, la mise en place de méthodes de type branchand-bound multiobjectif.
Nous avons été précurseurs sur ce plan ces dernières années, en proposant des méthodes comme
la recherche tabou multiobjectif (1996) ou le principe de la réduction de l’espace de recherche
à l’aide de coupes dans l’espace des objectifs (2000). Il reste à poursuivre dans cette direction,
notamment en visant efficacement la résolution des problèmes de grande taille.
320
Bilan 2006–2009 ROOM
– Validation et vérification des résultats élaborés sur des problèmes d’optimisation multiobjectif
tirés de situations réelles, avec comme objectif ultime d’être en mesure de résoudre des problèmes
concrets issus de contextes réels dans des environnements complexes.
Les problèmes réels nous permettent d’évaluer in situ les contributions méthodologiques et algorithmiques génériques. Mais ces derniers véhiculent souvent des particularités qui apportent des
questions originales.
Un effort conséquent est réalisé sur le plan méthodologique et algorithmique en vue de proposer des
solutions informatiques opérationnelles capable de traiter efficacement ces problèmes. En nous adressant
en ces termes à ces problèmes, et sensible à leur validation en situation réelle, les travaux de l’équipe se
situent au coeur de la dynamique internationale constatée en optimisation multiobjectif.
12.4 Applications et enjeux
12.4.1 Domaine d’application
Incontestablement, c’est le champs des applications qui surprend le plus aujourd’hui par l’intérêt
qu’elles suscitent. Des grandes enseignes comme AirFrance, SNCF, RENAULT communiquent ouvertement sur les besoins qu’elles rencontrent en optimisation multiobjectif. Aussi on assiste régulièrement à
l’ouverture des travaux d’équipes au domaine de l’optimisation multiobjectif, comme la chaire ”optimisation pour le développement durable” à l’Ecole Polytechnique qui s’attaque aux problèmes d’optimisation
stochastique multiobjectif.
L’expérimentation et insertion de processus décisionnels in situ fait partie intégrante des activités de
ROOM. Fort d’une culture de collaboration avec des opérationnels, l’équipe s’est positionnée au cours de
ces dernières années, sur plusieurs terrains applicatifs. Les domaines concernés relèvent d’opportunités
qui se sont présentées, ou de positionnement du fait d’une orientation scientifique du laboratoire, sur
lesquels des investissements ont été consentis en vue d’obtenir la maı̂trise requise. Sur ce thème, on peut
être amené à traiter des situations ne relevant pas nécessairement de l’optimisation multiobjectif.
12.4.2 Enjeux
Les enjeux des applications abordées par ROOM touchent à des questions sociétales comme le
développement durable, l’internet du futur ou les transports. Trois terrains applicatifs figurent au chapitre
des contributions de l’équipe : le transport ferroviaire, les réseaux de communication, la conduite de
systèmes complexes.
– Optimisation en transport ferroviaire. Le développement et le succès commercial du concept
≪ train grande vitesse ≫ , conjugué avec la saturation des infrastructures routières dans et autour des
grandes villes, sont deux facteurs certains qui contribuent au regain d’intérêt accordé au transport
ferroviaire. Aussi, le train possède également de nombreux atouts sur le plan du développement
durable. Conséquence directe, le trafic ferroviaire affiche une augmentation constante en Europe
ces dernières années. Du fait de ces évolutions en marche, le problème de la capacité d’une infrastructure ferroviaire s’est posé. ROOM travaille sur cette problématique en collaboration avec
d’autres partenaires dont l’INRETS depuis plusieurs années.
– Optimisation dans les réseaux de communication. Le domaine des télécommunications voit une
double révolution avec d’une part une explosion des usages en quantité et variété, et d’autre part
une fusion avec le monde de l’informatique. Dans cette mutation, l’usage du réseau internet s’est
ROOM
321
vu se diversifier amenant des attentes en terme de qualité de service dans les réseaux de communication en particulier au niveau du trafic résultant d’internet. Des questions liées au routage multicritère du trafic dans les réseaux au niveau IP ou le dimensionnement multiobjectif des ressources
dans le déploiement d’une infrastructure posent des problématiques d’optimisation inédites. C’est
une seconde problématique sur laquelle nous avons apporté plusieurs contributions avec des partenaires comme Alcatel et FranceTélécom.
– Optimisation dans la conduite de systèmes complexes. A partir de l’instant ou un système complexe est soumis à des aléas, il n’est pas envisageable de le piloter sans une fonction dite de
conduite dans l’organisation de la gestion de production. Celle-ci fait intervenir deux éléments qui
se conjuguent assez mal avec la notion de solution optimale unique : le décideur humain en ligne
avec le système sur lequel il peut être amené à appliquer des actions et la notion de robustesse
des décisions. La notion de solution optimale fait place à la notion de solution robuste élaborée au
regard de plusieurs objectifs. Nous avons apporté des contributions avec des partenaires comme la
croix rouge autrichienne sur une problématique de transport à la demande et avec un partenaire
local sur une problématique de système de production pour le retraitement de déchets.
12.5 Nouveaux résultats pour la période 2006-2010
12.5.1 Méthode en deux phases multiobjectif
Participants : Anthony Przybylski, Xavier Gandibleux, Matthias Ehrgott
Proposée dans le cadre de la thèse de Berthold Ulungu en 1993, la méthode en deux phases est
un schéma de résolution générique spécifiquement conçu pour calculer les solutions de problèmes
d’optimisation combinatoire multiobjectif. Cependant, la méthode originale repose sur un ensemble de
généralisations exploitant des caractéristiques spécifiques au cas bi-objectif, limitant conceptuellement la
portée de la méthode à ce cas particulier. Les travaux issus de la thèse d’Anthony Przybylski [44] cassent
ce verrou ! Les propositions reposent sur (1) une méthode de décomposition de l’espace des poids, (2)
une méthode de réduction de l’espace à visiter, et (3) le recours à une méthode de calcul des k meilleures
solutions pour l’énumération des solutions compte-tenu de la décomposition et de la réduction définie.
Ces contributions font l’objet de publications dans INFORMS Journal on Computing [12] et Discrete
Optimization [1]. Elles se retrouvent comme élément central de travaux de recherches d’autres équipes.
12.5.2 Méthode branch and bound multiobjectif
Participants : Julien Jorge, Xavier Gandibleux, Matthias Ehrgott
Schéma de résolution générique bien connu dans le cadre de l’optimisation discrète uni-objectif, il
ne connaissait aucun équivalent pour les problèmes multiobjectif. Les contributions qu’il était nécessaire
d’apporter en perspective de proposer un branch and bound multiobjectif concernent notamment la borne
et la stratégie de visite. La notion d’ensembles bornant inférieurement et supérieurement a été discuté
par Ehrgott et Gandibleux en 2000 mais il a fallu attendre 2007 avec une publication dans Computers
& Operations Research [36] pour disposer d’un résultat complet. Les travaux de thèse de Julien Jorge
[6, 27] aboutissent sur la définition et mise en oeuvre d’une méthode de branch and bound qui ne se
repose pas sur des particularités du problème à résoudre. En outre un prétraitement basé sur la régularité
de variables [21] est proposé en vue de réduire la taille du problème à traiter.
322
Bilan 2006–2009 ROOM
12.5.3 Algorithmes pour la résolution du problème d’affectation linéaire multiobjectif
Participants : Anthony Przybylski, Xavier Gandibleux, Matthias Ehrgott
La résolution exacte du problème d’affectation linéaire biobjectif était considérée comme étant
fermée suite aux travaux de thèse de Berthold Ulungu en 1993. Cependant, constatant une incomplétude
dans l’ensemble des solutions générées par la procédure de Ulungu, nous nous sommes resaisis du
problème. Deux procédures de calculs reposant sur une méthode en deux phases correspondant respectivement à une situation bi-objectif et tri-objectif ont été proposées. Elles ont été comparées aux méthodes
connues pour être de référence dans le domaine (méthode de Ulungu corrigée et améliorée par nos soins
pour les situations bi-objectif [34] ; méthodes de Silva et Crema, de Tenfelde-Podel, de Laumann et
al. pour les situations tri-objectif [28]). Ces deux propositions surclassent très largement les méthodes
existantes, devenant à cette occasion les références pour ces problèmes.
12.5.4 Algorithmes pour la résolution du problème de sac-à-dos multiobjectif unidimensionnel en variable binaires
Participants : Julien Jorge, Xavier Gandibleux, Anthony Przybylski
La résolution exacte du problème de sac-à-dos multiobjectif unidimensionnel en variable binaires
est un véritable challenge du fait de l’importance que revêt ce problème, mais aussi du fait que c’est un
des problèmes MOCO les plus étudiés dans la littérature. Encore ici, c’est Berthold Ulungu en 1993 qui
fait office de pionnier dont les résultats ont été publiés en 1998 par Visée et al. Ce problème connaı̂t
deux méthodes récentes proposées par Captivo et al en 2005 et Bazgan et al en 2009, cette dernière étant
la plus efficace selon ces auteurs. Fort des travaux de l’équipe, une méthode en deux phases [35, 40] a
notamment été développée pour ce problème et évaluée sur les instances de référence du domaine. Cette
proposition surclasse largement les méthodes existantes, mais se heurte à certaines difficultés sur des
instances corrélées. L’examen de ces difficultés ouvre une nouvelle voie de recherche sur la distribution
des solutions [37] pour cette famille de problèmes.
12.5.5 Métaheuristiques multiobjectif
Participants : Xavier Gandibleux
Le path-relinking multiobjectif que nous avons introduit en 2003 et publié en 2004 s’est révélé redoutablement efficace comme composant d’optimisation sur des problèmes multiobjectif [33]. Il a été
conjugué avec des ensembles bornant dynamiques pour une famille de problèmes d’ordonnancement
[38], une méthode en deux phases pour un problème de transport à la demande [11], comme un composant de post-optimisation pour un problème de dimensionnement de réseau de communication [39]
et comme composant pour le problème d’affectation quadratique [42]. Toujours dans le principe d’algorithmes hybrides, une procédure visant l’optimisation simultanée de deux objectifs de type somme
pour le set packing a été proposée, l’article [4] paru dans European Journal of Operational Research
soulignant la complémentarité des deux parties de l’algorithme dans la génération des solutions. Un
travail récent s’attache aux hyper-heuristiques dans un contexte multiobjectif [15] lorsque le problème
d’optimisation possède une collection de recherches locales efficaces. Un examen minutieux du comportement d’algorithmes évolutionnaires multiobjectif pour l’optimisation multidisciplinaire est réalisé
dans un contexte de conception mécanique au regard de la définition de compromis [13].
ROOM
323
12.5.6 Optimisation de la capacité d’infrastructures ferroviaires
Participants : Xavier Gandibleux, Julien Jorge, Aurélien Mérel, Fabien Degoutin
Présenté pour la première fois en 2004, une métaheuristique fondée sur le principe des fourmis artificielles a été grandement améliorée [45] pour figurer aujourd’hui comme la méthode de résolution
approchée de référence pour notre problème de capacité d’infrastructures ferroviaires [2]. A noter que
cette procédure est beaucoup plus efficace et robuste que notre précédente proposition qui repose sur la
métaheuristique GRASP publiée en 2004, cette dernière étant soulignée par Alidaee et al. en 2008 comme
étant la procédure la plus performante pour le problème de set packing traité. Une méthode de mesure
de la stabilité d’une grille horaire [18] a été proposée et fait l’objet d’une publication dans European
Journal of Operational Research. L’ensemble de ces outils d’optimisation sont intégrés dans RECIFE,
un système d’aide multicritère à la décision [8] dédié à mener des études de capacité d’infrastructures
ferroviaires. Les travaux en cours s’orientent vers un couplage génération de colonnes avec algorithme
de fourmis en exploitant la structure du problème notamment via filtrage des contraintes [9, 14].
12.5.7 Préférences et optimisation multi-objectif
Participants : Xavier Gandibleux, Hugo Fouchal, Benoit Guédas
Poussé par les applications, la prise en compte de préférences du décideur dans les procédures calculatoires fait figure de hot topic dans la communauté. Nous avons proposé une généralisation des travaux
de Galand et Perny (2008) en vue de prendre en compte des préférences complexes par l’intégrale de
Choquet pour des problèmes de chemins multi-objectifs [3, 16], tels qu’ils se rencontrent dans le routage
au niveau IP [43]. Dans un tout autre contexte, l’optimisation multidisciplinaire vise l’élaboration d’une
solution de compromis au regard de plusieurs objectifs à optimiser. De ce fait, elle s’apparente à la
problématique de prise en compte de préférences. Dans son travail de thèse, Benoit Guédas montre l’insuffisance des pratiques actuelles dans ce domaine. Prenant appui sur la théorie des ensembles ordonnés,
il propose une nouvelle définition de compromis [13, 19] qui satisfait un ensemble de propriétés attendues lorsque le solveur repose sur un algorithme évolutionnaire multiobjectif [10].
12.5.8 Avancées sur les travaux plus récents
Participants : Xavier Gandibleux, Anthony Przybylski, Thomas Vincent
Les problèmes d’optimisation multi-objectif en nombres mixtes permettent de modéliser de nombreuses situations réelles, notamment des problème de localisation de ressources [39]. Paradoxalement,
peu de travaux s’adressent à ce problème. La thèse de master de Thomas Vincent [17] montre l’incomplétude de l’algorithme Mavrotas et Diakoulaki, le seul connu a ce jour pour traiter cette classe de
problème. Une première proposition complète a été recemment présentée [5].
12.5.9 Travaux portés personnellement par Matthias Ehrgott
Participants : Matthias Ehrgott,
Matthias a publié plusieurs papiers sur des travaux issus de ses recherches initiées avant sa venue au
LINA et qui se sont finalisés lors de ses périodes au sein de l’équipe. La thèse d’Andrea Raith s’appuie
sur les travaux d’Anthony Przybylski sur la méthode en deux phases pour des problèmes de type chemins
et flots ([20, 23]). Dans le contexte du traitement du cancer par radiothérapie, Lizhen Shao a proposé à
l’occasion de ses travaux de thèse des résultats permettant d’approcher des solutions pour une famille de
324
Bilan 2006–2009 ROOM
problèmes d’optimisation multi-objectifs continus ([25, 26, 32]). A l’occasion d’un travail commun avec
Stefan Ruzika, il a proposé version améliorée de la méthode e-constrainte fut proposée ([31]).
12.6 Logiciels
La mise à disposition de nos productions logicielles dans le cadre d’une utilisation libre n’est pas dans
la culture de l’équipe. Toutefois, le projet de solveur multiobjectif “vOpti” en gestation depuis plusieurs
années va connaı̂tre ses premières contributions avec la mise à disposition des solutions logicielles produites dans le cadre de la thèse de Julien Jorge. Pour le compte de la MCDM society, Xavier Gandibleux
maintient depuis 1997 une collection d’instances numériques reconnues comme benchmarks. L’équipe
est pilote depuis 2004 du développement de la plateforme portable RECIFE.
RECIFE
URL
Participants : X. Gandibleux (resp), R. Bartusiak, F. Degoutin, X. Delorme, J. Jorge, G. Marlière, J.
Rodriguez, S. Sobieraj
Type de licence : Mots clés: capacité d’infrastructures ferroviaires, set packing, fourmis artificielles, stabilité d’horaires,
système d’aide multicritère à la décision, ROOM
Plateforme d’étude de capacité d’infrastructures ferroviaires. RECIFE est la plateforme sur ordinateur
portable qui permet de mener des études à partir de données embarquées. Elle inclut l’ensemble des
codes de calculs dédiés à l’étude de capacité et interfaces utilisateur. Pour raison de confidentialité,
les données ne peuvent être générées que sur une version de la plateforme hébergée à l’INRETS de
Villeneuve D’ascq. Cette dernière est connectée à un simulateur et des bases de données qui permettent
de produire les scenarii. Les publications sur la période accompagnant ce logiciel sont [2, 7, 8, 18, 45,
46].
MCDMlib
URL
Participants : X. Gandibleux (resp), A. Przybylski, J. Jorge
Type de licence : Mots clés: problèmes test, optimisation combinatoire multiobjectif, ROOM
La MCDMlib est une collection de problèmes test pour une variété de problèmes d’optimisation multiobjectif. La section MOCOlib est plus spécifiquement consacrée aux problèmes combinatoires multiobjectifs. L’enrichissement de cette collection est principalement à charge de l’équipe ROOM. Cet aspect
fait l’objet d’un lot de travaux dans le cadre de l’ANR blanc Guépard.
12.7 Contrats et subventions
Les membres de l’équipe ont été impliqués dans plusieurs contrats de recherche avec des partenaires industriels (Alcatel, Sollac, EDF, SNCF) au cours des 15 dernières années. Les applications des
travaux de recherche de ROOM se prêtant au transfert vers le monde industriel, l’équipe est réceptive
aux sollicitations qui lui parviennent. Toutefois, et en adéquation avec les recommandations du LINA, la
stratégie sur ce point privilégie un positionnement sur des projets de recherche régionaux, nationaux et
internationaux.
ROOM
325
Type
industriel
Région NPdC
Région PdL
GDR CNRS RO
EPSRC
Région PdL
ANR
Tableau des contrats et subventions
Institution
Nom
Début/Durée
gestionnaire
FranceTélécom
Capacités
2006/12 mois
RECIFE
Uni. Valenciennes
2006/24 mois
MILES
AtlanSTIC
2006/36 mois
IROCOI
LINA
2006/12 mois
MOMH
Uni. Nottingham
2007/36 mois
LigeRO
AtlanSTIC
2009/36 mois
Uni. Nantes
2009/48 mois
GUÉPARD
Montant
43 Ke
- Ke
4 Ke
2 Ke
14,5 Ke
85,4 Ke
12.7.1 Contrats directs avec des entreprises
FranceTélécom
Début : 2006, durée : 12 mois
Partenaires : FranceTélécom R&D
Coordinateur : Xavier Gandibleux
Participants : X. Gandibleux (resp), A. Przybylski
Montant équipe : 43 Ke
Montant total : 50 Ke
Mots clés : optimisation multiobjectif, algorithmes évolutionaires, déploiement de réseaux
Ce travail amené par FranceTélécom R&D traite de la problématique de déploiement de nouvelles infrastructures de communications informatiques à l’échelle d’un territoire. La problèmatique sous-jacente
s’apparente à un problème d’optimisation bi-objectif de localisation de ressources avec contraintes
d’équilibrage de charges et de sécurité. Il nous a été explicitement demandé d’étudier ce problème
avec pour finalité de proposer une solution opérationnelle fondée sur les algorithmes évolutionnaires
multiobjectif. La solution a été expérimentée sur des situations cible en terme de taille de problème à
traiter.
12.7.2 Projets collaboratifs
Actions régionnales
RECIFE
Début : 2006, durée : 24 mois
Partenaires : INRETS-Lille ; EMSE-St Etienne ; LAMIH-Valenciennes Coordinateur : X. Gandibleux
Participants : X. Gandibleux (resp), F. Degoutin, A. Mérel
Montant équipe : - Ke
Montant total : 29,2 Ke
Mots clés : recherche opérationnelle ; transport ferroviaire ; optimisation multiobjectif
Le projet RECIFE a pour finalité la proposition d’un outil d’aide à l’étude de la capacité d’infrastructures ferroviaires telles une gare ou un noeud en s’appuyant sur les techniques d’optimisation combinatoire issues de la recherche opérationnelle. Le problème traité relève du domaine de la planification et
de la programmation de l’exploitation ferroviaire. Les contributions effectives à ce projet concernent la
production de modèles et méthodes (1) de mesure et d’optimisation de la capacité, (2) de mesure de la
stabilité d’horaire, et (3) l’intégration de ces deux entités dans un système d’aide à la décision multiobjectif. Cet avenant 2006-2008 au projet de recherche initié depuis 1999 a été support aux derniers
développements des travaux de thèse de Fabien Degoutin et d’initier les travaux de thèse de Aurélien
Mérel. Le budget a été utilisé par le LAMIH de Valenciennes.
326
Bilan 2006–2009 ROOM
MILES/Systèmes d’Aide à la Décision
URL
Début : 2006, durée : 36 mois
Partenaires : IRCCyN-Nantes
Coordinateur : X. Gandibleux
Participants : X. Gandibleux (resp), H. Fouchal
Montant équipe : 4 Ke+ 1/2 support de thèse
Montant total : ? ? ? Ke
Mots clés : préférences du décideur ; combinatoire multiobjectif ; clus court chemins
Deux travaux s’inscrivent dans le cadre de ce projet de recherche. Le premier est mené en collaboration
avec Fabien Lehuédé (SLP/IRCCyN-EMN) est support aux travaux de thèse de Hugo Fouchal (financement Miles). Il vise la modélisation de préférences complexes d’un décideur au sein d’algorithmes pour
l’optimisation combinatoire multiobjectif. Plus précisément les travaux abordent l’intégrale de Choquet
et les problèmes de plus court chemin multiobjectif. Ils trouvent des applications dans des situations telles
que le routage d’information dans les réseaux informatiques. Le second travail est mené en collaboration avec Philippe Dépincé (MCM/IRCCyN-ECN) dans le cadre des travaux de thèse de Benoit Guédas
(MENRT IRCCyN). Il concerne les algorithmes évolutionnaires multiobjectif pour l’optimisation multidisciplinaire en ingénierie de conception mécanique. Plus précisément les travaux abordent la notion
de compromis à prendre dans ces algorithmes, présentant une proximité avec la notion de préférence
étudiée dans le premier travail.
LigeRO
URL
Début : 2009, durée : 36 mois
Partenaires : LERIA-Angers, LISA-Angers, IRCCyN-Nantes
Coordinateur : X. Gandibleux
Participants : X. Gandibleux (resp), A. Przybylski
Montant équipe : 14,5 Ke+ 1/2 support de thèse
Montant total : 500 Ke
Mots clés : recherche opérationnelle ; transport et logistique ; optimisation multiobjectif
LigéRO, “Recherche opérationnelle ligérienne”, est un projet d’émergence collective financé par la
région “Pays de Loire”. Plusieurs axes structurent l’animation du projet dont un axe “optimisation multiobjectif”. Des travaux de thèse dirigée en collaboration avec Frédéric Saubion (LERIA-Angers) sur les
“schémas de type branch and bound pour la résolution exacte de problème d’optimisation multiobjectif”
sont prévus dans ce contexte pour un démarrage à l’automne 2010.
Projets nationaux
IROCOI
URL
Début : 2006, durée : 12 mois
Partenaires : LERIA-Angers, LabSTIC-Lorient, IRCCyN-Nantes
Coordinateur : X. Gandibleux
Participants : X. Gandibleux (resp), H. Fouchal
Montant équipe : 2 Ke
Montant total : 2 Ke
Mots clés : recherche opérationnelle ; programmation par contraintes ; méthodes hybrides
Ce travail s’inscrit dans le cadre d’appel à projets soutenus par le GDR RO CNRS. IROCOI avait pour
vocation d’initier une collaboration entre recherche opérationnelle et programmation par contrainte,
deux thématiques fortement représentées en région Pays de Loire. Plus précisement, il visait l’étude des
interactions entre outils issus de ces deux thématiques pour la résolution de problèmes d’optimisation
multiobjectif. Des résultats se retrouvent dans la thèse de Vincent Lamprier (LERIA-Angers).
ROOM
327
ANR GUEPARD
URL
Début : 2009, durée : 48 mois
Partenaires : LIP6-Paris6 ; LAMSADE-Paris9
Coordinateur : LIP6
Participants : X. Gandibleux (resp), A. Przybylski, T. Vincent, H. Fouchal, J. Jorge, A. Mérel
Montant équipe : 85,4 Ke
Montant total : 386,2 Ke
Mots clés : optimisation multiobjectif
L’ANR “GUaranteed Efficiency for PAReto optimal solutions Determination in multiobjective combinatorial optimization problems” (Guépard) est structurée en cinq axes de recherche dont deux de la
responsabilité de l’équipe ROOM. Le premier axe (responsable : Anthony Przybilski) concerne l’analyse
des instances en vue d’établir des caractéristiques permettant d’affirmer de la difficulté de résolution
d’une instance. Le second axe (responsable : Xavier Gandibleux) concerne les méthodes exactes pour
la résolution de problèmes d’optimisation combinatoire multiobjectif. L’équipe est également concernée
par deux autres axes, à savoir les algorithmes d’approximation à garantie et l’optimisation à base de
préférences pour le calcul de compromis.
Projets internationaux
MOMH
Début : 2007, durée : 36 mois
Partenaires : The University of Nottingham
Participants : X. Gandibleux (resp), D. Landa-Silva, H. Li
Montant équipe : Mots clés : optimisation multiobjectif ; métaheuristiques
Coordinateur : U. Nottingham (UK)
Montant total : 1 post doc
Sur base d’un projet co-signé Université de Nottingham/Université de Nantes, le “Engineering and Physical Sciences Research Council” (EPSRC, UK) a octroyé un support de post-doctotant pour une période
de 3 ans sur le thème “Multi-objective Meta-heuristics to solve complex combinatorial optimisation
problem”. Les travaux ont été mené dans l’unité de recherche “Automated Scheduling, Optimisation and
Planning (ASAP)” de l’ecole d’informatique, Université de Nottingham et plusieurs courts séjours sur
Nantes des collègues britaniques ont eu lieu.
12.7.3 Accords de coopération
L’équipe a mis en place quatre accords de coopération bilatéral de type Erasmus en appui sur ses
collaborateurs réguliers. Un objectif est de promouvoir la circulation d’étudiants de niveau master entre
les établissements soit pour un semestre enseignement dans le cadre du master informatique spécialité
“Optimisation en Recherche Opérationnelle”, soit pour un semestre stage de recherche. Depuis 2008, 10
étudiants nantais ont séjourné à l’étranger dans ce contexte, et nous avons reçu 2 étudiants de Kaiserslautern. Nous accueillerons régulièrement dans ce contexte nos collègues étrangers pour intervention
dans les enseignements du master mais aussi pour le suivi de nos collaborations scientifiques.
–
–
–
–
Université Libre de Bruxelles (Belgique), depuis 2008 pour 4 ans.
Université de Mons (Belgique), depuis 2008 pour 4 ans.
Technical University of Kaiserslautern (Allemagne), depuis 2008 pour 4 ans.
The University of Nottingham (UK), depuis 2008 pour 4 ans.
328
Bilan 2006–2009 ROOM
12.8 Rayonnement
Note : Cette section ne rapporte pas les informations concernant Matthias Ehrgott pris isolément.
12.8.1 Évaluation de la recherche
Comités de programme (conférences) et de lecture (revues)
– Revues
– Comités éditoriaux de revue scientifique
– 2005-2008, éditeur associé de la revue ‘INFOR :The Information Systems and Operational
Research journal’, Canada.
– 2002-2009, éditeur associé de la revue ‘4OR :Quarterly journal of Operations Research’,
Springer. Editeur associé pour traitement de papiers relevant de l’optimisation multiobjectif.
– Les comités de lecture (numéro spécial d’une revue)
– 2010, X. Gandibleux et B. Vitoriano Villanueva (ES), éditeur invité d’un numéro spécial
≪ Multicriteria Decision Making ≫ dans TOP : International Journal on Operations Research
of the Spanish Society of Statistics and Operations Research.
– 2009, X. Gandibleux, M. Ehrgott (NZ), C. Fonseca (PT), JK Hao (FR) et M. Sevaux (FR)
éditeur de l’ouvrage ≪ Evolutionary Multi-Criterion Optimization ≫. LNCS 5467. 2009, 586
pages.
– 2008, X. Gandibleux, V. Barichard (FR), M. Ehrgott (NZ), et V. T’kindt (FR), éditeur de
l’ouvrage ≪ Multiobjective Programming and Goal Programming : Theoretical Results and
Practical Applications ≫. LNEMS 618. 2008, 298 pages.
– 2006, X. Gandibleux, M. Ehrgott (NZ) et J. Figueira (PT), éditeur invité d’un numéro spécial
≪ Multiple Objectives Discrete and Combinatorial Optimization ≫ dans Annals of Operations
Research.
– Conférences
– Comités de programme
– X. Gandibleux : MOSIM’06 et MOSIM’10 (Conf. Francophone de Modélisation et Simulation).
– X. Gandibleux : CEC’2006 (Vancouver, Canada), CEC’2007 (Singapore), CEC’2009 (Trondheim, Norway) (Int. Congress on Evolutionary Computation).
– X. Gandibleux : MOPGP’08 (Portsmouth, UK) et MOPGP’10 (Sousse, Tunisia) (Int. Conf.
on Multi-Objective Programming and Goal Programming).
ROOM
329
Expertises régions, ANR, Europe, AERES, ...
– X. Gandibleux, 2010 : sur proposition du CNRS-INS2I, membre du comité de visite du laboratoire
LAMSADE (Université Paris 9).
– X. Gandibleux, 2009 : expert scientifique d’un projet déposés dans le cadre d’un appel de la région
≪ Centre ≫
– X. Gandibleux, 2006 : expert scientifique d’un projet déposé au ≪ NWO : the Netherlands Organization for Scientific Research ≫ (Pays-Bas).
– X. Gandibleux, 2006 : expert scientifique d’un projet déposé au ≪ FWO : Fonds Wetenschappelijk
Onderzoek Vlaanderen ≫ (Belgique).
Rapports de thèse, comité de sélection, concours INRIA, ... X. Gandibleux a participé au jury de :
– N. Velasco Ecole des mines de Nantes, mars 2006 (examinateur)
– A. Przybylski Université de Nantes, déc 2006 (directeur)
– I. Kojadinovic (HDR) Polytech’Nantes, nov 2006 (examinateur)
– K. Bouibede-Hocine Polytech’Tours, mai 2007 (rapporteur)
– F. Degoutin Université de Valenciennes, déc 2007 (co-encadrant)
– E. Lorriaux Université de Valenciennes, déc 2007 (rapporteur)
– E. Grellier Ecole des mines de Nantes, jan 2008 (examinateur)
– A. Setamaa-Karkkainen University of Jyvaskyla [Finlande], août 2008 (opponant)
– D. Salazar University Las Palmas Gran Canaria [Spain], oct 2008 (rapporteur)
– E. Rollon U. Politecnica Catalunya-Barcelona [Spain], nov 2008 (rapporteur)
– S. Lamprier Université d’Angers, déc 2008 (examinateur).
– J. Bouyer ENS Architecture de Nantes, Sept 2009 (examinateur)
– E. Cizeron Polytech’Nantes, Sept 2009 (examinateur)
– V. Guihaire Université d’Angers. Déc 2009 (examinateur)
– J. Mendoza Ecole des mines de Nantes. Déc 2009 (président)
– K. Belkhelladi Université Catholique de l’Ouest-Angers. Fév. 2010 (président)
– O. Mouelhi INSA Lyon. Mars 2010 (rapporteur)
– J. Jorge Université de Nantes, mai 2010 (directeur)
12.8.2 Animation de la communauté
Participation à des steering committees, des GDR et leurs groupes de travail
– X. Gandibleux : 2008-2011, élu à l’executive committee de la ≪ MCDM International Society
≫ (société internationale en aide multicritère à la décision qui compte 1470 membres individuels
répartis sur 87 pays ; www.mcdmsociety.org)
– X. Gandibleux : 2003-2006, élu au poste de ≪ secrétaire EURO ≫ (association des sociétés européennes de recherche opérationnelle qui compte 30 pays membres et 28 groupes de travail
thématiques ; www.euro-online.org).
Organisation de conférences, d’ateliers, d’écoles d’été
– X. Gandibleux, A. Przybylski : MOPGP’06, 7th International Conference on Multi-Objective Programming and Goal Programming - Loire Valley (Tours), June 12-14, 2006.
– M. Ehrgott : MCDM’08, 19th International Conference on Multiple Criteria Decision Making.
Auckland, Nouvelle-Zélande, January 2008.
330
Bilan 2006–2009 ROOM
– X. Gandibleux, A. Przybylski : EMO’09, 5th International Conference on Evolutionary MultiCriterion Optimization - Nantes, April 07-10, 2009.
– X. Gandibleux, A. Przybylski : Journées PM2O : Programmation mathématique multiobjectif (GT
du GDR CNRS I3 et GDR CNRS RO) Nantes, 2009.
Principales collaborations nationales et internationales
– INRETS/ESTAS, Villeneuve d’Ascq [2, 7, 41, 46] ;
– ENS des Mines de St Etienne [4, 8] ;
– Polytech’Tours [48] ;
– Université Bretagne-Sud [22, 50] ;
– Technical University of Kaiserslautern (Allemagne) [5, 17] ;
– Universität Wien (Autriche) [11, 33, 38] ;
– Clemson University (USA) [21, 29] ;
– University of Applied Sciences of Western Switzerland (Suisse) [42] ;
– Instituto Superior Técnico Lisboa (Portugal) [49] ;
– University of Auckland (Nouvelle-Zélande) [12, 28, 30, 36] ;
– University of Wuppertal (Allemagne) ; University of Nottingham (UK) ; Osaka prefecture University (Japon) ; Kyoto University (Japon) ; Université de Mons (Belgique) ; Université Libre de
Bruxelles (Belgique) ; Technical University of Poznan (Pologne)
12.9 Formation par la recherche
Pilotage d’écoles doctorales, de spécialités de filières, de master La spécialité ≪ Optimisation
en Recherche Opérationnelle (ORO) ≫ du master mention informatique est une formation à finalité
recherche et professionnelle (RP) qui forme des ≪ informaticiens experts en optimisation ≫. Spécialité
demandée en création ex-nihilo au sein de la mention informatique lors de la précédente évaluation, elle a
été habilitée en 2008 pour 4 ans. Elle a accueilli la première promotion d’étudiants en master 1 et master
2 simultanément lors de l’année académique 2008-2009. C’est une offre de niveau master qui s’adresse
prioritairement à un public issu d’une formation ≪ informatique ≫ ou ≪ maths-informatique ≫. C’est
une formation qui répond au label international de l’Université de Nantes. En particulier, nos étudiants
sont tenus de séjourner un semestre à l’étranger au cours des deux années du master, les enseignements
de la seconde année sont tous dispensés en anglais et elle accueille des étudiants étrangers, en particulier anglophones. Cette formation est positionnée régionalement. En effet, elle est cohabilitée avec
l’école des Mines de Nantes et implique des enseignants des universités de Rennes1 et d’Angers. Elle est
également positionnée internationalement. Effectivement, elle travaille avec des universités partenaires
européennes (Bruxelles, Mons, Nottingham, Kaiserslautern) où des conventions bilatérales Erasmus ont
été expressément établies pour la circulation des étudiants sur cette spécialité. Elle est en interface avec
plusieurs grandes entreprises (SNCF, Renault, IBM, Geodis, etc) qui traitent au quotidien des questions
relevant de l’optimisation (consulting, intégrateur, utilisateur, etc). In fine, elle est adossée à la recherche
par l’implication de l’ensemble des équipes relevant de l’optimisation des deux laboratoires STIC nantais (LINA UMR CNRS 6241 et IRCCyN UMR CNRS 6597). Le porteur de dossier d’habilitation, le
fonctionnement, l’architecture, l’administration quotidienne, le recrutement, la communication et le rayonnement repose sur l’équipe ROOM. Plus exactement,
– X. Gandibleux : Responsable de la spécialité ORO du master informatique, Université de Nantes ;
– A. Przybylski : Responsable pédagogique master 1 de la spécialité ORO
ROOM
331
– X. Gandibleux : Responsable pédagogique master 2 de la spécialité ORO (2009-2010)
– X. Gandibleux : Responsable des stages recherche et professionnels de la spécialité ORO
– X. Gandibleux : Responsable des séminaires industriels de la spécialité ORO
Participation aux enseignements de master, de filière, d’école doctorale
– Etablissements tutelles
– A. Przybylski, X. Gandibleux : Recherche opérationnelle (60h en Master 1 ORO) ;
– X. Gandibleux : Métaheuristiques (24h en Master 1 ORO) ;
– A. Przybylski : Multi-objective Optimization (24h en Master 2 ORO) ;
– X. Gandibleux : Multi-objective Metaheuristics (24h en Master 2 ORO).
– X. Gandibleux : Multi-criteria decision-Aid (12h en Master 2 ORO).
– Autres établissements
– X. Gandibleux : Métaheuristiques (15h en Master informatique, Université de Mons, Belgique) ;
HDR et thèses soutenues sur la période
Nom
A. PRZYBYLSKI
J. JORGE
Publications
[44]
[6]
Thèses
Institution
UN
UN
Soutenance
08/12/2006
11/05/2010
Devenir
MC UN
ATER UN
A noter la thèse de Fabien Degoutin (Université de Valenciennes et du Hainault Cambrésis) soutenue en
2007 à l’INRETS-ESTAS (Villeneuve d’Ascq).
12.10 Gouvernance
Organisation de l’équipe, animation scientifique
L’équipe comporte deux permanents qui assurent le rôle de responsable et responsable adjoint. Ils
sont interchangeables pour les besoins de représentation de l’équipe. Un ensemble de ressources sont
mises à disposition de chaque membre : un serveur de calcul dédié et équipé de solveurs, une bibliothèque
d’ouvrages de référence, les articles publiés par l’équipe. Chaque membre dispose d’un espace de travail
dans le bâtiment 11 de l’UFR sciences, un accès aux ressources communes (imprimantes, photocopieurs,
etc) et d’un ordinateur personnel. L’équipe est assistée d’une secrétaire à mi-temps et partagée sur 4
équipes pour l’administration des déplacements et des budgets de l’équipe.
L’équipe se réunit hebdomadairement le jeudi matin de 10h30 à 12h dans les locaux de l’UFR sciences. Au cours de ces réunions, est fait état des informations générales à transmettre à l’ensemble des
membres, un tour de table est systématiquement réalisé pour échanger entre tous sur les activités en
cours (avancement, résultats, difficultés, préparations de conférence, etc), un exposé suivi d’une discussion clôture la réunion. Les exposés sont sollicités au regard des avancements (résultats complets,
proximité de communication en conférence, etc) et compte tenu des besoins exprimés par les membres.
Profitant de la présence des permanents et non permanents, les autres moments de la journée sont prioritairement consacrés aux discussions avec les doctorants notamment ceux qui sont localisés sur d’autres
sites le reste de la semaine.
332
Bilan 2006–2009 ROOM
L’ensemble des membres de l’équipe participe aux séminaires organisés dans le cadre du master ORO
(jeudi après-midi de septembre à décembre). Suivant les sujets abordés, tout ou partie de l’équipe participe aux différents séminaires organisés régionalement (“jeudis de l’optimisation” à l’EMN ; séminaires
“IRCCyN” à l’ECN ; séminaires “équipe SLP de l’IRCCyN” à l’EMN ; “grands séminaires du LINA” à
l’UFR sciences). Les doctorants sont invités à suivre des formations à l’occasion écoles thématiques qui
sont organisées :
– Benoit Guédas, Journées Doctorales/Nationales ”JDMACS/JNMACS” du GDR “Modélisation,
Analyse, Conduite des Systèmes dynamiques” (MACS), 9-10/07/2007, Reims, France.
– Julien Jorge, International Doctoral School, Algorithmic Decision Theory : MCDA and MOO,
September 17-21, 2007, Han sur Lesse, Belgium
– Aurélien Mérel, Journées Polyèdres et Optimisation Combinatoire : Autour des méthodes de
décomposition en optimisation combinatoire, 8 au 12 juin 2009, Bordeaux, France.
– Hugo Fouchal, MCD(A/M) Summer School 2010, Multiple Criteria Decision Analysis, June 27th
- July 9th, 2010, Ecole Centrale Paris, France.
Une liste de diffusion permet de contacter l’ensemble des membres de l’équipe. Il est régulièrement
demandé de mettre en place et mettre à jour les pages web personnelles accessibles depuis le site du
laboratoire.
Stratégies de publication
Au niveau des communication, la stratégie de l’équipe est de participer de manière récurrente aux
cycles de conférences qui fondent le socle de connaissance des travaux. On retrouve donc les conférences
comme MCDM (participation depuis 1992), MOPGP (depuis 1996), EMO (depuis 2001), MIC (depuis
1997), EURO (depuis 1994) et ROADEF (depuis 1998). Ensuite selon la spécificité de certains sujets, on
participera à des événements plus ciblés comme WCRR en transport ferroviaire par exemple. L’équipe
participe également aux groupes de travail thématiques qui sont régulièrement organisés, comme EWG
EU/ME, EWG MCDA, journées PM2O, journées Bermudes. Dans notre communauté scientifique, la
participation à ces événements scientifiques se base pour la plupart sur une procédure très peu sélective.
L’objectif est de rencontrer et discuter avec l’ensemble de sa communauté scientifique. C’est essentiel pour permettre de brasser seniors et juniors, constituer un réseau scientifique, profiter de ces moments pour initier coopération et collaboration. Le filtre de sélection arrive dans l’organisation en postconférence, soit par l’organisation de numéros spéciaux dans des journaux, soit de volumes de collections
comme LNEMS ou LNCS chez springer.
La règle commune adoptée par l’équipe est pour une année la participation de chaque membre à
trois événements scientifiques : la conférence nationale ROADEF, une autre conférence nationale et une
conférence internationale.
Au niveau des publications les journaux qui sont ciblés sont “European Journal of Operational Research” (EJOR), “Computers & Operations Research” (CAOR), “Quarterly Journal of Operations Research” (4OR), journaux généralistes, largement ciblés par la communauté optimisation multiobjectif,
pour lesquels des indicateurs de qualités existent. Pour des résultats qui possèdent un caractère exceptionnel, on s’adressera à un journal comme “INFORMS Journal of Computing”. Les journaux spécifiques de
notoriété sont réservés pour la publication de travaux fortement emprunt d’un résultat particulier, comme
“Discrete Optimization”.
La ligne de conduite adoptée par l’équipe est en parfaite cohérence avec la communauté scientifique,
ce qui est corroboré par le papier de Johanna Bragge et al. publié en 2010 1 . Ces auteurs rapportent les
1. Bragge, J., Korhonen, P., Wallenius, H. and Wallenius, J. Bibliometric Analysis of Multiple Criteria Decision Mak-
ROOM
333
résultats d’une analyse bibliométrique des publications relevant de l’aide multicritère à la décision sur la
période 1970-2007. Leur travail s’appuie sur la base de données ISI web of Science. Cette étude confirme
quantitativement les propos tenus ici quant à l’explosion de l’intérêt du domaine. En 2006, plus de 1600
papiers ont été publie dans le domaine contre environ 500 papiers en 1996 et moins de 200 en 1986.
Parmi les 20 supports qui arrivent en tête de classement du nombre de publication, on trouve “European
Journal of Operational Research” en première position (28,47%) et “Computer and Operations Research”
en 5e position (5,79%).
12.11 Auto-évaluation
Investi dans le domaine de la recherche opérationnelle, Xavier Gandibleux a reçu trois missions
à mener pour le LINA lors de son recrutement à l’Université de Nantes en 2004 : (1) inscrire et
développer ses thèmes optimisation multiobjectif et métaheuristiques dans la dynamique du laboratoire, (2) développer des actions autour de l’optimisation dans le contexte de la FR AtlanSTIC naissante
et (3) développer des actions internationales au nom du LINA. Ces missions impactent l’état d’esprit
de ROOM, laquelle par sa composition et sa culture se reconnaı̂t dans la définition suivante 2 : ≪ une
“équipe” moderne qui ne cherche pas à être en concurrence avec d’autres équipes, à les écraser, à grossir
à tout prix. Cette vision du big is beautiful est ancienne et dépassée. Une “équipe” qui compte, c’est
une “équipe” qui est au coeur des réseaux, qui crée des connections avec les autres, qui collabore et
coopère. L’attractivité d’une “équipe” se mesure au nombre de connexions qu’elle établit avec le reste de
sa communauté ≫. Le bilan commenté de nos actions sur la période 2004-2010 illustre cette définition.
Sur la dynamique locale relevant de la recherche, les actions concernent la conduite d’un projet de
recherche AtlanSTIC en 2005 (avec N. Sauer, IRCCyN-EMN), l’organisation et présidence du workshop international MLSCP en 2005 (avec N. Jussien et S. Demassey, LINA-EMN), l’initiation avec Ph.
Dépincé (IRCCyN-ECN) d’un projet de recherche régional sur “systèmes d’aide à la décision” qui devint
un axe du projet ”Miles”, l’initiation et responsabilité du projet IROCOI du GDR RO CNRS impliquant
Angers (LERIA), Lorient (LabSTIC), et Nantes (IRCCyN, LINA). L’une des dernière action est l’initiation du projet LigeRO impliquant Angers (LISA, LERIA) et Nantes (IRCCyN, LINA). Plusieurs thèses
pour la plupart inscrites dans ces actions sont menées en co-encadrement avec Ph. Dépincé (IRCCyNECN/Miles), F. Lehuédé (IRCCyN-EMN/Miles), S. Demassey (LINA-EMN) et F. Saubion (LERIAU.Angers/LigeRO).
Sur la dynamique locale relevant de l’enseignement, l’action principale concerne la création et la
responsabilité par Xavier Gandibleux et Anthony Przybylski de la spécialité “ORO : Optimisation en
Recherche Opérationnelle” du master informatique. ORO concentre les forces nantaises du domaine
(avec la participation de Angers et de Rennes 1) dans un programme de master international recherche et
professionnel, avec adossement aux équipes de recherche concernées du LINA et de l’IRCCyN. Un cycle
annuel de “séminaires d’optimisation de l’Université de Nantes” a été mis en place dans cette dynamique.
Sur la participation au rayonnement du laboratoire, ROOM accueille régulièrement depuis 2005
d’éminents collègues internationaux en visite souvent pour une période de 1 mois. ROOM a organisé
et présidé deux conférences internationales en France (EMO’2009-Nantes ; MOPGP’2006-Tours), et
ing/Multiattribute Utility Theory. In Multiple Criteria Decision Making for Sustainable Enery and Transportation Systems,
M. Ehrgott, B. Naujoks, T.J. Stewart and J. Wallenius (Eds.), Lecture Notes in Economics and Mathematical Systems 634
Springer-Verlag, Berlin, 2009
2. texte adapté d’un article de Karine Daniel, numéro 27 du magasine Nantes Métropole mai/juin 2010 sur la notoriété et
le rayonnement de la métropole
334
Bilan 2006–2009 ROOM
l’équipe est impliquée dans le comité local d’organisation d’une manifestation à venir, ROADEF-Angers
(2012).
Sur le rayonnement de l’équipe au niveau national et international, ROOM est visible par ses actions
et ses résultats. Active dans les sociétés scientifiques du domaine (ROADEF, EURO, MCDM), et fort de
sa culture de collaborations, elle est inscrite dans un réseau scientifique que l’on retrouve en support du
master ORO, des projets de recherche ( EPSRC avec Nottingham, EGIDE déposé avec Kaiserslautern) et
travaux de recherche. Elle a accueilli durant deux ans Matthias Ehrgott, qui est un de ses collaborateurs
régulier, au titre de DR2 CNRS. Elle a obtenu un projet ANR programme blanc avec le LIP6-Paris6
et le LAMSADE-Paris9. Elle entretient des relations avec les industriels dans le cadre de contrats de
recherche (comme FranceTelecom). Les travaux développés au sein de l’équipe relèvent de l’optimisation multiobjectif avec historiquement les champs de l’optimisation combinatoire multiobjectif et les
metaheuristiques multiobjectif, ainsi que leurs applications. Les résultats obtenus sont publiés dans des
journaux de rang international et connaissent un impact réel dans la communauté scientifique. Ceci est
particulièrement vrai sur les productions concernant les méthodes exactes pour l’optimisation combinatoire multiobjectif. Deux nouveaux champs animés par Anthony Przybylski sont apparus au cours de ces
dernières années, à savoir la caractérisation d’instances numériques [37] et les algorithmes d’approximations à garantie [24].
En résumé, le bilan mesurable de ROOM au terme de ses 4 premières années d’existence présente
des indicateurs tous positifs. L’équipe est de niveau international, structurée et engagée. Il règne en son
noyau une excellente ambiance de travail et une autonomie financière, aux interfaces avec les autres
équipes locales et régionales d’excellentes relations et collaborations. Elle suscite un l’intérêt certain
auprès des doctorants, collaborateurs académique ou industriel. Les forces de ROOM sont une dynamique, une volonté de poursuivre ses productions à l’image de ce premier quadriennal au sein de
l’équipe “Recherche Opérationnelle et Optimisation Multiobjectif”, une détermination à travailler pour
que ce thème progresse encore au delà de son niveau actuel. Ces éléments réunis permettent de prétendre
à une contribution active à l’émergence régionale de la recherche opérationnelle ligérienne (avec pour
objectif la reconnaissance d’un pôle d’excellence “Recherche opérationnelle” résultant de LigeRO) et du
rayonnement à l’axe ”aide à la décision” du LINA.
12.12 Projet scientifique 2012-2015
Dans le cadre du nouveau quadriennal, nous présenterons la continuité de nos travaux dans le contexte
de la nouvelle équipe OPTI.
12.13 Bibliographie
12.13.1 Publications de référence de l’équipe dans la période
[1] http ://hal.archives-ouvertes.fr/hal-00485936/en/
A. P RZYBYLSKI, X. G ANDIBLEUX, et M. E HRGOTT. A two phase method for multi-objective
integer programming and its application to the assignment problem with three objectives. Discrete
Optimization, 2010, 7 : 149–165
ROOM
335
[2] http ://hal.archives-ouvertes.fr/hal-00470396/en/
X. G ANDIBLEUX, J. J ORGE, X. D ELORME, et J. RODRIGUEZ. Algorithme de fourmis pour mesurer
et optimiser la capacite d’un reseau ferroviaire. In e. P. S. N. M ONMARCH É , F. G UINAND, réd.,
Fourmis articielles, des bases algorithmiques aux concepts et réalisations avancés, Traité IC2, page
000. Hermès - Lavoisier, 2010
[3] http ://hal.archives-ouvertes.fr/hal-00466135/en/
H. F OUCHAL, X. G ANDIBLEUX, et F. L EHUEDE. Algorithme de Martins et intégrale de Choquet
pour le calcul de plus courts chemins multi-critères préférés. In ROADEF 2010, 2010, Toulouse,
France
[4] http ://hal.archives-ouvertes.fr/hal-00461771/en/
X. D ELORME, X. G ANDIBLEUX, et F. D EGOUTIN. Evolutionary, constructive and hybrid procedures for the bi-objective set packing problem. European Journal of Operational Research, 2010,
204(2) : 206–217
[5] http ://hal.archives-ouvertes.fr/hal-00464834/en/
T. V INCENT, F. S EIPP, S. R UZIKA, A. P RZYBYLSKI, et X. G ANDIBLEUX. Mavrotas and Diakoulaki’s Algorithm for Multiobjective Mixed 0-1 Linear programming Revisited. In ROADEF2010,
2010, Toulouse, France
[6] http ://tel.archives-ouvertes.fr/tel-00488215/en/
J. J ORGE. Nouvelles propositions pour la résolution exacte du sac à dos multi-objectif unidimensionnel en variables binaires. Thèse de doctorat, Université de Nantes, 2010
[7] http ://hal.archives-ouvertes.fr/hal-00470428/en/
X. G ANDIBLEUX, X. D ELORME, et J. R ODRIGUEZ. RECIFE : logiciel pour l’étude de la capacité
d’infrastructures ferroviaires. In ROADEF’10, 2010, Toulouse, France
[8] http ://hal.archives-ouvertes.fr/hal-00467049/en/
X. G ANDIBLEUX, P. R ITEAU, et X. D ELORME. RECIFE : A MCDSS for Railway Capacity Evaluation. In T. J. S. Matthias E HRGOTT, B ORIS NAUJOKS et Jyrki WALLENIUS, réds., 19th International Conference on Multiple Criteria Decision Making, 2010, Auckland, Nouvelle-Zélande.
Springer Berlin / Heidelberg, 2010, volume 634 of Lecture Notes in Economics and Mathematical
Systems, pages 93–103
[9] http ://hal.archives-ouvertes.fr/hal-00466939/en/
A. M EREL, S. D EMASSEY, et X. G ANDIBLEUX. Un algorithme de génération de colonnes pour le
problème de capacité d’infrastructure ferroviaire. In ROADEF 2010, 2010, Toulouse, France
[10] http ://hal.archives-ouvertes.fr/hal-00464888/en/
B. G U ÉDAS, P. D ÉPINC É, et X. G ANDIBLEUX. Vers un algorithme évolutionnaire multiobjectif
ad-hoc pour l’optimisation multidisciplinaire. In ROADEF 2010, 2010, Toulouse, France
[11] http ://hal.archives-ouvertes.fr/hal-00461739/en/
S. P ARRAGH, K. F. D OERNER, R. F. H ARTL, et X. G ANDIBLEUX. A heuristic two-phase solution
approach for the multi-objective dial-a-ride problem. Networks, 2009, 54(4) : 227–242
[12] http ://hal.archives-ouvertes.fr/hal-00461784/en/
A. P RZYBYLSKI, X. G ANDIBLEUX, et M. E HRGOTT. A Recursive Algorithm for Finding All Nondominated Extreme Points in the Outcome Set of a Multiobjective Integer Programme. INFORMS
Journal on Computing, 2009, page Published online in Articles in Advance
336
Bilan 2006–2009 ROOM
[13] http ://hal.archives-ouvertes.fr/hal-00449888/en/
B. G U ÉDAS, X. G ANDIBLEUX, et P. D ÉPINC É. A weak product on partially ordered sets to define
a compromise between multiobjective optimization problems. In 20th International Conference on
Multiple Criteria Decision Making, 2009, Chengdu, Chine
[14] http ://hal.archives-ouvertes.fr/hal-00466933/en/
A. M EREL, X. G ANDIBLEUX, S. D EMASSEY, et R. L USBY. An improved Upper Bound for the
Railway Infrastructure Capacity Problem on the Pierrefitte-Gonesse Junction. In ROADEF 2009,
2009, Nancy, France, pages 62–76
[15] http ://hal.archives-ouvertes.fr/hal-00470464/en/
N. V EERAPEN, D. Landa S ILVA, et X. G ANDIBLEUX. Hyperheuristic as Component of a MultiObjective Metaheuristic. In SLS-DS 2009 : Doctoral Symposium on Engineering Stochastic Local
Search Algorithms, 2009, Bruxelles, Belgique
[16] http ://hal.archives-ouvertes.fr/hal-00466128/en/
H. F OUCHAL, X. G ANDIBLEUX, et F. L EHUEDE. Multi-criteria optimization with the Choquet
integral in shortest path problems. In 20th International Conference on Multiple Criteria Decision
Making, 2009, Chengdu, Chine
[17] http ://hal.archives-ouvertes.fr/hal-00471527/en/
T. V INCENT. Multi-objective Branch and Bound for Mixed 0-1 Linear Programming : Corrections
and Improvements for the Biobjective Case, 2009. Mémoire de M2R.
[18] http ://hal.archives-ouvertes.fr/hal-00461979/en/
X. D ELORME, X. G ANDIBLEUX, et J. R ODRIGUEZ. Stability evaluation of a railway timetable at
station level. European Journal of Operational Research, 2009, 195(3) : 780–790
[19] http ://hal.archives-ouvertes.fr/hal-00449703/en/
B. G U ÉDAS, P. D ÉPINC É, et X. G ANDIBLEUX. Vers une notion de compromis en optimisation
multidisciplinaire multiobjectif. In ROADEF 09, 2009, Nancy, France
[20] http ://hal.archives-ouvertes.fr/hal-00466664/en/
A. R AITH et M. E HRGOTT. A comparison of solution strategies for biobjective shortest path problems. Computers and Operations Research, 2008, 36(4) : 1299–1331
[21] http ://hal.archives-ouvertes.fr/hal-00468829/en/
J. J ORGE, X. G ANDIBLEUX, et M. W IECEK. A Priori Reduction of the Size of the Binary Multiobjective Knapsack Problem. In MOPGP’08 Multi-Objective Programming and Goal Programming,
2008, Royaume-Uni
[22] http ://hal.archives-ouvertes.fr/hal-00467050/en/
D. S ALAZAR, X. G ANDIBLEUX, J. J ORGE, et M. S EVAUX. A Robust-Solution-Based Methodology to Solve Multiple-Objective Problems with Uncertainty. In X. G. Vincent B ARICHARD ,
M ATTHIAS E HRGOTT et Vincent T’K INDT, réds., Multiobjective Programming and Goal Programming, 2008, Tours, France. Springer Berlin / Heidelberg, 2008, volume 618 of Lecture Notes
in Economics and Mathematical Systems, pages 197–207
[23] http ://hal.archives-ouvertes.fr/hal-00466665/en/
A. R AITH et M. E HRGOTT. A two-phase algorithm for the biobjective integer minimum cost flow
problem. Computers and Operations Research, 2008, 36(6) : 1945–1954
ROOM
337
[24] http ://hal.archives-ouvertes.fr/hal-00465768/en/
A. P RZYBYLSKI, H. H UGOT, et X. G ANDIBLEUX. An e-Approximation Two Phase Method with
Three Objectives applied to Assignment Problem. In MOPGP’08, 2008, Portsmouth, UK
[25] http ://hal.archives-ouvertes.fr/hal-00466668/en/
L. S HAO et M. E HRGOTT. Approximately solving multiobjective linear programmes in objective
space and an application in radiotherapy treatment planning. Mathematical Methods of Operations
Research, 2008, 68(2) : 257–276
[26] http ://hal.archives-ouvertes.fr/hal-00466669/en/
L. S HAO et M. E HRGOTT. Approximating the nondominated set of an MOLP by approximately
solving its dual problem. Mathematical Methods of Operations Research, 2008, 68(3) : 469–492
[27] http ://hal.archives-ouvertes.fr/hal-00468834/en/
J. J ORGE et X. G ANDIBLEUX. Branch and bound algorithm for the 0-1 knapsack problem with
multiple objectives. In IFORS’08 International Federation of Operational Research Societies Conference, 2008, Afrique Du Sud
[28] http ://hal.archives-ouvertes.fr/hal-00466663/en/
A. P RZYBYLSKI, X. G ANDIBLEUX, et M. E HRGOTT. Computational results for four exact
methods to solve the three-objective assignment problem. In V. B ARICHARD, M. E HRGOTT,
X. G ANDIBLEUX, et V. T’K INDT, réds., Multiple Objective Programming and Goal Programming : Theoretical Results and Practical Applications, 2008, Tours, France. Springer Berlin / Heidelberg, 2008, volume 618 of Lecture Notes in Economics and Mathematical Systems, pages 79–88
[29] http ://hal.archives-ouvertes.fr/hal-00468837/en/
J. J ORGE, X. G ANDIBLEUX, et M. W IECEK. Fixation de variables par dominance en utilisant
des bornes sur la cardinalité des solutions, appliquée au problème de sac à dos multi-objectif. In
ROADEF’08, 2008, France
[30] http ://hal.archives-ouvertes.fr/hal-00466658/en/
M. E HRGOTT et X. G ANDIBLEUX. Hybrid metaheuristics for multi-objective combinatorial optimization. In C. B LUM, M. Blesa AGUILERA, A. R OLI, et M. S AMPELS, réds., Hybrid Metaheuristics, Studies in Computational Intelligence, pages 221–259. Springer Berlin / Heidelberg, 2008
[31] http ://hal.archives-ouvertes.fr/hal-00466662/en/
M. E HRGOTT et S. R UZIKA. Improved e-constraint method for multiobjective programming. Journal of Optimization Theory and Application, 2008, 138(3) : 375–396
[32] http ://hal.archives-ouvertes.fr/hal-00466667/en/
M. E HRGOTT. Multiobjective (Combinatorial) Optimisation : Some Thoughts on Applications. In
V. B ARICHARD, M. E HRGOTT, X. G ANDIBLEUX, et V. T’K INDT, réds., Multiple Objective Programming and Goal Programming : Theoretical Results and Practical Applications, 2008, Tours,
France. Springer Berlin / Heidelberg, 2008, volume 618 of Lecture Notes in Economics and Mathematical Systems, pages 267–282
[33] http ://hal.archives-ouvertes.fr/hal-00470437/en/
X. G ANDIBLEUX, S. P ARRAGH, et K. D OERNER. Succes Stories on the Multi-Objective Path
Relinking. In MCDM’08 : 19th International Conference on Multiple Criteria Decision Making,
2008, Auckland, Nouvelle-Zélande
338
Bilan 2006–2009 ROOM
[34] http ://hal.archives-ouvertes.fr/hal-00461989/en/
A. P RZYBYLSKI, X. G ANDIBLEUX, et M. E HRGOTT. Two phase algorithms for the bi-objective
assignment problem. European Journal of Operational Research, 2008, 185(2) : 509 – 533
[35] http ://hal.archives-ouvertes.fr/hal-00468840/en/
J. J ORGE et X. G ANDIBLEUX. Algorithmes pour la résolution exacte du problème 01KP unidimensionnel bi-objectif. In 1ère journée du groupe de travail de la ROADEF ≪ KnapSack et
Optimisation≫, 2007, France
[36] http ://hal.archives-ouvertes.fr/hal-00462004/en/
M. E HRGOTT et X. G ANDIBLEUX. Bound sets for biobjective combinatorial optimization problems. Computers & Operations Research, 2007, 34(9) : 2674 – 2694
[37] http ://hal.archives-ouvertes.fr/hal-00465762/en/
A. P RZYBYLSKI, J. B OURDON, et X. G ANDIBLEUX. Distribution of Solutions of Multi-objective
Assignment Problem and Links with the Efficiency of Solving Methods. In GOR 2007, 2007,
Saarbrücken, Allemagne
[38] http ://hal.archives-ouvertes.fr/hal-00467535/en/
J. PASIA, X. G ANDIBLEUX, K. D OERNER, et R. H ARTL. Local Search Guided by Path Relinking
and Heuristic Bounds. In 4th International Conference on Evolutionary Multi-Criterion Optimization, 2007, Matsushima, Japon. Springer Berlin / Heidelberg, 2007, volume 4403 of Computer
Science, pages 501–515
[39] http ://hal.archives-ouvertes.fr/hal-00470440/en/
X. G ANDIBLEUX et C. C HAMAYOU. Potential efficient solutions of a biobjective telecommunication network expansion planning problem. In MIC2007 : The Seventh Metaheuristics International
Conference, 2007, Montréal, Canada
[40] http ://hal.archives-ouvertes.fr/hal-00468839/en/
J. J ORGE, X. G ANDIBLEUX, et A. P RZYBYLSKI. Ranking algorithm for the 01 unidimensional
multi-objective knapsack problem. In GOR’07 : Operations Research, 2007, Allemagne
[41] http ://hal.archives-ouvertes.fr/hal-00387665/en/
J. R ODRIGUEZ, X. D ELORME, X. G ANDIBLEUX, G. M ARLIERE, R. B ARTUSIAK, F. D EGOUTIN,
et S. S OBIERAJ. RECIFE : modèles et outils pour l’analyse de la capacité ferroviaire. Recherche
Transports Sécurité, 2007, 95 : 129–146. G2I-MSGI-2007
[42] http ://hal.archives-ouvertes.fr/hal-00470469/en/
X. G ANDIBLEUX et E. T AILLARD. Sweep and Path Re-linking for biobjective QAP. In Euro XXII :
22nd European Conference on Operational Research, 2007, Prague, République Tchèque
[43] http ://hal.archives-ouvertes.fr/hal-00462028/en/
X. G ANDIBLEUX, F. B EUGNIES, et S. R ANDRIAMASY. Martins’ algorithm revisited for multiobjective shortest path problems with a MaxMin cost function. 4OR : A Quarterly Journal of
Operations Research, 2006, 4(1) : 47–59. AMS 90C29, 90C27, 05C38, 90B18, 68M12
[44] http ://hal.archives-ouvertes.fr/hal-00471541/en/
A. P RZYBYLSKI. Méthode en deux phases pour la résolution exacte de problèmes d’optimisation combinatoire comportant plusieurs objectifs : nouveaux développements et application au
problème d’affectation linéaire. Thèse de doctorat, 2006
ROOM
339
[45] http ://hal.archives-ouvertes.fr/hal-00468842/en/
J. J ORGE et X. G ANDIBLEUX. Self-adaptive stopping condition for an ant colony optimization inspired algorithm designed for set packing problems. In 7th EU/MEeting on Adaptive, Self-Adaptive,
and Multi-Level Metaheuristics, 2006, Espagne
[46] http ://hal.archives-ouvertes.fr/hal-00387713/en/
X. D ELORME, X. G ANDIBLEUX, et J. R ODRIGUEZ. Stability evaluation of a railway timetable
at the station level. In C. P. A. D OLGUI , G. M OREL, réd., 12th IFAC Symposium on Information
Control Problems in Manufacturing (INCOM’06), 2006, Saint-Etienne, France. Elsevier Science,
2006, volume 3, pages 379–384. ISBN : 978-0-08-044654-7
[47] http ://hal.archives-ouvertes.fr/hal-00462009/en/
A. P RZYBYLSKI, X. G ANDIBLEUX, et M. E HRGOTT. The biobjective integer minimum cost flow
problem : incorrectness of Sedeño-Noda and Gonzàlez-Martin’s algorithm. Computers & Operations Research, 2006, 33(5) : 1459 – 1463
[48] http ://hal.archives-ouvertes.fr/hal-00466657/en/
V. B ARICHARD, M. E HRGOTT, X. G ANDIBLEUX, et V. T KINDT. Multiple Objective Programming and Goal Programming : Theoretical Results and Practical Applications. Springer Berlin /
Heidelberg, 2008
[49] http ://hal.archives-ouvertes.fr/hal-00470378/en/
M. E HRGOTT, J. F IGUEIRA, et X. G ANDIBLEUX. Multiple Objective Discrete and Combinatorial
Optimization. Springer Netherlands, 2006. Annals of Operations Research, Volume 147, Number
1 / octobre 2006. ISSN 0254-5330
[50] http ://hal.archives-ouvertes.fr/hal-00470355/en/
M. E HRGOTT, C. F ONSECA, X. G ANDIBLEUX, J.-K. H AO, et M. S EVAUX. Evolutionary MultiCriterion Optimization. Springer Berlin / Heidelberg, 2009. Lecture Notes in Computer Science
Vol. 5467. ISBN : 978-3-642-01019-4
Équipe
OPTI
Fusion des équipes MEO et ROOM
Dans le cadre du quadriennal 2012-2015, les équipes MEO et ROOM ont formé un nouveau projet
d’équipe. Les rapports d’activités des deux équipes MEO et ROOM précèdent ce projet scientifique.
Le projet décrit ci-après émane du bilan des activités des deux équipes et de leur projection dans le
futur.
341
342
Projet 2012-2015 OPTI
13.1 Composition de l’équipe au 1/09/2010
L’équipe OPTI (Optimisation globale, optimisation multi-objectifs) est créée en 2010 sous la responsabilité de Laurent Granvilliers.
Nom
GANDIBLEUX
GOLDSZTEJN
GOUALARD
GRANVILLIERS
JERMANN
PRZYBYLSKI
Prénom
Xavier
Alexandre
Frédéric
Laurent
Christophe
Anthony
Permanents au 1/09/2010
Position
PR
CR2
MC
PR
MC
MC
Institution
UN
CNRS
UN
UN
UN
UN
Arrivée
12/2006
01/10/2007
01/12/2001
01/09/2005
01/09/2003
10/2007
Nom
BERGER
FOUCHAL
MEREL
VINCENT
Prénom
Nicolas
Hugo
Aurélien
Thomas
Doctorants au 1/09/2010
Position
BDI
Projet MILES
A
Nantes Métropole
Institution
CNRS
UN
UN
UN
Arrivée
01/09/2006
10/2008
10/2008
10/2009
Nom
ISHII
Personnels temporaires sur la période 2006-2010
Prénom
Position
Institution
Arrivée
Daisuke
PostDoc
INRIA
01/04/2010
Départ
01/04/2011
Constitution de l’équipe
Tous les membres des équipes MEO et ROOM deviennent membres de la nouvelle équipe OPTI.
13.2 Projet scientifique 2012-2015
Mots-clés : optimisation globale, optimisation multi-objectif, calcul scientifique, applications
Ancrage scientifique et genèse de l’équipe
Assises sur un positionnement scientifique de plus d’une décennie, les équipes MEO et ROOM ont
émergé au LINA à partir de 2006. Elles constituent des groupes de recherche dynamiques et visibles sur
des thématiques précises : MEO relève du calcul scientifique certifié et de l’optimisation globale, ROOM
de la recherche opérationnelle et en particulier l’optimisation multi-objectif.
Ensemble, les membres de ces équipes (2PU, 3MC, 1CR CNRS) proposent de se rapprocher en
perspective de constituer à partir de 2012 une nouvelle équipe, de rang international, en optimisation
au LINA. Elle a vocation de se positionner au sein de la thématique ≪ recherche opérationnelle ≫ dans
l’ouest en y occupant une place motrice et originale, notamment en y apportant des contributions relevant
de l’optimisation numérique.
OPTI
343
Description du projet
L’équipe OPTI a pour objectif de développer des connaissances visant la résolution efficace de
problèmes d’optimisation complexes. Elle s’adresse à un champ de problématiques allant du traitement
de problèmes NP-difficiles de grande taille, jusqu’à la certification des calculs, avec comme fil rouge le
développement de méthodes, algorithmes et logiciels performants répondant aux problèmes d’optimisation sous-jacents.
Dans le sillage de la reconnaissance et des résultats obtenus par MEO et ROOM, l’équipe OPTI
repose sur quatre axes de recherche constituant les pierres angulaires qu’elle souhaite conforter.
Optimisation globale. Cet axe concerne le calcul scientifique certifié basé sur l’analyse par intervalles
et l’optimisation globale pour les problèmes numériques non linéaires et non convexes. L’approche
choisie consiste à développer des méthodes de satisfaction de contraintes et d’analyse par intervalles et de les hybrider avec les outils classiques de l’optimisation. L’enjeu du prochain quadriennal est de démontrer que des outils de calcul certifié sont capables de résoudre des problèmes
d’optimisation sous contraintes difficiles.
Optimisation multi-objectif. Emmenées par les problèmes combinatoires présentant plusieurs objectifs à optimiser, les recherches inscrites dans cet axe caractérisent principalement l’activité scientifique de ROOM. Forte de ses productions récentes sur les méthodes exactes et métaheuristiques
dédiées à ce cadre de problèmes, l’équipe a initié des travaux sur les algorithmes approchés à
garantie de performances, la caractérisation des instances numériques et la prise en compte de
préférences. Ces ambitions sont positionnées dans les objectifs du projet ANR blanc Guepard
(2009-2013), lesquels régissent nos travaux pour le quadriennal 2012-2015.
Logiciels. Le développement et la diffusion de logiciels efficaces sera une préoccupation de l’équipe.
Cette activité figure dans le cœur de métier de MEO et se mesure par exemple avec la librairie
d’arithmétique des intervalles gaol et la librairie de résolution de contraintes numériques realpaver.
Une ambition est de faire évoluer ces systèmes génériques pour réaliser des calculs en parallèle
et attaquer des problèmes d’optimisation. Avec une vision plus spécifique, ROOM intègre dans le
système recife un ensemble d’outils opérationnels pour l’étude de la capacité d’infrastructures ferroviaires. L’application qui est un système d’aide à la décision multicritère qui est appelé à évoluer
notamment par l’intégration des productions proposées par l’équipe sur cette problématique.
Applications. Des expérimentations sont réalisées sur des problèmes réels pour valider les travaux de
recherche mais aussi en extraire des problématiques nouvelles. Les domaines concernés relèvent
d’opportunités qui se sont présentées et sur lesquels des investissements ont été consentis en vue
d’obtenir la maı̂trise requise. Il s’agit de systèmes souvent complexes comme le transport ferroviaire, les réseaux de communication, la production, les systèmes homme-machine, la conception,
l’automatique, la robotique. Cet axe sera continué prioritairement sur cette variété de domaines
sans s’interdire de nouvelles ouvertures, comme par exemple les systèmes hybrides en biologie.
L’équipe OPTI souhaite également s’ouvrir sur des travaux à la croisée des savoirs. Elle aspire attaquer des problèmes en variables mixtes (continues et discrètes) ainsi que développer des méthodes
de résolutions hybrides (locales et globales, linéaires et non linéaires). Un objectif est de partager une
culture commune d’ici 2012 et d’amorcer des travaux sur des points précisément identifiés.
Enfin, OPTI se donne une ambition nouvelle pour développer des travaux sur le calcul haute performance pour des problèmes d’optimisation. Notons que des résultats ont déjà été obtenus en algorithmique
parallèle pour la résolution des problèmes numériques.
344
Projet 2012-2015 OPTI
Néanmoins le risque de ne pas aboutir sur ces ouvertures est certain, et un soutien du laboratoire est
nécessaire.
Positionnement
Le contexte nantais, régional et inter-régional est propice à l’émergence d’un pôle national d’excellence scientifique sur la thématique ≪ optimisation et recherche opérationnelle ≫. L’équipe OPTI entend
y jouer un rôle important. Elle formera un socle avec les autres équipes de l’axe SAD du LINA, toutes
de culture informatique. Elle est complémentaire aux équipes utilisatrices des technologies d’optimisation (par exemple, MCM/IRCCyN avec laquelle MEO et ROOM collaborent déjà). Elle est partenaire
dans LigeRO des autres équipes de recherche opérationnelle fortement orientées en ordonnancement,
transport, logistique et leurs applications (SLP/IRCCyN, OSPL/LISA, MOA/LERIA). Enfin, elle peut
faire le lien avec des groupes de la région Bretagne visant des problèmes d’optimisation (ordonnancement, robustesse et applications en électronique au LABSTIC, optimisation combinatoire et parallélisme
à l’IRISA).
Sur un plan national, OPTI a des connexions avec une dizaine d’équipes de recherche en informatique
(optimisation combinatoire et contraintes), automatique (optimisation pour la production de biens et de
services) et mathématiques appliquées (optimisation numérique et calculs). Elle s’inscrit totalement dans
la politique de l’institut des sciences informatiques et de leurs interactions du CNRS. Citons les équipes
connexes recensées :
– Optimisation combinatoire multi-critère : LIP6 (DESIR : Décision, Systèmes Intelligents et
Recherche Opérationnelle), LAMSADE (Optimisation combinatoire multicritère), INRIA Lille
(DOLPHIN : Parallel Cooperative Multi-criteria Optimization) ;
– Intervalles et contraintes : LIP (Arenaire : arithmétique des ordinateurs), INRIA Sophia (CoPRIn :
contraintes, optimisation, résolution par intervalles), I3S (CEP : contraintes et preuves), ENSIETA
(Laboratoire Développement Technologies Nouvelles) ;
– Optimisation numérique : Institut de mathématiques de Toulouse (Optimisation et Interactions),
INRIA Grenoble (NUMOPT : Optimisation Numérique), LISSI (Modélisation et optimisation),
IRIT (APO : algorithmes parallèles et optimisation).
Les membres de l’équipe OPTI ont développé de nombreuses collaborations internationales avec
l’Allemagne (U. Kaiserslautern, U. Wuppertal), l’Autriche (U. Vienne), la Belgique (U. Mons), le Canada
(McMaster University), le Chili (UTFSM), l’Espagne (IRII Barcelone, U. Malaga), les États-Unis (UC
Irvine), la Grande-Bretagne (U. Nottingham), l’Inde (IIT), le Japon (NII, Osaka prefecture University,
Kyoto University), la Nouvelle-Zélande (U. Auckland), les Pays-Bas (CWI), la Pologne (TU Poznan) et
la Suisse (U. Applied Sciences Western Switzerland).
Impact sur la formation
L’équipe est à l’origine du master international ≪ Optimisation en Recherche Opérationnelle
(ORO) ≫ de Nantes (http://oro.univ-nantes.fr). Ses membres assument la responsabilité de
la formation et des cours sur la programmation linéaire, la programmation non linéaire, l’optimisation
globale, l’optimisation multi-objectif, l’aide à la décision multi-critère et les métaheuristiques. De finalité
professionnelle et recherche, l’ensemble des équipes de recherche de l’IRCCyN et du LINA relevant de
l’optimisation y sont adossées. Ce master a été souligné par les évaluateurs du projet LigeRO comme
étant une pièce centrale pour la réussite de l’émergence collective de la recherche opérationnelle en pays
de Loire.
OPTI
345
Forces, faiblesses et moyens
Les deux groupes MEO et ROOM sont bien positionnés sur leurs thèmes d’excellence nationalement
et internationalement. Ils se retrouvent localement au sein du master ORO et sont situés sur le même
site de la faculté des sciences. Ils se rencontrent sur certaines questions scientifiques où ils expriment
des intérêts complémentaires. In fine, OPTI répond à la recommandation exprimée par la direction du
LINA dans le cadre du prochain quadriennal. Cependant, les deux groupes actuels s’inscrivent dans des
communautés scientifiques différentes et ne partagent pas les conférences, ni les journaux scientifiques.
Ils sont fortement mobilisés sur leurs thèmes d’excellence et présentent seulement des collaborations
scientifiques naissantes. Le risque de ne pas se rencontrer dans OPTI est réel.
Pour réussir ce pari scientifique, la période avant 2012 sera mise à profit pour développer une culture
commune et initier des travaux. Un soutien du LINA notamment par le fléchage de doctorants sera un
élément certain en vue de produire rapidement des résultats à ce niveau. Pour renforcer nos compétences
en optimisation stochastique et en métaheuristiques en vue de réussir pleinement le pari scientifique
de l’équipe OPTI, un soutien des tutelles sera demandé pour recruter des chercheurs ou enseignantschercheurs. La création du thème nouveau sur le calcul haute performance imposera le recrutement d’un
personnel de rang A et l’acquisition d’équipements matériels.
Équipe
TALN
Chapeau-résumé
Les travaux de l’équipe s’inscrivent dans la thématique du traitement automatique des langues et
sont par nature multidisciplinaire, informatique et linguistique, avec une coloration fortement informatique impliquant des compétences en TALN mais aussi en théorie des languages, apprentissage artificiel,
recherche d’information, génie logiciel. Les travaux intègrent des recherches à caractère fondamental et
des recherches appliquées aux langues naturelles dans leur spécificité et leur complexité. Les données
langagières traitées sont des données réelles : l’unité minimale est le texte pouvant être collecté à partir
du web et regroupé en collection raisonnée : les corpus.
Avec la disponibilité toujours croissante de documents électroniques, l’analyse des données textuelles et
des connaissances qu’elles véhiculent s’affirme comme un enjeu majeur de la société de l’information,
comme l’attestent le programme dédié à l’ingéniérie des langues du 7ème Programmes Cadres de l’Union
Européenne 1 , les programmes successifs “Masses de données - Connaissances ambiantes” puis “Contenus et interactions (CONTINT)” de l’ANR. Cette thématique est aussi centrale au pôle mondial de
compétitivité Cap Digital 2 dédié aux industries du contenu numérique et présente à part entière dans la
chaı̂ne de valeur “Contenu” du pole Bretagne-Pays de Loire Image et réseaux 3 . Il s’agit d’accèder à l’information malgré une masse et une complexité toujours croissante des données langagières écrites : ap1. http ://cordis.europa.eu/fp7/ict/language-technologies
2. http ://www.capdigital.com/
3. http ://www.images-et-reseaux.com/
347
348
Bilan 2006–2009 et projet 2012-2015 TALN
parition de nouveaux supports communicationnels comme les blogs, les réseaux sociaux, ou de nouvelles
formes de communications écrites comme les SMS, le couplage à d’autres média, le multilinguisme, etc.
L’équipe est partie prenante de ces grands programmes national et européen avec la coordination de deux
projets ANR et d’un projet européen. Ses activités sont aussi structurantes au niveau de la région Pays
de Loire avec la participation et la coordination de trois projets successifs en partenariat avec l’IRCCyN
et le LIUM.
14.1 Composition de l’équipe au 30/06/2010
Nom
BECHET
DAILLE
DESMONTILS
DIKOVSKY
ENGUEHARD
HERNANDEZ
JACQUIN
de la HIGUERA
MONCEAUX
MORIN
MORIN
Nom
ALFARED
DELPECH
HAZEM
JOUSSE
NAKAO
POULARD
SHRESTHA
VERNIER
Nom
AFANTENOS
DUBREIL
GOEURIOT
PARK
PENA SALDARRIAGA
ROCHETEAU
Prénom
Denis
Béatrice
Emmanuel
Alexandre
Chantal
Nicolas
Christine
Colin
Laura
Emmanuel
Emmanuel
Permanents au 30/06/2010
Position
MC
PR1
MC
PR1
MC
MC
MC
PR1
MC
MC
PR2
Institution
UN
UN
UN
UN
UN
UN
UN
UN
UN
UN
UN
Arrivée
2004
1996
2003
1998
1994
2006
2003
2009
2003
2000
2009
Doctorants au 30/06/2010
Prénom
Position
Institution
Arrivée
Ramadan
GVT étranger
UN
8/2009
Estelle
CIFRE
UN
6/2010
Amir
ANR
UN
10/2009
Vincent
PdL
U.du Mans
9/2007
Yukie
Salariée
UN
11/2006∗
Fabien
A
UN
9/2007
Prajol
A
UN
10/2009
Mathieu
ANR
UN
10/2007
∗ La soutenance de Yukie Nakao a eu lieu le 2/07/2010.
Personnels temporaires sur la période 2006-2010
Prénom
Position
Institution
Arrivée
Départ
Stergos
PostDoc
UN
01/01/2008
31/08/2009
Estelle
PostDoc
UN
01/09/2007
31/12/2008
Lorraine
ATER
UN
01/09/2008
31/08/2009
Jungyeul
PostDoc
UN
01/01/2010
31/12/2010
Sébastian
PostDoc
UN
01/03/2010
31/08/2010
Jérôme
PostDoc
UN
01/01/2009
31/12/2011
TALN
349
Évolution de l’équipe sur la période 01/01/2006-30/06/2010
L’effectif en membres permanents de l’équipe TALN est resté stable sur la période avec deux mouvements : le départ à la retraite d’Annie Tartier (MC) et le recrutement de Colin de la Higuera (PR1) en
septembre 2009. Avec la promotion d’Emmanuel Morin de MC à PR2 en septembre 2009, le nombre
de professeurs a doublé sur la période. Le nombre de doctorants a augmenté grâce aux financements sur
contrats, avec des recrutements effectués depuis 2007 au sein de Masters non nantais à la seule exception
de F. Poulard. L’équipe pour mener à bien ses travaux contractuels a accueilli 6 post-doctorants dont
2 étrangers. L’un des post-doctorants, Jérôme Rocheteau, travaille exclusivement sur le développement
logiciel de l’équipe.
14.2 Faits marquants 2006-2010
Structuration et thèmes de recherche Les travaux de l’équipe relèvent de deux thèmes de recherche :
Analyse et Découverte Nous nous intéressons, d’une part aux modèles formels de la syntaxe et de
la sémantique des langues afin de caractériser nos modèles linguistiques du point de vue de leur expressivité et des liens qu’ils entretiennent avec d’autres formalismes, et d’autre part, à l’application de
modèles d’analyse à la découverte d’éléments linguistiques ayant une sémantique particulière, avec une
forte spécificité liée au traitement des textes relevant de domaines de spécialité.
Alignement et comparaison Nous définissons des méthodes de rapprochement de diverses sources
textuelles, les alignements, pour pouvoir bénéficier d’informations complémentaires et permettre des
comparaisons. En particulier, nous abordons les alignements monolingue et multilingue.
Ces deux thèmes sont complémentaires et coopérent au service de trois applications principales : le
traitement du multilinguisme, de la multimodalité et la recherche d’informations. Les travaux effectués
respectent un cycle de vie complet : de la définition à la réalisation, puis la diffusion logicielle. Les aspects implémentation et diffusion s’effectuent au sein de la plate-forme logicielle libre UIMA qui est en
quelque sorte la vitrine de l’équipe.
Contrats majeurs de l’équipe sur la période L’équipe a été à l’initiative et a coordonné ou coordonne
actuellement les projets Région Pays de Loire DEPART (2009-2012), ANR Blogoscopie (2007-2009),
METRICC (2009-2011), et le projet européeen STREP TTC (2010-2012). Elle participe au Comité d’organisation du réseau d’excellence européen du 7e PCRD Pascal 2 (2008-2013).
Publications majeures de l’équipe sur la période
portent sur :
Les publications marquantes de l’équipe TALN
1. des conférences et des revues de tout premier plan :
– ACL. 2007 [33] : la très sélective conférence internationale en TALN ;
– Theoretical Computer Science 2006. [45] : une revue de référence publiée sur les aspects
théoriques de l’informatique. Les liens avec le TALN proviennent principalement de l’étude des
algorithmes d’analyse ou d’apprentissage des langues naturelles ;
2. des ouvrages de vulgarisation :
– Cambridge University Press 2010 [51] : le livre de référence en inférence grammaticale ;
– Trakhtenbrot/Festschrift. Pillars of Computer Science. 2008 [28] : une invitation à participer au livre en hommage à Boris Trakhtenbrot, l’un des plus grands logiciens du 20eme
350
Bilan 2006–2009 et projet 2012-2015 TALN
siècle, reconnu comme un des fondateurs de la théorie des modèles et de la théorie de la complexité des algorithmes et des automates formels, et qui a démontré le théorème fondamental de
l’indécidabilité de la validité sur les modèles finis ;
3. des conférences et de revues représentatives des recherches en TALN conduites par l’équipe :
– CICLing. 2007 [34] : la conférence internationale sur l’ingénierie des textes et la production
de ressources linguistiques ;
– LRE. 2010 [4] : la revue internationale dédiée aux ressources linguistiques ;
4. des conférences interdisciplinaires où le TALN est une discipline connexe :
– ECIR 2010 [1] : la conférence internationale, chapitre européen, de référence en recherche
d’information ;
– IEEE ICCASP. 2009 [13] : la seule conférence internationale intégrant des travaux à la croisée
du signal et de la langue écrite.
Prix et récompenses, organisation de conférences majeures, conférences invitées
– Prix du meilleur article Jeunes chercheurs à DDR en 2009 [37] ;
– Prix Innovation IBM 2008 ;
– Co-rédaction en chef de la revue internationale francophone Traitement automatique des langues ;
– Prix du meilleur article Jeunes chercheurs à ICDAR en 2007 [19].
Tableau récapitulatif
ACL
14
ACLN
6
ASCL
0
Récapitulatif des publications par catégorie
BRE INV ACTI ACTN COM AFF
0
0
47
27
2
1
OS
11
OV
0
DO
1
AP
2
14.3 Fondements scientifiques
14.3.1 Découverte et analyse
Au cours de l’évolution des grammaires génératives appliquées au langage naturel, de toute la
tour de Babel des grammaires développées depuis un demi-siècle, il ne reste que quelques classes
[86, 73, 70, 76] bien fondées par les théories linguistiques et formelles. Ces classes sont dotées d’une
sémantique formelle [74, 85], et donnent lieu à des grammaires à large couverture analysées sans contraintes sur la complexité des phrases [58]. Ces grammaires disposent de méthodes (au moins partielles)
symboliques [82], statistiques ou relevant de l’IA [62, 55, 53] qui permettent l’extraction de grammaires
ou d’analyseurs à partir de données annotées. En même temps, les recherches menées pendant les vingt
dernières années témoignent que, parmi les méthodes de construction des analyseurs syntaxiques, les
plus précises sont celles basées sur les structures de dépendances [52, 83]. Cette nouvelle tendance ouvre
la voie vers la recherche de méthodes mixtes symboliques/statistiques de construction des analyseurs et
de création automatisée de corpus arborés en dépendances. Elle réclame aussi l’étude des problèmes fondamentaux des grammaires de dépendances [28] et en particulier d’une sémantique formelle adéquate
à ces grammaires et aux autres grammaires qui définissent la structure syntaxique en termes de liens
directs entre les mots dans la phrase (dont les grammaires de prégroupes [60]).
La découverte linguistique prend racine au sein de la linguistique distributionnelle [72] et inclue les
méthodes d’analyse linguistique partielle. Elle se caractérise par des techniques robustes stochastiques
TALN
351
ou symboliques [84] et s’oppose aux méthodes d’analyse en profondeur qui sont le plus souvent limitées
à cause de l’incomplétude des lexiques et des grammaires et de la longueur des phrases [71, 67]. Les
concepts centraux sont les notions de contexte et de voisinage [66, 63], définis en termes de fenêtres
ou de patrons, pondérés à l’aide de mesures de similarité, appris à l’aide de techniques d’apprentissage
supervisé. La flexibilité et la robustesse de l’analyse partielle permet le traitement de masses de données
textuelles pour l’accès à l’information. La difficulté porte sur le repérage des unités d’information homogènes et leur analyse, soit en fonction de classes sémantiques prédéfinies ou non, soit contrastivement.
La “légèreté” de l’analyse syntaxique est compensée par l’introduction d’analyse linguistique fine fondée
sur la micro-sémantique [87].
14.3.2 Comparaison et alignement
Etant donné deux textes, la problématique de l’alignement consiste à mettre en relation des éléments
constitutifs de ceux-ci. La comparaison quand à elle prend une décision globale sur les textes en exploitant les alignements éventuels. Lorsque les textes à aligner/comparer relèvent d’une même langue,
il s’agit d’alignement monolingue, lorsque les textes relèvent de deux langues, d’alignement bilingue.
L’alignement monolingue partiel utilise des méthodes classiques relevant de l’algorithmique des chaines
[80], des distances ou de mesures de similarités [54]. L’alignement bilingue à partir de textes parallèles,
i.e. un texte et sa traduction, a été largement étudié et de nombreuses techniques d’alignement existent : symboliques, statistiques ou mixtes [88] ainsi que des librairies logicielles (Giza++). Ces algorithmes permettent la construction de mémoires de traduction, la constitution de dictionnaires bilingues,
etc. Cependant, et en dépit des bons résultats fournis par les textes alignés, ces derniers demeurent des
ressources rares, notamment pour les domaines spécialisés et pour des couples de langues ne faisant pas
intervenir l’anglais. Un nouveau paradigme d’alignement bilingue est maintenant apparu, celui mettant
en jeu des corpus comparables (i.e. des textes dans des langues différentes partageant différentes caractéristiques telles que le domaine, le genre, la période... sans être en correspondance de traduction). Les
travaux fondateurs de ce champ [68, 65], qui trouvent un ancrage théorique dans l’œuvre du linguiste
anglais Firth [78], reposent sur l’hypothèse de distributionnalité lexicale de [81] qui met en relation la
distribution syntaxique des mots avec leur signification. Les techniques d’alignement associées s’appuient alors sur l’identification d’affinités du premier (approche directe [61, 64]) ou du deuxième ordre
(approche par similarité interlangue [59, 56]) de Grefenstette [69].
14.4 Applications et enjeux
14.4.1 Multilinguisme
Les travaux impulsés en fouille textuelle visent à répondre aux besoins d’accès à l’information dans
un contexte multilingue. Ils participent à la constitution de ressources multilingues qui représentent la
pierre angulaire des outils d’aide à la traduction automatique ou de recherche d’information interlangue.
La spécificité de nos travaux est de se concentrer, d’une part, sur des domaines spécialisés pour lesquels
les nomenclatures doivent être constamment mises à jour, et d’autre part, sur des langues appartenant à
des familles fortement éloignées comme conséquence de la production de plus en plus importante des
nouveaux pays industrialisés (Chine, Inde...). Les travaux que nous poursuivons en traitement automatique de la langue sont les pourvoyeurs des modèles et des outils permettant l’accès aux connaissances
véhiculées dans ces documents multilingues en faisant fi des barrières linguistiques.
352
Bilan 2006–2009 et projet 2012-2015 TALN
14.4.2 Multimodalité
L’information électronique, qui n’a de cesse d’être disponible en quantité croissante, est véhiculée
selon différentes modalités. Elle combine, par exemple, des données écrites sous une forme électronique
ou manuscrite avec des données parlées. L’accès à l’information multimédia représente un enjeu majeur de la société de l’information qui ne peut être abordé qu’en considérant la complémentarité des
différentes modalités. La réponse à apporter aux défis engendrés par cette masse d’information multimédia mais aussi par le développement continu de nouvelles technologies associées nécessite la
résolution de problématiques difficiles directement corrélées au fonctionnement de la langue dans des
situations combinant l’oral et l’écrit.
14.4.3 Recherche d’information
L’essor du web 2.0, notamment des blogs, des réseaux sociaux, etc., a fait naı̂tre de nouveaux défits
au regard des méthodes traditionnelles utilisées en recherche d’information. Ces nouveaux supports
représentent une richesse informationnelle, notamment pour les industriels ayant un fort besoin relationnel avec leurs clients, pour les médias, pour les sociologues voire pour les utilisateurs du web ...
désireux de connaı̂tre ce qui est exprimé à un instant donné autour d’un sujet. Plus complexes à traiter, ces
nouveaux supports multi-domaines nécessitent de nouvelles approches, notamment dans les recherches
en fouille d’opinions ou dans la détection de reprise de contenu, et des ressources lexico-sémantiques
qualitativement et quantitativement riches.
14.5 Nouveaux résultats pour la période 2006-2010
14.5.1 Découverte et analyse
Formalismes grammaticaux
Participants : Ramadan Alfared, Denis Béchet, Alexandre Dikovsky, Erwan Moreau
Depuis les premiers travaux sur les grammaires de dépendances [77, 75] les chercheurs essaient
de trouver les grammaires suffisamment expressives et analysées en temps polynomial sans contraintes
sur l’ordre des mots. Nous sommes les premiers a l’avoir réussi sur des grammaires catégorielles de
dépendances, grammaires comparables aux grammaires faiblement contextuelles : nous avons trouvé un
algorithme d’analyse en temps polynomial utilisable en pratique sans aucune contrainte sur les structures
de dépendances. Ce résultat a donné lieu à différentes publications [40, 28] dont un chapitre invité de
l’ouvrage Pillars of Computer Science dédié à Boris Trakhtenbrot. Nous nous intéressons aussi à des
formalismes grammaticaux de types logiques [39]. En particulier, nous avons introduit une méthode
originale pour l’analyse syntaxique des grammaires de prégroupe et des grammaires de Lambek [45, 41]
qui utilise le principe de la composition partielle majoritaire des types logiques. Ce travail a débouché
sur un premier prototype d’analyseur pour les grammaires de prégroupe.
Analyse conjointe
Participants : Béatrice Daille, Christine Jacquin, Vincent Jousse, Emmanuel Morin, Sebastián Peña
Saldarriaga, Emmanuel Prochasson
Dans la continuité des travaux associant reconnaissance de formes et traitement automatique de la
langue naturelle, nous avons poursuivi notre collaboration avec l’équipe IVC de l’IRCCyN (UMR CNRS
TALN
353
6597) sur un aspect novateur lié à la reconnaissance de mini-messages manuscrits (MIMEMA), c’est-àdire une forme de SMS manuscrits. Nous avons proposé une alternative crédible à l’utilisation du clavier
d’un téléphone portable par l’exploitation d’un crayon numérique pour l’écriture de SMS. Ce travail
à obtenu un Best Paper Award Student à ICDAR en 2007 [37]. Outre les aspects liés à la reconnaissance de l’écriture manuscrite, nous nous sommes aussi penché sur le problème de la catégorisation et
de la recherche de documents manuscrits dans le cadre du projet ANR CIEL (2007-2009). D’une part,
il s’agissait d’étudier l’influence des erreurs commises par le moteur de reconnaissance sur la tâche de
catégorisation. Ce travail a lui aussi obtenu un Best Paper Award Student à DRR en 2009 [19]. D’autre
part, nous avons étudié différentes stratégies de réordonnancement pour une tâche de recherche de documents manuscrits. Ce travail a notamment été valorisé à la conférence ECIR en 2010 (seule équipe
française y présentant un article) [1]. Une autre partie des travaux concerne l’analyse conjointe associant le traitement de l’écrit et de la parole. Ces recherches se sont déroulées dans le cadre de l’axe
multimedia du projet régional Miles (2006-2009) en lien avec l’équipe Parole du LIUM (Laboratoire
d’Informatique de l’Université du Maine). Tout en exploitant des informations provenant du signal audio
et de sa transcription écrite, nous nous sommes attachés à la détection et à l’identification nommée des
locuteurs d’émissions radiophoniques. Nous avons montré la pertinence de la prise en compte d’analyse
conjointe pour ce type d’application. Les résultats de ces travaux ont donné lieu à diverses publications
dans des conférences ou revues des deux domaines (TAP et TALN) notamment à ICCASP en 2009 [13]
ou dans la revue TAL en 2009 [11]. Dans ce cadre, nous avons aussi participé à la campagne francophone d’évaluation ESTER2 (Évaluation de Systèmes de Transcription d’Émissions Radiophoniques
francophone) en 2009 dans la tâche reconnaissance d’entités nommées.
Recherche d’informations
Participants : Siham Boulaknadel, Béatrice Daille, Emmanuel Desmontils, Estelle Dubreil, Chantal
Enguehard, Nicolas Hernandez, Laura Monceaux, Christine Jacquin, Matthieu Vernier
Dans le cadre de la recherche d’information précise, nous avons travaillé à l’amélioration de notre
système de questions-réponses PRODICOS portant sur l’extraction des réponses à partir de passages
sélectionnés [48] et la validation des réponses retournées [23] grâce à l’intégration de connaissances
linguistiques fines. Ces améliorations ont été évaluées lors des campagnes CLEF 2006 et 2008.
Dans la cadre de la fouille d’opinion, nous nous sommes intéressés aux jugements d’évaluation présents
dans les blogs dans le cadre du premier projet ANR dédié à cette thématique, le projet Blogoscopie 20062009. Nous avons consitué le premier corpus de blogs annotés pour le français reposant sur la théorie
linguistique de Charaudeau et élaboré un outil de détections d’opinions/évaluations sur les blogs, Apopsis
[14, 5]. Apopsis a été évalué dans le cadre de la campagne DEFT’2009 (Defi Fouille de Textes) et a
obtenu les meilleurs résultats sur le repérage d’évaluations/opinions dans des corpus journalistiques [17].
Dans le cadre de la détection de structures de textes, nous avons exploré la combinaison de techniques
statistiques et de modèles linguistiques afin de fournir une analyse sémantico-discursive à la fois robuste
et à grain fin [36]. Enfin, dans le cadre de RI multilingue, nous avons étendu nos travaux dédiés aux
languages de spécialités à l’analyse de la modalité [8] et à la découverte terminologique en langue arabe
[30]. Nous poursuivons aussi nos efforts pour l’informatisation des langues africaines avec en particulier
la production de dictionnaires électroniques [18, 24].
354
Bilan 2006–2009 et projet 2012-2015 TALN
14.5.2 Comparaison et alignement
Alignement multilingue
Participants : Béatrice Daille, Amir Hazen, Lorraine Goeuriot, Emmanuel Morin, Emmanuel
Prochasson
Nos travaux impulsés en alignement multilingue à partir de corpus comparables initiés lors du dernier
quadriennal ont été poursuivis suivant deux axes. D’une part, nous nous sommes confrontés au problème
de la constitution de corpus comparables spécialisés en proposant des critères linguistiques garantissant
un fort degré de comparabilité du corpus. D’autre part, nous nous sommes penchés sur la problématique
des couples de langues à grande distance linguistique (en particulier le français/japonais). Dans ce cadre,
nos travaux ont porté sur l’alignement de termes simples mais aussi sur celui des termes complexes. Ces
travaux, catalysés par le projet ANR MeTRICC 2008-2009, ont montré l’influence que peut avoir un corpus comparable spécialisé sur la qualité des alignements obtenus. Ainsi, la qualité des données textuelles
peut non seulement suppléer à leur quantité mais garantit aussi la qualité des ressources lexicales extraites. Ce travail a été valorisé au meilleur niveau dont à la conférence ACL en 2007 [33]et en version
étendue dans ACM TSLP [3]. En outre, nous avons proposé une nouvelle méthode de normalisation
pour la traduction des termes complexes non compositionnels : nous étendons la méthode traditionnelle
de traduction compositionnelle à travers une représentation morphologique qui sert de pivot aux termes
à traduire. Cette méthode a été présentée à la conférence IJCNLP en 2008 [27] et publiée en version
étendue dans le revue LRE [4],
Alignement monolingue
Participants : Stergos Afantenos, Béatrice Daille, Nicolas Hernandez, Fabien Poulard
Dans le cadre du projet ANR PIITHIE, nous avons travaillé sur la détection de reprises contextualisées comme la citation, et de détections non contextualisées susceptibles de relever du plagiat.
Notre contribution porte sur la proposition d’une modélisation englobante de phénomènes proches mais
jusqu’alors considérés distinctement que nous désignons par le terme de ”dérivation”. En particulier,
nous proposons une approche pour repérer les dérivations de contenu ayant consisté en des transformations plus fortes que celles observées pour les presque-duplicats et les versions. Notre approche reprend
le principe des signatures pour bénéficier de leur rapidité de traitement que nous étendons en y injectant
des connaissances linguistiques afin de caractériser davantage le phénomène de dérivation [6].
14.6 Logiciels
Nous produisons et maintenons des composants logiciels dédiés principalement à l’analyse du
Français mais dont certains ont eu des extensions multilingues : citons ACABIT pour l’extraction terminologique, NEMESIS pour la dt́ection/catégorisation d’entités nommées, APOPSIS pour la détection/
catégorisation d’opinion, etc. Cette réalisation logicielle est évaluée, lorsque cela est possible, en participant aux campagnes d’évaluation : CLEF, DEFT, ESTER2.
Pour valoriser et pérenniser nos composants logiciels, nous avons adopté l’architecture logicielle Apache
UIMA (Unstructured Information Management Architecture) qui constitue l’une des solutions les
plus avancées pour la construction d’applications distribuées visant l’analyse de données multimédia
hétérogènes. Un investissement a été consenti pour s’approprier et populariser cette architecture : lauréat
TALN
355
d’un prix Innovation IBM 2008, organisateur d’un atelier et d’un tutoriel francophone lors des Rencontres Mondiales du Logicielles Libres en 2009, conférences invités (Laboratoire LIPN en 2008 et journée
WebContent’09), à l’origine de la création du portail communautaire francophone uima-fr. org, et entre
autres d’une bibliothèque d’outils et de composants UIMA pour le traitement du français diffusé sous
licence libre. L’architecture UIMA est adoptée pour nos projets et pour fédérer ou fournir des services
de traitement à nos partenaires institutionnels et industriels (ANR PIITHIE, ANR Blogoscopie, ANR
C-Mantic, Région MILES, . . . et FP7 TTC).
Outils et Composants UIMA pour le TAL
URL
Participants : N. Hernandez (resp), S. Afantenos, D. Béchet, F. Poulard,J. Rocheteau, M. Vernier
Type de licence : Apache 2
Mots clés: UIMA, TAL, Java, Analyseurs, Pré-traitements linguistiques
Outils et Composants UIMA pour le TAL est un ensemble de bibliothèques, de composants et d’outils
pour construire des chaı̂nes de traitements linguistiques (en particulier pour le français) à l’aide de l’architecture Apache UIMA. Ce pack permet l’import de ressources distantes, la reconnaissance de type
MIME, l’extraction de texte (Apache Tika), la reconnaissance de langues (nGRAMj), des pré-traitements
TAL tels que la segmentation en mots, la racinisation (snowball), l’étiquetage morpho-syntaxique et la
lemmatisation (TreeTagger Schmidt, Brill et Flemm) et un composant de reconnaissance de motifs à
base d’annotations. Les formats de sorties sont compatibles avec les propositions de standard Multext
et Dublin Core. Le pack comprend aussi une application web qui offre une mise en oeuvre des composants au travers du composant de reconnaissance de motifs. Il s’accompagne aussi d’une application
graphique, appelée Dunamis, qui permet d’éditer, d’exécuter et de visualiser le résultat d’une chaı̂ne de
traitement sous UIMA.
Prodicos
URL
Participants : L. Monceaux (resp), E. Desmontils, C. Jacquin
Type de licence : GPL
Mots clés: TALN, Système Question-Réponse
Le système de question-réponse Prodicos a pour objectif de répondre de manière précise à des questions en langue naturelle pour le français. Le système retourne non seulement la réponse précise de
la question mais également le numéro du document et l’extrait du document dans lequel la réponse a
été extraite parmi un ensemble d’articles journalistiques. Chaque réponse est également pondérée d’un
taux de confiance. Ce système se décompose en trois modules distincts : l’analyse de la question, la
sélection de passages (par le biais du moteur de recherche Lucene) et l’extraction de la réponse parmi
ces passages. Ces différents modules reposent sur l’utilisation de connaissances linguistiques tel que
l’utilisation d’analyseurs syntaxiques, de reconnaisseurs d’entités nommées... Le système Prodicos est
modulaire, chaque module communiquant par le biais de fichiers XML et est écrit en JAVA et Perl ([23]).
APOPSIS
Participants : L. Monceaux (resp), B. Daille, M. Vernier
Type de licence : GPL
Mots clés: TALN, Détection de segments évaluatifs
URL
356
Bilan 2006–2009 et projet 2012-2015 TALN
L’outil de détection d’opinions Apopsis a pour objectif de repérer et de catégoriser les différentes opinions/évaluations localement exprimées dans un corpus de textes multi-domaines. La catégorisation traite
en particulier l’aspect axiologique de l’évaluation, sa configuration d’énonciation et sa modalité dans le
discours. À partir du corpus annoté développé dans le cadre du projet Blogoscopie, une grammaire
du langage évaluatif a été apprise automatiquement permettant la détection automatique des opinions/évaluations de l’outil Apopsis reposant sur un lexique de l’évaluation. Le logiciel Apopsis a été
développé en JAVA sous la plateforme UIMA ([14]).
14.7 Contrats et subventions
L’équipe mène un politique contractuelle volontaire et opportuniste : sur la période, elle a obtenu
5 projets ANR, succesivement aux programmes Technologies logicielles, Masses de données, Contint.
La succession de contrats de différents niveaux sur deux thématiques principales démontre sa montée
en puissance sur la période. La première porte sur l’accès à l’information multilingue : projet CNRS
TCAN DECO (2004-2006), ANR C-mantic (2007-2009), ANR Metricc (2009-2011) et FP7 STREP
TTC (2010-2012). La deuxième sur le traitement de la multimodalité : projet ANR CIEL( (2006-2008),
Région MILES-Multimédia(2007-2009) et Région DEPART (2009-2012). Les montants indiqués dans
le tableau ci-dessous sont les montants signés.
Type
6PCRD NoE
7PCRD Strep
AUF Inforoute
ANR
ANR
ANR
ANR
ANR
CNRS
Région PdL
Région PdL
Région PdL
Région PdL
Prix
CIFRE
Contrat direct
Tableau des contrats et subventions
Institution
Nom
Début/Durée
gestionnaire
PASCAL2
UN
01.2008/48 mois
TTC
UN
01.2010/36 mois
DILAF
UN
12.2009/24 mois
BLOGOSCOPIE
UN
12.2006/24 mois
C-mantic
UN
1.2007/30 mois
CIEL
UN
12.2006/36 mois
MeTRICC
UN
12.2008/36 mois
PIITHIE
UN
12.2006/18 mois
TCAN DECO
UN
1.2004/24 mois
Apprentissage et
UN
02.2010/60 mois
linguistique
DEPART
UN
09.2009/42 mois
MILES
UN
01.2007/36 mois
COM
UN
1.2004/36 mois
IBM
UN
11.2008
Lingua et Machina
UN
06.2010/36 mois
Ministère des
UN
01.2006/12 mois
Transports
Montant
20 Ke
450 Ke
61 Ke
149 Ke
101 Ke
114 Ke
236 Ke
133 Ke
31 Ke
171 Ke
240 Ke
24 Ke
4 Ke
14 Ke
18 Ke
5 Ke
14.7.1 Contrats directs avec des entreprises
IBM Award
Début : 01/11/2008, durée :
Partenaires : IBM
URL
Coordinateur : N. Hernandez
TALN
357
Participants : N. Hernandez (resp), M. Vernier, S. Afantenos, F. Poulard
Montant équipe : 14 Ke
Montant total : 14 Ke
Mots clés : UIMA
Lauréat d’un prix IBM Unstructured Information Analytics 2008 Innovation pour la proposition Building
a French speaking community around UIMA, gathering research, education and industrial partners,
mainly in Natural Language Processing and Speech Recognizing domains
CIFRE Lingua et Machina
Début : 01/06/2010, durée : 36 mois
Partenaires : Lingua et Machina
Participants : B. Daille (resp), E. Delpech
Montant équipe : 18 Ke
URL
Coordinateur : Lingua et Machina
Montant total : 18 Ke
Traduction à la volée et corpus comparable
14.7.2 Projets collaboratifs
Actions régionnales
Apprentissage Artificiel et Linguistique
URL
Début : 01/02/2010, durée : 60 mois
Partenaires :
Coordinateur : C. de la Higuera
Participants : C. de la Higuera (resp),
Montant équipe : 171 Ke
Montant total : 171 Ke
Mots clés : Inférence grammaticale
Le programme Nouvelles équipes, Nouvelles Thématiques de la région Pays de Loire a vocation a
soutenir l’arrivée de chercheurs confirmés dans les laboratoires de la région en leur permettant de
disposer de ressources dès leur installation. Dans le cadre de ce programme, Colin de la Higuera lance
une activité de recherche, à la frontière entre le traitement de la langue et l’apprentissage automatique
(ou artificiel). Le financement doit servir au recrutement d’un doctorant (en 2010) et d’un post-doctorant
en 2011. Les thèmes abordés concerneront en particulier l’apprentissage de grammaires hors-contexte
et de transducteurs.
Région MILES Axe multimedia
Début : 1/01/2007, durée : 36 mois
Partenaires : IRCCyN, LIUM
Coordinateur : B. Daille (co-resp.)
Participants : B. Daille (resp), V. Jousse, N. Hernandez, C. Jacquin, E. Morin, J. Rocheteau
Montant équipe : 24 Ke
Montant total : 418 Ke
Mots clés : Projet région Pays de la Loire, volet ” développement des thématiques structurées et des
spécialités scientifiques ”
L’information électronique et sa déclinaison sous différentes formes de média (audio, image, vidéo,
écritures manuscrite ou tapuscrite) sont l’objet d’applications industrielles d’importance croissante, qui
requièrent néanmoins la résolution de problèmes scientifiques et technologiques difficiles. L’axe ”multimédia” définit, dans ce domaine, des directions de travail multi-disciplinaires en partenariat avec les
partenaires académiques régionaux et dans la lignée des priorités définies par le pôle de compétitivité
”images et réseaux”.
358
Bilan 2006–2009 et projet 2012-2015 TALN
Région DEPART
Début : 29/09/2009, durée : 48 mois
Partenaires : IRCCyN (UMR CNRS 6597) et le LIUM (EA 4023)
URL
Coordinateur : E. Morin
Participants : E. Morin (resp), B. Daille, N. Hernandez, C. Jacquin, P. Shrestha
Montant équipe : 240 Ke
Montant total : 500 Ke
Mots clés : Projet région Pays de la Loire relevant du volet “développement des thématiques structurées
et des spécialités scientifiques”
Le projet Documents Ecrits et Paroles - Reconnaissance et Traduction (DEPART) vise la constitution au
niveau de la région des Pays de la Loire d’un pôle de compétences unique en France associant analyse
du signal audio et manuscrit au traitement automatique des langues. Il s’intéresse à la résolution de
problèmes scientifiques et technologiques difficiles mettant en jeu des données multimodales et multilingues. Ces données multimodales pouvant être des données écrites sous une forme électronique (correspondant à la saisie sur un clavier d’ordinateur) ou manuscrite (correspondant à la saisie avec un
crayon numérique) ou des données parlées (correspondant à l’enregistrement de la parole).
Projets nationaux
ANR BLOGOSCOPIE
Début : 12/2006, durée : 24 mois
Partenaires : Sinequa, JFG Networks
URL
Coordinateur : B. Daille
Participants : B. Daille (resp), L. Monceaux, E. Dubreil, M. Vernier
Montant équipe : 149 Ke
Montant total : 432 Ke
Mots clés : recherche d’information, fouille d’opinion, blogs
Le but de ce projet est de développer des outils de surveillance des blogs qui permettent d’effectuer,
automatiquement, deux tâches. La première est l’étude d’image. Elle veut créer une photographie de
ce que pense le public d’une certaine personne, d’un organisme, etc. à un moment donné. La deuxième
tâche est l’étude de tendance qui veut déterminer, par exemple, les sujets émergents, l’état d´humeur
d’une certaine population, l’évolution des sentiments vis à vis d’une certaine personne, organisme, etc.
Le verrou à lever concerne la langue des sentiments qui est extrêmement complexe. Les outils développés
analyseront le texte dans un premier temps du point de vue axiologique (succès a une valeur axiologique
positive alors que échec a une valeur négative) et dans un deuxième temps selon la modalité du sentiment
évoqué (colère, haine, amour, etc.). Labellisé par le pôle de compétitivité Cap Digital.
ANR C-mantic
Début : 1/1/2007, durée : 30 mois
Partenaires : ERTIM, LIMSI
URL
Coordinateur : ERTIM
Participants : B. Daille (resp), E. Morin, N. Hernandez, J. Rocheteau, S. Afantenos, E. Dubreil
Montant équipe : 101 Ke
Mots clés : Masse de données et connaissances ambiantes
Montant total : 440 Ke
TALN
359
Le projet vise d’une part, à l’optimisation et la stabilisation d’une méthode d’analyse différentielle
pour le profilage documentaire sur le Web ; d’autre part, l’extension de la méthodologie à l’analyse
sémantique multilingue. Il s’agit donc de constituer une sémantique du Web. Celle-ci, inspirée de la
sémantique textuelle, est axée sur (i) la différenciation entre les types de textes, notamment entre discours
scientifique et vulgarisé, entre les différents genres (monographie, manuel, etc.) et les sous-thématiques
au sein d’un domaine donné ; (ii) la comparaison de textes analogues dans des langues à plus ou moins
grande distance du français.
ANR CIEL
Début : 01/12/2006, durée : 36 mois
Partenaires : IRCCyN, Vision Objects
Participants : E. Morin (resp), E. Prochasson, S. Peña Saldarriaga
Montant équipe : 114 Ke
Mots clés : Technologies Logicielles
URL
Coordinateur : IVC/IRCCyN
Montant total : 740 Ke
L’ANR Conversion, Indexation de l’Ecriture en Ligne (CIEL) propose le développement de modèles,
méthodes et systèmes de traitement pour appréhender un nouveau média : les documents manuscrits
en-ligne. Il ouvre au monde du document papier la puissance de traitement du document électronique.
Ce projet propose quatre axes de recherche : la modélisation avancée de documents en-ligne complexes
constitués de composantes spatiales et temporelles distribuées, l’indexation et la recherche d’information dans les documents en-ligne, la personnalisation et l’optimisation des traitements pour un scripteur donné ou pour un métier donné, l’étude de couches hautes de systèmes d’exploitation pilotés par
l’écriture manuscrite.
CNRS TCAN DECO
Début : 1/1/2004, durée : 24 mois
Partenaires : l’INALCO (Paris), XEROX (Grenoble) et le NII (Yokyo, Japon)Coordinateur : B. Daille
Participants : B. Daille (resp), Emmanuel Morin, Lorraine Goeuriot
Montant équipe : 31 Ke
Montant total : 50 Ke
Mots clés : multilinguisme, alignement bilingue, corpus comparable
TCAN (Traitement des connaissances, apprentissage et NTIC) est un programme interdisciplinaire du
CNRS impliquant les départements scientifiques : STIC, SDV et SHS. Le projet DECO (Découverte et
Exploitation de corpus comparables) dont LINA le est maı̂tre d’œuvre a été retenu suite à l’appel à
proposition 2004 et couvre les thèmes de “Multilinguisme et diversité culturelle” et “Web sémantique”.
Le projet DECO se propose d’élaborer un ensemble de méthodes et d’outils pour la production de textes
comparables à partir desquels il sera possible de fournir des ressources linguistiques et terminologiques,
notamment pour l’accès à l’information.
ANR MeTRICC
Début : 22/12/2008, durée : 36 mois
Partenaires : LIG, VALORIA, Lingua & Machina, Sinequa et Syllabs
Participants : E. Morin (resp), B. Daille, A. Hazen, J. Park, E. Prochasson
Montant équipe : 236 Ke
Mots clés : Contenus et Interactions 2008
URL
Coordinateur : B. Daille
Montant total : 1 079Ke
360
Bilan 2006–2009 et projet 2012-2015 TALN
L’ANR Mémoire de Traduction, Recherche d’Information et Corpus Comparable (MeTRICC) propose
d’exploiter les possibilités offertes par ces corpus dans le cadre de trois applications industrielles : les
mémoires de traduction, la recherche d’informations interlingue et la catégorisation multilingue. Ce
projet aborde la question des corpus comparables d’une façon complète et originale. Il vise à répondre à
plusieurs défis fondamentaux relatifs à la construction de corpus comparables, l’extraction de ressources
bilingues et leur exploitation dans les applications identifiées.
ANR PIITHIE
Début : 12/2006, durée : 18 mois
Partenaires : Sinequa, ADVESTIGO, LIA (U. d’Avignon)
Participants : B. Daille (resp), N. Hernandez, S. Afantenos, F. Poulard
Montant équipe : 133 Ke
Mots clés : analyse multi-documents, plagiat, recherche d’information
URL
Coordinateur : SINEQUA
Montant total : 500 Ke
Le projet PIITHIE (Plagiat et Impact de l’Information Textuelle recHerchée dans un contexte InterlinguE) a deux objectifs principaux : l”amélioration de la détection de plagiats de textes à l’aide des
techniques de TALN et l’automatisation du calcul du suivi d’impact. Labellisé par le pôle de compétitivité
Cap Digital.
Projets internationaux
AUF DILAF
URL
Début : 11/12/2009, durée : 24 mois
Partenaires : Institut National de Documentation de Recherche et d’Animation Pédagogiques de Niamey, Département de linguistique de l’Université de Niamey, Direction Générale de l’enseignement
de base du Ministère de l’Éducation Nationale du Niger, Centre National de Ressources de l’Éducation
Non Formelle du Mali, Département de linguistique du Centre National de la Recherche Scientifique
et Technique du Burkina Faso, Groupe d’Étude en Traduction Automatique/Traitement Automatisé des
Langues et de la Parole Laboratoire d’Informatique de Grenoble, équipe COnnaissances et Décision du
Laboratoire d’Informatique de Nantes Athantique. . .
Coordinateur : C. Enguehard
Participants : C. Enguehard (resp), E. Desmontils
Montant équipe : 61 Ke
Montant total : 121 Ke
Mots clés : langues peu dotées, XML, dictionnaires . . .
Le projet DILAF : Informatisation de Dictionnaires éditoriaux bilingues Langue Africaine - Français
vise à la conversion des dictionnaires éditoriaux bilingues langue africaine-français en dictionnaires
électroniques au format XML à des fins d’affichage sur la Toile et de pérennisation de ressources linguistiques pour le Traitement Automatique des Langues Naturelles. Langues concernées : bambara, français,
haoussa, kanouri, sonay-zarma, tamajaq.
NoE PASCAL2
Début : 01/01/2008, durée : 48 mois
Partenaires : University College of London, Universidad de Alicante, . . .
College of London (UK)
Participants : C. de la Higuera (resp),
Montant équipe : 20 Ke
URL
Coordinateur : University
Montant total : 5000 Ke
TALN
361
Mots clés : Apprentissage automatique
Le projet PASCAL est un réseau d’excellence européen. Il a démarré lors du 6e PCRD et s’est poursuivi
avec les 7e. Par décision du comité directeur de PASCAL, le LINA devient partenaire de PASCAL au
printemps 2010. Les activités scientifiques menées dans le contexte de ce contrat concernent l’apprentissage automatique, et en particulier l’inférence grammaticale. Il est à noté que le contrat est géré par
appels à projets internes. Le montant alloué au LINA est donc susceptible d’évoluer. De plus Colin de
la Higuera est responsable du curriculum development programme : ce programme coordonne les actions de formation par la recherche, en direction des membres du réseau, mais également vers les autres
communautés.
Strep TTC
URL
Début : 01/01/2010, durée : 36 mois
Partenaires : University Leeds (UK), University of Stuttgart (DE), Tilde (Lv), Sogitec Industries (Fr),
Syllabs (Fr), Eurinov (Fr)
Coordinateur : Université de Nantes, B. Daille
Participants : B. Daille (resp), E. Morin, N. Hernandez, C. Jacquin, L. Monceaux, J. Rocheteau
Montant équipe : 450 Ke
Montant total : 2025 Ke
Mots clés : corpus comparable, terminologie, traduction automatique, alignements, . . .
The FP7 strep TTC project aims at leveraging machine translation tools (MT tools), computer-assisted
translation tools (CAT tools) and multilingual content management tools by automatically generating
bilingual terminologies from comparable corpora in five European languages (English, French, German, Spanish and one under-resourced language, Latvian), as well as in Chinese and Russian.Briefly
the TTC project work aims at : Compiling and using comparable corpora ; Using a minimum of linguistic knowledge for candidate term extraction ; Defining and combining different strategies for term
alignment ; Developing an open platform for use with MT and CAT tools including solutions to manage
comparable corpora as well as terminologies ; Demonstrating the operational benefits on MT tools and
CAT tools. All these target outcomes have similar impacts, i.e. bettering translation in order to overcome
language barriers through technological means. Final outcomes of the TTC project aim at improving
translation activities from industry documentation to multilingual content management.
14.7.3 Accords de coopération
– Ecole Polytechnique de Madrid, Espagne,
– NII, Japon,
– Université d’état de Novossibirsk, Russie.
14.8 Rayonnement
14.8.1 Évaluation de la recherche
Comités de programme (conférences) et de lecture (revues)
– Revues
– Comités éditoriaux de revue scientifique
– Traitement automatique des langues (TAL) :
– B. Daille : rédacteur en chef depuis 2008. Membre du comité de rédaction 2006-2008
– E. Morin : membre du comité de rédaction depuis 2009.
362
Bilan 2006–2009 et projet 2012-2015 TALN
– Terminology :
– B. Daille : editeur associé depuis 2001.
– Programming and Computer Software (Kluwer)
– A. Dikovsky : membre du comité de rédaction depuis 1995.
– System Informatisc (RAS)
– A. Dikovsky : membre du comité de rédaction depuis 1994.
– Discours :
– N. Hernandez : membre du comité de rédaction depuis 2007.
– Les comités de lecture (numéro spécial d’une revue)
– Traitement automatique des langues (TAL) :
– C. de la Higuera, E. Morin : membre du comité de programme du volume 50(3) apprentissage automatique pour le TAL, 2009 ;
– L. Monceaux : membre du comité scientifique / programme vu volume 51(3) Opinions,
sentiments et jugements d’évaluation, appel 2010 ;
– E. Morin, relecteur invité pour 47(2).
– Language Resources and Evaluation (LRE)
– B. Daille : Numéro spécial Multiword expressions : hard going or plain sailing ?, 2008.
Relecture en 2006 et 2007
– Terminology :
– B. Daille : Numéro spécial Pattern-Based Approaches to Semantic Relation Extraction, vol
14(1), 2008.
– I3
– B. Daille : Numéro spécial Textes et ressources terminologiques et/ou ontologiques :
évolution et maintenance, 2006.
– RNTI
– B. Daille : Fouille des données d’opinion, 2008 ; Reconnaissance automatique d’auteurs,
2006.
– Journal of Machine Learning Research
– C. de la Higuera : Guest editor, numéro spécial Representation of Language and Language
Learning, 2010
– Natural Language Engineering
– C. de la Higuera : Membre du guest editor board, numéro spécial Finite State Methods and
Models in Natural Language Processing, 2010
– Document Numérique
– N. Hernandez : membre du comité de rédaction du numéro spécial Le texte : objet d’analyse
et vecteur de connaissances, 2010 ;
– Rapports
Computational Linguistics 2006 ; Theory and Practice of Logic Programming, 2006 ; Theoretical Computer Science, 2006 ; MSCS 2006 ; Studia Logica 2007 ; RIA 2006 ; ENTCS 2007 ;
Pattern Recognition 2007
– Conférences
– Comités de programme
– B. Daille : Conférences : ACL Posters et Demos, 2007 ; COLING 2010 ; ESSLLI 2009 Student Session ; FSMNLP 2009 ; LREC 2006, 2008, 2010 ; PACLIC 2009, 2010 ; TALN 2006
à 2010 ;
Ateliers : Multiword Expressions - MWE : COLING 2010, ACL 2007, COLING-ACL 2006 ;
TALN
363
International Workshop on Terminology and Lexical Semantics (TLS’ 09) ; DEFT 2006 à
2010.
– A. Dikovsky : Conférences : PSI 2006 ; FG 2008 ; FG 2010 ;
– C. de la Higuera : Conférences : ICGI 2010 ; ECML PKDD 2010 ; Discovery Science 2009
et 2010 ;
Ateliers : GI 2009 - NIPS ; SSPR 2010
– E. Morin : Conférences TALN 2009, 2010-2008 ;
Ateliers : Workshop BUCC 2008 ; Workshop MCPSLR 2008 - LREC.
– C. Enguehard : Conférences TIA’2007 (présidente) ; TALN 2007.
– N. Hernandez : Ateliers : New Challenges for NLP Frameworks workshop, LREC 2010 ;
Services and Processing Pipelines in HLT workshop, LREC 2010 ; Approaches to Discourse (MAD) 2010 ; Workshop on Natural Language Processing and Cognitive Science NLPCS 2010 Workshop MCPSLR 2008 - LREC ; UIMA@GSCL 2009 workshop ; TALN et
RECITAL 2008 ; NLPRRATAA - LREC 2008.
– Rapports pour un membre d’un comité de programme
TALN et RECITAL 2006–2010 ; FG 2006–2010 ; MICAI 2006, 2007 ; CICLING 2008 ; CSL
2008 (Computer science logic) ; CSR 2008, 2009 (Computer science in Russia) ; NLPCS 2009 ;
WI-09 ; IGMOD Demo 2009 ; TERMGRAPH 2006 ; POPL 2007 ;
Expertises régions, ANR, Europe, AERES, ...
– B. Daille : membre du comité d’évaluation du programme CONTINT - ANR en 2009 et 2010 ;
expert AERES, comité de visite du LIG en 2010 ; membre du jury régional Pays de Loire du Concours national de création d’entreprises innovantes en 2007, 2008 et 2009 ; expert Fonds québécois
de la recherche sur la société et la culture (CRSH), comité d’évaluation du projet Modéliser le
changement : les voies du français, programme des Grands travaux de recherche concertée, U.
d’Ottawa, Canada 2007 ; expert ANR programme MDCA (Masses de Données et les Connaissances Ambiantes), 2006 ; membre du comité scientifique du programme interdisciplinaire du
CNRS Traitement des connaissances, apprentissage et NTIC (TCAN) (2003-2006).
– A. Dikovsky : expert ANR TICS 2008.
– C. de la Higuera : membre du comité de visite de l’A ERES du laboratoire L IRMM, 2009 ; membre
du comité de visite de l’A ERES du laboratoire E RIC, 2010 ; rapporteur pour le Gouvernement
Catalan (Agència de Gestió d’Ajuts Universitaris i de Recerca de la Generalitat de CatalunyaAgaur).
– E. Morin : expertise d’un projet pour le Conseil de recherches en sciences humaines du Canada
(CRSH), 2009 ; expertise d’un projet pour l’Agence Nationale de la Recherche (ANR) pour le
programme “Retour Post-Doctorants”, 2009 ; expertise d’un projet pour la Maison des Sciences
de l’Homme en Bretagne (MSHB) pour le Conseil Régional de Bretagne, 2009.
– C. Enguehard : expert - projets de la Région Rhône-Alpes CIBLE 2009.
– L. Monceaux : expert - projet ANR CONTINT 2009.
Rapports de thèse, comité de sélection, concours INRIA, ...
– B. Daille : rapporteuse de la thèse de Louise Déleger, Exploitation de corpus parallèles et comparables pour la détection de correspondances lexicales : application au domaine médical, SPIM INSERM UMRS 872, 2009 ; rapporteurse de la thèse de Nongdo Désiré Yawbsom KOMPAORE,
Fusion de systèmes et analyse des critères linguistiques des requêtes : vers un processus de RI
364
Bilan 2006–2009 et projet 2012-2015 TALN
–
–
–
–
–
–
–
adaptatif, IRIT, 2008 ; rapporteuse de la thèse de Tonio Wandmacher, Adaptive word prediction
and its application in an assistive communication system, U. Francois Rabelais de Tours - LI,
2008 ; rapporteuse de la thèse de Julien Bourdaillet, Alignement textuel monolingue avec recherche
de déplacements : algorithmique pour la critique génétique, U. Pierre et Marie Curie - LIP6,
2007 ; examinatrice de la thèse de Stéphanie Léon, Acquisition automatique de traductions d’unités lexicales complexes à partir du web, U. d’Aix-Marseille, 2008 ; examinatrice de la thèse
de Julie Mauclair, Mesures de confiance en traitement automatique de la parole et applications,
LIUM, 2006 ; membre du comité de sélection (CS) PR du LIPN, 2010 et de l’INALCO, 2010 ;
membre du CS (PR et MdC) de l’U. de Nantes, UFR Sciences et IUT, 2009 ; membre du concours
CR2 INRIA Lorraine en 2006 ; membre de la Commission de Spécialistes (CSE) 27 U. de Caen,
2006-2008 ; membre de la CSE 27 INSA Rennes, 2007-2008 ; membre de la CSE 27 U. de Nantes,
2006-2008 ; membre du conseil scientifique de l’UFR Sciences, U. de Nantes.
A. Dikovsky : rapporteur de la thèse de V. B. Novoseltsev, Une théorie formelle et des méthodes
déductives pour les modèles de systèmes d’information, thèse en russe, Université de Tomsk,
Russie, 2006 ; rapporteur de la thèse de Lionel Marie-Magdeleine, Sous-typage coercitif en
présence de réductions non-standards dans un système aux types dépendants, Université P.
Sabatier de Toulouse, 2009. ; président de la thèse de L. Goeuriot, Université de Nantes, 2009 ;
membre de la CSE 27 U. de Nantes, 2006–07 ; membre du CS 27 (PR et MCF) U. de Nantes,
2009 ; membre du CS 27 (PR et MCF) U. d’Orléans, 2009 ; membre du conseil scientifique de
l’UFR Sciences, U. de Nantes ; membre du conseil du département d’informatique, U. de Nantes.
C. de la Higuera : examinateur de la thèse de Sofiya Katrenko : A closer look at learning relations
from text, thèse soutenue à l’université d’Amsterdam (Pays-Bas), en septembre 2009 ; examinateur de la thèse de Jorge Gonzalez Molla : Aprendizaje de transductores estocasticos de estados
finitos y su aplicacion en traduccion automatica, thèse soutenue à l’université polytechnique de
Valencia (Espagne), en septembre 2009 ; examinateur de la thèse de Sébastien Rebecchi : Formalisme statistique pour ensembles de structures discrètes, thèse soutenue à l’I NSA de Lyon, en
septembre 2009 ; examinateur de la thèse de Mikhail Zaslavskiy : Graph matching and its applications in computer vision and computational biology, thèse soutenue à l’Ecole des Mines de Paris,
en janvier 2010 ; examinateur de la thèse de Nabil Benayadi : Contribution à la découverte de
connaissances temporelles à partir de données datées, thèse soutenue à l’université Paul Cezanne
Aix-Marseille III, en avril 2010 ; membre de la section 27 du CNU, 2007–2011.
E. Morin : membre suppléant nommé de la CSE 71 U. de Nantes (2005–2007) ; membre des CS
27 (PR et MCF) de l’U. de Tours ; membre du CS 71 (MCF) de l’U. de Nantes.
D. Béchet : membre de la section 27 du CNU, 2007–2011 ; membre du CS 27 (MCF) U. de Nantes,
2009 ; membre du CS 27 (MCF) U. d’Orléans, 2009.
C. Enguehard : membre élu du Comité National de la Recherche Scientifique (CoNRS) depuis
2008 - section 07 - Sciences et technologies de l’information (informatique, automatique, signal
et communication) depuis 2009 - section 44 - Cognition, langage, traitement de l’information,
systèmes naturels et artificiels ; membre du CS 27 (MCF) U. de Caen, 2009 ; membre CS “Langue,
représentation des connaissances et apprentissage” de l’U. Paul Sabatier de Toulouse, 2010.
N. Hernandez : membre élu des enseignants-chercheurs au Conseil scientifique de l’IUT de Nantes,
depuis 2008.
C. Jacquin : membre élu de la CSE 27 de l’U. de Nantes et de l’école centrale de Nantes de 1995
à 2008 ; membre du CS 27 (MCF), IUT de Nantes, 2009 ; membre du CS 27 (MCF), U. du Maine,
2010.
TALN
365
14.8.2 Animation de la communauté
Participation à des steering comittees, des GDR et leurs groupes de travail
– C. de la Higuera : membre du comité d’organisation du réseau d’excellence européen du 7e
PCRD Pascal 2 (2008-2013) ; vice-président pour l’international de Specif, depuis janvier 2010 ;
en septembre 2009 a été créé l’association internationale “Knowledge for all” dont l’objectif est
de fédérer les efforts des organisations produisant des documents scientifiques (par exemple des
enregistrements videos de conférences ou de cours). Colin de la Higuera est l’un des 5 directors
du consortium, avec la charge des questions de curriculum.
Conférences invitées
– B. Daille : TTC - Evaluation procedures of multilingual terminology acquired from comparable
corpora, LREC 2010 Workshop Methods for the automatic acquisition of Language Resources
and their evaluation methods, Malte, mai 2010 ; TTC cross-lingual terminology, Language Technology Days, Luxembourg, 22-23 March 2010 ; Exploitation de corpus comparables : défis et
réalités, Sixièmes journées de Linguistique de Corpus, Lorient, septembre 2009 ; Terminologie et
Traitement automatique des langues, TAMA, Gatineau, Canada, Octobre 2008.
Organisation de conférences, d’ateliers, d’écoles d’été
– B. Daille : LREC 2008 Workshop Multilingual and Comparative perspective in Specialized Language Resources, co-organisé avec Kyo Kageura, U. Tokyo et Marie-Claude L’homme, U. de
Montréal, 26 mai 2008 ; LREC 2010 Workshop Methods for the automatic acquisition of Language Resources and their evaluation methods, co-organisé avec Núria Bel, Universitat Pompeu
Fabra - IULA, Andrejs Vasiljevs - Tilde, La Valette, 23 May 2010.
– C. de la Higuera :co Workshop and Tutorial chair pour la conférence ECML-PKDD, à Barcelone,
en septembre 2010 ; co-organisateur de la compétition d’apprentissage actif ZULU et du workshop
ZULU qui doit se tenir lors de la conférence ICGI 2010 [9].
– C. Enguehard : Partenariat entre l’Université de Nantes et le Lieu Unique, dans le cadre des
conférences hors pistes, en collaboration avec Stéphane Pauvret, scénographe, vidéaste, photographe. “Un clavier azerty en vaut deux ! L’informatique et l’Afrique”, 16 novembre 2006,
Nantes.
– N. Hernandez : organisateur de l’atelier Around the framework Apache UIMA durant les
LSM/RMLL 2009.
Collaborations nationales et internationales
Production
– D. Béchet : projet GéoTal à la MSHB (Maison des sciences de l’homme de Bretagne), Écriture
d’articles et réalisation d’applications de TALN ;
– B. Daille : Université de Tokyo Écriture d’articles :[50, 33] ; DASSAULT Aviations, Écriture d’articles : [32, 49] ;
– A. Dikovsky : RAS 2006 et 2007 (Académie des sci.de Russie). Écriture d’articles : [47, 22] ;
– A. Dikovsky, D. Béchet : ARC ”Mosaı̈que”, Écriture d’articles :[39, 38] ;
– C. Enguehard : Université de Niamey, Niger, Écriture d’un article ; Direction Générale de l’enseignement de base du Ministère del’Éducation Nationale du Niger, Écriture d’articles [24] ;
366
Bilan 2006–2009 et projet 2012-2015 TALN
– C. de la Higuera : University College of London (Royaume Uni). Développement d’actions liées
à PASCAL et K4All ; Sheffield Hallam University (Royaume Uni). Montage d’une proposition de
projet européen (2010) ; Universidad de Alicante (Espagne). Écriture d’un article, participation au
Master ; Technishe Universität München (Allemagne) : Écriture d’un article et visite d’un mois
Josef Stefan Institute (Slovénie). Développement d’actions liées à PASCAL et K4All ;
– Y. Nakao : Université de Genève (Suisse). Projet CALL-SLT et écriture d’article [29, 26].
Acceuil de collègues étrangers
– Sophia Ananiadou, professeur, Directrice du centre de Fouille de texte, Université de Manchester,
UK. (2007. Exposé)
– Igor Boguslavsky, professeur, Directeur du laboratoire de la linguistique computationelle à l’Institut pour les Problèmes de Transition de l’Information de l’Académie des sciences de la Russie.
DR au Département de l’AI à l’Université Polytechnique de Madrid. (05.2008. Exposé, Accord de
coopération scientifique).
– Ulrich Heid, Professeur, Université de Stuttgart, Allemagne (Exposé en 2010)
– Kyo Kageura, professeur, Université de Tokyo, Japon (Exposés en 2006, 2007, et 2009)
– Philippe Langlais, professeur, Université de Montréal, Canada (Exposé en 2006)
– Marie-Claude L’Homme, professeur, Université de Montréal, Canada (Exposé en 2007)
– Chérif Mbodj, Université de Dakar, directeur du Centre de Linguistique Appliquée de Dakar,
Sénégal (séjours d’un mois en 2006 et 2008)
– Marie-Teresa Pazienza, professeur, Université Tor Vergata, Directrice du centre de recherche en
IA, Roma, Italie (2006. Exposé)
– Boris Pischik, Dr., Directeur du Centre Informatique de l’Université de Novossibirsk, Russie.
(10.2008, Accord de coopération scientifique)
– Ekatérina Rakhilina, professeur (directeur de l’équipe), Galina Kustova, professeur, Dimitri Sichinava, Dr., Sofya Piskunova, Dr. : équipe de maintenance du Corpus National du Russe (Académie
des sciences de la Russie) (12.2008, Exposé)
– Serge Sharoff, Professeur, Université de Leeds, UK (2010. Exposé)
– Professeur Tsujii, Directeur du laboratoire Tsujii, Université de Tokyo, Japon (2007, Exposé)
14.9 Formation par la recherche
Pilotage d’écoles doctorales, de spécialités de filières, de master
– B. Daille : directrice adjointe du LINA chargée des affaires générales et de la formation doctorale
de 2005-2007 ; membre du bureau de l’ED-STIM chargée des relations avec les doctorants de
2004-2008 ; membre du conseil scientifique de l’ED-STIM de 2004-2008 ; B. Daille : responsable
de la mention informatique du Master “Sciences, Santé et Techniques” de l’Université de Nantes
2004-2008.
– E. Morin : membre de la commission des thèses du LINA ; membre suppléant du Conseil Scientifique de l’ED-STIM.
Participation aux enseignements de master, de filière, d’école doctorale
– Etablissements tutelles
– B. Daille : Modèles pour l’aide à la décision (12H en M2 R SAD Tronc commun) 2004-2008 ;
Acquisition de ressources linguistiques (6H en M2 R SAD Option) 2004-2008 ; Langage naturel
TALN
367
(48H en M2 PR ALMA Option) 2008-2010.
– C. de la Higuera : Méthodologie de la Recherche (8h en Master ALMA) 2010.
– E. Morin : Acquisition de ressources linguistiques (6H en M2 R SAD Option) 2004-2008.
– Autres établissements
– B. Daille : Traitement de corpus (24 H en M1 Sciences du langage - UFR Lettres) 2008-2010 ;
Langage naturel (12 H en ID4 Polytech-Nantes) 2004-2010.
– C. de la Higuera : Méthodologie de la Recherche (18 H en M2 Informatique en Web Intelligence
- Université de Saint-Étienne), 2009 ; conférence (Master de l’Universidad de Alicante, Espagne
http://www.iuii.ua.es/master_ti/index.php?idioma=en), 2009.
– C. Enguehard : Traitement Automatique des Langues (60 H dans le master en informatique de
l’Université de Niamey, Niger) 2010.
– Autres actions de formation par la recherche
– A. Dikovsky : du 31 juillet au 4 août 2006, From syntactic structure to logical semantics, cours
à l’école d’été ESSLLI 2006, Malaga, Espagne.
– C. de la Higuera : en août 2010, tutoriel lors du Computational Linguistics Summer School,
Zadar, Croatie ; en septembre 2010, tutoriel lors de la conférence ICGI 2010, à Valencia, http://users.dsic.upv.es/workshops/icgi2010/; Tutorial cochair pour
la conférence ECML-PKDD, à Barcelone, en septembre 2010 ; responsable du curriculum development programme du réseau PASCAL : ce programme coordonne les actions de formation
par la recherche, en direction des membres du réseau, mais également vers les autres communautés.
HDR et thèses soutenues sur la période
Nom
E. MORIN
Publications
[42]
Nom
S. BOULAKNADEL
Publications
HDR
Institution
UN
Thèses
Institution
[31, 30]
UN
10/2008
E. DUBREIL
[46, 14]
UN
10/2006
L. GOEURIOT
[16, 8, 15]
UN
01/2009
E. MOREAU
[43, 35]
UN
10/2006
S. PENA
SALDARRIAGA
[2, 1, 7, 25, 19]
UN
3/2010
E. PROCHASSON
[10, 12, 20, 37]
UN
12/2009
Soutenance
11/2007
Devenir
Pr IUT Nantes
Soutenance
Devenir
Chercheuse
IRCAM, Maroc
Ingénieure - BLUE
XML, Nantes
Post-Doc, Nanyang
Technological
Uuniversity, Singapour
Post-Doc U. Paris
Nord
Post-Doc U. de
Montréal
Post-Doc
HongKong University
368
Bilan 2006–2009 et projet 2012-2015 TALN
14.10 Gouvernance
Organisation de l’équipe, animation scientifique
L’équipe organise une réunion et/ou un séminaire tous les mois où les doctorants et les permanents
sont invités à présenter leurs travaux. Des séminaires exceptionnels sont programmés lors de visites de
collègues étrangers. Lorsque la thématique est susceptible d’intéresser d’autres équipes, le séminaire
est programmé conjointement. Des formations spécifiques sont prévues pour les doctorants et prises en
charge par l’équipe : cours de langue française pour les étrangers, tutoriels et travaux pratiques concernant les outils collaboratifs (Subversion, Trac) et la plate-forme UIMA pour tous les doctorants et stagiaires. Les stagiaires accueillis dans l’équipe sont indemnisés et doivent participer aux réunions, stages,
formations et séminaires. En plus de ces formations, les doctorants sont systématiquement envoyés en
ecolé d’été lors de leur première année de thèses, ESSLI ou autre.
Stratégies de publication
Durant ce quadriennal, l’équipe a été très impliquée dans l’animation et la réalisation de projets de
recherche. Néanmoins, elle a conforté sa présence nationale avec des publications annuelles d’articles
longs dans la conférence francophone du domaine, TALN. Elle a essayé de privilégier la visibilité internationale avec l’objectif d’une publication annuelle dans les meilleures conférences généralistes du
domaine ; l’objectif est partiellement atteint avec ACL en 2007, IJCNLP et COLING en 2008. L’équipe
a aussi fortement encouragé la publication en revue pour les travaux sur la théorie des langages (revues
Theorical Computer Science, Studia Logica), pour ceux à la frontière entre la linguistique et l’informatique (revues LRE, Terminology, etc. ) et pour les articles longs ayant été acceptés dans des conférences
sélectives (revues TAL, LRE, ACM TLSP). Le choix de conférences présentant une ouverture à des
domaines connexes et interdisciplinaires comme la recherche d’information, CORIA, la traduction automatique, MT-SUMMIT, le traitement de la parole, JEP et ICASS, le document numérique, DDR et
ICDAR, a été une stratégie de publication gagnante puisqu’elle a permis d’obtenir 2 prix du meilleur
article ainsi que de nouer de nouvelles collaborations internationales avec l’acceuil de nos docteurs en
séjour postdoctoral (U. de Montréal et Hong-Kong University of Science and Technology)
Autres éléments de stratégie de l’équipe
Pour valoriser sa production logicielle, l’équipe encourage la participaton aux campagnes
d’évaluation. Sur la période, elle a participé à DEFT, CLEF et ESTER2.
14.11 Auto-évaluation
Pendant la période 2006-2009, l’équipe TALN reste une équipe inconcournable dans le périmètre
national. Elle est un acteur de référence pour les modèles d’analyse en dépendances, comparable à celui
du projet SINES du LABRI ou Caligrammes du LORIA pour les grammaires catégorielles. Elle a été
pionnière sur l’exploitation des corpus comparables avec le groupe ILES du LIMSI et XEROX, ainsi
que sur le traitement de la multimodalité : signal/langue écrite. À l’opposé de l’équipe Dodola du GREYC, elle a adopté une politique de mise à disposition des ressources et logiciels qu’elle développe en
adoptant la plate-forme libre UIMA. Elle s’est aussi fait une place importante au niveau européen dans
des problématiques de rupture, comme celle de l’alignement bilingue à partir de corpus comparables sur
TALN
369
des domaines spécialisés. Elle a consolidé des liens regionaux tant sur le plan scientifique qu’industriel.
Les faiblesses criantes sont l’absence d’étudiants de niveau Master dans les thématiques de l’équipe au
niveau local et l’absence de personnel dédié au développement logiciel et au déploiement de logiciels
libres au sein du LINA. L’investissement important dans l’exécution de contrats, dans la mise en place
d’une architecture logicielle perenne et dans le montage et la coordination de projets ambitieux a eu un
impact sur le niveau de publication, qui pourrait être encore amélioré avec plus de présence dans les
grandes conférences généralistes.
14.11.1 Découverte et analyse
Sur la thématique de l’analyse et de la découverte, les acquis sur la période sont les suivants :
– D’un point de vue formel, des nouveaux résultats d’analyse effectués en temps polynomial dont
l’expressivité permet le traitement d’une grande variété de langues, en particulier les langues sans
contraintes sur l’ordre des mots comme le Russe. Ces travaux ont engendré une collaboration avec
l’école polytechnique de Madrid, concrétisée par l’accueil de stagiaires et de collégues sur de
courts séjours ;
– Un tissage régional fort impliquant deux autres équipes régionales, l’équipe IVC de l’IRCCyN,
et le thème PAROLE du LIUM, autour d’une problématique actuelle, l’analyse multimodale,
concrétisé par le soutien de la région, d’abord au sein de l’axe multimédia du projet MILES
(2007-2009), puis par le nouveau projet structurant DEPART (2009-2012) ; des travaux sur l’analyse multimodale primés dans les sessions étudiantes dans deux conférences liés au traitement
de l’environnement numérique.
14.11.2 Comparaison et alignement
La problématique de l’exploitation des corpus comparables pour l’accès à l’information multilingue
dans des domaines spécialisés est l’une des thématiques où l’équipe a été précurseur et reste bien positionnée malgré un retour en force du reste du monde. Notons dans les forces :
– la mise en évidence d’une rupture technologique attestée par la publication dans la conférence
ACL en 2007, la revue ACM TSLP en 2010, et présentée dans des conférences invitées ;
– une montée en puissance attestée par l’initiation et la coordination de 3 projets successifs : CNRS
programme interdisciplinaire DECO (2004-2006), ANR METRICC (2009-2011), FP7 STREP
TTC (2010-2012).
14.12 Projet scientifique 2012-2015
L’équipe reconduit ses deux thèmes de recherche : “Découverte et analyse”, “Comparaison et alignement” pour la nouvelle période. Avec la nouvelle nécessité d’intégrer des méthodes lièes à l’apprentissage
automatique, un nouveau thème “Acquisition et Apprentissage” est créé porté par Colin de la Higuera,
recruté en 2009. Ces trois thèmes s’ils portent chacun des spécificités théoriques, se rencontrent dans les
applications phare de l’équipe : multilinguisme et multimodalité.
370
Bilan 2006–2009 et projet 2012-2015 TALN
14.12.1 Découverte et analyse
Formalismes grammaticaux
Nous avons défini les grammaires catégorielles de dépendances (GCD) et adopté les grammaires de
prégroupes (GP) pour leur syntaxe formelle bien adaptée aux applications du TALN. Des extensions qui
les rendent possible une large couverture ont été élaborées ainsi que mis en œuvre des algorithmes d’analyse en temps polynomial. En complément, une nouvelle sémantique formelle des plans du discours
a été définie pour s’appliquer à ces formalismes. Ces travaux forment un socle sur lequel nous ancrons
de nouveaux objectifs. En premier, nous envisageons de terminer le travail en cours sur la grammaire
CDG du Français à large couverture et à son analyseur déterministe complet. L’idée maı̂tresse va consister à transformer ce logiciel en un outil semi-automatique de développement de corpus arborés pour
l’entraı̂nement des analyseurs statistiques en dépendances. En particulier, nous envisageons d’élaborer
une nouvelle méthode mixte déterministe-statistique de désambiguı̈sation des résultats de l’analyseur,
cette tâche étant un des principaux défis pour l’utilisation des grammaires de grande taille et à large couverture. Puis, nous allons poursuivre le travail