P - MSHS Sud-Est
Transcription
P - MSHS Sud-Est
Modèles qualitatifs et quantitatifs
de l’incertitude
en Sciences du Traitement de
l’Information
Henri Prade
Institut de Recherche en Informatique de Toulouse CNRS & Université Paul Sabatier
Le rôle des probabilités
La théorie des probabilités est généralement utilisée pour
représenter deux types of phénomenes :
1. L’aléatoire: (‘randomness’) : capturer la variabilité au
travers d’observations répétées.
2. La connaissance partielle : l’information est souvent
manquante, imprécise, la connaissance sur des questions
d’intérêt est en général imparfaite.
Ces deux situations ne sont pas mutuellement exclusives. Exemple
• Variabilité: quantité journalière de pluie à Toulouse
– Peut changer chaque jour
– Elle est objective: peut être estimée à partir de données statistiques
• Information incomplète : Année de naissance du Président du Brésil Ce n’est pas une variable: c’est une constante !
– L’information est subjective: Beaucoup peuvent en avoir une idée
grossière (un intervalle), quelques-uns la connaitre précisément,
d’autres n’en avoir aucune idée.
– Des statistiques sur les dates de naissance d’autres présidents
n’aident guère.
Utiliser une distribution de probabilité unique pour
représenter l’information incomplète n’est pas
entièrement satisfaisant:
Le cadre de la théorie du pari des probabilités subjectives bayésiennes
contraint à une représentation de l’ignorance partielle basée sur une
distribution de probabilité unique 1. Ambiguïté : En l’absence d’information, comment une distribution
uniforme peut-elle distinguer une situation purement aléatoire d’une
situation d’ignorance ?
2. Instabilité : Une probabilité a priori uniforme sur x∈ [a, b] induit une
distribution a priori non-uniforme sur f(x) ∈ [f(a), f(b)] si f est
croissante et non-affine.
3. Doute empirique : Quand l’information est manquante, les décideurs
n’effectue pas toujours sur la base d’une probabilité subjective unique
(paradoxe d’Ellsberg). Représentations Ensemblistes de
la Connaissance Partielle
• Une quantité mal connue x est représentée comme
un ensemble disjonctive, i.e. un sous-ensemble E
de valeurs mutuellement exclusives, l’une d’elles
étant la vraie valeur.
• Eléments d’information de la forme x ∈ E
– Intervalles E = [a, b]: appropriés pour représenter
l’information numérique incomplète – Logique Classique: appropriée pour représenter
l’information symbolique (booléenne) incomplète
– E = Modèles d’une formule logique (bien formée : une wff) φ tenue pour vraie. mais assez peu expressif
THEORIE des POSSIBILITES BOOLEENNES
Si tout ce que nous savons est que x ∈ E alors
- L’événement A est possible si A ∩ E ≠ Ø
(cohérence logique)
Π(A) = 1, et 0 sinon
- L’événement A est certain si E ⊆ A
(déduction logique)
N(A) = 1, et 0 sinon
Correspond à un fragment de logique modale (KD45)
N(A) = 1 - Π(Ac) Π(A ∪ B) = max(Π(A), Π(B));
N(A ∩ B) = min(N(A), N(B)).
Motivations pour aller au delà
des probabilités
• Distinguer entre l’incertitude due à la variabilité de
l’incertitude due au manque de connaissance ou à
l’absence d’information. • Les principaux outils pour représenter l’incertain sont
– Distributions de probabilités : appropriées pour exprimer la
variabilité, mais exigeantes en information
– Ensembles: : appropriés pour représenter l’information
incomplète, mais offrant souvent une représentation grossière de
l’incertitude
• Trouver des représentations qui permettent de représenter
les deux aspects de l’incertain.
Trouver une représentation de l’incertitude
due à une information incomplète
• Plus informative que de pures intervalles, ou que
la logique classique, qui utilisent des ensembles
• Moins exigeante en information que l’obtention
d’une distribution de probabilités unique • Permettant une représentation explicite des
situations d’information manquante
• Permettant aussi de traiter des mêmes problèmes
que les probabilités. Combiner intervalles et probabilités
• Les représentations qui peuvent prendre en compte à la fois la
variabilité et la connaissance incomplète doivent combiner probabilités
et ensembles.
– Ensembles de probabilités : théorie des probabilités imprécises
– Ensembles aléatoires : théorie des fonctions de croyance de
Dempster-Shafer – Ensembles flous: théorie des possibilités numériques
Chaque événement a un degré de croyance (certitude) et un degré de
plausibilité, au lieu d’un unique degré of probabilité
UN CADRE GENERAL POUR REPRESENTER LA
CERTITUDE ET LA PLAUSIBILITE GRADUELLES
• 2 fonctions d’ensemble associées : Pl et Cr généralisant la possibilité et la nécessité.
• Conventions : –
–
–
–
Pl(A) = 0 "impossible" ; Cr(A) = 1 "certain"
Pl(A) =1 ; Cr(A) = 0 "ignorance" (pas d’information)
Pl(A) - Cr(A) quantifie l’ignorance à propos de A
• Postulats
– Cr(A) ≤ Pl(A) "certain implique plausible"
– Pl(A) = 1 - Cr(Ac) dualité certain / plausible
Théorie des probabilités imprécises
• Un état d’information est représenté par une famille P de
distributions de probabilités sur un ensemble X.
• A chaque événement A est associé un intervalle de
probabilités [P*(A), P*(A)] te que
– P*(A) = inf{P(A), P∈ P}
– P*(A) = sup{P(A), P∈ P} = 1 – P*(Ac) • Usually P est strictement inclus dans
{P t. q. pour tout A, P(A) ≥ P*(A)}
Théorie des fonctions de croyance
• m : 2X ------> [0, 1]
• {A t. q. m(A) > 0} éléments focaux
m : ensemble aléatoire
m(Ø) = 0 cohérence
Bel(A) = ΣΒ⊆A m(B)
Pl(A) = ΣΒ ∩ A ≠ Ø m(B)
• Pl(A) = 1 - Bel(AC) • éléments focaux sont des singletons = probabilités
• éléments focaux sont emboités = possibilités
THEORIE des POSSIBILITES GRADUELLES
- π : distribution de possibilité X ------> [0, 1]
• mesure de possibilité
Π(A) = supx∈A π(u)
• mesure de nécessité
N(A) = 1 - Π(Ac) = infx∈AC 1 - π(u)
Π(A ∪ B) = max(Π(A), Π(B)); N(A ∩ B) = min(N(A), N(B))
Cohérence
max(Π(A), Π(AC))= 1 et min(N(A), N(AC)) = 0
L. A. Zadeh, 1978 ; G. L. S. Shackle, 1949 degré de surprise : 1 - Π(A) Ne pas croire p ≠ croire non p
•
•
•
•
•
•
1 - Prob(p) = Prob(non p)
1 - N(p) = Π(non p) ≠ Ν(non p) N(p) = 1 et Π(p) = 1 p est certain
N(p) ≥ α et Π(p) = 1 p est quelque peu certain
N(p) = 0 = N(non p) et Π(p) = 1= Π(non p) ignorance
Π(p) ≤ α ; Ν(non p) ≥ 1- α non p est quelque peu certain
• Π(p) = 0 ; Ν(non p) = 1 non p est certain POSSIBILITES QUANTITATIVES ou QUALITATIVES
• π : distribution de possibilité X ------> L
• L = [0, 1] quantitatif
• Qualitatif : min, max
L ensemble ordonné (fini ou non), treillis
par ex. L = {impossible, quelque peu possible, assez
possible, très possible, complètement possible} LT = {certain, presque certain, plutôt certain, un peu
certain, pas certain du tout} 1 – ( ) : fonction de renversement de l’échelle
seule dif. : conditionnement : min ou produit
LOGIQUE POSSIBILISTE
• formules (Φ, α)
Ν(Φ) ≥ α
• (Φ, α), (Φ ---> Ψ, β)
___________________________
(Ψ, min(α, β))
• Prob(Φ)≥ α et Prob(Φ ---> Ψ) ≥ α
n’implique pas Prob(Ψ) ≥ α (sauf si α =1)
Possibilités Bipolaires
mesure de possibilité (faible)
Π(A) = supx∈A π(u)
mesure de nécessité (forte)
N(A) = 1 - Π(Ac) mesure de possibilité (forte)
Δ(A) = infx∈A π(u)
mesure de nécessité (faible)
∇(A) = 1 - Δ(Ac) Panorama des théories de l’incertain
PROBABILITES BAYESIENNES / STATISTIQUES
Points Aléatoires
PROBABILITES SUPERIEURES/INFERIEURES
Ensembles disjonctifs de probabilités
(probabilités extrêmes)
FONCTIONS KAPPA (SPOHN)
PROBABILITES SUPERIEURES/INFERIEURES de DEMPSTER SHAFER-SMETS FONCTIONS de CROYANCE
Ensembles aléatoires disjonctifs
PLAUSIBILITE ORDINALE
Théorie des Possibilités Quantitatives
Logique Classique
Ensembles flous (emboités disjonctifs)
Ensembles disjonctifs
Une distribution de possibilité peut être obtenue à partir d’une
Famille quelconque d’intervalles de confiance emboités: P(Αα) ≥ 1 - α, α ∈ (0, 1]
α
1
π
0
πα
INTERVALLE FLOU: N(πα) = 1 - α
“P- boxes”
• Un ensemble P = {P: F* ≥ P ≥ F*} induit par deux
fonctions cumulatives est appelé probability box (p-box)
• Une p-box est un intervalle aléatoire particulier dont les bornes
inférieure et supérieure induisent induisent le même ordre
• Un intervalle flou induit une p-box P
1
α
F*
F*
0
Eα
Traitement de l’incertain en STI
• Représentation de connaissances expertes incertaines
logique non-monotones « les oiseaux volent »
• Fusion d’informations incertaines multi-sources
• Propagation de l’incertain dans le calcul et l’inférence
(avec traitement distinct de la variabilité et de l’ignorance)
• Relations entre méthodes statistiques et théorie des possibilités
(intervalles de confiance, fonctions de vraisemblance,
inégalités probabilistes, principe de vraisemblance maximale)