Causes d'un évennement
Dans le chapitre précédant, on a évalué la probabilité de l'occurence d'un événement E lorsque 2 événements F et G se réalisent.
On sait que P(E|F,G) = P(F) * P(G|F) = P(G) * P(F|G) (Théorème de Bayes 1).
La probabilité de réalisation d'une hypothèse H, compte tenu de la probabilité de réalisation d'un événement E dans une expérience, et de la probabilité de réalisation du contexte C de l'expérimentation – notée P(H|E,C) – est égale à P(H|C) * P(E|H, C) / P(E|C), avec :
P(H|E, C) = probabilité « a posteriori » de réalisation de l'hypothèse H, c.t. de la réalisation de E et C.
P(H|C) = probabiilité « a priori » de réalisation de l'hypothèse H dans le contexte C.
P(E|H,C) = probabilité de l'occurence du résultat E dans l'expérience – preuve que H est vraie dans C.
P(E|c) est indépendant de H et peut être vu comme un facteur d'échelle (Niedermayer, 2003)
Nb : P(H|E, C) = P(H|C) * P(E|H, C) / P(E|C).
= P(H|C) * P(E|H, C) / ((P(E|H,C)*P(H|C)) + (P(E|CH,C)*P(CH,C)))
The theorem simply states that the belief in the hypothesis in light of the evidence, p(H|E,C ) (the posterior probability), depends on how likely it is that we observe a particular piece of evidence given the hypothesis and its negation, p(E|H,C) and p(E|CH,C ), and the prior probability of the hypothesis, p(H|C).
The inferential symmetry of probabilistic reasoning can be useful when probabilities are available in one direction but are required in the reverse direction. For example, domain experts may be more comfortable with specifying probabilities in the causal direction, through assessing p(E|H,C ), but may wish to calculate beliefs in the diagnostic direction, reasoning about the belief in hypotheses given evidence, p(H|E,C ).
Representing belief in the causal direction frequently is a more parsimonious and invariant representation of the uncertain relationships than is the diagnostic relationship, which will vary with prior probabilities (e.g., for different populations). Moreover, in causal form, complex relationships among multiple hypotheses and multiple effects can be frequently decomposed into simpler relationships from each hypothesis to its individual effects, which can be assessed separately.
Dans ce chapitre, sachant qu'un événement E -- qui peut avoir diverses causes C1, C2, C3 … -- s'est produit, on se propose de calculer les probabilités pour que la cause de cet événement soit C1 plutôt que C2 ? i.e. d'identifier l'explication la plus probable de E ?
Exemple 1 :
Trois sacs S1, S2, S3 … contiennent des boules blanches (b) et des boules noires (n). S1 contient 2b et 8n ; S2 contient 4b et 6n ; S3 contient 5b et 5n. On choisit 1 sac au hazard, puis on en extrait 1 boule au hazard b', et on observe qu'elle est blanche. De quel sac provient-elle le plus probablement ?
On définit l'événement E par « la boule extraite est blanche ». L'événement E peut provenir de 3 causes : C1, C2, C3, qui sont respectivement : b' vient de S1, b' vient de S2, b' vient de S3.
Les probabilités a priori de C1(q1), C2(q2), C3(q3) sont égales : q1 = p(C1) = p(C2) = p(C3) = 1/3
La probabilité d'extraire b' de S1 est r1 = 2/10 ; idem r2 = 4/10 et r3 = 5/10.
La probabilité pour que C1 soit intervenue et que E se soit réalisé doit être considéré comme une probabilité composée comportant la réalisation de 2 conditions : choisir S1 et tirer b' dans S1.
La probabilité pour que C1 soit intervenue et que E se soit réalisé = p(C1) * p(E|C1)
p(C1) = q1 = 1/3 ; c'est la probabilité a priori de l'intervention de C1 dans la réalisationde E.
p(E|C1) = r1 = 2/10 ; c'est la probabilité d'extraire b' dans S1 – i.e. aprés que l'on ait choisit S1.
On sait que p(C1) * p(E|C1) = p(E) * p(C1|E).
P(E) est la probabilité qu'une boule extraite au hazard d'un des 3 sacs choisi au hazard soit b'.
p(E) = q1*r1 + q2*r2 + q3*r3
P(C1|E) est la probabilité pour que la boule étant b', elle proviennent de S1, i.e. pour que la cause de E soit C1.
P(C1|E) = (p(C1) * p(E|C1)) / p(E) = q1*r1 / (q1*r1 + q2*r2 + q3*r3) = 2/11
Donc :
P(C2|E) = (p(C2) * p(E|C2)) / p(E) = q2*r2 / (q1*r1 + q2*r2 + q3*r3) = 4/11
P(C3|E) = (p(C3) * p(E|C3)) / p(E) = q3*r3 / (q1*r1 + q2*r2 + q3*r3) = 5/11
Exemple 2 :
Imaginons deux boîtes de biscuits. L'une, A, comporte 30 biscuits au chocolat et 10 ordinaires. L'autre, B, en comporte 20 de chaque sorte. On choisit les yeux fermés une boîte au hasard, puis dans cette boîte un biscuit au hasard. Il se trouve être au chocolat. De quelle boîte a-t-il le plus de chances d'être issu, et avec quelle probabilité ? Intuitivement, on se doute que la boîte A a plus de chances d'être la bonne, mais de combien ?
Notons HA la proposition « le gâteau vient de la boîte A » et HB la proposition « le gâteau vient de la boîte B ». Si lorsqu'on a les yeux bandés les boîtes ne se distinguent que par leur nom, nous avons p(HA)=p(HB), et la somme des probabilités est de 1, puisque nous avons bien choisi une boîte, soit une probabilité de 0,5 pour chaque proposition.
Notons D l'événement désigné par la phrase « le gâteau est au chocolat ». Connaissant le contenu des boîtes, nous savons que :
p(D | HA) = 30/40 = 0,75 ; avec « p(D | HA) » = « probabilité de D sachant A ».
p(D | HB) = 20/40 = 0,5 ; avec « p(D | HB) » = « probabilité de D sachant B ».
La probabilité p(HA|D) représente la probabilité d'avoir choisi la boîte A sachant que le gâteau est au chocolat. Avant de regarder le gâteau, notre probabilité d'avoir choisi la boîte A était p(HA), soit 0,5. Après l'avoir regardé, nous révisons cette probabilité à p(HA|D), qui est 0,6. Et puisque p(HA|D) + p(HB|D) = 1 (pas d'autre possibilité que d'avoir choisi la boîte A ou la boîte B sachant que le gâteau est au chocolat), la probabilité d'avoir choisi la boîte B sachant que le gâteau est au chocolat est donc de 1 − 0,6 = 0,4.