« Approfondissements de lycée/Probabilité discrète » : différence entre les versions

Contenu supprimé Contenu ajouté
Ludovic89 (discussion | contributions)
Ludovic89 (discussion | contributions)
les moments
Ligne 10 :
 
 
=== '''info - Pourquoi discrète ? ==='''
<blockquote style="padding: 1em; border: 2px dotted purple;">
Les probabilités se présentent sous deux formes: discrètes et continues. Le cas continu est considéré comme beaucoup plus difficile à comprendre, et beaucoup moins intuitif que le cas discret, dans le sens où il nécessite de solide bases en analyse (calcul intégral). Nous introduirons quelques notions utiles au cas continu un peu plus loin.
Ligne 40 :
:<math>0 \leq P(E) \leq 1</math>
pour tous les événements ''E''.
 
=== Évènements ===
On revient sur quelques notion de l'algèbre des événements. Soit ''A'' et ''B'' deux évènements, on définit
:<math>\, A \cap B </math>
comme l'évènement ''A et B''. On définit aussi
:<math> A \cup B </math>
comme étant l'évènement ''A ou B''. Comme démontré dans l'exercice 10,
:<math>\, P(A \cup B) \ne P(A) + P(B)</math>
en général.
 
Considérons quelques exemples. Soit ''A'' l'évènement d'obtenir un nombre plus petit ou égal à 4 après le jet d'un dé équilibré. Soit ''B'' l'évènement "obtenir un nombre impair". Alors
:P(''A'') = 2/3
et
:P(''B'') = 1/2
mais la probabilité de ''A ou B'' n'est pas égal à la somme des probabilités
:<math>P(A \cup B) \ne P(A) + P(B) = \frac{1}{2} + \frac{2}{3} = \frac{7}{6}</math>
puisque 7/6 est supérieur à 1.
 
Ce n'est pas difficile de voir que l'évènement "le lancer donne un 1 ou un 3" est inclus à la fois dans ''A'' et ''B''. Ainsi, en ajoutant simplement P(''A'') et P(''B''), certaines probabilités sont comptées deux fois !
 
Le diagramme de Venn ci-dessous devrait clarifier la situation,
::[[image:HSE_Venn1.png|A or B]]
Il faut voir le carré bleu comme la probabilité de ''B'' et le jaune la probabilité de ''A''. Ces deux probabilités se chevauchent, ce qui représente la probabilité de ''A et B''. Ainsi, la probabilité de ''A ou B'' doit être:
:<math>P(A \cup B) = P(A) + P(B) - P(A \cap B)</math>.
 
Si pour les évènements ''A'' et ''B'', on a
:<math>P(A \cap B) = 0</math>
alors ''A'' et ''B'' sont dits '''disjoints'''. Pour deux évènements disjoints, la diagramme de Venn devient:
::[[image:HSE_Venn_2.png|A and B are disjoint]]
 
'''info -- Diagramme de Venn'''
<blockquote style="padding: 1em; border: 2px dotted purple;">
Traditionnellement, les diagrammes de Venn illustrent graphiquement les ensembles. Un ensemble est une collection d'objets, par exemple {1, 2, 3} est un ensemble constitué de 1, 2 et 3. La forme conventionnelle pour le diagramme de Venn est traditionnellement ovale. Il est alors assez difficile de représenter une intersection de plus de 3 ensembles. Voici par exemple le diagramme de Venn pour 4 intersections:
<center>[[image:Venn-four.png|Four intersecting sets]]</center>
</blockquote>
 
=== Complément d'un événement ===
Ligne 61 ⟶ 96 :
==== Multiplier les probabilités ====
Les probabilités sont multipliées ensemble lorsqu'un événement se réalise en plusieurs "étapes". Par exemple, on jette un dé équilibré deux fois. La probabilité d'obtenir deux 6 est calculée en multipliant les probabilités associées aux événements individuels constitutifs. Intuitivement, la première étape est le premier lancer et la seconde le second lancer. Par conséquent, la probabilité finale d'obtenir deux 6 est la suivante:
:P(obtenir deux 6 ) = P(obtenir 6 au 1er1{{er}} lancer)<math>\times</math>P(obtenir un 6 au 2{{e}} tirage) = <math>\frac{1}{6}\times\frac{1}{6}</math> = \frac{1}{/36} <math>\approx</math> 2,8%
Comme pour le cas de l'addition, la multiplication de probabilités est associée à une opération logique, à savoir le '''et'''. Lorsque l'événement ''E'' est équivalent à '''tous''' les événements ''X, Y'', '''et''' ''Z'', on utilise la multiplication pour combiner les probabilités (à la seule conditions que les '''événements soient indépendants deux à deux''').
 
Ligne 68 ⟶ 103 :
==== Combiner l'addition et la multiplication ====
Il est parfois nécessaire de combiner les deux opérations vues plus haut. Une fois de plus, considérons un dé honnête lancé deux fois de suite. On considère maintenant l'événement "obtenir deux nombres de somme 3". Dans ce cas, il y a évidemment deux jets, donc deux étapes et aussi un produit de probabilité. Dans le même temps, il y a plusieurs façons de faire une somme de 3, ce qui signifie qu'il faut aussi utiliser l'addition. Le dé pourrait donner 1 en premier puis 2 ou 2 en premier puis 1. Ceci conduit au calcul suivant:
:P(obtenir une somme de 3) = P(1 au 1er lancer)<math>\times</math>P(2 au 2è lancer) + P(2 au 1er lancer)<math>\times</math>P(1 au 2è lancer) = <math>\frac{1}{6}\times\frac{1}{6}</math> + <math>\frac{1}{6}\times\frac{1}{6}</math> = \frac{1}{/18} <math>\approx</math> 5,5%
Ce n'est qu'un simple exemple, et la combinaison des multiplication et addition permet de calculer les probabilités d'événements bien plus complexes.
 
Ligne 161 ⟶ 196 :
Une autre utilisation est le calcul des '''quantile'''. Le quantile d'ordre <math>\alpha</math> est le réel <math>q_\alpha</math> tel que <math>F(q_\alpha) = \alpha</math>.
 
 
== Moments: espérance et variance ==
=== Espérance ===
L'espérance d'une variable aléatoire peut être vue comme la moyenne de long terme du résultat d'une certaine expérience aléatoire (qui puisse être reproduite). Par moyenne de long terme il faut comprendre moyenne du résultat numérique d'une expérience répétée de nombreuses fois. Par exemple, soit ''D'' la ''va'' définie plus haut; les valeurs observées de ''D'' (1,2 ... or 6) sont équiprobables (elles ont les mêmes chances d'apparaître). Ainsi, en jetant un dé un très grand nombre de fois, on peut raisonnablement s'attendre à ce chaque nombre apparaisse avec la même fréquence. L'espérance est alors
:<math>\frac{1 + 2 + 3 + 4 + 5 + 6}{6} = 3,5</math>.
On note l'espérance de ''D'' par E(''D''). Ainsi,
:<math> E(D) = 3,5 </math>.
On va maintenant définir proprement l'espérance.
 
Considérons une variable aléatoire ''R'', et supposons que ses valeurs soient r<sub>1</sub>, r<sub>2</sub>, r<sub>3</sub>, ... , r<sub>n</sub>. On définit l'espérance de ''R'' comme
:<math>E(R) = r_1P(R = r_1) + r_2P(R = r_2) + ... + r_nP(R = r_n)</math>
 
 
'''Propriétés'''
L'espérance est ''linéaire'', c'est-à-dire que pour deux va quelconques, pour tous réels ''a,b'' et ''c'', on a
:<math>E(a R_1 + b R_2 + c) = a E(R_1) + b E(R_2) + c.</math>
 
 
''' Exemple 1 '''
Dans un jeu de pile ou face, on note 1 lorsqu'on obtient Face, 0 sinon. La même pièce est tirée 8 fois de suite. Soit ''C'' la variable aléatoire représentant le nombre de faces en 8 tirages. Quelle est l'espérance de ''C'' ?
 
''' Solution 1 '''
Les valeurs possibles de ''C'' sont 0, 1, ..., 8. Il s'agit d'une loi binomiale de paramètre ''p= 0,50'' et ''n=8''.
 
- Nous avons vu plus haut que la loi de probabilité de la loi binomiale était
:<math>P(B = k) = {8 \choose k} 0,5^k 0,5^{8-k} = {8 \choose k} 0,5^8</math>.
 
- D'où l'espérance:
:<math>E(C) = 0,5^8 \times \sum_{i=0}^8 i {8 \choose i} = 4,0</math>.
 
 
''' Solution 2 '''
On consulte l'article de Wikipedia consacrée à la loi binomiale. On y apprend que pour <math>B \sim \mathcal{B}(n ; p)</math>, son espérance se donne directement par <math>E(B) = n p = 8 \times 0,5 = 4</math>, ce qui confirme le calcul précédent.
 
 
=== Variance ===
La variance permet de mesurer la ''variabilité'' d'une va. Lorsqu'on compare deux variables, on se contente souvent de calculer leur moyenne; c'est une mauvaise habitude, car la moyenne ne permet pas de distinguer deux va, comme l'illustre l'exemple suivant.
 
<blockquote style="padding: 1em; border: 2px dotted purple;">
'''Exemple''': La va ''X'' admet pour loi <math>X(\Omega) = \{0 ; 1\}</math> avec ''P(X=0) = P(X=1) = 1/2''. La va ''Y'' vérifie <math>Y(\Omega) = \{0,50 \}</math> avec ''P(Y=0,5)=1''. Elles partagent la même espérance (''1/2'') mais ne sont pour autant pas comparables: ''Y'' est très concentrée contrairement à ''X''.
</blockquote>
 
Pour calculer la variance, il faut que l'espérance existe; si tel est le cas, on donne
:<math>V(X) = E[ X - E(X) ]^2 = \sum_i p_i \left[x_i - E(X)\right]^2.</math>
Par construction, la variance est positive. Son calcul n'est pas forcément aisé, heureusement il existe une formule alternative pour mener ce calcul:
:<math>V(X) = E[ X - E(X) ]^2 = E(X^2) - E^2(X),</math>
avec
:<math>E(X^2) = \sum_i p_i x_i^2.</math>
 
<blockquote style="padding: 1em; border: 2px dotted purple;">
'''Exemple''': La va ''X'' admet la loi de probabilité suivante.
 
{| class="wikitable"
|+ Loi de probabilité de la va ''X''
! <math>x_i</math>
! 1
! 2
! 3
|-----
| <math>p_i</math>
| 1/6
| 1/3
| 1/2
|}
 
L'espérance est
:<math>E(X) = \frac{1}{6} \times 1 + \frac{1}{3} \times 2 + \frac{1}{2} \times 3 = \frac{7}{3} </math>
et la variance
<math>V(X) = E\left[ X - \frac{7}{3} \right]^2 = \sum_i p_i \left[x_i - E(X)\right]^2 = \frac{1}{6} \left[ 1 - \frac{7}{3} \right]^2 + \frac{1}{3} \left[ 2 - \frac{7}{3} \right]^2 + \frac{1}{2} \left[ 3 - \frac{7}{3} \right]^2 = \frac{5}{9}</math>
 
Vérifions la formule alternative:
:<math>E(X^2) = \sum_i p_i x_i^2 = \frac{1}{6} \times 1^2 + \frac{1}{3} \times 2^2 + \frac{1}{2} \times 3^2 = 6,</math>
d'où
:<math>V(X) = E(X^2) - E^2(X) = 6 - \left(\frac{7}{3}\right)^2= \frac{5}{9}</math>,
ce qui correspond bien.
</blockquote>
 
Une rapide analyse dimensionnelle montre que ''X'' n'est pas libellée en même unité que sa variance: en effet, si ''X'' est exprimée en mètre, alors la variance sera exprimée en ''mètre au carré''. Pour obtenir une dispersion de même dimension, on considère l'écart type de ''X'', noté <math>\sigma(X)</math>, comme
:<math>\sigma(X) = \sqrt{V(X)}.</math>
 
Contrairement à l'espérance, la variance n'est pas forcément linéaire; on n'a pas toujours
:<math>V(X+Y) \neq V(X) + V(Y) </math>.
La linéarité <math>V(X+Y) = V(X) + V(Y) </math> n'est vérifiée que pour ''X, Y'' '''indépendantes'''. On définit la ''covariance'' entre ''X,Y'', notée <math>\sigma(X;Y)</math>, vérifiant
:<math>V(X+Y) = V(X) + V(Y) + 2 \times \sigma(X;Y).</math>
Bien entendu, si ''X'' et ''Y'' sont indépendantes, leur covariance est nulle.
 
 
 
== Quelques variables aléatoires communes ==
=== L'expérience de Bernoulli ===
Cette section est optionnelle et requiert la maîtrise de la formule du binôme (de Newton).
Ligne 229 ⟶ 353 :
Ceci est le ''k''é terme dans le développement de (''p'' + ''q'')<sup>n</sup>, où ''q = 1 - p''.
 
=== Évènements ===
Dans les sections précédentes, on a abusé du terme ''évènement''. Un évènement peut être pensé comme la collection de résultats aléatoires d'une certaine ''va''.
 
Introduisons d'abord quelques notations. Soit ''A'' et ''B'' deux évènements, on définit
:<math>\, A \cap B </math>
comme l'évènement ''A et B''. On définit aussi
:<math> A \cup B </math>
comme étant l'évènement ''A ou B''. Comme démontré dans l'exercice 10,
:<math>\, P(A \cup B) \ne P(A) + P(B)</math>
en général.
 
Considérons quelques exemples. Soit ''A'' l'évènement d'obtenir un nombre plus petit ou égal à 4 après le jet d'un dé équilibré. Soit ''B'' l'évènement "obtenir un nombre impair". Alors
:P(''A'') = 2/3
et
:P(''B'') = 1/2
mais la probabilité de ''A ou B'' n'est pas égal à la somme des probabilités
:<math>P(A \cup B) \ne P(A) + P(B) = \frac{1}{2} + \frac{2}{3} = \frac{7}{6}</math>
puisque 7/6 est supérieur à 1.
 
Ce n'est pas difficile de voir que l'évènement "le lancer donne un 1 ou un 3" est inclus à la fois dans ''A'' et ''B''. Ainsi, en ajoutant simplement P(''A'') et P(''B''), certaines probabilités sont comptées deux fois !
 
Le diagramme de Venn ci-dessous devrait clarifier la situation,
::[[image:HSE_Venn1.png|A or B]]
Il faut voir le carré bleu comme la probabilité de ''B'' et le jaune la probabilité de ''A''. Ces deux probabilités se chevauchent, ce qui représente la probabilité de ''A et B''. Ainsi, la probabilité de ''A ou B'' doit être:
:<math>P(A \cup B) = P(A) + P(B) - P(A \cap B)</math>.
 
Si pour les évènements ''A'' et ''B'', on a
:<math>P(A \cap B) = 0</math>
alors ''A'' et ''B'' sont dits '''disjoints'''. Pour deux évènements disjoints, la diagramme de Venn devient:
::[[image:HSE_Venn_2.png|A and B are disjoint]]
 
==== info -- Diagramme de Venn ====
<blockquote style="padding: 1em; border: 2px dotted purple;">
Traditionnellement, les diagrammes de Venn illustrent graphiquement les ensembles. Un ensemble est une collection d'objets, par exemple {1, 2, 3} est un ensemble constitué de 1, 2 et 3. La forme conventionnelle pour le diagramme de Venn est traditionnellement ovale. Il est alors assez difficile de représenter une intersection de plus de 3 ensembles. Voici par exemple le diagramme de Venn pour 4 intersections:
<center>[[image:Venn-four.png|Four intersecting sets]]</center>
</blockquote>
 
=== Espérance ===
L'espérance d'une variable aléatoire peut être vue comme la moyenne de long terme du résultat d'une certaine expérience aléatoire (qui puisse être reproduite). Par moyenne de long terme il faut comprendre moyenne du résultat numérique d'une expérience répétée de nombreuses fois. Par exemple, soit ''D'' la ''va'' définie plus haut; les valeurs observées de ''D'' (1,2 ... or 6) sont équiprobables (elles ont les mêmes chances d'apparaître). Ainsi, en jetant un dé un très grand nombre de fois, on peut raisonnablement s'attendre à ce chaque nombre apparaisse avec la même fréquence. L'espérance est alors
:<math>\frac{1 + 2 + 3 + 4 + 5 + 6}{6} = 3,5</math>.
On note l'espérance de ''D'' par E(''D''). Ainsi,
:<math> E(D) = 3,5 </math>.
On va maintenant définir proprement l'espérance.
 
Considérons une variable aléatoire ''R'', et supposons que ses valeurs soient r<sub>1</sub>, r<sub>2</sub>, r<sub>3</sub>, ... , r<sub>n</sub>. On définit l'espérance de ''R'' comme
:<math>E(R) = r_1P(R = r_1) + r_2P(R = r_2) + ... + r_nP(R = r_n)</math>
 
''' Exemple 1 '''
Dans un jeu de pile ou face, on note 1 lorsqu'on obtient Face, 0 sinon. La même pièce est tirée 8 fois de suite. Soit ''C'' la variable aléatoire représentant le nombre de faces en 8 tirages. Quelle est l'espérance de ''C'' ?
 
''' Solution 1 '''
Les valeurs possibles de ''C'' sont 0, 1, ..., 8. Il s'agit d'une loi binomiale de paramètre ''p= 0,50'' et ''n=8''.
 
- Nous avons vu plus haut que la loi de probabilité de la loi binomiale était
:<math>P(B = k) = {8 \choose k} 0,5^k 0,5^{8-k} = {8 \choose k} 0,5^8</math>.
 
- D'où l'espérance:
:<math>E(C) = 0,5^8 \times \sum_{i=0}^8 i {8 \choose i} = 4,0</math>.
 
 
''' Solution 2 '''
On consulte l'article de Wikipedia consacrée à la loi binomiale. On y apprend que pour <math>B \sim \mathcal{B}(n ; p)</math>, son espérance se donne directement par <math>E(B) = n p = 8 \times 0,5 = 4</math>, ce qui confirme le calcul précédent.
 
== Aires et probabilité ==