« Approfondissements de lycée/Probabilité discrète » : différence entre les versions
Contenu supprimé Contenu ajouté
mAucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 4 :
La théorie des probabilités est l'une des théories les plus fécondes des Mathématiques. Elle traite de l'incertain et nous enseigne comment l'aborder. C'est simplement l'une des théories les plus utiles que vous rencontrerez.
Mais pas de méprise: nous n'allons pas apprendre é prédire des choses, mais
Comme suggéré plus haut, une ''probabilité'' est un pourcentage, valant donc entre 0 et 100 % (compris). Cette valeur est directement proportionnelle à la vraisemblance qu'un événement survienne. Les mathématiciens
▲Comme suggéré plus haut, une ''probabilité'' est un pourcentage, valant donc entre 0 et 100 % (compris). Cette valeur est directement proportionnelle à la vraisemblance qu'un événement survienne. Les mathématiciens préférent exprimer une ''probabilité'' plutôt sous la forme d'une ''proportion'', c'est-à-dire un nombre entre 0 et 1.
=== info - Pourquoi
<blockquote style="padding: 1em; border: 2px dotted purple;">
Les probabilités se présentent sous deux formes:
</blockquote>
== Événement et probabilité ==
En gros, un ''événement'' est quelque chose auquel on peut assigner une probabilité. Par exemple,
:P(il pleuvra demain) = 0,6.
Ligne 27 ⟶ 23 :
:P(A) = 0,6.
Un autre exemple: un dé honnête
:P(B) = 1/6
Ligne 33 ⟶ 29 :
'''Mise au point'''
<blockquote style="padding: 1em; border: 2px dotted red;">
Notez que la probabilité 1/6 ne signifie pas que le dé
</blockquote>
Ligne 41 ⟶ 37 :
:P(événement certain) = 1
Les éléments précédents confirment une propriété très importante des probabilités: les probabilités sont comprises entre 0 et 1. Ainsi, on ne peut jamais
:<math>0 \leq P(E) \leq 1</math>
pour tous les événements ''E''.
Ligne 49 ⟶ 45 :
l'événement tel que ''le dé ne donnera pas le 1 au prochain lancer''. Généralement, mettre une barre au-dessus d'une variable (qui représente un événement) signifie qu'on considère l'opposé de cet événement. Dans le cas du lancer de dé:
:<math>P(\overline{B}) = 5/6</math>
signifie que ''le dé
:<math>P(\overline{E}) = 1 - P(E)</math>
pour tout événement ''E''.
=== Combiner les probabilités indépendantes ===
Il est intéressant de comprendre comment les probabilités ''indépendantes'' peuvent se combiner pour donner les probabilités d'événements plus complexes. Le terme ''indépendant'' a été mis en valeur, car les démonstrations suivantes nécessitent cette hypothèse. La signification exacte de ce terme sera discutée un peu plus loin, et nous verrons pourquoi l'indépendance est importante dans l'
==== Ajouter des probabilités ====
Les probabilités sont ajoutées ensemble lorsque un événement peut survenir de plusieurs "façons". L'exemple suivant illustre cela: on jette un dé honnête. On veut calculer la probabilité, par exemple, d'obtenir un nombre impair. Pour cela, il faut ajouter les probabilités pour toutes les "façons" de
:P(obtenir un nombre impair) = P(obtenir un 1) + P(obtenir un 3) + P(obtenir un 5) = 1/6 + 1/6 + 1/6 = 3/6 = 1/2 = 50%
Remarquons que la somme des probabilités est souvent associée à l'opération logique ''ou''. Lorsque qu'on précise qu'un événement ''E'' est équivalent aux événements ''X, Y'', '''or''' ''Z'', on utilise l'addition pour combiner les probabilités.
Ligne 64 ⟶ 60 :
==== Multiplier les probabilités ====
Les probabilités
:P(obtenir deux 6 ) = P(obtenir 6 au 1er lancer)<math>\times</math>P(obtenir un 6 au 2è tirage) = <math>\frac{1}{6}\times\frac{1}{6}</math> = 1/36 <math>\approx</math> 2,8%
Comme pour le cas de l'addition, la multiplication de probabilités est associée à une opération logique, à savoir le '''et'''. Lorsque l'événement ''E'' est équivalent à '''tous''' les événements ''X, Y'', '''et''' ''Z'', on utilise la multiplication pour combiner les probabilités (à la seule conditions que les '''événements soient indépendants deux à deux''').
Il est aussi important de remarquer que le produit de probabilités multiples doit être plus petit ou égal à chacune des probabilités élémentaires,
==== Combiner l'addition et la multiplication ====
Il est parfois nécessaire de combiner les deux opérations vues plus haut. Une fois de plus, considérons un dé
:P(obtenir une somme de 3) = P(1 au 1er lancer)<math>\times</math>P(2 au 2è lancer) + P(2 au 1er lancer)<math>\times</math>P(1 au 2è lancer) = <math>\frac{1}{6}\times\frac{1}{6}</math> + <math>\frac{1}{6}\times\frac{1}{6}</math> = 1/18 <math>\approx</math> 5,5%
Ce n'est qu'un simple exemple, et la combinaison des multiplication et addition permet de calculer les probabilités d'événements bien plus complexes.
Ligne 92 ⟶ 88 :
7. Calculez la probabilité d'obtenir deux nombres qui se somment à 7.
8.
9. Quelle est la probabilité que ''C'' est plus grand que ''A'' ?
10, Christophe apprend que 50% des autres élèves jouent au football, 30% aux jeux vidéo et enfin 30% étudient les mathématiques. Ainsi, en tirant au sort un élève au
''' Solutions '''
Ligne 122 ⟶ 118 :
ainsi P(C > A) = 5/12.
10
== Variables aléatoires ==
Ligne 141 ⟶ 137 :
Dans une expérience de Bernoulli, on obtient
:soit un ''
:soit un ''échec'', noté 0, avec la probabilité complémentaire ''1-p''.
Ligne 155 ⟶ 151 :
=== Distribution Binomiale ===
Supposons que l'on veuille répéter une expérience de Bernoulli ''n'' fois,
:<math>C_i \sim \mathcal{B}(p)</math>
pour ''i = 1, 2, ... , n''. Ceci signifie qu'il y a ''n'' variables C<sub>1</sub>, C<sub>2</sub>, ... , C<sub>n</sub> et qu'elles sont toutes issues de la même distribution de Bernoulli. On
:<math>B = C_1 + C_2 + ... + C_n</math>,
alors ''B'' est simplement la ''va'' qui dénombre le nombre de succès parmi les ''n'' essais (expériences). Une telle variable est
:<math>B \sim \mathcal{B}(n ; p)</math>
Ligne 165 ⟶ 161 :
Aditya, Gareth, et John sont de même niveau. Leur probabilité d'obtenir un score de 100 à un test suit une distribution de Bernoulli avec probabilité de succès de 0,9. Quelle est la probabilité que
:i) l'un
:ii) deux d'entre eux obtiennent 100 ?
:iii) tous les trois obtiennent 100 ?
Ligne 177 ⟶ 173 :
i) On veut calculer
:<math>P(B = 1)</math>
La probabilité que l'un des trois atteigne le score de 100 et pas les deux autres (1
:<math>0,9 \times 0,1 \times 0,1 = 0,009</math>
mais il y a 3 possibilités pour choisir celui atteignant 100, d'où
Ligne 195 ⟶ 191 :
:<math>P(B = 0) = 0,1 \times 0,1 \times 0,1 = 0,001</math>
L'exemple précédent laisse
Si
Ligne 240 ⟶ 236 :
::[[image:HSE_Venn_2.png|A and B are disjoint]]
==== info --
<blockquote style="padding: 1em; border: 2px dotted purple;">
<center>[[image:Venn-four.png|Four intersecting sets]]</center>
</blockquote>
===
L'espérance d'une variable aléatoire peut être vue comme la moyenne de long terme du résultat d'une certaine expérience aléatoire (qui puisse être reproduite). Par moyenne de long terme il faut comprendre moyenne du résultat numérique d'une expérience répétée de nombreuses fois. Par exemple, soit ''D'' la ''va'' définie plus haut; les valeurs observées de ''D'' (1,2 ... or 6) sont équiprobables (elles ont les mêmes chances d'apparaître). Ainsi, en jetant un dé un très grand nombre de fois, on peut raisonnablement s'attendre à ce chaque nombre apparaisse avec la même fréquence. L'espérance est alors
:<math>\frac{1 + 2 + 3 + 4 + 5 + 6}{6} = 3
:<math> E(D) = 3
On va maintenant définir proprement l'espérance.
:<math>E(R) = r_1P(R = r_1) + r_2P(R = r_2) + ... + r_nP(R = r_n)</math>
Dans un jeu de pile ou face, on note 1 lorsqu'on obtient Face, 0 sinon. La même pièce est tirée 8 fois de suite. Soit ''C'' la variable aléatoire représentant le nombre de faces en 8 tirages. Quelle est l'espérance de ''C'' ?
▲''' Example 1 '''
''' Solution 1 '''
Ligne 267 ⟶ 262 :
...
==
La distribution uniforme.
|