Jacques van Helden
2019-10-03
On parle de distribution discrète pour désigner la distribution de probabilité de variables ne pouvant prendre que des valeurs discrètes (par opposition aux distributions continues).
Notes:
Application: temps d’attente jusqu’à la première réalisation d’un évènement au cours d’un schéma de Bernoulli.
Exemples:
La fonction de masse de probabilité (Probability Mass Function, PMF) indique la probabilité d’observer un résultat élémentaire particulier.
Pour la distribution géométrique, elle indique la probabilité d’observer exactement \(x\) échecs avant le premier succès, au cours d’une série d’essais indépendants à probabilité de succès \(p\).
\[\operatorname{P}(X = x) = (1-p)^x \cdot p\]
Justification:
Note: la PMF est apparentée au concept de densité que nous verrons lorsque nous traiterons les distributions continues.
Les queues de la distribution sont les aires comprises sous la courbe de densité jusqu’à une certaine valeur (queue gauche) ou à partir d’une certaine valeur (queue droite).
La queue droite indique la probabilité d’obtenir un résultat (\(X\)) inférieur ou égal à une certaine valeur (\(x\)): \(\operatorname{P}(X \le x\)).
La queue gauche d’une distribution indique la probabilité d’observer un résultat supérieur ou égal à une certaine valeur: \(\operatorname{P}(X \ge x\)).
La distribution binomiale indique la probabilité d’observer un certain nombre (\(x\)) de succès au cours d’une série de \(n\) essais indépendants avec une probabilité de succès \(p\) constante (schéma de Bernoulli).
Fonction de masse de probabilité binomiale
\[\operatorname{P}(X=x) = \binom{n}{x} \cdot p^x \cdot (1-p)^{n-x} = C_n^x p^x (1-p)^{n-x} = \frac{n!}{x!(n-x)!} p^x (1-p)^{n-x}\]
Fonction de répartition binomiale
\[\operatorname{P}(X \ge x) = \sum_{i=x}^{n}{P(X=i)} = \sum_{i=x}^{n}{C_n^i p^i (1-p)^{n-i}}\]
Propriétés
variance: \(\sigma^2 = n \cdot p \cdot (1 - p)\).
Ecart-type: \(\sigma = \sqrt{n \cdot p \cdot (1 - p)}\)
La distribution binomiale peut prendre différentes formes selon les valeurs des paramètres (probabilité de succès \(p\), et nombre d’essais \(n\)).
Quand l’espérance (\(p \cdot n\)) est inférieure à 1, la distribution est monotone décroissante, et on la qualifie de distribution en forme de \(i\).
Quand la probabilité de succès relativement élevée mais inférieure à 0.5, la distribution prend une forme en cloche asymétrique.
Quand la probabilité de succès vaut 0.5, la distribution prend une forme en cloche symétrique.
Quand la probabilité de succès est proche de 1, la distribution et monotone croissante et on la qualifie de distribution en forme de \(j\).
Note: le recours à la binomiale présuppose un schema de Bernoulli. Pour les exemples 2 et 3 ceci revient à considérer que les nucléotides se succèdent de façon indépendante, ce qui est assez peu réaliste.
La loi de Poisson décrit la probabilité du nombre d’occurrences d’un événement pendant un intervalle de temps fixé, en supposant que le nombre moyen d’événements par unité de temps est constant, et que les événements sont indépendants (les réalisations précédentes n’affectement pas la probabilité des occurrences suivantes).
\[P(X = x) = \frac{\lambda^x}{x!}e^{-\lambda}\]
Espérance (nombre de succès attendus au hasard): \(<X> = \lambda\) (par construction)
variance: \(\sigma^2 = lambda\) (variance égale à la moyenne!)
Ecart-type: \(\sigma = \sqrt{\lambda}\)
On soumet une population à un mutagène (agent chimique, irratiations). Chaque individu subit un certain nombre de mutations.
En tenant compte de la dose de mutagène (temps d’exposition, intensité/concentration), on peut estimer empiriquement le nombre moyen de mutations par individu (espérance, \(\lambda\)).
La loi de Poisson peut être utilisée pour décrire la probabilité d’observer un nombre donné de mutations (\(x=0, 1, 2, ...\)).
En 1943, Salvador Luria et Max Delbruck démontrent que les mutations ne sont pas induites par l’agent mutagène, (Luria & Delbruck, 1943, Genetics 28:491–511).
A FAIRE