Loi binomiale négative

Loi binomiale négative
Binomiale négative
Densité de probabilité / Fonction de masse
Negative binomial.svgLa ligne rouge représente la moyenne et la ligne verte a pour longueur approximativement 2σ.

Paramètres r > 0\! (réel)
0<p<1\! (réel)
et q=1-p\!
Support k \in \{0,1,2,\ldots\}\!
Densité de probabilité (fonction de masse) \frac{\Gamma(r+k)}{k!\,\Gamma(r)}\,p^r\,q^k \!
Fonction de répartition Ip(r,k + 1) où Ip(x,y) est la fonction bêta incomplète régularisée
Espérance \frac{r\,q}{p}\!
Mode \lfloor\frac{(r-1)\,q}{p}\rfloor\text{ si }r>1
0\text{ si }r\leq 1
Variance \frac{r\,q}{p^2}\!
Asymétrie \frac{q+1}{\sqrt{r\,q}}\!
Kurtosis normalisé \frac{6q+p^2}{r\,q}\!
Fonction génératrice des moments \left(\frac{p}{1-q e^t}\right)^r \!
Fonction caractéristique \left(\frac{p}{1-q e^{i\,t}}\right)^r \!

En probabilité et en statistiques, la loi binomiale négative est une distribution de probabilité discrète. Elle décrit la situation suivante: une expérience consiste en une série de tirages indépendants, donnant un "succès" avec probabilité p (constante durant toute l'expérience) et un "échec" avec une probabilité complémentaire. Cette expérience se poursuit jusqu'à l'obtention d'un nombre donné n de succès. La variable aléatoire représentant le nombre d'échecs (avant l'obtention du nombre donné n de succès) suit alors une loi binomiale négative. Ses paramètres sont n, le nombre de succès attendus, et p, la probabilité d'un succès. Cette loi est aussi connue sous le nom de loi de Pascal en l'honneur de Blaise Pascal et de loi de Polya, en l'honneur de George Pólya.

La loi se généralise à deux paramètres r et p, où r peut prendre des valeurs réelles strictement positives.

Sommaire

Loi binomiale négative à premier paramètre entier

Loi de probabilité

La loi binomiale négative dépend de deux paramètres, et plusieurs paramétrisations sont envisageables. Une paramétrisation très répandue introduit un entier naturel n non nul et un réel p compris entre 0 et 1. Il est courant d'introduire la probabilité complémentaire q = 1 − p. La loi de probabilité d'une variable aléatoire distribuée selon une binomiale négative de paramètres n et p, notée NegBin(n, p), prend la forme suivante : pour k = 0, 1, 2, ...

 f(k;n,p) = {k+n-1 \choose k}\cdot p^n \cdot q^k \!

Le coefficient binomial est:

 {k+n-1 \choose k} =  C_{n+k-1}^{k} = \frac{(k+n-1)!}{k!(n-1)!} = {k+n-1 \choose n-1}

La loi binomiale négative est la loi de probabilité de la variable aléatoire X qui comptabilise le nombre d'échecs nécessaires avant obtention de n succès, sachant que la probabilité d'un succès est p :

\mathbb{P}(X=k)=f(k;n;p) =  {k+n-1 \choose n-1}\cdot p^n \cdot q^k

La loi binomiale négative peut aussi s'écrire sous la forme

f(k;n,p)={-n\choose k}p^n(-q)^k

{-n\choose k} est un coefficient binomial appliqué à un entier négatif et est défini par

{-n\choose k}= \frac{(-n)(-n-1)\cdots (-n-k+1)}{k!}.

Cette expression justifie le nom de loi binomiale négative donnée à cette loi de probabilité. Elle facilite aussi, grâce à l'usage de la formule du binôme négatif, le calcul de son espérance \left(n\frac qp\right ) et de sa variance \left(n\frac q{p^2}\right).

Définition alternative

On trouve parfois la définition alternative suivante: la loi binomiale négative de paramètres n et p est la loi de la variable aléatoire Y donnant le nombre d'essais nécessaires pour obtenir n succès. Alors pour tout m \ge n,

 \mathbb{P}(Y=m)={m-1 \choose m-n}\cdot p^n\cdot q^{m-n} = {m-1 \choose n-1}\cdot p^n\cdot q^{m-n}

Les deux formules se déduisent l'une de l'autre. Il suffit de remarquer que Y = X + n et que m = k+n.

Dans la suite, on prendra la première définition pour définir de la loi binomiale négative.

Fonction de répartition

La fonction de répartition peut s'exprimer à l'aide de la fonction bêta incomplète régularisée:

 F(k) = I_{p}(n, k+1) \!

Une démonstration par récurrence sur k prouve que

 F(k) = 1-q^{k+1}\, \sum_{i=0}^{n-1} C_{k+i}^{i}\cdot p^i\!

Propriétés

Mélange de Gamma-Poisson

Il arrive que l'occurrence de certains phénomènes suive une loi de Poisson de paramètre λ variant lui-même de manière aléatoire. C'est le cas lorsque le phénomène peut se produire dans des populations différentes dans lesquelles la loi de Poisson change de paramètre. C'est ce qu'on appelle des mélanges de loi de Poisson. Lorsque le paramètre λ suit une distribution Gamma de paramètres r et θ, l'occurrence du phénomène suit une loi de mélange Gamma-Poisson. La probabilité que le phénomène se réalise k fois est alors

\mathbb{P}(X=k)=\int_0^{+ \infty}\mathbb{P}(X_{\lambda}=k)\times f(\lambda;r, \theta)\mathrm{d}\lambda

Xλ suit une loi de Poisson de paramètre λ et f(λ;r,θ) est la densité de la loi Gamma de paramètres r et θ (réels positifs).

Si Γ(r) est la valeur de la fonction gamma en r, on obtient alors :

\mathbb{P}(X=k)=\int_0^{+ \infty}\dfrac{\lambda^ke^{-\lambda}}{k!}\dfrac{\lambda^{r-1}e^{-\lambda/\theta}}{\Gamma(r)\theta^r}\mathrm{d}\lambda
\mathbb{P}(X=k)=\int_0^{+ \infty}\dfrac{\lambda^{k+r-1}e^{-\lambda\frac{\theta+1}{\theta}}}{k!\Gamma(r)\theta^r}\mathrm{d}\lambda

Le changement de variable t=\lambda\frac{\theta+1}{\theta} conduit à :

 \mathbb{P}(X=k)=\left(\dfrac{\theta}{\theta+1}\right)^{r+k}\dfrac{1}{\Gamma(r)k!\theta^r}\int_0^{+ \infty}t^{k+r-1}e^{-t}dt
 \mathbb{P}(X=k)=\dfrac{\Gamma(k+r)}{\Gamma(r)k!}\left(\dfrac{1}{\theta+1}\right)^r\left(\dfrac{\theta}{\theta+1}\right)^k

En posant p=\dfrac{1}{\theta+1} et q=\dfrac{\theta}{\theta+1}, on remarque que p + q = 1 et

\mathbb{P}(X=k)=\dfrac{\Gamma(k+r)}{\Gamma(r)k!}p^rq^k

Cette formule est une généralisation de la loi précédente pour un paramètre r réel strictement positif. En effet, pour tout entier naturel n non nul,

 \dfrac{(k+n - 1)!}{k!(n-1)!}= \dfrac{\Gamma(k+n)}{\Gamma(n)k!}

On généralise ainsi la loi binomiale négative à un premier paramètre r réel positif. Les formules de la moyenne, de la variance et de la fonction de répartition (sous la forme Ip(r,k + 1)) restent valables.

Le mélange Gamma-Poisson de paramètres r et θ est donc une loi binomiale négative de paramètres r et p=\frac{1}{\theta+1}.

Cas limite

Si l'on note λ l'espérance de cette loi, on a les relations suivantes :

 \lambda = r \frac qp = r\frac{1-p}{p}
 p = \frac{r}{r+\lambda} \!

la loi de probabilité devient:

 g_{\lambda,r}(k) = \frac{\lambda^k}{k!} \cdot \frac{P(r+k-1,k)}{(r+\lambda)^k} \cdot \frac{1}{\left(1+\frac{\lambda}{r}\right)^{r}} \!

λ est un réel positif , r un entier naturel non nul et P( r + k - 1,k), noté aussi A_{r+k-1}^{k}, est le nombre de permutations ou d'arrangement de k éléments parmi r + k - 1

Sous cette paramétrisation, on a

 \lim_{r\to\infty} g_{\lambda,r}(k) = \frac{\lambda^k}{k!} \cdot 1 \cdot \frac{1}{\exp(\lambda)} \!

qui est la loi de probabilité d'une loi de Poisson avec un paramètre λ. En d'autres termes, cette loi binomiale négative converge vers une loi de Poisson, et r régit la déviation vis-à-vis de la Poisson. La loi binomiale négative peut donc être vue comme une alternative robuste à la loi de Poisson, approchant cette loi pour r grand, mais avec une variance plus grande pour r petit.

En d'autres termes, la loi binomiale négative converge en distribution vers une Loi de Poisson, dans le sens:

\mathrm{Poisson}(\lambda) = \lim_{r \to \infty} \mathrm{NegBin}(r, r/(\lambda+r)).\,

Loi géométrique associée

Comme il existe deux définitions de la loi binomiale négative, il existe deux définitions de la loi géométrique. Si celle-ci modélise le nombre d'échecs avant le premier succès, elle correspond à la loi binomiale négative de paramètres 1 et p.

\mathrm{Geometrique}(p) = \mathrm{Neg Bin}(1, p).\,

Si Xn est une variable aléatoire distribuée selon la loi binomiale négative de paramètres n et p, alors Xn est la somme de n variables aléatoires indépendantes distribuées selon une loi géométrique de paramètre p. Le Théorème de la limite centrale indique de plus que Xn est approximativement normal, pour n suffisamment grand.

Lien avec la loi binomiale

En outre, si Yk+n est une variable aléatoire distribuée selon une loi binomiale de paramètre k + n et p, alors


\begin{align}
\mathbb{P}(X_n \leq k) & {} = I_p(n, k+1) \\
& {} = 1 - I_{1-p}(k+1, n) \\
& {} = 1 - I_{1-p}((k+n)-(n-1), (n-1)+1) \\
& {} = 1 - \mathbb{P}(Y_{k+n} \leq n-1) \\
& {} = \mathbb{P}(Y_{k+n} \geq n) \\
\end{align}

La dernière ligne s'interprète ainsi: c'est la probabilité qu'après k+n épreuves, il y ait au moins n succès. Ainsi, la loi binomiale négative peut être vue comme la réciproque de la loi binomiale.

Somme

La somme de deux variables aléatoires indépendantes et identiquement distribuées selon une loi binomiale négative de paramètres p et respectivement r1, r2, etc. est encore une loi binomiale négative, de paramètres p et r = r1 + r2. Cette propriété provient de l'expression de la fonction génératrice des moments et peut se généraliser à la somme de n variables.

Applications

Temps d'attente dans un processus de Bernoulli

Pour tout n entier, la loi binomiale négative est la distribution de succès et d'échecs dans une série d'épreuves de Bernouilli iid. Pour k+n épreuves de Bernoulli, avec probabilité de succès p, la loi binomiale négative donne la probabilité de k échecs et n succès, le dernier tirage étant un succès. Autrement dit, la loi binomiale négative est la distribution du nombre d'échecs avant le n ème succès dans des épreuves de Bernouilli, de probabilité de succès p.

Considérons l'exemple suivant. On lance plusieurs fois un dé honnête, et la face "1" est considérée comme un succès. La probabilité de succès à chaque épreuve est 1/6. Le nombre d'épreuves nécessaires pour obtenir 3 succès appartient à l'ensemble infini { 3, 4, 5, 6, ... }. Ce nombre d'épreuves est une variable aléatoire distribuée selon une loi binomiale négative (décalée, car l'ensemble commence à 3 et pas à 0). Le nombre d'échecs avant le troisième succès appartient à l'ensemble { 0, 1, 2, 3, ... }. Ce nombre d'échecs est aussi distribuée selon une loi binomiale négative.

Loi de Poisson «sur-dispersée»

La loi binomiale négative, en particulier dans sa paramétrisation alternative décrite plus haut, est une alternative intéressante à la loi de Poisson. Elle est particulièrement utile pour des données discrètes, à valeurs dans un ensemble positif non-borné, dont la variance empirique excède la moyenne empirique. Si une Poisson est utilisée pour modéliser de telles données, la moyenne et la variance doivent être égales. Dans ce cas, les observations sont «sur-dispersée» par rapport au modèle Poisson. Puisque la loi binomiale négative possède un paramètre supplémentaire, il peut être utilisé pour ajuster la variance indépendamment de la moyenne.


Références

  • Hilbe, Joseph M., Negative Binomial Regression, Cambridge, UK: Cambridge University Press (2007)
  • Portail des probabilités et des statistiques Portail des probabilités et des statistiques

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Loi binomiale négative de Wikipédia en français (auteurs)

Игры ⚽ Нужен реферат?

Regardez d'autres dictionnaires:

  • Loi binomiale — Binomiale Densité de probabilité / Fonction de masse Fonction de répartition …   Wikipédia en Français

  • Loi Géométrique — Geometrique Densité de probabilité / Fonction de masse Fonction de répartition …   Wikipédia en Français

  • Loi de Pascal — Loi géométrique Geometrique Densité de probabilité / Fonction de masse Fonction de répartition …   Wikipédia en Français

  • Loi geometrique — Loi géométrique Geometrique Densité de probabilité / Fonction de masse Fonction de répartition …   Wikipédia en Français

  • Loi log-normale — Densité de probabilité / Fonction de masse μ=0 Fonction de répartition μ=0 …   Wikipédia en Français

  • Loi logistique — Densité de probabilité / Fonction de masse Fonction de répartition …   Wikipédia en Français

  • Loi uniforme discrète — Densité de probabilité / Fonction de masse n=5 où n = b − a + 1 Fonction de répartition …   Wikipédia en Français

  • Loi géométrique — Géometrique Densité de probabilité / Fonction de masse Fonction de répartition Par …   Wikipédia en Français

  • Loi logarithmique (probabilité) — Logarithmique Paramètres Support Densité de probabilité (fonction de masse) Fonction …   Wikipédia en Français

  • Loi de Bernoulli — Pour les articles homonymes, voir Théorème de Bernoulli. Bernoulli Paramètres (nombre réel) Support …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”