Variables indépendantes et identiquement distribuées

Variables indépendantes et identiquement distribuées

En statistique, des variables indépendantes et identiquement distribuées (iid) sont des variables aléatoires qui ont toutes la même loi de probabilité et sont mutuellement indépendantes.

En inférence statistique ou en apprentissage automatique, il est très courant de supposer que le tirage des échantillons d'apprentissage sont i.i.d. C'est une condition souvent nécessaire à l'application des théorèmes les plus courants. En particulier le théorème de la limite centrale dans sa forme classique stipule que la somme de variables aléatoires tendent vers une distribution normale quand ces variable sont i.i.d.

Exemples

Un exemple de tirage aléatoire i.i.d est celui du pile ou face. Chaque lancer de pièce suit la même loi de Bernoulli de paramètre p et est indépendant de ceux qui l'ont précédé ou vont lui succéder. Si p = 0.5 (pile et face ont la même chance d'apparition), et que nous avons obtenu 10 fois face lors des 10 tirages précédents, les chances d'obtenir pile et face lors du prochain tirage sont néanmoins égales.

Dans l'exemple précédent, le tirage ne serait plus i.i.d :

  • si on utilise alternativement deux pièces biaisées différemment (p_1 \ne p_2) car dans ce cas les tirages ne suivent pas la même loi. Il restent néanmoins indépendants.
  • si on choisit systématiquement la pièce ayant le plus de chance de donner face après chaque tirage pile (et que l'on prend les pièces au hasard après un tirage face), les tirages ne sont plus indépendants car conditionnées par le résultat du tirage précédent.


  • Portail des probabilités et des statistiques Portail des probabilités et des statistiques

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Variables indépendantes et identiquement distribuées de Wikipédia en français (auteurs)

Игры ⚽ Нужно решить контрольную?

Regardez d'autres dictionnaires:

  • Indépendant identiquement distribué — Variable indépendante et identiquement distribuée En statistique, des variables indépendantes et identiquement distribuées (iid) sont des variables aléatoires qui ont toutes la même loi de probabilité et sont mutuellement indépendantes. En… …   Wikipédia en Français

  • Variable indépendante et identiquement distribuée — En statistique, des variables indépendantes et identiquement distribuées (iid) sont des variables aléatoires qui ont toutes la même loi de probabilité et sont mutuellement indépendantes. En inférence statistique ou en apprentissage automatique,… …   Wikipédia en Français

  • Convergence De Variables Aléatoires — Dans la théorie des probabilités, il existe différentes notions de convergence de variables aléatoires. La convergence (dans un des sens décrits ci dessous) de suites de variables aléatoires est un concept important de la théorie des probabilités …   Wikipédia en Français

  • Convergence de variables aleatoires — Convergence de variables aléatoires Dans la théorie des probabilités, il existe différentes notions de convergence de variables aléatoires. La convergence (dans un des sens décrits ci dessous) de suites de variables aléatoires est un concept… …   Wikipédia en Français

  • Convergence de variables aléatoires — Dans la théorie des probabilités, il existe différentes notions de convergence de variables aléatoires. La convergence (dans un des sens décrits ci dessous) de suites de variables aléatoires est un concept important de la théorie des probabilités …   Wikipédia en Français

  • Projet:Mathématiques/Liste des articles de mathématiques — Cette page n est plus mise à jour depuis l arrêt de DumZiBoT. Pour demander sa remise en service, faire une requête sur WP:RBOT Cette page recense les articles relatifs aux mathématiques, qui sont liés aux portails de mathématiques, géométrie ou… …   Wikipédia en Français

  • Codage entropique — Le codage entropique (ou codage statistique à longueur variable) est une méthode de codage de source sans pertes, dont le but est de transformer la représentation d une source de données pour sa compression et/ou sa transmission sur un canal de… …   Wikipédia en Français

  • Théorème du codage de source — Le Théorème du codage de source (ou premier théorème de Shannon, ou moins usité en français, théorème de codage sans bruit) est un théorème énoncé par Claude Shannon en 1948, qui énonce la limite théorique pour la compression d une source. Le… …   Wikipédia en Français

  • Loi forte des grands nombres — Une loi forte des grands nombres est une loi mathématique selon laquelle la moyenne des n premiers termes d une suite de variables aléatoires converge presque sûrement vers une constante (non aléatoire), lorsque n tend vers l infini. Lorsque ces… …   Wikipédia en Français

  • Loi Forte Des Grands Nombres — La loi forte des grands nombres est un énoncé mathématique énonçant la moyenne d une suite de variables aléatoires converge presque sûrement vers la même constante que l espérance de la moyenne, sous certaines conditions (sur la dépendance, sur l …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”