See also ebooksgratis.com: no banners, no cookies, totally FREE.

CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
Privacy Policy Cookie Policy Terms and Conditions
Loi de probabilité - Wikipédia

Loi de probabilité

Un article de Wikipédia, l'encyclopédie libre.

Une loi de probabilité ou distribution a commencé par décrire les répartitions typiques des fréquences d'apparition des résultats d'un phénomène aléatoire. Dans le dernier quart du XXe siècle, on a largement étendu le concept à des domaines où il n'était plus question de fréquences, mais de représentation d'états de connaissance.

Les lois de probabilité sont utilisées en probabilité, et par extension en statistiques, qui sont des branches des mathématiques.

On associe naturellement une loi de probabilité à une variable aléatoire pour décrire la répartition des valeurs qu'elle peut prendre.

Parmi l'ensemble des lois de probabilités possibles, on distingue un certain nombre de familles usuelles qui correspondent à des phénomènes aléatoires simples : lancer de dés, jeu de pile ou face, erreurs de mesures, etc. Combinées entre elles, elles permettent d'élaborer des modélisations de phénomènes aléatoires plus complexes.

Sommaire

[modifier] Définitions

Une loi de probabilité se caractérise de différentes manières. Le plus souvent, on utilise la fonction de répartition pour caractériser une loi. Cela présente l'avantage d'être valable aussi bien pour les lois discrètes que continues. Mais on peut aussi caractériser une loi mixte avec une fonction de répartition. Dans le cas d'une loi continue, on utilise très souvent la densité , alors que dans le cas discret, la donnée des probabilités élémentaires suffit à caractériser la loi en question.

[modifier] Exemples de lois discrètes

Les résultats de la variable aléatoire X sont discrets, on peut définir leur probabilité

\ P(X = n)

[modifier] Loi de Bernoulli

Icône de détail Article détaillé : Loi de Bernoulli.
  • La loi de Bernoulli correspond à un lancer de pile ou face : p = succès  ; q = (1-p) = échec
  • P(X = 1) = p
  • P(X = 0) = q

[modifier] Loi binomiale

Icône de détail Article détaillé : Loi binomiale.
  • n épreuves de Bernoulli identiques.
  • P(X = k)=\mathrm{C}_n^k p^k(1-p)^{n-k} pour tout k de 0 à n, p étant un réel compris entre 0 et 1
  • \ E(X) = np
  • \ V(X) = np(1- p) = npq où q = 1-p

[modifier] Loi hypergéométrique

Icône de détail Article détaillé : Loi hypergéométrique.
  • P(X = k) = \frac{\mathrm{C}_{pA}^k\mathrm{C}_{(1-p)A}^{n-k}}{\mathrm{C}_A^n}A est un entier, pAet n des entiers inférieurs à A
  • \ E(X)=np
  • V(X) = np(1-p)\frac{A-n}{A - 1}

[modifier] Loi de Poisson

Icône de détail Article détaillé : Loi de Poisson.
  • P(X = k) = \frac{\lambda ^ k}{k!} \exp (-\lambda)\qquad k \in \mathbb{N},\ \lambda \in \mathbb{R}_+^*
  • \ E(X) = \lambda
  • \ V(X) = \lambda

[modifier] Loi géométrique

Icône de détail Article détaillé : Loi géométrique.
  • \ P(X = n)=(1-p)^{n-1}pp est un réel compris entre 0 et 1 et n un entier non nul.
  • \ E(X) = \frac{1}{p}
  • \ V(X) = \frac{1-p}{p^2}

[modifier] Exemples de lois continues

Les résultats de la variable aléatoire X sont continus, on peut définir la densité de probabilité fX, on a alors

P(a < X < b) = \int_a^b df_X(x)

En outre, si la densité dfX est continue par rapport à la Mesure de Lebesgue alors: P(a < X < b) = \int_a^b f_X(x)\, dx

[modifier] Loi uniforme

Icône de détail Article détaillé : Loi uniforme continue.

Loi uniforme continue sur un intervalle borné [a; b] :

  •  f_X (x) = \left\{\begin{matrix} \frac{1}{b-a}\ \mathrm{si}\ x \in [a;b] \\ 0\ \mathrm{sinon} \end{matrix}\right.
  • E(X) = \frac{a+b}{2}
  • V(X) = \frac{(b-a)^2}{12}

[modifier] Loi normale

Icône de détail Article détaillé : Loi normale.
  • f_X (x) = \left ( 2 \pi \sigma_X^2 \right )^{-1/2} \cdot \exp \left ( - \frac{(x-m_X)^2}{2 \sigma_X^2} \right )
  • f_X (x) = \frac{1}{\sigma_X\sqrt{2\pi}} \cdot e^{ \left ( - \frac{(x-m_X)^2}{2 \sigma_X^2} \right )}
  • \ E(X) = m_X
  • \ V(X) = \sigma_X^2

[modifier] Loi exponentielle

Icône de détail Article détaillé : Loi exponentielle.
  •  f_X (x) = \left\{\begin{matrix} \lambda.\exp(-\lambda x)\ \mathrm{si}\ x \geq 0 \\ 0\ \mathrm{sinon} \end{matrix}\right.
  • E(X) = \frac{1}{\lambda}
  • V(X) = \frac{1}{\lambda^2}

[modifier] Loi logistique

Icône de détail Article détaillé : Loi logistique.
  •  f_X (x) = \frac{e^{-\frac{x-\mu}{s}}}{s\left(1+e^{-\frac{x-\mu}{s}}\right)^2}
  • E(X) = \mu\,
  • V(X) = \frac{s^2\pi^2}{3}

[modifier] Loi de Cauchy

Icône de détail Article détaillé : Loi de Cauchy.
  •  f_X(x)=\frac{1}{\pi}\frac{1}{1+x^2}\,

La loi de Cauchy n'admet aucun moment (donc ni moyenne ni variance, entre autre).

[modifier] Loi de Tukey-Lambda

La Loi de Tukey-Lambda est connue de façon implicite par la distribution de ses quantiles :

G(p) = {p^\lambda - (1-p)^\lambda\over \lambda}

elle a par la suite été généralisée.

[modifier] Histoire

L'allure générale des lois de probabilité usuelles fut au début observée empiriquement, puis on en formalisa la définition dans le cadre de la théorie des probabilités en mathématiques.

[modifier] Maximum d'entropie

Les lois de probabilité usuelles sont souvent classées par familles dépendant d'un paramètre. La loi normale par exemple est paramétrée par sa moyenne et son écart type. La plupart des familles usuelles de lois de probabilités sont celles offrant le maximum d'entropie (au sens de Claude Shannon, donc le moins d'information) sous contraintes :

  • La distribution normale par exemple est celle d'entropie maximale parmi toutes les lois possibles ayant même moyenne et même écart type.
  • La distribution exponentielle est celle d'entropie maximale parmi celles ayant la même moyenne
  • Les lois scalantes comme celle de Zipf ou de Mandelbrot sont d'entropie maximale parmi celles auxquelles on impose la valeur du logarithme d'une moyenne, c'est-à-dire un ordre de grandeur.

En quelque sorte, ces lois ne contiennent pas plus d'information que ce qui est obligatoire. Ce sont les moins prévenues de toutes les lois compatibles avec les observations ou les contraintes, et donc les seules admissibles objectivement comme distributions de probabilités a priori lorsque ces valeurs sont imposées et seules connues. Cette propriété joue un grand rôle dans les méthodes bayésiennes.

[modifier] Définition mathématique

En théorie des probabilités, une loi (ou mesure) de probabilité est une mesure positive \mathbb{P} sur un espace mesurable (\Omega, \mathcal{A}), telle que \mathbb{P}(\Omega) = 1. Le triplet (\Omega, \mathcal{A},\, \mathbb{P}) est appelé espace probabilisé.

[modifier] Loi de probabilité d'une variable aléatoire réelle

Soit une variable aléatoire réelle sur l'espace probabilisé (\Omega, \mathcal{A},\, \mathbb{P}), c'est-à-dire une fonction mesurable X : \Omega \to \mathbb{R} (l'ensemble \mathbb{R} étant muni de sa tribu borélienne \mathcal{B}_{\mathbb{R}}).

On appelle loi (de probabilité) de la variable aléatoire X la mesure image de \mathbb{P} par X. C'est la mesure de probabilité \mathbb{P}_X sur l'espace mesurable (\mathbb{R},\, \mathcal{B}_{\mathbb{R}}) définie par :

\mathbb{P}_X(B) = \mathbb{P}\left(X^{-1}(B)\right)

pour tout borélien B de \mathbb{R}.

Lorsque le support de cette mesure est un ensemble fini ou dénombrable, par exemple \mathbb{N}, on parle de loi discrète, tandis que lorsque la mesure est absolument continue par rapport à la mesure de Lebesgue sur \mathbb{R}, on parle de loi continue.

[modifier] Exemples de distribution

[modifier] Voir aussi


aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -