Chapitre 17. Lois de probabilités continues

I. Rappels sur les lois de probabilités discrètes

On rappelle d'abord les différents résultats enseignés dans les classes précédentes concernant les variables aléatoires prenant un nombre fini de valeurs.

Soit $X$ une variable aléatoire prenant un nombre fini de valeurs $x_1$, $x_2$, \ldots , $x_n$.

Donner la loi de probabilité de la variable aléatoire $X$, c'est donner les valeurs des probabilités des événements \og $X=x_1$ \fg, \ldots , \og $X=x_n$ \fg. On décrit souvent la loi de probabilité de $X$ dans un tableau du type

$x_i$ $x_1$ $x_2$ \ldots \ldots $x_n$
$p(X=x_i)$ $p_1$ $p_2$ \ldots \ldots $p_n$

L'espérance de la variable aléatoire $X$ est

$$E(X)=p_1\times x_1+p_2x_2+\ldots+p_nx_n.$$

La variance de la variable aléatoire $X$ est

$$V(X)=E\left((X-E(X))^2\right)=p_1\left(x_1-E(X)\right)^2 +\ldots+p_n \left(x_n-E(X)\right)^2.$$

L'écart-type de la variable aléatoire $X$ est

$$\sigma(X)=\sqrt{V(X)}=\sqrt{E\left((X-E(X))^2\right)}=\sqrt{p_1\left(x_1-E(X)\right)^2+\ldots+p_n\left(x_n-E(X)\right)^2}.$$

II. Découverte des lois de probabilités continues

1) Découverte des lois continues et des fonctions de répartition

On choisit un nombre réel au hasard entre $0$ et $1$. On obtient ainsi une variable aléatoire qui peut prendre une infinité de valeurs.

Quelle est la probabilité d'obtenir le nombre $0,3$ ? Intuitivement, cette probabilité est nulle puisque il y a une infinité de réels compris entre $0$ et $1$.

De manière générale, si on note $X$ la variable aléatoire qui au tirage d'un nombre associe ce nombre, alors pour tout réel $x$ de $[0,1]$, $p(X=x)=0$. Il n'y a donc aucun intêret dans cette situation à fournir la loi de probabilité de $X$ qui consisterait à fournir $p(X=x)$ pour chaque réel $x$ entre $0$ et $1$.

Par contre, la probabilité que le nombre $x$ obtenu vérifie $0\leqslant x\leqslant 0,5$ est intuitivement $0,5$ : il y a une chance sur deux que le réel $x$ tombre dans la première moitié de l'intervalle $[0,1]$. De même, la probabilité que le nombre $x$ obtenu vérifie $0,4\leqslant x\leqslant 0,8$ est intuitivement $0,4$ car l'intervalle $[0,4;0,8]$ est de longueur $0,8-0,4=0,4$ et donc l'intervalle $[0,4;0,8]$ occupe $\dfrac{4}{10}$ de la totatilité de l'intervalle $[0,1]$.
Ainsi, on a $p(0\leqslant X\leqslant 0,5)=0,5$ et $p(0,4\leqslant X\leqslant 0,8)=0,4$. Les probabilités obtenues sont maintenant non nulles.

Quand on est en présence d'une variable prenant une infinité de valeurs, il faut donc s'intéresser non pas aux probabilités du type $p(X=a)$ mais aux probabilités du type $p(a\leqslant X\leqslant b)$.

L'expression $p(a\leqslant X\leqslant b)$ a un défaut, elle a deux variables $a$ et $b$. On peut se ramener à une seule. Par exemple, la probabilité que le réel $x$ appartienne à l'intervalle $[0,4;0,8]$ a été calculée en effectuant une différence : $p(0,4\leqslant X\leqslant 0,8)=0,8-0,4$. Le sous-entendu est

$$p(0,4\leqslant X\leqslant 0,8)=p(X\leqslant 0,8)-p(X\leqslant 0,4)=0,8-0,4=0,4,$$

ou encore, si pour tout réel $x$ de $[0,1]$, on pose $F(x)=p(X\leqslant x)$, alors

$$p(0,4\leqslant X\leqslant 0,8)=F(0,8)-F(0,4)=0,8-0,4=0,4.$$

La fonction $F$ s'appelle la \textbf{fonction de répartition} associée à la variable $X$. C'est elle qui permet de décrire les différentes probabilités. Cette fonction est ici très simple. On a par exemple $F(0,3)=p(X\leqslant 0,3)=0,3$ ou $F(0,8)=p(X\leqslant0,8)=0,8$ ou encore $F(1)=p(X\leqslant1)=1$ et plus généralement

pour tout réel $x$ de $[0,1]$, $F(x)=x$.

Voici le graphe de $F$ :

***********************************************
***********************************************
***********************************************
***********************************************
***********************************************

Supposons maintenant que nous tirions au hasard un nombre réel entre $-1$ et $3$. Quelle est la probabilité que ce réel soit compris entre $-0,2$ et $2,3$ ? La longueur de l'intervalle $[-1;3]$ est $3-(-1)=4$ et la longueur de l'intervalle $[-0,2;2,3]$ est $2,3-(-0,2)=2,5$. L'intervalle $[-0,2;2,3]$ occupe donc une proportion $\dfrac{2,3-(-0,2)}{3-(-1)}=\dfrac{2,5}{4}$ de l'intervalle $[-1,3]$. Intuitivement, cette proportion est la probabilité cherchée :

$$p(-0,2\leqslant X\leqslant 2,3)=\dfrac{2,3-(-0,2)}{3-(-1)}=\dfrac{2,5}{4}=0,625.$$

Plus génénéralement, si $x$ est un réel de $[-1,3]$, la probabilité que le nombre tiré soit inférieur ou égal à $x$ est intuitivement la proportion de l'intervalle $[-1,3]$ occupée par l'intervalle $[-1,x]$ :

$$F(x)=p(X\leqslant x)=\dfrac{x-(-1)}{3-(-1)}=\dfrac{x-1}{4}.$$

La fonction de répartition est donc ici la fonction définie par : pour tout réel $x$ de $[-1,3]$, $F(x)=\dfrac{x-1}{4}$. On peut alors calculer la probabilité que le nombre tiré au hasard soit compris entre deux réels $a$ et $b$ donnés de l'intervalle $[-1,3]$ :

$$p(a\leqslant X\leqslant b)=p(X\leqslant b)-p(X\leqslant a)=F(b)-F(a)=\dfrac{b-a}{4}.$$

Voici le graphe de $F$ :

***********************************************
***********************************************
***********************************************
***********************************************
***********************************************

Dans la première situation, la fonction de répartition était définie sur $[0,1]$ et dans la deuxième situation la fonction de répartition est définie sur $[-1,3]$. On veut unifier les deux situations en les définissant sur $\mathbb{R}$. Dans la deuxième situation, on s'intéresse donc également aux réels $x$ plus petits que $-1$ ou aux réels $x$ plus grands que $1$.

Si $x$ est un réel plus petit que $-1$, puisqu'on tire au hasard un nombre entre $-1$ et $3$, la probabilité que le nombre tiré soit inférieur à $-1$ est nulle et si $x$ est un réel plus grand que $3$, on est sûr que le nombre tiré est un nombre plus peit que $x$ et donc $p(X\leqslant x)=1$. Avec ces constatations, on a maintenant une fonction de répartition définie sur $\mathbb{R}$ :

pour tout réel $x$, $F_2(x)=\left\{ \begin{array}{l} 0\;\text{si}\;x<-1\\ \dfrac{x-1}{4}\;\text{si}\;-1\leqslant x\leqslant3\\ 1\;\text{si}\;x>3 \end{array} \right.$.

Pour la première situation, on aurait obtenu la fonction de répartition $F_1$ définie pour tout réel $x$ par

$$F_1(x)=\left\{ \begin{array}{l} 0\;\text{si}\;x<0\\ x\;\text{si}\;0\leqslant x\leqslant1\\ 1\;\text{si}\;x>1 \end{array} \right..$$

Voici les graphes des fonctions $F_1$ et $F_2$.

***********************************************
***********************************************
***********************************************
***********************************************
***********************************************

et

***********************************************
***********************************************
***********************************************
***********************************************
***********************************************

Notons que dans la pratique, le nombre $x$ pourra le moment venu représenter une grandeur plus concrète.
Par exemple, $x$ pourra être un temps d'attente à un guichet. Il est donc cohérent de permettre à $x$ de varier continuement \ldots jusqu'à $+\infty$ malheureusement.

Dans les deux situations précédentes, la probabilité était \textbf{uniforme}. Par exemple dans la première situation, la probabilité que le réel tiré soit dans l'intervalle $[0,1;0,3]$ est la même que la probabilité que le réel tiré soit dans l'intervalle $[0,5;0,7]$ à savoir

$$0,3-0,1=0,7-0,5=0,2.$$

Si on a envie que les réels de la fin de l'intervalle $[0,1]$ aient plus de chances (ou moins de chances) d'être tirés que les réels du début de l'intervalle, il ne faut pas que le graphe de la fonction de répartition monte avec une pente constante. On peut par exemple considérer la fonction de répartition suivante :

pour tout réel $x$, $F_3(x)=\left\{ \begin{array}{l} 0\;\text{si}\;x<0\\ x^2\;\text{si}\;0\leqslant x\leqslant1\\ 1\;\text{si}\;x>1 \end{array} \right.$.

Voici son graphe :

***********************************************
***********************************************
***********************************************
***********************************************
***********************************************

Dans ce cas, la probabilité que le réel tiré soit compris entre $0,1$ et $0,3$ est

$$p(0,1\leqslant X\leqslant 0,3)=p(X\leqslant 0,3)-p(X\leqslant 0,1)=0,3^2-0,1^2=0,08$$

et la probabilité que le réel tiré soit compris entre $0,5$ et $0,7$ est

$$p(0,5\leqslant X\leqslant 0,7)=p(X\leqslant 0,7)-p(X\leqslant 0,5)=0,7^2-0,5^2=0,24.$$

La probabilité n'est plus uniforme.

De manière générale, une fonction de répartition $F~:~x\mapsto p(X\leqslant x)$ a intuitivement les propriétés suivantes :

En fonction de ces considérations, voici un graphe possible de fonction de répartition :

***********************************************
***********************************************
***********************************************
***********************************************
***********************************************

Faisons une dernière remarque sur les fonctions de répartition associées à des lois continues. On rappelle que, quand une variable aléatoire prend une infinité de valeurs, intuitivement, pour chaque réel $x$, $p(X=x)=0$. Par suite, pour chaque réel $x$,

$$p(X\leqslant x)=p(X< x)+p(X=x)=p(X< x),$$

et

$$p(X\geqslant x)=p(X>x)+p(X=x)=p(X>x).$$

Ainsi, dans le premier exemple, quand on tire au hasard un nombre dans $[0,1]$, la probabilité que ce nombre soit dans $[0,4;0,8]$ est la même que la probabilité que ce nombre soit dans $]0,4;0,8[$ ou $]0,4;0,8]$ à savoir $0,4$.

2) Découverte de la notion de densité

On sait que quand une variable aléatoire prend un nombre fini de valeurs, la probabilité d'un événement du type $a\leqslant X\leqslant b$ est obtenue en additionnant les probabilités des événements élémentaires qui réalisent l'événement $a\leqslant X\leqslant b$. Par exemple, si on jette une fois un dé bien équilibré, la probabilité d'obtenir un résultat compris entre $3$ et $5$ au sens large est

$$p(3\leqslant X\leqslant 5)=p(X=3)+p(X=4)+p(X=5)=\dfrac{1}{6}+\dfrac{1}{6}+\dfrac{1}{6}=\dfrac{1}{2}.$$

On va voir que le principe est le même pour les variables continues en passant des sommes discrètes aux sommes continues c'est-à-dire aux intégrales. Reconsidérons une variable aléatoire $X$ dont la fonction de répartition $F$ a un graphe du type

***********************************************
***********************************************
***********************************************
***********************************************
***********************************************

On rappelle que pour chaque réel $x_0$, on a $p(X=x_0)=0$. Au lieu de nous intéresser à la probabilité de l'événement $X=x_0$, intéressons nous à la probabilité que $X$ prenne une valeur dans un petit intervalle d'orgine $x_0$ du type $[x_0,x_0+h]$ où $h>0$. Cette probabilité est

$$p(x_0\leqslant X\leqslant x_0+h)=p(X\leqslant x_0+h)-p(X\leqslant x_0)=F(x_0+h)-F(x_0).$$

Cette différence nous évoque une expression classique de l'analyse à savoir un taux d'accroissement : $$\dfrac{1}{h}p(x_0\leqslant X\leqslant x_0+h)=\dfrac{p(X\leqslant x_0+h)-p(X\leqslant x_0)}{h}=\dfrac{F(x_0+h)-F(x_0)}{h}.$$

On sait que si $F$ est une fonction dérivable en $x_0$, alors $\dfrac{F(x_0+h)-F(x_0)}{h}$ tend vers $F'(x_0)$ quand $h$ tend vers $0$.
Notons que les différentes fonctions de répartition analysées dans le paragraphe 1) n'étaient pas toujours dérivables sur $\mathbb{R}$. Par exemple, la fonction $F_1$ du paragraphe 1) n'est pas dérivable en $0$ et $1$ en raison de la présence de \og points anguleux \fg.

***********************************************
***********************************************
***********************************************
***********************************************
***********************************************

Pour pouvoir poursuivre, analysons le cas où $F$ est dérivable sur $\mathbb{R}$ et notons $f$ sa dérivée. Remarquons que puisque la fonction $F$ est croisante sur $\mathbb{R}$, la fonction $f$ est positive sur $\mathbb{R}$.

La fonction $F$ est une primitive de la fonction $f$ sur $\mathbb{R}$. On sait alors que

$$p(a\leqslant X\leqslant b)=F(b)-F(a)=\displaystyle\int_{a}^{b}f(x)\;dx.$$

Ainsi, la probabilité de l'événement $a\leqslant X\leqslant b$ a été obtenue en additionnant les $f(x)\times dx$ pour $x$ variant de $a$ à $b$.
Ce sont donc maintenant les $f(x)\times dx$ qui sont les probabilités élémentaires.

Réexprimons tout ceci en termes d'aires. Puisque $p(a\leqslant X\leqslant b)=F(b)-F(a)=\displaystyle\int_{a}^{b}f(x)\;dx$ et que la fonction $f$ est positive, $p(a\leqslant X\leqslant b)$ est l'aire, exprimée en unités d'aire, de l'ensemble des points du plan situés entre l'axe des abscisses et la courbe représentative de $f$ et dont l'abscisse est comprise entre $a$ et $b$.

Quand $F$ a pour graphe

***********************************************
***********************************************
***********************************************
***********************************************
***********************************************

le graphe de la fonction $f$, dérivée de $F$, est

***********************************************
***********************************************
***********************************************
***********************************************
***********************************************

et le nombre $p(a\leqslant X\leqslant b)$ est l'aire

***********************************************
***********************************************
***********************************************
***********************************************
***********************************************

Posons nous maintenant la question : que représentent en général $f(x)$ ou $f(x)\times dx$ ?

Les $f(x)\;dx$ que l'on a additionné pour obtenir la valeur de $p(a\leqslant X\leqslant b)$ sont les plus simples à comprendre. On a déjà dit que les $f(x)\times dx$ sont les \og probabilités élémentaires \fg.
Plus précisément, pour $x_0$ donné, $f(x_0)\;dx$ est l'aire d'un rectangle de largeur infinitésimale $dx$ (on rappelle que $dx$ signifie \og différence de $x$ \fg) et de longueur $f(x_0)$.

Mais cette aire est aussi la probabilité que $X$ soit compris entre $x_0$ et $x_0+dx$ ou encore

$$f(x_0)\;dx=p(x_0\leqslant X\leqslant x_0+dx)=F(x_0+dx)-F(x_0).$$
***********************************************
***********************************************
***********************************************
***********************************************
***********************************************

Ainsi, pour chaque $x$, $f(x)\;dx$ est la probabilité que $X$ prenne une valeur comprise entre $x$ et $x+dx$ ou encore

$$f(x)\;dx=p(x\leqslant X\leqslant x+dx)=F(x+dx)-F(x).$$

Mais alors,

$$f(x)=\dfrac{F(x+dx)-F(x)}{dx}=\dfrac{p(x\leqslant X\leqslant x+dx)}{dx}.$$

Ces égalités peuvent se redécouvrir en écrivant avec des notations différentielles le fait que $f$ est la dérivée de $F$. Pour $x$ donné,

$$f(x)=F'(x)=\displaystyle\lim_{h\rightarrow0}\dfrac{F(x+h)-F(x)}{h}=\dfrac{F(x+dx)-F(x)}{dx}=\dfrac{p(x\leqslant X\leqslant x+dx)}{dx}.$$

On a divisé la probabilité de l'intervalle $[x,x+dx]$ par la longueur de cet intervalle qui est $dx$. $f(x)$ s'appelle la \textbf{densité de probabilité} en $x$ associée à la variable aléatoire $X$.
Le nombre $f(x_0)$ indique une densité de probabilité mise en $x_0$ ou encore une quantité de probabilité par unité de longueur $dx$.

III. Lois de probabilités continues. Densités de probabilité

1) Généralisation de la notion d'intégrale et de la notion d'aire

On va être amené dans certains cas à écrire des intégrales du type $\displaystyle\int_{0}^{+\infty}f(x)\;dx$ ou même $\displaystyle\int_{-\infty}^{+\infty}f(x)\;dx$.

On pose par définition $\displaystyle\int_{0}^{+\infty}f(x)\;dx=\displaystyle\lim_{X\rightarrow+\infty}\int_{0}^{X}f(x)\;dx$ et $\displaystyle\int_{-\infty}^{+\infty}f(x)\;dx =\displaystyle\lim_{Y\rightarrow-\infty}\int_{Y}^{0}f(x)\;dx +\displaystyle\lim_{X\rightarrow+\infty}\int_{0}^{X}f(x)\;dx$.

Par exemple, pour tout réel positif $X$,

$$\displaystyle\int_{0}^{X}e^{-x}\;dx=\left[-e^{-x}\right]_0^X=\left(-e^{-X}\right)-\left(-e^0\right)=1-e^{-X}.$$

On sait que le nombre $1-e^{-X}$ est une aire exprimée en unité d'aire.

***********************************************
***********************************************
***********************************************
***********************************************
***********************************************

On note déjà que pour tout réel $X$, $0\leqslant\displaystyle\int_{0}^{X}e^{-x}\;dx\leqslant1$ et donc la \og fonction aire \fg~$X\mapsto \int_{0}^{X}e^{-x}\;dx$, bien que croissante sur $[0,+\infty[$, ne tend pas vers $+\infty$. Dit autrement, l'aire du domaine infini n'est pas infinie. Cette aire est égale à

$$\displaystyle\int_{0}^{+\infty}e^{-x}\;dx=\displaystyle\lim_{X\rightarrow+\infty}\int_{0}^{X}e^{-x}\;dx=\displaystyle\lim_{X\rightarrow+\infty}\left(1-e^{-X}\right)=1.$$

Ainsi, l'aire du domaine infini ci-dessous est égale à $1$ unité d'aire qui est l'aire du carré unité.

***********************************************
***********************************************
***********************************************
***********************************************
***********************************************

Par la suite, on unifiera éventtuellement les notations : les intégrales $\displaystyle\int_{2}^{4}f(x)\;dx$ ou $\displaystyle\int_{0}^{+\infty}f(x)\;dx$ ou $\displaystyle\int_{-\infty}^{+\infty}f(x)\;dx$ pourront être notées $\displaystyle\int_{I}^{}f(x)\;dx$ où $I=[2,4]$ ou $I=[0,+\infty[$ ou $I=\mathbb{R}$.

2) Fonction densité de probabilité

On peut donner deux définitions d'une \og fonction densité \fg. Dans la définition ci-dessous $f$ n'est pas forcément définie sur $\mathbb{R}$ mais est définie sur un intervalle de $\mathbb{R}$.

Définition 1.

Une densité de probabilité sur un intervalle $I$ est une fonction $f$ définie sur $I$ telle que :
  1. $f$ est positive sur $I$ ;
  2. $f$ est continue sur $I$ ;
  3. l'aire du domaine délimité par la courbe de $f$ et l'axe des abscisses est égale à une unité d'aires ou encore
    $\displaystyle\int_{I}^{}f(x)\;dx=1$.

Commentaire. Dans la définition précédente, l'intervalle peut être $\mathbb{R}$ tout entier mais aussi $[0,+\infty[$ ou $[0,1]$. Partant d'une densité sur un intervalle $I$, on peut toujours se ramener à une densité sur $\mathbb{R}$ en imposant à cette densité d'être nulle en dehors de l'intervalle $I$ car l'intégrale de $0$ sur un intervalle quelconque est nulle. On peut donc aussi adopter la définition suivante :

Définition 2.

Une densité de probabilité sur $\mathbb{R}$ est une fonction $f$ définie sur $\mathbb{R}$ telle que :
  1. $f$ est positive sur $I$ ;
  2. $f$ est continue sur $I$ sauf peut-être en un nombre fini de points ;
  3. l'aire du domaine délimité par la courbe de $f$ et l'axe des abscisses est égale à une unité d'aires ou encore
    $\displaystyle\int_{-\infty}^{+\infty}f(x)\;dx=1$.

Exercice 1. Pour tout réel $x$ de $[1,2]$, on pose $f(x)=6(-x^2+3x-2)$.
Montrer que $f$ est une densité de probabilité sur $[1,2]$.

Solution.




Exercice 2. Pour tout réel $x$, on pose $f(x)=\left\{ \begin{array}{l} 0\;\text{si}\;x< 0\\ e^{-x}\;\text{si}\;x\geqslant0 \end{array} \right.$.\\ Montrer que $f$ est une densité de probabilité sur $\mathbb{R}$.

Solution.




Une fois que l'on a une densité, les différentes probabilités se calculent de la façon suivante :

Théorème 1.

Soit $X$ une variable aléatoire suivant une loi de probabilité de densité $f$ définie sur $I$.
Pour tous réels $a$ et $b$ de $I$ tels que $a\leqslant b$, $p\left(a\leqslant X\leqslant b\right)=\displaystyle\int_{a}^{b}f(t)\;dt$.
Plus généralement, pour tout intervalle $J$ contenu dans $I$, $p\left(X\in J\right)=\displaystyle\int_{J}^{}f(t)\;dt$.

Commentaire. Si $J$ est un intervalle contenu dans $I$, la probabilité que $X$ prenne une valeur appartenant à l'intervalle $J$ est donc l'aire de l'ensemble des points du plan situé entre l'axe des abscisses et la courbe représentative de la fonction densité $f$ et dont l'abscisse appartient à $J$.

***********************************************
***********************************************
***********************************************
***********************************************
***********************************************

3) Fonction de répartition

Définition 3. Soit $X$ une variable aléatoire suivant une loi de probabilité de densité $f$ définie sur un intervalle $I$.
La \textbf{fonction de répartition} $F$ associée est la fonction définie sur $I$ par :
pour tout réel $x$ de $I$, $F(x)=p(X\leqslant x)$.

Les valeurs de la fonction de répartition se calculent grâce à des intégrales :

Théorème 2.

Soit $X$ une variable aléatoire une variable aléatoire suivant une loi de probabilité de densité $f$ définie sur $\mathbb{R}$.
Pour tout réel $x$, $F(x)=\displaystyle\int_{-\infty}^{x}f(t)\;dt$.

et inversement, si on connaît la fonction de répartition, on peut calculer des probabilités :

Théorème 3.

Soit $X$ une variable aléatoire suivant une loi de probabilité de densité $f$ définie sur un intervalle $I$.
Pour tous réels $a$ et $b$ de $I$ tels que $a\leqslant b$, $p(a\leqslant X\leqslant b)=F(b)-F(a)$.

4) Espérance, variance et écart-type

On rappelle que l'espérance d'une variable aléatoire prenant un nombre fini de valeurs $x_1$, \ldots , $x_n$ est

$$E(X)=x_1\times p(X=x_1)+\ldots+x_n\times p(X=x_n).$$

Quand on passe aux variables continues, la somme discrète devient une somme continue c'est-à-dire une intégrale $\displaystyle\int$, les valeurs $x_1$, \ldots , $x_n$ deviennent la variable $x$ et les probabilités élémentaires $p(X=x_i)$ deviennent les probabilités élémentaires $f(x)\;dx$ :

Définition 4. Soit $X$ une variable aléatoire suivant une loi de probabilité de densité $f$ définie sur un intervalle $I$.
L'\textbf{espérance} de $X$ est $E(X)=\displaystyle\int_{I}^{}xf(x)\;dx$.
La \textbf{variance} de $X$ est $V(X)=E\left(X-E(X)\right)^2$.
L'\textbf{écart-type} de $X$ est $\sigma(X)=\sqrt{V(X)}$.

On admettra que les résultats exposés en 1ère S sur l'espérance et la variance d'une variable aléatoire discrète se généralisent aux variables aléatoires continues :

Théorème 4.

Soit $X$ une variable aléatoire suivant une loi de probabilité de densité $f$.
Pour tous réels $a$ et $b$, $E(aX+b)=aE(X)+b$ et $V(aX+b)=a^2V(X)$.

IV. Deux lois de probabilités continues importantes

1) La loi uniforme

  1. Définition de la loi uniforme

  2. On analyse la situation où \og les événements élémentaires sont équiprobables \fg. Dans ce cas, la densité est constante. On peut donner deux définitions équivalentes de la loi uniforme sur un intervalle $[a,b]$.

    Définition 5. Soient $a$ et $b$ deux réels tels que $a< b$.
    La loi uniforme sur $[a,b]$ est la loi de densité la fonction $f$ définie sur $[a,b]$ par :
    pour tout réel $x$ de $[a,b]$, $f(x)=\dfrac{1}{b-a}$.

    Commentaire. Le graphe de $f$ est très simple :

    ******************************************************
    ******************************************************
    ******************************************************
    ******************************************************
    ******************************************************

    $f$ est une fonction continue et positive sur $[a,b]$ et de plus $$\displaystyle\int_{a}^{b}f(x)\;dx=\displaystyle\int_{a}^{b}\dfrac{1}{b-a}\;dx=\dfrac{1}{b-a}\times(b-a)=1.$$

    (On rappelle que si $k$ est une constante, alors $\displaystyle\int_{a}^{b}k\;dx=k(b-a)$).
    Puisque $f$ est une fonction continue, positive sur $[a,b]$ d'intégrale égale à $1$ sur $[a,b]$, $f$ est effectivement une densité sur $[a,b]$.

    On peut aussi décider de définir sur $\mathbb{R}$ la densité de la loi uniforme sur $[a,b]$. Dans ce cas, la définition est la suivante :

    Définition 6.

    Soient $a$ et $b$ deux réels tels que $a La loi uniforme sur $[a,b]$ est la loi de densité la fonction $f$ définie sur $\mathbb{R}$ par :
    pour tout réel $x$, $f(x)=\left\{ \begin{array}{l} \dfrac{1}{b-a}\;\text{si}\;a\leqslant x\leqslant b\\ 0\;\text{si}\;xb\rule{0mm}{0.5cm} \end{array} \right.$.

    Le graphe de $f$ devient :

    ******************************************************
    ******************************************************
    ******************************************************
    ******************************************************
    ******************************************************

    Puisque $f$ est nulle en dehors de $[a,b]$, l'aire totale ne change pas :

    $\displaystyle\int_{-\infty}^{+\infty}f(x)\;dx=\displaystyle\int_{a}^{b}\dfrac{1}{b-a}\;dx=\dfrac{1}{b-a}\times(b-a)=1$.

    Exemple. La situation analysée dans les premiers exemples du paragraphe II, à savoir tirer un nombre réel au hasard entre deux réels $a$ et $b$ avec \og équiprobabilité des tirages \fg, est une situation régie par la loi uniforme.

    Quand une variable aléatoire est régie par une loi de probabilité uniforme, les probabilités sont très simples : elles sont proportionnelles aux longueurs des intervalles correspondants

    Théorème 5.

    Soient $a$ et $b$ deux réels tels que $a Soit $X$ une variable aléatoire suivant la loi uniforme sur $[a,b]$. Alors pour tous réels $c$ et $d$ de $[a,b]$ tels que $c\leqslant d$,
    $p(c\leqslant X\leqslant d)=\dfrac{d-c}{b-a}$.

    Démonstration. Soient $c$ et $d$ deux réels de $[a,b]$ tels que $c\leqslant d$. $$p(c\leqslant X\leqslant d)=\displaystyle\int_{c}^{d}\dfrac{1}{b-a}\;dx=\dfrac{1}{b-a}\times(d-c)=\dfrac{d-c}{b-a}.$$



  3. Espérance de la loi uniforme

  4. Théorème 6.

    Soient $a$ et $b$ deux réels tels que $a< b$. Soit $X$ une variable aléatoire suivant la loi uniforme sur $[a,b]$. Alors
    $E(X)=\dfrac{a+b}{2}$.

    Démonstration. L'espérance de la loi uniforme sur $[a,b]$ est \begin{align*} E(X)&=\displaystyle\int_{a}^{b}xf(x)\;dx=\displaystyle\int_{a}^{b}\dfrac{x}{b-a}\;dx=\dfrac{1}{b-a}\displaystyle\int_{a}^{b}x\;dx=\dfrac{1}{b-a}\left[\dfrac{x^2}{2}\right]_a^b\\ &=\dfrac{1}{b-a}\dfrac{b^2-a^2}{2}=\dfrac{(b+a)(b-a)}{2(b-a)}\\ &=\dfrac{a+b}{2}. \end{align*}


    Exercice 3. Chaque soir, deux amis, Alain et Bernard, se contactent sur Facebook. Alain se connecte tous les soirs de manière très ponctuelle très précisément à 21h30. Bernard quant à lui se connecte de manière aléatoire entre 21 h 30 et 23h.
    1. Quelle est la probabilité qu'un soir donné, Alain attende plus d'un quart d'heure ?

    2. Quel est le temps d'attente moyen d'Alain un soir donné ?

    3. Un soir, Alain attend depuis une demi heure et Bernard ne s'est toujours pas connecté. Exaspéré, il décide qu'il se déconnectera si Bernard ne le contacte pas dans les cinq minutes qui suivent. Quelle est la probabilité qu'Alain et Bernard se contactent effectivement ce soir là ?

    Solution. Notons $X$ la variable aléatoire qui prend pour valeur le temps d'attente d'Alain, exprimé en minutes à partir de 21 h 30, un soir donné . $X$ suit une loi uniforme sur $[0,90]$ (car de 21 h 30 à 23 h, il y a $90$ minutes).

    1. La probabilité demandée est $p(X\geqslant15)$. Or, $$p(X\geqslant15)=p(15\leqslant X\leqslant90)=\dfrac{90-15}{90-0}=\dfrac{75}{90}=\dfrac{5}{6}.$$

      La probabilité qu'Alain attende plus d'un quart d'heure est $\dfrac{5}{6}$.

    2. Le temps d'attente moyen un soir donné est l'espérance de $X$. On sait que $$E(X)=\dfrac{0+90}{2}=45.$$

      En moyenne, chaque soir, Alain attend $45$ minutes.

    3. Dire que Bernard ne s'est toujours pas connecté au bout d'une demi heure équivaut à dire que $X\geqslant30$.
      La probabilité demandée est la probabilité que $X\leqslant 35$ sachant que $X\geqslant30$. $$p_{X\geqslant30}(X\leqslant 35)=\dfrac{p(30\leqslant X\leqslant 35)}{p(X\geqslant30)}=\dfrac{\dfrac{35-30}{90-0}}{\dfrac{90-30}{90-0}}=\dfrac{5}{90}\times\dfrac{90}{60}=\dfrac{5}{60}=\dfrac{1}{12}.$$

      Il y a une chance sur douze pour qu'Alain et Bernard se contactent effectivement ce soir là.



2) La loi exponentielle de paramètre $\lambda$

  1. Définition de la loi exponentielle de paramètre $\lambda$

  2. Quand il n'y a plus \og équiprobabilité des événements élémentaires \fg, la loi de probabilité n'est par définition plus uniforme. Le programme de Terminale S prévoit l'étude de deux lois continues et non uniformes : la loi normale qui est l'objet du chapitre suivant et la \textbf{loi exponentielle de paramètre} $\lambda$. L'étude de cette dernière est l'objet de ce paragraphe. On la rencontre par exemple dans certaines situations où il s'agit d'analyser une durée de vie.
    La variable aléatoire $X$ prend alors des valeurs qui sont des réels positifs. Par exemple, la durée de vie de certains composants électroniques ou la durée de vie d'une particule radioactive sont régies par une loi exponentielle.

    De même que pour la loi uniforme, on peut donner deux définitions de le loi exponentielle de paramètre $\lambda$.

    Définition 7.

    Soit $\lambda$ un réel strictement positif.
    La loi exponentielle de paramètre $\lambda$ est la loi de dentité la fonction $f$ définie sur $[0,+\infty[$ par :
    pour tout réel positif $x$, $f(x)= \lambda e^{-\lambda x}$.

    Dans ce cas, le graphe de $f$ est

    ******************************************************
    ******************************************************
    ******************************************************
    ******************************************************
    ******************************************************

    Mais on peut aussi décider d'avoir une densité définie sur $\mathbb{R}$ auquel cas on adopte la définition suivante :

    Définition 8.

    Soit $\lambda$ un réel strictement positif.
    La loi exponentielle de paramètre $\lambda$ est la loi de dentité la fonction $f$ définie sur $\mathbb{R}$ par :
    \rule[-0.7cm]{0mm}{1.5cm}\rule{4cm}{0cm}pour tout réel $x$, $f(x)=\left\{ \begin{array}{l} 0\;\text{si}\;x<0\\ \lambda e^{-\lambda x}\;\text{si}\;x\geqslant0 \end{array} \right.$.

    La graphe de $f$ est alors

    ******************************************************
    ******************************************************
    ******************************************************
    ******************************************************
    ******************************************************
  3. Fonction de répartition de la loi exponentielle de paramètre $\lambda$

  4. Si on se contente de définir $f$ sur $50,+\infty[$, la fonction de répartition $F$ est définie de la façon suivante :

    Définition 9.

    Soient $\lambda$ un réel strictement positif puis $X$ une variable aléatoire régie par la loi exponentielle de paramètre $\lambda$. Alors, la fonction de répartition associée est la fonction $F$ définie sur $[0,+\infty[$ par :
    pour tout réel positif $x$, $F(x)=p(X\leqslant x)=\displaystyle\int_{0}^{x}\;\lambda e^{-\lambda t}\;dt$.

    Calculons cette intégrale une bonne fois pour toutes.

    Théorème 7.

    Soient $\lambda$ un réel strictement positif puis $X$ une variable aléatoire régie par la loi exponentielle de paramètre $\lambda$. Alors,
    pour tout réel positif $x$, $p(Xx)=e^{-\lambda x}$.

    Démonstration. Soit $\lambda$ un réel strictement positif. $$p(X\leqslant x)=\displaystyle\int_{0}^{x}\lambda e^{-\lambda t}\;dt=\left[-e^{-\lambda t}\right]_{0}^{t}=\left(-e^{-\lambda x}\right)=\left(-e^0\right)=1-e^{-\lambda x}.$$

    Ensuite,

    $$p(X\leqslant x)=p(X< x)+p(X=x)=p(X< x),$$

    et donc $p(X< x)=p(X\leqslant x)=1-e^{-\lambda x}$. Enfin,

    $$p(X\geqslant x)=1-p(X< x)=1-\left(1-e^{-\lambda x}\right)=e^{-\lambda x},$$

    et donc $p(X\geqslant x)=e^{-\lambda x}=p(X>x)$.



    Ainsi, pour tout réel positif $x$, on a $F(x)=1-e^{-\lambda x}$. Voici la représentation graphique de la fonction de répartition $F$ sur $[0,+\infty[$ :

    ******************************************************
    ******************************************************
    ******************************************************
    ******************************************************
    ******************************************************
  5. Espérance de la loi exponentielle de paramètre $\lambda$/

  6. Théorème 8.

    Soit $\lambda$ un réel strictement positif.
    L'espérance de la loi exponentielle de paramètre $\lambda$ est $\dfrac{1}{\lambda}$.

    Démonstration. Soit $\lambda$ un réel strictement positif. Soit $Z$ une variable aléatoire régie par la loi exponentielle de paramètre $\lambda$.

    Pour tout réel $x$, posons $f(x)=\left\{ \begin{array}{l} 0\;\text{si}\;x< 0\\ \lambda e^{-\lambda x}\;\text{si}\;x\geqslant0 \end{array} \right.$. L'espérance de $Z$ est

    $$E(Z)=\displaystyle\int_{-\infty}^{+\infty}xf(x)\;dx=\displaystyle\int_{0}^{+\infty}\lambda xe^{-\lambda x}\;dx=\displaystyle\lim_{X\rightarrow+\infty}\displaystyle\int_{0}^{X}\lambda xe^{-\lambda x}\;dx.$$

    Cherchons une primitive de la fonction $g~:~x\mapsto \lambda xe^{-\lambda x}$ sur $[0,+\infty[$ de la forme $G~:~x\mapsto(ax+b)e^{-\lambda x}$ où $a$ et $b$ sont deux réels. $G$ est dérivable sur $[0,+\infty[$ et pour tout réel positif $x$,

    $$G'(x)=ae^{-\lambda x}+(ax+b)\left(-\lambda e^{-\lambda x}\right)=(a-\lambda a x-\lambda b)e^{-\lambda x}=(-\lambda a x+a-\lambda b)e^{-\lambda x}.$$

    Si on choisit $a$ et $b$ de sorte que $-\lambda a=\lambda$ et $a-\lambda b=0$, alors pour tout réel positif $x$, $G'(x)=\lambda xe^{-\lambda x}=g(x)$.
    Or, $-\lambda a=\lambda\Leftrightarrow a=-1$ car $\lambda\neq0$ puis $a-\lambda b=0\Leftrightarrow\-1-\lambda b=0\Leftrightarrow b=-\dfrac{1}{\lambda}$. On prend donc $a=-1$ puis $b=-\dfrac{1}{\lambda}$ et donc,

    pour tout réel $x\geqslant0$, $G(x)=\left(-x-\dfrac{1}{\lambda}\right)e^{-\lambda x}$.

    Soit $X\geqslant0$.

    \begin{align*} \displaystyle\int_{0}^{X}\lambda xe^{-\lambda x}\;dx&=\displaystyle\int_{0}^{X}g(x)\;dx=G(X)-G(0)=\left(-X-\dfrac{1}{\lambda}\right)e^{-\lambda X}-\left(-\dfrac{1}{\lambda}\right)\\ &=\dfrac{1}{\lambda}-Xe^{-\lambda X}-\dfrac{1}{\lambda}e^{-\lambda X}=\dfrac{1}{\lambda}+\dfrac{1}{\lambda}(-\lambda X)e^{-\lambda X}-\dfrac{1}{\lambda}e^{-\lambda X}. \end{align*}

    Ensuite, puisque $\lambda>0$, en posant $Y=-\lambda X$, on obtient

    $$\displaystyle\lim_{X\rightarrow+\infty}(-\lambda X)e^{-\lambda X}=\displaystyle\lim_{Y\rightarrow-\infty}Ye^{Y}=0,$$

    d'après un théorème de croissances comparées et d'autre part,

    $$\displaystyle\lim_{X\rightarrow+\infty}e^{-\lambda X}=\displaystyle\lim_{Y\rightarrow-\infty}e^{Y}=0.$$

    Finalement,

    $$E(Z)=\displaystyle\lim_{X\rightarrow+\infty}\int_{0}^{X}\lambda xe^{-\lambda x}\;dx=\displaystyle\lim_{X\rightarrow+\infty}\left(\dfrac{1}{\lambda}+\dfrac{1}{\lambda}(-\lambda X)e^{-\lambda X}-\dfrac{1}{\lambda}e^{-\lambda X}\right)=\dfrac{1}{\lambda}+0+0=\dfrac{1}{\lambda}.$$


  7. Lois \og sans vieillissement \fg

  8. Théorème 9.

    Soit $\lambda$ un réel strictement positif. Soit $X$ une variable aléatoire suivant la loi exponentielle de paramètre $\lambda$.
    Pour tous réels positifs $t$ et $h$,
    $p_{X\geqslant t}(X\geqslant t+h)=p(X\geqslant h)$.

    Dans la démonstration qui suit, on suppose acquis les résultats du théorème 7 : pour tout réel positif $x$,

    $$p(X\leqslant x)=p(X< x)=1-e^{-\lambda x}\;\text{et}\;p(X\geqslant x)=p(X>x)=e^{-\lambda x}.$$
    Démonstration. Soient $s$ et $t$ deux réels positifs. \begin{align*} p_{X\geqslant t}(X\geqslant t+h)&=\dfrac{p\left((X\geqslant t)\cap (X\geqslant t+h)\right)}{p(X\geqslant t)}=\dfrac{p\left(X\geqslant t+h\right)}{p(X\geqslant t)}=\dfrac{e^{-\lambda(t+h)}}{e^{-\lambda t}}=e^{-\lambda(t+h)+\lambda t}=e^{-\lambda h}\\ &=p(X\geqslant h). \end{align*}

    Interprétation. Une situation concrète où une variable aléatoire suit une loi exponentielle de paramètre $\lambda$ est la durée de vie d'un composant électronique par exemple exprimée en jours.

    $p(X\geqslant t)$ est alors la probabilité qu'un composant électronique ait une durée de vie supérieure ou égale à $t$ jours ou encore continue de fonctionner après $t$ jours de fonctionnemment.

    $p_{X\geqslant t}(X\geqslant t+h)$ est la probabilité que le composant fonctionne encore au moins $s$ jours sachant qu'il a déjà fonctionné au moins $t$ jours. Le théorème précédent dit que cette dernière probabilité ne dépend pas de $t$.
    Cela signifie que la probabilité que quand le composant a fonctionné au moins un certain temps $t$, la probabilité de fonctionner encore $h$ jours au moins est la même que la probabilité qu'avait le composant de fonctionner au moins $h$ jours au début de son utilisation c'est-à-dire à $t=0$.

    On dit alors que la loi exponentielle de paramètre $\lambda$ est une \textbf{loi sans vieillissement}.

    Exercice 4. (D'après Bac S Asie 2011 Enseignement obligatoire).
    On admet que la durée de vie (exprimée en années) d'un certain type de capteur de lumière peut être modélisée par une variable aléatoire $X$ qui suit une loi exponentielle de paramètre $\lambda$ ($\lambda$ strictement positif), c'est-à-dire que la probabilité que ce capteur tombe en panne avant l'année $t$ ($t$ positif) s'exprime par :
    $F(t)=p(X\leqslant t)=p([0;t])=\displaystyle\int_0^t\lambda e^{-\lambda x}\;dx$.
    1. On sait que la probabilité que le capteur ne tombe pas en panne au cours des deux premières années est $e^{-0,4}$. Montrer que $\lambda=0,2$.

      Dans la suite, on prendra $\lambda=0,2$.


    2. Calculer la probabilité que le capteur ne tombe pas en panne au cours des $3$ premières années.

    3. Sachant que le capteur n'est pas tombé en panne au cours des trois premières années, quelle est, arrondie au centième, la probabilité qu'il soit encore en état de marche au bout de six ans ?

    Solution. Soit $t$ un réel.

    $$p(X\leqslant t)=\displaystyle\int_{0}^{t}\lambda e^{-\lambda x}\;dx=\left[-e^{-\lambda x}\right]_0^{t}=\left(-e^{-\lambda t}\right)-\left(-e^0\right)=1-e^{-\lambda t}.$$

    Ensuite,

    $$p(X\geqslant t)=p(X>t)+p(X=t)=p(X>t)=1-p\left(X\leqslant t\right)=1-\left(1-e^{-\lambda t}\right)=e^{-\lambda t}.$$
    1. L'énoncé donne $p(X\geqslant2)=e^{-0,4}$ ou encore $e^{-2\lambda}=e^{-0,4}$. On en déduit que $-2\lambda=-0,4$ et donc que $\lambda =0,2$.

    2. La probabilité demandée est $p(X\geqslant3)$ et est donc égale à $e^{-0,2\times3}=e^{-0,6}$.

    3. La probabilité demandée est $p_{X\geqslant3}(X\geqslant6)$.

    Solution 1. (on suppose connu le théorème 9) Puisque la loi exponentielle est une loi sans vieillissement,

    $$p_{X\geqslant3}(X\geqslant6)=p_{X\geqslant3}(X\geqslant3+3)=p(X\geqslant3)=e^{-0,6}.$$

    Solution 2. (on ne suppose pas connu le théorème 9)

    $$p_{X\geqslant3}(X\geqslant6)=\dfrac{p\left((X\geqslant3)\cap(X\geqslant6)\right)}{p(X\geqslant3)}\dfrac{p\left(X\geqslant6\right)}{p(X\geqslant3)}=\dfrac{e^{-0,2\times6}}{e^{-0,2\times3}}=\dfrac{e^{-1,2}}{e^{-0,6}}=e^{-1,2+0,6}=e^{-0,6}.$$

    La probabilité demandée est donc $0,55$ arrondie au centième.