On rappelle d'abord les différents résultats enseignés dans les classes précédentes concernant les variables aléatoires prenant un nombre fini de valeurs.
Soit $X$ une variable aléatoire prenant un nombre fini de valeurs $x_1$, $x_2$, \ldots , $x_n$.
Donner la loi de probabilité de la variable aléatoire $X$, c'est donner les valeurs des probabilités des événements \og $X=x_1$ \fg, \ldots , \og $X=x_n$ \fg. On décrit souvent la loi de probabilité de $X$ dans un tableau du type
$x_i$ | $x_1$ | $x_2$ | \ldots | \ldots | $x_n$ |
$p(X=x_i)$ | $p_1$ | $p_2$ | \ldots | \ldots | $p_n$ |
L'espérance de la variable aléatoire $X$ est
$$E(X)=p_1\times x_1+p_2x_2+\ldots+p_nx_n.$$La variance de la variable aléatoire $X$ est
$$V(X)=E\left((X-E(X))^2\right)=p_1\left(x_1-E(X)\right)^2 +\ldots+p_n \left(x_n-E(X)\right)^2.$$L'écart-type de la variable aléatoire $X$ est
$$\sigma(X)=\sqrt{V(X)}=\sqrt{E\left((X-E(X))^2\right)}=\sqrt{p_1\left(x_1-E(X)\right)^2+\ldots+p_n\left(x_n-E(X)\right)^2}.$$On choisit un nombre réel au hasard entre $0$ et $1$. On obtient ainsi une variable aléatoire qui peut prendre une infinité de valeurs.
Quelle est la probabilité d'obtenir le nombre $0,3$ ? Intuitivement, cette probabilité est nulle puisque il y a une infinité de réels compris entre $0$ et $1$.
De manière générale, si on note $X$ la variable aléatoire qui au tirage d'un nombre associe ce nombre, alors pour tout réel $x$ de $[0,1]$, $p(X=x)=0$. Il n'y a donc aucun intêret dans cette situation à fournir la loi de probabilité de $X$ qui consisterait à fournir $p(X=x)$ pour chaque réel $x$ entre $0$ et $1$.
Par contre, la probabilité que le nombre $x$ obtenu vérifie $0\leqslant x\leqslant 0,5$ est intuitivement $0,5$ : il y a une chance sur
deux que le réel $x$ tombre dans la première moitié de l'intervalle $[0,1]$. De même, la probabilité que le nombre $x$
obtenu vérifie $0,4\leqslant x\leqslant 0,8$ est intuitivement $0,4$ car l'intervalle $[0,4;0,8]$ est de longueur $0,8-0,4=0,4$ et donc
l'intervalle $[0,4;0,8]$ occupe $\dfrac{4}{10}$ de la totatilité de l'intervalle $[0,1]$.
Ainsi, on a $p(0\leqslant X\leqslant 0,5)=0,5$ et $p(0,4\leqslant X\leqslant 0,8)=0,4$. Les probabilités obtenues sont maintenant non nulles.
Quand on est en présence d'une variable prenant une infinité de valeurs, il faut donc s'intéresser non pas aux probabilités du type $p(X=a)$ mais aux probabilités du type $p(a\leqslant X\leqslant b)$.
L'expression $p(a\leqslant X\leqslant b)$ a un défaut, elle a deux variables $a$ et $b$. On peut se ramener à une seule. Par exemple, la probabilité que le réel $x$ appartienne à l'intervalle $[0,4;0,8]$ a été calculée en effectuant une différence : $p(0,4\leqslant X\leqslant 0,8)=0,8-0,4$. Le sous-entendu est
$$p(0,4\leqslant X\leqslant 0,8)=p(X\leqslant 0,8)-p(X\leqslant 0,4)=0,8-0,4=0,4,$$ou encore, si pour tout réel $x$ de $[0,1]$, on pose $F(x)=p(X\leqslant x)$, alors
$$p(0,4\leqslant X\leqslant 0,8)=F(0,8)-F(0,4)=0,8-0,4=0,4.$$La fonction $F$ s'appelle la \textbf{fonction de répartition} associée à la variable $X$. C'est elle qui permet de décrire les différentes probabilités. Cette fonction est ici très simple. On a par exemple $F(0,3)=p(X\leqslant 0,3)=0,3$ ou $F(0,8)=p(X\leqslant0,8)=0,8$ ou encore $F(1)=p(X\leqslant1)=1$ et plus généralement
Voici le graphe de $F$ :
Supposons maintenant que nous tirions au hasard un nombre réel entre $-1$ et $3$. Quelle est la probabilité que ce réel soit compris entre $-0,2$ et $2,3$ ? La longueur de l'intervalle $[-1;3]$ est $3-(-1)=4$ et la longueur de l'intervalle $[-0,2;2,3]$ est $2,3-(-0,2)=2,5$. L'intervalle $[-0,2;2,3]$ occupe donc une proportion $\dfrac{2,3-(-0,2)}{3-(-1)}=\dfrac{2,5}{4}$ de l'intervalle $[-1,3]$. Intuitivement, cette proportion est la probabilité cherchée :
$$p(-0,2\leqslant X\leqslant 2,3)=\dfrac{2,3-(-0,2)}{3-(-1)}=\dfrac{2,5}{4}=0,625.$$Plus génénéralement, si $x$ est un réel de $[-1,3]$, la probabilité que le nombre tiré soit inférieur ou égal à $x$ est intuitivement la proportion de l'intervalle $[-1,3]$ occupée par l'intervalle $[-1,x]$ :
$$F(x)=p(X\leqslant x)=\dfrac{x-(-1)}{3-(-1)}=\dfrac{x-1}{4}.$$La fonction de répartition est donc ici la fonction définie par : pour tout réel $x$ de $[-1,3]$, $F(x)=\dfrac{x-1}{4}$. On peut alors calculer la probabilité que le nombre tiré au hasard soit compris entre deux réels $a$ et $b$ donnés de l'intervalle $[-1,3]$ :
$$p(a\leqslant X\leqslant b)=p(X\leqslant b)-p(X\leqslant a)=F(b)-F(a)=\dfrac{b-a}{4}.$$Voici le graphe de $F$ :
Dans la première situation, la fonction de répartition était définie sur $[0,1]$ et dans la deuxième situation la fonction de répartition est définie sur $[-1,3]$. On veut unifier les deux situations en les définissant sur $\mathbb{R}$. Dans la deuxième situation, on s'intéresse donc également aux réels $x$ plus petits que $-1$ ou aux réels $x$ plus grands que $1$.
Si $x$ est un réel plus petit que $-1$, puisqu'on tire au hasard un nombre entre $-1$ et $3$, la probabilité que le nombre tiré soit inférieur à $-1$ est nulle et si $x$ est un réel plus grand que $3$, on est sûr que le nombre tiré est un nombre plus peit que $x$ et donc $p(X\leqslant x)=1$. Avec ces constatations, on a maintenant une fonction de répartition définie sur $\mathbb{R}$ :
Pour la première situation, on aurait obtenu la fonction de répartition $F_1$ définie pour tout réel $x$ par
$$F_1(x)=\left\{ \begin{array}{l} 0\;\text{si}\;x<0\\ x\;\text{si}\;0\leqslant x\leqslant1\\ 1\;\text{si}\;x>1 \end{array} \right..$$Voici les graphes des fonctions $F_1$ et $F_2$.
et
Notons que dans la pratique, le nombre $x$ pourra le moment venu représenter une grandeur plus concrète.
Par exemple, $x$ pourra être un temps d'attente à un guichet. Il est donc cohérent de permettre à $x$ de varier
continuement \ldots jusqu'à $+\infty$ malheureusement.
Dans les deux situations précédentes, la probabilité était \textbf{uniforme}. Par exemple dans la première situation, la probabilité que le réel tiré soit dans l'intervalle $[0,1;0,3]$ est la même que la probabilité que le réel tiré soit dans l'intervalle $[0,5;0,7]$ à savoir
$$0,3-0,1=0,7-0,5=0,2.$$Si on a envie que les réels de la fin de l'intervalle $[0,1]$ aient plus de chances (ou moins de chances) d'être tirés que les réels du début de l'intervalle, il ne faut pas que le graphe de la fonction de répartition monte avec une pente constante. On peut par exemple considérer la fonction de répartition suivante :
Voici son graphe :
Dans ce cas, la probabilité que le réel tiré soit compris entre $0,1$ et $0,3$ est
$$p(0,1\leqslant X\leqslant 0,3)=p(X\leqslant 0,3)-p(X\leqslant 0,1)=0,3^2-0,1^2=0,08$$et la probabilité que le réel tiré soit compris entre $0,5$ et $0,7$ est
$$p(0,5\leqslant X\leqslant 0,7)=p(X\leqslant 0,7)-p(X\leqslant 0,5)=0,7^2-0,5^2=0,24.$$La probabilité n'est plus uniforme.
De manière générale, une fonction de répartition $F~:~x\mapsto p(X\leqslant x)$ a intuitivement les propriétés suivantes :
Faisons une dernière remarque sur les fonctions de répartition associées à des lois continues. On rappelle que, quand une variable aléatoire prend une infinité de valeurs, intuitivement, pour chaque réel $x$, $p(X=x)=0$. Par suite, pour chaque réel $x$,
$$p(X\leqslant x)=p(X< x)+p(X=x)=p(X< x),$$et
$$p(X\geqslant x)=p(X>x)+p(X=x)=p(X>x).$$Ainsi, dans le premier exemple, quand on tire au hasard un nombre dans $[0,1]$, la probabilité que ce nombre soit dans $[0,4;0,8]$ est la même que la probabilité que ce nombre soit dans $]0,4;0,8[$ ou $]0,4;0,8]$ à savoir $0,4$.
On sait que quand une variable aléatoire prend un nombre fini de valeurs, la probabilité d'un événement du type $a\leqslant X\leqslant b$ est obtenue en additionnant les probabilités des événements élémentaires qui réalisent l'événement $a\leqslant X\leqslant b$. Par exemple, si on jette une fois un dé bien équilibré, la probabilité d'obtenir un résultat compris entre $3$ et $5$ au sens large est
$$p(3\leqslant X\leqslant 5)=p(X=3)+p(X=4)+p(X=5)=\dfrac{1}{6}+\dfrac{1}{6}+\dfrac{1}{6}=\dfrac{1}{2}.$$On va voir que le principe est le même pour les variables continues en passant des sommes discrètes aux sommes continues c'est-à-dire aux intégrales. Reconsidérons une variable aléatoire $X$ dont la fonction de répartition $F$ a un graphe du type
On rappelle que pour chaque réel $x_0$, on a $p(X=x_0)=0$. Au lieu de nous intéresser à la probabilité de l'événement $X=x_0$, intéressons nous à la probabilité que $X$ prenne une valeur dans un petit intervalle d'orgine $x_0$ du type $[x_0,x_0+h]$ où $h>0$. Cette probabilité est
$$p(x_0\leqslant X\leqslant x_0+h)=p(X\leqslant x_0+h)-p(X\leqslant x_0)=F(x_0+h)-F(x_0).$$Cette différence nous évoque une expression classique de l'analyse à savoir un taux d'accroissement : $$\dfrac{1}{h}p(x_0\leqslant X\leqslant x_0+h)=\dfrac{p(X\leqslant x_0+h)-p(X\leqslant x_0)}{h}=\dfrac{F(x_0+h)-F(x_0)}{h}.$$
On sait que si $F$ est une fonction dérivable en $x_0$, alors $\dfrac{F(x_0+h)-F(x_0)}{h}$ tend vers $F'(x_0)$ quand $h$ tend vers $0$.
Notons que les différentes fonctions de répartition analysées dans le paragraphe 1) n'étaient pas toujours dérivables
sur $\mathbb{R}$. Par exemple, la fonction $F_1$ du paragraphe 1) n'est pas dérivable en $0$ et $1$ en raison de la présence de
\og points anguleux \fg.
Pour pouvoir poursuivre, analysons le cas où $F$ est dérivable sur $\mathbb{R}$ et notons $f$ sa dérivée. Remarquons que puisque la fonction $F$ est croisante sur $\mathbb{R}$, la fonction $f$ est positive sur $\mathbb{R}$.
La fonction $F$ est une primitive de la fonction $f$ sur $\mathbb{R}$. On sait alors que
$$p(a\leqslant X\leqslant b)=F(b)-F(a)=\displaystyle\int_{a}^{b}f(x)\;dx.$$Ainsi, la probabilité de l'événement $a\leqslant X\leqslant b$ a été obtenue en additionnant les $f(x)\times dx$ pour $x$ variant de $a$ à $b$.
Ce sont donc maintenant les $f(x)\times dx$ qui sont les probabilités élémentaires.
Réexprimons tout ceci en termes d'aires. Puisque $p(a\leqslant X\leqslant b)=F(b)-F(a)=\displaystyle\int_{a}^{b}f(x)\;dx$ et que la fonction $f$ est positive, $p(a\leqslant X\leqslant b)$ est l'aire, exprimée en unités d'aire, de l'ensemble des points du plan situés entre l'axe des abscisses et la courbe représentative de $f$ et dont l'abscisse est comprise entre $a$ et $b$.
Quand $F$ a pour graphe
le graphe de la fonction $f$, dérivée de $F$, est
et le nombre $p(a\leqslant X\leqslant b)$ est l'aire
Posons nous maintenant la question : que représentent en général $f(x)$ ou $f(x)\times dx$ ?
Les $f(x)\;dx$ que l'on a additionné pour obtenir la valeur de $p(a\leqslant X\leqslant b)$ sont les plus simples à comprendre. On a
déjà dit que les $f(x)\times dx$ sont les \og probabilités élémentaires \fg.
Plus précisément, pour $x_0$ donné, $f(x_0)\;dx$ est l'aire d'un rectangle de largeur infinitésimale $dx$ (on rappelle que
$dx$ signifie \og différence de $x$ \fg) et de longueur $f(x_0)$.
Mais cette aire est aussi la probabilité que $X$ soit compris entre $x_0$ et $x_0+dx$ ou encore
$$f(x_0)\;dx=p(x_0\leqslant X\leqslant x_0+dx)=F(x_0+dx)-F(x_0).$$Ainsi, pour chaque $x$, $f(x)\;dx$ est la probabilité que $X$ prenne une valeur comprise entre $x$ et $x+dx$ ou encore
$$f(x)\;dx=p(x\leqslant X\leqslant x+dx)=F(x+dx)-F(x).$$Mais alors,
$$f(x)=\dfrac{F(x+dx)-F(x)}{dx}=\dfrac{p(x\leqslant X\leqslant x+dx)}{dx}.$$Ces égalités peuvent se redécouvrir en écrivant avec des notations différentielles le fait que $f$ est la dérivée de $F$. Pour $x$ donné,
$$f(x)=F'(x)=\displaystyle\lim_{h\rightarrow0}\dfrac{F(x+h)-F(x)}{h}=\dfrac{F(x+dx)-F(x)}{dx}=\dfrac{p(x\leqslant X\leqslant x+dx)}{dx}.$$On a divisé la probabilité de l'intervalle $[x,x+dx]$ par la longueur de cet intervalle qui est $dx$. $f(x)$ s'appelle la
\textbf{densité de probabilité} en $x$ associée à la variable aléatoire $X$.
Le nombre $f(x_0)$ indique une densité de probabilité mise en $x_0$ ou encore une quantité de probabilité par unité de
longueur $dx$.
On va être amené dans certains cas à écrire des intégrales du type $\displaystyle\int_{0}^{+\infty}f(x)\;dx$ ou même $\displaystyle\int_{-\infty}^{+\infty}f(x)\;dx$.
On pose par définition $\displaystyle\int_{0}^{+\infty}f(x)\;dx=\displaystyle\lim_{X\rightarrow+\infty}\int_{0}^{X}f(x)\;dx$ et $\displaystyle\int_{-\infty}^{+\infty}f(x)\;dx =\displaystyle\lim_{Y\rightarrow-\infty}\int_{Y}^{0}f(x)\;dx +\displaystyle\lim_{X\rightarrow+\infty}\int_{0}^{X}f(x)\;dx$.
Par exemple, pour tout réel positif $X$,
$$\displaystyle\int_{0}^{X}e^{-x}\;dx=\left[-e^{-x}\right]_0^X=\left(-e^{-X}\right)-\left(-e^0\right)=1-e^{-X}.$$On sait que le nombre $1-e^{-X}$ est une aire exprimée en unité d'aire.
On note déjà que pour tout réel $X$, $0\leqslant\displaystyle\int_{0}^{X}e^{-x}\;dx\leqslant1$ et donc la \og fonction aire \fg~$X\mapsto \int_{0}^{X}e^{-x}\;dx$, bien que croissante sur $[0,+\infty[$, ne tend pas vers $+\infty$. Dit autrement, l'aire du domaine infini n'est pas infinie. Cette aire est égale à
$$\displaystyle\int_{0}^{+\infty}e^{-x}\;dx=\displaystyle\lim_{X\rightarrow+\infty}\int_{0}^{X}e^{-x}\;dx=\displaystyle\lim_{X\rightarrow+\infty}\left(1-e^{-X}\right)=1.$$Ainsi, l'aire du domaine infini ci-dessous est égale à $1$ unité d'aire qui est l'aire du carré unité.
Par la suite, on unifiera éventtuellement les notations : les intégrales $\displaystyle\int_{2}^{4}f(x)\;dx$ ou $\displaystyle\int_{0}^{+\infty}f(x)\;dx$ ou $\displaystyle\int_{-\infty}^{+\infty}f(x)\;dx$ pourront être notées $\displaystyle\int_{I}^{}f(x)\;dx$ où $I=[2,4]$ ou $I=[0,+\infty[$ ou $I=\mathbb{R}$.
On peut donner deux définitions d'une \og fonction densité \fg. Dans la définition ci-dessous $f$ n'est pas forcément définie sur $\mathbb{R}$ mais est définie sur un intervalle de $\mathbb{R}$.
Commentaire. Dans la définition précédente, l'intervalle peut être $\mathbb{R}$ tout entier mais aussi $[0,+\infty[$ ou $[0,1]$. Partant d'une densité sur un intervalle $I$, on peut toujours se ramener à une densité sur $\mathbb{R}$ en imposant à cette densité d'être nulle en dehors de l'intervalle $I$ car l'intégrale de $0$ sur un intervalle quelconque est nulle. On peut donc aussi adopter la définition suivante :
Solution.
En résumé, la fonction $f$ est continue et positive sur $[1,2]$, d'intégrale sur $[1,2]$ égale à $1$. Finalement, $f$ est une densité de probabilité sur $[1,2]$.
Solution.
De plus, $\displaystyle\lim_{X\rightarrow+\infty}e^{-X}=\displaystyle\lim_{Y\rightarrow-\infty}e^{Y}=0$ et donc
$$\displaystyle\int_{\mathbb{R}}^{}f(x)\;dx=\displaystyle\lim_{X\rightarrow+\infty}\displaystyle\int_{0}^{X}e^{-x}\left(1-e^{-X}\right)=1. $$En résumé, la fonction $f$ est continue sur $[0,+\infty[$, nulle sur $]-\infty,0[$, positive sur $\mathbb{R}$, d'intégrale sur $\mathbb{R}$ égale à $1$. Finalement, $f$ est une densité de probabilité sur $\mathbb{R}$.
Une fois que l'on a une densité, les différentes probabilités se calculent de la façon suivante :
Commentaire. Si $J$ est un intervalle contenu dans $I$, la probabilité que $X$ prenne une valeur appartenant à l'intervalle $J$ est donc l'aire de l'ensemble des points du plan situé entre l'axe des abscisses et la courbe représentative de la fonction densité $f$ et dont l'abscisse appartient à $J$.
Les valeurs de la fonction de répartition se calculent grâce à des intégrales :
et inversement, si on connaît la fonction de répartition, on peut calculer des probabilités :
On rappelle que l'espérance d'une variable aléatoire prenant un nombre fini de valeurs $x_1$, \ldots , $x_n$ est
$$E(X)=x_1\times p(X=x_1)+\ldots+x_n\times p(X=x_n).$$Quand on passe aux variables continues, la somme discrète devient une somme continue c'est-à-dire une intégrale $\displaystyle\int$, les valeurs $x_1$, \ldots , $x_n$ deviennent la variable $x$ et les probabilités élémentaires $p(X=x_i)$ deviennent les probabilités élémentaires $f(x)\;dx$ :
On admettra que les résultats exposés en 1ère S sur l'espérance et la variance d'une variable aléatoire discrète se généralisent aux variables aléatoires continues :
On analyse la situation où \og les événements élémentaires sont équiprobables \fg. Dans ce cas, la densité est constante. On peut donner deux définitions équivalentes de la loi uniforme sur un intervalle $[a,b]$.
Commentaire. Le graphe de $f$ est très simple :
$f$ est une fonction continue et positive sur $[a,b]$ et de plus $$\displaystyle\int_{a}^{b}f(x)\;dx=\displaystyle\int_{a}^{b}\dfrac{1}{b-a}\;dx=\dfrac{1}{b-a}\times(b-a)=1.$$
(On rappelle que si $k$ est une constante, alors $\displaystyle\int_{a}^{b}k\;dx=k(b-a)$).
Puisque $f$ est une fonction continue, positive sur $[a,b]$ d'intégrale égale à $1$ sur $[a,b]$, $f$ est effectivement une
densité sur $[a,b]$.
On peut aussi décider de définir sur $\mathbb{R}$ la densité de la loi uniforme sur $[a,b]$. Dans ce cas, la définition est la suivante :
Le graphe de $f$ devient :
Puisque $f$ est nulle en dehors de $[a,b]$, l'aire totale ne change pas :
Exemple. La situation analysée dans les premiers exemples du paragraphe II, à savoir tirer un nombre réel au hasard entre deux réels $a$ et $b$ avec \og équiprobabilité des tirages \fg, est une situation régie par la loi uniforme.
Quand une variable aléatoire est régie par une loi de probabilité uniforme, les probabilités sont très simples : elles sont proportionnelles aux longueurs des intervalles correspondants
Solution. Notons $X$ la variable aléatoire qui prend pour valeur le temps d'attente d'Alain, exprimé en minutes à partir de 21 h 30, un soir donné . $X$ suit une loi uniforme sur $[0,90]$ (car de 21 h 30 à 23 h, il y a $90$ minutes).
La probabilité qu'Alain attende plus d'un quart d'heure est $\dfrac{5}{6}$.
En moyenne, chaque soir, Alain attend $45$ minutes.
Il y a une chance sur douze pour qu'Alain et Bernard se contactent effectivement ce soir là.
Quand il n'y a plus \og équiprobabilité des événements élémentaires \fg, la loi de probabilité n'est par définition plus
uniforme. Le programme de Terminale S prévoit l'étude de deux lois continues et non uniformes : la loi normale
qui est l'objet du chapitre suivant et la \textbf{loi exponentielle de paramètre} $\lambda$. L'étude de cette dernière est l'objet
de ce paragraphe. On la rencontre par exemple dans certaines situations où il s'agit d'analyser une durée de vie.
La variable aléatoire $X$ prend alors des valeurs qui sont des réels positifs. Par exemple, la durée de vie de certains
composants électroniques ou la durée de vie d'une particule radioactive sont régies par une loi exponentielle.
De même que pour la loi uniforme, on peut donner deux définitions de le loi exponentielle de paramètre $\lambda$.
Dans ce cas, le graphe de $f$ est
Mais on peut aussi décider d'avoir une densité définie sur $\mathbb{R}$ auquel cas on adopte la définition suivante :
La graphe de $f$ est alors
Si on se contente de définir $f$ sur $50,+\infty[$, la fonction de répartition $F$ est définie de la façon suivante :
Calculons cette intégrale une bonne fois pour toutes.
Ensuite,
$$p(X\leqslant x)=p(X< x)+p(X=x)=p(X< x),$$et donc $p(X< x)=p(X\leqslant x)=1-e^{-\lambda x}$. Enfin,
$$p(X\geqslant x)=1-p(X< x)=1-\left(1-e^{-\lambda x}\right)=e^{-\lambda x},$$et donc $p(X\geqslant x)=e^{-\lambda x}=p(X>x)$.
Ainsi, pour tout réel positif $x$, on a $F(x)=1-e^{-\lambda x}$. Voici la représentation graphique de la fonction de répartition $F$ sur $[0,+\infty[$ :
Pour tout réel $x$, posons $f(x)=\left\{ \begin{array}{l} 0\;\text{si}\;x< 0\\ \lambda e^{-\lambda x}\;\text{si}\;x\geqslant0 \end{array} \right.$. L'espérance de $Z$ est
$$E(Z)=\displaystyle\int_{-\infty}^{+\infty}xf(x)\;dx=\displaystyle\int_{0}^{+\infty}\lambda xe^{-\lambda x}\;dx=\displaystyle\lim_{X\rightarrow+\infty}\displaystyle\int_{0}^{X}\lambda xe^{-\lambda x}\;dx.$$Cherchons une primitive de la fonction $g~:~x\mapsto \lambda xe^{-\lambda x}$ sur $[0,+\infty[$ de la forme $G~:~x\mapsto(ax+b)e^{-\lambda x}$ où $a$ et $b$ sont deux réels. $G$ est dérivable sur $[0,+\infty[$ et pour tout réel positif $x$,
$$G'(x)=ae^{-\lambda x}+(ax+b)\left(-\lambda e^{-\lambda x}\right)=(a-\lambda a x-\lambda b)e^{-\lambda x}=(-\lambda a x+a-\lambda b)e^{-\lambda x}.$$Si on choisit $a$ et $b$ de sorte que $-\lambda a=\lambda$ et $a-\lambda b=0$, alors pour tout réel positif $x$, $G'(x)=\lambda xe^{-\lambda x}=g(x)$.
Or, $-\lambda a=\lambda\Leftrightarrow a=-1$ car $\lambda\neq0$ puis $a-\lambda b=0\Leftrightarrow\-1-\lambda b=0\Leftrightarrow b=-\dfrac{1}{\lambda}$.
On prend donc $a=-1$ puis $b=-\dfrac{1}{\lambda}$ et donc,
Soit $X\geqslant0$.
\begin{align*} \displaystyle\int_{0}^{X}\lambda xe^{-\lambda x}\;dx&=\displaystyle\int_{0}^{X}g(x)\;dx=G(X)-G(0)=\left(-X-\dfrac{1}{\lambda}\right)e^{-\lambda X}-\left(-\dfrac{1}{\lambda}\right)\\ &=\dfrac{1}{\lambda}-Xe^{-\lambda X}-\dfrac{1}{\lambda}e^{-\lambda X}=\dfrac{1}{\lambda}+\dfrac{1}{\lambda}(-\lambda X)e^{-\lambda X}-\dfrac{1}{\lambda}e^{-\lambda X}. \end{align*}Ensuite, puisque $\lambda>0$, en posant $Y=-\lambda X$, on obtient
$$\displaystyle\lim_{X\rightarrow+\infty}(-\lambda X)e^{-\lambda X}=\displaystyle\lim_{Y\rightarrow-\infty}Ye^{Y}=0,$$d'après un théorème de croissances comparées et d'autre part,
$$\displaystyle\lim_{X\rightarrow+\infty}e^{-\lambda X}=\displaystyle\lim_{Y\rightarrow-\infty}e^{Y}=0.$$Finalement,
$$E(Z)=\displaystyle\lim_{X\rightarrow+\infty}\int_{0}^{X}\lambda xe^{-\lambda x}\;dx=\displaystyle\lim_{X\rightarrow+\infty}\left(\dfrac{1}{\lambda}+\dfrac{1}{\lambda}(-\lambda X)e^{-\lambda X}-\dfrac{1}{\lambda}e^{-\lambda X}\right)=\dfrac{1}{\lambda}+0+0=\dfrac{1}{\lambda}.$$Dans la démonstration qui suit, on suppose acquis les résultats du théorème 7 : pour tout réel positif $x$,
$$p(X\leqslant x)=p(X< x)=1-e^{-\lambda x}\;\text{et}\;p(X\geqslant x)=p(X>x)=e^{-\lambda x}.$$Interprétation. Une situation concrète où une variable aléatoire suit une loi exponentielle de paramètre $\lambda$ est la durée de vie d'un composant électronique par exemple exprimée en jours.
$p(X\geqslant t)$ est alors la probabilité qu'un composant électronique ait une durée de vie supérieure ou égale à $t$ jours ou encore continue de fonctionner après $t$ jours de fonctionnemment.
$p_{X\geqslant t}(X\geqslant t+h)$ est la probabilité que le composant fonctionne encore au moins $s$ jours sachant qu'il a déjà
fonctionné au moins $t$ jours. Le théorème précédent dit que cette dernière probabilité ne dépend pas de $t$.
Cela signifie que la probabilité que quand le composant a fonctionné au moins un certain temps $t$, la probabilité
de fonctionner encore $h$ jours au moins est la même que la probabilité qu'avait le composant de fonctionner au
moins $h$ jours au début de son utilisation c'est-à-dire à $t=0$.
On dit alors que la loi exponentielle de paramètre $\lambda$ est une \textbf{loi sans vieillissement}.
Dans la suite, on prendra $\lambda=0,2$.
Solution. Soit $t$ un réel.
$$p(X\leqslant t)=\displaystyle\int_{0}^{t}\lambda e^{-\lambda x}\;dx=\left[-e^{-\lambda x}\right]_0^{t}=\left(-e^{-\lambda t}\right)-\left(-e^0\right)=1-e^{-\lambda t}.$$Ensuite,
$$p(X\geqslant t)=p(X>t)+p(X=t)=p(X>t)=1-p\left(X\leqslant t\right)=1-\left(1-e^{-\lambda t}\right)=e^{-\lambda t}.$$Solution 1. (on suppose connu le théorème 9) Puisque la loi exponentielle est une loi sans vieillissement,
$$p_{X\geqslant3}(X\geqslant6)=p_{X\geqslant3}(X\geqslant3+3)=p(X\geqslant3)=e^{-0,6}.$$Solution 2. (on ne suppose pas connu le théorème 9)
$$p_{X\geqslant3}(X\geqslant6)=\dfrac{p\left((X\geqslant3)\cap(X\geqslant6)\right)}{p(X\geqslant3)}\dfrac{p\left(X\geqslant6\right)}{p(X\geqslant3)}=\dfrac{e^{-0,2\times6}}{e^{-0,2\times3}}=\dfrac{e^{-1,2}}{e^{-0,6}}=e^{-1,2+0,6}=e^{-0,6}.$$La probabilité demandée est donc $0,55$ arrondie au centième.