Exercices d’oraux type Centrale/Mines
retour vers la page des exercices d’oraux
PROBABILITES
Exercice – Difficulté 4 – Thème : probabilités. Titre : convergence en probabilité d’un produit de deux suites de variables aléatoires.
Enoncé
Soient $(\Omega,\mathscr{A},\mathbb{P})$ un espace probabilisé, $X$ et $Y$ deux variables aléatoires discrètes et $\left(X_n\right)_{n\in\mathbb{N}}$ et $\left(Y_n\right)_{n\in\mathbb{N}}$ deux suites de variables aléatoires discrètes.
On note $(\star)$ la condition suivante :
$$\forall \varepsilon>0,\;\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}\left(\left|X_n-X\right|\geqslant\varepsilon\right)=0\;\text{et}\;\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}\left(\left|Y_n-X\right|\geqslant\varepsilon\right)=0.$$
1) Soient $x$ et $y$ deux réels et $\varepsilon>0$. Jusitifiez l’implication :
$$|x+y|\geqslant\varepsilon\Rightarrow|x|\geqslant\dfrac{\varepsilon}{2}\;\text{ou}\;|y|\geqslant\dfrac{\varepsilon}{2}.$$
2) On suppose la condition $(\star)$ satisfaite. Etablir :
$$\forall \varepsilon>0,\;\mathbb{P}\left(\left|X_n+Y_n-(X+Y)\right|\geqslant\varepsilon\right)\underset{n\rightarrow+\infty}{\rightarrow}0.$$
3) Application. Soient $\left(U_n\right)_{n\in\mathbb{N}}$ une suite de variables aléatoires indépendantes de même loi $\mathscr{B}(p)$ avec $p\in[0,1]$ et pour tout entier $n$, $V_n=U_n+U_{n+1}$. Etablir :
$$\forall\varepsilon>0,\;\mathbb{P}\left(\dfrac{1}{n}\displaystyle\sum_{i=1}^{n}V_i-2p\geqslant\varepsilon\right)\underset{n\rightarrow+\infty}{\rightarrow}0.$$
4) Soit $X$ une variable aléatoire discrète. Etablir :
$$\mathbb{P}(|X|>M)\underset{M\rightarrow+\infty}{\rightarrow}0.$$
5) On suppose la condition $(\star)$ satisfaite. Etablir :
$$\forall \varepsilon>0,\;\mathbb{P}\left(\left|X_nY_n-XY\right|\geqslant\varepsilon\right)\underset{n\rightarrow+\infty}{\rightarrow}0.$$
Corrigé
1) Soient $x$ et $y$ deux réels et $\varepsilon>0$. Si $|x|<\dfrac{\varepsilon}{2}$ et $|y|<\dfrac{\varepsilon}{2}$, alors,
$$|x+y|\leqslant|x|+|y|<\dfrac{\varepsilon}{2}+\dfrac{\varepsilon}{2}=\varepsilon.$$
Par contraposition, $|x+y|\geqslant\varepsilon\Rightarrow|x|\geqslant\dfrac{\varepsilon}{2}$ ou $|y|\geqslant\dfrac{\varepsilon}{2}$.
2) Soit $\varepsilon>0$. Pour tout $n\in\mathbb{N}$, $\left|\left(X_n-X\right)+\left(Y_n-Y\right)\right|\geqslant\varepsilon\Rightarrow\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{2}\;\text{ou}\;\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{2}$. En terme d’événements, cela donne
$$\left\{\left|\left(X_n-X\right)+\left(Y_n-Y\right)\right|\geqslant\varepsilon\right\}\subset\left\{\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{2}\right\}\cup\left\{\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{2}\right\}.$$
Par croissance d’une probabilité, on en déduit que
\begin{align*}0\leqslant\mathbb{P}\left(\left|\left(X_n-X\right)+\left(Y_n-Y\right)\right|\geqslant\varepsilon\right)&\leqslant\mathbb{P}\left(\left\{\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{2}\right\}\cup\left\{\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{2}\right\}\right)\\&\leqslant\mathbb{P}\left(\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{2}\right)+\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{2}\right).\end{align*}
Par hypothèse, $\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}\left(\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{2}\right)+\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{2}\right)=0$ et d’après le théorème des gendarmes,
$$\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}\left(\left|\left(X_n-X\right)+\left(Y_n-Y\right)\right|\geqslant\varepsilon\right)=0.$$
3) Pour $n\in\mathbb{N}^*$, on pose $X_n=\dfrac{1}{n}\displaystyle\sum_{i=1}^{n}U_i$ et $Y_n=\dfrac{1}{n}\displaystyle\sum_{i=2}^{n+1}U_i$ de sorte que
$$\dfrac{1}{n}\displaystyle\sum_{i=1}^{n}V_i=X_n+Y_n.$$
Puisque les $U_i$ sont des variables indépendantes suivant la même loi de Bernoulli de paramètre $p$ (et admettent donc toutes un moment d’ordre $2$ et ont une espérance égale à $p$), la loi faible des grands nombres permet d’affirmer que pour tout $\varepsilon>0$, $\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}\left(\left|X_n-p\right|\geqslant\varepsilon\right)=0$.
De même, $\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}\left(\left|Y_n-p\right|\geqslant\varepsilon\right)=0$. Mais alors, d’après la question précédente appliquée avec $X=Y=p$, pour tout $\varepsilon>0$, $\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}\left(\left|X_n+Y_n-2p\right|\geqslant\varepsilon\right)=0$.
On a montré que pour tout $\varepsilon>0$, $\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}\left(\left|\dfrac{1}{n}\displaystyle\sum_{i=1}^{n}V_i-2p\right|\geqslant\varepsilon\right)=0$.
4) Soit $X$ une variable aléatoire réelle discrète. Montrons que $\mathbb{P}(X>M)\underset{M\rightarrow+\infty}{\rightarrow}0$. Le résultat est immédiat si $X$ est majorée car alors la fonction $F~:~M\mapsto\mathbb{P}(X>M)$ est nulle sur un voisinage de $+\infty$.
Supposons la variable $X$ non majorée. On note sous forme d’une suite strictement croissante $\left(x_k\right)_{k\in\mathbb{N}}$ les valeurs prises par la variable $X$. Puisque la suite $\left(x_k\right)_{k\in\mathbb{N}}$ est croissante et non majorée, on a $\displaystyle\lim_{k\rightarrow+\infty}x_k=+\infty$.
Puisque la fonction $F$ est décroissante sur $\mathbb{R}$ et minorée (par $0$), $\displaystyle\lim_{M\rightarrow+\infty}F(M)$ existe dans $\mathbb{R}$ et de plus,
$$\displaystyle\lim_{M\rightarrow+\infty}\mathbb{P}(X>M)=\displaystyle\lim_{M\rightarrow+\infty}F(M)=\displaystyle\lim_{k\rightarrow+\infty}F\left(x_k\right).$$
Or, pour tout $k\in\mathbb{N}$, $F\left(x_k\right)=\displaystyle\sum_{i=k+1}^{+\infty}\mathbb{P}\left(X=x_i\right)$ et donc $F\left(x_k\right)$ est le reste à l’ordre $k$ de la série de terme général $\mathbb{P}\left(X=x_i\right)$ qui est convergente (et de somme $1$). On en déduit que $\displaystyle\lim_{k\rightarrow+\infty}F\left(x_k\right)=0$ puis que $\displaystyle\lim_{M\rightarrow+\infty}\mathbb{P}(X>M)=0$.
En appliquant ce résultat à la variable $-X$, on a aussi $\displaystyle\lim_{M\rightarrow+\infty}\mathbb{P}(X<-M)=\displaystyle\lim_{M\rightarrow+\infty}\mathbb{P}(-X>M)=0$. Enfin,
$$\displaystyle\lim_{M\rightarrow+\infty}\mathbb{P}(|X|>M)=\displaystyle\lim_{M\rightarrow+\infty}(\mathbb{P}(X<-M)+\mathbb{P}(X>M))=0.$$
5) Soit $\varepsilon>0$. Soit $n\in\mathbb{N}$.
\begin{align*}\left|X_nY_n-XY\right|&=\left|X_nY_n-X_nY+X_nY-XY\right|\\&\leqslant\left|X_n\right|\left|Y_n-Y\right|+|Y|\left|X_n-X\right|\\&\leqslant\left|X_n-X\right|\left|Y_n-Y\right|+|X|\left|Y_n-Y\right|+|Y|\left|X_n-X\right|.\end{align*}
Par suite, $\left\{\left|X_nY_n-XY\right|\geqslant\varepsilon\right\}\subset\left\{\left|X_n-X\right|\left|Y_n-Y\right|+\left|X\right|\left|Y_n-Y\right|+|Y|\left|X_n-X\right|\geqslant\varepsilon\right\}$ puis $\left\{\left|X_nY_n-XY\right|\geqslant\varepsilon\right\}\subset\left\{\left|X_n-X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right\}\cup\left\{\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right\}\cup\left\{|Y|\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{3}\right\}$ et donc,
$$\mathbb{P}\left(\left|X_nY_n-XY\right|\geqslant\varepsilon\right)\leqslant\mathbb{P}\left(\left|X_n-X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right)+\mathbb{P}\left(\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right)+\mathbb{P}\left(|Y|\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{3}\right).$$
Soit $\varepsilon’>0$.
$\bullet$ Puisque $\displaystyle\lim_{M\rightarrow+\infty}\mathbb{P}(|X|>M)=0$ et $\displaystyle\lim_{M\rightarrow+\infty}\mathbb{P}(|Y|>M)=0$, il existe $M>0$ tel que $\mathbb{P}(|X|>M)\leqslant\dfrac{\varepsilon’}{4}$ et $\mathbb{P}(|Y|>M)\leqslant\dfrac{\varepsilon’}{4}$. $\left\{\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right\}$ est la réunion disjointe des événements $\left\{\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right\}\cap\{|X|>M\}$ et $\left\{\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right\}\cap\{|X|\leqslant M\}$.
$\left\{\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right\}\cap\{|X|>M\}\subset\{|X|>M\}$ et donc $\mathbb{P}\left(\left\{\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right\}\cap\{|X|>M\}\right)\leqslant\mathbb{P}(|X|>M)\leqslant\dfrac{\varepsilon’}{4}$.
$\left\{\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right\}\cap\{|X|\leqslant M\}\subset\left\{\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3M}\right\}$ et donc $\mathbb{P}\left(\left\{\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right\}\cap\{|X|\leqslant M\}\right)\leqslant\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3M}\right)$ puis, pour tout $n\in\mathbb{N}$,
$$\mathbb{P}\left(\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right)\leqslant\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3M}\right)+\dfrac{\varepsilon’}{4}.$$
De même, pour tout $n\in\mathbb{N}$,
$$\mathbb{P}\left(\left|Y\right|\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{3}\right)\leqslant\mathbb{P}\left(\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{3M}\right)+\dfrac{\varepsilon’}{4},$$
et donc
$$\mathbb{P}\left(\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right)+\mathbb{P}\left(\left|Y\right|\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{3}\right)\leqslant\mathbb{P}\left(\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{3M}\right)+\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3M}\right)+\dfrac{\varepsilon’}{2}.$$
$\bullet$ $\left\{\left|X_n-X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right\}\subset\left\{\left|X_n-X\right|\geqslant\sqrt{\dfrac{\varepsilon}{3}}\right\}\cup\left\{\left|Y_n-Y\right|\geqslant\sqrt{\dfrac{\varepsilon}{3}}\right\}$ puis pour tout $n\in\mathbb{N}$,
$$\mathbb{P}\left(\left|X_n-X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right)\leqslant\mathbb{P}\left(\left|X_n-X\right|\geqslant\sqrt{\dfrac{\varepsilon}{3}}\right)+\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\sqrt{\dfrac{\varepsilon}{3}}\right).$$
Finalement, pour tout $n\in\mathbb{N}$,
$$\mathbb{P}\left(\left|X_nY_n-XY\right|\geqslant\varepsilon\right)\leqslant\mathbb{P}\left(\left|X_n-X\right|\geqslant\sqrt{\dfrac{\varepsilon}{3}}\right)+\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\sqrt{\dfrac{\varepsilon}{3}}\right)+\mathbb{P}\left(\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{3M}\right)+\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3M}\right)+\dfrac{\varepsilon’}{2}.$$
$\bullet$ Puisque $\displaystyle\lim_{n\rightarrow+\infty}\left(\mathbb{P}\left(\left|X_n-X\right|\geqslant\sqrt{\dfrac{\varepsilon}{3}}\right)+\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\sqrt{\dfrac{\varepsilon}{3}}\right)+\mathbb{P}\left(\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{3M}\right)+\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3M}\right)\right)=0$, il existe $n_0\in\mathbb{N}$ tel que, pour $n\geqslant n_0$, $\mathbb{P}\left(\left|X_n-X\right|\geqslant\sqrt{\dfrac{\varepsilon}{3}}\right)+\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\sqrt{\dfrac{\varepsilon}{3}}\right)+\mathbb{P}\left(\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{3M}\right)+\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3M}\right)\leqslant\dfrac{\varepsilon’}{2}$. Pour $n\geqslant n_0$, on a alors
$$\mathbb{P}\left(\left|X_nY_n-XY\right|\geqslant\varepsilon\right)\leqslant\dfrac{\varepsilon’}{2}+\dfrac{\varepsilon’}{2}=\varepsilon’.$$
On a montré que pour tout $\varepsilon>0$, $\mathbb{P}\left(\left|X_nY_n-XY\right|\geqslant\varepsilon\right)\underset{n\rightarrow+\infty}{\rightarrow}0$.
Commentaires et/ou rappels de cours
Rappelons la loi faible des grands nombres. Soit $\left(X_n\right)_{n\in\mathbb{N}^*}$ une suite de variables aléatoires réelles discrètes deux à deux indépendantes, suivant une même loi et admettant toutes un moment d’ordre $2$. Alors, en notant $m=\mathbb{E}\left(X_1\right)$
$$\forall\varepsilon>0,\;\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}\left(\left|\dfrac{1}{n}\displaystyle\sum_{i=1}^{n}X_i-m\right|\geqslant\varepsilon\right)=0.$$
Les étapes de la démonstration sont
$\bullet$ pour tout $n\in\mathbb{N}^*$, $\mathbb{E}\left(\dfrac{1}{n}\displaystyle\sum_{i=1}^{n}X_i\right)=m$ par linéarité de l’espérance
$\bullet$ pour tout $n\in\mathbb{N}^*$, $\mathbb{V}\left(\dfrac{1}{n}\displaystyle\sum_{i=1}^{n}X_i\right)=\dfrac{\mathbb{V}\left(X_1\right)}{n}$ car les $X_i$ sont deux à deux indépendantes
$\bullet$ pour tout $n\in\mathbb{N}^*$, $\mathbb{P}\left(\left|\dfrac{1}{n}\displaystyle\sum_{i=1}^{n}X_i-m\right|\geqslant\varepsilon\right)\leqslant\dfrac{\mathbb{V}\left(X_1\right)}{n\varepsilon^2}$ d’après l’inégalité de Bienaymé-Tchebychev.
Exercice – Difficulté 2 – Thème : probabilités. Titre : étude de deux variables aléatoires
Enoncé
Toutes les variables aléatoires sont définies sur le même espace de probabilité $(\Omega,\mathbb{P})$.
Soient $X$ et $Y$ deux variables aléatoires à valeurs dans $\mathbb{N}^*$ telles que :
$\bullet$ pour tout $n\in\mathbb{N}^*$, $\mathbb{P}(Y=n)>0$,
$\bullet$ pour tout $(k,n)\in\left(\mathbb{N}^*\right)^2$,
$$\mathbb{P}_{Y=n}(X=k)=\left\{\begin{array}{l}\frac{1}{n}\;\text{si}\;k\leqslant n\\0\;\text{sinon}\end{array}\right..$$
1) (a) Soient $U$, $V$ et $W$ trois variables aléatoires à valeurs dans $\mathbb{N}^*$ telles que pour tout $(k,n)\in\left(\mathbb{N}^*\right)^2$
$$\mathbb{P}(W=n)>0\quad\text{et}\quad\mathbb{P}_{W=n}(U=k)=\mathbb{P}_{W=n}(V=k).$$
Montrer que $U$ et $V$ suivent la même loi.
(b) Montrer que les variables $X$ et $Y+1-X$ suivent la même loi.
2) On suppose que $X$ suit une loi géométrique.
Montrer que les variables $X$ et $Y+1-X$ sont indépendantes.
Corrigé
1) (a) Soit $k\in\mathbb{N}^*$. $\left(W=n\right)_{n\in\mathbb{N}^*}$ est un système complet d’événements. D’après la formule des probvabilités totales,
\begin{align*}\mathbb{P}(U=k)&=\displaystyle\sum_{n=1}^{+\infty}\mathbb{P}((U=k)\cap(W=n))=\displaystyle\sum_{n=1}^{+\infty}\mathbb{P}(W=n)\mathbb{P}_{W=n}(U=k)\\&=\displaystyle\sum_{n=1}^{+\infty}\mathbb{P}(W=n)\mathbb{P}_{W=n}(V=k)=\displaystyle\sum_{n=1}^{+\infty}\mathbb{P}((V=k)\cap(W=n))\\&=\mathbb{P}(V=k).\end{align*}
(b) On veut appliquer le résultat précédent aux variables $U=X$, $V=Y+1-X$ et $W=Y$.
Tout d’abord, pour tout $n\in\mathbb{N}^*$, $\mathbb{P}(W=n)=\mathbb{P}(Y=n)>0$. Soit alors $(k,n)\in\mathbb{N}^*$. Si on sait que $W=n$,
$$V=k\Leftrightarrow Y+1-X=k\Leftrightarrow n+1-X=k\Leftrightarrow X=n+1-k$$
et donc, $\mathbb{P}_{W=n}(V=k)=\mathbb{P}_{Y=n}(X=n+1-k)$. Maintenant, $1\leqslant k\leqslant n\Leftrightarrow 1\leqslant n+1-k\leqslant n$ et donc
$$\mathbb{P}_{W=n}(V=k)=\mathbb{P}_{Y=n}(X=n+1-k)=\mathbb{P}_{Y=n}(X=k)=\mathbb{P}_{W=n}(U=k).$$
Ainsi, $\forall(k,n)\in\left(\mathbb{N}^*\right)^2$, $\mathbb{P}_{Y=n}(Y+1-X=k)=\mathbb{P}_{Y=n}(X=k)$ et donc, d’après la question (a), les variables $X$ et $Y+1-X$ suivent la même loi.
2) On suppose que la variable $X$ suit la loi géométrique de paramètre $p\in]0 ,1[$. Donc, $X(\Omega)=\mathbb{N}^*$ et pour tout $k\in\mathbb{N}^*$, $P(X=k)=pq^{k-1}$ où $q=1-p$.
Déterminons la loi de $Y$. Soit $k\in\mathbb{N}^*$. D’après la formule des probabilités totales,
\begin{align*}\mathbb{P}(X=k)&=\displaystyle\sum_{n=1}^{+\infty}\mathbb{P}((Y=n)\cap(X=k))=\displaystyle\sum_{n=1}^{+\infty}\mathbb{P}(Y=n)\mathbb{P}_{Y=n}(X=k)\\&=\displaystyle\sum_{n=k}^{+\infty}\dfrac{\mathbb{P}(Y=n)}{n}.\end{align*}
On en déduit que pour $k\in\mathbb{N}^*$,
\begin{align*}\dfrac{\mathbb{P}(Y=k)}{k}&=\displaystyle\sum_{n=k}^{+\infty}\dfrac{\mathbb{P}(Y=n)}{n}-\displaystyle\sum_{n=k+1}^{+\infty}\dfrac{\mathbb{P}(Y=n)}{n}\\&=\mathbb{P}(X=k)-\mathbb{P}(X=k+1)\end{align*}
puis $\mathbb{P}(Y=k)=k\left(pq^{k-1}-pq^k\right)=kpq^{k-1}(1-q)=kp^2q^{k-1}$.
Soit alors $(k,\ell)\in\left(\mathbb{N}^*\right)^2$.
\begin{align*}\mathbb{P}((X=k)\cap(Y+1-X=\ell))&=\mathbb{P}((X=k)\cap(Y=k+\ell-1))=\mathbb{P}(Y=k+\ell-1)\mathbb{P}_{Y=k+\ell-1}(X=k)\\&=\dfrac{1}{k+\ell-1}\mathbb{P}(Y=k+\ell-1)\;(\text{car}\;k+\ell-1\geqslant k)\\&=p^2q^{k+\ell-2}=pq^{k-1}pq^{\ell-1}\\&=\mathbb{P}(X=k)\mathbb{P}(Y+1-X=\ell)\end{align*}
car $X$ et $Y+1-X$ suivent la même loi.
On a montré que pour tout $(k,\ell)\in\left(\mathbb{N}^*\right)^2$, $\mathbb{P}((X=k)\cap(Y+1-X=\ell))=\mathbb{P}(X=k)\times\mathbb{P}(Y+1-X=\ell)$ et donc les variables $X$ et $Y+1-X$ sont indépendantes.
Commentaires et/ou rappels de cours
Pas de commentaire particulier.
