Exercices d’oraux type Centrale/Mines

retour vers la page des exercices d’oraux 

PROBABILITES

Exercice – Difficulté 4 – Thème : probabilités. Titre : convergence en probabilité d’un produit de deux suites de variables aléatoires.

Enoncé

Soient $(\Omega,\mathscr{A},\mathbb{P})$ un espace probabilisé, $X$ et $Y$ deux variables aléatoires discrètes et $\left(X_n\right)_{n\in\mathbb{N}}$ et $\left(Y_n\right)_{n\in\mathbb{N}}$ deux suites de variables aléatoires discrètes.

On note $(\star)$ la condition suivante :

$$\forall \varepsilon>0,\;\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}\left(\left|X_n-X\right|\geqslant\varepsilon\right)=0\;\text{et}\;\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}\left(\left|Y_n-X\right|\geqslant\varepsilon\right)=0.$$

1) Soient $x$ et $y$ deux réels et $\varepsilon>0$. Jusitifiez l’implication :

$$|x+y|\geqslant\varepsilon\Rightarrow|x|\geqslant\dfrac{\varepsilon}{2}\;\text{ou}\;|y|\geqslant\dfrac{\varepsilon}{2}.$$

2) On suppose la condition $(\star)$ satisfaite. Etablir :

$$\forall \varepsilon>0,\;\mathbb{P}\left(\left|X_n+Y_n-(X+Y)\right|\geqslant\varepsilon\right)\underset{n\rightarrow+\infty}{\rightarrow}0.$$

3) Application. Soient $\left(U_n\right)_{n\in\mathbb{N}}$ une suite de variables aléatoires indépendantes de même loi $\mathscr{B}(p)$ avec $p\in[0,1]$ et pour tout entier $n$, $V_n=U_n+U_{n+1}$. Etablir :

$$\forall\varepsilon>0,\;\mathbb{P}\left(\dfrac{1}{n}\displaystyle\sum_{i=1}^{n}V_i-2p\geqslant\varepsilon\right)\underset{n\rightarrow+\infty}{\rightarrow}0.$$

4) Soit $X$ une variable aléatoire discrète. Etablir :

$$\mathbb{P}(|X|>M)\underset{M\rightarrow+\infty}{\rightarrow}0.$$

5) On suppose la condition $(\star)$ satisfaite. Etablir :

$$\forall \varepsilon>0,\;\mathbb{P}\left(\left|X_nY_n-XY\right|\geqslant\varepsilon\right)\underset{n\rightarrow+\infty}{\rightarrow}0.$$

 

Corrigé

1) Soient $x$ et $y$ deux réels et $\varepsilon>0$. Si $|x|<\dfrac{\varepsilon}{2}$ et $|y|<\dfrac{\varepsilon}{2}$, alors,

$$|x+y|\leqslant|x|+|y|<\dfrac{\varepsilon}{2}+\dfrac{\varepsilon}{2}=\varepsilon.$$

Par contraposition, $|x+y|\geqslant\varepsilon\Rightarrow|x|\geqslant\dfrac{\varepsilon}{2}$ ou $|y|\geqslant\dfrac{\varepsilon}{2}$.

2) Soit $\varepsilon>0$. Pour tout $n\in\mathbb{N}$, $\left|\left(X_n-X\right)+\left(Y_n-Y\right)\right|\geqslant\varepsilon\Rightarrow\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{2}\;\text{ou}\;\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{2}$. En terme d’événements, cela donne

$$\left\{\left|\left(X_n-X\right)+\left(Y_n-Y\right)\right|\geqslant\varepsilon\right\}\subset\left\{\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{2}\right\}\cup\left\{\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{2}\right\}.$$

Par croissance d’une probabilité, on en déduit que

\begin{align*}0\leqslant\mathbb{P}\left(\left|\left(X_n-X\right)+\left(Y_n-Y\right)\right|\geqslant\varepsilon\right)&\leqslant\mathbb{P}\left(\left\{\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{2}\right\}\cup\left\{\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{2}\right\}\right)\\&\leqslant\mathbb{P}\left(\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{2}\right)+\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{2}\right).\end{align*}

Par hypothèse, $\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}\left(\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{2}\right)+\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{2}\right)=0$ et d’après le théorème des gendarmes,

$$\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}\left(\left|\left(X_n-X\right)+\left(Y_n-Y\right)\right|\geqslant\varepsilon\right)=0.$$

3) Pour $n\in\mathbb{N}^*$, on pose $X_n=\dfrac{1}{n}\displaystyle\sum_{i=1}^{n}U_i$ et $Y_n=\dfrac{1}{n}\displaystyle\sum_{i=2}^{n+1}U_i$ de sorte que

$$\dfrac{1}{n}\displaystyle\sum_{i=1}^{n}V_i=X_n+Y_n.$$

Puisque les $U_i$ sont des variables indépendantes suivant la même loi de Bernoulli de paramètre $p$ (et admettent donc toutes un moment d’ordre $2$ et ont une espérance égale à $p$), la loi faible des grands nombres permet d’affirmer que pour tout $\varepsilon>0$, $\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}\left(\left|X_n-p\right|\geqslant\varepsilon\right)=0$.

De même, $\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}\left(\left|Y_n-p\right|\geqslant\varepsilon\right)=0$. Mais alors, d’après la question précédente appliquée avec $X=Y=p$, pour tout $\varepsilon>0$, $\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}\left(\left|X_n+Y_n-2p\right|\geqslant\varepsilon\right)=0$.

On a montré que pour tout $\varepsilon>0$, $\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}\left(\left|\dfrac{1}{n}\displaystyle\sum_{i=1}^{n}V_i-2p\right|\geqslant\varepsilon\right)=0$.

4) Soit $X$ une variable aléatoire réelle discrète. Montrons que $\mathbb{P}(X>M)\underset{M\rightarrow+\infty}{\rightarrow}0$. Le résultat est immédiat si $X$ est majorée car alors la fonction $F~:~M\mapsto\mathbb{P}(X>M)$ est nulle sur un voisinage de $+\infty$.

Supposons la variable $X$ non majorée. On note sous forme d’une suite strictement croissante $\left(x_k\right)_{k\in\mathbb{N}}$ les valeurs prises par la variable $X$. Puisque la suite $\left(x_k\right)_{k\in\mathbb{N}}$ est croissante et non majorée, on a $\displaystyle\lim_{k\rightarrow+\infty}x_k=+\infty$.

Puisque la fonction $F$ est décroissante sur $\mathbb{R}$ et minorée (par $0$), $\displaystyle\lim_{M\rightarrow+\infty}F(M)$ existe dans $\mathbb{R}$ et de plus,

$$\displaystyle\lim_{M\rightarrow+\infty}\mathbb{P}(X>M)=\displaystyle\lim_{M\rightarrow+\infty}F(M)=\displaystyle\lim_{k\rightarrow+\infty}F\left(x_k\right).$$

Or, pour tout $k\in\mathbb{N}$, $F\left(x_k\right)=\displaystyle\sum_{i=k+1}^{+\infty}\mathbb{P}\left(X=x_i\right)$ et donc $F\left(x_k\right)$ est le reste à l’ordre $k$ de la série de terme général $\mathbb{P}\left(X=x_i\right)$ qui est convergente (et de somme $1$). On en déduit que $\displaystyle\lim_{k\rightarrow+\infty}F\left(x_k\right)=0$ puis que $\displaystyle\lim_{M\rightarrow+\infty}\mathbb{P}(X>M)=0$.

En appliquant ce résultat à la variable $-X$, on a aussi $\displaystyle\lim_{M\rightarrow+\infty}\mathbb{P}(X<-M)=\displaystyle\lim_{M\rightarrow+\infty}\mathbb{P}(-X>M)=0$. Enfin,

$$\displaystyle\lim_{M\rightarrow+\infty}\mathbb{P}(|X|>M)=\displaystyle\lim_{M\rightarrow+\infty}(\mathbb{P}(X<-M)+\mathbb{P}(X>M))=0.$$

5) Soit $\varepsilon>0$. Soit $n\in\mathbb{N}$.

\begin{align*}\left|X_nY_n-XY\right|&=\left|X_nY_n-X_nY+X_nY-XY\right|\\&\leqslant\left|X_n\right|\left|Y_n-Y\right|+|Y|\left|X_n-X\right|\\&\leqslant\left|X_n-X\right|\left|Y_n-Y\right|+|X|\left|Y_n-Y\right|+|Y|\left|X_n-X\right|.\end{align*}

Par suite, $\left\{\left|X_nY_n-XY\right|\geqslant\varepsilon\right\}\subset\left\{\left|X_n-X\right|\left|Y_n-Y\right|+\left|X\right|\left|Y_n-Y\right|+|Y|\left|X_n-X\right|\geqslant\varepsilon\right\}$ puis $\left\{\left|X_nY_n-XY\right|\geqslant\varepsilon\right\}\subset\left\{\left|X_n-X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right\}\cup\left\{\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right\}\cup\left\{|Y|\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{3}\right\}$ et donc,

$$\mathbb{P}\left(\left|X_nY_n-XY\right|\geqslant\varepsilon\right)\leqslant\mathbb{P}\left(\left|X_n-X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right)+\mathbb{P}\left(\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right)+\mathbb{P}\left(|Y|\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{3}\right).$$

Soit $\varepsilon’>0$.

$\bullet$ Puisque  $\displaystyle\lim_{M\rightarrow+\infty}\mathbb{P}(|X|>M)=0$ et $\displaystyle\lim_{M\rightarrow+\infty}\mathbb{P}(|Y|>M)=0$, il existe $M>0$ tel que $\mathbb{P}(|X|>M)\leqslant\dfrac{\varepsilon’}{4}$ et $\mathbb{P}(|Y|>M)\leqslant\dfrac{\varepsilon’}{4}$. $\left\{\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right\}$ est la réunion disjointe des événements $\left\{\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right\}\cap\{|X|>M\}$ et $\left\{\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right\}\cap\{|X|\leqslant M\}$.

$\left\{\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right\}\cap\{|X|>M\}\subset\{|X|>M\}$ et donc $\mathbb{P}\left(\left\{\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right\}\cap\{|X|>M\}\right)\leqslant\mathbb{P}(|X|>M)\leqslant\dfrac{\varepsilon’}{4}$.

$\left\{\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right\}\cap\{|X|\leqslant M\}\subset\left\{\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3M}\right\}$ et donc $\mathbb{P}\left(\left\{\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right\}\cap\{|X|\leqslant M\}\right)\leqslant\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3M}\right)$ puis, pour tout $n\in\mathbb{N}$,

$$\mathbb{P}\left(\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right)\leqslant\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3M}\right)+\dfrac{\varepsilon’}{4}.$$

De même, pour tout $n\in\mathbb{N}$,

$$\mathbb{P}\left(\left|Y\right|\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{3}\right)\leqslant\mathbb{P}\left(\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{3M}\right)+\dfrac{\varepsilon’}{4},$$

et donc

$$\mathbb{P}\left(\left|X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right)+\mathbb{P}\left(\left|Y\right|\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{3}\right)\leqslant\mathbb{P}\left(\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{3M}\right)+\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3M}\right)+\dfrac{\varepsilon’}{2}.$$

$\bullet$ $\left\{\left|X_n-X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right\}\subset\left\{\left|X_n-X\right|\geqslant\sqrt{\dfrac{\varepsilon}{3}}\right\}\cup\left\{\left|Y_n-Y\right|\geqslant\sqrt{\dfrac{\varepsilon}{3}}\right\}$ puis pour tout $n\in\mathbb{N}$,

$$\mathbb{P}\left(\left|X_n-X\right|\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3}\right)\leqslant\mathbb{P}\left(\left|X_n-X\right|\geqslant\sqrt{\dfrac{\varepsilon}{3}}\right)+\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\sqrt{\dfrac{\varepsilon}{3}}\right).$$

Finalement, pour tout $n\in\mathbb{N}$,

$$\mathbb{P}\left(\left|X_nY_n-XY\right|\geqslant\varepsilon\right)\leqslant\mathbb{P}\left(\left|X_n-X\right|\geqslant\sqrt{\dfrac{\varepsilon}{3}}\right)+\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\sqrt{\dfrac{\varepsilon}{3}}\right)+\mathbb{P}\left(\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{3M}\right)+\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3M}\right)+\dfrac{\varepsilon’}{2}.$$

$\bullet$ Puisque $\displaystyle\lim_{n\rightarrow+\infty}\left(\mathbb{P}\left(\left|X_n-X\right|\geqslant\sqrt{\dfrac{\varepsilon}{3}}\right)+\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\sqrt{\dfrac{\varepsilon}{3}}\right)+\mathbb{P}\left(\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{3M}\right)+\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3M}\right)\right)=0$, il existe $n_0\in\mathbb{N}$ tel que, pour $n\geqslant n_0$, $\mathbb{P}\left(\left|X_n-X\right|\geqslant\sqrt{\dfrac{\varepsilon}{3}}\right)+\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\sqrt{\dfrac{\varepsilon}{3}}\right)+\mathbb{P}\left(\left|X_n-X\right|\geqslant\dfrac{\varepsilon}{3M}\right)+\mathbb{P}\left(\left|Y_n-Y\right|\geqslant\dfrac{\varepsilon}{3M}\right)\leqslant\dfrac{\varepsilon’}{2}$. Pour $n\geqslant n_0$, on a alors

$$\mathbb{P}\left(\left|X_nY_n-XY\right|\geqslant\varepsilon\right)\leqslant\dfrac{\varepsilon’}{2}+\dfrac{\varepsilon’}{2}=\varepsilon’.$$

On a montré que pour tout $\varepsilon>0$, $\mathbb{P}\left(\left|X_nY_n-XY\right|\geqslant\varepsilon\right)\underset{n\rightarrow+\infty}{\rightarrow}0$.

 

 

Commentaires et/ou rappels de cours

Rappelons la loi faible des grands nombres. Soit $\left(X_n\right)_{n\in\mathbb{N}^*}$ une suite de variables aléatoires réelles  discrètes deux à deux indépendantes, suivant une même loi et admettant toutes un moment d’ordre $2$. Alors, en notant $m=\mathbb{E}\left(X_1\right)$

$$\forall\varepsilon>0,\;\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}\left(\left|\dfrac{1}{n}\displaystyle\sum_{i=1}^{n}X_i-m\right|\geqslant\varepsilon\right)=0.$$

Les étapes de la démonstration sont

$\bullet$ pour tout $n\in\mathbb{N}^*$, $\mathbb{E}\left(\dfrac{1}{n}\displaystyle\sum_{i=1}^{n}X_i\right)=m$ par linéarité de l’espérance

$\bullet$ pour tout $n\in\mathbb{N}^*$, $\mathbb{V}\left(\dfrac{1}{n}\displaystyle\sum_{i=1}^{n}X_i\right)=\dfrac{\mathbb{V}\left(X_1\right)}{n}$ car les $X_i$ sont deux à deux indépendantes

$\bullet$ pour tout $n\in\mathbb{N}^*$, $\mathbb{P}\left(\left|\dfrac{1}{n}\displaystyle\sum_{i=1}^{n}X_i-m\right|\geqslant\varepsilon\right)\leqslant\dfrac{\mathbb{V}\left(X_1\right)}{n\varepsilon^2}$ d’après l’inégalité de Bienaymé-Tchebychev.

Exercice – Difficulté 2 – Thème : probabilités. Titre : étude de deux variables aléatoires

Enoncé

Toutes les variables aléatoires sont définies sur le même espace de probabilité $(\Omega,\mathbb{P})$.

Soient $X$ et $Y$ deux variables aléatoires à valeurs dans $\mathbb{N}^*$ telles que :

$\bullet$ pour tout $n\in\mathbb{N}^*$, $\mathbb{P}(Y=n)>0$,

$\bullet$ pour tout $(k,n)\in\left(\mathbb{N}^*\right)^2$,

$$\mathbb{P}_{Y=n}(X=k)=\left\{\begin{array}{l}\frac{1}{n}\;\text{si}\;k\leqslant n\\0\;\text{sinon}\end{array}\right..$$

1) (a) Soient $U$, $V$ et $W$ trois variables aléatoires à valeurs dans $\mathbb{N}^*$ telles que pour tout $(k,n)\in\left(\mathbb{N}^*\right)^2$

$$\mathbb{P}(W=n)>0\quad\text{et}\quad\mathbb{P}_{W=n}(U=k)=\mathbb{P}_{W=n}(V=k).$$

Montrer que $U$ et $V$ suivent la même loi.

(b) Montrer que les variables $X$ et $Y+1-X$ suivent la même loi.

2) On suppose que $X$ suit une loi géométrique.

Montrer que les variables $X$ et $Y+1-X$ sont indépendantes.

Corrigé

1) (a) Soit $k\in\mathbb{N}^*$. $\left(W=n\right)_{n\in\mathbb{N}^*}$ est un système complet d’événements. D’après la formule des probvabilités totales,

\begin{align*}\mathbb{P}(U=k)&=\displaystyle\sum_{n=1}^{+\infty}\mathbb{P}((U=k)\cap(W=n))=\displaystyle\sum_{n=1}^{+\infty}\mathbb{P}(W=n)\mathbb{P}_{W=n}(U=k)\\&=\displaystyle\sum_{n=1}^{+\infty}\mathbb{P}(W=n)\mathbb{P}_{W=n}(V=k)=\displaystyle\sum_{n=1}^{+\infty}\mathbb{P}((V=k)\cap(W=n))\\&=\mathbb{P}(V=k).\end{align*}

(b) On veut appliquer le résultat précédent aux variables $U=X$, $V=Y+1-X$ et $W=Y$.

Tout d’abord, pour tout $n\in\mathbb{N}^*$, $\mathbb{P}(W=n)=\mathbb{P}(Y=n)>0$. Soit alors $(k,n)\in\mathbb{N}^*$. Si on sait que $W=n$,

$$V=k\Leftrightarrow Y+1-X=k\Leftrightarrow n+1-X=k\Leftrightarrow X=n+1-k$$

et donc, $\mathbb{P}_{W=n}(V=k)=\mathbb{P}_{Y=n}(X=n+1-k)$. Maintenant, $1\leqslant k\leqslant n\Leftrightarrow 1\leqslant n+1-k\leqslant n$ et donc

$$\mathbb{P}_{W=n}(V=k)=\mathbb{P}_{Y=n}(X=n+1-k)=\mathbb{P}_{Y=n}(X=k)=\mathbb{P}_{W=n}(U=k).$$

Ainsi, $\forall(k,n)\in\left(\mathbb{N}^*\right)^2$, $\mathbb{P}_{Y=n}(Y+1-X=k)=\mathbb{P}_{Y=n}(X=k)$ et donc, d’après la question (a), les variables $X$ et $Y+1-X$ suivent la même loi.

2) On suppose que la variable $X$ suit la loi géométrique de paramètre $p\in]0 ,1[$. Donc, $X(\Omega)=\mathbb{N}^*$ et pour tout $k\in\mathbb{N}^*$, $P(X=k)=pq^{k-1}$ où $q=1-p$.

Déterminons la loi de $Y$. Soit $k\in\mathbb{N}^*$. D’après la formule des probabilités totales,

\begin{align*}\mathbb{P}(X=k)&=\displaystyle\sum_{n=1}^{+\infty}\mathbb{P}((Y=n)\cap(X=k))=\displaystyle\sum_{n=1}^{+\infty}\mathbb{P}(Y=n)\mathbb{P}_{Y=n}(X=k)\\&=\displaystyle\sum_{n=k}^{+\infty}\dfrac{\mathbb{P}(Y=n)}{n}.\end{align*}

On en déduit que pour $k\in\mathbb{N}^*$,

\begin{align*}\dfrac{\mathbb{P}(Y=k)}{k}&=\displaystyle\sum_{n=k}^{+\infty}\dfrac{\mathbb{P}(Y=n)}{n}-\displaystyle\sum_{n=k+1}^{+\infty}\dfrac{\mathbb{P}(Y=n)}{n}\\&=\mathbb{P}(X=k)-\mathbb{P}(X=k+1)\end{align*}

puis $\mathbb{P}(Y=k)=k\left(pq^{k-1}-pq^k\right)=kpq^{k-1}(1-q)=kp^2q^{k-1}$.

Soit alors $(k,\ell)\in\left(\mathbb{N}^*\right)^2$.

\begin{align*}\mathbb{P}((X=k)\cap(Y+1-X=\ell))&=\mathbb{P}((X=k)\cap(Y=k+\ell-1))=\mathbb{P}(Y=k+\ell-1)\mathbb{P}_{Y=k+\ell-1}(X=k)\\&=\dfrac{1}{k+\ell-1}\mathbb{P}(Y=k+\ell-1)\;(\text{car}\;k+\ell-1\geqslant k)\\&=p^2q^{k+\ell-2}=pq^{k-1}pq^{\ell-1}\\&=\mathbb{P}(X=k)\mathbb{P}(Y+1-X=\ell)\end{align*}

car $X$ et $Y+1-X$ suivent la même loi.

On a montré que pour tout $(k,\ell)\in\left(\mathbb{N}^*\right)^2$, $\mathbb{P}((X=k)\cap(Y+1-X=\ell))=\mathbb{P}(X=k)\times\mathbb{P}(Y+1-X=\ell)$ et donc les variables $X$ et $Y+1-X$ sont indépendantes.

Commentaires et/ou rappels de cours

Pas de commentaire particulier. 

Exercice – Difficulté 3 – Thème : probabilités. Titre : fonction zeta de Riemann et nombres premiers.

Enoncé

Soit $\alpha>1$. On note $\zeta(\alpha)=\displaystyle\sum_{n=1}^{+\infty}\dfrac{1}{n^\alpha}$. On définit une probabilité $\mathbb{P}_\alpha$ sur $\mathbb{N}^*$ par :

$$\forall n\in\mathbb{N}^*,\;\mathbb{P}_\alpha(\{n\})=\dfrac{1}{\zeta(\alpha)n^\alpha}.$$

1) Calculer $\mathbb{P}_\alpha\left(m\mathbb{N}^*\right)$ pour $m\geqslant1$.

2) On note $\left(p_k\right)_{k\geqslant1}$ la suite strictement croissante des nombres premiers. Démontrer que les événements $p_k\mathbb{N}^*$, $k\in\mathbb{N}^*$, sont mutuellement indépendants.

3) En déduire la formule d’Euler :

$$\zeta(\alpha)=\displaystyle\prod_{k=1}^{+\infty}\left(1-\dfrac{1}{p_k^\alpha}\right)^{-1}.$$

Corrigé

1) Soit $m\in\mathbb{N}^*$.

\begin{align*}\mathbb{P}_\alpha\left(m\mathbb{N}^* \right)&=\displaystyle\sum_{k=1}^{+\infty}\mathbb{P}_\alpha(\{km\})=\dfrac{1}{\zeta(\alpha)}\displaystyle\sum_{k=1}^{+\infty}\dfrac{1}{(km)^\alpha}=\dfrac{1}{m^\alpha}\times\dfrac{1}{\zeta(\alpha)}\displaystyle\sum_{k=1}^{+\infty}\dfrac{1}{k^\alpha}\\&=\dfrac{1}{m^\alpha}.\end{align*}

Donc, pour tout $m\in\mathbb{N}^*$, $\mathbb{P}_\alpha\left(m\mathbb{N}^*\right)=\dfrac{1}{m^\alpha}$.

2) Soient $k\geqslant2$ puis $\left(i_1,\ldots,i_k\right)\in\left(\mathbb{N}^*\right)^k$ tel que $i_1<i_2<\ldots<i_k$.

Un entier $m\in\mathbb{N}^*$ est dans $\left(p_{i_1}\mathbb{N}^*\right)\cap\ldots\left(p_{i_k}\mathbb{N}^*\right)$ si et seulement si $m$ est multiple de $p_{i_1}$, de $p_{i_2}$, $\ldots$ et de $p_{i_k}$ ce qui équivaut au fait que $m$ est multiple de $p_{i_1}\times\ldots\times p_{i_k}$ car les $p_{i_j}$ sont des nombres premiers deux à deus distincts. Donc,

\begin{align*}\mathbb{P}_\alpha\left(\left(p_{i_1}\mathbb{N}^*\right)\cap\ldots\left(p_{i_k}\mathbb{N}^*\right)\right)&=\mathbb{P}_\alpha\left(\left(p_{i_1}\ldots p_{i_k}\right)\mathbb{N}^*\right)\\&=\dfrac{1}{\left(p_{i_1}\ldots p_{i_k}\right)^\alpha}\;(\text{d’après 1)})\\&=\dfrac{1}{p_{i_1}^\alpha}\times\ldots\times\dfrac{1}{p_{i_k}^\alpha}\\&=\mathbb{P}_\alpha\left(p_{i_1}\mathbb{N}^*\right)\times\ldots\times\mathbb{P}_\alpha\left(p_{i_k}\mathbb{N}^*\right).\end{align*}

Ceci montre que les événements $p_k\mathbb{N}^*$, $k\in\mathbb{N}^*$, sont indépendants.

3) Pour $n\in\mathbb{N}^*$, soit $A_n=\displaystyle\bigcup_{k=1}^{n}p_k\mathbb {N}^*$. $A_n$ est l’ensemble des entiers naturels non nuls qui sont divisibles par au moins un des nombres premiers $p_1$, $\ldots$ , $p_n$, puis $\overline{A_n}$ est l’ensemble des entiers naturels non nuls qui ne sont divisibles par aucun des nombres premiers $p_1$, $\ldots$ , $p_n$.

La suite $\left(\overline{A_n}\right)_{n\in\mathbb{N}^*}$ est une suite d’événements décroissante pour l’inclusion et de plus, $\displaystyle\bigcap_{n\in\mathbb{N}^*}\overline{A_n}$ est l’ensemble des entiers naturels non nuls qui ne sont divisibles par aucun nombre premier. Donc, $\displaystyle\bigcap_{n\in\mathbb{N}^*}\overline{A_n}=\{1\}$ puis

$$\mathbb{P}_\alpha\left(\displaystyle\bigcap_{n\in\mathbb{N}^*}\overline{A_n}\right)=\mathbb{P}_\alpha(\{1\})=\dfrac{1}{\zeta(\alpha)}.$$

Mais alors, par continuité décroissante,

\begin{align*}\dfrac{1}{\zeta(\alpha)}&=\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}_\alpha\left(\overline{A_n}\right)=\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}_\alpha\left(\displaystyle\bigcap_{k=1}^{n}\overline{p_k\mathbb {N}^*}\right)\\&=\displaystyle\lim_{n\rightarrow+\infty}\displaystyle\prod_{k=1}^{n}\mathbb{P}_\alpha\left(\overline{p_k\mathbb{N}^*}\right)\;(\text{les événements}\;p_k\mathbb{N}^*\;\text{sont indépendants et donc les événements}\;\overline{p_k\mathbb{N}^*}\;\text{sont indépendants})\\&=\displaystyle\lim_{n\rightarrow+\infty}\displaystyle\prod_{k=1}^{n}\left(1-\mathbb{P}_\alpha\left(p_k\mathbb{N}^*\right)\right)\\&=\displaystyle\lim_{n\rightarrow+\infty}\displaystyle\prod_{k=1}^{n}\left(1-\dfrac{1}{p_k^\alpha}\right).\end{align*}

En inversant, on obtient

$$\zeta(\alpha)=\displaystyle\lim_{n\rightarrow+\infty}\displaystyle\prod_{k=1}^{n}\left(1-\dfrac{1}{p_k^\alpha}\right)^{-1}=\displaystyle\prod_{k=1}^{+\infty}\left(1-\dfrac{1}{p_k^\alpha}\right)^{-1}.$$

Commentaires et/ou rappels de cours

$\bullet$ A partir de cette formule et après avoir établi que $\displaystyle\prod_{k=1}^{+\infty}\left(1-\dfrac{1}{p_k}\right)^{-1}=\displaystyle\sum_{n=1}^{+\infty}\dfrac{1}{n}=+\infty$, on peut poursuivre en établissant que  $\displaystyle\sum_{k=1}^{+\infty}\dfrac{1}{p_k}=+\infty$.

$\bullet$ Rappelons la continuité décroissante : soit $\left(A_n\right)_{n\in\mathbb{N}}$ une suite d’événements décroissante pour l’inclusion. La suite $\left(\mathbb{P}\left(A_n\right)\right)_{n\in\mathbb{N}}$ converge et de plus

$$\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}\left(A_n\right)=\mathbb{P}\left(\displaystyle\underset{k\in\mathbb{N}}{\bigcap}A_k\right).$$

Exercice – Difficulté 1 – Thème : probabilités. Titre : diagonalisabilité d’une matrice aléatoire.

Enoncé

Soient $X_1$ et $X_2$ deux variables aléatoires indépendantes qui suivent une loi géométrique de paramètre $p\in]0,1[$. On définit la matrice aléatoire

$$A=\begin{pmatrix}X_1&1\\0&X_2\end{pmatrix}.$$

Quelle est la probabilité que $A$ soit diagonalisable ?

Corrigé

$\bullet$ $X_1(\Omega)=X_2(\Omega)=\mathbb{N}^*$ et pour tout $k\in\mathbb{N}^*$, $\mathbb{P}\left(X_1=k\right)=\mathbb{P}\left(X_2=k\right)=pq^{k-1}$ où $q=1-p$.

$\bullet$ Si $X_1\neq X_2$, $\chi_A$ est scindé sur $\mathbb{R}$ à racines simples et donc $A$ est diagonalisable.

Si $X_1=X_2$ et si par l’absurde $A$ est diagonalisable, $A$ est semblable à $X_1I_2$ et donc égale à $X_1I_2$ ce qui est faux. Donc, si $X_1=X_2$, $A$ n’est pas diagonalisable.

En résumé, $A$ est diagonalisable si et seulement si $X_1\neq X_2$.

$\bullet$ La probabilité demandée est donc $\mathbb{P}\left(X_1\neq X_2\right)=1-\mathbb{P}\left(X_1=X_2\right)$. Or,

\begin{align*}\mathbb{P}\left(X_1=X_2\right)&=\displaystyle\sum_{k=1}^{+\infty}\mathbb{P}\left(\left\{X_1=k\right\}\cap\left\{X_2=k\right\}\right)\\&=\displaystyle\sum_{k=1}^{+\infty}\mathbb{P}\left(X_1=k\right)\times\mathbb{P}\left(X_2=k\right)\;(\text{par indépendance})\\&=\displaystyle\sum_{k=1}^{+\infty}\left(pq^{k-1}\right)^2=\dfrac{p^2}{1-q^2}\\&=\dfrac{p}{2-p}.\end{align*}

Mais alors,

$$\mathbb{P}\left(X_1\neq X_2\right)=1-\dfrac{p}{2-p}=\dfrac{2(1-p)}{2-p}.$$

Commentaires et/ou rappels de cours

 Pas de commentaire particulier.

Exercice – Difficulté 3 – Thème : probabilités. Titre : tirages dans une urne.

Enoncé

Une urne contient $a>0$ boules vertes et $b>0$ boules rouges. On pose $N=a+b$.

On réalise des tirages successifs en suivant le protocole suivant : si on tire une boule rouge, on la remet dans l’urne et si on tire une boule verte, on la remplace par une boule rouge.

Pour $k\geqslant1$, on note $T_k$ la variable aléatoire à $1$ si le $k$-ème tirage donne une boule verte et $0$ si le $k$-ème tirage donne une boule rouge.

On note aussi $X_k$ la variable aléatoire égale au nombre de boules vertes tirées lors des $k$ premiers tirages.

1) Déterminer la loi de $T_1$ et la loi de $T_2$.

2) Soit $n\in\mathbb{N}^*$. Montrer que :

$$\mathbb{P}\left(T_{n+1}=1\right)=\dfrac{a-\mathbb{E}\left(X_n\right)}{N}.$$

En déduire que

$$\mathbb{P}\left(T_n=1\right)=a\dfrac{(N-1)^{n-1}}{N^n}.$$

3) Calculer $\mathbb{E}\left(X_n\right)$ puis déterminer sa limite.

Corrigé

1) $T_1$ suit la loi de Bernoulli de paramètre $\dfrac{a}{N}$ :

$$\mathbb{P}\left(T_1=1\right)=\dfrac{a}{N}\quad\text{et}\quad\mathbb{P}\left(T_1=0\right)=\dfrac{b}{N}.$$

Ensuite, $\left(T_1=i\right)_{0\leqslant i\leqslant 1}$ est un système complet d’événement. D’après la formule des probabilités totales,

\begin{align*}\mathbb{P}\left(T_2=1\right)&=\mathbb{P}\left(T_1=1\right)\mathbb{P}_{T_1=1}\left(T_2=1\right)+\mathbb{P}\left(T_1=0\right)\mathbb{P}_{T_1=0}\left(T_2=1\right)\\&=\dfrac{a}{N}\times\dfrac{a-1}{N}+\dfrac{b}{N}\times\dfrac{a}{N}=\dfrac{a}{N}\times\dfrac{a+b-1}{N}=\dfrac{a(N-1)}{N^2},\end{align*}

et donc aussi

$$\mathbb{P}\left(T_2=0\right)=1-\dfrac{a(N-1)}{N^2}.$$

2) $X_n(\Omega)\subset\{0,1,\ldots,a\}$ puis $\left(X_n=k\right)_{0\leqslant k\leqslant a}$ est une partition de $\Omega$. Avec la convention usuelle du programme (si $P(A)=0$, alors $P(A)\times P_A(B)=0$),

\begin{align*}\mathbb{P}\left(T_{n+1}=1\right)&=\displaystyle\sum_{k=0}^{a}\mathbb{P}\left(X_n=k\right)\mathbb{P}_{X_n=k}\left(T_{n+1}=1\right)=\displaystyle\sum_{k=0}^{a}\dfrac{a-k}{N}\mathbb{P}\left(X_n=k\right)\\&=\dfrac{a}{N}\displaystyle\sum_{k=0}^{a}\mathbb{P}\left(X_n=k\right)-\dfrac{1}{N}\displaystyle\sum_{k=0}^{a}k\mathbb{P}\left(X_n=k\right)\\&=\dfrac{a}{N}-\dfrac{1}{N}\mathbb{E}\left(X_n\right)=\dfrac{a-\mathbb{E}\left(X_n\right)}{N}.\end{align*}

Ainsi, pour tout $n\geqslant1$, $\mathbb{P}\left(T_{n+1}=1\right)=\dfrac{a-\mathbb{E}\left(X_n\right)}{N}$ puis pour tout $n\geqslant 2$,

\begin{align*}\mathbb{P}\left(T_{n+1}=1\right)-\mathbb{P}\left(T_n=1\right)&=\dfrac{a-\mathbb{E}\left(X_n\right)}{N}-\dfrac{a-\mathbb{E}\left(X_{n-1}\right)}{N}\\&=-\dfrac{\mathbb{E}\left(X_n-X_{n-1}\right)}{N}\;(\text{par linéarité de l’espérance})\\&=-\dfrac{\mathbb{E}\left(T_n\right)}{N}\\&=-\dfrac{\mathbb{P}\left(T_n=1\right)}{N}\;(\text{car}\;T_n\;\text{suit une loi de Bernoulli}).\end{align*}

Mais alors, pour tout $n\geqslant2$, $\mathbb{P}\left(T_{n+1}=1\right)=\left(1-\dfrac{1}{N}\right)\mathbb{P}\left(T_n=1\right)=\dfrac{N-1}{N}\mathbb{P}\left(T_n=1\right)$.

La suite $\left(\mathbb{P}\left(T_n=1\right)\right)_{n\geqslant1}$ est géométrique de premier terme $\dfrac{a}{N}$ et de raison $\dfrac{N-1}{N}$. Donc,

$$\forall n\geqslant1,\;\mathbb{P}\left(T_n=1\right)=\dfrac{a}{N}\left(\dfrac{N-1}{N}\right)^{n-1}=\dfrac{a(N-1)^{n-1}}{N^n}.$$

3) Soit $n\geqslant1$.

\begin{align*}\mathbb{E}\left(X_n\right)&=a-N\mathbb{P}\left(T_{n+1}=1\right)\\&=a-a\left(\dfrac{N-1}{N}\right)^n.\end{align*}

Puisque $\dfrac{N-1}{N}\in]-1,1[$, $\displaystyle\lim_{n\rightarrow+\infty}\mathbb{E}\left(X_n\right)=a$.

Commentaires et/ou rappels de cours

Pas de commentaire particulier. 

Exercice – Difficulté 1 – Thème : probabilités. Titre : autour de la loi de Poisson.

Enoncé

Soit $X$ une variable aléatoire de loi $\mathscr{P}(\lambda)$ (où $\lambda>0$).

Montrer que $\mathscr{P}(X\geqslant\lambda+1) \leqslant\lambda$ et $\mathbb{P}\left(X\leqslant\dfrac{\lambda}{3}\right)\leqslant\dfrac{9}{4\lambda}$.

Corrigé

$\bullet$ On sait que $\mathbb{E}(X)=\lambda$ et $\mathbb{V}(X)=\lambda$.

$\bullet$ $\{X\geqslant\lambda+1\}=\{X-\mathbb{E}(X)\geqslant1\}\subset\{|X-\mathbb{E}(X)|\geqslant1\}$. D’après l’inégalité de Bienaymé-Tchebychev, on a

$$\mathbb{P}(X\geqslant\lambda+1)\leqslant\mathbb{P}(|X-\mathbb{E}(X)|\geqslant1)\leqslant\dfrac{\mathbb{V}(X)}{1^2}=\lambda.$$

$\bullet$ De même, $\left\{X\leqslant\dfrac{\lambda}{3}\right\}=\left\{X-\mathbb{E}(X)\leqslant-\dfrac{2\lambda}{3}\right\}\subset\left\{|X-\mathbb{E}(X)|\geqslant\dfrac{2\lambda}{3}\right\}$. D’après l’inégalité de Bienaymé-Tchebychev, on a

$$\mathbb{P}\left(X\leqslant\dfrac{\lambda}{3}\right)\leqslant\mathbb{P}\left(|X-\mathbb{E}(X)|\geqslant\dfrac{2\lambda}{3}\right)\leqslant\dfrac{\mathbb{V}(X)}{\left(\frac{2\lambda}{3}\right)^2}=\dfrac{9}{4\lambda}.$$

Commentaires et/ou rappels de cours

 Pas de commentaire particulier.

Exercice – Difficulté 2 – Thème : probabilités. Titre : un couple de variables aléatoires.

Enoncé

Soient $X_1$ et $X_2$ deux variables aléatoires à valeurs dans $\mathbb{R}^{+*}$, indépendantes et de même loi.

 Soient $Y_1=\dfrac{X_1}{X_1+X_2}$ et $Y_2=\dfrac{X_2}{X_1+X_2}$.

Montrer que $Y_1$ a une espérance et une variance puis calculer $\mathbb{E}\left(Y_1\right)$.

Montrer que $\text{cov}\left(Y_1,Y_2\right)=-\mathbb{V}\left(Y_1\right)$.

Corrigé

$\bullet$ Puisque $X_1$ et $X_2$ sont à valeurs réelles strictement positives, $0<\dfrac{X_1}{X_1+X_2}<\dfrac{X_1+X_2}{X_1+X_2}=1$ puis $0<Y_1<1$ et donc $Y_1^2\leqslant1$. La variable $Y_1^2$ est bornée et  admet donc une espérance.

Ainsi, la variable $Y_1$ admet un moment d’ordre $2$ et on sait alors que la variable $Y_1$ admet une espérance et une variance.

$\bullet$ Vérifions que les variables $Y_1$ et $Y_2$ ont la même espérance. Pour tout $(a,b)\in \left(X_1,X_2\right)(\Omega)$, par indépendance des variables $X_1$ et $X_2$,

\begin{align*}\mathbb{P}\left(X_1=a,X_2=b\right)&=\mathbb{P}\left(X_1=a\right)\mathbb{P}\left(X_2=b\right)=\mathbb{P}\left(X_2=a\right)\mathbb{P}\left(X_1=b\right)\\&=\mathbb{P}\left(X_1=b,X_2=a\right),\end{align*}

puis, d’après la formule de transfert,

\begin{align*}\mathbb{E}\left(Y_1\right)&=\displaystyle\sum_{(a,b)\in\left(X_1,X_2\right)(\Omega)}\dfrac{a}{a+b}\mathbb{P}\left(X_1=a,X_2=b\right)\\&=\displaystyle\sum_{(b’,a’)\in\left(X_1,X_2\right)(\Omega)}\dfrac{b’}{a’+b’}\mathbb{P}\left(X_1=b’,X_2=a’\right)\;(\text{en posant}\;(b’,a’)=(a,b))\\&=\displaystyle\sum_{(b’,a’)\in\left(X_1,X_2\right)(\Omega)}\dfrac{b’}{a’+b’}\mathbb{P}\left(X_1=a’,X_2=b’\right)\\&=\mathbb{E}\left(Y_2\right).\end{align*}

Mais alors,

$$2\mathbb{E}\left(Y_1\right)=\mathbb{E}\left(Y_1\right)+\mathbb{E}\left(Y_2\right)=\mathbb{E}\left(Y_1+Y_2\right)=\mathbb{E}(1)=1.$$

Donc, $\mathbb{E}\left(Y_1\right)=\dfrac{1}{2}=\mathbb{E}\left(Y_2\right)$.

$\bullet$

\begin{align*}\text{cov}\left(Y_1,Y_2\right)&=\mathbb{E}\left(Y_1Y_2\right)-\mathbb{E}\left(Y_1\right)\mathbb{E}\left(Y_2\right)\\&=\mathbb{E}\left(Y_1\left(1-Y_1\right)\right)-\dfrac{1}{4}=-\mathbb{E}\left(Y_1^2\right)+\mathbb{E}\left(Y_1\right)-\dfrac{1}{4}\\&=-\left(\mathbb{E}\left(Y_1^2\right)-\dfrac{1}{4}\right)=-\left(\mathbb{E}\left(Y_1^2\right)-\left(\mathbb{E}\left(Y_1\right)\right)^2\right)\\&=-\mathbb{V}\left(Y_1\right).\end{align*}

Commentaires et/ou rappels de cours

On rappelle que si une variable aléatoire $X$ admet un moment d’ordre 2 ($\mathbb{E}\left(X^2\right)<+\infty$), alors la variable $X$ admet une espérance et une variance.

Exercice – Difficulté 3 – Thème : variables aléatoires. Titre : calcul de l’espérance de S_n^4 pour établir une identité combinatoire.

Enoncé

Soit $\left(Y_n\right)_{n\in\mathbb{N}^*}$ une suite de variables aléatoires mutuellement indépendantes suivant la loi uniforme sur $\{-1,1\}$.

On pose $S_n=\displaystyle\sum_{k=1}^{n}Y_k$. Calculer de deux manières l’espérance de $S_n^4$.

Corrigé

Tout d’abord, pour tout $k\in\mathbb{N}^*$, $\mathbb{P}\left(Y_k=-1\right)=\mathbb{P}\left(Y_k=1\right)=\dfrac{1}{2}$ et $\mathbb{E}\left(Y_k\right)=0$.

1ère méthode. Pour tout $\omega\in\Omega$, notons $i(\omega)\in\{0,1,\ldots,n\}$ le nombre de termes $Y_k(\omega)$, $1\leqslant k\leqslant n$, prenant la valeur $1$. Il y a donc $n-i(\omega)$ termes prenant la valeur $-1$ puis $S_n(\omega)=(n-i(\omega))\times(-1)+i(\omega)\times1=2i(\omega)-n$. Par suite, $S_n(\Omega)=\{2k-n,\;k\in\{0,1,\ldots,n\}\}=\{-n,-(n-2),\ldots,n-2,n\}$.

D’après la formule de transfert,

$$\mathbb{E}\left(S_n^4\right)=\displaystyle\sum_{k=0}^{n}(2k-n)^4\mathbb{P}\left(S_n=2k-n\right).$$

Ensuite, pour $k\in\{0,\ldots,n\}$ donné, $S_n=2k-n$ si et seulement si $k$ des variables $Y$ sont égales à $1$ et les autres sont égales à $-1$. Puisque les variables $Y$ sont indépendantes, la probabibilité que $k$ précises d’entre elles soient égales à $1$ et les autres à $-1$, est $\dfrac{1}{2^k}\times\dfrac {1}{2^{n-k}}=\dfrac{1}{2^n}$. Maintenant, il y a $\dbinom{n}{k}$ choix possibles des $k$ variables égales à $1$ parmi les $n$ variables et donc $\mathbb{P}\left(S_n=2k-n\right)=\dfrac{1}{2^n}\dbinom{n}{k}$. On en déduit que

$$\mathbb{E}\left(S_n^4\right)=\dfrac{1}{2^n}\displaystyle\sum_{k=0}^{n}\dbinom{n}{k}(2k-n)^4.$$

2ème méthode. Par linéarité de l’espérance,

$$\mathbb{E}\left(S_n^4\right)=\mathbb{E}\left(\left(\displaystyle\sum_{k=1}^{n}Y_k\right)^4\right)=\displaystyle\sum_{(i,j,k,\ell)\in\{1,\ldots,n\}^4}\mathbb{E}\left(Y_iY_jY_kY_\ell\right).$$

Dans cette somme, si la variable $Y_i$ par exemple, est distincte des trois autres, d’après le lemme des coalitions, les variables $Y_i$ et $Y_jY_kY_\ell$ sont indépendantes, alors $\mathbb{E}\left(Y_iY_jY_kY_\ell\right)=\mathbb{E}\left(Y_i\right)\mathbb{E}\left(Y_jY_kY_\ell\right)=0$. Il reste donc

$$\mathbb{E}\left(S_n^4\right)=\displaystyle\sum_{k=1}^{n}\mathbb{E}\left(Y_k^4\right)=\displaystyle\sum_{k=1}^{n}\mathbb{E}\left(1\right)=n.$$

On a donc montré que pour tout $n\in\mathbb{N}^*$, $\dfrac{1}{2^n}\displaystyle\sum_{k=0}^{n}\dbinom{n}{k}(2k-n)^4=n$.

Commentaires et/ou rappels de cours

On rappelle que si $X$ et $Y$ sont deux variables indépendantes admettant un moment d’ordre $2$, alors $X$, $Y$ et $XY$ admettent une espérance et de plus $\mathbb{E}(XY)=\mathbb{E}(X)\mathbb{E}(Y)$. Mais la réciproque est fausse (il est possible d’avoir $\mathbb{E}(XY)=\mathbb{E}(X)\mathbb{E}(Y)$ (ou encore $\text{cov}(X,Y)=0$) sans que les variables $X$ et $Y$ soient indépendantes).