Exercices d’oraux type CCINP
retour vers la page des exercices d’oraux
PROBABILITES
Exercice – Difficulté 2 – Thème : variables aléatoires. Titre : probabilité qu’une matrice aléatoire soit diagonalisable.
Enoncé (CCINP)
Soient $X_1$ et $X_2$ des variables aléatoires indépendantes, suivant chacune une loi binomiale de paramètres $n$ et $\dfrac{1}{2}$, définies sur un espace probabilisé (\Omega,\mathscr{A},\mathbb{P})$.
Soit $M$ la matrice définie par :
$$\forall\omega\in\Omega,\;M(\omega)=\begin{pmatrix}X_1(\omega)&1\\0&X_2(\omega)\end{pmatrix}.$$
1) En développant le polynôme $(1+X)^{2n}$, montrer que :
$$\displaystyle\sum_{k=0}^{n}\dbinom{n}{k}^2=\dbinom{2n}{n}.$$
2) Exprimez la probabilité que $M$ soit diagonalisable.
3) Limite de cette probabilité quand $n$ tend vers $+\infty$ ?
Corrigé
1) $\dbinom{2n}{n}$ est le coefficient de $X^n$ dans le développement de $(1+X)^{2n}$. D’autre part,
$$(1+X)^{2n}=(1+X)^n(1+X)^n=\left(\displaystyle\sum_{k=0}^{n}\dbinom{n}{k}X^k\right)\left(\displaystyle\sum_{\ell=0}^{n}\dbinom{n}{\ell}X^\ell\right).$$
Le coefficient de $X^n$ dans le développement de $(1+X)^{2n}$ est donc aussi $\displaystyle\sum_{k=0}^{n}\dbinom{n}{k}\dbinom{n}{n-k}$ ou encore $\displaystyle\sum_{k=0}^{n}\dbinom{n}{k}^2$. Par unicité des coefficients d’un polynôme,
$$\displaystyle\sum_{k=0}^{n}\dbinom{n}{k}^2=\dbinom{2n}{n}.$$
2) Si $X_1\neq X_2$, $\chi_M$ est à racines simples dans $\mathbb{R}$ et donc $M$ est diagonalisable dans $\mathscr{M}_2(\mathbb{R})$.
Si $X_1=X_2$, alors $\text{Sp}(M)=\left(X_1,X_1\right)$ et si par l’absurde $M$ est diagonalisable, alors $M$ est semblable à $X_1I_2$ et donc égale à $X_1I_2$, ce qui est faux. Donc, $M$ n’est pas diagonalisable dans ce cas.
En résumé, $M$ est diagonalisable si et seulement si $X_1\neq X_2$. Or
\begin{align*}\mathbb{P}\left(X_1=X_2\right)&=\displaystyle\sum_{k=0}^{n}\mathbb{P}\left(\left\{X_1=k\right\}\cap\left\{X_2=k\right\}\right)\\&=\displaystyle\sum_{k=0}^{n}\mathbb{P}\left(X_1=k\right)\times\mathbb{P}\left(X_2=k\right)\;(\text{car les variables}\;X_1\;\text{et}\;X_2\;\text{sont indépendantes})\\&=\displaystyle\sum_{k=0}^{n}\left(\dbinom{n}{k}\dfrac{1}{2^n}\right)^2=\dfrac{1}{2^{2n}}\displaystyle\sum_{k=0}^{n}\dbinom{n}{k}^2\\&=\dfrac{\binom{2n}{n}}{2^{2n}}.\end{align*}
Mais alors, la probabilité demandée est $\mathbb{P}\left(X_1\neq X_2\right)=1-\dfrac{\binom{2n}{n}}{2^{2n}}$.
3) D’après la formule de Stirling,
$$\dfrac{\binom{2n}{n}}{2^{2n}}=\dfrac{1}{2^{2n}}\dfrac{(2n)!}{n!^2}\underset{n\rightarrow+\infty}{\sim}\dfrac{1}{2^{2n}}\left(\dfrac{2n}{e}\right)^{2n}\sqrt{4\pi n}\left(\dfrac{e}{n}\right)^{2n}\dfrac{1}{2\pi n}=\dfrac{1}{\sqrt{n\pi}}.$$
On en déduit que $\displaystyle\lim_{n\rightarrow+\infty}\dfrac{\binom{2n}{n}}{2^{2n}}=0$ puis que
$$\displaystyle\lim_{n\rightarrow+\infty}\mathbb{P}\left(X_1\neq X_2\right)=1.$$
Commentaires et/ou rappels de cours
Pas de commentaire particulier.
Exercice – Difficulté 2 – Thème : variables aléatoires. Titre : minimum et maximum d’un couple de variables.
Enoncé (Mines Télécom)
Soient $X$ et $Y$ deux variables aléatoires indépendantes suivant une loiu géométrique de paramètre $p\in]0,1[$. Soient $U=\text{Min}(X,Y)$ et $V=\text{Max}(X,Y)$.
1) Déterminer $\mathbb{P}(X\geqslant n)$ et $\mathbb{P}(X\leqslant n)$.
2) Donner la loi de $U$ et $V$.
Corrigé
1) $X(\Omega)=\mathbb{N}^*$ et pour tout $k\in\mathbb{N}^*$, $\mathbb{P}(X=k)=p(1-p)^{k-1}$. Soit $n\geqslant1$.
$$\mathbb{P}(X\geqslant n)=\displaystyle\sum_{k=n}^{+\infty}\mathbb{P}(X=k)=\displaystyle\sum_{k=n}^{+\infty}p(1-p)^{k-1}=p(1-p)^{n-1}\times\dfrac{1}{1-(1-p)}=(1-p)^{n-1}$$
puis
$$\mathbb{P}(X\leqslant n)=\mathbb{P}(X=n)+\mathbb{P}(X<n)=p(1-p)^{n-1}+1-(1-p)^{n-1}=1-(1-p)^n.$$
De même, pour tout $n\in\mathbb{N}^*$, $\mathbb{P}(Y\geqslant n)=(1-p)^{n-1}$ et $\mathbb{P}(Y\leqslant n)=1-(1-p)^{n}$.
2) $\bullet$ $U(\Omega)\subset\mathbb{N}^*$. Soit $n\in\mathbb{N}^*$. $\{U\geqslant n\}=\{X\geqslant n\}\cap\{Y\geqslant n\}$ puis
\begin{align*}\mathbb{P}(U\geqslant n)&=\mathbb{P}(\{X\geqslant n\}\cap\{Y\geqslant n\})=\mathbb{P}(X\geqslant n)\times\mathbb{P}(Y\geqslant n)\;(\text{car}\;X\;\text{et}\;Y\;\text{sont indépendantes})\\&=(\mathbb{P}(X\geqslant n))^2=(1-p)^{2n-2}\end{align*}
Soit $n\in\mathbb{N}^*$. $\{U\geqslant n+1\}\subset\{U\geqslant n\}$ et donc
$$\mathbb{P}(U=n)=\mathbb{P}(\{U\geqslant n\}\setminus\{U\geqslant n+1\})=\mathbb{P}(U\geqslant n)-\mathbb{P}(U\geqslant n+1)=(1-p)^{2n-2}-(1-p)^{2n}=\left(1-(1-p)^2\right)\left((1-p)^2\right)^{n-1}.$$
La variable $U$ suit la loi géométrique de paramètre $p’=1-(1-p)^2\in]0,1[$.
$\bullet$ $V(\Omega)\subset\mathbb{N}^*$. Soit $n\in\mathbb{N}^*$. $\{V\leqslant n\}=\{X\leqslant n\}\cap\{Y\leqslant n\}$ puis
\begin{align*}\mathbb{P}(V\leqslant n)&=\mathbb{P}(X\leqslant n)\times\mathbb{P}(Y\leqslant n)=(\mathbb{P}(X\leqslant n))^2=\left(1-(1-p)^{n}\right)^2.\end{align*}
Ensuite, pour $n\in\mathbb{N}^*$,
\begin{align*}\mathbb{P}(V=n)&=\mathbb{P}(V\leqslant n)-\mathbb{P}(V\leqslant n-1)=\left(1-(1-p)^{n}\right)^2-\left(1-(1-p)^{n-1}\right)^2=\left((1-p)^{n-1}-(1-p)^{n}\right)\left(2-(1-p)^{n-1}-(1-p)^{n}\right)\\&=p(1-p)^{n-1}\left(2-(2-p)(1-p)^{n-1}\right).\end{align*}
Commentaires et/ou rappels de cours
La technique se généralise à $U=\text{Max)\left(X_1,\ldots,X_k\right)$ : $\{U\geqslant k\}=\displaystyle\bigcap_{i=1}^{k}\left\{X_i\geqslant n\right\}$.
Exercice – Difficulté 2 – Thème : variables aléatoires. Titre : on lance une pièce puis on ajoute ou on retire une boule dans une urne.
Enoncé (Mines Télécom)
On dispose initialement d’une urne constituée d’une boule blanche et d’une pièce de monnaie équilibrée. On effectue des lancers de la pièce selon la règle suivante :
$\bullet$ si on obtient « Face », on ajoute une boule noire dans l’urne,
$\bullet$ si on obtient « Pile », on tire une boule de l’urne et on arrête l’expérience.
On note $X$ la variable aléatoire donnant le nombre de lancers de la pièce.
1) Quelle est la loi de $X$ ?
2) Quelle est la probabilité d’obtenir une boule blanche à la fin de l’expérience ?
Corrigé
1) En ce qui concerne la loi de $X$ et donc les lancers de pièce, on reconnaît la modélisation de la loi géométrique de paramètre $\dfrac{1}{2}$ : $X(\Omega)=\mathbb{N}^*$ et pour tout $n\in\mathbb{N}^*$, $\mathbb{P}(X=n)=\dfrac{1}{2^{n-1}}\times\dfrac {1}{2}=\dfrac{1}{2^n}$ (sans oublier $\mathbb{P}(X=\infty)=0$, ce qui permet d’ommettre le cas où $X=\infty$).
2) On note $B$ l’événement « on obtient une boule blanche à la fin du porcessus ». $\left(\{X=n\}\right)_{n\in\mathbb{N}^*}$ est un système complet d’événements. Si $X=n\in\mathbb{N}^*$, à la fin de l’expérience, on tire une boule dans une urne qui contient $n$ boules dont $1$ est blanche et $n-1$ sont noires. D’après la formule des probabilités totales,
$$\mathbb{P}(B)=\displaystyle\sum_{n=1}^{+\infty}\mathbb{P}(X=n)\times\mathbb{P}_{X=n}(B)=\displaystyle\sum_{n=1}^{+\infty}\dfrac{1}{n2^n}=-\ln\left(1-\dfrac{1}{2}\right)=\ln(2).$$
La probabilité d’obtenir une boule blanche à la fin de l’expérience est $\ln(2)=0,693\ldots$
Commentaires et/ou rappels de cours
On rappelle que pour tout $x\in]-1,1[$, $\displaystyle\sum_{n=1}^{+\infty}(-1)^{n-1}\dfrac{x^n}{n}=\ln(1+x)$ et $\displaystyle\sum_{n=1}^{+\infty}\dfrac{x^n}{n}=-\ln(1-x)$.
Exercice – Difficulté 2 – Thème : variables aléatoires. Titre : produit d’une variable suivant une loi de Bernoulli par une variable suivant une loi de Poisson.
Enoncé (Mines Télécom)
Soient $X$ une variable aléatoire suivant une loi de Bernoulli et $Y$ une variable aléatoire suivant une loi de Poisson, avec $X$ et $Y$ indépendantes. Soit $Z=XY$.
1) Déterminer $E(Z)$.
2) Quelle est la loi de $Z$ ?
3) Quelle est la variance de $Z$ ?
Corrigé
1) $X(\Omega)=\{0,1\}$ et il existe $p\in]0,1[$ tel que $\mathbb{P}(X=1)=p$. On sait de plus que $\mathbb{E}(X)=p$.
$Y(\Omega)=\mathbb{N}$ et il existe $\lambda>0$ tel que pour tout $n\in\mathbb{N}$, $\mathbb{P}(Y=n)=\dfrac{\lambda^ne^{-\lambda}}{n!}$. On sait de plus que $\mathbb{E}(Y)=\lambda$ et $\mathbb{V}(Y)=\lambda$.
Les variables $X$ et $Y$ étant indéprendantes, on en déduit que $\mathbb{E}(Z)=\mathbb{E}(XY)=\mathbb{E}(X)\mathbb{E}(Y)=p\lambda$.
2) $Z(\Omega)=\{kn,\;k\in\{0,1\},\;n\in\mathbb{N}\}=\mathbb{N}$. Soit $n\in\mathbb{N}^*$. D’après la formule des probabilités totales,
\begin{align*}\mathbb{P}(Z=n)=\mathbb{P}(X=0)\times \mathbb{P}_{X=0}(XY=n)+\mathbb{P}(X=1)\times \mathbb{P}_{X=1}(XY=n)=0+p\times\mathbb{P}(Y=n)=\dfrac{p\lambda^ne^{-\lambda}}{n!}.\end{align*}
De même,
\begin{align*}\mathbb{P}(Z=0)=\mathbb{P}(X=0)\times \mathbb{P}_{X=0}(XY=0)+\mathbb{P}(X=1)\times \mathbb{P}_{X=1}(XY=1)=(1-p)\times1+p\times\mathbb{P}(Y=1)=1-p+p\lambda e^{-\lambda}=1-p\left(1-\lambda e^{-\lambda}\right).\end{align*}
3) Les variables $X$ et $Y$ sont indépendantes et donc, les variables $X^2$ et $Y^2$ sont indépendantes puis, en tenant compte de $X^2=X$,
\begin{align*}\mathbb{V}(Z)&=\mathbb{E}\left(Z^2\right)-(\mathbb{E}(Z))^2=\mathbb{E}\left(X^2Y^2\right)-p^2\lambda^2=\mathbb{E}\left(X^2\right)\mathbb{E}\left(Y^2\right)-p^2\lambda^2=\mathbb{E}\left(X\right)\mathbb{E}\left(Y^2\right)-p^2\lambda^2\\&=p\left(\mathbb{V}(Y)+(\mathbb{E}(Y))^2\right)-p^2\lambda^2=p\left(\lambda+\lambda^2\right)-p^2\lambda^2\\&=p\lambda(1+(1-p)\lambda).\end{align*}
Commentaires et/ou rappels de cours
Si $X$ et $Y$ sont deux variables aléatoires réelles indépendantes, admettant toutes deux un moment d’ordre $2$, alors $XY$ admet une espérance et de plus $\mathbb{E}(XY)=\mathbb{E}(X)\mathbb{E}(Y)$ ou encore $\text{cov}(X,Y)=0$.
La réciproque est fausse : il existe des variables aléatoires réelles $X$ et $Y$ non indépendantes telles que $\mathbb{E}(XY)=\mathbb{E}(X)\mathbb{E}(Y)$.
Exercice – Difficulté 3 – Thème : variables aléatoires. Titre : une utilisation de l’inégalité de Markov.
Enoncé (Mines Télécom)
Soient $X_1$, $\ldots$ , $X_n$, des variables aléatoires mutuellent indépendantes qui suivent toutes une loi $\mathscr{U}(\{-1,1\})$. On pose $S_n=\displaystyle\sum_{i=1}^{n}X_i$.
1) Soient $n\in\mathbb{N}^*$ et $t\in\mathbb{R}$. Calculer $\mathbb{E}\left(e^{tS_n}\right)$.
2) Montrer que pour tout réel $t$, $\text{ch}(t)\leqslant e^{\frac{t^2}{2}}$.
3) Pour $n\in\mathbb{N}^*$ et $a\in\mathbb{R}_+^*$, montrer que $\mathbb{P}\left(\left|S_n\right|\geqslant a\right)\leqslant 2e^{-\frac{a^2}{2n}}$.
Corrigé
1) Soit $t\in\mathbb{R}$. D’après la formule de transfert, pour tout $i\in\{1,\ldots,n\}$,
$$\mathbb{E}\left(e^{tX_i}\right)=e^t\times\mathbb{P}\left(X_i=1\right)+e^{-t}\times\mathbb{P}\left(X_i=-1\right)=\dfrac{e^{t}+e^{-t}}{2}=\text{ch}(t).$$
Ensuite, les variables $X_1$, $\ldots$ , $X_n$, sont indépendantes et il en est de même des variables $e^{tX_1}$, $\ldots$, $e^{tX_n}$. On en déduit que
$$\mathbb{E}\left(e^{tS_n}\right)=\mathbb{E}\left(\displaystyle\prod_{i=1}^{n}e^{tX_i}\right)=\displaystyle\prod_{i=1}^{n}\mathbb{E}\left(e^{tX_i}\right)=(\text{ch}(t))^n.$$
2) Pour tout $n\in\mathbb{N}^*$, $(2n)!\geqslant(2n)\times(2n-2)\times\ldots\times 2=2^nn!$, ce qui reste vrai quand $n=0$. Par suite, pour tout $t\in\mathbb{R}$,
$$\text{ch}(t)=\displaystyle\sum_{n=0}^{+\infty}\dfrac{t^{2n}}{(2n)!}\leqslant\displaystyle\sum_{n=0}^{+\infty}\dfrac{1}{n!}\left(\dfrac{t^2}{2}\right)^n=e^{\frac{t^2}{2}}.$$
3) Pour tout $i\in\{1,\ldots,n\}$, les variables $X_i$ et $-X_i$ suivent la même loi et donc les variables $S_n$ et $-S_n$ suivent la même loi puis
$$\mathbb{P}\left(S_n\leqslant -a\right)=\mathbb{P}\left(-S_n\geqslant a\right)=\mathbb{P}\left(S_n\geqslant a\right).$$
Puisque $a>0$, les événements $\left\{S_n\geqslant a\right\}$ et $\left\{S_n\leqslant -a\right\}$ sont disjoints et donc
$$\mathbb{P}\left(\left|S_n\right|\geqslant a\right)=\mathbb{P}\left(\left\{S_n\geqslant a\right\}\cup\left\{S_n\leqslant -a\right\}\right)=\mathbb{P}\left(S_n\geqslant a\right)+\mathbb{P}\left(S_n\leqslant -a\right)=2\;\mathbb{P}\left(S_n\geqslant a\right).$$
Soit alors $t>0$. $S_n\geqslant a\Leftrightarrow tS_n\geqslant ta\Leftrightarrow e^{tS_n}\geqslant e^{ta}$ et donc $\left\{S_n\geqslant a\right\}=\left\{e^{tS_n}\geqslant e^{ta}\right\}$. D’après l’inégalité de Markov,
\begin{align*}\mathbb{P}\left(\left|S_n\right|\geqslant a\right)=2\mathbb{P}\left(S_n\geqslant a\right)=2\mathbb{P}\left(e^{tS_n}\geqslant e^{ta}\right)\leqslant2\dfrac{\mathbb{E}\left(e^{tS_n}\right)}{e^{ta}}=\dfrac{2(\text{ch}(t))^n}{e^{ta}}\leqslant\dfrac{2\left(e^{\frac{t^2}{2}}\right)^n}{e^{ta}}=2e^{n\frac{t^2}{2}-ta}=2e^{\frac{n}{2}\left(t-\frac{a}{n}\right)^2-\frac{a^2}{2n}}.\end{align*}
Ainsi, pour tout réel $t$ strictement positif, $\mathbb{P}\left(\left|S_n\right|\geqslant a\right)\leqslant 2e^{\frac{n}{2}\left(t-\frac{a}{n}\right)^2-\frac{a^2}{2n}}$. En particulier, pour $t=\dfrac{a}{n}>0$, on obtient $\mathbb{P}\left(\left|S_n\right|\geqslant a\right)\leqslant 2e^{-\frac{a^2}{2n}}$.
Commentaires et/ou rappels de cours
Inégalité de Markov. Soit $X$ une variable aléatoire à valeurs réelles positives d’espérance finie. Alors, pour tout $a>0$, $\mathbb{P}(X\geqslant a)\leqslangt\dfrac{\mathbb{E}(X)}{a}$.
Exercice – Difficulté 2 – Thème : variables aléatoires. Titre : une matrice associée à un couple de variables aléatoires.
Enoncé (CCINP)
Soient $n\in\mathbb{N}^*$ et $X$ et $Y$ deux variables aléatoires à valeurs dans $\{1,\ldots,n+1\}$.
Soit $(i,j)\in\{1,\ldots,n+1\}^2$. On donne $\mathbb{P}(X=i,Y=j)=\lambda\dbinom{n}{i-1}\dbinom{n}{j-1}$.
1) Déterminer $\lambda$.
2) Déterminer les lois de $X$ et $Y$.
3) Les variables $X$ et $Y$ sont-elles indépendantes ?
4) Déterminer la loi de $Z=X-1$ et en déduire $\mathbb{E}(X)$ et $\mathbb{V}(X)$.
5) Soit $B=\left(\mathbb{P}_{X=j}(Y=i)\right)_{1\leqslant i,j\leqslant n+1}$. Expliciter $B$ puis calculer $B^p$ pour tout $p\in\mathbb{N}^*$.
6) $B$ est-elle diagonalisable ? Déterminer ses valeurs propres et les sous-espaces propres associés.
Corrigé
1)
\begin{align*}1&=\displaystyle\sum_{1\leqslant i,j\leqslant n+1}\mathbb{P}(X=i,Y=j)=\lambda\displaystyle\sum_{1\leqslant i,j\leqslant n+1}\dbinom{n}{i-1}\dbinom{n}{j-1}=\lambda\left(\displaystyle\sum_{i=1}^{n+1}\dbinom{n}{i-1}\right)\left(\displaystyle\sum_{j=1}^{n+1}\dbinom{n}{j-1}\right)\\&=\lambda\left((1+1)^n\right)^2=\lambda 4^n\end{align*}
et donc $\lambda=\dfrac{1}{4^n}$.
2) Soit $i\in\{1,\ldots,n+1\}$. $\left(Y=j\right)_{1\leqslant i\leqslant n+1}$ est un système complet d’événements. Donc,
$$\mathbb{P}(X=i)=\displaystyle\sum_{j=1}{n+1}\mathbb{P}(\{X=i\}\cap\{Y=j\})=\displaystyle\sum_{j=1}{n+1}\dfrac{1}{4^n}\dbinom{n}{i-1}\dbinom{n}{j-1}=\dfrac{1}{4^n}\dbinom{n}{i-1}\displaystyle\sum_{j=1}{n+1}\dbinom{n}{j-1}=\dfrac{1}{4^n}\dbinom{n}{i-1}\times2^n=\dfrac{1}{2^n}\dbinom{n}{i-1}.$$
Donc, pour tout $i\in\{1,\ldots,n+1\}$, $\mathbb{P}(X=i)=\dfrac{1}{2^n}\dbinom{n}{i-1}$. Par symétrie des rôles, pour tout $j\in\{1,\ldots,n+1\}$, $\mathbb{P}(Y=j)=\dfrac{1}{2^n}\dbinom{n}{j-1}$.
3) Soit $(i,j)\in\{1,\ldots,n+1\}^2$.
$$\mathbb{P}(\{X=i\}\cap\{Y=j\})=\dfrac{1}{4^n}\dbinom{n}{i-1}\dbinom{n}{j-1}=\dfrac{1}{2^n}\dbinom{n}{i-1}\times\dfrac{1}{2^n}\dbinom{n}{j-1}=\mathbb{P}(X=i)\times\mathbb{P}(Y=j).$$
Donc, les variables $X$ et $Y$ sont indépendantes.
4) $Z(\Omega)=\{0,\ldots,n\}$ puis, pour tout $k\in\{0,\ldots,n\}$, $\mathbb{P}(Z=k)=\mathbb{P}(X=k+1)=\dfrac{1}{2^n}\dbinom{n}{k}=\dbinom{n}{k}\left(\dfrac{1}{2}\right)^k\left(\dfrac{1}{2}\right)^{n-k}$.
Ainsi, $Z$ suit la loi binomiale de paramètres $n$ et $\dfrac{1}{2}$. On sait alors que $\mathbb{E}(Z)=\dfrac{n}{2}$ et $\mathbb{V}(Z)=n\times\dfrac{1}{2}\times\left(1-\dfrac{1}{2}\right)=\dfrac{n}{4}$. Mais alors, $\mathbb{E}(X)=\mathbb{E}(Z+1)=\mathbb{E}(Z)+1=\dfrac{n+2}{2}$ et $\mathbb{V}(X)=\mathbb{V}(Z)=\dfrac{n}{4}$.
5) Soit $(i,j)\in\{1,\ldots,n+1\}^2$. Puisque les variables $X$ et $Y$ sont indépendantes,
$$B_{i,j}=\mathbb{P}_{X=j}(Y=i)=\mathbb{P}(Y=i)=\dfrac{1}{2^n}\dbinom{n}{i-1}.$$
Donc, $B=\dfrac{1}{2^n}\begin{pmatrix}\binom{n}{0}&\binom{n}{0}&\ldots&\binom{n}{0}\\\binom{n}{1}&\binom{n}{1}&\ldots&\binom{n}{1}\\\vdots&\vdots& &\vdots\\\binom{n}{n}&\binom{n}{n}&\ldots&\binom{n}{n}\end{pmatrix}=\dfrac{1}{2^n}\left(\binom{n}{i-1}\right)_{1\leqslant i,j\leqslant n+1}$.
Posons $U=\dfrac{1}{2^n}\begin{pmatrix}\binom{n}{0}\\\binom{n}{1}\\\vdots\\\binom{n}{n}\end{pmatrix}$ et $V=\begin{pmatrix}1\\1\\\vdots\\1\end{pmatrix}$. Alors, $B=UV^T$ puis en notant $\langle\;,\;\rangle$ le produit scalaire canonique de $\mathscr{M}_{n+1,1}(\mathbb{R})$,
$$B^2=UV^TUV^T=\langle U,V\rangle UV^T=\dfrac{1}{2^n}\left(\displaystyle\sum_{i=1}^{n+1}\dbinom{n}{i-1}\right)B=B.$$
Mais alors, pour tout $p\in\mathbb{N}^*$, $B^p=B$.
6) $B$ est une matrice de projection (distincte de $0_{n+1}$ et $I_{n+1}$). Donc, $B$ est diagonalisable et les valeurs propres de $B$ sont $0$ et $1$. Plus précisément, puisque $\text{rg}(B)=1$, $\text{dim}(\text{Ker}(B))=n$ d’après le théorème du rang puis $0$ est valeur propre d’ordre $n$ (car $B$ est diagonalisable). Mais alors, $1$ est valeur propre simple de $B$.
$E_0(B)=\text{Ker}(B)$ est l’hyperplan d’équation $x_1+\ldots+x_{n+1}=0$ dans la base canonique de $\mathscr{M}_{n+1,1}(\mathbb{R})$. Ensuite $E_1(B)=\text{Ker}\left(B-I_{n+1}\right)=\text{Im}(B)$. $\text{Im}(B)$ est l’espace engendré par les colonnes de $B$ et donc $E_1(B)=\text{Vect}(U)$.
Commentaires et/ou rappels de cours
Une matrice carrée $A$ de rang $1$ est souvent proche d’une matrice de projection. En effet, on peut montrer qu’il existe deux vecteurs colonnes non nuls $U$ et $V$ tels que $A=UV^T$. On a alors $A^2=U\left(V^TU\right)V^T=\langle U,V\rangle UV^T=kB$ où $k=\displaystyle\sum_{i=1}^{n}u_iv_i=\text{Tr}(A)$. Si $k\neq0$, $\left(\dfrac{1}{k}A\right)^2=\dfrac{1}{k^2}kA=\dfrac{1}{k}A$ et donc $\dfrac{1}{k}A$ est une matrice de projection. Si $k=0$, $A$ est nilpotente d’indice $2$.
Exercice – Difficulté 2 – Thème : variables aléatoires. Titre : montrer qu’un ensemble est un événement.
Enoncé (Bécéas)
Soit $(\Omega,\mathscr{A},\mathbb{P})$ un espace probabilisé. Soit $\left(X_n\right)_{n\in\mathbb{N}}$ une suite de variables aléatoires définies sur cet espace.
Montrer que $A=\left\{\omega\in\Omega/\;\displaystyle\lim_{n\rightarrow+\infty}X_n(\omega)=0\right\}$ est un événement.
Corrigé
Soit $\omega\in\Omega$. $\displaystyle\lim_{n\rightarrow+\infty}X_n(\omega)=0\Leftrightarrow\forall\varepsilon>0,\;\exists n_0\in\mathbb{N}/\;\forall n\geqslant n_0,\;\left|X_n(\omega)\right|\leqslant\varepsilon\Leftrightarrow\forall p\in\mathbb{N},\;\exists n_0\in\mathbb{N}/\;\forall n\geqslant n_0,\;\left|X_n(\omega)\right|\leqslant\dfrac{1}{p+1}$.
Pour tout $(n,p)\in\mathbb{N}^2$, posons $A_{n,p}=\left\{\omega\in\Omega/\;\left|X_n(\omega)\right|\leqslant\dfrac{1}{p+1}\right\}$. Pour tout $\omega\in\Omega$,
\begin{align*}\omega\in A&\Leftrightarrow\forall p\in\mathbb{N},\;\exists n_0\in\mathbb{N}/\;\forall n\geqslant n_0,\;\left|X_n(\omega)\right|\leqslant\dfrac{1}{p+1}\Leftrightarrow\forall p\in\mathbb{N},\;\exists n_0\in\mathbb{N}/\;\forall n\geqslant n_0,\;\omega\in A_{n,p}\Leftrightarrow\forall p\in\mathbb{N},\;\exists n_0\in\mathbb{N}/\;\omega\in\bigcap_{n=n_0}^{+\infty}A_{n,p}\\&\Leftrightarrow\forall p\in\mathbb{N},\;\omega\in \displaystyle\bigcup_{n_0=0}^{+\infty}\left(\displaystyle\bigcap_{n=n_0}^{+\infty}A_{n,p}\right)\Leftrightarrow\omega\in\displaystyle\bigcap_{p=0}^{+\infty}\left(\displaystyle\bigcup_{n_0=0}^{+\infty}\left(\displaystyle\bigcap_{n=n_0}^{+\infty}A_{n,p}\right)\right)\end{align*}
et donc
$$A=\displaystyle\bigcap_{p=0}^{+\infty}\left(\displaystyle\bigcup_{n_0=0}^{+\infty}\left(\displaystyle\bigcap_{n=n_0}^{+\infty}A_{n,p}\right)\right).$$
Pour tout $(n,p)\in\mathbb{N}^2$, $A_{n,p}=X_n^{-1}\left(\left[-\dfrac{1}{p+1},\dfrac{1}{p+1}\right]\right)$ est un événement en tant qu’image réciproque d’une partie de $\mathbb{R}$ par la variable aléatoire $X_n$. Ensuite, pour tout $\left(n_0,p\right)\in\mathbb{N}^2$, $\displaystyle\bigcap_{n=n_0}^{+\infty}A_{n,p}$ est un événement en tant qu’intersection dénombrable d’événements. Ensuite, pour tout $p\in\mathbb{N}$, $\displaystyle\bigcup_{n_0=0}^{+\infty}\left(\displaystyle\bigcap_{n=n_0}^{+\infty}A_{n,p}\right)$ est un événement en tant que réunion dénombrable d’événements.
Finalement, $A$ est un événement en tant qu’intersection dénombrable d’événements.
Commentaires et/ou rappels de cours
$\bullet$ Le nombre d’$\star$ attribuées à cet exercice est $2$ à la condition que l’on connaisse ses définitions. Dans le cas contraire, il faut lui attribuer $5$ $\star$.
$\bullet$ Définition et propriétés des événements. Les événements sont par définition les éléments de $\mathscr{A}$.
$\varnothing$ et $\Omega$ sont des événements.
Une réunion finie ou dénombrable d’événements est un événement.
Une intersection finie ou dénombrable d’événements est un événement.
Le complémentaire d’un événement est un événement.
$\bullet$ Intersection et réunion d’une famille de parties. Soient $E$ un ensemble puis $\left(A_i\right)_{i\in I}$ une famille de parties de $E$, indexée par un ensemble $I$.
Pour tout $x\in E$, $x\in\displaystyle\bigcap_{i\in I}A_i\Leftrightarrow\forall i\in I,\;x\in A_i$ et $x\in\displaystyle\bigcup_{i\in I}A_i\Leftrightarrow\exists i\in I,\;x\in A_i$.
$\bullet$ Définition d’une variable aléatoire. Soient $(\Omega,\mathscr{A})$ un espace probabilisable puis $E$ un ensemble non vide quelconque.
Une variable aléatoire discrète sur $\Omega$ à valeurs dans $E$ est une application $X$ de $\Omega$ dans $E$ telle que $X(\Omega)$ est une partie au plus dénombrable de $E$ et pour tout $x\in E$, $X^{-1}(\{x\})\in\mathscr{A}$ (ou encore $\{\omega\in\Omega/\;X(\omega)=x\}$ est un événement).
Dans ce cas, pour toute partie $A$ de $E$ $X^{-1}(A)$ (c’est-à-dire $\{\omega\in\Omega/\;X(\omega)\in A\}$) est un événement (en tant que réunion dénombrable d’événements).
Exercice – Difficulté 2 – Thème : . Titre : .
Enoncé
Corrigé
Commentaires et/ou rappels de cours
