Exercices d’oraux type CCINP

retour vers la page des exercices d’oraux

PROBABILITES

Exercice – Difficulté 3 – Thème : probabilités. Titre : couple de variables aléatoires indépendantes ou pas.

Enoncé (CCINP)

Un homme peint un mur en étant placé sur un échafaudage. Des passants passent sous son échafaudage et ont chacun une probabilité $p\in]0,1[$ de se faire toucher par une goutte de peinture. Soit $X$ la variable aléatoire donnant le nombre de personnes touchées en une journée et $Y$ donnant le nombre de personnes qui ne sont pas touchées.

1) On suppose que $n$ personnes passent dans la journée. Donner les lois de $X$ et $Y$, puis défdinir si $X$ et $Y$ sont indépendantes.

2) On suppose maintenant que $N$ personnes passent dans la journée et que $N$ suit une loi de Poisson de paramètre $\lambda>0$.

Donner les lois de $X$ et $Y$ puis l’espérance et la variance de $X$.

3) Montrer que $X$ et $Y$ sont indépendantes.

4) Calculer $\text{cov}(X,N)$. Les variables $X$ et $N$ sont-elles indépendantes ?

Corrigé

1) $n$ expériences identiques et indépendantes sont menées ($n$ passages de passants). Chaque expérience a deux issues à savoir « le passant est touché par de la peinture » avec une probabilité $p\in]0,1[$ et « le passant n’est pas touché par de la peinture » avec une probabilité $q=1-p$. $X$ étant le nombre de succès au cours de ces $n$ expériences, $X$ suit la loi binomiale de paramètres $n$ et $p$ :

$$X(\Omega)=\{0,1,\ldots,n\}\;\text{puis}\;\forall k\in\{0,1,\ldots,n\},\;\mathbb{P}(X=k)=\dbinom{n}{k}p^k(1-p)^{n-k}.$$

De même, $Y$ suit la loi binomiale de paramètres $n$ et $q=1-p$ :

$$Y(\Omega)=\{0,1,\ldots,n\}\;\text{puis}\;\forall k\in\{0,1,\ldots,n\},\;\mathbb{P}(Y=k)=\dbinom{n}{k}(1-p)^{k}p^{n-k}.$$

Ensuite, $\mathbb{P}(\{X=0\}\cap\{Y=0\})=\mathbb{P}(\{X=0\}\cap\{X=n\})=0\neq (1-p)^np^n=\mathbb{P}(X=0)\times\mathbb{P}(Y=0)$. Donc, les variables $X$ et $Y$ ne sont pas indépendantes.

2) $N(\Omega)=\mathbb{N}$ puis, pour tout $n\in\mathbb{N}$, $\mathbb{P}(Y=n)=\dfrac{\lambda^n}{n!}e^{-\lambda}$.

$X(\Omega)=\mathbb{N}$. Soit $k\in\mathbb{N}$. $\left(N=n\right)_{n\in\mathbb{N}}$ est un système complet d’événements. D’après la formule des probabilités totales,

\begin{align*}\mathbb{P}(X=k)&=\displaystyle\sum_{n=0}^{+\infty}\mathbb{P}(N=n)\times\mathbb{P}_{N=n}(X=k)\\&=\displaystyle\sum_{n=k}^{+\infty}\dfrac{\lambda^n}{n!}e^{-\lambda}\times\dbinom{n}{k}p^k(1-p)^{n-k}=\dfrac{p^k\lambda^ke^{-\lambda}}{k!}\displaystyle\sum_{n=k}^{+\infty}\dfrac{(\lambda(1-p))^{n-k}}{(n-k)!}\\&=\dfrac{p^k\lambda^ke^{-\lambda}}{k!}\times e^{\lambda(1-p)}\\&=\dfrac{(\lambda p)^k}{k!}e^{-\lambda p}.\end{align*}

La variable $X$ suit la loi de Poisson de paramètre $\lambda p$. On en déduit encore que $\mathbb{E}(X)=\lambda p$ et $\mathbb{V}(X)=\lambda p$.

De même, en remplaçant $p$ par $q$, la variable $Y$ suit la loi de Poisson de paramètre $\lambda q$ puis $\mathbb{E}(Y)=\lambda q$ et $\mathbb{V}(Y)=\lambda q$.

3) Soit $(k,\ell)\in\mathbb{N}^2$. $\{X=k\}\cap\{Y=\ell\}=\{X=k\}\cap\{N-X=\ell\}=\{X=k\}\cap\{N=k+\ell\}$ puis

\begin{align*}\mathbb{P}(\{X=k\}\cap\{Y=\ell\})&=\mathbb{P}(\{X=k\}\cap\{N=k+\ell\})=\mathbb{P}(N=k+\ell)\times\mathbb{P}_{N=k+\ell}(X=k)\\&=\dfrac{\lambda^{k+\ell}}{(k+\ell)!}e^{-\lambda}\times\dbinom{k+\ell}{k}p^k(1-p)^\ell=\dfrac{(\lambda p)^k}{k!}e^{-\lambda p}\times\dfrac{(\lambda(1-p))^\ell}{\ell!}e^{-\lambda(1-p)}\\&=\mathbb{P}(X=k)\times\mathbb{P}(Y=\ell).\end{align*}

Donc, les variables $X$ et $Y$ sont indépendantes.

4)

\begin{align*}\text{cov}(X,N)&=\mathbb{E}(XN)-\mathbb{E}(X)\mathbb{E}(N)=\mathbb{E}(X(X+Y))-\mathbb{E}(X)\mathbb{E}(X+Y)\\&=\mathbb{E}\left(X^2\right)+\mathbb{E}(XY)-\mathbb{E}(X)(\mathbb{E}(X)+\mathbb{E}(Y))\;(\text{par linéarité de l’espérance})\\&=\mathbb{E}\left(X^2\right)-(\mathbb{E}(X))^2+\mathbb{E}(XY)-\mathbb{E}(X)\mathbb{E}(Y)=\mathbb{V}(X)-\text{cov}(X,Y)=\mathbb{V}(X)\;(\text{car les variables}\;X\;\text{et}\;Y\;\text{sont indépendantes})\\&=\lambda p.\end{align*}

En particulier, $\text{cov}(X,N)\neq0$ et donc, les variables $X$ et $N$ ne sont pas indépendantes.

Commentaires et/ou rappels de cours

$\bullet$ Une variable aléatoire $X$ suit le loi binomiale de paramètres $n\in\mathbb{N}^*$ et $p\in]0,1[$ si et seulement si

$$X(\Omega)=\{0,\ldots,n\}\;\text{puis}\;\forall k\in\{0,\ldots,n\},\;\mathbb{P}(X=k)=\dbinom{n}{k}p^k(1-p)^{n-k}.$$

Dans ce cas, $\mathbb{E}(X)=np$ et $\mathbb{V}(X)=np(1-p)$.

$\bullet$ Une variable aléatoire $X$ suit la loi de Poisson de paramètre $\lambda$ si et seulement si

$$X(\Omega)=\mathbb{N}\;\text{puis}\;\forall k\in\mathbb{N},\;\mathbb{P}(X=k)=\dfrac{\lambda^ke^{-\lambda}}{k!}.$$

Dans ce cas, $\mathbb{E}(X)=\lambda$ et $\mathbb{V}(X)=\lambda$.

$\bullet$ Si $X$ et $Y$ sont deux variables aléatoires admettant toutes deux un moment d’ordre $2$,

$$\text{cov}(X,Y)=\methbb{E}((X-\mathbb{E}(X))(Y-\mathbb{E}(Y)))=\mathbb{E}(XY)-\mathbb{E}(X)\mathbb{E}(Y).$$

Théorème. Si $X$ et $Y$ sont indépendantes, alors $\text{cov}(X,Y)=0$ ou encore si $\text{cov}(X,Y)\neq0$, les variables $X$ et $Y$ ne sont pas indépendantes. La réciproque est fausse (il est possible que les variables $X$ et $Y$ ne soient pas indépendantes et que $\text{cov}(X,Y)=0$).

Exercice – Difficulté 3 – Thème : variables aléatoires. Titre : tirages dans une urne avec rajouts successifs.

Enoncé (CCINP)

On considère une urne qui contient une boule blanche et une boule rouge. On effectue un tirage avec remise de la boule dans l’urne. Lorsqu’on tire une boule blanche, on rajoute une boule blanche en plus dans l’urne et de même, si on tire une boule rouge, on rajoute une boule rouge dans l’urne.

On note

$\quad\bullet$ $X_n$ la variable aléatoire qui vaut $1$ si on tire une boule blanche au $n$-ème tirage et $0$ sinon,

$\quad\bullet$ $Y_n$ la variable aléatoire qui compte le nombre de boules blanches au $n$-ème tirage dans l’urne.

1) Calculer $P\left(Y_n=1\right)$ et $\mathbb{P}\left(Y_n=n+1\right)$.

2) Montrer par récurrence que $Y_n$ suit une loi uniforme.

3) En déduire la loi de $X_n$.

Corrigé

1) Après le premier tirage, l’urne contient trois boules et plus généralement au $n$-ème tirage, l’urne contient $n+2$ boules dont $k$ blanches avec $1\leqslant k\leqslant n+1$ (et $n+2-k$ boules rouges avec $1\leqslant n+2-k\leqslant n+1$).

Soit $n\geqslant2$. $\mathbb{P}\left(Y_n=1\right)=\mathbb{P}\left(\left\{Y_{n-1}=1\right\}\cap\left\{X_n=0\right\}\right)=\mathbb{P}\left(Y_{n-1}=1\right)\times\mathbb{P}_{Y_{n-1}=1}\left(X_n=0\right)$. Si on sait que $Y_{n-1}=1$, la probabilité de l’événement $\left\{X_n=0\right\}$ est la probabilité de tirer une boule rouge dans une urne contenant $n+1$ boules dont $1$ est blanche et $n$ sont rouges. Donc, $\mathbb{P}_{Y_{n-1}=1}\left(X_n=0\right)=\dfrac{n}{n+1}$. Ainsi,

$$\forall n\geqslant2,\;\mathbb{P}\left(Y_n=1\right)=\dfrac{n}{n+1}\mathbb{P}\left(Y_{n-1}=1\right).$$

D’autre part, $\mathbb{P}\left(Y_1=1\right)=\mathbb{P}\left(X_1=0\right)=\dfrac{1}{2}$. En itérant, on obtient pour $n\geqslant2$,

$$\mathbb{P}\left(Y_n=1\right)=\dfrac{n}{n+1}\times\dfrac{n-1}{n}\times\ldots\times\dfrac{2}{3}\times\mathbb{P}\left(Y_1=1\right)=\displaystyle\prod{k=1}{n}\dfrac{k}{k+1}=\dfrac{1}{n+1}\;(\text{produit télescopique}),$$

ce qui reste vrai quand $n=1$. Finalement,

$$\forall n\in\mathbb{N}^*,\;\mathbb{P}\left(Y_n=1\right)=\dfrac{1}{n+1}.$$

De même, en échangeant les rôles des boules blanches et des boules rouges,

$$\forall n\in\mathbb{N}^*,\;\mathbb{P}\left(Y_n=n+1\right)=\dfrac{1}{n+1}.$$

2) Montrons par récurrence que pour tout $n\geqslant1$, $Y_n$ sur la loi uniforme sur $\{1,\ldots,n+1\}$.

$\quad\bullet$ $Y_1(\Omega)=\{1,2\}$ et $\mathbb{P}\left(Y_1=1\right)=\mathbb{P}\left(X_1=0\right)=\dfrac{1}{2}$ et donc $Y_1\sim\mathscr{U}(\{1,2\})$.

$\quad\bullet$ Soit $n\geqslant1$. Supposons que $Y_n\sim\mathscr{U}(\{1,\ldots,n+1\})$. $Y_{n+1}(\Omega)=\{1,\ldots,n+1,n+2\}$ et on sait déjà $\mathbb{P}\left(Y_{n+1}=1\right)=\dfrac{1}{n+2}$.

$\quad$ Soit $k\in\{2,\ldots,n+2\}$. $\left(Y_n=i\right)_{1\leqslant i\leqslant n+1}$ est un système coimplet d’événements. D’après la formule des probabilités totales,

\begin{align*}\mathbb{P}\left(Y_{n+1}=k\right)&=\displaystyle\sum_{i=1}{n+1}\mathbb{P}\left(\left\{Y_n=i\right\}\cap\left\{Y_{n+1}=k\right\}\right)=\mathbb{P}\left(\left\{Y_n=k-1\right\}\cap\left\{Y_{n+1}=k\right\}\right)+\mathbb{P}\left(\left\{Y_n=k\right\}\cap\left\{Y_{n+1}=k\right\}\right)\\&=\mathbb{P}\left(Y_n=k-1\right)\times\mathbb{P}_{Y_n=k-1}\left(Y_{n+1}=k\right)+\mathbb{P}\left(Y_n=k\right)\times\mathbb{P}_{Y_{n}=k}\left(Y_{n+1}=k\right)\\&=\dfrac{1}{n+1}\left(\mathbb{P}_{Y_{n}=k-1}\left(Y_{n+1}=k\right)+\mathbb{P}_{Y_{n}=k}\left(Y_{n+1}=k\right)\right)\;(\text{par hypothèse de récurrence})\\&=\dfrac{1}{n+1}\left(\dfrac{k-1}{n+2}+\dfrac{n+2-k}{n+2}\right)=\dfrac{1}{n+2}.\end{align*}

On a montré par récurrence que pour tout $n\geqslant1$, $Y_n$ sur la loi uniforme sur $\{1,\ldots,n+1\}$.

3) $X_1$ suit la loi de Bernoulli de paramètre $\dfrac{1}{2}$. Soit $n\geqslant2$. On a toujours $X_n(\Omega)=\{0,1\}$.

$\left(Y_{n-1}=k\right)_{1\leqslant k\leqslant n}$ est un système complet d’événements. D’après la formule des probabilités totales,

\begin{align*}\mathbb{P}\left(X_n=1\right)&=\displaystyle\sum_{k=1}^{n}\mathbb{P}\left(\left\{Y_{n-1}=k\right\}\cap\left\{X_n=1\right\}\right)=\displaystyle\sum_{k=1}^{n}\mathbb{P}\left(Y_{n-1}=k\right)\times\mathbb{P}_{Y{n-1}=k}\left(X_n=1\right)\\&=\dfrac{1}{n}\displaystyle\sum_{k=1}^{n}\mathbb{P}_{Y{n-1}=k}\left(X_n=1\right)=\dfrac{1}{n}\displaystyle\sum_{k=1}^{n}\dfrac{k}{n+1}=\dfrac{1}{n(n+1)}\times\dfrac{n(n+1)}{2}\\&=\dfrac{1}{2}.\end{align*}

Pour tout $n\geqslant1$, $X_n$ suit la loi de Bernoulli de paramètre $p=\dfrac{1}{2}$.

 

Commentaires et/ou rappels de cours

 

Exercice – Difficulté 3 – Thème : variables aléatoires. Titre : une expression de l’espérance d’une variable aléatoire entière.

Enoncé (CCINP)

Soit $X$ une variable aléatoire discrète à valeurs dans $\mathbb{N}$.

1) Montrer que pour tout $n\in\mathbb{N}^*$, $\displaystyle\sum_{k=1}^{n}k\mathbb{P}(X=k)=\displaystyle\sum_{k=0}^{n-1}\mathbb{P}(X>k)-n\mathbb{P}(X>n)$.

2) Montrer que si la famille $\left(\mathbb{P}(X>k)\right)_{k\in\mathbb{N}}$ est sommable, alors $X$ admet une espérance finie.

3) Etude de la réciproque : montrer que si $X$ est d’espérance finie, alors la suite $\left(n\mathbb{P}(X>n)\right)_{n\geqslant1}$ converge vers $0$ et $\mathbb{E}(X)=\displaystyle\sum_{k=0}^{+\infty}\mathbb{P}(X>k)$.

4) Application. On considère une urne contenant $N$ boules identiques numérotées de $1$ à $N$. On effectue $n$ tirages avec remise. On note $X$ la variable aléatoire égale au plus grand nombre tiré au cours des $n$ tirages.

$\quad$ a) Calculer $\mathbb{P}(X\leqslant k)$ et en déduire la loi de $X$.

$\quad$ b) Montrer à l’aide d’une somme de Riemann, que la suite $\left(\dfrac{1}{N}\displaystyle\sum_{k=1}^{N-1}\left(\dfrac{k}{N}\right)^n\right)_{N\geqslant1}$ admet une limite finie et la calculer.

$\quad$ c) En déduire que $\displaystyle\lim_{N\rightarrow+\infty}\dfrac{\mathbb{E}(X)}{N}=\dfrac{n}{n+1}$.

Corrigé

1) Soit $n\in\mathbb{N}^*$. Pour tout $k\in\{1,\ldots,n\}$, puisque $\{X=k\}=\{X>k-1\}\setminus\{X>k\}$ et de plus $\{X>k\}\subset\{X>k-1\}$, on a $\mathbb{P}(X=k)=\mathbb{P}(X>k-1)-\mathbb{P}(X>k)$. On en déduit que

\begin{align*}\displaystyle\sum_{k=1}^{n}k\mathbb{P}(X=k)&=\displaystyle\sum_{k=1}^{n}k(\mathbb{P}(X>k-1)-\mathbb{P}(X>k))=\displaystyle\sum_{k=1}^{n}k\mathbb{P}(X>k-1)-\displaystyle\sum_{k=1}^{n}k\mathbb{P}(X>k)\\&=\displaystyle\sum_{k=0}^{n-1}(k+1)\mathbb{P}(X>k)-\displaystyle\sum_{k=1}^{n}k\mathbb{P}(X>k)=\displaystyle\sum_{k=0}^{n-1}(k+1)\mathbb{P}(X>k)-\displaystyle\sum_{k=0}^{n-1}k\mathbb{P}(X>k)-n\mathbb{P}(X>n)\\&=\displaystyle\sum_{k=0}^{n-1}\mathbb{P}(X>k)-n\mathbb{P}(X>n)\quad(\star).\end{align*}

2) On suppose que la famille $\left(\mathbb{P}(X>k)\right)_{k\in\mathbb{N}}$ est sommable. On pose $S=\displaystyle\sum_{k=0}^{+\infty}\mathbb{P}(X>k)$. Pour tout $n\in\mathbb{N}^*$,

$$\displaystyle\sum_{k=1}^{n}k\mathbb{P}(X=k)=\displaystyle\sum_{k=0}^{n-1}\mathbb{P}(X>k)-n\mathbb{P}(X>n)\leqslant\displaystyle\sum_{k=0}^{n-1}\mathbb{P}(X>k)\leqslant S.$$

La suite des sommes partielles de la série de terme général positif $k\mathbb{P}(X=k)$, $k\in\mathbb{N}^*$, est majorée et donc la série de terme général $k\mathbb{P}(X=k)$, $k\in\mathbb{N}^*$ ou encore $X$ est d’espérance finie.

3) On suppose que $X$ est d’espérance finie ou encore que la série de terme général $k\mathbb{P}(X=k)$, $k\in\mathbb{N}^*$, converge. Soit $n\in\mathbb{N}^*$.

$$0\leqslant n\mathbb{P}(X>n)=\displaystyle\sum_{k=n+1}^{+\infty}n\mathbb{P}(X=k)\leqslant\displaystyle\sum_{k=n+1}^{+\infty}k\mathbb{P}(X=k).$$

$\displaystyle\sum_{k=n+1}^{+\infty}k\mathbb{P}(X=k)$ est le reste à l’ordre $n$ d’une série convergente et donc $\displaystyle\lim_{n\rightarrow+\infty}\displaystyle\sum_{k=n+1}^{+\infty}k\mathbb{P}(X=k)=0$. D’après le théorème des gendarmes,

$$\displaystyle\lim_{n\rightarrow+\infty}n\mathbb{P}(X>n)=0.$$

Quand on fait tendre $n$ vers $+\infty$ dans l’égalité $(\star)$, on obtient la convergence de la série de terme général $\mathbb{P}(X>k)$ et de plus,

$$\mathbb{E}(X)=\displaystyle\sum_{k=1}^{+\infty}k\mathbb{P}(X=k)=\displaystyle\sum_{k=0}^{+\infty}\mathbb{P}(X>k).$$

4) a) $X(\Omega)=\{1,\ldots,N\}$. Soit $k\in\{1,\ldots,N\}$. L’événement $X\leqslant k$ est l’événement « les $n$ numéros tirés sont tous inférieurs ou égaux à $k$ ». A chacun des $n$ tirages, la probabilité que le numéro tiré soit inférieur ou égal à $k$ est $\dfrac{k}{N}$. Puisque les tirages se font avec remise, les $n$ tirages sont indépendants et donc

$$\mathbb{P}(X\leqslant k)=\left(\dfrac{k}{N}\right)^n.$$

Soit $k\geqslant1$. $\mathbb{P}(X=k)=\mathbb{P}(X\leqslant k)-\mathbb{P}(X\leqslant k-1)=\left(\dfrac{k}{N}\right)^n-\left(\dfrac{k-1}{N}\right)^n$ (y compris quand $k=1$). Donc,

$$\forall k\in\{1,\ldots,N\},\;\mathbb{P}(X=k)=\left(\dfrac{k}{N}\right)^n-\left(\dfrac{k-1}{N}\right)^n.$$

b) Pour tout $k\in\{0,\ldots,N\}$, on pose $x_k=\dfrac{k}{N}$. $\left(x_k\right)_{0\leqslant k\leqslant N}$ est une subdivision à pas constant égal à $\dfrac{1}{N}$ du segment $[0,1]$. Pour $x\in[0,1]$, on pose $f(x)=x^n$. Puisque la fonction $f$ est continue sur le segment $[0,1]$, la somme de Riemann

$$\dfrac{1}{N}\displaystyle\sum_{k=1}^{N-1}\left(\dfrac{k}{N}\right)^n=\dfrac{1}{N}\displaystyle\sum_{k=0}^{N-1}\left(\dfrac{k}{N}\right)^n=\displaystyle\sum_{k=0}^{N-1}\left(x_{k+1}-x_k\right)f\left(x_k\right)$$

tend vers $\displaystyle\int_{0}^{1}x^n\;dx=\dfrac{1}{n+1}$ quand $N$ tend vers $+\infty$. Ainsi,

$$\displaystyle\lim_{N\rightarrow+\infty}\dfrac{1}{N}\displaystyle\sum_{k=1}^{N-1}\left(\dfrac{k}{N}\right)^n=\dfrac{1}{n+1}.$$

c) $N\in\mathbb{N}^*$ étant fixé,

\begin{align*}\mathbb{E}(X)&=\displaystyle\sum_{k=0}^{+\infty}\mathbb{P}(X>k)=\displaystyle\sum_{k=0}^{N-1}\mathbb{P}(X>k)\\&=\displaystyle\sum_{k=0}^{N-1}(1-\mathbb{P}(X\leqslant k))=N-\displaystyle\sum_{k=0}^{N-1}\left(\dfrac{k}{N}\right)^n=1-\displaystyle\sum_{k=1}^{N-1}\left(\dfrac{k}{N}\right)^n.\end{align*}

puis $\dfrac{\mathbb{E}(X)}{N}=1-\dfrac{1}{N}\displaystyle\sum_{k=1}^{N-1}\left(\dfrac{k}{N}\right)^n$. D’après la question précédente,

$$\displaystyle\lim_{N\rightarrow+\infty}\dfrac{\mathbb{E}(X)}{N}=1-\dfrac{1}{n+1}=\dfrac{n}{n+1}.$$

Commentaires et/ou rappels de cours

Pas de commentaire particulier. 

Exercice – Difficulté 3 – Thème : probabilités. Titre : une variable aléatoire matricielle.

Enoncé (CCINP)

Soit $M=\begin{pmatrix}a&-b\\b&0\end{pmatrix}$ avec $(a,b)\in\mathbb{R}^2$.

1) Pour quelles valeurs de $a$ et $b$ $M$ est-elle diagonalisable ?

2) Soient $X$ et $Y$ deux variables aléatoires indépendantes, suivant toutes deux la loi géométrique de paramètre $\dfrac{1}{2}$.

Quelle est la probabilité que $\begin{pmatrix}X&-Y\\Y&0\end{pmatrix}$ soit diagonalisable ?

3) Soient $A=\begin{pmatrix}3&-1\\1&0\end{pmatrix}$ et $N\sim\mathscr{P}(\lambda)$ avec $\lambda\in\mathbb{R}^{+*}$.

$\text{Tr}\left(A^N\right)$ admet-elle une espérance ? Si oui, la calculer.

Corrigé

1) On suppose que « diagonalisable » signifie « diagonalisable dans $\mathscr{M}_2(\mathbb{R})$ ».

$\chi_M=X^2-(\text{Tr}(M))X+\text{det}(M)=X^2-aX+b^2=\left(X-\dfrac{a}{2}\right)^2+b^2-\dfrac{a^2}{4}$.

1er cas. Si $|a|>2|b|$ de sorte que $b^2-\dfrac{a^2}{4}<0$, $\chi_M$ n’est pas scindé sur $\mathbb{R}$. Dans ce cas, $M$ n’est pas diagonalisable.

2ème cas. Si $|a|<2|b|$ de sorte que $b^2-\dfrac{a^2}{4}>0$, $\chi_M$ est scindé sur $\mathbb{R}$ à racines simples. Dans ce cas, $M$ est diagonalisable.

3ème cas. Si $|a|=2|b|$, il existe $\varepsilon\in\{-1,1\}$ tel que $a=2\varepsilon b$ et la matrice $M$ s’écrit : $M=\begin{pmatrix}2\varepsilon b&-b\\b&0\end{pmatrix}$. Ensuite, $\chi_M=\left(X-\varepsilon b\right)^2$ puis $\text{Sp}(M)=(\varepsilon b,\varepsilon b)$. $M$ est diagonalisable si et seulement si $M$ est semblable à $\text{diag}(\varepsilon b,\varepsilon b)=\varepsilon b I_2$ et donc $M$ est diagonalisable si et seulement si $M=\varepsilon b I_2$ ce qui équivaut à $b=0(=a)$.

En résumé, $M$ est diagonalisable si et seulement si $|a|<2|b|$ ou $a=b=0$.

2) $X(\Omega)=Y(\Omega)=\mathbb{N}^*$ puis, pour tout $k\in\mathbb{N}^*$, $\mathbb{P}(X=k)=\mathbb{P}(Y=k)=\dfrac{1}{2^k}$.

On pose $M=\begin{pmatrix}X&-Y\\Y&0\end{pmatrix}$ puis $E$ l’événement « $M$ est diagonalisable ».

\begin{align*}\mathbb{P}(E)&=\mathbb{P}(|X|<2|Y|)+\mathbb{P}(X=Y=0)=\mathbb{P}(X<2Y)\;(\text{car}\;X\;\text{et}\;Y\;\text{sont à valeurs dans}\;\mathbb{N}^*)\\&=\displaystyle\sum_{k=1}^{+\infty}\mathbb{P}(\{X<2Y\}\cap\{Y=k\})\;(\text{car}\;\left(Y=k\right)_{k\in\mathbb{N}^*}\;\text{est un système complet d’événements})\\&=\displaystyle\sum_{k=1}^{+\infty}\mathbb{P}(\{X\leqslant 2k-1\}\cap\{Y=k\})=\displaystyle\sum_{k=1}^{+\infty}\mathbb{P}(X\leqslant 2k-1)\mathbb{P}(Y=k)\;(\text{car}\;X\;\text{et}\;Y\;\text{sont indépendantes})\\&=\displaystyle\sum_{k=1}^{+\infty}\dfrac{1}{2^k}\left(\displaystyle\sum_{i=1}^{2k-1}\dfrac{1}{2^i}\right)=\displaystyle\sum_{k=1}^{+\infty}\dfrac{1}{2^k}\times 2\left(1-\dfrac{1}{2^{2k-1}}\right)=\displaystyle\sum_{k=1}^{+\infty}\dfrac{1}{2^{k-1}}-\displaystyle\sum_{k=1}^{+\infty}\dfrac{1}{2^{3k-2}}\\&=1-\dfrac{1}{2}\times\dfrac{1}{1-\dfrac{1}{8}}=\dfrac{3}{7}.\end{align*}

3) $\chi_A=X^2-3X+1=\left(X-\lambda_1\right)\left(X-\lambda_2\right)$ avec $\lambda_=\dfrac{3+\sqrt{5}}{2}$ et $\lambda_2=\dfrac{3-\sqrt{5}}{2}$. Par suite,

$$\text{Tr}\left(A^N\right)=\lambda_1^N+\lambda_2^N=\left(\dfrac{3+\sqrt{5}}{2}\right)^N+\left(\dfrac{3-\sqrt{5}}{2}\right)^N.$$

Ensuite, $N(\Omega)=\mathbb{N}$ puis, pour tout $k\in\mathbb{N}$, $\mathbb{P}(N=k)=\dfrac{\lambda^ke^{-\lambda}}{k!}$. La variable $\text{Tr}\left(A^N\right)$ est positive et donc, sans préjuger de la convergence de la série, on peut écrire d’après la formule de transfert,

\begin{align*}\mathbb{E}\left(\text{Tr}\left(A^N\right)\right)&=\displaystyle\sum_{k=0}^{+\infty}\text{Tr}\left(A^k\right)\mathbb{P}(N=k)\\&=e^{-\lambda}\displaystyle\sum_{k=0}^{+\infty}\left(\lambda_1^k+\lambda_2^k\right)\dfrac{\lambda^k}{k!}=e^{-\lambda}\left(\displaystyle\sum_{k=0}^{+\infty}\dfrac{\left(\lambda\lambda_1\right)^k}{k!}+\displaystyle\sum_{k=0}^{+\infty}\dfrac{\left(\lambda\lambda_1\right)^k}{k!}\right)\\&=e^{-\lambda}\left(e^{-\lambda\lambda_1}+e^{-\lambda\lambda_2}\right)\\&=e^{-\frac{5+\sqrt{5}}{2}\lambda}+e^{-\frac{5-\sqrt{5}}{2}\lambda}.\end{align*}

En particulier, la variable $\text{Tr}\left(A^N\right)$ est d’espérance finie.

Commentaires et/ou rappels de cours

$\bullet$ Une variable aléatoire $X$ suit la loi de Poisson de paramètre $\lambda>0$ ($X\sim\mathscr{P}(\lambda)$) si et seulement si $X(\Omega)=\mathbb{N}$ et

$$\forall k\in\mathbb{N},\;\mathbb{P}(X=k)=\dfrac{\lambda^ke^{-\lambda}}{k!}.$$

Une variable aléatoire $Y$ suit la loi géométrique de paramètre $p\in]0,1[$ ($Y\sim\mathscr{G}(p)$) si et seulement si $Y(\Omega)=\mathbb{N}^*$ et

$$\forall k\in\mathbb{N}^*,\;\mathbb{P}(Y=k)=pq^{k-1}\;\text{où}\;q=1-p.$$

$\bullet$ Formule de transfert. Soit $X$ une variable aléatoire discrète à valeurs dans un ensemble $E$ et $f$ une application de $E$ dans $\mathbb{R}$ ou $\mathbb{C}$. La variable $f(X)$ est d’espérance finie si et seulement si la famille $\left(f(x)\mathbb{P}(X=x)\right)_{x\in X(\Omega)}$ est sommable et dans ce cas

$$\mathbb{E}π(X)=\dsiplaystyle\sum_{x\in X(\Omega)}f(x)\mathbb{P}(X=x).$$

Exercice – Difficulté 3 – Thème : variables aléatoires. Titre : taux de panne d’une variable aléatoire.

Enoncé (CCINP)

Soit $X$ une variable aléatoire discrète à valeurs dans $\mathbb{N}$. On définit le taux de panne $X$ comme la suite $\left(x_n\right)_{n\in\mathbb{N}^*}$ telle que :

$$\forall n\in\mathbb{N},\;x_n=\mathbb{P}_{X\geqslant n}(X=n).$$

Soit $Y~:~\Omega\rightarrow\mathbb{N}^*$ telle que : $\forall n\in\mathbb{N}^*$, $\mathbb{P}(Y=n)=\dfrac{1}{n(n+1)}$.

1) Montrer que la loi de $Y$ est bien une loi de probabilité.

2) Soit $X$ une variable aléatoire réelle discrète telle que $X(\Omega)=\mathbb{N}^*$.

$\quad$a) Montrer que $\forall n\in\mathbb{N}^*$, $\mathbb{P}(X\geqslant n)=\displaystyle\prod_{k=0}^{n-1}\left(1-x_k\right)$.

$\quad$b) Pour $n\in\mathbb{N}^*$, exprimer $\mathbb{P}(X=n)$ en fonction des $x_k$.

3) Déterminer les variables aléatoires réelles discrètes ayant un taux de panne constant.

4) Déterminer le taux de panne de $Y$.

5) Soit $\left(U_k\right)$ une suite de variables aléatoires discrètes à valeurs incluses dans $[0,1]$, suivant la loi uniforme. Pour $\omega\in\Omega$, on pose

$$Z(\omega)=\left\{\begin{array}{l}0\;\text{si}\;\forall k\in\mathbb{N}^*,\;\text{si}\;U_k(\omega)>x_k\\\text{Min}\left\{k\in\mathbb{N}^*/\;U_k(\omega)\leqslant x_k\right\}\;\text{sinon}\end{array}\right..$$

Montrer que $Z$ et $X$ suivent la même loi.

Corrigé

1) Pour tout $n\in\mathbb{N}^*$, $\dfrac{1}{n(n+1)}\geqslant0$ puis

$$\displaystyle\sum_{n=1}^{+\infty}\dfrac{1}{n(n+1)}=\displaystyle\lim_{N\rightarrow+\infty}\displaystyle\sum_{n=1}^{N}\left(\dfrac{1}{n}-\dfrac{1}{n+1}\right)=\displaystyle\lim_{N\rightarrow+\infty}\left(1-\dfrac{1}{N+1}\right)=1.$$

Donc, la loi de $Y$ est bien une loi de probabilité.

2) a) On suppose que pour tout $n\in\mathbb{N}$, $\mathbb{P}(X\geqslant n)>0$. Alors, pour tout $n\in\mathbb{N}^*$,

$$x_n=\mathbb{P}_{X\geqslant n}(X=n)=\dfrac{\mathbb{P}(\{X=n\}\cap\{X\geqslant n\})}{\mathbb{P}(X\geqslant n)}=\dfrac{\mathbb{P}(X=n)}{\mathbb{P}(X\geqslant n)},$$

et aussi, une probabilité conditionnelle étant une probabilité,

$$1-x_n=1-\mathbb{P}_{X\geqslant n}(X=n)=\mathbb{P}_{X\geqslant n}(X\neq n)=\dfrac{\mathbb{P}(\{X\neq n\}\cap\{X\geqslant n\})}{\mathbb{P}(X\geqslant n)}=\dfrac{\mathbb{P}(X>n)}{\mathbb{P}(X\geqslant n)}=\dfrac{\mathbb{P}(X\geqslant n+1)}{\mathbb{P}(X\geqslant n)}.$$

On note alors que $x_0=\dfrac{\mathbb{P}(X=0)}{\mathbb{P}(X\geqslant 0)}=\mathbb{P}(X=0)=0$. Soit $n\in\mathbb{N}^*$.

\begin{align*}\mathbb{P}(X\geqslant n)&=\dfrac{\mathbb{P}(X\geqslant n)}{\mathbb{P}(X\geqslant 0)}\\&=\displaystyle\prod_{k=0}^{n-1}\dfrac{\mathbb{P}(X\geqslant k+1)}{\mathbb{P}(X\geqslant k)}\;(\text{produit télescopique})\\&=\displaystyle\prod_{k=0}^{n-1}\left(1-x_k\right).\end{align*}

b) Soit $n\in\mathbb{N}^*$. $mathbb{P}(x=n)=x_n\mathbb{P}(X\geqslant n)=x_n\displaystyle\prod_{k=0}^{n-1}\left(1-x_k\right)$.

3) Par hypothèse, il existe $p\in\mathbb{R}$ tel que pour tout $n\in\mathbb{N}^*$, $x_n=p$. Puisque les $x_n$ sont des probabilités, $p\in[0,1]$. puis

$$\forall n\in\mathbb{N}^*,\;\mathbb{P}(X=n)=p(1-p)^{n-1}.$$

De plus, si $p\in\{0,1\}$, pour tout $n\geqslant 2$, $\mathbb{P}(X=n)=0$. Dans ce cas, les $x_n$ ne sont pas définis pour $n\geqslant 2$.

Finalement, nécessairement il existe $p\in]0,1[$ tel que, pour tout $n\in\mathbb{N}^*$, $\mathbb{P}(X=n)=p(1-p)^{n-1}$ puis $X$ suit la loi géométrique de par amètre $p$.

Inversement, soit $X$ une vraible aléatoire suivant la loi géométrique de paramètre $p\in]0,1[$. Alors, $X(\Omega)=\mathbb{N}^*$ puis, pour tout $n\in\mathbb{N}^*$, $\mathbb{P}(X=n)=p(1-p)^{n-1}$. Soit $n\in\mathbb{N}^*$.

$$\mathbb{P}(X\geqslant n)=\displaystyle\sum_{k=n}^{+\infty}\mathbb{P}(X=k)=\displaystyle\sum_{k=n}^{+\infty}p(1-p)^{k-1}=p(1-p)^{n-1}\dfrac{1}{1-(1-p)}=(1-p)^{n-1},$$

puis

$$x_n=\dfrac{\mathbb{P}(X=n)}{\mathbb{P}(X\geqslant n)}=\dfrac{p(1-p)^{n-1}}{(1-p)^{n-1}}=p.$$

Les variables aléatoires ayant un taux de panne constant sont les variables suivant une loi géométrique.

4) Soit $n\in\mathbb{N}^*$.

$$\mathbb{P}(Y\geqslant n)=\displaystyle\sum_{k=n}^{+\infty}\mathbb{P}(Y=k)=\displaystyle\lim_{N\rightarrow+\infty}\displaystyle\sum_{k=n}^{N}\left(\dfrac{1}{k}-\dfrac{1}{k+1}\right)=\displaystyle\lim_{N\rightarrow+\infty}\left(\dfrac{1}{n}-\dfrac{1}{N+1}\right)=\dfrac{1}{n}.$$

Par suite,

$$y_n=\dfrac{\mathbb{P}(Y=n)}{\mathbb{P}(Y\geqslant n)}=\dfrac{1}{n+1}.$$

5) Par hypothèse, pour tout $k\in\mathbb{N}$, pour tout $x\in[0,1]$, $\mathbb{P}\left(U_k\leqslant x\right)=x$.

Ensuite, $Z(\Omega)=\mathbb{N}$ puis pour $n\geqslant1$, $\{Z=n\}=\left\{U_n\leqslant x_n\right\}\cap\left(\displaystyle\bigcap_{k=0}^{n-1}\left\{U_k>x_k\right\}\right)$ puis, les variables $U_k$ étant indépendantes,

$$\mathbb{P}(Z=n)=\mathbb{P}\left(U_n\leqslant x_n\right)\times\displaystyle\prod_{k=0}^{n-1}\mathbb{P}\left(U_k>x_k\right)=x_n\displaystyle\prod_{k=0}^{n-1}\left(1-x_k\right)=\mathbb{P}(X=n),$$

d’après la question 2). Les variables $Z$ et $X$ suivent donc la même loi.

Commentaires et/ou rappels de cours

L’énoncé originel contenait des imprécisions ou des oublis qui ont été corrigés durant l’oral. D’autre part, la notion de variable aléatoire suivant une loi uniforme sur $[0,1]$ est hors programme.

(On dit que $X$ suit la loi uniforme sur $[a,b]$ si et seulement si $X$ est à valeurs dans $[a,b]$ et pour tout $x\in[a,b]$, $\mathbb{P}(X\leqslant x)=\dfrac{x-a}{b-a}$). 

Exercice – Difficulté 2 – Thème : variables aléatoires. Titre : étude d’une suite de variables aléatoires.

Enoncé (CCINP)

Soit $X$ une variable aléatoire définie sur un espace probabilisé à valeurs dans $\mathbb{N}^*$. On définit :

$$\forall n\in\mathbb{N},\;Y_n=\text{Min}\left(X,n\right).$$

On suppose que $X$ suit la loi géométrique de paramètre $p\in]0,1[$. On pose $q=1-p$.

1) a) Justifier que : $\forall k\in\mathbb{N}^*$, $\mathbb{P}(X\geqslant k)=q^{k-1}$.

b) En déduire la loi de $Y_n$.

c) Montrer que $Y_n$ admet une espérance qui est $\mathbb{E}\left(Y_n\right)=\dfrac{1-q^n}{1-q}$.

d) Calculer la fonction génératrice de $Y_n$.

2) Montrer que :

$$\forall(n,k)\in\mathbb{N}^2,\;\mathbb{P}_{X>k}(X>k+n)=\mathbb{P}(X>n)\Leftrightarrow X\;\text{suit une loi géométrique}.$$

Corrigé

1) a) Par hypothèse, $X(\Omega)=\mathbb{N}^*$ puis, pour tout $p\in\mathbb{N}^*$, $\mathbb{P}(X=k)=pq^{k-1}$.

Soit $k\in\mathbb{N}^*$. $\mathbb{P}(X\geqslant k)=\displaystyle\sum_{i=k}^{+\infty}\mathbb{P}(X=i)=\displaystyle\sum_{i=k}^{+\infty}pq^{i-1}=pq^{k-1}\times\dfrac{1}{1-q}=q^{k-1}$.

b) $Y_n(\Omega)=\{1,2,\ldots,n\}$. Si $k\in\{1,\ldots,n-1\}$, $\mathbb{P}\left(Y_n=k\right)=\mathbb{P}(X=k)=pq^{k-1}$ et d’autre part, $\mathbb{P}\left(Y_n=n\right)=\mathbb{P}(X\geqslant n)=q^{n-1}$.

c) $\mathbb{E}\left(Y_n\right)=\displaystyle\sum_{k=1}^{n}k\mathbb{P}\left(Y_n=k\right)=p\displaystyle\sum_{k=1}^{n-1}kq^{k-1}+nq^{n-1}$.

Ensuite, pour tout $x\in\mathbb{R}\setminus\{1\}$, $\displaystyle\sum_{k=1}^{n-1}kx^{k-1}=\left(\displaystyle\sum_{k=0}^{n-1}x^k\right)'(x)=\left(\dfrac{x^n-1}{x-1}\right)’=\dfrac{nx^{n-1}(x-1)-\left(x^n-1\right)}{(x-1)^2}=\dfrac{(n-1)x^n-nx^{n-1}+1}{(1-x)^2}$. On en déduit que

$$\mathbb{E}\left(Y_n\right)=p\dfrac{(n-1)q^n-nq^{n-1}+1}{(1-q)^2}+nq^{n-1}=\dfrac{(n-1)q^n-nq^{n-1}+1+(1-q)nq^{n-1}}{1-q}=\dfrac{1-q^n}{1-q}.$$

d) Pour tout réel $t$ différent de $\dfrac{1}{q}$,

\begin{align*}G_{Y_n}(t)&=\displaystyle\sum_{k=1}^{n}\mathbb{P}\left(Y_n=k\right)t^k=pt\displaystyle\sum_{k=1}^{n-1}(qt)^{k-1}+t(qt)^{n-1}=pt\dfrac{1-(qt)^{n-1}}{1-qt}+t(qt)^{n-1}\\&=\dfrac{t\left((1-q)\left(1-(qt)^{n-1}\right)+(1-qt)(qt)^{n-1}\right)}{1-qt}=\dfrac{t\left((1-q)-(1-t)q(qt)^{n-1}\right)}{1-qt},\end{align*}

et d’autre part, $G_{Y_n}\left(\dfrac{1}{q}\right)=\dfrac{p}{q}\displaystyle\sum_{k=1}^{n-1}1+\dfrac{1}{q}=\dfrac{(n-1)p+1}{q}$.

2) Supposons que $X$ suive la loi géométrique de paramètre $p\in]0,1[$. Soit $(k,n)\in\mathbb{N}^2$. $\mathbb{P}(X>k)\neq0$ puis

\begin{align*}\mathbb{P}_{X>k}(X>k+n)&=\dfrac{\mathbb{P}(\{X\geqslant k+n+1\}\cap\{X\geqslant k+1\})}{\mathbb{P}(X\geqslant k+1)}=\dfrac{\mathbb{P}(X\geqslant k+n+1)}{\mathbb{P}(X\geqslant k+1)}\\&=\dfrac{q^{n+k}}{q^k}\;(\text{d’après la question 1)}\\&=q^n=\mathbb{P}(X>n).\end{align*}

Inversement, soit $X$ une vaiable aléatoire à valeurs dans $\mathbb{N}^*$ telle que, pour tout $(k,n)\in\mathbb{N}^2$, $\mathbb{P}_{X>k}(X>k+n)=\mathbb{P}(X>n)$ (avec la convention usuelle, $\mathbb{P}_A(B)=0$ quand $\mathbb{P}(A)=0$). On pose $p=\mathbb{P}(X=1)$ et on suppose de plus que $p\in]0,1[$.

En particulier, pour tout $n\in\mathbb{N}$, $\mathbb{P}(X>n)=\dfrac{\mathbb{P}(X>n+1)}{\mathbb{P}(X>1)}$ puis $\mathbb{P}(X>n+1)=(1-p)\mathbb{P}(X>n)$. Mais alors, pour tout $n\in\mathbb{N}$,

$$\mathbb{P}(X>n)=(1-p)^n\mathbb{P}(X>0)=(1-p)^n.$$

On en déduit encore que pour $n\in\mathbb{N}^*$,

$$\mathbb{P}(X=n)=\mathbb{P}(X>n-1)-\mathbb{P}(X>n)=(1-p)^{n-1}-(1-p)^n=p(1-p)^{n-1}.$$

La variable $X$ suit la loi géométrique de paramètre $p$.

Commentaires et/ou rappels de cours

Pas de commentaire particulier. 

Exercice – Difficulté 2 – Thème : variables aléatoires. Titre : étude de variables aléatoires matricielles.

Enoncé (CCINP)

Soient $X_1$, $\ldots$ , $X_n$, $n$ variables aléatoires mutuellement indépendantes qui suivent toutes une loi de Bernoulli de paramètre $p\in]0,1[$.

On note $X=\begin{pmatrix}X_1\\\vdots\\X_n\end{pmatrix}$ et $M=XX^T$.

1) Soit $R$ la variable aléatoire égale au rang de $M$. Déterminer la loi de $R$.

2) Soit $T$ la variable aléatoire égale à la trace de $M$. Déterminer la loi de $T$.

3) Déterminer la probabilité que $M$ soit la matrice d’un projecteur.

Corrigé

1) $M$ est une matrice cerrée de format $n$ puis, pour tout $(i,j)\in\{1,\ldots,n\}^2$, $M_{i,j}=X_iX_j$. Si $X=0$, alors $M=0$ puis $R=0$.

Si $X\neq 0$, les colonnes de $M$ sont colinéaires à $X$ et donc $R\leqslant 1$. Mais d’autre part, il existe $i_0\in\{1,\ldots,n\}$ tel que $X_{i_0}\neq0$ puis $M_{i_0,i_0}=X_{i_0}^2\neq0$ et donc $M\neq0$. Donc, $R\geqslant1$ et finalement $R=1$.

En résumé, $X(\Omega)=\{0,1\}$ et de plus $R=0\Leftrightarrow \forall i\in\{1,\ldots,n\},\;X_i=0$ puis, les variables $X_i$ étant indépendantes,

$$\mathbb{P}(R=0)=\mathbb{P}\left(\displaystyle\bigcap_{i=1}^{n}\left\{X_i=0\right\}\right)=\displaystyle\prod_{i=1}^{n}\mathbb{P}\left(X_i=0\right)=(1-p)^n.$$

On en déduit encore que $\mathbb{P}(R=1)=1-(1-p)^n$ puis que $R$ suit la loi de Bernoulli de paramètre $p’=1-(1-p)^n$.

2) $\text{Tr}(M)=\displaystyle\sum_{i=1}^{n}X_i^2=\displaystyle\sum_{i=1}^{n}X_i$. Puisque les variables $X_i$ sont mutuellement indépendantes, on sait que $T$ suit la loi binomiale de paramètres $n$ et $p$ :

$$T(\Omega)=\{0,1,\ldots,n\},\;\text{puis}\;\forall k\in\{0,1,\ldots,n\},\;\mathbb{P}(T=k)=\dbinom{n}{k}p^k(1-p)^{n-k}.$$

3) $M^2=\left(XX^T\right)\left(XX^T\right)=X\|X\|^2X^T=\|X\|^2M=TM$. De plus, $T=0\Leftrightarrow X=0\Leftrightarrow M=0$. Par suite, $M$ est la matrice d’une projection si et seulement si $M^2=M$ ce qui équivaut à $TM=M$ puis à $T\in\{0,1\}$. La probabilité $\pi$ cherchée est donc

$$\pi=\mathbb{P}(T=0)+\mathbb{P}(T=1)=(1-p)^n+np(1-p)^{n-1}=(1-p)^{n-1}(1+(n-1)p).$$

Commentaires et/ou rappels de cours

Peu de commentaires à faire si ce n’est une remarque très utilisée : si $X$ est une variable aléatoire suivant une loi de Bernoulli, alors $X^2=X$ car $0^2=0$ et $1^2=1$. 

Exercice – Difficulté 3 – Thème : combinatoire. Titre : dénombrement dans l’ensemble des parties d’un ensemble.

Enoncé (Mines Télécom)

1) Calculer $\text{card}\left(\left\{(A,B)\in\left(\mathscr{P}(\{1,\ldots,n\})\right)^2/\;A\subset B\right\}\right)$.

2) On choisit au hasard deux parties $A$ et $B$ de $\{1,\ldots,n\}$. Quelle est la probabilité que l’une soit incluse dans l’autre ?

Corrigé

1) On pose $E=\left\{(A,B)\in\left(\mathscr{P}(\{1,\ldots,n\})\right)^2/\;A\subset B\right\}$.

Soit $k\in\{0,\ldots,n\}$. On fixe une partie $B$ de $\{1,\ldots,n\}$ à $k$ éléments. Le nombre de couples $(A,B)$ tel que $A\subset B$ est le nombre de parties de $B$ à savoir $2^k$. Puisque qu’il y a $\dbinom{n}{k}$ parties $B$ de $\{1,\ldots,n\}$ à $k$ éléments, il y a donc $\dbinom{n}{k}2^k$ couples $(A,B)$ tel que $A\subset B$ et $\text{card}(B)=k$. Il ne reste plus qu’à faire varier $k$ de $0$ à $n$ :

$$\text{Card}(E)=\displaystyle\sum_{k=0}^{n}\dbinom{n}{k}2^k=(2+1)^n=3^n.$$

2) On suppose que les tirages de deux parties se font successivement et avec remise de sorte que la probabilité est uniforme : puisque $\text{card}(\mathscr{P}\left(\{1,\ldots,n\}^2\right)=\left(2^n\right)^2=4^n$, chaque couple de parties a une probabilité $\dfrac{1}{4^n}$.

On pose $E’=\left\{(A,B)\in\left(\mathscr{P}(\{1,\ldots,n\})\right)^2/\;B\subset A\right\}$. On a $\text{card}(E’)=\text{card}(E)=3^n$. Ensuite $\text{Card}(E\cap E’)=\text{card}(\mathscr{P}(\{1,\ldots,n\}))=2^n$. La probabilité demandée est $\mathbb{P}(E\cup E’)$ :

$$\mathbb{P}(E\cup E’)=\mathbb{P}(E)+\mathbb{P}(E’)-\mathbb{P}(E\cap E’)=\dfrac{2\times3^n-2^n}{4^n}.$$

Commentaires et/ou rappels de cours

On peut donner brièvement une autre solution pour 1). A chaque couple $(A,B)$ tel que $A\subset B$, on peut associer la fonction $\begin{array}[t]{cccc}\varphi_{(A,B)}~:&\{1,\ldots,n\}&\rightarrow&\{0,1,2\}\\&x&\mapsto&\left\{\begin{array}{l}0\;\text{si}\;x\in A\\1\;\text{si}\;x\in B\setminus A\\2\;\text{si}\;x\notin B\end{array}\right.\end{array}$. On peut montrer que l’application de $E$ vers $\{0,1,2\}^{\{1,\ldots,n\}}$ qui à $(A,B)$ associe $\varphi_{(A,B)}$ est une bijection et donc

$$\text{card}(E)=\text{card}\left(\{0,1,2\}^{\{1,\ldots,n\}}\right)=3^n.$$