Exercices d’oraux type Centrale/Mines

retour vers la page des exercices d’oraux 

ALGEBRE LINEAIRE

Exercice – Difficulté 2 – Thème : réduction. Titre : trouver une matrice de polynôme minimal donné.

Enoncé (Mines-Ponts)

Existe-t-il une matrice élément de $\mathscr{M}_n(\mathbb{R})$ dont le polynôme minimal soit $X^2+1$ ?

Corrigé

1er cas. On suppose que $n$ est pair et on pose $n=2p$ avec $p\in\mathbb{N}^*$. Soit $R=\begin{pmatrix}0&-1\\1&0\end{pmatrix}=\begin{pmatrix}\cos\left(\dfrac{\pi}{2}\right)&-\sin\left(\dfrac{\pi}{2}\right)\\\sin\left(\dfrac{\pi}{2}\right)&\cos\left(\dfrac{\pi}{2}\right)\rule{0mm}{0.7cm}\end{pmatrix}$.

Alors, $R^2=-I_2$.

Soit $A\in\mathscr{M}_{2p}(\mathbb{R})$ la matrice diagonale par blocs, dont la diagonale est constituée de $p$ blocs égaux à $R$. Alors, $A^2=-I_{2p}$ puis le polynôme $X^2+1$ est un polynôme unitaire, annulateur de $A$. Le polynôme minimal de $A$ est un diviseur unitaire de $X^2+1$ et ne peut être de degré $1$ car $A$ n’est pas une matrice scalaire. Donc, $\mu_A=X^2+1$.

Ainsi, si $n$ est pair, il existe une matrice élément de $\mathscr{M}_n(\mathbb{R})$ dont le polynôme minimal est $X^2+1$.

2ème cas. On suppose que $n$ est impair et on pose $n=2p+1$ avec $p\in\mathbb{N}$. Supposons par l’absurde qu’il existe $A\in\mathscr{M}_n(\mathbb{R})$ telle que $\mu_A=X^2+1$.  Donc, $A^2=-I_n$ puis $(\text{det}(A))^2=\text{det}\left(A^2\right)=\text{det}\left(-I_n\right)=(-1)^n=-1$. Ceci est une contradiction car $\text{det}(A)$ est réel.

Si $n$ est impair, il n’existe pas une matrice élément de $\mathscr{M}_n(\mathbb{R})$ dont le polynôme minimal est $X^2+1$.

Commentaires et/ou rappels de cours

Une autre idée dans le cas où $n$ est impair. Toute valeur propre de $A$ dans $\mathbb{C}$ est racine de $\mu_A$ et donc $A$ n’admet pas de valeur propre réelle. Mais d’autre part, $\chi_A$ est un polynôme de degré impair à coefficients réels et donc $\chi_A$ admet au moins une racine réelle. Ceci est une contradiction.

Exercice – Difficulté 3 – Thème : réduction. Titre : diagonalisabilité d’un endomorphisme de l’espace des matrices symétriques réelles de format 2.

Enoncé (Mines-Ponts)

Soient $E=\mathscr{S}_2(\mathbb{R})$ et $A=\begin{pmatrix}a&b\\c&d\end{pmatrix}\in\mathscr{M}_2(\mathbb{R})$. Soit $\begin{array}[t]{cccc}\Phi~:&\mathscr{S}_2(\mathbb{R})&\rightarrow&\mathscr{S}_2(\mathbb{R})\\ &S&\mapsto& AS+SA^T\end{array}$.

1) Déterminer la matrice de $\Phi$ dans une base de $E$.

2) Quelle relation existe-t-il entre les polynômes caractéristiques $\chi_\Phi$ et $\chi_A$ ?

3) Si $\Phi$ est diagonalisable, la matrice $A$ l’est-elle dans $\mathscr{M}_2(\mathbb{R})$ ?

4) Si $A$ est diagonalisable dans $\mathscr{M}_2(\mathbb{R})$, l’endomorphisme $\Phi$ l’est-il ?

Corrigé

1) Pour tout $S\in\mathscr{S}_2(\mathbb{R})$, $(\Phi(S))^T=SA^T+AS=\Phi(S)$ et donc $\Phi\left(\mathscr{S}_2(\mathbb{R})\right)\subset\mathscr{S}_2(\mathbb{R})$. $\Phi$ étant linéaire, $\Phi\in\mathscr{L}\left(\mathscr{S}_2(\mathbb{R})\right)$.

$\mathscr{S}_2(\mathbb{R})$ est un sous-espace de $\mathscr{M}_2(\mathbb{R})$ de dimension $\dfrac{3\times2}{2}=3$. Une base de $\mathscr{S}_2(\mathbb{R})$ est $\mathscr{B}=(U,V,W)$ où $U=E_{1,1}$, $V=E_{2,2}$ et $W=E_{1,2}+E_{2,1}$.

\begin{align*}\Phi(U)&=\begin{pmatrix}a&b\\c&d\end{pmatrix}\begin{pmatrix}1&0\\0&0\end{pmatrix}+\begin{pmatrix}1&0\\0&0\end{pmatrix}\begin{pmatrix}a&c\\b&d\end{pmatrix}=\begin{pmatrix}2a&c\\c&0\end{pmatrix}\\&=2aU+cW.\end{align*}

\begin{align*}\Phi(V)&=\begin{pmatrix}a&b\\c&d\end{pmatrix}\begin{pmatrix}0&0\\0&1\end{pmatrix}+\begin{pmatrix}0&0\\0&1\end{pmatrix}\begin{pmatrix}a&c\\b&d\end{pmatrix}=\begin{pmatrix}0&b\\b&2d\end{pmatrix}\\&=2dV+bW.\end{align*}

\begin{align*}\Phi(W)&=\begin{pmatrix}a&b\\c&d\end{pmatrix}\begin{pmatrix}0&1\\1&0\end{pmatrix}+\begin{pmatrix}0&1\\1&0\end{pmatrix}\begin{pmatrix}a&c\\b&d\end{pmatrix}=\begin{pmatrix}b&a\\d&c\end{pmatrix}+\begin{pmatrix}b&d\\a&c\end{pmatrix}\\&=\begin{pmatrix}2b&a+d\\a+d&2c\end{pmatrix}=2bU+2cV+(a+d)W.\end{align*}

Donc, $\text{Mat}_{\mathscr{B}}(\Phi)=\begin{pmatrix}
2a&0&2b\\
0&2d&2c\\
c&b&a+d
\end{pmatrix}$.

2) $\chi_A=X^2-(a+d)X+ad-bc$. Ensuite, en développant suivant la première colonne, on obtient

\begin{align*}
\chi_\Phi&=\begin{vmatrix}
X-2a&0&-2b\\
0&X-2d&-2c\\
-c&-b&X-(a+d)
\end{vmatrix}\\
&=(X-2a)(X-2d)(X-(a+d))-2bc(X-2a)-2bc(X-2d)\\
&=(X-2a)(X-2d)(X-(a+d))-4bc(X-(a+d))=(X-(a+d))((X-2a)(X-2d)-4bc)\\
&=(X-(a+d))\left(X^2-2(a+d)X+4(ad-bc)\right)\\&=4(X-(a+d))\left(\left(\dfrac{X}{2}\right)^2-(a+d)\dfrac{X}{2}+(ad-bc)\right)\\
&=4(X-(a+d))\;\chi_{A}\left(\dfrac{X}{2}\right).
\end{align*}

3) et 4) Si $\Phi$ (resp. $A$) est diagonalisable, alors $\chi_\phi$ (resp. $\chi_A$) est scindé sur $\mathbb{R}$ et dans tous les cas, $\chi_A$ est scindé sur $\mathbb{R}$. Donc, si $\Phi$ (resp. $A$) est diagonalisable, $\Delta=(a+d)^2-4(ad-bc)\geqslant 0$, ce que l’on suppose dorénavant.

1er cas. Si $\Delta>0$, $\text{Sp}(\Phi)=\left(a+d,a+d+\sqrt{\Delta},a+d-\sqrt{\Delta}\right)$ et $\text{Sp}(A)=\left(\dfrac{a+d+\sqrt{\Delta}}{2},\dfrac{a+d-\sqrt{\Delta}}{2}\right)$.

Dans ce cas, $\chi_\Phi$ et $\chi_A$ sont scindés sur $\mathbb{R}$ à racines simples. $\Phi$ et $A$ sont diagonalisables.

2ème cas. Si $\Delta=0$, $\text{Sp}(\Phi)=(a+d,a+d,a+d)$ et $\text{Sp}(A)=\left(\dfrac{a+d}{2},\dfrac{a+d}{2}\right)$.

Si $A$ est diagonalisable, $A$ est semblable à $\dfrac{a+d}{2}I_2$ et donc égale à $\dfrac{a+d}{2}I_2$. Dans ce cas, pour tout $S\in\mathscr{S}_2(\mathbb{R})$, $\Phi(S)=\dfrac{a+d}{2}S-\dfrac{a+d}{2}S=0$. $\Phi$ est l’endomorphisme nul et est en particulier diagonalisable.

Si $\Phi$ est diagonalisable, $\Phi$ coïncide sur une base de $\mathscr{S}_2(\mathbb{R})$ avec $(a+b)Id$ et donc $\Phi=(a+b)Id$.

Donc, $\begin{pmatrix}
2a&0&2b\\
0&2d&2c\\
c&b&a+d
\end{pmatrix}=\begin{pmatrix}1&0&0\\0&1&0\\0&0&1\end{pmatrix}$ puis $a=d=\dfrac{1}{2}$ et $b=c=0$ puis $A=\dfrac{1}{2}I_2$. $A$ est alors diagonalisable.

On a montré que : $\Phi$ diagonalisable $\Leftrightarrow$ $A$ diagonalisable.

Commentaires et/ou rappels de cours

Soit $P=\sum a_kX^k$ un polynôme. Alors, pour tout $\lambda\in\mathbb{K}$, $P(\lambda X)=\sum a_k\lambda^kX^k$. Donc, si $P=X^2+aX+b$ et $Q=X^2+2aX+4b$, alors $Q=4P\left(\dfrac{X}{2}\right)$.

Exercice – Difficulté 3 – Thème : matrices. Titre : matrices carrées semblables à leur inverse.

Enoncé (Centrale)

Toutes les matrices considérées dans cet exercice sont à coefficients réels. Par « matrices semblables », on entend « matrices semblables dans $\mathscr{M}_n(\mathbb{R})$ ».

1) a) Montrer que pour tout réel $a$, la matrice $\begin{pmatrix}1&a\\0&1\end{pmatrix}$ est semblable à son inverse.

b) Soit $(a,b)\in\mathbb{R}^2$ avec $ab\neq1$. La matrice $A=\begin{pmatrix}1&a\\b&1\end{pmatrix}$ est-elle semblable à son inverse ?

Soient $(a,b,c)\in\mathbb{R}^3$ puis $A=\begin{pmatrix}1&a&b\\a&1&c\\b&c&1\end{pmatrix}$ inversible. On pose $\delta=\sqrt{a^2+b^2+c^2}$.

2) a) Former le polynôme caractéristique $\chi_A$ de $A$.

b) Calculer les coefficients de $\chi_{A^{-1}}$ en fonction de $\delta$ et $\text{det}(A)$.

c) A quelles conditions sur $a$, $b$, $c$, la matrice $A$ est-elle semblable à la matrice $A^{-1}$ ?

Soient $(a,b,c)\in\mathbb{R}^3$ puis $A=\begin{pmatrix}1&a&b\\0&1&c\\0&0&1\end{pmatrix}$.

3) a) Calculer $A^{-1}$.

b) On pose $N=A-I_3$ et $M=A^{-1}-I_3$. Montrer que $N$ est semblable à $M$.

c) $A$ est-elle semblable à son inverse ?

Corrigé

1) a) $A$ est inversible d’inverse $A^{-1}=\begin{pmatrix}1&-a\\0&1\end{pmatrix}$.

Soit $f$ l’endomorphisme de $\mathbb{R}^2$ canoniquement associé à $A$. Soit $\mathscr{B}=\left(e_1,e_2\right)$ la base canonique de $\mathbb{R}^2$. Soit $\mathscr{B’}=\left(-e_1,e_2\right)=\left(e_1′,e_2’\right)$. On a $f\left(e_1\right)=e_1$ puis $f\left(-e_1\right)=-e_1$ et donc $f\left(e_1’\right)=e_1’$. On a aussi $f\left(e_2\right)=ae_1+e_2$ et donc $f\left(e_2’\right)=-ae_1’+e_2’$.

Ainsi, $\text{Mat}_{\mathscr{B}}(f)=A$ et $\text{Mat}_{\mathscr{B}’}(f)=A^{-1}$. On en déduit que $A$ et $A^{-1}$ sont semblables ($A^{-1}=P^{-1}AP$ où $P=\begin{pmatrix}-1&0\\0&1\end{pmatrix}=P^{-1}$.

b) $\text{det}(A)=1-ab\neq0$ et donc $A$ est inversible puis $A^{-1}=\dfrac{1}{1-ab}\begin{pmatrix}1&-a\\-b&1\end{pmatrix}$.

Si $A$ et $A^{-1}$ sont semblables, alors $\text{Tr}(A)=\text{Tr}\left(A^{-1}\right)$ ce qui fournit $\dfrac{2}{1-ab}=2$ puis $ab=0$ puis $a=0$ ou $b=0$.

Réciproquement, le cas $b=0$ a été étudié en a). $A$ et $A^{-1}$ sont semblables. Le cas $a=0$ se déduit du cas précédent en transposant. $A$ et $A^{-1}$ sont également semblables.

En résumé, $A$ et $A^{-1}$ sont semblables si et seulement si $a=0$ ou $b=0$.

2) a) En développant suivant la première colonne, on obtient

\begin{align*}
\chi_A&=\text{det}\left(XI_3-A\right)=\begin{vmatrix}X-1&-a&-b\\-a&X-1&-c\\-b&-c&X-1\end{vmatrix}\\
&=(X-1)^3-c^2(X-1)+a(-a(X-1)-bc)-b(ac+b(X-1))\\
&=X^3-3X^2+\left(3-\delta^2\right)X+\delta^2-2abc-1.
\end{align*}

En particulier, $\text{det}(A)=-\chi_A(0)=1+2abc-\delta^2$ et donc $A$ est inversible si et seulement si $a^2+b^2+c^2-2abc-1\neq0$. On suppose cette condition réalisée dans les deux questions qui suivent.

b)

\begin{align*}
\chi_{A^{-1}}&=\text{det}\left(XI_3-A^{-1}\right)=\text{det}\left(XA^{-1}\right)\text{det}\left(A-\dfrac{1}{X}I_3\right)=-\dfrac{X^3}{\text{det}(A)}\chi_A\left(\dfrac{1}{X}\right)\\
&=-\dfrac{X^3}{\text{det}(A)}\left(\dfrac{1}{X^3}-\dfrac{3}{X^2}+\dfrac{3-\delta^2}{X}+\delta^2-2abc-1\right)\\
&=X^3-\dfrac{3-\delta^2}{\text{det}(A)}X^2+\dfrac{3}{\text{det}(A)}X-\dfrac{1}{\text{det}(A)}
\end{align*}

c) Si $A$ et $A^{-1}$ sont semblables, alors $A$ et $A^{-1}$ ont même polynôme caractéristique. Ceci impose $-\dfrac{1}{\text{det}(A)}=-\text{det}(A)$ puis $(\text{det}(A))^2=1$ et donc $\text{det}(A)\in\{-1,1\}$.

1er cas. Supposons $\text{det}(A)=1$. Alors, $\chi_A=X^3-3X^2+\left(3-\delta^2\right)X-1$ et $\chi_{A^{-1}}=X^3-\left(3-\delta^2\right)X^2+3X-1$. $\chi_A=\chi_{A^{-1}}$ impose $-3+\delta^2=-3$ puis $\delta^2=0$ et donc $a=b=c=0$. Dans ce cas, $A=I_3$ puis $A$ est semblable à son inverse.

2ème cas. Supposons $\text{det}(A)=-1$. Alors, $\chi_A=X^3-3X^2+\left(3-\delta^2\right)X+1$ et $\chi_{A^{-1}}=X^3+\left(3-\delta^2\right)X^2-3X+1$. Dans ce cas, $\chi_A=\chi_{A^{-1}}$ impose $3-\delta^2=-3$ puis $\delta^2=6$.

Inversement, supposons $\delta^2-2abc-1=1$ et $\delta^2=6$ ou encore supposons $a^2+b^2+c^2=6$ et $abc=2$. Dans ce cas,

\begin{align*}
\chi_{A^{-1}}=\chi_A&=X^3-3X^2-3X+1=\left(X^3+1\right)-3X(X+1)=(X+1)\left(X^2-X+1-3X\right)\\&=(X+1)\left(X^2-4X+1\right)\\
&=(X+1)\left(X-\left(2+\sqrt{3}\right)\right)\left(X-\left(2-\sqrt{3}\right)\right).
\end{align*}

$\chi_A=\chi_{A^{-1}}$ est scindé sur $\mathbb{R}$ à racines simples et donc $A$ et $A^{-1}$ sont diagonalisables, toutes deux semblables à $D=\text{diag}\left(-1,2-\sqrt{3},2+\sqrt{3}\right)$. Par transitivité, $A$ et $A^{-1}$ sont semblables.

En résumé, $A$ et $A^{-1}$ sont semblables si et seulement si $a=b=c=0$ ou ($a^2+b^2+c^2=6$ et $abc=2$).

3) a) $\text{det}(A)=1$ et donc $A$ est inversible. Soient $\mathscr{B}=(i,j,k)$ la base canonique de $\mathbb{R}^3$ puis $\mathscr{B}’=(u,v,w)$ la base de $\mathbb{R}^3$ telle que $A=\mathscr{P}_{\mathscr{B}}^{\mathscr{B}’}$.

$$\left\{\begin{array}{l}u=i\\v=ai+j\\w=bi+cj+k\end{array}\right.\Leftrightarrow
\left\{\begin{array}{l}i=u\\j=-au+v\\k=-bu-c(-au+v)+w\end{array}\right.\Leftrightarrow
\left\{\begin{array}{l}i=u\\j=-au+v\\k=(-b+ac)u-cv+w\end{array}\right..
$$

Donc, $A^{-1}=\mathscr{P}_{\mathscr{B}’}^{\mathscr{B}}=\begin{pmatrix}1&-a&-b+ac\\0&1&-c\\0&0&1\end{pmatrix}$.

b) $N=A-I_3=\begin{pmatrix}0&a&b\\0&0&c\\0&0&0\end{pmatrix}$ et $M=A^{-1}-I_3=\begin{pmatrix}0&-a&-b+ac\\0&0&-c\\0&0&0\end{pmatrix}$. On note $f$ l’endomorphisme de $\mathbb{R}^3$ canoniquement associés à $N$.

1er cas. Supposons $a\neq0$ et $c\neq0$. Dans ce cas, $f^2\neq0$ et $f^3=0$. Il existe un vecteur $w$ tel que $f^2(w)\neq0$. On pose $v=f(w)$ et $u=f^2(w)=f(v)$. Vérifions que la famille $(u,v,w)$ est libre et donc une base de $\mathbb{R}^3$. Soit $(a,b,c)\in\mathbb{R}^3$ tel que $au+bv+cw=0$. En prenant l’image des deux membres par $f^2$, on obtient $au=0$ puis $a=0$ car $u\neq0$. Il reste $bv+cw=0$. En prenant l’image des deux membres par $f$, on obtient $bu=0$ et donc $b=0$. Il reste $cw=0$ et donc $c=0$.

La matrice de $f$ dans la base $(u,v,w)$ est $\begin{pmatrix}0&1&0\\0&0&1\\0&0&0\end{pmatrix}$. Ainsi, $N$ est semblable à $\begin{pmatrix}0&1&0\\0&0&1\\0&0&0\end{pmatrix}$. De même, $M$ est nilpotente d’indice $3$ et donc $M$ est semblable à $\begin{pmatrix}0&1&0\\0&0&1\\0&0&0\end{pmatrix}$. Par transitivité, $M$ et $N$ sont semblables.

2ème cas. Supposons ($a=0$ et ($b\neq0$ ou $c\neq0$)) ou ($c=0$ et ($a\neq0$ ou $b\neq0$)) ou ($a=c=0$ et $b\neq0$), On note toujours $f$ l’endomorphisme de $\mathbb{R}^3$ canoniquement associé à $N$.

On a $f\neq0$ et $f^2=0$. Dans ce cas, $\text{Im}(f)\subset\text{Ker}(f)$, $\text{rg}(f)=1$ et $\text{dim}(\text{Ker}(f))=2$. Soit $v\in E$ tel que $f(v)\neq0$. On pose $u=f(v)$. Puisque $f^2=0$, $u$ est un vecteur non nul de $\text{Ker}(f)$. On complète la famille libre $(u)$ en $(u,w)$ base de $\text{Ker}(u)$. Vérifions que $(u,v,w)$ est libre et donc une base de $\mathbb{R}^3$. Soit $(a,b,c)\in\mathbb{R}^3$ tel que $au+bv+cw=0$. En prenant l’image des deux membres par $f$, on obtient $bu=9$ puis $b=0$ car $u\neq0$. Il reste $au+cw=0$ et donc $a=c=0$ car $(u,w)$ est libre.

La matrice de $f$ dans la base $(u,v,w)$ est $\begin{pmatrix}0&1&0\\0&0&0\\0&0&0\end{pmatrix}$. Ainsi, $N$ est semblable à $\begin{pmatrix}0&1&0\\0&0&0\\0&0&0\end{pmatrix}$. De même, $M$ est nilpotente d’indice $2$ et donc $M$ est semblable à $\begin{pmatrix}0&1&0\\0&0&0\\0&0&0\end{pmatrix}$. Par transitivité, $M$ et $N$ sont semblables.

3ème cas. Si $a=b=c=0$, $M=N=0_3$ et encore une fois $M$ et $N$ sont semblables.

On a montré dans tous les cas que $M$ et $N$ sont semblables.

c) Il existe $P\in GL_3(\mathbb{R})$ telle que $N=P^{-1}MP$ ou encore $A-I_3=P^{-1}\left(A^{-1}-I_3\right)P$ et donc $A=P^{-1}A^{-1}P$. $A$ est donc semblable à son inverse.

Commentaires et/ou rappels de cours

Pas de commentaire particulier.

Exercice – Difficulté 2 – Thème : espaces euclidiens. Titre : déterminer l’adjoint d’une certaine application linéaire

Enoncé (Mines-Ponts)

Dans $E=\mathscr{M}_{p,q}(\mathbb{R})$, montrer que l’application $(X,Y)\mapsto\text{Tr}\left(X^TY\right)$ est un produit scalaire sur $E$ que l’on note $\langle\;,\;\rangle$.

Soit $(A,B)\in\mathscr{M}_p(\mathbb{R})\times\mathscr{M}_q(\mathbb{R})$. Pour tout $X\in E$, on pose $\Phi_{A,B}(X)=AX-XB$. Trouver l’adjoint de $\Phi_{A,B}$.

Corrigé

Soit $(X,Y)\in E^2$. Posons $X=\left(x_{i,j}\right)_{1\leqslant i\leqslant p,\;1\leqslant j\leqslant q}$ et $Y=\left(y_{i,j}\right)_{1\leqslant i\leqslant p,\;1\leqslant j\leqslant q}$. $X^TY$ est une matrice carrée de format $q$ puis

$$\langle X,Y\rangle=\text{Tr}\left(X^TY\right)=\displaystyle\sum_{j=1}^{q}\left(\displaystyle\sum_{i=1}^{p}x_{i,j}y_{i,j}\right).$$

On reconnaît l’expression du produit scalaire canonique sur $E$ et en particulier $\langle\;,\;\rangle$ est un produit scalaire sur $E$.

Soit alors $(A,B)\in\mathscr{M}_p(\mathbb{R})\times\mathscr{M}_q(\mathbb{R})$. Pour tout $(X,Y)\in E^2$,

\begin{align*}\langle X,\Phi_{A,B}^*(Y)\rangle&=\langle\Phi_{A,B}(X),Y\rangle=\langle AX-XB,Y\rangle\\&=\text{Tr}\left((AX-XB)^TY\right)=\text{Tr}\left(X^TA^TY\right)-\text{Tr}\left(B^TX^TY\right)\\&=\text{Tr}\left(X^TA^TY\right)-\text{Tr}\left(X^TYB^T\right)=\text{Tr}\left(X^T\left(A^TY-YB^T\right)\right)\\&=\langle X,a^TY-YB^T\rangle.\end{align*}

Par unicité de l’adjoint, pour tout $Y\in E^2$, $\Phi_{A,B}^*(Y)=A^TY-YB^T=\Phi_{A^T,B^T}(Y)$ et finalement

$$\Phi_{A,B}^*=\Phi_{A^T,B^T}.$$

Commentaires et/ou rappels de cours

$\bullet$ La trace est une forme linéaire sur $E=\mathscr{M}_n(\mathbb{K})$ vérifiant de plus : $\forall(A,B)\in E^2$, $\text{Tr}(AB)=\text{Tr}(BA)$.

$\bullet$ Soient $(E,\langle\;,\;\rangle)$ un espace euclidien puis $f\in\mathscr{L}(E)$. L’ajoint de $f$, noté $f^*$, est l’unique endomorphisme de $E$ vérifiant

$$\forall(x,y)\in E^2,\;\langle f(x),y\rangle=\langle x,f^*(y)\rangle.$$

Exercice – Difficulté 2 – Thème : déterminants. Titre : un déterminant par blocs.

Enoncé (Mines-Ponts)

Soient $B\in\mathscr{M}_n(\mathbb{R})$ puis $A=\begin{pmatrix}I_n&B\\-B&I_n\end{pmatrix}$. Montrer que $$\text{det}(A)=\text{det}\left(I_n+B^2\right)\geqslant0.$$

Corrigé

Soit $C=\begin{pmatrix}I_n&-B\\0&I_n\end{pmatrix}$. Un calcul par blocs fournit

$$AC=\begin{pmatrix}I_n&B\\-B&I_n\end{pmatrix}\begin{pmatrix}I_n&-B\\0&I_n\end{pmatrix}=\begin{pmatrix}I_n&0\\-B&I_n+B^2\end{pmatrix}.$$

Ensuite, $\text{det}(C)=\left(\text{det}\left(I_n\right)\right)^2=1$ et donc

$$\text{det}(A)=\text{det}(A)\times\text{det}(C)=\text{det}(AC)=\text{det}\begin{pmatrix}I_n&0\\-B&I_n+B^2\end{pmatrix}=\text{det}\left(I_n+B^2\right).$$

Ensuite, la matrice $B$ étant à coefficients réels

\begin{align*}\text{det}(A)&=\text{det}\left(I_n+iB\right)\times\text{det}\left(I_n-iB\right)=\text{det}\left(I_n+iB\right)\times\overline{\text{det}\left(I_n+iB\right)}\\&=\left|\text{det}\left(I_n+iB\right)\right|^2\geqslant0.\end{align*}

Commentaires et/ou rappels de cours

$\bullet$ Pour le calcul du déterminant de $A$, on pouvait aussi effectuer les transformations : pour tout $j\in\{1,\ldots,\}$, $C_j\leftarrow C_j+iC_{n+j}$ puis pour $j\in\{n+1,\ldots,2n\}$, $L_j\leftarrow L_j-iL_{n-j}$.

$\bullet$ Pour tout $M\in\mathscr{M}_n(\mathbb{C})$, $\text{det}\left(\overline{M}\right)=\overline{\text{det}(M)}$ car $\text{det}(M)$ est polynomial en les coefficients de $M$.

$\bullet$ Et bien sûr, le déterminant d’une matrice à coefficients réels positifs n’a aucune raison a priori d’être un réel positif. Par exemple, si $A=\begin{pmatrix}1&2\\1&1\end{pmatrix}$, $\text{det}(A)=-1$.

Exercice – Difficulté 2 – Thème : matrices. Titre : matrices nilpotentes d’indice 2.

Enoncé (Mines-Ponts)

1) Soit $M\in\mathscr{M}_n(\mathbb{K})$ de rang $1$. Trouver une relation entre $M^2$ et $M$.

2) Trouver toutes les matrices carrées de format $3$, nilpotente d’indice $2$.

Corrigé

1) Soit $M\in\mathscr{M}_n(\mathbb{R})$ de rang $1$. Les colonnes de $M$, notées $C_1,\;\ldots,\;C_n$,  engendrent un espace de dimension $1$. Donc, il existe $U=\left(u_i\right)_{1\leqslant i\leqslant n}\in\mathscr{M}_{n,1}(\mathbb{K})\setminus\{0\}$ tel que $\text{Vect}\left(C_1,\ldots,C_n\right)=\text{Vect}(U)$ puis il existe $V=\left(v_i\right)_{1\leqslant i\leqslant n}\in\mathscr{M}_{n,1}(\mathbb{K})\setminus\{0\}$ tel que, pour tout $j\in\{1,\ldots,n\}$, $C_j=v_jU$. On a alors

$$M=\left(u_iv_j\right)_{1\leqslant i,j\leqslant n}=UV^T,$$

Réciproquement, une telle matrice est de rang $1$. Soit donc $M$ une telle matrice.

$$M^2=UV^TUV^T=U\left(\displaystyle\sum_{k=1}^{n}u_kv_k\right)V^T=\left(\displaystyle\sum_{k=1}^{n}u_kv_k\right)M=(\text{Tr}(M))M.$$

2) Soit $M\in\mathscr{M}_3(\mathbb{R})$. \begin{align*}M^2=0&\Rightarrow\text{Im}(M)\subset\text{Ker}(M)\Rightarrow\text{rg}(M)\leqslant3-\text{rg}(M)\\&\Rightarrow\text{rg}(M)\leqslant\dfrac{3}{2}\Rightarrow\text{rg}(M)\leqslant1.\end{align*}

Par suite, si $M$ est nilpotente d’indice $2$, alors $\text{rg}(M)=1$ puis $M^2=(\text{Tr}(M))M$. Mais alors,

$$M\neq0\;\text{et}\;M^2=0\Leftrightarrow M\neq0\;\text{et}\;\text{Tr}(M)=0.$$

Les matrices $M\in\mathscr{M}_3(\mathbb{R})$, nilpotentes d’indice $2$ sont les matrices de la forme

$$M=\begin{pmatrix}u_1v_1&u_1v_2&u_1v_3\\u_2v_1&u_2v_2&u_2v_3\\u_3v_1&u_3v_2&u_3v_3\end{pmatrix}$$

où $u_1$, $u_2$, $u_3$, $v_1$, $v_2$, $v_3$, sont $6$ réels tels que $\left(u_1,u_2,u_3\right)\neq(0,0,0)$, $\left(v_1,v_2,v_3\right)\neq(0,0,0)$ et $u_1v_1+u_2v_2+u_3v_3=0$.

Commentaires et/ou rappels de cours

Si $A$ et $B$ sont deux matrices carrées de même format, $AB=0\Leftrightarrow\text{Im}(A)\subset\text{Ker}(B)$ car

\begin{align*}AB=0&\Leftrightarrow\forall X\in\mathscr{M}_{n,1}(\mathbb{R}),\;ABX=0\Leftrightarrow\forall X\in\mathscr{M}_{n,1}(\mathbb{R}),\;BX\in\text{Ker}(A)\\&\Leftrightarrow\text{Im}(B)\subset\text{Ker}(A).\end{align*}

Exercice – Difficulté 3 – Thème : matrices. Titre : minimum d’une expression matricielle.

Enoncé (Mines-Ponts)

Soient $A\in\mathscr{S}_n^{++}(\mathbb{R})$ et $U\in\mathscr{M}_{n,1}(\mathbb{R})$.

Déterminer $\underset{X\in\mathscr{M}_{n,1}(\mathbb{R})}{\text{Inf}}\left(\dfrac{1}{2}X^TAX-U^TX\right)$ en fonction de $A$ et $U$.

On vérifiera que cette borne inférieure est un minimum et on précisera en quels points est atteint de minimum.

Corrigé

Pour tout $X\in\mathscr{M}_{n,1}(\mathbb{R})$, posons $f(X)=\dfrac{1}{2}X^TAX-U^TX$.

Puisque $A\in\mathscr{S}_n^{++}(\mathbb{R})$, il existe $P\in O_n(\mathbb{R})$ et $D=\text{diag}\left(\lambda_1,\ldots,\lambda_n\right)\in\mathscr{D}_n(\mathbb{R}^{+*})$ telles que $A=PDP^T$. On suppose de plus que la numérotation a été faite de sorte que $0<\lambda_1\leqslant\ldots\leqslant\lambda_n$.

On pose $V=P^TU$ de sorte que $U=PV$. Pour tout $X\in\mathscr{M}_{n,1}(\mathbb{R})$, en posant $Y=P^TX$ de sorte que $X=PY$,

\begin{align*}f(X)&=\dfrac{1}{2}X^TAX-U^TX=\dfrac{1}{2}X^TPDP^TX-U^TPP^TX\\&=\dfrac{1}{2}\left(P^TX\right)^TD\left(P^TX\right)-\left(P^TU\right)^T\left(P^TX\right)\\&=\dfrac{1}{2}Y^TDY-V^TY.\end{align*}

L’application $X\mapsto P^TX$ est une permutation de $\mathscr{M}_{n,1}(\mathbb{R})$ (de réciproque $X\mapsto PX$). On en déduit que $\left\{f(X),\;X\in\mathscr{M}_{n,1}(\mathbb{R})\right\}=\left\{g(Y),\;Y\in\mathscr{M}_{n,1}(\mathbb{R})\right\}$ où, pour tout $Y\in\mathscr{M}_{n,1}(\mathbb{R})$, $g(Y)=\dfrac{1}{2}Y^TDY-V^TY$ puis $\underset{X\in\mathscr{M}_{n,1}(\mathbb{R})}{\text{Inf}}f(X)=\underset{Y\in\mathscr{M}_{n,1}(\mathbb{R})}{\text{Inf}}g(Y)$.

En posant $Y=\left(y_i\right)_{1\leqslant i\leqslant n}$ et $V=\left(v_i\right)_{1\leqslant i\leqslant n}$,

\begin{align*}g(Y)&=\dfrac{1}{2}\displaystyle\sum_{i=1}^{n}\lambda_iy_i^2-\displaystyle\sum_{i=1}^{n}v_iy_i\\&=\dfrac{1}{2}\displaystyle\sum_{i=1}^{n}\left(\lambda_iy_i^2-2v_iy_i\right)\\&=\dfrac{1}{2}\displaystyle\sum_{i=1}^{n}\lambda_i\left(y_i-\dfrac{v_i}{\lambda_i}\right)^2-\dfrac{1}{2}\displaystyle\sum_{i=1}^{n}\dfrac{v_i^2}{\lambda_i}\\&\geqslant-\dfrac{1}{2}\displaystyle\sum_{i=1}^{n}\dfrac{v_i^2}{\lambda_i},\end{align*}

avec égalité effectivement obtenue si et seulement si $Y=Y_0=\left(\dfrac{v_i}{\lambda_i}\right)_{1\leqslant i\leqslant n}$ (car les $\lambda_i$ sont strictement positifs). Donc la fonction $g$ admet un minimum sur $\mathscr{M}_{n,1}(\mathbb{R})$ et ce minimum est égal à $-\dfrac{1}{2}\displaystyle\sum_{i=1}^{n}\dfrac{v_i^2}{\lambda_i}$.

Mais alors $f$ admet un minimum $m$ sur $\mathscr{M}_{n,1}(\mathbb{R})$ où de plus

\begin{align*}m&=-\dfrac{1}{2}\displaystyle\sum_{i=1}^{n}\dfrac{v_i^2}{\lambda_i}=-\dfrac{1}{2}V^TD^{-1}V=-\dfrac{1}{2}U^TPD^{-1}P^TU\\&=-\dfrac{1}{2}U^T\left(PDP^T\right)^{-1}U=-\dfrac{1}{2}U^TA^{-1}U\end{align*}

Ce minimum est atteint en un un point et un seul, le point $X_0=PY_0=PD^{-1}V=PP^TA^{-1}PV=A^{-1}U$.

Commentaires et/ou rappels de cours

$\bullet$ Quand $A$ est symétrique réelle, dans environ $100$ pour $100$ des cas, on applique le théorème spectral.

$\bullet$ Soit $A\in\mathscr{S}_n(\mathbb{R})$. Par définition,

$A\in\mathscr{S}_n^+(\mathbb{R})\Leftrightarrow \forall X\in\mathscr{M}_{n,1}(\mathbb{R}),\;X^TAX\geqslant0$

$A\in\mathscr{S}_n^{++}(\mathbb{R})\Leftrightarrow \forall X\in\mathscr{M}_{n,1}(\mathbb{R})\setminus\{0\},\;X^TAX>0$

et par théorème

$A\in\mathscr{S}_n^+(\mathbb{R})\Leftrightarrow\text{Sp}(A)\subset\mathbb{R}^+$ et $A\in\mathscr{S}_n^{++}(\mathbb{R})\Leftrightarrow\text{Sp}(A)\subset\mathbb{R}^{+*}$.

$\bullet$ Pour majorer ou minorer une expression du second degré, rien ne vaut une transformation canonique.

Exercice – Difficulté 3 – Thème : matrices. Titre : groupes multiplicatifs de matrices carrées.

Enoncé (Mines-Ponts)

On désigne par $G$ un sous-ensemble de $\mathscr{M}_n(\mathbb{R})$ non réduit à $\{0\}$ et on suppose que $(G,\times)$ est un sous-groupe multiplicatif, où $\times$ désigne le produit interne de $\mathscr{M}_n(\mathbb{R})$.

1) Montrer que tous les éléments de $G$ ont le même rang.

2) Montrer qu’il existe une matrice $P\in GL_n(\mathbb{R})$ et $H$ un sous-groupe de $GL_r(\mathbb{R})$ tels que $G=\left\{P^{-1}\begin{pmatrix}A&0\\0&0\end{pmatrix}P,\;A\in H\right\}$.

Corrigé

1) $G$ admet un élément neutre que l’on note $E$. Soit $M\in G$. $EM=M$ et donc

\begin{align*}\text{Im}(M)&=\left\{MX,\;X\in\mathscr{M}_{n,1}(\mathbb{R})\right\}=\left\{EMX,\;X\in\mathscr{M}_{n,1}(\mathbb{R})\right\}\\&\subset\left\{EX’,\;X’\in\mathscr{M}_{n,1}(\mathbb{R})\right\}=\text{Im}(E).\end{align*}

D’autre part, il existe $M’\in G$ tel que $MM’=E$ et on a donc aussi $\text{Im}(E)\subset\text{Im}(M)$. En résumé, pour toute $M\in G$, $\text{Im}(M)=\text{Im}(E)$ et en particulier, $\text{rg}(M)=\text{rg}(E)$.

Les éléments de $G$ ont le même rang que l’on note $r$ où $r\in\{1,\ldots,n\}$ ($r\neq0$ car $G$ contient un élément non nul).

2) Pour $M\in G$, on note $f_M$ l’endomorphisme de $\mathbb{R}^n$ canoniquement associé à $M$.

$E^2=E$ et donc $f_E^2=f_E$. $f_E$ est une projection de $\mathbb{R}^n$ et on sait que $\mathbb{R}^n=\text{Im}\left(f_E\right)\oplus\text{Ker}\left(f_E\right)$. On pose $F_1=\text{Im}\left(f_E\right)$ et $F_2=\text{Ker}\left(f_E\right)$. Soit alors $\mathscr{B}$ une base de $\mathbb{R}^n$ adaptée à la décomposition $\mathbb{R}^n$ puis $P$ la matrice de passage de $\mathscr{B}$ à $\mathscr{B}_0$ la base canonique de $\mathbb{R}^n$.

On sait déjà que pour tout $M\in G$, $\text{Im}\left(f_M\right)=F_1$. Soit $M\in G$. Pour $X\in\mathscr{M}_{n,1}(\mathbb{R})$,

$$EX=0\Rightarrow MEX=0\Rightarrow MX=0.$$

Donc, $\text{Ker}(E)\subset\text{Ker}(M)$ puis $\text{Ker}(E)=\text{Ker}(M)$ d’après le théorème du rang. Donc, pour tout $M\in G$, $\text{Ker}\left(f_M\right)=F_2$.

$M=\text{Mat}_{\mathscr{B}_0}\left(f_M\right)$ et d’autre part, $\text{Mat}_{\mathscr{B}}\left(f_M\right)$ est de la forme $\begin{pmatrix}A_M&0\\0&0\end{pmatrix}$ où $A_M\in\mathscr{M}_r(\mathbb{R})$ (car $\text{Im}\left(f_M\right)$ est stable par $f_M$). Donc, pour toute $M\in G$, il existe $A_M\in\mathscr{M}_r(\mathbb{R})$ (uniquement définie) telle que $M=P^{-1}\begin{pmatrix}A_M&0\\0&0\end{pmatrix}P$.

Notons $H$ l’ensemble des $A_M$ et vérifions que $H$ est un sous-groupe de $GL_r(\mathbb{R})$.

Pour tout $M\in G$, $r=\text{rg}(M)=\text{rg}\left(P^{-1}\begin{pmatrix}A_M&0\\0&0\end{pmatrix}P\right)=\text{rg}\left(\begin{pmatrix}A_M&0\\0&0\end{pmatrix}\right)=\text{rg}\left(A_M\right)$ (en supprimant les lignes nulles puis les colonnes nulles). Donc, pour toute $M\in G$, $\text{rg}\left(A_M\right)=r$ puis $A_M\in GL_r(\mathbb{R})$ (car $A_M$ est de format $r$). Ainsi, $H\subset GL_r(\mathbb{R})$.

Un calcul par blocs fournit $A_E^2=A_E$ puis $A_E=I_r$ car $A_E$ est inversible. Donc, $I_r\in H$.

Soit $(A,A’)\in H^2$. Soit $(M,M’)\in G^2$ tel que $A=A_M$ et $A’=A_{M’}$. Un calcul par blocs montre que

$$MM’=P^{-1}\begin{pmatrix}AA’&0\\0&0\end{pmatrix}P.$$

Donc, $AA’=A_{MM’}\in H$ (car $MM’\in G$. Enfin, soient $A\in H$ puis $M\in G$ telle que $A=A_M$. Soient $M’\in G$ telle que $MM’=E$ puis $A’=A_{M’}$. L’égalité $MM’=E$ fournit

$$P^{-1}\begin{pmatrix}AA’&0\\0&0\end{pmatrix}P=P^{-1}\begin{pmatrix}I_r&0\\0&0\end{pmatrix}P$$

puis $AA’=I_r$ puis $A^{-1}=A’\in H$.

On a montré que $H$ est un sous-groupe de $GL_r(\mathbb{R})$. De plus, $G=\left\{P^{-1}\begin{pmatrix}A&0\\0&0\end{pmatrix}P,\;A\in H\right\}$.

 

Commentaires et/ou rappels de cours

Puisque $\left(\mathscr{M}_n(\mathbb{R}),\times\right)$ n’est pas un groupe, il n’y a aucune raison pour que $G$ contienne la matrice $I_n$. Par exemple, si $n\geqslant 2$ et $G=\left\{E_{1,1}\right\}$, alors $(G,\times)$ est un groupe (d’élément neutre $E_{1,1}$) et ne contenant pas $I_n$.

Par contre, un sous-groupe d’un groupe contient toujours l’élément neutre du groupe.