Exercices d’oraux type Centrale/Mines
retour vers la page des exercices d’oraux
ALGEBRE LINEAIRE
Exercice – Difficulté 3 – Thème : matrices. Titre : matrices anti-symétriques réelles.
Enoncé (Mines-Ponts)
On note $\mathscr{A}_n(\mathbb{R})$ l’ensemble des matrices anti-symétriques de format $n$ à coefficients dans $\mathbb{R}$.
1) Soit $A\in\mathscr{A}_n(\mathbb{R})$. Montrer que $\text{Sp}(A)\subset i\mathbb{R}$.
2) Soit $A\in\mathscr{A}_n(\mathbb{R})$. On suppose que $A$ est inversible. Montrer que $n$ est pair.
3) Soit $A\in\mathscr{A}_n(\mathbb{R})$. Soit $P=(I+A)(I-A)^{-1}$.
$\quad$a) Montrer que $P\in O_n(\mathbb{R})$.
$\quad$b) Montrer que $-1$ n’est pas valeur propre de $P$.
4) Soit $E$ l’ensemble des matrices orthogonales n’admettant pas $-1$ pour valeur propre.
Montrer que $\begin{array}[t]{cccc}f~:&\mathscr{A}_n(\mathbb{R})&\rightarrow&E\\ &A&\mapsto&(I+A)(I-A)^{-1}\end{array}$ est une bijection.
5) Dans cette question, on suppose $n=2$. Soit $P\in SO_2(\mathbb{R})\cap E$. Expliciter $A\in\mathscr{A}_2(\mathbb{R})$ telle que $(I+A)(I-A)^{-1}=P$.
Corrigé
1) Soit $A\in\mathscr{A}_n(\mathbb{R})$. Soient $\lambda\in\mathbb{C}$ une valeur propre de $A$ et $X=\left(x_k\right)_{1\leqslant k\leqslant n}\in\mathscr{M}_{n,1}(\mathbb{C})\setminus\{0\}$ un vecteur propre associé.
\begin{align*}\overline{\lambda}\;\overline{X}^TX&=\overline{\lambda X}^TX=\overline{AX}^TX=\overline{X}^T\overline{A}^TX\\&=-\overline{X}^TAX\;(\text{car}\;A\;\text{est anti-symétrique réelle})\\&=-\overline{X}^T(\lambda X)\\&=-\lambda\overline{X}^TX\end{align*}
et donc $\left(\lambda+\overline{\lambda}\right)\overline{X}^TX=0$. De plus, $\overline{X}^TX=\displaystyle\sum_{k=1}^{n}\left|x_k\right|^2>0$ (somme de réels positifs et non tous nuls).
On en déduit que $\lambda+\overline{\lambda}=0$ puis $\lambda\in i\mathbb{R}$.
2) Si de plus $A$ est inversible, $A$ n’admet pas $0$ pour valeur propre. Les valeurs propres de $A$ sont des imaginaires purs non nuls. Puisque $A$ est réelle, si $ix$, $x\in\mathbb{R}^*$, est valeur propre de $A$, alors $-ix$ est valeur propre de $A$ avec même ordre de multiplicité. Le polynôme caractéristique de $A$ s’écrit sous la forme
$$\chi_A=\displaystyle\prod_{k=1}^{p}\left(X-ix_k\right)^{\alpha_k}\left(X+ix_k\right)^{\alpha_k}=\displaystyle\prod_{k=1}^{p}\left(X^2+x_k^2\right)^{\alpha_k}$$
où les $x_k$ sont des réels strictement positifs deux à deux distincts et les $\alpha_k$ sont des entiers naturels non nuls. Mais alors, $n=\text{deg}\left(\chi_A\right)=2\displaystyle\sum_{k=1}^{p}\alpha_k$ est un entier pair.
3) a) $1$ n’est pas imaginaire pur et donc $1$ n’est pas valeur propre de $A$. La matrice $P$ est bien définie. Ensuite,
$$P^T=\left((I-A)^{-1}\right)^T(I+A)^T=\left(I-A^T\right)^{-1}\left(I+A^T\right)=(I+A)^{-1}(I-A).$$
Maintenant, les matrices $I+A$ et $I-A$ commutent en tant que polynômes en $A$ et donc les matrices $I+A$ et $(I-A)^{-1}$ commutent puis
$$PP^T=(I-A)^{-1}(I+A)(I+A)^{-1}(I-A)=I.$$
On en déduit que $P\in O_n(\mathbb{R})$.
b) Soit $X\in\mathscr{M}_{n,1}(\mathbb{C})$.
\begin{align*}PX=-X&\Rightarrow(I-A)^{-1}(I+A)X=-X\Rightarrow(I+A)X=-(I-A)X\\&\Rightarrow 2X=0\Rightarrow X=0\end{align*}
Donc, $-1$ n’est pas valeur propre de $P$
4) D’après ce qui précède, $f$ est bien une application de $\mathscr{A}_n(\mathbb{R})$ dans $E$.
Soit $P\in E$. Donc, $P+I\in GL_n(\mathbb{R})$. Soit $A\in\mathscr{M}_n(\mathbb{R})$ n’admettant pas $1$ pour valeur propre.
\begin{align*}P=(I+A)(I-A)^{-1}&\Leftrightarrow P(I-A)=I+A\Leftrightarrow (P+I)A=P-I\\&\Leftrightarrow A=(P+I)^{-1}(P-I).\end{align*}
Ceci montre que tout élément de $E$ admet au plus un antécédent par $f$ et donc que $f$ est injective. Ensuite,
\begin{align*}A^T&=\left(P^T-I\right)\left(P^T+I\right)^{-1}=\left(P^{-1}-I\right)\left(P^{-1}+I\right)^{-1}\\&=\left((I-P)P^{-1}\right)\left(P^{-1}(P+I)\right)^{-1}\\&=-(P-I)P^{-1}(P+I)^{-1}P=-(P-I)P^{-1}P(P+I)^{-1}\\&=-(P-I)(P+I)^{-1}=-(P+I)^{-1}(P-I)\\&=-A.\end{align*}
Donc, $A\in\mathscr{A}_n(\mathbb{R})$. Ceci montre que tout élément de $E$ admet au moins un antécédent par $f$. Donc, $f$ est surjective puis bijective.
5) Soit $P\in SO_2(\mathbb{R})$. Il existe $\theta\in[-\pi,\pi]$ tel que $P=\begin{pmatrix}\cos(\theta)&-\sin(\theta)\\\sin(\theta)&\cos(\theta)\end{pmatrix}$. De plus, les valeurs propres de $P$ ainsi définie sont $e^{i\theta}$ et $e^{-i\theta}$ et donc $P\in E\Leftrightarrow \theta\notin\pi\mathbb{Z}$.
Soient donc $\theta\in]-\pi,\pi[$ puis $P=\begin{pmatrix}\cos(\theta)&-\sin(\theta)\\\sin(\theta)&\cos(\theta)\end{pmatrix}$. Alors
\begin{align*}P+I&=\begin{pmatrix}1+\cos(\theta)&-\sin(\theta)\\\sin(\theta)&1+\cos(\theta)\end{pmatrix}=\begin{pmatrix}2\cos^2\left(\dfrac{\theta}{2}\right)&-2\cos\left(\dfrac{\theta}{2}\right)\sin\left(\dfrac{\theta}{2}\right)\\2\cos\left(\dfrac{\theta}{2}\right)\sin\left(\dfrac{\theta}{2}\right)&2\cos^2\left(\dfrac{\theta}{2}\right)\end{pmatrix}\\&=2\cos\left(\dfrac{\theta}{2}\right)\begin{pmatrix}\cos\left(\dfrac{\theta}{2}\right)&-\sin\left(\dfrac{\theta}{2}\right)\\\sin\left(\dfrac{\theta}{2}\right)&\cos\left(\dfrac{\theta}{2}\right)\end{pmatrix}\end{align*}.
Ensuite, $\dfrac{\theta}{2}\in\left]-\dfrac{\pi}{2},\dfrac{\pi}{2}\right[$ puis $\cos\left(\dfrac{\theta}{2}\right)\neq0$ (ce que l’on savait déjà) et
$$(P+I)^{-1}=\dfrac{1}{2\cos\left(\dfrac{\theta}{2}\right)}\begin{pmatrix}\cos\left(\dfrac{\theta}{2}\right)&\sin\left(\dfrac{\theta}{2}\right)\\-\sin\left(\dfrac{\theta}{2}\right)&\cos\left(\dfrac{\theta}{2}\right)\end{pmatrix}.$$
D’autre part, $P-I=2\sin\left(\dfrac{\theta}{2}\right)\begin{pmatrix}-\sin\left(\dfrac{\theta}{2}\right)&-\cos\left(\dfrac{\theta}{2}\right)\\\cos\left(\dfrac{\theta}{2}\right)&-\sin\left(\dfrac{\theta}{2}\right)\end{pmatrix}$. Mais alors,
\begin{align*}A&=f^{-1}(P)=\dfrac{\sin\left(\dfrac{\theta}{2}\right)}{\cos\left(\dfrac{\theta}{2}\right)}\begin{pmatrix}\cos\left(\dfrac{\theta}{2}\right)&\sin\left(\dfrac{\theta}{2}\right)\\-\sin\left(\dfrac{\theta}{2}\right)&\cos\left(\dfrac{\theta}{2}\right)\end{pmatrix}\begin{pmatrix}-\sin\left(\dfrac{\theta}{2}\right)&-\cos\left(\dfrac{\theta}{2}\right)\\\cos\left(\dfrac{\theta}{2}\right)&-\sin\left(\dfrac{\theta}{2}\right)\end{pmatrix}\\&=\begin{pmatrix}0&-\tan\left(\dfrac{\theta}{2}\right)\\\tan\left(\dfrac{\theta}{2}\right)&0\end{pmatrix}.\end{align*}
Commentaires et/ou rappels de cours
$\bullet$ Pour la question 2), on peut aussi écrire $\text{det}(A)=\text{det}\left(-A^T\right)=(-1)^n\text{det}\left(A^T\right)=(-1)^n\text{det}(A)$ puis $\left(1-(-1)^n\right)\text{det}(A)=0$ puis $1-(-1)^n=0$ (car $\text{det}(A)\neq0$) et donc $n$ est pair.
$\bullet$ Soient $A$ et $B$ deux matrices carrées qui commutent, $A$ étant inversible.
$AB=BA\Rightarrow A^{-1}ABA^{-1}=A^{-1}BAA^{-1}\Rightarrow BA^{-1}=A^{-1}B$ et donc $B$ et $A^{-1}$ commutent.
Exercice – Difficulté 3 – Thème : matrices. Titre : commutant du commutant d’une matrice diagonalisable.
Enoncé (Mines-Ponts)
1) Déterminer les matrices $A\in\mathscr{M}_n(\mathbb{C})$ qui commutent avec tous les éléments de $\mathscr{M}_n(\mathbb{C})$.
2) Soit $A\in\mathscr{M}_n(\mathbb{C})$. On suppose que $A$ est diagonalisable. On note $C(A)$ l’ensemble des matrices qui commutent avec $A$ (on admet que $C(A)$ est un sous-espace vectoriel de $\mathscr{M}_n(\mathbb{C})$) puis $C^2(A)$ l’ensemble des matrices qui commutent avec tous les éléments de $C(A)$.
$\quad$a) Déterminer la dimension de $C(A)$.
$\quad$b) Montrer que $C^2(A)=\mathbb{C}[A]$.
Corrigé
1) On note $\left(E_{i,j}\right)_{1\leqslant i,j\leqslant n}$ la base canonique de $\mathscr{M}_n(\mathbb{R})$. On sait que, pour tout $(i,j,k,l)\in\{1,\ldots,n\}^4$, $E_{i,j}\times E_{k,l}=\delta_{i,k}E_{i,l}$.
Soit $A=\left(a_{k,l}\right)_{1\leqslant k,l\leqslant n}$ commutant avec toute matrice carrée. Soit $(i,j)\in\{1,\ldots,n\}^2$.
$$AE_{i,j}=\displaystyle\sum_{1\leqslant k,l\leqslant n}a_{k,l}E_{k,l}E_{i,j}=\displaystyle\sum_{k=1}^{n}a_{k,i}E_{k,j}$$
et
$$E_{i,j}A=\displaystyle\sum_{1\leqslant k,l\leqslant n}a_{k,l}E_{i,j}E_{k,l}=\displaystyle\sum_{l=1}^{n}a_{j,l}E_{i,l}.$$
Pour tout $(i,j)\in\{1,\ldots,n\}^2$, si $i\neq j$, par liberté de la base canonique, l’égalité $AE_{i,j}=E_{i,j}A$ fournit pour tout $k\neq i$, $a_{k,i}=0$ et d’autre part (quand $k=i$ et $l=j$), $a_{i,i}=a_{j,j}$.
En résumé, si $A$ commute avec toute matrice, alors les coefficients non diagonaux de $A$ sont nuls et les coefficients diagonaux de $A$ sont égaux. $A$ est donc une matrice scalaire. Réciproquement, une matrice scalaire commute avec toute matrice.
Les matrices carrées qui commutent avec toute matrice carrée sont les matrices scalaires.
2) a) Supposons $A$ diagonalisable. Notons $\lambda_1$, $\ldots$ , $\lambda_p$, les valeurs propres deux à deux distinctes de $A$ et $\alpha_1$, $\ldots$ , $\alpha_p$, leurs ordres de multiplicité respectifs. Puisque $A$ est diagonalisable, il existe $P\in GL_n(\mathbb{C})$ telle que $A=PDP^{-1}$ où $D$ est la matrice diagonale par blocs
$$D=\begin{pmatrix}\lambda_1I_{\alpha_1}&0&\ldots&0\\0&\ddots&\ddots&\vdots\\\vdots&\ddots&\ddots&0\\0&\ldots&0&\lambda_pI_{\alpha_p}\end{pmatrix}.$$
Soient $M\in\mathscr{M}_n(\mathbb{C})$ puis $M’=P^{-1}MP$.
$$MA=AM\Leftrightarrow PM’P^{-1}PDP^{-1}=PDP^{-1}PM’P^{-1}\Leftrightarrow M’D=DM’\Leftrightarrow M’\in C(D).$$
On définit alors la matrice $M’$ par blocs : $M’=\begin{pmatrix}M_{1,1}’&\ldots&M_{1,p}’\\\vdots& &\vdots\\M_{p,1}’&\ldots&M_{p,p}’\end{pmatrix}$ où, pour tout $(i,j)\in\{1,\ldots,p\}^2$, $M_{i,j}’\in\mathscr{M}_{\alpha_i,\alpha_j}(\mathbb{C})$. L’égalité $M’D=DM’$ fournit pour tout $i\neq j$, $\lambda_jM_{i,j}=\lambda_iM_{i,j}$ puis $\left(\lambda_j-\lambda_i\right)M_{i,j}$ puis $M_{i,j}=0$ car $\lambda_i\neq\lambda_j$. La matrice $M’$ est donc diagonale par blocs du type $M’=\begin{pmatrix}M_1&0&\ldots&0\\0&\ddots&\ddots&0\\\vdots&\ddots&\ddots&0\\0&\ldots&0&M_p\end{pmatrix}=\text{diag}\left(M_1,\ldots,M_p\right)$ où pour tout $i\in\{1,\ldots,p\}$, $M_i\in\mathscr{M}_{\alpha_i}(\mathbb{C})$. Réciproquement, si $M’$ est de cette forme, un calcul par blocs montre que $M’\in C(D)$. $C(D)$ est donc l’espace des matrices diagonales par blocs du type précédent.
Maintenant, l’application $M\mapsto\left(M_1,\ldots,M_p\right)$ est un isomorphisme de $C(D)$ sur $\displaystyle\prod_{i=1}^{p}\mathscr{M}_{\alpha_i}(\mathbb{C})$ puis
$$\text{dim}(C(D))=\text{dim}\left(\displaystyle\prod_{i=1}^{p}\mathscr{M}_{\alpha_i}(\mathscr{C})\right)=\displaystyle\sum_{i=1}^{p}\alpha_i^2.$$
Enfin, l’application $\varphi~:~M\mapsto P^{-1}MP$ est un automorphisme de $\mathscr{M}_n(\mathbb{C})$ (de réciproque $M\mapsto PMP^{-1}$) et donc
$$\text{dim}(C(A))=\text{dim}\left(\varphi^{-1}(C(A))\right)=\text{dim}(C(D))=\displaystyle\sum_{i=1}^{p}\alpha_i^2.$$
b) Une matrice qui commute avec $A$, commute avec toute puissance de $A$ puis avec toute combinaison linéaire de puissances de $A$ c’est-à-dire tout polynôme en $A$. Donc, $\mathbb{C}[A]\subset C^2(A)$.
Réciproquement, Soit $M$ un élément de $C^2(A)$. Alors, $M’=P^{-1}MP$ est dans $C^2(D)$. En particulier, $M’$ commute avec $D$ et est donc diagonale par blocs de la forme $\begin{pmatrix}M_1&0&\ldots&0\\0&\ddots&\ddots&\vdots\\\vdots&\ddots&\ddots&0\\0&\ldots&0&M_p\end{pmatrix}$. Ensuite, $M’$ commute avec tout élément de $C(D)$ c’est-à-dire toute matrice diagonale par blocs du même type puis un calcul par blocs montre que chaque matrice $M_i$ commute avec toute matrice $\mathscr{M}_{\alpha_i}(\mathbb{C})$. D’après la question 1), chaque matrice $M_i$ est une matrice scalaire puis $M’$ est diagonale par blocs de la forme $\begin{pmatrix}z_1I_{\alpha_1}&0&\ldots&0\\0&\ddots&\ddots&\vdots\\\vdots&\ddots&\ddots&0\\0&\ldots&0&z_pI_{\alpha_p}\end{pmatrix}$. Inversement, toute matrice de cette forme est dans $C^2(D)$.
$C^2(D)$ est donc l’ensemble des matrices diagonales par blocs de la forme $\text{diag}\left(z_1I_{\alpha_1},\ldots,z_pI_{\alpha_p}\right)$, $\left(z_1,\ldots,z_p\right)\in\mathbb{C}^p$.
Soient donc $\left(z_1,\ldots,z_p\right)\in\mathbb{C}^p$ puis $\Delta=\text{diag}\left(z_1I_{\alpha_1},\ldots,z_pI_{\alpha_p}\right)$. Le système $(S)$ de $p$ équations linéaires d’inconnue $\left(a_0,a_1,\ldots,a_{p-1}\right)$
$$\forall i\in\{1,\ldots,p\},\;\displaystyle\sum_{k=0}^{p-1}a_k\lambda_i^k=z_i$$
admet pour déterminant $\text{Van}\left(\lambda_1,\ldots,\lambda_p\right)\neq0$. Le système $(S)$ admet donc une solution $\left(a_0,\ldots,a_{p-1}\right)$ (et une seule). Un calcul par blocs montre que
$$\Delta=\displaystyle\sum_{k=0}^{p-1}a_kD^k\in\mathbb{C}[D].$$
Ainsi, $C^2(D)\subset\mathbb{C}[D]$ puis $C^2(D)=\mathbb{C}[D]$. Enfin,
$$C^2(A)=P\;C^2(D)\;P^{-1}=P\;\mathbb{C}[D]\;P^{-1}=\mathbb{C}[A].$$
Commentaires et/ou rappels de cours
Le commutant d’une matrice $A\in\mathscr{M}_n(\mathbb{K})$ est $C(A)=\left\{M\in\mathscr{M}_n(\mathbb{R})/\;AM=MA\right\}$. C’est une sous-algèbre de l’algèbre $\left(\mathscr{M}_n(\mathbb{K}),+,.,\times\right)$.
L’algèbre $C(A)$ n’est pas nécessairement commutative ou encore deux matrices qui commutent avec $A$ ne commutent pas nécessairement.
$C(A)$ contient $\mathbb{C}[A]$ mais n’est pas obligatoirement égal à $\mathbb{C}[A]$. Par exemple, $C\left(I_n\right)=\mathscr{M}_n(\mathbb{K})$ mais $\mathbb{C}\left[I_n\right]=\text{Vect}\left(I_n\right)$.
On rappelle encore que si $M\in C(A)$, $\text{im}(A)$, $\text{Ker}(A)$ et les sous-espaces propres de $A$ sont stables par $M$.
Exercice – Difficulté 3 – Thème : matrices. Titre : inverser une matrice carrée
Enoncé (Mines-Ponts)
Inverser la matrice $A=\begin{pmatrix}1&6&5&4&3&2\\2&1&6&5&4&3\\3&2&1&6&5&4\\4&3&2&1&6&5\\5&4&3&2&1&6\\6&5&4&3&2&1\end{pmatrix}$.
Corrigé
On résout le système $(S)$ : $AX=B$, d’inconnue $X$, où $X=\left(x_i\right)_{1\leqslant i\leqslant 6}\in\mathscr{M}_{6,1}(\mathbb{R})$ et $B=\left(b_i\right)_{1\leqslant i\leqslant 6}\in\mathscr{M}_{6,1}(\mathbb{R})$.
En additionnant membre à membre les $6$ équations, on obtient $21\displaystyle\sum_{i=1}^{6}x_i=\displaystyle\sum_{i=1}^{6}b_i$ ou encore $\displaystyle\sum_{i=1}^{6}x_i=\dfrac{1}{21}\displaystyle\sum_{i=1}^{6}b_i$ $(\star)$.
On retranche membre à membre la première équation à la dernière. On obtient $5x_1-x_2-x_3-x_4-x_5-x_6=b_6-b_1$ puis en ajoutant membre à membre $(\star)$, on obtient
$$6x_1=b_6-b_1+\dfrac{1}{21}\displaystyle\sum_{i=1}^{6}b_i=\dfrac{1}{21}\left(-20b_1+b_2+b_3+b_4+b_5+22b_6\right).$$
Ainsi, $x_1=\dfrac{1}{126}\left(-20b_1+b_2+b_3+b_4+b_5+22b_6\right)$. Par permutation circulaire des indices, on en déduit encore
$x_2=\dfrac{1}{126}\left(-20b_2+b_3+b_4+b_5+b_6+22b_1\right)$,
$x_3=\dfrac{1}{126}\left(-20b_3+b_4+b_5+b_6+b_1+22b_2\right)$,
$x_4=\dfrac{1}{126}\left(-20b_4+b_5+b_6+b_1+b_2+22b_3\right)$,
$x_5=\dfrac{1}{126}\left(-20b_5+b_6+b_1+b_2+b_3+22b_4\right)$,
$x_6=\dfrac{1}{126}\left(-20b_6+b_1+b_2+b_3+b_4+22b_5\right)$.
Ainsi, le système $(S)$ a au moins une solution pour tout choix de $B$. Donc, $\text{Im}(A)=\mathscr{M}_{6,1}(\mathbb{R})$ puis $A\in GL_6(\mathbb{R})$. De plus, $AX=B\Leftrightarrow X=A^{-1}B$ ce qui fournit
$$A^{-1}=\dfrac{1}{126}\begin{pmatrix}-20&1&1&1&1&22\\22&-20&1&1&1&1\\1&22&-20&1&1&1\\1&1&22&-20&1&1\\1&1&1&22&-20&1\\1&1&1&1&22&-20\end{pmatrix}.$$
Commentaires et/ou rappels de cours
Il existe de très nombreuses méthodes pour inverser une matrice inversible $A$ et on choisit la bonne en fonction de la situation.
$\bullet$ Le plus courant consiste à interpréter $A$ comme une matrice de passage : $A=\mathscr{P}_{\mathscr{B}}^{\mathscr{B’}}\Rightarrow A^{-1}=\mathscr{P}_{\mathscr{B}’}^{\mathscr{B}}$.
$\bullet$ On peut utiliser un polynôme annulateur dont le coeffcient constant est non nul : si $\displaystyle\sum_{k=0}^{p}a_kA^k=0$, alors $A^{-1}=-\dfrac{1}{a_0}\displaystyle\sum_{k=1}^{p}a_kA^{k-1}$.
$\bullet$ On peut, comme dans l’exercice, résoudre le système $AX=B$ où $B$ est un vecteur colonne quelconque et $X$ un vecteur colonne inconnue : $AX=B\Leftrightarrow X=A^{-1}B$.
$\bullet$ On peut interpréter $A$ comme la matrice d’un automorphisme $f$ : $A=\text{Mat}_{\mathbb{B}}(f)\Rightarrow A^{-1}=\text{Mat}_{\mathscr{B}}\left(f^{-1}\right)$. Par exemple, la matrice de coefficient générique $\dbinom{j}{i}$, $0\leqslant i,j\leqslant n$, est la matrice dans la base canonique de $\mathbb{R}_n[X]$ de l’automorphisme $f~:~P\mapsto P(X+1)$ dont la réciproque est $f^{-1}~:~P\mapsto P(X-1)$.
$\bullet$ On peut profiter d’une réduction de $A$ : si $A=PDP^{-1}$ (resp. $A=PTP^{-1}$), alors $A^{-1}=PD^{-1}P^{-1}$ (resp. $A^{-1}=PT^{-1}P^{-1}$).
$\bullet$ La formule $A^{-1}=\dfrac{1}{\text{det}(A)}(\text{com}(A))^T$ est très peu utilisée dans la pratique. C’est plutôt un outil théorique.
Exercice – Difficulté 3 – Thème : algèbre linéaire. Titre : une caractérisation des projecteurs.
Enoncé (Mines-Ponts)
Soit $A\in\mathscr{M}_n(\mathbb{C})$. Montrer que $A^2=A$ si et seulement si $\text{rg}(A)\leqslant\text{Tr}(A)$ et $\text{rg}\left(I_n-A\right)\leqslant\text{Tr}\left(I_n-A\right)$.
Corrigé
On note $f$ l’endomorphisme de $E=\mathbb{C}^n$ canoniquement associé à $A$.
Supposons que $A^2=A$. Alors, $f^2=f$. $f$ est donc une projection de même que $Id-f$. On sait alors que $\text{rg}(f)=\text{Tr}(f)\leqslant \text{Tr}(f)$ et $\text{rg}(Id-f)=\text{Tr}(Id-f)\leqslant\text{Tr}(Id-f)$. On a donc $\text{rg}(A)\leqslant \text{Tr}(A)$ et $\text{rg}(Id-A)\leqslant \text{Tr}\left(I_n-A\right)$.
Supposons que $\text{rg}(A)\leqslant \text{Tr}(A)$ et $\text{rg}(Id-A)\leqslant \text{Tr}\left(I_n-A\right)$ ou encore que $\text{rg}(f)\leqslant \text{Tr}(f)$ et $\text{rg}(Id-f)\leqslant \text{Tr}\left(Id-f\right)$. On pose $p=\text{Tr}(f)$ et donc $\text{Tr}(Id-f)=\text{Tr}(Id)-\text{Tr}(f)=n-p$. On en déduit que
\begin{align*}n&=\text{rg}(Id)=\text{dim}(\text{Im}(f+Id-f))\\&\leqslant\text{dim}(\text{Im}(f)+\text{Im}(Id-f))\;(\text{car}\;\text{Im}(f+Id-f)\subset\text{Im}(f)+\text{Im}(Id-f))\\&\leqslant\text{dim}(\text{Im}(f))+\text{dim}(\text{Im}(Id-f))=\text{rg}(f)+\text{rg}(Id-f)\\&\leqslant\text{Tr}(f)+\text{Tr}(Id-f)=\text{Tr}(Id)=n\end{align*}
Mais alors, chaque inégalité écrite est une égalité, ce qui fournit $\text{rg}(f)=\text{Tr}(f)=p$, $\text{rg}(Id-f)=\text{Tr}(Id-f)=n-p$, $n=\text{dim}(\text{Im}(f)+\text{Im}(Id-f))$ et donc $E=\text{Im}(f)+\text{Im}(Id-f)$. De plus, $\text{dim}(\text{Im}(f))+\text{dim}(\text{Im}(Id-f))=p+n-p=n=\text{dim}(E)$. Finalement,
$$E=\text{Im}(f)\oplus\text{Im}(Id-f).$$
Soit$(y,z)\in E^2$ puis $x=f(y)+(Id-f)(z)$. En prenant l’image des deux membres par $f$, on obtient $f(x)=f^2(y)+f((Id-f)(z))$ puis $f(x-f(y))=(Id-f)(f(z))$. Puisque $\text{Im}(f)\cap\text{Im}(Id-f)=\{0\}$, on obtient en particulier, $(Id-f)(f(z))$ ou encore $f^2(z)=f(z)$.
Ainsi, pour tout $z\in E$, $f^2(z)=f(z)$ puis $f^2=f$ puis $A^2=A$.
On a montré que $A^2=A\Leftrightarrow $\text{rg}(A)\leqslant \text{Tr}(A)$ et $\text{rg}(Id-A)\leqslant \text{Tr}\left(I_n-A\right)$.
Commentaires et/ou rappels de cours
Théorème. Soient $E$ un $\mathbb{K}$-espace de dimension finie puis $f$ un projecteur de $E$. Alors, $\text{Tr}(f)=\text{rg}(f)$.
En effet, si $f$ est la projection sur $F$ parallèlement à $G$, la matrice de $f$ dans une base adaptée à la décomposition $E=F\oplus G$ est $D=\text{diag}(\underbrace{1,\ldots,1}_{p},0,\ldots,0)$ (où $p=\text{dim}(F)$). Par suite,
$$\text{Tr}(p)=\text{Tr}(D)=p=\text{dim}(F)=\text{dim}(\text{Im}(f))=\text{rg}(f).$$
Exercice – Difficulté 2 – Thème : albèbre linéaire. Titre : un automorphisme de l’espace des polynômes.
Enoncé (Mines-Ponts)
Soit $u~:~\mathbb{C}[X]\rightarrow\mathbb{C}[X]$ définie par :
$$\forall P\in\mathbb{C}[X],\;\forall z\in\mathbb{C},\;(u(P))(z)=e^{-z}\displaystyle\sum_{n=0}^{+\infty}\dfrac{P(n)}{n!}z^n.$$
1) Montrer que $u$ est bien définie.
2) Montrer que $u$ est un automorphisme de $\mathbb{C}[X]$.
Corrigé
1) Posons $P_0=1$ puis pour tout $k\in\mathbb{N}^*$, $P_k=X(X-1)\ldots(X-(k-1))$. Pour tout $k\in\mathbb{N}$, $P_k$ est un polynôme de degré $k$. On sait alors que $\left(P_k\right)_{k\in\mathbb{N}}$ est une base de $\mathbb{C}[X]$ et que pour tout $n\in\mathbb{N}$, $\left(P_k\right)_{0\leqslant k\leqslant n}$ est une base de $\mathbb{C}_n[X]$.
$\bullet$ Si $P=0$, alors pour tout $z\in\mathbb{C}$, $(u(P))(z)=0$ puis $u(P)=0$. Soit $P\in\mathbb{C}[X]\setminus\{0\}$ de degré $p\in\mathbb{N}$. On peut poser $P=\displaystyle\sum_{k=0}^pa_kP_k$ où $\left(a_k\right)_{0\leqslant k\leqslant p}\in\mathbb{C}^{p+1}$.
Soit $z\in\mathbb{C}$. Puisque $p$ est constant quand $n$ varie, $\dfrac{n^{p+2}}{n(n-1)\ldots(n-(p+1))}\underset{n\rightarrow+\infty}{\sim}1$ puis, d’après un théorème de croissances comparées
$$n^2\dfrac{P(n)}{n!}z^n\underset{n\rightarrow+\infty}{=}\dfrac{O\left(n^{p+2}\right)}{n!}z^n\underset{n\rightarrow+\infty}{=}O\left(z^{p+2}\dfrac{z^{n-(p+2)}}{(n-(p+2))!}\right)\underset{n\rightarrow+\infty}{=}o(1),$$
et donc $\dfrac{P(n)}{n!}z^n\underset{n\rightarrow+\infty}{=}o\left(\dfrac{1}{n^2}\right)$. On en déduit que la série de terme général $\dfrac{P(n)}{n!}z^n$ converge puis que $u(P)(z)$ existe dans $\mathbb{C}$.
$\bullet$ Vérifions alors que $u$ est une application de $\mathbb{C}[X]$ dans lui-même. On sait déjà que $u(0)=0\in\mathbb{C}[X]$. Ensuite, pour tout $P\in\mathbb{C}[X]\setminus\{0\}$ et $z\in\mathbb{C}$, avec les notations précédentes,
\begin{align*}(u(P))(z)&=e^{-z}\displaystyle\sum_{n=0}^{+\infty}\left(\displaystyle\sum_{k=0}^pa_kP_k(n)\right)\dfrac{z^n}{n!}\\&=\displaystyle\sum_{k=0}^pa_ke^{-z}\displaystyle\sum_{n=0}^{+\infty}\dfrac{P_k(n)}{n!}z^n\;(\text{car les}\;p+1\;\text{séries convergent})\\&=\displaystyle\sum_{k=0}^pa_ke^{-z}\displaystyle\sum_{n=k}^{+\infty}\dfrac{z^n}{(n-k)!}=\displaystyle\sum_{k=0}^pa_kz^ke^{-z}\displaystyle\sum_{n=k}^{+\infty}\dfrac{z^{n-k}}{(n-k)!}=\displaystyle\sum_{k=0}^pa_kz^ke^{-z}\times e^z\\&=\displaystyle\sum_{k=0}^pa_kz^k.\end{align*}
Donc, pour tout $P=\displaystyle\sum_{k=0}^{p}a_kP_k\in\mathbb{C}[X]\setminus\{0\}$ et $z\in\mathbb{C}$, $(u(P))(z)=\displaystyle\sum_{k=0}^pa_kz^k$ puis pour tout $P\in\mathbb{C}[X]\setminus\{0\}$, $u(P)\in\mathbb{C}[X]$.
On a montré que $u$ est bien une application de $\mathbb{C}[X]$ dans lui-même.
2) Vérifions que $u$ est linéaire. Soient $(P,Q)\in(\mathbb{C}[X])^2$ et $(\lambda,\mu)\in\mathbb{C}^2$. Pour tout $z\in\mathbb{C}$,
\begin{align*}(u(\lambda P+\mu Q))(z)&=e^{-z}\displaystyle\sum_{n=0}^{+\infty}\dfrac{(\lambda P+\mu Q)(n)}{n!}z^n\\&=\lambda e^{-z}\displaystyle\sum_{n=0}^{+\infty}\dfrac{P(n)}{n!}z^n+\mu e^{-z}\displaystyle\sum_{n=0}^{+\infty}\dfrac{Q(n)}{n!}z^n\;(\text{car les deux séries convergent})\\&=\lambda (u(P))(z)+\mu(u(Q))(z)\end{align*}
et donc $u(\lambda P+\mu Q)=\lambda u(P)+\mu u(Q)$. Ceci montre que $u\in\mathscr{L}(\mathbb{C}[X])$.
Vérifions maintenant que $u$ est un automorphisme de $\mathbb{C}[X]$. On a vu que pour tout $n\in\mathbb{N}$ puis tout $\left(a_k\right)_{0\leqslant k\leqslant n}$,
$$u\left(\displaystyle\sum_{k=0}^na_kP_k\right)=\displaystyle\sum_{k=0}^na_kX^k.$$
En particulier, pour tout $n\in\mathbb{N}$, $u\left(P_n\right)=X^n$. Ainsi, l’image par $u$ de la base $\left(P_n\right)_{n\in\mathbb{N}}$ de $\mathbb{C}[X]$ est la base $\left(X^n\right)_{n\in\mathbb{N}}$ de $\mathbb{C}[X]$. On en déduit que $u\in GL(\mathbb{C}[X])$.
Commentaires et/ou rappels de cours
Pas de commentaire particulier.
Exercice – Difficulté 3 – Thème : algèbre linéaire. Titre : trouver une matrice à coefficients entiers de polynôme annulateur donné.
Enoncé (Mines-Ponts)
1) Donner le polynôme caractéristique associé à $\begin{pmatrix}0&0&\ldots&0&-a_0\\1&0&\ldots&0&-a_1\\0&1&\ddots&\vdots&-a_2\\\vdots&\ddots&\ddots&0&\vdots\\0&\ldots&0&1&-a_{n-1}\end{pmatrix}$.
2) Trouver les $n\in\mathbb{N}^*$ tels qu’il existe $M\in\mathscr{M}_n(\mathbb{Z})$ vérifiant $M^3+M+I_n=0$.
Corrigé
1) On suppose $n\geqslant2$. Notons $C$ la matrice compagnon de l’énoncé. $\chi_C=\begin{pmatrix}X&0&\ldots&0&a_0\\-1&X&\ddots&\vdots&a_1\\0&-1&\ddots&0&\vdots\\\vdots&\ddots&\ddots&X&-a_{n-2}\\0&\ldots&0&-1&X+a_{n-1}\end{pmatrix}$. En développant suivant la dernière colonne, on obtient
$$\chi_C=\left(X+a_{n-1}\right)X^{n-1}+\displaystyle\sum_{k=0}^{n-2}(-1)^{n+k+1}a_k\Delta_k$$
où $\Delta_k$ est un déterminant de la forme $\Delta_k=\begin{vmatrix}A&\ldots\\0&B\end{vmatrix}$ où $A$ est une matrice carrée de format $k$, triangulaire inférieure, de coefficients diagonaux $X$, $\ldots$, $X$, et $B$ est une matrice carrée de format $n-(k-1)$, triangulaire supérieure, de coefficients diagonaux $-1$, $\ldots$ , $-1$. Donc,
$$\Delta_k=\text{det}(A)\times\text{det}(B)=(-1)^{n-k+1}X^k.$$
On en déduit que
$$\chi_C=X^n+a_{n-1}X^{n-1}+\displaystyle\sum_{k=0}^{n-2}(-1)^{2n+2}a_kX^k=X^n+\displaystyle\sum_{k=0}^{n-1}a_kX^k.$$
2) $\bullet$ Soit $P=X^3+X+1$. La fonction $x\mapsto P(x)$, de dérivée $P’~:~x\mapsto 3x^2+1$ strictement positive sur $\mathbb{R}$, est strictement croissante sur $\mathbb{R}$. Donc, la fonction $P$ s’annule au plus une fois sur $\mathbb{R}$. De plus, la fonction $P$ est continue sur $\mathbb{R}$ et vérifie $P(-1)=-1<0$ et $P(0)=1>0$. D’après le théorème des valeurs intermédiaires, la fonction $P$ s’annule au moins une fois sur $\mathbb{R}$, en un certain réel $x_0\in]-1,0[$. Finalement, la fonction $P$ s’annule exactement une fois sur $\mathbb{R}$, en un certain réel $x_0$ de $]-1,1[$. Enfin, $x_0$ est racine simple de $P$ car $P’\left(x_0\right)\neq0$.
Puisque $P$ est à coefficients réels, $P$ admet encore pour racine un nombre complexe non réel $z_0$ ainsi que son conjugué $\overline{z_0}$ puis $P$ se factorise dans $\mathbb{C}[X]$ sous la forme
$$P=\left(X-x_0\right)\left(X-z_0\right)\left(X-\overline{z_0}\right).$$
$\bullet$ D’après la question 1), si $A=\begin{pmatrix}0&0&-1\\1&0&-1\\0&1&0\end{pmatrix}$, alors $\chi_{A}=X^3+X+1$. D’après le théorème de Cayley-Hamilton, $A^3+A+I_3=0_3$ et de plus $A\in\mathscr{M}_3(\mathbb{Z})$. Plus généralement, soit $M$ la matrice diagonale par blocs de format $n=3p$ :
$$M=\begin{pmatrix}A&0&\ldots&0\\0&A&\ddots&\vdots\\\vdots&\ddots&\ddots&0\\0&\ldots&0&A\end{pmatrix},$$
où $p$ blocs égaux à $A$ sont écrits. Un calcul par blocs montre que
$$M^3+M+I_n=\begin{pmatrix}A^3+A+I_3&0&\ldots&0\\0&A^3+A+I_3&\ddots&\vdots\\\vdots&\ddots&\ddots&0\\0&\ldots&0&A^3+A+I_3\end{pmatrix}=0_n.$$
Donc, si $n$ est multiple de $3$, il existe une matrice $M\in\mathscr{M}_n(\mathbb{Z})$ telle que $M^3+M+I_n=0_n$.
$\bullet$ Inversement, supposons qu’il existe une matrice $M\in\mathscr{M}_n(\mathbb{Z})$ telle que $M^3+M+I_n=0_n$. Puisque le polynôme $P$ est annulateur de $M$, les valeurs propres de $P$ appartiennent à $\left\{x_0,z_0,\overline{z_0}\right\}$ et puisque $\chi_M$ est à coefficients réels, $\chi_M$ s’écrit sous la forme
$$\chi_M=\left(X-x_0\right)^\alpha\left(X-z_0\right)^\beta\left(X-\overline{z_0}\right)^\beta$$
où $\alpha$ et $\beta$ sont deux entiers naturels vérifiant $\alpha+2\beta=n$.
Si $\alpha>\beta$, on peut écrire $\chi_M=\left(X-x_0\right)^{\alpha-\beta}\left(X^3+X+1\right)^\beta$. Mais alors,
$$(-1)^n\text{det}(M)=\chi_M(0)=\left(-x_0\right)^{\alpha-\beta}\in]0,1[\;(\text{car}\;\alpha-\beta\geqslant1).$$
Ceci est impossible car $(-1)^n\text{det}(M)\in\mathbb{Z}$. Donc $\alpha\leqslant\beta$.
Si $\alpha<\beta$, on peut écrire, en tenant compte de $x_0+z_0+\overline{z_0}=0$ et $x_0z_0\overline{z_0}=-1$,
\begin{align*}\chi_M&=\left(X^3+X+1\right)^\alpha\left(X-z_0\right)^{\beta-\alpha}\left(X-\overline{z_0}\right)^{\beta-\alpha}=\left(X^3+X+1\right)^\alpha\left(X^2-\left(z+\overline{z_0}\right)X+z_0\overline{z_0}\right)^{\beta-\alpha}=\left(X^3+X+1\right)^\alpha\left(X^2+x_0X-\dfrac{1}{x_0}\right)^{\beta-\alpha}\\&=\left(X^{3\alpha}+0\times X^{3\alpha-1}+\ldots\right)\left(X^{2(\beta-\alpha)}+(\beta-\alpha)x_0X^{2(\beta-\alpha)-1}+\ldots\right)\\&=X^n+(\beta-\alpha)x_0X^{n-1}+\ldots.\end{align*}
Puisque $\chi_M$ est à coefficients entiers, il existe $k\in\mathbb{Z}$ tel que $(\beta-\alpha)x_0=k$ et donc tel que $x_0=\dfrac{k}{\beta-\alpha}\in\mathbb{Q}$. Mais ceci est impossible. En effet, si $r=\dfrac{a}{b}$, $(a,b)\in\mathbb{Z}^*\times\mathbb{N}^*$, $a\wedge b=1$, est racine de $P$, alors $\dfrac{a^3}{b^3}+\dfrac{a}{b}+1=0$ puis $a^3+ab^2+b^3=0$ puis $a\left(a^2+b^2\right)=-b^3$ et $b\left(a+b^2\right)=-a^3$. Mais alors, $a$ divise $-b^3$ et est premier à $-b^3$ de sorte que $a$ divise $1$ d’après le théorème de Gauss puis $a=\pm 1$. De même, $b$ divise $1$ puis $b=1$ et donc $r=\pm1$ ce qui est faux car $P(\pm1)\neq0$.
Ainsi, il était absurde de supposer que $\alpha<\beta$ et donc $\alpha=\beta$ puis $n=\alpha+2\beta=3\alpha\in3\mathbb{N}^*$.
En résumé, il existe $M\in\mathscr{M}_n(\mathbb{Z}$ telle que $M^3+M+I_n=0_n$ si et seulement si $n\in3\mathbb{N}^*$.
Commentaires et/ou rappels de cours
$\bullet$ Il existe de nombreuses techniques pour calculer le polynôme caractéristique d’une matrice compagnon. La technique fournie (développement suivant la dernière colonne) est probablement la meilleure car elle donne directement le coefficient de $X^k$. Il faut pour cela connaître la formule de développement suivant la colonne $j$ (resp. la ligne $i$) :
$$\text{det}(A)=\displaystyle\sum_{i=1}^{n}a_{i,j}\times A_{i,j}\;(\text{resp.}\;\displaystyle\sum_{j=1}^{n}a_{i,j}),$$
où $A_{i,j}$ est le cofacteur de $a_{i,j}$. $A_{i,j}=(-1)^{i+j}m_{i,j}$ où $m_{i,j}$ est le mineur associé à $a_{i,j}$. $m_{i,j}$ est le déterminant de la matrice de format $n-1$ déduite de $A$ en supprimant sa $i$-ème ligne et $j$-ème colonne.
$\bullet$ Si $P=\left(X-z_1\right)\left(X-z_2\right)\left(X-z_3\right)=X^3+aX^2+bX+c$, alors $z_1+z_2+z_3=-a$, $z_1z_2+z_1z_3+z_2z_3=b$ et $z_1z_2z_3=-c$.
$\bullet$ Le coefficient de $X^{3\alpha-1}$ dans le développement de $\left(X^3+X+1\right)^\alpha$ est l’opposé de la somme de ses racines : $-\alpha\left(x_0+z_0+\overline{z_0}\right)=0$. De même, le coefficient de $X^{2(\beta-\alpha)-1}$ dans le developpement de $\left(X-z_0\right)^\beta\left(X-\overline{z_0}\right)^\beta$ est $-(\beta-\alpha)\left(z_0+\overline{z_0}\right)=(\beta-\alpha)x_0$.
Exercice – Difficulté 2 – Thème : espace euclidien. Titre : endomorphismes d’un espace euclidien de trace nulle.
Enoncé (Mines-Ponts)
Soit $(E,\langle\;,\;\rangle)$ un espace euclidien puis $u\in\mathscr{L}(E)$ tel que $\text{Tr}(u)=0$.
1) Montrer qu’il existe $x\in E\setminus\{0\}$ tel que $\langle u(x),x\rangle=0$.
2) Montrer qu’il existe une base orthonormée de $E$ dans laquelle la matrice de $u$ a une diagonale nulle.
Corrigé
1) On pose $n=\text{dim}(E)\geqslant1$. Soit $\mathscr{B}=\left(e_1,\ldots,e_n\right)$ une base orthonormée de $(E,\langle\;,\;\rangle)$. Pour tout $i\in\{1,\ldots,n\}$, le coefficient ligne $i$, colonne $i$, de la matrice de $u$ dans $\mathscr{B}$ est la $i$-ème coordonnée de $u\left(e_i\right)$ dans $\mathscr{B}$ à savoir $\langle u\left(e_i\right),e_i\rangle$ (car $\mathscr{B}$ est orthonormée).
Par hypothèse, $\displaystyle\sum_{i=1}^{n}\langle u\left(e_i\right),e_i\rangle=0$.
1er cas. Si l’un des nombres $\langle u\left(e_i\right),e_i\rangle$ est nul, il existe $x\in E\setminus\{0\}$ tel que $\langle u(x),x\rangle=0$.
2ème cas. Sinon, les nombres $\langle u\left(e_i\right),e_i\rangle$ sont tous non nuls. Etant de somme nulle, ces nombres ne peuvent être de même signe (car dans ce cas, leur somme est non nulle). Donc, il existe $(i,j)\in\{1,\ldots,n\}^2$ tel que $\langle u\left(e_i\right),e_i\rangle<0$ et $\langle u\left(e_j\right),e_j\rangle>0$ (en particulier, $i\neq j$).
Pour $t\in[0,1]$, on pose $f(t)=\langle u\left((1-t)e_i+te_j\right),(1-t)e_i+te_j\rangle$. $f$ est une application de $[0,1]$ dans $\mathbb{R}$, continue sur $[0,1]$ par continuité du produit scalaire sur $E^2$ entre autre, telle que $f(0)<0$ et $f(1)>0$. D’après le théorème des valeurs intermédiaires, il existe $t_0\in[0,1]$ tel que $f\left(t_0\right)=0$. Le vecteur $x=\left(1-t_0\right)e_i+t_0e_j$ est un vecteur non nul de $E$ (car la famille $\left(e_i,e_j\right)$ est libre et car $1-t_0\neq0$ ou $t_0\neq0$) et de plus $\langle u(x),x\rangle=0$.
On a montré qu’il existe $x\neq0$ tel que $\langle u(x),x\rangle=0$.
2) Montrons par récurrence que pour tout $n\geqslant1$, pour tout espace euclidien $\left(E,\langle\;,\;\rangle\right)$ de dimension $n$, pour tout $u\in\mathscr{L}(E)$ tel que $\text{Tr}(u)=0$, il existe une base orthonomée de $\left(E,\langle\;,\;\rangle\right)$ dans laquelle la matrice de $u$ a une diagonale nulle $\left(\mathscr{P}_n\right)$.
$\bullet$ Soit $\left(E,\langle\;,\;\rangle\right)$ un espace euclidien de dimension $1$. Soit $u\in\mathscr{L}(E)$ tel que $\text{Tr}(u)=0$. Alors, la matrice de $u$ dans une base orthonormée de $\left(E,\langle\;,\;\rangle\right)$ est nulle et en particulier de diagonale nulle. $\left(\mathscr{P}_1\right)$ est vraie.
$\bullet$ Soit $n\geqslant1$. Supposons $\left(\mathscr{P}_n\right)$. Soit $\left(E,\langle\;,\;\rangle\right)$ un espace euclidien de dimension $n+1$. Soit $u\in\mathscr{L}(E)$ tel que $\text{Tr}(u)=0$. D’après la question précédente, il existe $x\in E\setminus\{0\}$ tel que $\langle u(x),x\rangle=0$. On pose $e_1=\dfrac{1}{\|x\|}x$ puis on complète la famille orthonormée $\left(e_1\right)$ en $\left(e_1,e_2,\ldots,e_{n+1}\right)$ de $E$. Le coefficient ligne $1$, colonne $1$, de la matrice de $u$ dans $\mathscr{B}$ est $\langle u\left(e_1\right),e_1\rangle=0$. La matrice de $u$ dans $\mathscr{B}$ est de la forme $M=\begin{pmatrix}0&L\\C&A\end{pmatrix}$ où $A\in\mathscr{M}_n(\mathbb{R})$, $C\in\mathscr{M}_{n,1}(\mathbb{R})$ et $L\in\mathscr{M}_{1,n}(\mathbb{R})$.
Soit $F=\text{Vect}\left(e_2,\ldots,e_{n+1}\right)=\left(\text{Vect}\left(e_1\right)\right)^\bot$. Soit $v$ l’endomorphisme de $F$ de matrice $A$ dans la base orthonormée $\left(e_2,\ldots,e_{n+1}\right)$ de $F$. $\left(F,\langle\;,\rangle\right)$ est un espace euclidien de dimension $n$ et $v$ est un endomorphisme de $F$ tel que $\text{Tr}(v)=\text{Tr}(v)+0=\text{Tr}(u)=0$. Par hypothèse de récurrence, il existe $\left(e_2′,\ldots,e_{n+1}’\right)$ base orthonormée de $F$ telle que la matrice $A’$ de $v$ dans $\left(e_2′,\ldots,e_{n+1}’\right)$ soit de diagonale nulle. On note $Q$ la matrice de passage de la base orthonormée $\left(e_2,\ldots,e_{n+1}\right)$ de $F$ à la base orthonormée $\left(e_2′,\ldots,e_{n+1}’\right)$ de $F$. $P$ est une matrice orthogonale telle que $A’=Q^TAQ$.
Soit $\mathscr{B}’=\left(e_1,e_2′,\ldots,e_{n+1}’\right)$. $\mathscr{B}’$ est aussi une base orthonormée de $(E,\langle\;,\;\rangle)$ (car pour tout $i\in\{2,\ldots,n+1\}$, $e_i’\in F=\left(\text{Vect}\left(e_1\right)\right)^\bot$). La matrice de passage de la base orthonormée $\mathscr{B}$ de $E$ à la base orthonormée $\mathscr{B}’$ de $E$ est la matrice orthogonale $P$ définie par blocs :
$$P=\begin{pmatrix}1&0_{1,n}\\0_{n,1}&Q\end{pmatrix}.$$
La matrice de $u$ dans la base $\mathscr{B}’$ est
$$M’=P^TMP=\begin{pmatrix}1&0_{1,n}\\0_{n,1}&Q^T\end{pmatrix}\begin{pmatrix}0&L\\C&A\end{pmatrix}\begin{pmatrix}1&0_{1,n}\\0_{n,1}&Q\end{pmatrix}=\begin{pmatrix}0&L\\Q^TC&Q^TA\end{pmatrix}\begin{pmatrix}1&0_{1,n}\\0_{n,1}&Q\end{pmatrix}=\begin{pmatrix}0&LQ\\Q^TC&Q^TAQ\end{pmatrix}=\begin{pmatrix}0&LQ\\Q^TC&A’\end{pmatrix}.$$
Cette matrice est de diagonale nulle.
Le résultat est démontré par récurrence.
Commentaires et/ou rappels de cours
Peu de commentaires si ce n’est :
$\bullet$ Soit $\mathscr{B}=\left(e_1,\ldots,e_n\right)$ une base orthonormée d’un espace euclidien $(E,\langle\;,\;\rangle)$. Alors (en notant $x_1$, $\ldots$ , $x_n$, les corrodonnées de $x$ et $y_1$, $\ldots$ , $y_n$ les coordonnées de $y$ dans $\mathscr{B}$),
$$\begin{array}{l}\forall x\in E,\;x=\displaystyle\sum_{n=0}^{+\infty}\langle x,e_i\rangle e_i\;\text{ou encore}\;\forall x\in E,\;\forall i\in\{1,\ldots,n\},\;x_i=\langle x,e_i\rangle\\\forall (x,y)\in E^2,\;\langle x,y\rangle=\displaystyle\sum_{n=0}^{+\infty}\langle x,e_i\rangle\langle y,e_i\rangle\;\text{ou encore}\;\forall (x,y)\in E^2,\;\langle x,y\rangle=\displaystyle\sum_{i=1}^{n}x_iy_i\\\forall x\in E,\;\|x\|=\sqrt{\displaystyle\sum_{i=1}^{n}\langle x,e_i\rangle^2}\;\text{ou encore}\;\forall x\in E,\;\|x\|=\sqrt{\displaystyle\sum_{i=1}^{n}x_i^2}.\end{array}$$
$\bullet$ La première question est le démarrage de la construction et incite donc à procéder par récurrence dans la deuxième question.
Exercice – Difficulté 2 – Thème : espaces euclidiens. Titre : moyennes des itérés d’un endomorphisme diminuant la norme.
Enoncé (Mines-Ponts)
Soit $E$ un espace euclidien puis $f\in\mathscr{L}(E)$ tel que : $\forall x\in E$, $\|f(x)\|\leqslant\|x\|$.
1) Montrer que $\forall x\in E$, $f(x)=x\Rightarrow f^*(x)=x$ où $f^*$ est l’adjoint de $f$.
2) Etudier la suite $u\in\left(\mathscr{L}(E)\right)^\mathbb{N}$ : $\forall n\in\mathbb{N}$, $u_n=\dfrac{1}{n+1}\displaystyle\sum_{k=0}^{n}f^k$.
Corrigé
1) Soit $x\in E$ tel que $f(x)=x$.
$$\left\|f^*(x)-x\right\|^2=\left\|f^*(x)\right\|^2-2\langle f^*(x),x\rangle+\|x\|^2=\left\|f^*(x)\right\|^2-2\langle f(x),x\rangle+\|x\|^2.$$
Ensuite, d’après l’inégalité de Cauchy-Schwarz,
$$\left\|f^*(x)\right\|^2=\langle f^*(x),f^*(x)\rangle=\langle x,f\left(f^*(x)\right)\rangle\leqslant\|x\|\left\|f\left(f^*(x)\right)\right\|\leqslant\|x\|\left\|f^*(x)\right\|.$$
Si $\left\|f^*(x)\right\|>0$, on obtient après simplification $\left\|f^*(x)\right\|\leqslant\|x\|$, cette dernière inégalité restant valable si $\left\|f^*(x)\right\|=0$. On en déduit que
$$\left\|f^*(x)-x\right\|^2\leqslant2\|x\|^2-2\langle f(x),x\rangle=2\langle x-f(x),x\rangle=0$$
puis que $\left\|f^*(x)-x\right\|=0$ et donc que $f^*(x)=x$.
2) D’après 1), $\text{Ker}(f-Id)\subset\text{Ker}\left(f^*-Id\right)$. En appliquant à $f^*$ (qui vérifie également $\forall x\in E$, $\|f^*(x)\|\leqslant\|x\|$ d’après 1)), on a $\text{Ker}\left(f^*-Id\right)\subset\text{Ker}\left(f-Id\right)$ et finalement $\text{Ker}\left(f^*-Id\right)=\text{Ker}\left(f-Id\right)$.
Ensuite, on sait que $\text{Im}(f-Id)=\left(\text{Ker}\left((f-Id)^*\right)\right)^\bot=\left(\text{Ker}\left(f^*-Id\right)\right)^\bot=\left(\text{Ker}\left(f-Id\right)\right)^\bot$. En particulier,
$$E=\text{Im}(f-Id)\oplus\text{Ker}(f-Id).$$
On pose dorénavant $F=\text{Ker}(f-Id)$ et $G=\text{Im}(f-Id)=F^\bot$ et .
Si $x\in F$, alors $f(x)=x$ puis pour tout $k\in\mathbb{N}$, $f^k(x)=x$. Mais alors, pour tout $n\in\mathbb{N}$, $u_n(x)=\dfrac{1}{n+1}\displaystyle\sum_{k=0}^{n}x=x$. Dans ce cas,
$$\displaystyle\lim_{n\rightarrow+\infty}u_n(x)=x.$$
Soit maintenant $x\in G$. Il existe $y\in E$ tel que $x=f(y)-y$. Pour tout $n\in\mathbb{N}$, on a alors par télescopage
$$u_n(x)=\dfrac{1}{n+1}\displaystyle\sum_{k=0}^{n}f^k(x)=\dfrac{1}{n+1}\displaystyle\sum_{k=0}^{n}\left(f^{k+1}(y)-f^k(y)\right)=\dfrac{1}{n+1}\left(f^{n+1}(y)-y\right).$$
Ensuite, par récurrence, pour tout $k\in\mathbb{N}$, $\left\|f^k(y)\right\|\leqslant \|y\|$ et donc, pour tout $n\in\mathbb{N}$,
$$\left\|u_n(x)\right\|=\dfrac{1}{n+1}\left\|f^{n+1}(y)-y\right\|\leqslant\dfrac{1}{n+1}\left(\left\|f^{n+1}(y)\right\|+\left\|y\right\|\right)\leqslant\dfrac{2\|y\|}{n+1}.$$
Puisque $\displaystyle\lim_{n\rightarrow+\infty}\dfrac{2\|y\|}{n+1}=0$, on en déduit que $\displaystyle\lim_{n\rightarrow+\infty}u_n(x)=0$.
En résumé, pour tout $x\in F$, $\displaystyle\lim_{n\rightarrow+\infty}u_n(x)=x$ et pour tout $x\in G$, $\displaystyle\lim_{n\rightarrow+\infty}u_n(x)=0$ puis par linéarité,
$$\forall x\in E,\;\displaystyle\lim_{n\rightarrow+\infty}u_n(x)=p(x),$$
où $p$ est la projection orthogonale sur $F$.
La suite d’endomorphismes $\left(u_n\right)_{n\in\mathbb{N}}$ converge vers la projection orthogonale sur $\text{Ker}(f-Id)$.
Commentaires et/ou rappels de cours
Théorème. Soit $f$ un endomorphisme d’un espace euclidien $(E,\langle\;,\;\rangle)$. Alors, $\text{Ker}\left(f^*\right)=(\text{Im}(f))^\bot$ et $\text{Im}\left(f^*\right)=(\text{Ker}(f))^\bot$.
En effet, soit $x\in\text{Ker}\left(f^*\right)$. Pour tout $y\in E$. $\langle x,f(y)\rangle=\langle f^*(x),y\rangle=0$. Donc, $\text{Ker}\left(f^*\right)\subset(\text{Im}(f))^\bot$ puis $\text{Ker}\left(f^*\right)=(\text{Im}(f))^\bot$ par égalité des dimensions. La deuxième égalité s’obtient en appliquant la première égalité à $f^*$.
