Exercices d’oraux type Centrale/Mines

retour vers la page des exercices d’oraux 

ALGEBRE LINEAIRE

Exercice – Difficulté 3 – Thème : espaces euclidiens. Titre : endomorphismes qui sont orthogonaux pour tout produit scalaire.

Enoncé (Mines-Ponts)

Soit $E$ un espace vectoriel réel de dimension finie et $\psi$ et $\varphi$ deux produits scalaires sur $E$.

1) Montrer l’existence et l’unicité d’un endomorphisme autoadjoint positif $a$ pour ces deux produits scalaires tel que : $\forall(x,y)\in E^2$, $\varphi(x,y)=\psi(a(x),y)$.

2) En utilisant $a$, donner une CNS pour qu’un élément de $O(E,\varphi)$ soit dans $O(E,\psi)$ avec $O(E,\varphi)$ et $O(E,\psi)$ groupes des isométries vectorielles pour les produits scalaires respectifs $\varphi$ et $\psi$.

3) Soit $P$ l’ensemble des produits scalaires sur $E$. Déterminer $\displaystyle\bigcap_{\varphi\in P}O(E,\varphi)$.

 

Corrigé

On suppose que $\text{dim}(E)=n\geqslant1$.

1) $\bullet$Soit $x\in E$. L’application $\varphi_x~:~y\mapsto\varphi(x,y)$ est une forme linéaire sur l’espace euclidien $(E,\psi)$. On sait alors qu’il existe $x’\in E$, uniquement défini, tel que pour tout $y\in E$, $\varphi_x(y)=\psi(x’,y)$. $x\mapsto x’$ est une application de $E$ dans $E$ que l’on note $a$. L’application $a$ est uniquement définie et par construction,

$$\forall(x,y)\in E^2,\;\varphi(x,y)=\psi(a(x),y).$$

$\bullet$ Soient $\left(x_1,x_2\right)\in E^2$ et $(\lambda,\mu)\in\mathbb{R}^2$. Pour tout $y\in E$,

$$\psi\left(a\left(\lambda x_1+\mu x_2\right),y\right)=\varphi\left(\lambda x_1+\mu x_2,y\right)=\lambda\varphi\left(x_1,y\right)+\mu\varphi\left(x_2,y\right)=\lambda\psi\left(a\left(x_1\right),y\right)+\mu\psi\left(a\left(x_2\right),y\right)=\psi\left(\lambda a\left(x_1\right)+\mu a\left(x_2\right),y\right),$$

et donc $a\left(\lambda x_1+\mu x_2\right)-\left(\lambda a\left(x_1\right)+\mu a\left(x_2\right)\right)$ est dans l’orthogonal de $E$ pour $\psi$. On sait que cet orthogonal est $\{0\}$ et donc $a\left(\lambda x_1+\mu x_2\right)=\lambda a\left(x_1\right)+\mu a\left(x_2\right)$. Ainsi, $a$ est un endomorphisme de $E$.

$\bullet$ Pour tout $(x,y)\in E^2$, $\psi(a(x),y)=\varphi(x,y)=\varphi(y,x)=\psi(a(y),x)=\psi(x,a(y))$. Donc, $a$ est autoadjoint pour $\psi$. De plus, pour tout $x\in E\setminus\{0\}$, $\psi(a(x),y)=\varphi(x,x)>0$. Donc, $a$ est autoadjoint défini positif pour $\psi$. En particulier, $a\in GL(E)$ puis pour tout $(x,y)\in E^2$, $\varphi\left(a^{-1}(x),y\right)=\psi\left(a\left(a^{-1}(x)\right),y\right)=\psi(x,y)$.

En échangeant les rôles de $\varphi$ et $\psi$, on obtient le fait que $a^{-1}$ est autoadjoint défini positif pour $\varphi$. Mais alors, $a=\left(a^{-1}\right)^{-1}$ est autoadjoint défini positif pour $\varphi$ (car $a^*=\left(\left(a^{-1}\right)^*\right)^{-1}=\left(a^{-1}\right)^{-1}=a$ et d’autre part $\text{Sp}(a)=\left\{\dfrac{1}{\lambda},\;\lambda\in\text{Sp}\left(a^{-1}\right)\right\}\subset]0,+\infty[$).

2) Soit $f\in O(E,\varphi)$. Pour tout $(x,y)\in E^2$,

$$\psi(x,y)=\varphi\left(a^{-1}(x),y\right)=\varphi\left(f\left(a^{-1}(x)\right),f(y)\right)=\psi\left(a\left(f\left(a^{-1}(x)\right)\right),f(y)\right).$$

Mais alors,

$$f\in O(E,\psi)\Leftrightarrow\forall(x,y)\in E^2,\;\psi(f(x),f(y))=\psi(x,y)\Leftrightarrow\forall(x,y)\in E^2,\;\psi(f(x),f(y))=\psi\left(a\left(f\left(a^{-1}(x)\right)\right),f(y)\right).$$

On en déduit que $f\in O(E,\psi)$ si et seulement si, pour tout $x\in E$, $f(x)-a\left(f\left(a^{-1}(x)\right)\right)\in(f(E))^{\bot,\psi}=(E)^{\bot,\psi}=\{0\}$ ($f(E)=E$ car une isométrie vectoriellle est en particulier un automorphisme) ce qui équivaut au fait que pour tout $x\in E$, $a\left(f\left(a^{-1}(x)\right)\right)=f(x)$. Ainsi,

$$f\in O(E,\psi)\Leftrightarrow a\circ f\circ a^{-1}=f\Leftrightarrow a\circ f=f\circ a.$$

3) Soit $\psi$ un produit scalaire sur $E$ fixé. Pour tout endomorphisme autoadjoint défini positif pour $\psi$, l’application $\varphi_a~:~(x,y)=\psi(a(x),y)$ est un produit scalaire sur $E$ et inversement, d’après la question 1), tout produit scalaire sur $E$ est de cette forme.

Soit $f\in \displaystyle\bigcap_{\varphi\in P}O(E,\varphi)$. D’après la question précédente, $f$ commute avec tout endomorphisme $a$ autoadjoint défini positif pour $\psi$. En particulier, si $s$ est une symétrie orthogonale pour $\psi$, $a=2Id +s$ est autoadjoint pour $\psi$ (en tant que combinaison linéaire d’endomorphismes autoadjoints) défini positif pour $\psi$ (car $\text{Sp}(a)\in\{1,3\}\subset]0,+\infty[$). Donc, $f$ commute avec $a=2Id+s$ puis avec $a-2Id=s$, pour toute symétrie $s$, orthogonale pour $\psi$.

Soit $x$ un vecteur non nul de $E$ puis $s_x$ la symétrie orthogonale pour $\psi$ par rapport à $D=\text{Vect}(x)$. $s_x(f(x))=f\left(s_x(x)\right)=f(x)$ et on en déduit que $f(x)\in D=\text{Vect}(x)$.

On suppose alors que $n\geqslant2$. Soit $\left(e_1,\ldots,e_n\right)$ une base de $E$. D’après ce qui précède, pour tout $i\in\{1,\ldots,n\}$, il existe $\lambda_i\in\mathbb{R}$ tel que $f\left(e_i\right)=\lambda_ie_i$. Soit $(i,j)\in\{1,\ldots,n\}^2$ etl que $i\neq j$. $e_i+e_j\neq0$ et donc il existe $\lambda\in\mathbb{R}$ tel que $f\left(e_i+e_j\right)=\lambda\left(e_i+e_j\right)$. On a

$$\lambda_ie_i+\lambda_je_j=f\left(e_i\right)+f\left(e_j\right)=f\left(e_i+e_j\right)=\lambda\left(e_i+e_j\right)=\lambda e_i+\lambda e_j.$$

La famille $\left(e_i,e_j\right)$ étant libre, on en déduit que $\lambda_i=\lambda=\lambda_j$. Ainsi, il existe $\lambda\in\mathbb{R}$ tel que pour tout $i\in\{1,\ldots,n\}$, $f\left(e_i\right)=\lambda e_i$. Les endomorphismes $f$ et $\lambda Id_E$ coïncident sur une base de $E$ et donc $f=\lambda Id_E$. Ce dernier résultat persiste quand $n=1$ car alors, tout endomorphisme de $E$ est une homothétie. Enfin, $f\in O(E,\psi)$ et donc pour tout $x\in E$,

$$\psi(x,x)=\psi(f(x),f(x))=\psi(\lambda x,\lambda x)=\lambda^2\psi(x,x).$$

En prennant $x\neq0$ et donc $\psi(x,x)>0$, on obtient $\lambda^2=1$ puis $\lambda\in\{-1,1\}$. On a montré que nécessairement $f=\pm Id$. Réciproquement, si $f\varepsilon Id$ avec $\varepsilon\in\{-1,1\}$, alors pour tout $\varphi\in P$, pour tout $(x,y)\in E^2$,

$$\varphi(f(x),f(y))=\varphi(\varepsilon x,\varepsilon y)=\varepsilon^2\varphi(x,y)=\varphi(x,y)$$

et donc $f\in O(E,\varphi)$. On a montré que

$$\displaystyle\bigcap_{\varphi\in P}O(E,\varphi)=\{Id,-Id\}.$$

 

Commentaires et/ou rappels de cours

$\bullet$ Théorème. Soit $(E,\langle\;,\;\rangle)$ un espace euclidien.

1) Pour tout $x\in E$, $\varphI_x~:~y\mapsto\langle x,y\rangle$ est une forme linéaire sur $E$

2) Pour toute forme linéaire $\varphi$ sur $E$, il existe un vecteur $x$ et un seul tel que $\varphi=\varphi_x$.

3) L’application \begin{array}[t]{ccc}E&\rightarrow&\mathscr{L}(E,\mathbb{R})\\x&\mapsto&\varphi_x\end{array}$ est un isomorphisme d’espaces vectoriels.

$\bullet$ Théorème. Soit $(E,\langle\;,\;\rangle)$ un espace euclidien.

1) $E^\bot=\{0\}$ (car $x\in E^\bot$ entraine en particulier $\langle x,x\rangle=0$).

2) $\forall(x,y)\in E^2$, $(\forall z\in E,\;\langle x,y\rangle=\langle y,z\rangle)\Leftrightarrow x=y$) (car $x-y\in E^\bot$)

 

Exercice – Difficulté 2 – Thème : déterminants. Titre : calcul d’un déterminant qui circule (mais qui n’est pas circulant).

Enoncé (Mines-Ponts)

Soient $n\geqslant2$ et $a_1$, $a_2$, $\ldots$ , $a_n$, $n$ nombres complexes. Calculer le déterminant de

$$A_n=\begin{pmatrix}a_1+a_2&a_2+a_3&\ldots&a_{n-1}+a_n&a_n+a_1\\a_1^2+a_2^2&a_2^2+a_3^2&\ldots&a_{n-1}^2+a_n^2&a_n^2+a_1^2\\\vdots&\vdots& &\vdots&\vdots\\\vdots&\vdots& &\vdots&\vdots\\a_1^n+a_2^n&a_2^n+a_3^n&\ldots&a_{n-1}^n+a_n^n&a_n^n+a_1^n\end{pmatrix}.$$

Corrigé

Pour tout $j\in\{1,\ldots,n\}$, on pose $U_j=\begin{pmatrix}a_j\\a_j^2\\\vdots\\a_j^n\end{pmatrix}=\left(a_j^i\right)_{1\leqslant i\leqslant n}$ de sorte que

$$\text{det}\left(A_n\right)=\text{det}\left(U_1+U_2,U_2+U_3,\ldots,U_{n-1}+U_n,U_n+U_1\right).$$

On note tout d’abord que (en notant $C_1$, $\ldots$ , $C_n$, les colonnes de $A_n$),

\begin{align*}\displaystyle\sum_{j=1}^{n}(-1)^{j-1}C_j&=\displaystyle\sum_{j=1}^{n}(-1)^{j-1}\left(U_j+U_{j+1}\right)=\displaystyle\sum_{j=1}^{n}\left((-1)^{j-1}U_j-(-1)^jU_j\right)\\&=U_1+(-1)^nU_1\;(\text{somme télescopique})\\&=\left(1-(-1)^n\right)U_1.\end{align*}

Si $n$ est pair, on obtient $\displaystyle\sum_{j=1}^{n}(-1)^{j-1}C_j=0$. La famille des colonnes de la matrice $A_n$ est donc liée puis $\text{det}\left(A_n\right)=0$.

Dorénavant, on suppose que $n$ est un entier impair supérieur ou égal à $3$. On pose $n=2p+1$ où $p\in\mathbb{N}^*$. On applique la transformation $C_1\leftarrow \displaystyle\sum_{j=1}^{2p+1}(-1)^{j-1}C_j$, qui ne modifie pas la valeur du déterminant, et on obtient

$$\text{det}\left(A_{2p+1}\right)=\text{det}\left(2U_1,U_2+U_3,\ldots,U_{2p}+U_{2p+1},U_{2p+1}+U_1\right)=2\text{det}\left(U_1,U_2+U_3,\ldots,U_{2p}+U_{2p+1},U_{2p+1}+U_1\right),$$

(par linéarité par rapport à la première colonne). On effectue ensuite les transformations successives $C_{2p+1}\leftarrow C_{2p+1}-C_1$, $C_{2p}\leftarrow C_{2p}-C_{2p+1}$, $C_{2p-1}\leftarrow C_{2p-1}-C_{2p}$, $\ldots$ , $C_2\Leftarrow C_2-C_3$ et on obtient

\begin{align*}\text{det}\left(A_{2p+1}\right)&=2\text{det}\left(U_1,U_2,\ldots,U_{2p},U_{2p+1}\right)=2\begin{vmatrix}a_1&a_2&\ldots&a_{2p+1}\\a_1^2&a_2^2&\ldots&a_{2p+1}^2\\\vdots&\vdots& &\vdots\\a_1^{2p+1}&a_2^{2p+1}&\ldots&a_{2p+1}^{2p+1}\end{vmatrix}\\&=2a_1a_2\ldots a_{2p+1}\begin{vmatrix}1&1&\ldots&1\\a_1&a_2&\ldots&a_{2p+1}\\\vdots&\vdots& &\vdots\\a_1^{2p}&a_2^{2p}&\ldots&a_{2p+1}^{2p}\;(\text{par linéarité par rapport à chaque colonne})\\&=2a_1a_2\ldots a_{2p+1}\text{Van}\left(a_1,a_2,\ldots,a_{2p+1}\right)\\&=2a_1a_2\ldots a_{2p+1}\displaystyle\prod_{1\leqslant i<j\leqslant2p+1}\left(a_j-a_i\right.\end{vmatrix}\end{align*}

Commentaires et/ou rappels de cours

$\bullet$ Une matrice $A$ est non inversible (et donc de déterminant nul) si et seulement si la famille de ses colonnes est liée.

$\bullet$ Quand on effectue une transformation du type $C_j\leftarrow\displaystyle\sum_{k=1}^{n}\lambda_kC_k$, on doit prendre garde à la valeur de $\lambda_j$. Tout d’abord, on n’a pas droit à $\lambda_j=0$. Ensuite, si $\lambda_j=1$, le déterminant ne change pas. Mais plus généralement, si $\lambda_j$ est quelconque, le nouveau déterminant est égal à l’ancien multiplié par $\lambda_j$ :

$$\text{det}\left(C_1,\ldots,C_{j-1},\displaystyle\sum_{k=1}^{n}\lambda_k C_k,C_{j+1},\ldots,C_n\right)=\lambda_j\text{det}\left(C_1,\ldots,C_j,\ldots,C_n\right),$$

et donc, si de plus $\lambda_j\neq0$,

$$\text{det}\left(C_1,\ldots,C_j,\ldots,C_n\right)=\dfrac{1}{\lambda_j}\text{det}\left(C_1,\ldots,C_{j-1},\displaystyle\sum_{k=1}^{n}\lambda_k C_k,C_{j+1},\ldots,C_n\right).$$

Exercice – Difficulté 2 – Thème : réduction. Titre : utilisation des traces des puissances d’une matrice A.

Enoncé (Mines-Ponts)

Soit $A\in\mathscr{M}_n(\mathbb{C})$ telle que $\forall k\in\{1,\ldots,n-1\}$, $\text{Tr}\left(A^k\right)=0$ et $\text{Tr}\left(A^n\right)\neq0$.

Montrer que $A$ est diagonalisable.

Corrigé

Posons $\text{Sp}(A)=\left(\lambda_1,\ldots,\lambda_n\right)$. On sait que pour tout $k\in\{1,\ldots,n\}$, $\text{Sp}\left(A^k\right)=\left(\lambda_1^k,\ldots,\lambda_n^k\right)$ puis $\text{Tr}\left(A_k\right)=\displaystyle\sum_{i=1}^{n}\lambda_i^k$. Par hypothèse, pour tout $k\in\{1,\ldots,n-1\}$, $\displaystyle\sum_{i=1}^{n}\lambda_i^k=0$ et d’autre part, $\displaystyle\sum_{i=1}^{n}\lambda_i^n$ est un certain complxe non nul que l’on note $t_n$.

Soit $\left(a_1,\ldots,a_{n_1}\right)\in\mathbb{C}^{n-1}$ puis $P=X^n+\displaystyle\sum_{i=1}^{n-1}a_iX^i$. Alors,

\begin{align*}\displaystyle\sum_{i=1}^{n}P\left(\lambda_i\right)&=\displaystyle\sum_{i=1}^{n}\left(\lambda_i^n+\displaystyle\sum_{k=1}^{n-1}a_k\lambda_i^k\right)=\displaystyle\sum_{i=1}^{n}\lambda_i^n+\displaystyle\sum_{k=1}^{n-1}a_k\left(\displaystyle\sum_{i=1}^{n}\lambda_i^k\right)=t_n.\end{align*}

Ainsi, pour tout polynôme $P$, de degré $n$, unitaire et de coefficient constant nul,

$$\displaystyle\sum_{i=1}^{n}P\left(\lambda_i\right)=t_n\neq0\quad(\star).$$

Pour chaque $j\in\{1,\ldots,n\}$, soit $P_j=X\displaystyle\prod_{\substack{k=1\\k\neq j}}^{n}\left(X-\lambda_k\right)$. Alors, pour tout $j\in\{1,\ldots,n\}$, $P_j$ est un polynôme de degré $n$, unitaire et de coefficient constant nul. De plus, pour $i\neq j$, $P_j\left(\lambda_i\right)=0$ et d’autre part, $P_j\left(\lambda_j\right)=\lambda_j\displaystyle\prod_{\substack{i=1\\i\neq j}}^{n}\left(\lambda_j-\lambda_i\right)$. En appliquant $(\star)$ à chaque polynôme $P_j$, on obtient

$$\forall j\in\{1,\ldots,n\},\;\lambda_j\displaystyle\prod_{\substack{i=1\\i\neq j}}^{n}\left(\lambda_j-\lambda_i\right)\neq0.$$

Ceci montre que les valeurs propres $\lambda_1$, $\ldots$ , $\lambda_n$, sont deux à deux distinctes (et non nulles). Puisque $A$ a $n$ valeurs propres simples, $A$ est diagonalisable.

Commentaires et/ou rappels de cours

Si $\text{Sp}(A)=\left(\lambda_1,\ldots,\lambda_n\right)$, alors pour tout $k\in\mathbb{N}^*$, $\text{Sp}(A)=\left(\lambda_1^k,\ldots,\lambda_n^k\right)$ (ceci est vrai pour toute matrice $A$, diagonalisable ou pas, et se démontre en trigonalisant). Plus généralement, si $P$ est un polynôme, alors $\text{Sp}(P(A))=\left(P\left(\lambda_1\right),\ldots,P\left(\lambda_n\right)\right)$. Si de plus, $A$ est inversible, alors pour tout $k\in\mathbb{Z}$, $\text{Sp}(A)=\left(\lambda_1^k,\ldots,\lambda_n^k\right)$.

Exercice – Difficulté 2 – Thème : espaces euclidiens. Titre : une caractéristation des projecteurs orthogonaux.

Enoncé (Mines-Ponts)

Soient $(E,\langle\;,\;\rangle)$ un espace euclidien puis $p$ un projecteur de $E$.

Montrer que $p$ est un projecteur orthogonal si et seulement si $\forall x\in E$, $\|p(x)\|\leqslant\|x\|$.

Corrigé

$\bullet$ Supposons que $p=p_F$ est la projection orthogonale sur un certain sous-espace vectoriel $F$ de $E$. Soit $x\in E$. $p_F(x)\in F$ et $x-p_F(x)\in F^\bot$ et donc, d’après le théorème de Pythagore,

$$\|x\|^2=\left\|p_F(x)+x-p_F(x)\right\|^2=\left\|p_F(x)\right\|^2+\left\|x-p_F(x)\right\|^2\geqslant\left\|p_F(x)\right\|^2$$

puis $\left\|p_F(x)\right\|\leqslant\|x\|$.

$\bullet$. Inversement, soient $F$ et $G$ deux sous-espaces vectoriels de $E$, supplémentaires, puis $p$ la projection sur $F$ parallèlement à $G$. On suppose que pour tout $x\in E$, $\|p(x)\|\leqslant\|x\|$. Montrons alors que $G=F^\bot$.

Soit $(x,y)\in F\times (G\setminus\{0\})$. Pour tout $\lambda \in\mathbb{R}$, $p(x+\lambda y)=x$ puis

$$\|x\|^2=\|p(x+\lambda y)\|^2\leqslant\|x+\lambda y\|^2=\|x\|^2+2\lambda\langle x,y\rangle+\lambda^2\|y\|^2$$

puis, pour tout $\lambda\in\mathbb{R}$, $\lambda^2\|y\|^2+2\lambda\langle x,y\rangle\geqslant0$. Puisque $y\neq0$ et donc $\|y\|^2>0$, $P~:~\lambda\mapsto\lambda^2\|y\|^2+2\lambda\langle x,y\rangle$ est un trinôme du second degré, de signe constant sur $\mathbb{R}$. Son discriminant réduit est négatif ou nul, ce qui fournit $\langle x,y\rangle^2\leqslant0$ puis $\langle x,y\rangle=0$ (ce qui reste vrai quand $y=0$).

Ainsi, pour tout $(x,y)\in F\times G$, $\langle x,y\rangle=0$ et donc $G\subset F^\bot$. De plus, $\text{dim}(G)=\text{dim}(E)-\text{dim}(F)=\text{dim}\left(F^\bot\right)<+\infty$ et donc $G=F^\bot$. Mais alors, $p$ est un projecteur orthogonal.

On a montré que si $p$ est un projecteur, alors $p$ est un projecteur orthogonal si et seulement si $\forall x\in E$, $\|p(x)\|\leqslant\|x\|$.

Commentaires et/ou rappels de cours

Une autre caractérisation. Soit $p$ un projecteur. $p$ est un projecteur orthogonal si et seulement si $p$ est auto-adjoint (c’est-à-dire $p^*=p$).

Exercice – Difficulté 3 – Thème : matrices. Titre : autour de la comatrice.

Enoncé (Centrale)

On travaille dans $\mathscr{M}_n(\mathbb{K})$ avec $\mathbb{K}=\mathbb{R}$ ou $\mathbb{C}$ ($n\geqslant3$). On note $\widetilde{A}=(\text{com}(A))^T$.

1) Montrer que $A\widetilde{A}=\text{det}(A)I_n$ pour tout $A\in\mathscr{M}_n(\mathbb{K})$.

2) Montrer que : $\forall(A,B)\in\left(\mathscr{M}_n(\mathbb{K}\right)^2$, $\text{com}(A)\text{com}(B)=\text{com}(AB)$.

3) On note $S=\left\{A\in\mathscr{M}_n(\mathbb{K})/\;A+\widetilde{A}\in\mathbb{C}I_n\right\}$.

Montrer que si $A\in S$ et $B\sim A$, alors $B\in S$.

Compter le nombre de classes de similitude de $S\setminus GL_n(\mathbb{C})$.

Compter le nombre de classes de similitude de $S\cap GL_n(\mathbb{C})$.

Corrigé

1) Soit $A=\left(a_{i,j}\right)_{1\leqslant i,j\leqslant n}\in\mathscr{M}_n(\mathbb{K})$. Pour tout $(i,j)\in\{1,\ldots,n\}^2$, on note $A_{i, j}$ le cofacteur de $a_{i,j}$.

Soit $(i,j)\in\{1,\ldots,n\}^2$. Le coefficient ligne $i$, colonne $j$, le la matrice $A\widetilde{A}$ est $\displaystyle\sum_{k=1}^{n}a_{i,k}A_{j,k}$.

Si $i=j$, ce coefficient est $\displaystyle\sum_{k=1}^{n}a_{i,k}A_{i,k}=\text{det}(A)$ (développement de $\text{det}(A)$ suivant sa $i$-ème ligne.

Si $i\neq j$, $\displaystyle\sum_{k=1}^{n}a_{i,k}A_{j,k}$ est le développement du déterminant obtenu en remplaçant la $j$-ème ligne de $\text{det}(A)$ par sa $i$-ème ligne (sans changer la $i$-ème ligne). Ce déterminant est nul car deux de ses lignes sont égales.

Finalement, pour tout $(i,j)\in\{1,\ldots,n\}^2$, le coefficient ligne $i$, colonne $j$, le la matrice $A\widetilde{A}$ est $\delta_{i,j}\text{det}(A)$ et donc $A\widetilde{A}=\text{det}(A)I_n$.

2) Soit $(A,B)\in\left(GL_n(\mathbb{K})\right)^2$. $\text{com}(A)=\text{det}(A)\left(A^{-1}\right)^T$ et $\text{com}(B)=\text{det}(B)\left(B^{-1}\right)^T$ puis

$$\text{com}(A)\text{com}(B)=\text{det}(A)\left(A^{-1}\right)^T\text{det}(B)\left(B^{-1}\right)^T=\text{det}(AB)\left(B^{-1}A^{-1}\right)^T=\text{det}(AB)\left((AB)^{-1}\right)^T=\text{com}(AB).$$

Soit $A\in\left(\mathscr{M}_n(\mathbb{K})\right)^2$. La matrice $A$ admet un nombre fini de valeurs propres et donc il existe $r>0$ tel que $]0,r[\cap\text{Sp}(A)=\varnothing$. Pour $p\geqslant p_0=\left\lfloor\dfrac{1}{r}\right\rfloor+1$, la matrice $A_p=A-\dfrac{1}{p}I_n$ est inversible et de plus $\displaystyle\lim_{p\rightarrow+\infty}A_p=A$. Ainsi, $A$ est limite d’une suite de matrices inversibles. Ceci montre que $GL_n(\mathbb{K})$ est dense dans $\mathscr{M}_n(\mathbb{K})$. Mais alors, $\left(GL_n(\mathbb{K})\right)^2$ est dense dans $\left(\mathscr{M}_n(\mathbb{K})\right)^2$.

Soit $\begin{array}[t]{cccc}\varphi~:&\left(\mathscr{M}_n(\mathbb{K})\right)^2&\rightarrow&\mathscr{M}_n(\mathbb{K})\\&(A,B)&\mapsto&\text{com}(A)\text{com}(B)-\text{com}(AB)\end{array}$. $\varphi$ est continue sur $\left(\mathscr{M}_n(\mathbb{K})\right)^2$ car les coefficients de $\varphi((A,B))$ sont polynomiaux en les coefficients de $A$ et $B$. De plus, $\varphi$ est nulle sur $\left(GL_n(\mathbb{K})\right)^2$ et $GL_n(\mathbb{K})$ est dense dans $\mathscr{M}_n(\mathbb{K})$. On en déduit que $\varphi$ est nulle sur $\left(\mathscr{M}_n(\mathbb{K})\right)^2$. On a montré que

$$\forall(A,B)\in$\left(\mathscr{M}_n(\mathbb{K})\right)^2$.,\;\text{com}(A)\text{com}(B)=\text{com}(AB).$$

3) $\bullet$ Soit $A\in S$. Il existe $\lambda\in\mathbb{K}$ tel que $A+\widetilde{A}=\lambda I_n$. Soit $b\in\mathscr{M}_n(\mathbb{K})$ telle qu’il existe $P\in GL_n(\mathbb{K})$ telle que $B=P^{-1}AP$. D’après la question précédente, $\com(B)=\text{com}\left(P^{-1}\right)\text{com}(A)\text{com}(P)$ puis en transposant,

$$\widetilde{B}=\widetilde{P}\widetilde{A}\widetilde{P^{-1}}.$$

Ensuite, $P$ étant inversible, $\widetilde{P}=(\text{com}(P))^T=\text{det}(P)P^{-1}$ puis $\widetilde{P^{-1}}=\text{det}\left(P^{-1}\right)P$. Mais alors,

$$\widetilde{B}=\widetilde{P}\widetilde{A}\widetilde{P^{-1}}=\text{det}(P)P^{-1}\widetilde{A}\text{det}\left(P^{-1}\right)P=P^{-1}\widetilde{A}P,$$

puis

$$B+\widetilde{B}=P^{-1}AP+P^{-1}\widetilde{A}P=P^{-1}\left(A+\widetilde{A}\right)P=P^{-1}\left(\lambda I_n\right)P=\lambda I_n.$$

Donc, $B$ appartient à $S$.

$\bullet$ Soit $A\in S\setminus GL_n(\mathbb{C})$. Il existe $\lambda\in\mathbb{K}$ tel que $A+\widetilde{A}=\lambda I_n$ $(\star)$.

Si $\text{rg}(A)\leqslant n-2$, tous les mineurs de format $n-1$ extraits de $\text{det}(A)$ sont nuls et donc $\widetilde{A}=0$. Il reste $A=\lambda I_n$ puis $A=0$ car $A$ n’est pas inversible. Inversement, $0\in S$ puis la classe de similitude de $0$ est le singleton $\{0\}$.

Supposons maintenant $\text{rg}(A)=n-1$. Alors $\text{det}(A)=0$ puis $A\widetilde{A}=0$ puis $\text{Im}\left(\widetilde{A}\right)\subset\text{Ker}(A)$. D’après le théorème du rang, $\text{dim}(\text{Ker}(A))=1$ et donc $\text{rg}\left(\widetilde{A}\right)\leqslant1$. Mais d’autre part, il existe au moins un mineur de format $n-1$ extrait de $\text{det}(A)$ qui n’est pas nul et donc $\widetilde{A}\neq0$ puis $\text{rg}\left(\widetilde{A}\right)=1$.

En multipliant les deux membres de $(\star)$ par $A$ à gauche, on obtient $A^2=\lambda A$ puis $A\left(A-\lambda I_n\right)=0$.

1er cas. Si $\lambda\neq0$, le polynôme $X(X-\lambda)$ est scindé sur $\mathbb{K}$ à racines simples et donc $A$ est diagonalisable et les valeurs propres de $A$ appartiennent à $\{0,\lambda\}$. Puisque $\text{rg}(A)=n-1$, $\text{dim}(\text{Ker}(A))=1$ puis $0$ est valeur propre simple de $A$ car $A$ est diagonalisable. Mais alors, $\lambda$ est valeur propre de $A$ d’ordre $n-1$ puis $A$ est semblable à $D=\text{diag}(\lambda,\ldots,\lambda,0)$. D’après le début de la question, $A+\widetilde{A}=\lambda I_n\Leftrightarrow D+\widetilde{D}=\lambda I_n$.

Ensuite, si $(i,j)\neq(n,n)$, le mineur de $d_{i,j}$ contient une colonne nulle et est donc nul. D’autre part, le mineur de $d_{n,n}$, qui est aussi son cofacteur, est $\lambda^{n-1}$. Ceci montre que $\widetilde{D}=\text{com}(D)=\text{diag}\left(0,\ldots,0,\lambda^{n-1}\right)$ puis

$$D+\widetilde{D}=\lambda I_n\Leftrightarrow\text{diag}\left(\lambda,\ldots,\lambda,\lambda^{n-1}\right)=\text{diag}\left(\lambda,\ldots,\lambda,\lambda^{n-1}\right)\Leftrightarrow\lambda^{n-1}=\lambda\Leftrightarrow\lambda^{n-2}=1\;(\text{car}\;\lambda\neq0).$$

Si $\mathbb{K}=\mathbb{C}$, il existe $n-2$ matrices diagonales deux à deux distinctes, solutions de $(\star)$, à savoir les matrices $D_k=\text{diag}\left(\omega_k,\ldots,\omega_k,0\right)$, $0\leqslant k\leqslant n-3$, où $\omega_k=e^{\frac{2ik\pi}{n-2}}$. Ces matrices sont deux à deux non semblables car, deux à deux, elles n’ont pas le même polynôme caractéristique. On obtient donc exactement $n-2$ classes de similitude.

Si $\mathbb{K}=\mathbb{R}$ et $n$ est pair, on obtient exactement une classe de similitude, la classe de la matrice $D=\text{diag}(1,\ldots,1,0)$ et si $n$ est impair, on obtient exactement deux classes de similitude, la classe de la matrice $D=\text{diag}(1,\ldots,1,0)$ et de $D’=\text{diag}(-1,\ldots,-1,0)$.

2ème cas. Il reste à étudier le cas où $\lambda=0$ (et $\text{rg}(A)=n-1$). On a $A+\widetilde{A}=0$ puis $A^2=A^2+A\widetilde{A}=0$. Par suite, $\text{Im}(A)\subset\text{Ker}(A)$ puis, $n-1=\text{rg}(A)\leqslant 1$ puis $n\leqslant2$. Puisque $n\geqslant 3$, il n’y a pas de solution de ce type.

En résumé, si $\mathbb{K}=\mathbb{C}$, il y a $n-1$ classes de similitudes de $S\setminus GL_n(\mathbb{C})$. Si $\mathbb{K}=\mathbb{R}$, il y a deux classes de similitudes de $S\setminus GL_n(\mathbb{R})$ si $n$ est pair et trois classes de similitudes de $S\setminus GL_n(\mathbb{R})$ si $n$ est impair.

$\bullet$ Soit $A\in GL_n(\mathbb{K})$.

$$A\in S\Leftrightarrow\exists\lambda\in\mathbb{K}/\;A+\widetilde{A}=\lambda I_n\Leftrightarrow\exists\lambda\in\mathbb{K}/\;A^2-\lambda A+\text{det}(A)I_n=0.$$

Commençons par le cas $\mathbb{K}=\mathbb{C}$. Le polynôme $X^2-\lambda X+\text{det}(A)$ est annulateur de $A$.

1er cas. Si $\lambda^2-4\text{det}(A)=0$, alors $\left(A-\dfrac{\lambda}{2}I_n\right)^2=0$ puis $A$ s’écrit sous la forme $A=\dfrac{\lambda}{2}I_n+N$ où $N$ est nilpotente d’indice inférieur ou égal à $2$. Dans ce cas, $\text{det}(A)=\chi_{-N}\left(\dfrac{\lambda}{2}\right)=\left(\dfrac{\lambda}{2}\right)^n$ (car $-N$ est nilpotente). En particulier, $\lambda\neq0$ car $A$ est inversible puis

$$A^2-\lambda A+\text{det}(A)I_n=\left(\dfrac{\lambda}{2}\right)^2I_n+\lambda N-\dfrac{\lambda^2}{2}I_n-\lambda N+\left(\dfrac{\lambda}{2}\right)^nI_n=\left(-\left(\dfrac{\lambda}{2}\right)^2+\left(\dfrac{\lambda}{2}\right)^n\right)I_n=\left(\dfrac{\lambda}{2}\right)^2\left(\left(\dfrac{\lambda}{2}\right)^{n-2}-1\right)I_n.$$

Dans ce cas, $A$ est solution si et seulement si $\lambda$ est de la forme $2\omega_k$ avec $\omega_k=e^{\frac{2ik\pi}{n-2}}$, $0\leqslant k\leqslant n-3$. Les matrices solutions obtenues sont les matrices de la forme $A=e^{\frac{2ik\pi}{n-2}}I_n+N$, $0\leqslant k\leqslant n-2$ et $N\in\mathscr{M}_n(\mathbb{C})$ nilpotente d’indice inférieur ou égal à $2$. Si $\mathbb{K}=\mathbb{R}$, on ne conserve que les matrices de la forme $I_n+N$, si $n$ est impair ou $\pm I_n+N$ si $n$ est pair. Il y a de nombreuses classes de similitude concernant $N$ et donc $A$. Il semble hors de propos de se lancer dans leur analyse dans cet exo.

2ème cas. On suppose maintenant $\lambda^2-4\text{det}(A)\neq0$. Dans ce cas, le polynôme X^2-\lambda X+\text{det}(A)$ est à racines simples dans $\mathbb{C}$ et donc la matrice $A$ est diagonalisable dans $\mathscr{M}_n(\mathbb{C})$. $A$ est semblable à une matrice diahgonale $D=\text{diag}\left(d_1,\ldots,d_n\right)$ où pour tout $i$, $d_i\neq0$. On pose $A=QDQ^{-1}$ où $Q\in GL_n(\mathbb{C})$ puis

\begin{align*}A^2-\lambda A+\text{det}(A)I_n=0&\Leftrightarrow QD^2Q^{-1}-\lambda QDQ^{-1}+\text{det}(D)I_n=0\Leftrightarrow D^2-\lambda D+\text{det}(D)I_n=0\\&\Leftrightarrow\forall i\in\{1,\ldots,n\},\;d_i^2-\lambda d_i+d_1\ldots d_n=0.\end{align*}

Il y a de très nombreuses solutions non semblables deux à deux comme les matrices $D=\text{diag}(1,\ldots,1,d)$, $d\in\mathbb{K}^*$. Je suppose que je n’ai pas l’énoncé originel et j’arrête là.

Commentaires et/ou rappels de cours

On peut rappeller l’exerice classique sur le rang de la comatrice. Soit $A\in\mathscr{M}_n(\mathbb{K})$.

Si $\text{rg}(A)=n$, alors $A\in GL_n(\mathbb{K}$ puis $\text{com}(A)=(\text{det}(A)\left(A^{-1}\right)^T$ est de rang $n$.

Si $\text{rg}(A)\leqslant n-2$, alors tous les mineurs de format $n-1$ extraits de $\text{det}(A)$ sont nuls puis $\text{com}(A)=0$ puis $\text{com}(A)$ est de rang $0$.

Si $\text{rg}(A)=n-1$, alors $\text{rg}\left(A^T\right)=n-1$ puis $\text{dim}\left(\text{Ker}\left(A^T\right)\right)=1$. Ensuite, $A^T\text{com}(A)=\left((\com}(A))^TA\right)^T=\left(\text{det}(A)I_n\right)^T=0$ et donc $\text{Im}(\text{com}(A))\subset\text{Ker}\left(A^T\right)$ puis $\text{rg}(A)\leqslant1$. D’autre part, il existe un mineur de format $n-1$ extrait de $\text{det}(A)$ qui n’est pas nul et donc $\text{com}(A)\neq0$. Finalement, $\text{rg}(\text{com}(A))=1$.

Exercice – Difficulté 3 – Thème : espaces euclidiens. Titre : une famille de vecteurs où les angles deux à deux sont égaux.

Enoncé (Centrale)

Soit $E$ un espace euclidien de dimension $n\in\mathbb{N}^*$, muni de sa norme euclidienne $\|\;\|$.

1) Soit $H$ un hyperplan de $E$. Montrer qu’il existe $a\in E$ tel que $H=(\text{Vect}(a))^\bot$.

2) Soit $\left(x_1,\ldots,x_n,x_{n+1}\right)\in E^{n+1}$ une famille de vecteurs unitaires telle que :

$$\exists\alpha>0/\;\forall(i,j)\in\{1,\ldots,n+1\}^2,\;\left(i\neq j\Rightarrow\langle x_i,x_j\rangle=\alpha\right).$$

Déterminer $\alpha$.

3) Montrer qu’une telle famille existe.

Corrigé

1) Soit $H$ un hyperplan de $E$. $H$ est de dimension $n-1$ et donc $H^\bot$ est de dimension $1$ (y compris quand $n=1$ auquel cas $H^\bot=E$). Un vecteur non nul $a$ de $H^\bot$ est tel que $H=(\text{Vect}(a))^\bot$.

2) Soit $\mathscr{B}=\left(e_1,\ldots,e_n\right)$ une base orthonormée de $(E,\langle\;,\;\rangle)$ puis $M=\text{Mat}_{\mathscr{B}}\left(x_i\right)_{1\leqslant i\leqslant n+1}\in\mathscr{M}_{n,n+1}(\mathbb{R})$. Soit $G=M^TM\in\mathscr{M}_{n+1}(\mathbb{R})$.

Soit $(i,j)\in\{1,\ldots,n+1\}^2$. $G_{i,j}$ est le produit scalaire usuel des colonnes $i$ et $j$ de $M$ ou encore, puisque la base $\mathscr{B}$ est orthonormée, $G_{i,j}=\langle x_i,x_j\rangle$. Ainsi,

$$G=\left(\langle x_i,x_j\rangle\right)_{1\leqslant i,j\leqslant n}=\begin{pmatrix}1&\alpha&\ldots&\alpha\\\alpha&\ddots&\ddots&\vdots\\\vdots&\ddots&\ddots&\alpha\\\alpha&\ldots&\alpha&1\end{pmatrix}.$$

Ensuite, $\text{rg}(G)=\text{rg}\left(M^TM\right)\leqslant\text{rg}(M)\leqslant n<n+1$ et donc $G\notin GL_{n+1}(\mathbb{R})$ puis $\text{det}(G)=0$.

La matrice $G$ est symétrique réelle et donc diagonalisable dans $\mathscr{M}_n(\mathbb{R})$. Le rang de $G-(1-\alpha)I_{n+1}$ est $1$ (car $\alpha\neq0$) et donc $1-\alpha$ est valeur propre de $G$ d’ordre $n$ exactement. La dernière valeur propre de $\lambda$ de $G$ est fournie par la trace de $G$ : $n(1-\alpha)+\lambda=n+1$ puis $\lambda=1+n\alpha$. Par suite, $\text{Sp}(G)=(1-\alpha,\ldots,1-\alpha,1+n\alpha)$ puis

$$\text{det}(G)=(1-\alpha)^n(1+n\alpha).$$

Puisque $\text{det}(G)=0$ et que $\alpha<0$, on en déduit que $\alpha=-\dfrac{1}{n}$.

3) Montrons par récurrence que pour tout $n\geqslant1$, pour tout espace euclidien $(E,\langle\;,\;\rangle)$ de dimension $n$, il existe $n+1$ vecteurs unitaires $x_1$, $\ldots$ , $x_{n+1}$, tels que pour tout $i\neq j$, $\langle x_i,x_j\rangle=-\dfrac{1}{n}\quad\left(\mathscr{P}_n\right)$.

– Soit $(E,\langle\;,\;\rangle)$ un espace euclidien de dimension $1$. Soit $\left(e_1\right)$ une base orthonormée de $E$. Les vecteurs $x_1=e_1$ et $x_2=-e_1$ sont deux vecteurs unitaires tels que $\langle x_1,x_2\rangle=-1=-\dfrac{1}{1}$. Donc, $\left(\mathscr{P}_1\right)$ est vraie.

– Soit $n\geqslant 1$. Supposons $\left(\mathscr{P}_n\right)$. Soit $(E,\langle\;,\;\rangle)$ un espace euclidien de dimension $n+1$. Soit $y_{n+2}$ un vecteur unitaire de $E$ puis $H=\left(y_{n+2}\right)^\bot$. $H$ est un hyperplan de $E$ et donc $(H,\langle\;,\;\rangle)$ est un espace euclidien de dimension $n$. Par hypothèse de récurrence, il existe $\left(x_1\ldots,x_{n+1}\right)\in E^{n+1}$ tel que pour tout $i\in\{1,\ldots,n+1\}$, $\left\|x_i\right\|=1$ et pour tout $(i,j)\in\{1,\ldots,n+1\}^2$ tel que $i\neq j$, $\langle x_i,x_j\rangle=-\dfrac{1}{n}$.

Pour $i\in\{1,\ldots,n+1\}$, on pose $y_i=\dfrac{1}{\sqrt{1+\lambda^2}\left(x_i+\lambda y_{n+2}\right)$ où $\lambda$ est un réel à déterminer.

$\bullet$ Pour tout $i\in\{1,\ldots,n+1\}$, d’après le théorème de Pythagore,

$$\left\|y_i\right\|^2=\dfrac{1}{1+\lambda^2}\left\|x_i+\lambda y_{n+2}\right\|^2=\dfrac{1}{1+\lambda^2}\left(\left\|x_i\right\|^2+\lambda^2 \left\|y_{n+2}\right\|^2\right)=1.$$

$\bullet$ Pour tout $i\in\{1,\ldots,n+1\}$,

$$\langle y_i,y_{n+2}\rangle=\dfrac{1}{\sqrt{1+\lambda^2}}\langle x_i+\lambda y_{n+2},y_{n+2}\rangle=\dfrac{\lambda}{\sqrt{1+\lambda^2}}\left\|y_{n+2}\right\|^2=\dfrac{\lambda}{\sqrt{1+\lambda^2}}.$$

$\bullet$ Pour tout $(i,j)\in\{1,\ldots,n+1\}^2$ tel que $i\neq j$,

$$\langle y_i,y_{j}\rangle=\dfrac{1}{1+\lambda^2}\langle x_i+\lambda y_{n+2},x_j+\lambda y_{n+2}\rangle=\dfrac{1}{1+\lambda^2}\left(\langle x_i,x_j\rangle+\lambda^2\left\|y_{n+2}\right\|^2\right)=\dfrac{\lambda^2-\dfrac{1}{n}}{\lambda^2+1}.$$

La famille $\left(y_i\right)_{1\leqslant i\leqslant n+2}$ est solution du problème si et seulement si $\dfrac{\lambda}{\sqrt{1+\lambda^2}}=\dfrac{\lambda^2-\dfrac{1}{n}}{\lambda^2+1}=-\dfrac{1}{n+1}$ (ce qui impose déjà $\lambda<0$). Or, pour $\lambda<0$,

$$\dfrac{\lambda^2-\dfrac{1}{n}}{\lambda^2+1}=-\dfrac{1}{n+1}\Leftrightarrow\lambda^2\left(1-\dfrac{1}{n+1}\right)=\dfrac{1}{n}-\dfrac{1}{n+1}\Leftrightarrow\lambda^2=\dfrac{1}{n(n+2)}\Leftrightarrow\lambda=-\dfrac{1}{\sqrt{n(n+2)}}.$$

De plus, pour cette valeur de $\lambda$, $\dfrac{\lambda}{\sqrt{1+\lambda^2}}=-\dfrac{1}{\sqrt{n(n+2)}}\times\dfrac{1}{\sqrt{1+\dfrac{1}{n(n+2)}}}=-\dfrac{1}{\sqrt{(n+1)^2}}=-\dfrac{1}{n+1}$. Donc, $\lambda$ convient.

Le résultat est démontré par récurrence.

Commentaires et/ou rappels de cours

$\bullet$ Cet exercice analyse le cas limite de l’exercice classique sur les familles obtusangles (à refaire) : si $E$ est un espace euclidien de dimension $n$ et $\left(x_1,\ldots,x_p\right)$ est une famille de $p$ vecteurs de $E$ telle que pour tout $i\neq j$, $\langle x_i,x_j\rangle<0$, alors $p\leqslant n+1$ (qui peut se démontrer par récurrence ou en vérifiant que la famille $\left(x_1,\ldots,x_{p-1}\right)$ est nécessairement libre).

$\bullet$ C’est peut-être aussi l’occasion de revoir tout ce qui concerne les matrices de Gram : si $\left(x_1,\ldots,x_n\right)$ est une famile de $n$ vecteurs d’un espace préhilbertien $(E,\langle\;,\;\rangle)$, alors $G\left(x_1,\ldots,x_n\right)=\left(\langle x_i,x_j\rangle\right)_{1\leqslant i,j\leqslant n}$.

Exercice – Difficulté 3 – Thème : réduction. Titre : enfomorphismes u et v tels que uv-vu=au+bv.

Enoncé (Mines-Ponts)

Soit $E$ un $\mathbb{C}$-espace vectoriel de dimension finie $n$ non nulle. Soient $u$ et $v$ deux endomorphismes de $E$ et $a$ et $b$ deux nombres complexes tels que $uv-vu=au+bv$.

1) Montrer que si $a=b=0$, alors $u$ et $v$ ont un vecteur propre en commun.

2) On suppose maintenant $a\neq0$ et $b=0$. Montrer que $u$ est non inversible puis donner l’expression de $u^pv-vu^p$ puis montrer que $u$ est nilpotent puis montrer que le résultat persiste ($u$ $v$ admettent un vecteur propre commun).

3) Montrer le résultat dans le cas où $a$ et $b$ sont quelconques.

Corrigé

1) Par hypothèse, $uv=vu$. Puisque $E$ est un $\mathbb{C}$-espace vectoriel de dimension finie non nulle, $u$ admet au moins une valeur propre. Soit $F=E_\lambda(u)$. Puisque $u$ et $v$ commutent, $F$ est stable par $v$. On note alors $v_F$ l’endomorphisme de $F$ induit par $v$. Puisque $F$ est un $\mathbb{C}$-espace vectoriel de dimension finie non nulle, $v_F$ admet un vecteur propre $x_0$ associé à une certaine valeur propre $\mu$.

Par construction, $x_0\neq0$, $u\left(x_0\right)=\lambda x_0$ et $v\left(x_0\right)=\mu x_0$. $x_0$ est un vecteur propre commun à $u$ et à $v$.

2) Par hypothèse, $uv-vu=au$ avec $a\neq0$. Si par l’absurde $u$ est inversible, alors $uvu^{-1}-v=aId_E$ puis

$$na=\text{Tr}\left(aId_E\right)=\text{Tr}\left(uvu^{-1}-v\right)=\text{Tr}\left(uvu^{-1}\right)-\text{Tr}\left(v\right)=0$$

ce qui contredit $a\neq0$ (et $n\neq0$). Donc, $u$ n’est pas inversible.

Ensuite, pour tout $p\in\mathbb{N}^*$,

\begin{align*}u^pv-vu^p&=\displaystyle\sum_{k=0}^{p-1}\left(u^{p-k}vu^k-u^{p-(k+1)}vu^{k+1}\right)\;(\text{somme télescopique})\\&=\displaystyle\sum_{k=0}^{p-1}u^{p-k}\left(uv-vu\right)u^k=\displaystyle\sum_{k=0}^{p-1}u^{p-k}\left(au\right)u^k=\displaystyle\sum_{k=0}^{p-1}au^p\\&=apu^p.\end{align*}

Donc, pour tout $p\in\mathbb{N}^*$, $u^pv-vu^p=apu^p$.

Soit alors $\begin{array}[t]{cccc}\Phi~:&\mathscr{L}(E)&\rightarrow&\mathscr{L}(E)\\&w&\mapsto&wv-vw\end{array}$. $\Phi$ est un endomorphisme de $\mathscr{L}(E)$ et d’après ce qui précède, pour tout $p\in\mathbb{N}$, $\Phi\left(u^p\right)=pa u^p$. Si par l’absurde, pour tout $p\in\mathbb{N}^*$, $u^p\neq0$, alors pour tout $p\in\mathbb{N}^*$, le nombre $\lambda_p=ap$ est valeur propre de $\Phi$ (et $u^p$ est un vecteur propre associé). De plus, puisque $a\neq0$, les nombres $\lambda_p$, $p\in\mathbb{N}^*$, sont deux à deux distincts. Mais ceci est impossible car, $\mathscr{L}(E)$ étant de dimension finie (égale à $n^2$), $\Phi$ n’admet qu’un nombre fini de valeurs propres. Donc, il existe $p\in\mathbb{N}^*$ tel que $u^p=0$ puis $u$ est nilpotent.

Enfin, puisque $u$ n’est pas inversible, le sous-espace $F=\text{Ker}(u)=E_0(u)$ est un $\mathbb{C}$-espace de dimension finie non nulle. De plus, pour tout $x\in F$,

$$u(v(x))=u(v(x))-v(u(x))=au(x)=0$$

et donc, $v(x)\in F$. Ainsi, $F$ est stable par $v$ puis, comme en 1), $u$ et $v$ ont un vecteur propre en commun (et de même si $b\neq0$ et $a=0$).

3) On suppose maintenant $uv-vu=au+bv$ où $a$ et $b$ sont tous deux non nuls. Alors,

$$(au+bv)v-v(au+bv)=a(uv-vu)=a(au+bv).$$

On pose $u’=au+bv$ et on a $u’v-vu’=au’$. Puisque $a\neq0$, $u’$ et $v$ ont un vectuer propre $x_0$ en commun. Puisque $u=\dfrac{1}{a}(u’-bv)$, $x_0$ est un vecteur propre de $u$ et donc un vecteur propre commun à $u$ et $v$.

Commentaires et/ou rappels de cours

Pas de commentaire particulier. 

Exercice – Difficulté 3 – Thème : réduction. Titre : une suite de matrices symétriques strictement positives.

Enoncé (Centrale)

1) Montrer que : $\forall M\in\mathscr{S}_n(\mathbb{R})$, $M\in\mathscr{S}_n^+(\mathbb{R})\Leftrightarrow\text{Sp}(M)\subset\mathbb{R}^+$.

2) Soit $A\in\mathscr{S}_n^+(\mathbb{R})$. On considère une suite $\left(M_k\right)$ définie par :

$$M_0=I_n\;\text{et}\;\forall k\in\mathbb{N},\;M_{k+1}=\dfrac{1}{2}\left(M_k+AM_k^{-1}\right).$$

Montrer que pour tout $k\in\mathbb{N}$, $M_k$ est inversible et que la suite $\left(M_k\right)_{k\in\mathbb{N}}$ converge vers une matrice $L\in\mathscr{S}_n^+(\mathbb{R})$.

Corrigé

1) $\bullet$ Soit $M\in\mathscr{S}_n^+(\mathbb{R})$. D’après le théorème spectral, $\chi_M$ est scindé sur $\mathbb{R}$. Soit $\lambda\in\mathbb{R}$ une valeur propre de $M$ puis $X\in\mathscr{M}_{n,1}(\mathbb{R})\setminus\{0\}$, un vecteur propre associé.

$$\lambda\|X\|^2=\lambda X^TX=X^T(\lambda X)=X^TMX$$

et donc, en tenant compte de $x\neq0$, $\lambda=\dfrac{X^TMX}{\|X\|^2}$. $\|X\|^2>0$ et $X^TMX\geqslant 0$ car $M\in\mathscr{S}_n^+(\mathbb{R})$. Donc, $\lambda\geqslant0$.

On a montré que si $M\in\mathscr{S}_n^+(\mathbb{R})$, alors les valeurs propres de $M$ sont des réels positifs.

$\bullet$ Soit $M\in\mathscr{S}_n(\mathbb{R})$ telle que $\text{Sp}(M)\subset\mathbb{R}^+$. D’après le théorème spectral, il existe $D=\text{diag}\left(\lambda_1,\ldots,\lambda_n\right)\in\mathscr{D}_n\left(\mathbb{R}^+\right)$ et $P\in O_n(\mathbb{R})$ telles que $M=PDP^T$.

Soient $X=\left(x_i\right)_{1\leqslant i\leqslant n}\in\mathscr{M}_{n,1}(\mathbb{R})$ puis $X’=P^TX=\left(x_i’\right)_{1\leqslant i\leqslant n}$ de sorte que $X=PX’$. Alors,

$$X^TMX=X^TPDP^TX=\left(P^TX\right)^TD\left(P^TX\right)=X’^TDX’=\displaystyle\sum_{i=1}^{n}\lambda_ix_i’^2\geqslant0.$$

Ainsi, pour tout $X\in\mathscr{M}_{n,1}(\mathbb{R})$, $X^TMX\geqslant0$ et donc $M\in\mathscr{S}_n^+(\mathbb{R})$.

2) Soit $A\in\mathscr{S}_n^+(\mathbb{R})$. D’après le théorème spectral et la question 1), il existe $D=\text{diag}\left(\lambda_1,\ldots,\lambda_n\right)\in\mathscr{D}_n^+(\mathbb{R})$ et $P\in O_n(\mathbb{R})$ telles que $A=PDP^T$.

Montrons par récurrence que pour tout $k\in\mathbb{N}$, $M_k$ existe et qu’il existe une matrice diagonale $D_k\in\mathscr{D}_n(]0,+\infty[)$ telle que $M_k=PD_kP^T$ (ce qui entraîne en particulier $M_k$ inversible).

– $M_0=I_n$ existe et est inversible. De plus, $P^TM_0P=P^TI_nP=I_n=D_0$ où $D_0=\text{diag}(1,\ldots,1)\in\mathscr{D}_n(]0,+\infty[)$. L’affirmation est vraie quand $k=0$.

– Soit $k\geqslant 0$. Supposons que $M_k$ existe et qu’il existe une matrice diagonale $D_k\in\mathscr{D}_n(]0,+\infty[)$ telle que $M_k=PD_kP^T$. Alors, $M_{k+1}=\dfrac{1}{2}\left(M_k+AM_k^{-1}\right)$ existe. Ensuite,

$$M_{k+1}=\dfrac{1}{2}\left(PD_kP^T+PDP^TPD_k^{-1}P^T\right)=P\times\dfrac{1}{2}\left(D_k+DD_k^{-1}\right)\times P^T=PD_{k+1}P^T$$

où $D_{k+1}=\dfrac{1}{2}\left(D_k+DD_k^{-1}\right)\in\mathscr{D}_n(\mathbb{R})$. De plus, si on pose $D_k=\text{diag}\left(d_i^{(k)}\right)_{1\leqslant i\leqslant n}\in\mathscr{D}_n(]0,+\infty[)$, alors $D_{k+1}=\text{diag}\left(d_i^{(k)}+\dfrac{\lambda_i}{d_i^{(k)}}\right)_{1\leqslant i\leqslant n}\in\mathscr{D}_n(]0,+\infty[)$.

Le résultat est démontré par récurrence.

Ainsi, en posant pour tout $k\in\mathbb{N}$, $D_k=\text{diag}\left(d_i^{(k)}\right)_{1\leqslant i\leqslant n}$, on a les relations

$$\forall i\in\{1,\ldots,n\}\;d_i^{(0)}=1\;\text{et}\;\forall k\in\mathbb{N},\;d_i^{(k+1)}=\dfrac{1}{2}\left(d_i^{(k)}+\dfrac {\lambda_i}{d_i^{(k)}}\right).$$

Soient $a$ un réel strictement positif puis $u$ la suite définie par : $u_0=1$ et pour tout $k\in\mathbb{N}$, $u_{k+1}=\dfrac{1}{2}\left(u_k+\dfrac{a}{u_k}\right)$. Par récurrence, la suite $u$ est définie et strictement positive.

Pour tout $k\in\mathbb{N}$,

$$u_{k+1}-u_k=\dfrac{1}{2}\left(u_k+\dfrac{a}{u_k}\right)-u_k=\dfrac{\sqrt{a}+u_k}{2u_k}\left(\sqrt{a}-u_k\right)$$

et donc, $\text{sgn}\left(u_{k+1}-u_k\right)=\text{sgn}\left(\sqrt{a}-u_k\right)$. Ensuite, pour tout $k\in\mathbb{N}$,

$$u_{k+1}-\sqrt{a}=\dfrac{1}{2}\left(u_k+\dfrac{a}{u_k}\right)-\sqrt{a}=\dfrac{1}{2u_k}\left(u_k^2-2u_k\sqrt{a}+a\right)=\dfrac{1}{2u_k}\left(u_k-\sqrt{a}\right)^2\geqslant0.$$

Ainsi, pour tout $k\geqslant 1$, $u_k\geqslant\sqrt{a}$ puis pour tout $k\geqslant1$, $u_{k+1}-u_k\leqslant0$. La suite $\left(u_k\right)_{k\geqslant1}$ décroît et est minorée par $\sqrt{a}$. On en déduit que la suite $u$ converge vers un certain réel $\ell\geqslant\sqrt{a}>0$. Quand $k$ tend vers $+\infty$, on obtient $\ell=\dfrac{1}{2}\left(\ell+\dfrac{a}{\ell}\right)$ puis $\el^^2=a$ et donc $\ell=\sqrt{a}$.

Si $a=0$, alors pour tout $k\in\mathbb{N}$, $u_{k+1}=\dfrac{1}{2}u_k$ puis pour tout $n\in\mathbb{N}$, $u_k=\dfrac{1}{2^k}$ et encore une fois $\displaystyle\lim_{k\rightarrow+\infty}u_k=0=\sqrt{0}$.

Ainsi, la suite de matrices $\left(D_k\right)_{k\in\mathbb{N}}$ converge vers la matrice $D_\infty=\text{diag}\left(\sqrt{\lambda_1},\ldots,\sqrt{\lambda_n}\right)\in\mathscr{D}_n\left(\mathbb{R}^+\right)$. Maintenant, l’application $M\mapsto PMP^T$ est continue sur $\mathscr{M}_n(\mathbb{R})$ car linéaire sur un espace de dimension finie. Donc, la suite $\left(M_k\right)=\left(PD_kP^T\right)$ converge vers $PD_\infty P^T$.

On pose $L=PD_\infty P^T$. $L$ est symétrique réelle (car orthogonalement semblable à une matrice diagonale réelle) et positive (car ses valeurs propres sont positives). On a montré que la suite a suite $\left(M_k\right)$ converge vers une matrice $L\in\mathscr{S}_n^+(\mathbb{R})$.

Commentaires et/ou rappels de cours

On remarque que $L^2=PD_\infty^2P^T=P\text{diag}\left(\lambda_1,\ldots,\lambda_n\right)P^T=A$. $L$ est donc l'(unique) matrice symétrique réelle positive de carré $A$. On note assez tradionnellement $L=\sqrt{A}$.