ALGEBRE LINEAIRE
Exercice – Difficulté 3 – Thème : matrices. Titre : matrices orthogonales positives circulantes de format 3.
Enoncé (CCINP)
Soit $M=\begin{pmatrix}a&b&c\\c&a&b\\b&c&a\end{pmatrix}\in\mathscr{M}_3(\mathbb{R})$.
1) Donner un système de conditions nécessaires et suffisantes sur $(a,b,c)$ pour que $M\in SO_3(\mathbb{R})$.
On donne d’identité : $a^3+b^3+c^3-3abc=(a+b+c)^3-3(a+b+c)\left(ab+bc+ca\right)$.
2) On pose $\alpha=a+b+c$ et $\beta=ab+bc+ca$. D’après la question précédente, pour quelles valeurs de $(\alpha,\beta)$, $M$ est-elle dans $SO_3(\mathbb{R})$ ?
3) Montrer que $M\in SO_3(\mathbb{R})$ si et seulement si il existe $k\in\left[0,\dfrac{4}{27}\right]$ tels que $a$, $b$ et $c$ soient les racines de $X^3-X^2+k$.
4) Déterminer les triplets $(a,b,c)$ tels que $a=b$ et $M\in SO_3(\mathbb{R})$.
Corrigé
1) $M^TM=\begin{pmatrix}a&c&b\\b&a&c\\c&b&a\end{pmatrix}\begin{pmatrix}a&b&c\\c&a&b\\b&c&a\end{pmatrix}=\begin{pmatrix}a^2+b^2+c^2&ab+bc+ca&ab+bc+ca\\ab+bc+ca&a^2+b^2+c^2&ab+bc+ca\\ab+bc+ca&ab+bc+ca&a^2+b^2+c^2\end{pmatrix}$ puis
$$M\in O_3(\mathbb{R})\Leftrightarrow M^TM=I_3\Leftrightarrow a^2+b^2+c^2=1\;\text{et}\;ab+bc+ca=0.$$
Ensuite, en développant suivant la première colonne,
$$\text{det}(M)=\begin{vmatrix}a&b&c\\c&a&b\\b&c&a\end{vmatrix}=a\left(a^2-bc\right)-c\left(ba-c^2\right)+b\left(b^2-ac\right)=a^3+b^3+c^3-3abc.$$
Par suite,
$$M\in SO_3(\mathbb{R})\Leftrightarrow M^TM=I_3\;\text{et}\;\text{det}(M)=1\Leftrightarrow a^2+b^2+c^2=1\;\text{et}\;ab+bc+ca=0\;\text{et}\;a^3+b^3+c^3-3abc=1.$$
2) D’après l’indication de l’énoncé, $a^3+b^3+c^3-3abc=\alpha^3-3\alpha\beta$. D’autre part, $a^2+b^2+c^2=(a+b+c)^2-2(ab+bc+ca)=\alpha^2-2\beta$. Donc,
$$M\in SO_3(\mathbb{R})\Leftrightarrow \alpha^2-2\beta=1\;\text{et}\;\beta=0\;\text{et}\;\alpha^3-3\alpha\beta=1\Leftrightarrow\beta=0\;\text{et}\;\alpha^2=1\;\text{et}\;\alpha^3=1\Leftrightarrow\alpha=1\;\text{et}\;\beta=0.$$
3) On pose $\gamma=abc$. Si $\alpha=1$ et $\beta=0$, alors $a$, $b$ et $c$ sont des nombres complexes racines de $P=(X-a)(X-b)(X-c)=X^3-\alpha X^2+\beta X+\gamma=X^3-X^2+k$ où $k=-\gamma$. Réciproquement, si $a$, $b$ et $c$ sont les trois racines complexes de $P=X^3-X+k$, alors les relations entre coefficients et racines d’un polynôme scindé fournissent $\alpha=1$ et $\beta=0$.
Ainsi, $a$, $b$ et $c$ sont trois complexes vérifiant $\alpha=1$ et $\beta=0$ si et seulement si $a$, $b$ et $c$ sont les racines d’un polynôme du type $X^3-X^2+k$ où $k\in\mathbb{C}$. On en déduit que $M\in SO_3(\mathbb{R})$ si et seulement si $a$, $b$ et $c$ sont les racines d’un polynôme du type $P=X^3-X^2+k$, $k\in\mathbb{R}$, où de plus, les trois racines de $P$ sont réelles.
Soient donc $k\in\mathbb{R}$ puis $P=X^3-X^2+k$. On note tout d’abord que $P$ a une racine multiple si et seulement si $P$ et $P’=3X^2-2X=X(3X-2)$ ont une racine commune dans $\mathbb{C}$ ce qui équivaut à $P(0)=0$ ou $P\left(\dfrac{2}{3}\right)=0$. Or, $P(0)=k$ et $P\left(\dfrac{2}{3}\right)=\dfrac{8}{27}-\dfrac{4}{9}+k=k-\dfrac{4}{27}$. Donc, $P$ a une racine multiple si et seulement si $k=0$ ou $k=\dfrac{4}{27}$.
Ensuite, pour tout réel $x$, $P'(x)=3x^2-2x=x(2x-3)$. La fonction $x\mapsto P(x)$ est strictement croissante sur $]-\infty,0]$ et sur $\left[\dfrac{2}{3},+\infty\right[$ et est strictement décroissante sur $\left[0,\dfrac{2}{3}\right]$. De plus, $P(0)=k$ et $P\left(\dfrac{2}{3}\right)=k-\dfrac{4}{27}$.
1er cas. Si $k>\dfrac{4}{27}$, la fonction $P$ est strictement positive sur $[0,+\infty[$. D’autre part, la fonction $P$ est continue et strictement croissante sur $]-\infty,0]$ et vérifie $P(0)>0$ et $\displaystyle\lim_{x\rightarrow-\infty}P(x)=-\infty<0$. La fonction $P$ s’annule une fois et une seule sur $]-\infty,0]$ (et donc sur $\mathbb{R}$) en un certain réel $x_0$ strictement négatif. D’après une remarque faite plus haut, $x_0$ est une racine simple de $P$ et dans ce cas, $P$ admet deux racines non réelles (et conjuguées). $k$ ne convient pas.
2ème cas. Si $k<0$, la fonction $P$ est strictement négative sur $\left]-\infty,\dfrac{2}{3}\right]$. D’autre part, la fonction $P$ est continue et strictement croissante sur $\left[\dfrac{2}{3},+\infty\right[$ et vérifie $P\left(\dfrac{2}{3}\right)<0$ et $\displaystyle\lim_{x\rightarrow+\infty}P(x)=+\infty>0$. La fonction $P$ s’annule une fois et une seule sur $\left[\dfrac{2}{3},+\infty\right[$ (et donc sur $\mathbb{R}$) en un certain réel $x_0>\dfrac{2}{3}$. De nouveau, $x_0$ est une racine simple de $P$ puis $P$ admet deux racines non réelles. $k$ ne convient pas.
3ème cas. Si $0<k<\dfrac{4}{27}$, alors $P(0)>0$ et $P\left(\dfrac{2}{3}\right)<0$. Dans ce cas, $P$ s’annule une fois dans l’intervalle $]-\infty,0[$, une fois dans l’intervalle $\left]0,\dfrac{2}{3}\right[$ et une fois dans l’intervalle $\left]\dfrac{2}{3},+\infty\right[$. Dans ce cas, $P$ admet trois racines réelles simples puis $k$ convient
4ème cas. Si $k=0$, $P=X^3-X^2=X^2(X-1)$ et donc $P$ admet $3$ racines réelles. Si $k=\dfrac{4}{27}$ (de sorte que $\dfrac{2}{3}$ est racine double de $P$), $P=X^3-X^2+\dfrac{4}{27}=\left(X-\dfrac{2}{3}\right)^2\left(X+\dfrac{1}{3}\right)$. Dans les deux cas, $k$ convient.
En résumé, $M\in SO_3(\mathbb{R})$ si et seulement si $a$, $b$ et $c$ sont les racines d’un polynôme du type $X^3-X^2+k$ où $k\in\left[0,\dfrac{4}{27}\right]$.
4) D’après la question précédente, $P$ admet une racine multiple si et seulement si $k=0$ ou $k=\dfrac{4}{27}$. Quand $k=0$, les racines de $P$ sont $0$, $0$ et $1$. Quand $k=0$, les racines de $P$ sont $\dfrac{2}{3}$, $\dfrac{2}{3}$ et $-\dfrac{1}{3}$. Donc, $M\in SO_3(\mathbb{R})$ et $a=b$ si et seulement si
$$M=\begin{pmatrix}0&0&1\\1&0&0\\0&1&0\end{pmatrix}\quad\text{ou}\quad M=\begin{pmatrix}\dfrac{2}{3}&\dfrac{2}{3}&-\dfrac{1}{3}\\-\dfrac{1}{3}&\dfrac{2}{3}&\dfrac{2}{3}\\\dfrac{2}{3}&-\dfrac{1}{3}&\dfrac{2}{3}\end{pmatrix}.$$
Commentaires et/ou rappels de cours
Relations entre coefficients et racines d’un polynôme scindé. On pose $P=\displaystyle\sum_{k=0}^{n}a_kX^k=a_n\left(X-z_1\right)\ldots\left(X-z_n\right)$ avec $a_n\neq0$.
Pour $k\in\{1,\ldots,n\}$, on pose $\sigma_k=\displaystyle\sum_{1\leqslant i_1<i_2<\ldots<i_k\leqslant n}z_{i_1}z_{i_2}\ldots z_{i_k}$. Alors, pour tout $k\in\{1,\ldots,n\}$, $\sigma_k=(-1)^{k}\dfrac{a_{n-k}}{a_n}$.
En particulier, $z_1+\ldots+z_n=\sigma_1=-\dfrac{a_{n-1}}{a_n}$ et $z_1\ldots z_n=\sigma_n=(-1)^n\dfrac{a_0}{a_n}$.
Exercice – Difficulté 3 – Thème : réduction. Titre : diagonalisabilité d’un endomorphisme de R[X].
Enoncé (CCINP)
Soit $E=\mathbb{R}_{2n+1}[X]$. Pour tout $P\in E$, on pose $f(P)=\left(X^2-1\right)P’-(2n+1)XP$.
1) Montrer que $f$ est un endomorphisme de $E$.
2) Donner les valeurs propres et les sous-espaces propres de $f$ (on pourra résoudre une équation différentielle).
3) Montrer que $f$ est diagonalisable.
Corrigé
1) Soit $P\in E$. $f(P)$ est un polynôme.
Ensuite, $\text{deg}\left(\left(X^2-1\right)P’\right)\leqslant 2+2n+1-1=2n+2$ et $\text{deg}(XP)\leqslant 1+2n+1=2n+2$ et donc $\text{deg}(f(P))\leqslant \text{Max}\left\{\text{deg}\left(\left(X^2-1\right)P’\right),\text{deg}(XP)\right\}\leqslant 2n+2$. Enfin, si on note $a_{2n+1}$ le coefficient de $X^{2n+1}$ dans $P$, le coefficient de $X^{2n+2}$ dans $f(P)$ est $(2n+1)a_{2n+1}-(2n+1)a_{2n+1}=0$. Donc, $\text{deg}(f(P))\leqslant 2n+1$. Ceci montre que $f$ est une application de $E$ dans $E$.
Soient $(P,Q)\in E^2$ et $(\lambda,\mu)\in\mathbb{R}^2$.
$$f(\lambda P+\mu Q)=\left(X^2-1\right)(\lambda P+\mu Q)’-(2n+1)X(\lambda P+\mu Q)=\lambda\left(\left(X^2-1\right)P’-(2n+1)XP\right)+\mu\left(\left(X^2-1\right)Q’-(2n+1)XQ\right)=\lambda f(P)+\mu f(Q).$$
2) Soit $(\lambda,P)\in\mathbb{R}\times\mathbb{R}_{2n+1}[X]$ tel que $f(P)=\lambda P$. Alors, $P$ est solution de l’équation différentielle $\left(E_\lambda\right)$ : $\left(x^2-1\right)y’-((2n+1)x+\lambda)y=0$. $\lambda$ est valeur propre de $f$ si et seulement si $\left(E_\lambda\right)$ admet une solution polynomiale de degré inférieur ou égal à $2n+1$, non nulle.
Sur $]-1,1[$, $(E)$ s’écrit : $y’-\dfrac{(2n+1)x+\lambda}{x^2-1}y=0$. La fraction rationnelle $R=\dfrac{(2n+1)X+\lambda}{X^2-1}$ a une décomposition en éléments simples de la forme $\dfrac{a}{X-1}+\dfrac{b}{X+1}$ avec $a=\dfrac{(2n+1)\times1+\lambda}{2\times1}=\dfrac{2n+1+\lambda}{2}$ et $b=\dfrac{(2n+1)\times(-1)+\lambda}{2\times(-1)}=\dfrac{2n+1-\lambda}{2}$. Donc, $R=\dfrac{1}{2}\left(\dfrac{2n+1+\lambda}{X-1}+\dfrac{2n+1-\lambda}{X+1}\right)$. Les primitives de $R$ sur $]-1,1[$ sont les fonctions de la forme $x\mapsto\dfrac{1}{2}\left((2n+1+\lambda)\ln|x-1|+((2n+1-\lambda)\ln|x+1|\right)+C=\ln\left((1-x)^{\frac{2n+1+\lambda}{2}}(1+x)^{\frac{2n+1-\lambda}{2}}\right)+C$, $C\in\mathbb{R}$. On sait alors que les solutions de $\left(E_\lambda\right)$ sur $]-1,1[$ sont les fonctions de la forme $Ke^{\ln\left((1-x)^{\frac{2n+1+\lambda}{2}}(1+x)^{\frac{2n+1-\lambda}{2}}\right)}=K(1-x)^{\frac{2n+1+\lambda}{2}}(1+x)^{\frac{2n+1-\lambda}{2}}$, $K\in\mathbb{R}$.
On note que $\dfrac{2n+1+\lambda}{2}+\dfrac{2n+1-\lambda}{2}=2n+1$. Donc, si $\dfrac{2n+1+\lambda}{2}$ et $\dfrac{2n+1-\lambda}{2}$ sont des entiers naturels, alors $(X-1)^{\frac{2n+1+\lambda}{2}}(X+1)^{\frac{2n+1-\lambda}{2}}$ est un polynôme non nul de degré $2n+1$, solution de $\left(E_\lambda\right)$. Dans ce cas, $\lambda$ est valeur propre de $f$.
Soit $k\in\mathbb{N}$. $\dfrac{2n+1-\lambda}{2}=k\Leftrightarrow \lambda=2n+1-2k$. Puis, si $\lambda=2n+1-2k$, $\dfrac{2n+1+\lambda}{2}=2n+1-k$ et donc $\dfrac{2n+1+\lambda}{2}\in\mathbb{N}\Leftrightarrow k\leqslant 2n+1$.
Pour $k\in\{0,1,\ldots,2n+1\}$, on pose $\lambda_k=2n+1-2k$. Pour tout $k\in\{0,1,\ldots,2n+1\}$, $\lambda_k$ est valeur propre de $f$ et de plus, le polynôme $P_k=(X-1)^k(X+1)^{2n+1-k}$ est un vecteur propre associé.
On vient de trouver $2n+2$ valeurs propres deux à deux distinctes. Puisque $\text{dim}\left(\mathbb{R}_{2n+1}[X]\right)=2n+2$, on a trouvé toutes les valeurs propres de $f$ et de plus, toutes ces valeurs propres sont simples. Mais alors, les sous-espaces propres de $f$ sont des droites vectorielles et donc, pour tout $k\in\{0,1,\ldots,2n+1\}$, $E_{\lambda_k}(f)=\text{Vect}\left(P_k\right)$ où $P_k=(X-1)^k(X+1)^{2n+1-k}$.
En résumé, $\text{Sp}(f)=\left(\lambda_k\right)_{0\leqslant k\leqslant 2n+1}$ avec $\lambda_k=2n+1-2k$ et pour tout $k\in\{0,1,\ldots,2n+1\}$, $E_{\lambda_k}=\text{Vect}\left(P_k\right)$ où $P_k=(X-1)^k(X+1)^{2n+1-k}$.
3) $\chi_f$ est scindé sur $\mathbb{R}$ à racines simples et donc $f$ est diagonalisable.
Commentaires et/ou rappels de cours
La méthode « imposée » par l’énoncé (résolution d’une équation différentielle) n’est pas la plus courante. Pour cet exercice très classique, il est d’usage d’utiliser la décomposition usuelle de $\dfrac{P’}{P}$ qui fait partie di cours de maths sup.
Si $P=K\displaystyle\prod_{i=1}^{k}\left(X-z_i\right)^{\alpha_i}$ où, $K\in\mathbb{C}^*$, les $z_i$ sont des nombres complexes deux à deux distincts et les $\alpha_i$ sont des entiers naturels non nuls, alors
$$\dfrac{P’}{P}=\displaystyle\sum_{i=1}^{k}\dfrac{\alpha_i}{X-z_i}.$$
Donc, si $P$ est un polynôme non nul tel que $\dfrac{P’}{P}=\dfrac{(2n+1+\lambda)/2}{X-1}+\dfrac{(2n+1-\lambda)/2}{X+1}$, alors, en identifiant à la décomposition en éléments simples (qui est unique), $\dfrac{2n+1+\lambda}{2}$ et $\dfrac{2n+1-\lambda}{2}$ sont des entiers naturels et $P$ est de la forme $K(X-1)^{\frac{2n+1+\lambda}{2}}(X+1)^{\frac{2n+1-\lambda}{2}}$.
Exercice – Difficulté 2 – Thème : réduction. Titre : réduction d’un endomorphisme de M2(R).
Enoncé (CCINP)
Soit $f$ l’application de $\mathscr{M}_2(\mathbb{R})$ dans lui-même donnée par $f\left(\begin{pmatrix}a&b\\c&d\end{pmatrix}\right)=\begin{pmatrix}d&2b\\2c&a\end{pmatrix}$.
1) Montrer que $f$ est un endomorphisme.
2) Redéfinir la base canonique de $\mathscr{M}_2(\mathbb{R})$. Donner la matrice de $f$ dans cette base.
3) Donner les éléments propres de $f$.
4) L’application $f$ est-elle inversible ? Est-elle diagonalisable ? Si c’est le cas, exprimer la matrice de $f$ dans la base canonique en fonction d’une matrice diagonale.
5) Pour $n\in\mathbb{N}$, définir $f^n$.
Corrigé
1) Soient $A=\begin{pmatrix}a&b\\c&d\end{pmatrix}$ et $A’=\begin{pmatrix}a’&b’\\c’&d’\end{pmatrix}$ deux éléments de $\mathscr{M}_2(\mathbb{R})$ et soit $(\lambda,\mu)\in\mathbb{R}^2$.
$$f(\lambda A+\mu A’)=f\left(\begin{pmatrix}\lambda a+\mu a’&\lambda b+\mu b’\\\lambda c+\mu c’&\lambda d+\mu d’\end{pmatrix}\right)=\begin{pmatrix}\lambda d+\mu d’&2(\lambda b+\mu b’)\\2(\lambda c+\mu c’)&\lambda a+\mu a’\end{pmatrix}=\lambda\begin{pmatrix}d&2b\\2c&a\end{pmatrix}+\mu\begin{pmatrix}d’&2b’\\2c’&a’\end{pmatrix}=\lambda f(A)+\mu f(A’).$$
Donc, $f\in\mathscr{L}\left(\mathscr{M}_2(\mathbb{R})\right)$.
2) La base canonique (orodnnée par l’ordre lexicographique) est $\mathscr{B}=\left(E_{1,1},E_{1,2},E_{2,1},E_{2,2}\right)$ où $E_{1,1}=\begin{pmatrix}1&0\\0&0\end{pmatrix}$, $E_{1,2}=\begin{pmatrix}0&1\\0&0\end{pmatrix}$, $E_{2,1}=\begin{pmatrix}0&0\\1&0\end{pmatrix}$ et $E_{2,2}=\begin{pmatrix}0&0\\0&1\end{pmatrix}$.
$f\left(E_{1,1}\right)=\begin{pmatrix}0&0\\0&1\end{pmatrix}=E_{2,2}$, $f\left(E_{1,2}\right)=\begin{pmatrix}0&2\\0&0\end{pmatrix}=E_{1,2}$, $f\left(E_{2,1}\right)=\begin{pmatrix}0&0\\2&0\end{pmatrix}=E_{2,1}$ et $f\left(E_{2,2}\right)=\begin{pmatrix}1&0\\0&0\end{pmatrix}=E_{1,1}$. Donc,
$$A=\text{Mat}_{\mathscr{B}}(f)=\begin{pmatrix}0&0&0&1\\0&2&0&0\\0&0&2&0\\1&0&0&0\end{pmatrix}.$$
3) En développant suivant la première colonne, on obtient
\begin{align*}\chi_f&=\begin{vmatrix}X&0&0&-1\\0&X-2&0&0\\0&0&X-2&0\\-1&0&0&X\end{vmatrix}=X\begin{vmatrix}X-2&0&0\\0&X-2&0\\0&0&X\end{vmatrix}+\begin{vmatrix}0&0&-1\\X-2&0&0\\0&X-2&0\end{vmatrix}\\&=X^2(X-2)^2-(X-2)^2=(X-1)(X+1)(X-2)^2.\end{align*}
Donc, $\text{Sp}(f)=(1,-1,2,2)$. Ensuite,
$\bullet$ $f\left(E_{1,1}+E_{2,2}\right)=E_{1,1}+E_{2,2}$ et donc $E_1(f)=\text{Vect}\left(U_1\right)$ où $U_1=E_{1,1}+E_{2,2}=I_2$.
$\bullet$ $f\left(E_{1,1}-E_{2,2}\right)=-\left(E_{1,1}-E_{2,2}\right)$ et donc $E_{-1}(f)=\text{Vect}\left(U_4\right)$ où $U_4=E_{1,1}-E_{2,2}$.
$\bullet$. $E_2(f)$ est de dimension au plus $2$, l’ordre de multiplicité de $2$ et d’autre part, $U_2=E_{1,2}$ et $U_3=E_{2,1}$ sont deux éléments non colinéaires de $E_2(f)$. Donc, $E_2(f)=\text{Vect}\left(U_2,U_3\right)$.
4) $0$ n’est pas valeur propre de $f$ et donc $f$ est inversible. $\chi_f$ est scindé sur $\mathbb{R}$ et l’ordre de multiplicité de chaque valeur propre est égale à la dimension du sous-espace propre correspondant. Donc, $f$ est diagonalisable.
Par suite, $A=PDP^{-1}$ avec $D=\text{diag}(1,2,2,-1)$ puis $P=\begin{pmatrix}1&0&0&1\\0&1&0&0\\0&0&1&0\\1&0&0&-1\end{pmatrix}$. Ensuite, $\left\{\begin{array}{l}U_1=E_{1,1}+E_{2,2}\\U_2=E_{1,2}\\U_3=E_{2,1}\\U_4=E_{1,1}-E_{2,2}\end{array}\right.\Leftrightarrow\left\{\begin{array}{l}E_{1,1}=\dfrac{1}{2}\left(U_1+U_4\right)\\E_{1,2}=U_2\\E_{2,1}=U_3\\E_{2,2}=\dfrac{1}{2}\left(U_1-U_4\right)\end{array}\right.$. Donc, $P^{-1}=\dfrac{1}{2}\begin{pmatrix}1&0&0&1\\0&1&0&0\\0&0&1&0\\1&0&0&-1\end{pmatrix}=\dfrac{1}{2}P$.
5) Pour tout $n\in\mathbb{N}$,
\begin{align*}A^n=PD^nP^{-1}&=\dfrac{1}{2}\begin{pmatrix}1&0&0&1\\0&1&0&0\\0&0&1&0\\1&0&0&-1\end{pmatrix}\begin{pmatrix}1&0&0&0\\0&2^n&0&0\\0&0&2^n&0\\1&0&0&(-1)^n\end{pmatrix}\begin{pmatrix}1&0&0&1\\0&1&0&0\\0&0&1&0\\1&0&0&-1\end{pmatrix}\\&=\dfrac{1}{2}\begin{pmatrix}1&0&0&(-1)^n\\0&2^n&0&0\\0&0&2^n&0\\1&0&0&-(-1)^n\end{pmatrix}\begin{pmatrix}1&0&0&1\\0&1&0&0\\0&0&1&0\\1&0&0&-1\end{pmatrix}\\&=\dfrac{1}{2}\begin{pmatrix}1+(-1)^n&0&0&1-(-1)^n\\0&2^n&0&0\\0&0&2^n&0\\1-(-1)^n&0&0&1+(-1)^n\end{pmatrix}.\end{align*}
Mais alors, pour toute $A=\begin{pmatrix}a&b\\c&d\end{pmatrix}\in\mathscr{M}_2(\mathbb{R})$ et pour tout $n\in\mathbb{N}$, $f^n(A)=\dfrac{1}{2}\begin{pmatrix}\left(1+(-1)^n\right)a+\left(1-(-1)^n\right)d&2^nb\\2^nc&\left(1-(-1)^n\right)a+\left(1+(-1)^n\right)d\end{pmatrix}$.
Commentaires et/ou rappels de cours
Pas de commentaire particulier.
Exercice – Difficulté 2 – Thème : réduction. Titre : utilisation d’un polynôme annulateur d’un endomorphisme de l’espace des matrices carrées.
Enoncé (CCINP)
Soit $u~:~X\in\mathscr{M}_n(\mathbb{R})\rightarrow-X+\text{Tr}(X)I_n$.
1) Déterminer un polynôme de degré $2$ annulateur de $u$.
2) En déduire que $u$ est diagonalisable et déterminer ses valeurs propres et ses sous-espaces propres.
Corrigé
1) Pour tout $(X,Y)\in\left(\mathscr{M}_n(\mathbb{R})\right)^2$ et tout $(\lambda,\mu)\in\mathbb{R}^2$, par linéarité de la trace,
$$u(\lambda X+\mu Y)=-(\lambda X+\mu Y)+\text{Tr}(\lambda X+\mu Y)I_n==\lambda\left(-X+\text{Tr}(X)I_n\right)+\mu\left(-Y+\text{Tr}(Y)I_n\right)=\lambda u(X)+\mu u(Y).$$
Donc, $u\in\mathscr{L}\left(\mathscr{M}_{n}(\mathbb{R})\right)$.
Ensuite, pour tout $X\in\mathscr{M}_n(\mathbb{R})$, $(u+Id)(X)=\text{Tr}(X)I_n$ puis
$$(u+Id)^2(X)=\text{Tr}(X)(u+Id)\left(I_n\right)=n\text{Tr}(X)I_n=n(u+Id)(X).$$
Donc, $(u+Id)^2=n(u+Id)$ puis $(u+Id)(u-(n-1)Id)=0$. Le polynôme $P=(X+1)(X-(n-1))$ est annulateur de $u$.
2) Puisque $n\geqslant 1$, $n-1\neq-1$ puis le polynôme $P$ est scindé sur $\mathbb{R}$, à racines simples et annulateur de $u$. On en déduit que $u$ est diagonalisable.
Les valeurs propres de $u$ sont racines de $P$ et donc $\text{Sp}(u)\subset\{-1,n-1\}$.
$\bullet$ Soit $X\in\mathscr{M}_n(\mathbb{R})$. $X\in E_{-1}(u)\Leftrightarrow (u+Id)(X)=0\Leftrightarrow\text{Tr}(X)I_n=0\Leftrightarrow\text{Tr}(X)=0$. $E_{-1}(u)$ est l’espace des matrices de trace nulle. C’est un hyperplan de $\mathscr{M}_n(\mathbb{R})$ en tant que noyau d’une forme linéaire non nulle. On en déduit que $-1$ est d’ordre $n^2-1$ (exactement) car $u$ est diagonalisable.
$\bullet$ $n-1$ est donc nécessairement valeur propre de $u$, d’ordre $1$ et $E_{n-1}(u)$ est une droite vectorielle. Puisque $u\left(I_n\right)=-I_n+nI_n=(n-1)I_n$ (avec $I_n\neq0$), on a donc $E_{n-1}(u)=\text{Vect}\left(I_n\right)$.
Commentaires et/ou rappels de cours
Pas de commentaire particulier.
Exercice – Difficulté 2 – Thème : réduction. Titre : CNS de diagonalisabilité d’une certaine matrice.
Enoncé (CCINP)
On donne la matrice $A=\begin{pmatrix}1&a&b&c\\0&1&d&e\\0&0&1&f\\0&0&0&-1\end{pmatrix}\in\mathscr{M}_4(\mathbb{K})$.
Donner une condition nécessaire et suffisante sur $(a,b,c,d,e,f)$ pour que $A$ soit diagonalisable.
Dans l’hypothèse où $A$ est diagonalisable, diagonaliser $A$.
Corrigé
$\bullet$ $\chi_A=(X-1)^3(X+1)$ est scindé sur $\mathbb{K}$. $A$ est diagonalisable si et seulement si l’ordre de multiplicité de chaque valeur propre est égale à la dimension du sous-espace propre correspondant. De plus, le sous-espace propre associé à une valeur propre simple est toujours de dimension $1$. Donc, $A$ est diagonalisable si et seulement si $\text{dim}\left(E_1(A)\right)=3$ ce qui équivaut à $\text{rg}\left(A-I_4\right)=1$ d’après le théorème du rang.
$A-I_4=\begin{pmatrix}0&a&b&c\\0&0&d&e\\0&0&0&f\\0&0&0&-2\end{pmatrix}$. Si $a\neq0$, les colonnes $C_2$ et $C_4$ de $A-I_4$ ne sont pas colinéaires. Dans ce cas, $\text{rg}\left(A-I_4\right)\geqslant2$ et donc $A$ n’est pas diagonalisable.
Si $a=0$, $A-I_4=\begin{pmatrix}0&0&b&c\\0&0&d&e\\0&0&0&f\\0&0&0&-2\end{pmatrix}$. Si $b\neq0$ ou $d\neq0$, les colonnes $C_3$ et $C_4$ de $A-I_4$ ne sont pas colinéaires. Dans ce cas, $\text{rg}\left(A-I_4\right)\geqslant2$ et donc $A$ n’est pas diagonalisable.
Si $a=b=d=0$, $A-I_4=\begin{pmatrix}0&0&0&c\\0&0&0&e\\0&0&0&f\\0&0&0&-2\end{pmatrix}$. Dans ce cas, $\text{rg}\left(A-I_4\right)=1$ et donc $A$ est diagonalisable.
En résumé, $A$ est diagonalisable si et seulement si $a=b=d=0$. Dans ce cas, $E_(A)$ est de dimension $3$ et $E_{-1}(A)$ est de dimension $1$.
$\bullet$ On suppose que $a=b=d=0$ et donc $A=\begin{pmatrix}1&0&0&c\\0&1&0&e\\0&0&1&f\\0&0&0&-1\end{pmatrix}$. En notant $\mathscr{B}=\left(e_1,e_2,e_3,e_4\right)$ la base canonique de $\mathscr{M}_{4,1}(\mathbb{K})$, $u_1=e_1$, $u_2=e_2$ et $u_3=e_3$ sont trois vecteurs propres de $A$ associés à la valeur propre $1$. De plus, la famille $\left(u_1,u_2,u_3\right)$ est libre et donc $E_1(A)=\text{Vect}\left(u_1,u_2,u_3\right)$.
Soit $X=\begin{pmatrix}x\\y\\z\\t\end{pmatrix}\in\mathscr{M}_{4,1}(\mathbb{K})$.
$$X\in E_{-1}(A)\Leftrightarrow\left(A+I_4\right)X=0\Leftrightarrow\left\{\begin{array}{l}2x+ct=0\\2y+et=0\\2z+ft=0\end{array}\right.\Leftrightarrow\left\{\begin{array}{l}x=-\dfrac{ct}{2}\\y=-\dfrac{et}{2}\\z=-\dfrac{ft}{2}=0\end{array}\right..$$
Donc, $E_{-1}(A)=\text{Vect}\left(u_4\right)$ où $u_4=\begin{pmatrix}-c\\-e\\-f\\2\end{pmatrix}$.
Puisque $A$ est diagonalisable, $A=PDP^{-1}$ où $D=\text{diag}(1,1,1,-1)$ et $P=\begin{pmatrix}1&0&0&-c\\0&1&0&-e\\0&0&1&-f\\0&0&0&2\end{pmatrix}$. De plus,
$$\left\{\begin{array}{l}u_1=e_1\\u_2=e_2\\u_3=e_3\\u_4=-ce_1-ee_2-fe_3+2e_4\end{array}\right.\Leftrightarrow\left\{\begin{array}{l}e_1=u_1\\e_2=u_2\\e_3=u_3\\e_4=\dfrac{1}{2}\left(cu_1+eu_2+fu_3+u_4\right)\end{array}\right.$$
Donc, $P^{-1}=\begin{pmatrix}1&0&0&\dfrac{c}{2}\\0&1&0&\dfrac{e}{2}\\0&0&1&\dfrac{f}{2}\\0&0&0&\dfrac{1}{2}\end{pmatrix}$.
Commentaires et/ou rappels de cours
Une autre solution pour la diagonalisabilité. $\chi_A=(X-1)^3(X+1)$ et donc le polynôme minimal $\mu_A$ de $A$ est de la forme $\mu_A=(X-1)^\alpha(X+1)$ où $1\leqslant\alpha\leqslant3$. $A$ est diagonalisable si et seulement si $\mu_A$ est à racines simples c’est-à-dire $\mu_A=(X-1)(X+1)=X^2-1$. Donc, $A$ est diagonalisable si et seulement si $A^2-I_4=0$.
Or, $A^2-I_4=\begin{pmatrix}0&2a&2b+ad&ae+bf\\0&0&2d&df\\0&0&0&0\\0&0&0&0\end{pmatrix}$ et donc $A$ est diagonalisable si et seulement si $2a=2b+ad=ae+bf=2d=df=0$ ce qui équivaut à $a=b=d=0$.
Exercice – Difficulté 2 – Thème : réduction. Titre : réduire un endomorphisme dont on connaît le polynôme minimal.
Enoncé (CCINP)
Soit $E$ un $\mathbb{R}$-espace vectoriel de dimension $4$.
1) Enoncer le lemme des noyaux pour deux polynômes.
2) Soit $f$ un endomorphisme de $E$ tel que son polynôme minimùal s’écrive : $P=\left(X^2+1\right)\left(X^2+4\right)$.
Montrer qu’il existe $x$ et $y$ non nuls dans $E$ tels que $f^2(x)=-x$ et $f^2(y)=-4y$.
3) Montrer que la famille $(x,f(x),y,f(y))$ est une base de $E$.
4) Exprimer la matrice de $f$ dans cette base.
Corrigé
1) Lemme des noyaux pour deux polynômes. Soient $E$ un $\mathbb{K}$-espace vecoriel puis $f$ un endomorphisme de $E$. Soient $P$ et $Q$ deux polynômes non nuls et premiers entre eux. Alors, $\text{Ker}((PQ)(f))=\text{Ker}(P(f))\oplus\text{Ker}(Q(f))$. Si de plus $PQ$ est annulateur de $f$, alors $E=\text{Ker}(P(f))\oplus\text{Ker}(Q(f))$.
2) Les polynômes $X^2+1$ et $X^2+4$ sont premiers entre eux car sans racine commune dans $\mathbb{C}$. De plus, le polynôme $\left(X^2+1\right)\left(X^2+4\right)$ est annulateur de $f$. D’après le lemme des noyaux, $E=\text{Ker}\left(f^2+Id\right)\oplus\text{Ker}\left(f^2+4id\right)$. Si $\text{Ker}\left(f^2+Id\right)=\{0\}$, alors $E=\text{Ker}\left(f^2+4id\right)$ et donc le polynôme $X^2+4$ est annulateur de $f$, ce qui contredit le caractère minimal de $P$. Donc, $\text{Ker}\left(f^2+Id\right)\neq\{0\}$ et de même $\text{Ker}\left(f^2+4Id\right)\neq\{0\}$.
Mais alors, il existe $x\in E\setminus\{0\}$ et $y\in E\setminus\{0\}$ tels que $\left(f^2+id\right)(x)=0$ et $\left(f^2+4id\right)(y)=0$ ou encore tels que $f^2(x)=-x$ et $f^2(y)=-4y$.
3) Le polynôme $P$ n’a pas de racine réelle. Donc, l’endomorphisme $f$ n’a pas de valeur propre et pas de vecteur propre. $x$ et $y$ nesont donc pas des vecteurs propres de $f$ puis les familles $(x,f(x))$ et $(y,f(y))$ sont respectivement une famille libre de $\text{Ker}\left(f^2+Id\right)$ et une famille libre de $\text{Ker}\left(f^2+4Id\right)$. Puisque ces sous-espaces sont supplémentaires, on sait que la famille $(x,f(x),y,f(y))$ est libre. Enfin, $\text{card}(x,f(x),y,f(y))=4=\text{dim}(E)<+\infty$ et donc la famille $(x,f(x),y,f(y))$ est une base de $E$.
4) La matrice de $f$ dans $\mathscr{B}$ est : $\begin{pmatrix}0&-1&0&0\\1&0&0&0\\0&0&0&-4\\0&0&1&0\end{array}$.
Commentaires et/ou rappels de cours
Pas de commentaire particulier.
Exercice – Difficulté 2 – Thème : réduction. Titre : une matrice complexe de rang 1.
Enoncé (CCINP)
Soient $x$, $y$ et $z$ des nombres complexes non tous nuls. On pose $M=\begin{pmatrix}x^2&xy&xz\\xy&y^2&yz\\xz&yz&z^2\end{pmatrix}$.
1) Montrer qu’il existe $L\in\mathscr{M}_{3,1}(\mathbb{C})$ tel que $M=LL^T$.
2) Montrer que $M$ est diagonalisable si et seulement si $x^2+y^2+z^2\neq0$.
3) Montrer que, si $M$ n’est pas diagonalisable, alors $M$ est semblable à $\begin{pmatrix}0&0&1\\0&0&0\\0&0&0\end{pmatrix}$.
4) Pour tout $p\in\mathbb{N}$, calculer $M^p$.
Corrigé
1) Soit $L=\begin{pmatrix}x\\y\\z\end{pmatrix}$. Alors $LL^T=M$.
2) Par suite, $M^2=L\left(L^TL\right)L^T=\left(x^2+y^2+z^2\right)LL^T=\left(x^2+y^2+z^2\right)M$.
Si $x^2+y^2+z^2\neq0$, le polynôme $P=X\left(X-\left(x^2+y^2+z^2\right)\right)$ est annulateur de $M$, à racines simples. Dans ce cas, $M$ est diagonalisable.
Si $x^2+y^2+z^2=0$, alors $M^2=0$. Le polynôme $X^2$ est annulateur de $M$ puis le polynôme minimal $\mu_M$ de $M$, qui est un diviseur unitaire non constant de ce polynôme, est égal à $X$ ou $X^2$. Mais $M\neq0$ et donc $\mu_M\neq X$ puis $\mu_M=X^2$. Ainsi, $\mu_M$ n’est pas à racines simples et donc $M$ n’est pas diagonalisable.
On a montré que $M$ est diagonalisable si et seulement si $x^2+y^2+z^2\neq0$.
3) On suppose que $M$ n’est pas diagonalisable ou encore on suppose que $x^2+y^2+z^2=0$. On note $f$ l’endomorphisme de $\mathbb{C}^3$ canoniquement associé à $f$. Donc, $M=\text{Mat}_{\mathscr{B}_0}(f)$ où $\mathscr{B}_0$ est la base canonique de $\mathbb{C}^3$.
On a $f^2=0$ et donc $\text{Im}(f)\subset\text{Ker}(f)$. En particulier, $\text{dim}(\text{Ker}(f))\geqslant\text{dim}(\text{Im}(f))=3-\text{dim}(\text{Ker}(f))$ puis $\text{dim}(\text{Ker}(f))\geqslant\dfrac{3}{2}$ et donc $\text{dim}(\text{Ker}(f))\geqslant2$. Mais $M\neq0$ puis $f\neq 0$ puis $\text{Ker}(f)\neq E$ et donc $\text{dim}(\text{Ker}(f))\leqslant2$. Finalement, $\text{dim}(\text{Ker}(f))=2$.
Ainsi, $\text{Ker}(f)$ est un plan vectoriel contenant $\text{Im}(f)$ qui est une droite vectorielle. Soit $e_3\notin\text{Ker}(f)$ puis $e_1=f\left(e_3\right)$. $e_1$ est un vecteur non nul de $\text{Im}(f)$ et donc de $\text{Ker}(f)$. On complète la famille libre $\left(e_1\right)$ de $\text{Ker}(f)$ en une base $\left(e_1,e_2\right)$ de $\text{Ker}(f)$.
On pose $\mathscr{B}=\left(e_1,e_2,e_3\right)$. Vérifions que $\mathscr{B}$ est une base de $\mathbb{C}^3$. Soit $(\lambda,\mu,\nu)\in\mathbb{C}^3$ tel que $\lambda e_1+\mu e_2+\nu e_3=0$. En prenant l’image des deux membres par $f$, on obtient $\nu e_1=0$ puis $\nu=0$ car $e_1\neq0$. Il reste $\lambda e_1+\mu e_2=0$ et donc $\lambda=\mu=0$ car la famille $\left(e_1,e_2\right)$ est libre. Ceci montre que la famille $\left(e_1,e_2,e_3\right)$ est libre. De plus, $\text{card}\left(e_1,e_2,e_3\right)=3=\text{dim}\left(\mathbb{C}^3\right)<+\infty$ et donc $\mathscr{B}$ est une base de $\mathbb{C}^3$.
$\text{Mat}_{\mathscr{B}}(f)=\begin{pmatrix}0&0&1\\0&0&0\\0&0&0\end{pmatrix}=A$ puis $M$ est semblable à $A$.
4) On pose $\lambda=x^2+y^2+z^2$. Montrons par récurrence que pour tout $p\in\mathbb{N}^*$, $M^p=\lambda^{p-1}M$.
L’égalité est vraie quand $p=1$ et si pour $p\geqslant1$, $M^p=\lambda^{p-1}M$, alors
$$M^{p+1}=M^p\times M=\lambda^{p-1}M\times M=\lambda^{p-1}M^2=\lambda^{p-1}\times\lambda M=\lambda^{(p+1)-1}.$$
On a montré par récurrence que pour tout $p\in\mathbb{N}^*$, $M^p=\left(x^2+y^2+z^2\right)^{p-1}M$.
Commentaires et/ou rappels de cours
$\bullet$ Quand $x$, $y$ et $z$ sont trois réels tels que $x^2+y^2+z^2=1$, $M$ est la matrice, dans la base canonique de $\mathbb{R}^3$ muni du produit scalaire canonique, de la projection orthogonale sur le vecteur unitaire $u=(x,y,z)$.
$\bullet$ Soient $f\in\mathscr{L}(E,F)$ et $g\in\mathscr{L}(F,G)$. $g\circ f=0\Leftrightarrow\text{Im}(f)\subset\text{Ker}(g)$. En effet,
$$g\circ f=0\Leftrightarrow \forall x\in E,\;g(f(x))=0\Leftrightarrow\forall x\in E,\;f(x)\in\text{Ker}(g)\Leftrightarrow\text{Im}(f)\subset\text{Ker}(g).$$
$\bullet$ Théorème. Soient $E$ un $\mathbb{K}$-espace vectoriel de dimension finie non nulle puis $f\in\mathscr{L}(E)$. $f$ est diagonalisable si et seulement si il existe un polynôme $P$ non nul, scindé sur $\mathbb{K}$ et à racines simples tel que $P(f)=0$.
Théorème. Soient $E$ un $\mathbb{K}$-espace vectoriel de dimension finie non nulle puis $f\in\mathscr{L}(E)$. $f$ est diagonalisable si et seulement si son polynôme minimal est scindé sur $\mathbb{K}$ à racines simples.
Exercice – Difficulté 3 – Thème : espaces euclidiens. Titre : familles presque orthogonales.
Enoncé (Bécéas)
Soient $E$ un espace euclidien et $n$ un entier naturel non nul. On considère une famille $\left(u_1,\ldots,u_n\right)$ de $n$ vecteurs de $E$.
Pour tout réel $\mu\geqslant 1$, on dit que la famille $\left(u_1,\ldots,u_n\right)$ est $\mu$-presque orthogonale si et seulement si
$\quad\bullet$ tous ses vecteurs sont unitaires,
$\quad\bullet$ Pour tout $\left(x_1,\ldots,x_n\right)\in\mathbb{R}^n$, on a $\dfrac{1}{\mu}\displaystyle\sum_{i=1}^{n}x_i^2\leqslant\left\|\displaystyle\sum_{i=1}^{n}x_iu_i\right\|^2\leqslant\mu\displaystyle\sum_{i=1}^{n}x_i^2$.
1) Soit $\mu\geqslant1$. Montrer que si $\left(u_1,\ldots,u_n\right)$ est $\mu$-presque orthogonale, alors $\left(u_1,\ldots,u_n\right)$ est une famille libre de vecteurs de $E$.
2) Montrer que $\left(u_1,\ldots,u_n\right)$ est $1$-presque orthogonale si et seulement si $\left(u_1,\ldots,u_n\right)$ est une famille orthonormée.
3) Soit $F$ un sous-espace vectoriel de $E$.
$\quad$a) Soit $f$ un endomorphisme de $F$. Montrer qu’il existe un réel $k\geqslant 0$ tel que : $\forall x\in E$, $\|f(x)\|\leqslant k\|x\|$.
$\quad$b) Soit $f$ un automorphisme de $F$. Montrer qu’il existe un réel $\lambda>0$ tel que : $\forall x\in E$, $\dfrac{1}{\lambda}\|x\|\leqslant\|f(x)\|\leqslant \lambda\|x\|$.
4) Montrer que si $\left(u_1,\ldots,u_n\right)$ est une famille libre de vecteurs unitaires, alors il existe $\mu\geqslant1$ tel que $\left(u_1,\ldots,u_n\right)$ est $\mu$-orthogonale.
Corrigé
1) Soient $\mu\geqslant1$ puis $\left(u_1,\ldots,u_n\right)$ une famille $\mu$-presque orthogonale. Donc, pour tout $\left(x_1,\ldots,x_n\right)\in\mathbb{R}^n$, $\displaystyle\sum_{i=1}^{n}x_i^2\leqslant\mu\left\|\displaystyle\sum_{i=1}^{n}x_iu_i\right\|^2$. Mais alors, pour $\left(x_1,\ldots,x_n\right)\in\mathbb{R}^n$,
\begin{align*}\displaystyle\sum_{i=1}^{n}x_iu_i=0&\Rightarrow\mu\left\|\displaystyle\sum_{i=1}^{n}x_iu_i\right\|^2=0\Rightarrow \displaystyle\sum_{i=1}^{n}x_i^2\leqslant0\Rightarrow\displaystyle\sum_{i=1}^{n}x_i^2=0\\&\Rightarrow\forall i\in\{1,\ldots,n\},\;x_i=0.\end{align*}
Donc, la famille $\left(u_1,\ldots,u_n\right)$ est libre.
2) Supposons que $\left(u_1,\ldots,u_n\right)$ est une famille orthonormée. $\left(u_1,\ldots,u_n\right)$ est alors une base orthonormée de $F=\text{Vect}\left(u_1,\ldots,u_n\right)$ et on sait que pour tout $\left(x_1,\ldots,x_n\right)\in\mathbb{R}^n$, $\left\|\displaystyle\sum_{i=1}^{n}x_iu_i\right\|^2=\displaystyle\sum_{i=1}^{n}x_i^2$. La famille $\left(u_1,\ldots,u_n\right)$ est donc $1$-orthogonale.
Supposons que la famille $\left(u_1,\ldots,u_n\right)$ est $1$-presque orthogonale. Donc, pour tout $\left(x_1,\ldots,x_n\right)\in\mathbb{R}^n$, $\left\|\displaystyle\sum_{i=1}^{n}x_iu_i\right\|^2=\displaystyle\sum_{i=1}^{n}x_i^2$.
Tout d’abord, pour tout $i\in\{1,\ldots,n\}$, $\left\|u_i\right\|^2=1^2=1$ et donc les vecteurs $u_i$ sont unitaires.
Ensuite, pour $i\neq j$, $\left\|u_i+u_j\right\|^2=2=\left\|u_i-u_j\right\|^2$ puis $\left\|u_i\right\|^2+2\langle u_i,u_j\rangle+\left\|u_j\right\|^2=\left\|u_i\right\|^2-2\langle u_i,u_j\rangle+\left\|u_j\right\|^2$ puis $4\langle u_i,u_j\rangle=0$ et donc $\langle u_i,u_j\rangle=0$. Par suite, la famille $\left(u_1,\ldots,u_n\right)$ est orthonormée.
On a montré que la famille $\left(u_1,\ldots,u_n\right)$ est $1$-presque orthogonale si et seulement si la famille $\left(u_1,\ldots,u_n\right)$ est orthonormée.
3) a) Soient $F$ un sous-espace vectoriel de $E$ puis $f\in\mathscr{L}(E)$. Puisque $E$ est de dimension finie, il en est de même de $F$. Mais alors, $f$ est continu sur $F$ en tant qu’endomorphisme d’un espace de dimension finie. On en déduit qu’il existe $k\geqslant0$ tel que, pour tout $x\in E$, $\|f(x)\|\leqslant k\|x\|$.
On note que pour tout $x\in E$, $\|f(x)\|\leqslant(k+1)\|x\|$ avec $k+1\geqslant1$. Donc, il existe $k\geqslant 1$ tel que, pour tout $x\in E$, $\|f(x)\|\leqslant k\|x\|$.
b) Soient $F$ un sous-espace vectoriel de $E$ puis $f\in GL(F)$. On a encore $f^{-1}\in GL(F)$. D’après la question précédente, il existe $\left(k_1,k_2\right)\in[1,+\infty[^2$ tel que pour tout $x\in E$, $\|f(x)\|\leqslant k_1\|x\|$ et $\left\|f^{-1}(x)\right\|\leqslant k_2\|x\|$.
Pour tout $x\in F$, $f(x)\in F$ et donc $\|x\|=\left\|f^{-1}(f(x))\right\|\leqslant k_2\|f(x)\|$. Par suite, pour tout $x\in F$, $\dfrac{1}{k_2}\|x\|\leqslant\|f(x)\|\leqslant k_1\|x\|$. Soit $k=\text{Max}\left\{k_1,k_2\right\}\geqslant 1$. Alors, $k_1\leqslant k$ et $\dfrac{1}{k_2}\geqslant\dfrac{1}{k}$ puis
$$\forall x\in E,\;\dfrac{1}{k}\|x\|\leqslant\|f(x)\|\leqslant k\|x\|.$$
On a montré que pour tout automorphisme de $F$, il existe $k\geqslant1$ tel que, pour tout $x\in F$, $\dfrac{1}{k}\|x\|\leqslant\|f(x)\|\leqslant k\|x\|$.
4) Soit $\left(u_1,\ldots,u_n\right)$ une famille libre de vecteurs unitaires. La famille $\mathscr{B}=\left(u_1,\ldots,u_n\right)$ est donc une base de $F=\text{Vect}\left(u_1,\ldots,u_n\right)$. Soit $\mathscr{B}_0=\left(e_1,\ldots,e_n\right)$ une base orthonormée de $F$. Soit $f$ l’endomorphisme de $F$ défini par : $\forall i\in\{1,\ldots,n\}$, $f\left(e_i\right)=u_i$. Puisque l’image par $f$ d’une base de $F$ est une base de $F$, $f$ est un automorphisme de $F$. D’après la question précédente, il existe $k\geqslant 1$ tel que pour tout $x\in F$, $\dfrac{1}{k}\|x\|\leqslant\|f(x)\|\leqslant k\|x\|$ ou encore, pour tout $\left(x_1,\ldots,x_n\right)\in\mathbb{R}^n$,
$$\dfrac{1}{k^2}\left\|\displaystyle\sum_{i=1}^{n}x_ie_i\right\|^2\leqslant\left\|f\left(\displaystyle\sum_{i=1}^{n}x_ie_i\right)\right\|^2\leqslant k^2\left\|\displaystyle\sum_{i=1}^{n}x_ie_i\right\|^2.$$
Puisque $\mathscr{B}_0$ est orthonormée, pour tout $\left(x_1,\ldots,x_n\right)\in\mathbb{R}^n$, $\left\|\displaystyle\sum_{i=1}^{n}x_ie_i\right\|^2=\displaystyle\sum_{i=1}^{n}x_i^2$. D’autre part, pour tout $\left(x_1,\ldots,x_n\right)\in\mathbb{R}^n$, $\left\|f\left(\displaystyle\sum_{i=1}^{n}x_ie_i\right)\right\|^2=\left\|\displaystyle\sum_{i=1}^{n}x_iu_i\right\|^2$. Donc, en posant $\lambda=k^2\geqslant1$,
$$\forall\left(x_1,\ldots,x_n\right)\in\mathbb{R}^n,\;\dfrac{1}{\lambda}\displaystyle\sum_{i=1}^{n}x_i^2\leqslant\left\|\displaystyle\sum_{i=1}^{n}x_iu_i\right\|^2\leqslant\lambda\displaystyle\sum_{i=1}^{n}x_i^2.$$
La famille $\left(u_1,\ldots,u_n\right)$ est $\lambda$-presque orthogonale.
Commentaires et/ou rappels de cours
$\bullet$ Théorème (déterminantion d’une application linéaire). Soient $E$ et $F$ deux $\mathbb{K}$-espaces vectoriels, $E$ étant de dimension finie non nulle $n$. Soit $\mathscr{B}=\left(e_1,\ldots,e_n\right)$ une base de $E$. Pour toute famille $\left(u_1,\ldots,u_n\right)$ de $n$ vecteurs de $F$, il existe une application $f$ linéaire de $E$ vers $F$ et une seule telle que, pour tout $i\in\{1,\ldots,n\}$, $f\left(e_i\right)=u_i$.
De plus, $f$ est injective si et seulement si $\left(u_i\right)_{1\leqslant i\leqslant n}$ est libre, $f$ est surjective si et seulement si $\left(u_i\right)_{1\leqslant i\leqslant n}$ est génératrice de $F$ et $f$ est bijective si et seulement si $\left(u_i\right)_{1\leqslant i\leqslant n}$ est une base de $F$.
$\bullet$ Théorème (contiuité d’une application linéaire). Soient $\left(E,\|\;\|_E\right)$ $\left(F,\|\;\|_F\right)$ deux $\mathbb{K}$-espaces vectoriels normés puis $f\in\mathscr{L}(E,F)$. $f$ est continue si et seulement si il existe $k\geqslant0$ tel que, pour tout $x\in E$, $\|f(x)\|_F\leqslant k\|x\|_E$.
Théorème. Soient $\left(E,\|\;\|_E\right)$ $\left(F,\|\;\|_F\right)$ deux $\mathbb{K}$-espaces vectoriels normés, $E$ étant de dimension finie, puis $f\in\mathscr{L}(E,F)$. Alors, $f$ est continue.
