ALGEBRE LINEAIRE
Exercice – Difficulté 4 – Thème : algèbre linéaire. Titre : endomorphismes ne possédant pas de valeur propre.
Enoncé (CCINP)
Soit $E$ un espace vectoriel de dimension finie $n\geqslant2$ et $u\in\mathscr{L}(E)$.
On suppose que les deux seuls sous-espaces stables par $u$ sont $\left\{0_E\right\}$ et $E$.
1) Que dire du spectre de $u$ ?
2) Soit $x\in E\setminus\{0\}$. Montrer que la famille $\left(x,u(x),\ldots,u^{n-1}(x)\right)$ est une base de $E$.
3) Ecrire la forme de la matrice de $u$ dans cette base.
4) Montrer que la matrice ne dépend pas de $x$.
Corrigé
1) Puisque $n\geqslant2$, une droite de $E$ n’est ni $\left\{0_E\right\}$, ni $E$. $u$ n’admet donc pas de droite stable. Mais alors, $u$ n’admet pas de vecteur propre puis $u$ n’admet pas de valeur propre. Ainsi, $\text{Sp}(u)=\varnothing$ (ce qui impose $\mathbb{K}=\mathbb{R}$).
2) Soit $x\in E\setminus\left\{0_E\right\}$. L’ensemble $\mathscr{E}=\left\{i\in\{1,\ldots,n\}/\;\left(x,u(x),\ldots,u^{i-1}(x)\right)\;\text{est libre}\right\}$ est une partie non vide (car $1\in\mathscr{E}$) et majorée (par $n$) de $\mathbb{N}$. $\mathscr{E}$ admet donc un plus grand élément. Soit $k=\text{Max}\left\{i\in\{1,\ldots,n\}/\;\left(x,u(x),\ldots,u^{i-1}(x)\right)\;\text{est libre}\right\}$.
Par définition de $k$, $\left(x,u(x),\ldots,u^{k-1}(x)\right)$ est libre et $\left(x,u(x),\ldots,u^{k-1}(x),u^k(x)\right)$ est liée. On sait alors que $u^k(x)\in\text{Vect}\left(x,u(x),\ldots,u^{k-1}(x)\right)$. On en déduit que
$$u\left(\text{Vect}\left(x,u(x),\ldots,u^{k-1}(x)\right)\right)=\text{Vect}\left(u(x),u^2(x),\ldots,u^{k-1}(x),u^k(x)\right)\subset\text{Vect}\left(x,u(x),\ldots,u^{k-1}(x)\right).$$
$\text{Vect}\left(x,u(x),\ldots,u^{k-1}(x)\right)$ est donc stable par $u$. Puisque $\text{Vect}\left(x,u(x),\ldots,u^{k-1}(x)\right)\neq\left\{0_E\right\}$ (car $x\neq0$), $\text{Vect}\left(x,u(x),\ldots,u^{k-1}(x)\right)=E$. Comme $\text{dim}\left(\text{Vect}\left(x,u(x),\ldots,u^{k-1}(x)\right)\right)\leqslant k$, ceci impose $k=n$.
Ainsi, la famille $\left(x,u(x),\ldots,u^{n-1}(x)\right)$ est génératrice de $E$ et de cardinal égal à $n$, la dimension de $E$. On en déduit que la famille $\mathscr{B}=\left(x,u(x),\ldots,u^{n-1}(x)\right)$ est une base $E$.
3) On écrit le vecteur $u\left(u^{n-1}(x)\right)=u^n(x)$ dans la base $\mathbb{B}$ : on pose $u^n(x)=\displaystyle\sum_{k=0}^{n-1}a_ku^k(x)$ où $\left(a_0,\ldots,a_{n-1}\right)\in\mathbb{R}^n$. La matrice $A$ de $u$ dans $\mathscr{B}$ s’écrit alors
$$\text{Mat}_{\mathscr{B}}(u)=\begin{pmatrix}0&\ldots&\ldots&0&a_0\\1&\ddots& &\vdots&a_1\\0&\ddots&\ddots&\vdots&\vdots\\\vdots&\ddots&\ddots&0&\vdots\\0&\ldots&0&1&a_{n-1}\end{pmatrix}.$$
4) En développant suivant la dernière colonne, on obtient
\begin{align*}\chi_u=\chi_A=\begin{vmatrix}X&0&\ldots&0&-a_0\\-1&\ddots&\ddots&\vdots&-a_1\\0&\ddots&\ddots&0&\vdots\\\vdots&\ddots&\ddots&X&\vdots\\0&\ldots&0&-1&X-a_{n-1}\end{vmatrix}=\left(X-a_{n-1}\right)X^{n-1}+\displaystyle\sum_{k=0}^{n-2}(-1)^{n+k+1}\left(-a_k\right)\Delta_k\end{align*}
où $\Delta_k$ est le produit de deux déterminants triangulaires, le premier étant triangulaire inférieur avec $k$ coefficients diagonaux tous égaux à $X$ et le deuxième étant triangulaire supérieur avec $n-1-k$ coefficients diagonaux tous égaux à $-1$. Donc, $\Delta_k=(-1)^{n-k-1}X^k$. Par suite,
$$\chi_u=X^n-a_{n-1}X^{n-1}+\displaystyle\sum_{k=0}^{n-2}(-1)^{2n}\left(-a_k\right)X^k=X^n-\displaystyle\sum_{k=0}^{n-1}a_kX^k.$$
Les coefficients du polynôme $\chi_u$, à savoir $-a_0$, $-a_1$, $\ldots$ , $-a_{n-1}$, ne dépendent que de $u$ et pas de $x$ et donc la matrice $A$ ne dépend pas de $x$.
Commentaires et/ou rappels de cours
$\bullet$ La difficulté est notée $4\;\star$ par rapport à la difficulté moyenne des exercices d’oraux posés au CCINP.
$\bullet$ Si une famille de trois vecteurs $(u,v,w)$ est liée, on ne peut pas affirmer que le 3-ème vecteur, à savoir $w$, est forcément combinaison linéaire des deux autres, à savoir $u$ et $v$. Par exemple, si $u=0$ et $w$ n’est pas colinéaire à $v$, la famille $(u,v,w)$ est liée mais $w$ n’est pas combinaison linéaire de $u$ et $v$. Par contre :
Théorème. Si $\left(u_1,\ldots,u_k\right)$ est une famille libre et $\left(u_1,\ldots,u_k,u_{k+1}\right)$ est une famille liée, alors $u_{k+1}\in\text{Vect}\left(u_1,\ldots,u_k\right)$.
$\bullet$ L’expression développée du polynôme caractéristique d’une matrice compagnon n’est pas un résultat de cours. Mais cette expression est tellement à connaître qu’on peut se permettre de la donner directement au cours de l’oral, quitte à proposer de démontrer le résultat ensuite.
La méthode de calcul proposée dans la correction (développement suivant la dernière colonne) est probablement la meilleure méthode car elle donne directement le coefficient de $X^k$. Mais il existe bien sûr de très nombreuses méthodes de calcul de ce polynôme caractéristique.
$\bullet$ Formule de développement d’un déterminant suivant une colonne. Si $A=\left(a_{k,\ell}\right)_{1\leqslant k,\ell\leqslant n}$, alors pour tout $j\in\{1,\ldots,n\}$,
$$\text{det}(A)=\displaystyle\sum_{i=1}^{n}a_{i,j}A_{i,j}=\displaystyle\sum_{i=1}^{n}(-1)^{i,j}a_{i,j}m_{i,j}$$
où $m_{i,j}$ est le mineur associé à $a_{i,j}$ (c’est-à-dire le déterminant de format $n-1$ obtenu à partir de $\text{det}(A)$ en supprimant sa $i$-ème ligne et sa $j$-ème colonne)$ et $A_{i,j}=(-1)^{i+j}$ est le cofacteur de $a_{i,j}$.
$\bullet$ De manière générale, si $E$ est de dimension finie $n$ non nulle, si $u\in\mathscr{L}(E)$ et si $x\in E\setminus\{0\}$, on peut toujours définir $k=\text{Max}\left\{i\in\{1,\ldots,n\}/\;\left(x,u(x),\ldots,u^{i-1}(x)\right)\;\text{est libre}\right\}$. On peut alors démontrer que $F=\text{Vect}\left(x,u(x),\ldots,u^{k-1}(x)\right)$ est le plus petit (au sens de l’inclusion) sous-espace de $E$ stable par $u$.
Exercice – Difficulté 3 – Thème : matrices. Titre : trouver les racines 8-èmes d’une matrice triangulaire.
Enoncé (CCINP)
On définit les matrices $N=\begin{pmatrix}0&1&0\\0&0&1\\0&0&0\end{pmatrix}$ et $T=\begin{pmatrix}1&2&3\\0&1&2\\0&0&1\end{pmatrix}$ ainsi que $C(N)=\left\{M\in\mathscr{M}_3(\mathbb{R})/\;MN=NM\right\}$.
1) Montrez que $C(N)$ est un espace vectoriel. Déterminer le.
2) Montrez que $N$ est un polynôme de degré $2$ en $T$.
On définit $E=\left\{M\in\mathscr{M}_3(\mathbb{R})/\;M^8=T\right\}$.
3) Montrez que $\forall M\in E$, $M$ est un polynôme en $N$.
4) Déterminez $E$.
Corrigé
1) Puisque $0\times N=0=N\times0$, $0\in C(N)$. Soient $(A,B)\in(C(N))^2$ et $(\lambda,\mu)\in\mathbb{R}^2$.
$$(\lambda A+\mu B)N=\lambda AN+\mu BN=\lambda NA+\mu NB=N(\lambda A+\mu B),$$
et donc $\lambda A+\mu B\in C(N)$. On a montré que $C(N)$ est un sous-espace vectoriel de l’espace vectoriel $\left(\mathscr{M}_3(\mathbb{R}),+,.\right)$.
Soit $M=\begin{pmatrix}a&d&g\\b&e&h\\c&f&i\end{pmatrix}\in\mathscr{M}_3(\mathbb{R}$.
$$MN=\begin{pmatrix}a&d&g\\b&e&h\\c&f&i\end{pmatrix}\begin{pmatrix}0&1&0\\0&0&1\\0&0&0\end{pmatrix}=\begin{pmatrix}0&a&d\\0&b&e\\0&c&f\end{pmatrix},$$
et
$$NM=\begin{pmatrix}0&1&0\\0&0&1\\0&0&0\end{pmatrix}\begin{pmatrix}a&d&g\\b&e&h\\c&f&i\end{pmatrix}=\begin{pmatrix}b&e&h\\c&f&i\\0&0&0\end{pmatrix},$$
puis
$$M\in C(N)\Leftrightarrow\left\{\begin{array}{l}a=e=i\\b=c=f=0\\d=h\end{array}\right..$$
Ainsi, les éléments de $C(N)$ sont (en renommant les constantes) les matrices de la forme $\begin{pmatrix}a&b&c\\0&a&b\\0&0&a\end{pmatrix}$, $(a,b,c)\in\mathbb{R}^3$.
On note que $N^2=\left(E_{1,2}+E_{2,3}\right)\left(E_{1,2}+E_{2,3}\right)=E_{1,3}=\begin{pmatrix}0&0&1\\0&0&0\\0&0&0\end{pmatrix}$ et donc, pour tout $(a,b,c)\in\mathbb{R}^3$,
$$\begin{pmatrix}a&b&c\\0&a&b\\0&0&a\end{pmatrix}=aI_3+bN+cN^2.$$
On a montré que $C(N)=\text{Vect}\left(I_3,N,N^2\right)$. On note que pour tout $(a,b,c)\in\mathbb{R}^3$,
$$aI_3+bN+cN^2=0\Rightarrow\begin{pmatrix}a&b&c\\0&a&b\\0&0&a\end{pmatrix}=0\Rightarrow a=b=c=0$$
et donc la famille $\left(I_3,N,N^2\right)$ est libre puis une base de $C(N)$.
2) On note que $T=I_3+2N+3N^2$. $T$ est un polynôme de degré $2$ en $N$ et en particulier un élément de $C(N)$. On veut inverser. En tenant compte de $N^3=0$ et plus généralement, pour tout $k\geqslant 3$, $N^k=0$ et aussi du fait que les matrices $2N$ et $3N^2$ commutent,
$$\left(T-I_3\right)^2=\left(2N+3N^2\right)^2=4N^2=\dfrac{4}{3}\left(T-I_3-2N\right)=\dfrac{4}{3}T-\dfrac{4}{3}I_3-\dfrac{8}{3}N.$$
On en déduit que $\dfrac{8}{3}N=-T^2+\dfrac{10}{3}T-\dfrac{7}{3}I_3$ puis
$$N=-\dfrac{3}{8}T^2+\dfrac{5}{4}T-\dfrac{7}{8}I_3.$$
$N$ est donc un polynôme de degré $2$ en $T$.
3) Soit $M\in E$. $MT=M\times M^8=M^9=M^8\times M=TM$ et donc $M\in C(T)$. Mais alors, $M$ commute avec tout polynôme en $T$ et donc avec $N$ d’après la question précédente.
4) Soit donc $M\in E$. D’après les questions 1) et 3), il existe $(a,b,c)\in\mathbb{R}^3$ tel que $M=aI_3+bN+cN^2$. D’après la formule du binôme de Newton
\begin{align*}M^8&=\left(aI_3+\left(bN+cN^2\right)\right)^8=\displaystyle\sum_{k=0}^{8}\dbinom{8}{k}\left(aI_3\right)^{8-k}\left(bN+cN^2\right)^k\;(\text{car les matrices}\;aI_3\;\text{et}\;bN+cN^2\;\text{commutent})\\&=\left(aI_3\right)^8+\dbinom{8}{1}\left(aI_3\right)^7\left(bN+cN^2\right)+\dbinom{8}{2}\left(aI_3\right)^6\left(bN\right)^2\;(\text{car pour}\;k\geqslant3\;N^k=0)\\&=a^8I_3+8a^7bN+\left(8a^7cN^2+28a^6b^2\right)N^2.\end{align*}
Ensuite, en tenant compte du fait que la famille $\left(I_3,N,N^2\right)$ est libre,
\begin{align*}M^8=T&\Leftrightarrow a^8I_3+8a^7bN+\left(8a^7c+28a^6b^2\right)N^2=I_3+2N+3N^2\\&\Leftrightarrow\left\{\begin{array}{l}a^8=1\\8a^7b=2\\8a^7c+28a^6b^2=3\end{array}\right.\Leftrightarrow\left\{\begin{array}{l}a=1\\b=\dfrac{1}{4}\\8c+\dfrac{7}{4}=3\end{array}\right.\;\text{ou}\;\left\{\begin{array}{l}a=-1\\b=-\dfrac{1}{4}\\-8c+\dfrac{7}{4}=3\end{array}\right.\;(\text{car}\;a\in\mathbb{R})\\&\Leftrightarrow\left\{\begin{array}{l}a=1\\b=\dfrac{1}{4}\\c=\dfrac{5}{32}\end{array}\right.\;\text{ou}\;\left\{\begin{array}{l}a=-1\\b=-\dfrac{1}{4}\\c=-\dfrac{5}{32}\end{array}\right..\end{align*}
La matrice $T$ admet donc deux racines $8$-èmes dans $\mathscr{M}_3(\mathbb{R})$, à savoir $R_1=\begin{pmatrix}1&\frac{1}{2}&\frac{15}{32}\\0&1&\frac{1}{2}\\0&0&1\end{pmatrix}$ et $R_2=-R_1$.
Commentaires et/ou rappels de cours
$\bullet$. De manière générale, si $A\in\mathscr{M}_n(\mathbb{R})$, alors $C(A)$ est une sous-algèbre de l’algèbre $\left(\mathscr{M}_n(\mathbb{R}),+,.,\times\right)$, contenant $\mathbb{C}[A]$ la sous-algèbre des polynômes en $A$ (un polynôme en $A$ commute avec $A$).
$\bullet$ L’expression « polynôme de degré $2$ en $A$ » n’est pas identique à l’expression « polynôme en $A$ de degré $2$ ». Le degré d’un polynôme en $A$ n’a pas de réelle signication. Par exemple, pour une matrice $N$ vérifiant $N^3=0$, on ne peut pas dire que $N^2+N^3=N^2$ est un polynôme en $N$ de degré $3$. L’expression « polynôme de degré $2$ en $A$ » peut quant à elle être comprise comme « polynôme de degré $2$ évalué en $A$ ».
Exercice – Difficulté 3 – Thème : réduction. Titre : étude d’endomorphismes du R-espace vectoriel C.
Enoncé (CCINP)
Soit $(a,b)\in\mathbb{C}^2$ et $f$ l’endomorphisme du $\mathbb{R}$-espace vectoriel $\mathbb{C}$ tel que :
$$\forall z\in\mathbb{C},\;f(z)=az+b\overline{z}.$$
1) Montrer que l’équation $f(z)=0$ admet une solution non nulle si et seulement si $|a|=|b|$ (indication : décomposer $a$, $b$ et $z$ dans la base $(1,i)$).
On suppose maintenant que $a=e^{i\alpha}$ et $b=e^{i\beta}$ avec $(\alpha,\beta)\in\mathbb{R}^2$.
2) Déterminer les valeurs propres de $f$ (indication : écrire la matrice associée).
3) Déterminer $\alpha$ et $\beta$ tel que $f$ soit diagonalisable.
Corrigé
1) On pose $a=a_1+ia_2$, $b=b_1+ib_2$ et $z=x+iy$ où $\left(a_1,a_2,b_1,b_2,x,y\right)\in\mathbb{R}^6$.
$$f(z)=az+b\overline{z}=\left(a_1+ia_2\right)(x+iy)+\left(b_1+ib_2\right)(x-iy)=\left(\left(a_1+b_1\right)x-\left(a_2-b_2\right)y\right)+i\left(\left(a_2+b_2\right)x+\left(a_1-b_1\right)y\right).$$
Par identification des parties réelles et imaginaires,
$$f(z)=0\Leftrightarrow\left\{\begin{array}{l}\left(a_1+b_1\right)x-\left(a_2-b_2\right)y=0\\\left(a_2+b_2\right)x+\left(a_1-b_1\right)y=0\end{array}\right..$$
L’équation $f(z)=0$ admet une solution $z$ non nulle si et seulement si le système $(S)$ ci-dessus admet une solution $(x,y)$ non nulle ce qui équivaut au fait que le déterminant $\Delta$ de $(S)$ est nul avec
$$\Delta=\left(a_1+b_1\right)\left(a_1-b_1\right)+\left(a_2-b_2\right)\left(a_2+b_2\right)=a_1^2+a_2^2-b_1^2-b_2^2=|a|^2-|b|^2.$$
Ainsi,
$$\exists z\in\mathbb{C}\setminus\{0\}/\;f(z)=0\Leftrightarrow |a|^2-|b|^2=0\Leftrightarrow|a|=|b|.$$
2) $f(1)=e^{i\alpha}+e^{i\beta}=(\cos(\alpha)+\cos(\beta))+i(\sin(\alpha)+\sin(\beta))$ et $f(i)=ie^{i\alpha}-ie^{i\beta}=(-\sin(\alpha)+\sin(\beta))+i(\cos(\alpha)-\cos(\beta))$. La matrice de $f$ dans la base $(1,i)$ du $\mathbb{R}$-espace vectoriel $\mathbb{C}$ est
$$A=\begin{pmatrix}\cos(\alpha)+\cos(\beta)&-\sin(\alpha)+\sin(\beta)\\ \sin(\alpha)+\sin(\beta)&\cos(\alpha)-\cos(\beta)\end{pmatrix}.$$
Par suite, $\text{Tr}(f)=\text{Tr}(A)=\cos(\alpha)+\cos(\beta)+\cos(\alpha)-\cos(\beta)=2\cos(\alpha)$ et
$$\text{det}(f)=(\cos(\alpha)+\cos(\beta))(\cos(\alpha)-\cos(\beta))-(\sin(\alpha)+\sin(\beta))(-\sin(\alpha)+\sin(\beta))=\cos^2(\alpha)-\cos^2(\beta)+\sin^2(\alpha)-\sin^2(\beta)=1-1=0$$
puis
$$\chi_f=X^2-(\text{Tr}(f))X+\text{det}(f)=X^2-2\cos(\alpha)X=X(X-2\cos(\alpha)).$$
Finalerment, $\text{Sp}(f)=(0,2\cos(\alpha))$.
3) 1er cas. Si $\alpha\notin\dfrac{\pi}{2}+\pi\mathbb{Z}$, alors $2\cos(\alpha)\neq0$. Dans ce cas, $\chi_f$ est scindé sur $\mathbb{R}$ à racines simples et on sait alors que $f$ est diagonalisable.
2ème cas. On suppose maintenant que $\alpha\in\dfrac{\pi}{2}+\pi\mathbb{Z}$. Dans ce cas, $\chi_f=X^2$ et $\text{Sp}(f)=(0,0)$.
Dans ce cas, $f$ est diagonalisable si et seulement si il existe une base de $E$ formée de vecteurs propres associés à la valeur propre $0$ si et seulement si $f$ s’annule sur une base de $E$ si et seulement si $f=0$. Avec la matrice $A$ de la question précédente, cela fournit
$$f\;\text{est diagonalisable}\Leftrightarrow\left\{\begin{array}{l}\cos(\alpha)+\cos(\beta)=0\\\cos(\alpha)-\cos(\beta)=0\\\sin(\alpha)+\sin(\beta)=0\\-\sin(\alpha)+\sin(\beta)=0\end{array}\right.\Leftrightarrow\cos(/alpha)=\cos(\beta)=\sin(\alpha)=\sin(\beta)=0.$$
Mais les fonctions $x\mapsto\cos(x)$ et $x\mapsto\sin(x)$ ne s’annulent pas simultanément et donc le système précédent n’a pas de solution. Donc, $f$ n’est pas diagonalisable.
En résumé, $f$ est diagonalisable si et seulement si $\alpha\notin\dfrac{\pi}{2}+\pi\mathbb{Z}$.
Commentaires et/ou rappels de cours
Exercice – Difficulté 4 – Thème : réduction . Titre : commutant d’un endomorphisme dont on connaît un polynôme annulateur.
Enoncé (Mines-Télécom)
Soit $u$ un endomorphisme de $\mathbb{R}^{2n+1}$ tel que $u^3=u$, $\text{Tr}(u)=0$ et $\text{Tr}\left(u^2\right)=2n$.
On définit $C(u)=\{v\in\mathscr{L}(E)/\;u\circ v=v\circ u\}$.
1) $u$ est-il diagonalisable ?
2) Déterminer les valeurs propres de $u$ et les dimensions des sous-espaces propres associés.
Donner la matrice de $u$ dans une base adaptée à sa diagonalisation.
3) Déterminer la dimension de $C(u)$.
4) Pour quelles valeurs de $n$ a-t-on $C(u)=\mathbb{R}[u]$ ?
Corrigé
1) Soit $P_0=X^3-X=X(X-1)(X+1)$. Le polynôme $P$ est scindé sur $\mathbb{R}$, à racines simples et annulateur de $u$. Donc, $u$ est diagonalisable.
2) Les valeurs propres d’un endomorphisme sont à choisir parmi les racines d’un polynôme annulateur. Donc, $\text{Sp}(u)=(\underbrace{0,\ldots,0}_{\alpha},\underbrace{1,\ldots,1}_{\beta},\underbrace{-1,\ldots,-1}_{\gamma})$ où $\alpha$, $\beta$ et $\gamma$ sont des entiers naturels (donc éventuellement nuls) tels que $\alpha+\beta+\gamma=2n+1$.
La trace de $u$ est la somme des valeurs propres de $u$, chacune comptée un nombre de fois égal à son ordre de multiplicité. Donc, $0=\text{Tr}(u)=\beta-\gamma$ puis $\gamma=\beta$ et donc $\text{Sp}(u)=(\underbrace{0,\ldots,0}_{\alpha},\underbrace{1,\ldots,1}_{\beta},\underbrace{-1,\ldots,-1}_{\beta})$ où $\alpha$ et $\beta$ sont des entiers naturels tels que $\alpha+2\beta=2n+1$.
On sait que $\text{Sp}\left(u^2\right)=(\underbrace{0^2,\ldots,0^2}_{\alpha},\underbrace{1^2,\ldots,1^2}_{\beta},\underbrace{(-1)^2,\ldots,(-1)^2}_{\beta})=(\underbrace{0^2,\ldots,0^2}_{\alpha},\underbrace{1,\ldots,1}_{2\beta})$ puis $\text{Tr}\left(u^2\right)=2\beta$. L’égalité $\text{Tr}\left(u^2\right)=2n$ fournit $\beta=n$. Mais alors $\alpha=1$.
Ainsi, $\text{Sp}(u)=(0,\underbrace{1,\ldots,1}_{n},\underbrace{-1,\ldots,-1}_{n})$.
Puisque $u$ est diagonalisable, la dimension de chaque sous-espace propre est égale à la dimension du sous-espace propre correspondant et donc, $\text{dim}\left(E_0(u)\right)=1$, $\text{dim}\left(E_1(u)\right)=\text{dim}\left(E_{-1}(u)\right)=n$. Dans une base $\mathscr{B}$ adaptée à la décomposition $\mathbb{R}^{2n+1}=\text{Ker}(u)\oplus\text{Ker}(u-Id)\oplus\text{Ker}(u+Id)$, la matrice de $u$ est $D=\text{diag}(0,\underbrace{1,\ldots,1}_{n},\underbrace{-1,\ldots,-1}_{n})$.
3) Trouvons d’abord la dimension de $C(D)=\left\{A\in\mathscr{M}_{2n+1}(\mathbb{R})/\;AD=DA\right\}$. $D$ est la matrice diagonale par blocs $D=\begin{pmatrix}0&0_{1,n}&0_{1,n}\\0_{n,1}&I_n&0_{n,n}\\0_{n,1}&0_{n,n}&-I_n\end{pmatrix}$. Soit $A\in\mathscr{M}_{2n+1}(\mathbb{R})$. On découpe $A$ de la même façon : $A=\begin{pmatrix}A_{1,1}&A_{1,2}&A_{1,3}\\A_{2,1}&A_{2,2}&A_{2,3}\end{pmatrix}$ où $A_{1,1}\in\mathbb{R}$, $\left(A_{1,2},A_{1,3}\right)\in\left(\mathscr{M}_{1,n}(\mathbb{R})\right)^2$, $\left(A_{2,1},A_{3,1}\right)\in\left(\mathscr{M}_{n,1}(\mathbb{R})\right)^2$ et $\left(A_{2,2},A_{2,3},A_{3,2},A_{3,3}\right)\in\left(\mathscr{M}_n(\mathbb{R})\right)^4$.
$$AD=\begin{pmatrix}A_{1,1}&A_{1,2}&A_{1,3}\\A_{2,1}&A_{2,2}&A_{2,3}\\A_{3,1}&A_{3,2}&A_{3,3}\end{pmatrix}\begin{pmatrix}0&0_{1,n}&0_{1,n}\\0_{n,1}&I_n&0_{n,n}\\0_{n,1}&0_{n,n}&-I_n\end{pmatrix}=\begin{pmatrix}0&A_{1,2}&-A_{1,3}\\0&A_{2,2}&-A_{2,3}\\0&A_{3,2}&-A_{3,3}\end{pmatrix}$$
et
$$AD=\begin{pmatrix}0&0_{1,n}&0_{1,n}\\0_{n,1}&I_n&0_{n,n}\\0_{n,1}&0_{n,n}&-I_n\end{pmatrix}\begin{pmatrix}A_{1,1}&A_{1,2}&A_{1,3}\\A_{2,1}&A_{2,2}&A_{2,3}\\A_{3,1}&A_{3,2}&A_{3,3}\end{pmatrix}=\begin{pmatrix}0&0&0\\A_{2,1}&A_{2,2}&A_{2,3}\\-A_{3,1}&-A_{3,2}&-A_{3,3}\end{pmatrix}.$$
Par suite, $AD=DA\Leftrightarrow A_{1,2}=A_{1,3}=A_{2,1}=A_{3,1}=A_{2,3}=A_{3,2}=0$. $C(D)$ est l’ensemble des matrices carrées de la forme $\begin{pmatrix}\lambda&0_{1,n}&0_{1,n}\\0_{n,1}&A&0_n\\0_{n,1}&0_n&B\end{pmatrix}$ où $(A,B)\in\left(\mathscr{M}_n(\mathbb{R})\right)^2$ et $\lambda\in\mathbb{R}$ ou encore $C(D)=\text{Vect}\left(E_{1,1}\right)\oplus\text{Vect}\left(E_{i,j}\right)_{2\leqslant i,j\leqslant n+1}\oplus\text{Vect}\left(E_{i,j}\right)_{n+2\leqslant i, j\leqslant 2n+1}$. On en déduit que
$$\text{dim}(C(D))=1+n^2+n^2=2n^2+1.$$
Ensuite, pour tout $f\in\mathscr{L}(E)$, en posant $M=\text{Mat}_{\mathscr{B}}(f)$, $f\in C(u)\Leftrightarrow f\circ u=u\circ f\Leftrightarrow MD=DM\Leftrightarrow M\in C(D)$. Puisque l’application $\begin{array}[t]{cccc}\varphi~:&\mathscr{L}\left(\mathbb{R}^{2n+1}\right)&\rightarrow&\mathscr{M}_{2n+1}(\mathbb{R})\\&f&\mapsto&\text{Mat}_{\mathscr{B}}(f)\end{array}$ est un isomorphisme (et donc $\varphi^{-1}$ aussi),
$$\text{dim}(C(u))=\text{dim}\left(\varphi^{-1}(C(D)\right)=\text{dim}(C(D))=2n^2+1.$$
4) Soit $P\in\mathbb{R}[X]$. La division euclidienne de $P$ par $P_0$ s’écrit $P=QP_0+aX^2+bX+c$ où $Q\in\mathbb{R}[X]$ et $(a,b,c)\in\mathbb{R}^3$. En évaluant en $u$, on obtient $P(u)=au^2+bu+cId$. Donc, $\mathbb{R}[u]\subset\mathbb{R}_2[u]$ puis
$$\mathbb{R}[u]=\mathbb{R}_2[u]=\text{Vect}\left(Id,u,u^2\right).$$
Mais alors,
$$C(u)=\mathbb{R}[u]\Rightarrow\text{dim}(C(u))=\text{dim}(\mathbb{R}[u])\Rightarrow 2n^2+1\leqslant 3\Rightarrow n\leqslant 1.$$
Réciproquement, si $n=0$, $E^\mathbb{R}$ puis $\mathscr{L}(E)=\text{Vect}(Id)\subset \mathbb{R}[u]$. Donc, $\mathscr{L}(E)=\mathbb{R}[u]=\text{Vect}(Id)$. D’autre part, $\mathscr{L}(E)=\text{Vect}(Id)\subset C(u)$ et finalement, $C(u)=\mathscr{L}(E)=\mathbb{R}[u]$.
Supposons maintenant $n=1$ de sorte que $E=\mathbb{R}^3$. On a $\text{dim}(C(u))=2\times1^2+1=3$ et d’autre part, $\mathbb{R}[u]=\mathbb{R}_2[u]=\text{Vect}\left(Id,u,u^2\right)\subset C(u)$. Donc,
$$C(u)=\mathbb{R}[u]\Leftrightarrow\text{dim}\left(\text{Vect}\left(Id,u,u^2\right)\right)=3\Leftrightarrow\left(Id,u,u^2\right)\;\text{est libre}.$$
Soit $(a,b,c)\in\mathbb{R}^3$.
\begin{align*}aId+bu+cu^2=0&\Rightarrow aI_3+bD+cD^2=0\Rightarrow a\begin{pmatrix}1&0&0\\0&1&0\\0&0&1\end{pmatrix}+b\begin{pmatrix}0&0&0\\0&1&0\\0&0&-1\end{pmatrix}+c\begin{pmatrix}0&0&0\\0&1&0\\0&0&1\end{pmatrix}=0\\&\Rightarrow\begin{pmatrix}a&0&0\\0&a+b+c&0\\0&0&a-b+c\end{pmatrix}=0\Rightarrow a=0\;\text{et}\;b+c=-b+c=0\Rightarrow a=b=c=0.\end{align*}
La famille $\left(Id,u,u^2\right)$ est donc libre puis $\text{dim}(\mathbb{R}[u])=3=\text{dim}(C(u))$ et finalement $\mathbb{R}[u]=C(u)$ (car $\mathbb{R}[u]\subset C(u)$).
On a montré que $C(u)=\mathbb{R}[u]\Leftrightarrow n\in\{0,1\}$.
Commentaires et/ou rappels de cours
$\bullet$ Définition et théorèmes. Soient $E$ un $\mathbb{K}$-espace vectoriel de dimension finie non nulle $n$ puis $f\in\mathscr{L}(E)$.
\begin{align*}f\;\text{est diagonalisable}&\Leftrightarrow\text{il existe une base de}\;E\;\text{constituée de vecteurs propres de}\;f\;(\text{définition})\\&\Leftrightarrow E\;\text{est somme directe des sous-espaces propres de}\;f\\&\Leftrightarrow\displaystyle\sum_{\lambda\in\text{Sp}(f)}\text{dim}\left(E_\lambda(f)\right)=n\\&\Leftrightarrow\chi_f\;\text{est scindé sur}\;\mathbb{K}\;\text{et la dimension de chaque sous-espace propre est égale à l’ordre de multiplicité de la valeur propre correspondante}\\&\Leftrightarrow\text{il existe un polynôme}\;P\;\text{non nul, scindé sur}\;\mathbb{K},\;\text{à racines simples tel que}\;P(u)=0\\&\Leftrightarrow \mu_f\;\text{est scindé sur}\;\mathbb{K}\;\text{à racines simples}\;(\text{où}\;\mu_f\;\text{est le polynôme minimal de}\;f).\end{align*}
$\bullet$ Théorème. La trace d’un endomorphisme est égale à la somme de ses valeurs propres dans $\mathbb{C}$, chacune comptée un nombre de fois égal à son ordre de multiplicité.
$\bullet$ La difficulté est notée $4\star$ par rapport à la difficulté moyenne des exercices d’oraux des CCINP.
Exercice – Difficulté 3 – Thème : réduction. Titre : un couple d’endomorphismes simultanément diagonalisables.
Enoncé (CCINP)
Soit $E$ un $\mathbb{R}$-espace vectoriel de dimension $n\geqslant1$. Soient $f$, $u$ et $v$ des endomorphismes de $E$. Soient $\lambda$ et $\mu$ des réels.
On suppose que :
$f=\lambda u+\mu v$,
$f^2=\lambda^2u+\mu^2 v$,
$f^3=\lambda^3u+\mu^3v$.
1) Rappeler les résultats de diagonalisabilité à l’aide de polynômes. Montrer que $f$ est diagonalisable.
2) Si $0$, $\lambda$ et $\mu$ sont distincts, montrer que $u$ et $v$ sont diagonalisables dans une même base de diagonalisation.
Corrigé
1) Théorème. Soient $E$ un $\mathbb{K}$-espace vectoriel de dimension finie non nulle puis $f\in\mathscr{L}(E)$. $f$ est diagonalisable si et seulement si il existe un polynôme non nul, scindé sur $\mathbb{K}$ à racines simples et annulateur de $f$.
Soit $P=X(X-\lambda)(X-\mu)=X^3-(\lambda+\mu)X^2+\lambda\mu X$. Alors,
$$P(f)=f^3-(\lambda+\mu)f^2+\lambda\mu f=\left(\lambda^3-(\lambda+\mu)\lambda^2+\lambda\mu\lambda\right)u+\left(\mu^3-(\lambda+\mu)\mu^2+\lambda\mu\mu\right)v=P(\lambda)u+P(\mu)v=0.$$
1er cas. Si $\lambda$, $\mu$ et $0$ sont deux à deux distincts, alors $P$ est un polynôme scindé sur $\mathbb{K}$, à racines simples, annulateur de $f$. $f$ est donc diagonalisable.
2ème cas. Si $\mu=0\neq\lambda$ (ou aussi $\lambda=0\neq\mu$), alors $f=\lambda u$ et $f^2=\lambda^2 u^2$ puis $f^2-\lambda f=0$. Le polynôme $X(X-\lambda)$ est un polynôme scindé sur $\mathbb{K}$, à racines simples, annulateur de $f$. $f$ est donc diagonalisable.
3ème cas. Si $\lambda=\mu\neq0$, alors $f=\lambda(u+v)$ et $f^2=\lambda^2(u+v)$. Le polynôme $X(X-\lambda)$ est un polynôme scindé sur $\mathbb{K}$, à racines simples, annulateur de $f$. $f$ est donc diagonalisable.
4ème cas. Si $\lambda=\mu=0$, alors $f=0$. $f$ est donc diagonalisable.
On a montré dans tous les cas que $f$ est diagonalisable.
2) On suppose maintenant que $\lambda$, $\mu$ et $0$ sont deux à deux distincts. On note $\mathscr{B}=\left(e_1,\ldots,e_n\right)$ une base de vecteurs propres de $f$ et on note $\left(\alpha_1,\ldots,\alpha_n\right)$ la famille des valeurs propres associées.
On a $\left\{\begin{array}{l}\lambda u+\mu v=f\\\lambda^2u+\mu^2v=f^2\end{array}\right.$ et donc $\left\{\begin{array}{l}u=\dfrac{1}{\lambda(\lambda-\mu)}\left(f^2-\mu f\right)\\v=\dfrac{1}{\mu(\mu-\lambda)}\left(f^2-\lambda f\right)\end{array}\right.$. Mais alors, pour tout $i\in\{1,\ldots,n\}$,
$$u\left(e_i\right)=\dfrac{1}{\lambda(\lambda-\mu)}\left(f^2\left(e_i\right)-\mu f\left(e_i\right)\right)=\dfrac{\alpha_i^2-\mu\alpha_i}{\lambda(\lambda-\mu)}e_i$. La base $\mathscr{B}$ est donc aussi une base de vecteurs propres de $u$. De même, la base $\mathscr{B}$ est une base de vecteurs propres de $v$.
Finalement, les endomorphismes $f$, $u$ et $v$ diagonalisent dans la même base.
Commentaires et/ou rappels de cours
Pas de commentaire particulier.
Exercice – Difficulté 2 – Thème : réduction. Titre : endomorphismes nilpotents, matrices nilpotentes.
Enoncé (CCINP)
Soit $E$ un $\mathbb{K}$-espace vectoriel de deimension $n$ et $u\in\mathscr{L}(E)$.
1) Montrer que si $u$ est nilpotent, alors $u^n=0$.
2) Soit $n\geqslant 2$. Soit $u\in\mathscr{L}(E)$ tel que $u^{n-1}\neq0$ et $u^n=0$. Montrer qu’il existe une base $\mathscr{B}$ de $E$ telle que :
$$A=\text{Mat}_{\mathscr{B}}(u)=\begin{pmatrix}0&\ldots&\ldots&\ldots&0\\1&\ddots& & &\vdots\\0&\ddots&\ddots& &\vdots \\\vdots&\ddots&\ddots&\ddots&\vdots\\0&\ldots&0&1&0\end{pmatrix}.$$
3) Déterminer les matrices $X\in\mathscr{M}_n(\mathbb{K})$ vérifiant $X^2=A$.
Corrigé
1) Notons $p$ l’indice de nilpotence de $u$. $u^p=0$ et donc le polynôme $X^p$ est annulateur de $u$. Le polynôme minimal de $u$ est un diviseur unitaire de ce polynôme et donc $\mu_u=X^k$ pour un certain $k\in\{1,\ldots,p\}$. Mais $u^{k-1}\neq0$ et donc $\mu_u=X^p$.
D’après le théorème de Cayley-Hamilton, $\mu_u$ divise $\chi_u$ et en particulier, $p=\text{deg}\left(\mu_u\right)\leqslant \text{deg}\left(\chi_u\right)=n$. Mais alors,
$$u^n=u^{n-p}\circ u^p=0.$$
2) Soit $x\in E$ tel que $u^{n-1}(x)\neq0$. Pour $k\in\{1,\ldots,n\}$, on pose $e_k=u^{k-1}(x)$. Supposons par l’absurde que la famille $\left(e_k\right)_{1\leqslant k\leqslant n}$ est liée. Il existe $\left(\alpha_0,\ldots,\alpha_{n-1}\right)\neq(0,\ldots,0)$ tel que $\displaystyle\sum_{i=1}^{n}\alpha_iu^{i-1}(x)=0$. $\left\{i\in\{1,\ldots,n\}/\;\alpha_i\neq0\right\}$ est une partie non vide de $\mathbb{N}$ et on peut donc poser $k=\text{Min}\left\{i\in\{1,\ldots,n\}/\;\alpha_i\neq0\right\}$.
Par définition de $k$, $\displaystyle\sum_{i=k}^{n}\alpha_iu^{i-1}(x)=0$. On calcule alors l’image des deux membres de cette égalité par $u^{n-k}$. En tenant compte de $u^\ell=0$ pour $\ell\geqslant n$, on obtient $\alpha_ku^{n-1}(x)=0$. Ceci est une contradiction car $\alpha_k\neq0$ et $u^{n-1}(x)\neq0$.
Donc, la famille $\mathscr{B}=\left(e_k\right)_{1\leqslant k\leqslant n}$ est libre. Puisque $\text{card}(\mathscr{B})=n=\text{dim}(E)<+\infty$, $\mathscr{B}$ est une base de $E$. De plus, pour tout $k\in\{1,\ldots,n-1\}$,
$$u\left(e_k\right)=u\left(u^{k-1}(x)\right)=u^k(x)=e_{k+1}$$
et d’autre part, $u\left(e_n\right)=u\left(u^{n-1}(x)\right)=u^n(x)=0$. Donc,
$$A=\text{Mat}_{\mathscr{B}}(u)=\begin{pmatrix}0&\ldots&\ldots&\ldots&0\\1&\ddots& & &\vdots\\0&\ddots&\ddots& &\vdots \\\vdots&\ddots&\ddots&\ddots&\vdots\\0&\ldots&0&1&0\end{pmatrix}.$$
3) On suppose toujours $n\geqslant 2$. Soit $X\in\mathscr{M}_n(\mathbb{K})$ une événtuelle matrice telle que $X^2=A$. Alors, $X^{2n}=A^n=0$ et donc $X^n=0$ d’après la question précédente. Mais d’autre part, $X^{2n-2}=\left(X^2\right)^{n-1}=A^{n-1}\neq0$. Donc, $2n-2<n$ puis $n<2$. Ceci est une contradiction et donc il n’existe pas de matrice $X$ telle que $X^2=A$.
L’équation $X^2=A$ n’a pas de solution dans $\mathscr{M}_n(\mathbb{K})$.
Commentaires et/ou rappels de cours
La solution proposée dans la deuxième question (démonstration de la liberté de $\left(u^{k-1}(x)\right)_{1\leqslant k\leqslant n}$ en raisonnant par l’absurde) est la plus efficace (car on ne calcule qu’une seule fois l’image des deux membres par une puissance de $u$).
Exercice – Difficulté 2 – Thème : réduction. Titre : étude d’une matrice dont on connaît un polynôme annulateur.
Enoncé (CCINP)
Soit $A$ une matrice de $\mathscr{M}_n(\mathbb{R})$, non colinéaire à $I_n$, telle que $\left(A+I_n\right)^3=0$.
1) Montrer que $A$ est inversible et expliciter son inverse. Donner un exemple d’une telle matrice.
2) $A$ est-elle diagonalisable ?
3) Soit $p$ un entier naturel. Exprimer $A^p$ en fonction de $A^2$, de $A$ et de $I_n$.
Corrigé
1) Puisque les matrices $A$ et $I_n$ commutent, la formule du binôme de Newton permet d’écrire $\left(A+I_n\right)^3=A^3+3A^2+3A+I_n$ et donc
$$I_n=A\times\dfrac{1}{3}\left(-A^2-3A-3I_n\right).$$
La matrice $A$ est inversible et $A^{-1}=-\dfrac{1}{3}\left(A^2+3A+3I_n\right)$.
Ensuite, si $n=1$, toute matrice est une matrice scalaire et donc $A$ n’existe pas. On suppose maintenant $n\geqslant2$. La matrice élémentaire $E_{1,2}$ vérifie $E_{1,2}^2=0$ puis $E_{1,2}^3=0$.
Soit $A=-I_n+E_{1,2}=\begin{pmatrix}-1&1&0&\ldots&\ldots&0\\0&-1&0& & &\vdots\\\vdots&\ddots&\ddots&\ddots& &\vdots\\\vdots& & &\ddots&\ddots&\vdots\\\vdots& & &\ddots&\ddots&0\\0&\ldots&\ldots&\ldots&0&-1\end{pmatrix}$. $\left(A+I_n\right)^3=E_{1,2}^3=0$.
2) Si par l’absurdre, la matrice $A$ est diagonalisable, alors son polynôme minimal $\mu_A$ est scinsé sur $\mathbb{R}$ à racines simples. D’autre part, $\mu_A$ est un diviseur unitaire du polynôme annulateur $(X+1)^3$. Donc, $\mu_A=X+1$ puis $A=-I_n$. Mais ceci est faux car $A$ n’est pas une matrice scalaire. Donc, la matrice $A$ n’est pas diagonalisable.
3) Soit $p\in\mathbb{N}$. La division euclidienne de $X^p$ par $(X+1)^3$ s’écrit $X^p=(X+1)^3Q_p+a_pX^2+b_pX+c_p$ où $Q_p\in\mathbb{R}[X]$ et $\left(a_p,b_p,c_p\right)\in\mathbb{R}^3$.
On évalue en $-1$ et on obtient $a_p-b_p+c_p=(-1)^p$. On dérive les deux membres, on évalue en $-1$ et on obtient $-2a_p+b_p=p(-1)^{p-1}=-p(-1)^p$ (y compris quand $p=0$). On dérive une deuxième fois, on évalue en $-1$ et on obtient $p(p-1)(-1)^{p-2}=2a_p$. Par suite, $a_p=\dfrac{p(p-1)}{2}(-1)^{p-2}=\dfrac{p(p-1)}{2}(-1)^{p}$, puis $b_p=p(p-1)(-1)^{p}-p(-1)^{p}=(-1)^pp(p-2)$ puis $c_p=(-1)^p-a_p+b_p=(-1)^p\left(-\dfrac{p(p-1)}{2}+p(p-2)+1\right)=(-1)^p\dfrac{-p^2+p+2p^2-4p+2}{2}=(-1)^p\dfrac{p^2-3p+2}{2}=(-1)^p\dfrac{(p-1)(p-2)}{2}$. Donc,
$$X^p=(X+1)^3Q_p+(-1)^p\left(\dfrac{p(p-1)}{2}X^2+p(p-2)X+\dfrac{(p-1)(p-2)}{2}\right).$$
En évaluant en $A$, on obtient
$$\forall p\in\mathbb{N},\;A^p=(-1)^p\left(\dfrac{p(p-1)}{2}A^2+p(p-2)A+\dfrac{(p-1)(p-2)}{2}I_n\right).$$
Commentaires et/ou rappels de cours
$\bullet$ Théorème. Soit $A\in\mathscr{M}_n\mathbb{K}$. $A$ est diagonalisable dans $\mathscr{M}_n(\mathbb{K})$ si et seulement si son polynôme minimal est scindé sur $\mathbb{K}$ à racines simples.
$\bullet$ Autre solution pour la question 3). Soit $p\in\mathbb{N}$.
\begin{align*}A^p&=\left(\left(A+I_n\right)+\left(-I_n\right)\right)^p =\left(-I_n\right)^p+p\left(A+I_3\right)\left(-I_n\right)^{p-1}+\dfrac{p(p-1)}{2}\left(A+I_n\right)^2\left(-I_n\right)^{p-2}\\&=(-1)^p\left(I_n-p\left(A+I_n\right)+\dfrac{p(p-1)}{2}\left(A+I_n\right)^2\right)\\&=(-1)^p\left(\dfrac{p(p-1)}{2}A^2+p(p-2)A+\dfrac{(p-1)(p-2)}{2}I_n\right).\end{align*}
Exercice – Difficulté 2 – Thème : matrices. Titre : une équation du second degré matricielle entre autres.
Enoncé (Mines-Télécom)
1) Soit $A\in\mathscr{M}_3(\mathbb{R}$ telle que $A\neq0$ et $A^2=0$.
$\quad$a) Montrer que $\text{dim}(\text{Ker}(A))=2$.
$\quad$b) Montrer que $A$ est semblable à la matrice $\begin{pmatrix}0&0&0\\1&0&0\\0&0&0\end{pmatrix}$.
2) Dans $\mathscr{M}_2(\mathbb{R})$, on considère l’équation $M^2+M=A$, d’inconnue $M$, où $A=\begin{pmatrix}1&1\\1&1\end{pmatrix}$.
$\quad$a) Si $M$ est solution, montrer que $M$ est diagonalisable.
$\quad$b) Résoudre l’équation
Corrigé
1) Notons $f$ l’endomorphisme de $\mathbb{R}^3$ canoniquement associé à $f$. Alors, $f\neq 0$ et $f^2=0$.
a) Puisque $f\circ f=0$, on a $\text{Im}(f)\subset\text{Ker}(f)$ et en particulier $\text{dim}(\text{Im}(f))\leqslant\text{dim}(\text{Ker}(f))$. D’autre part, d’après le théorème du rang, $\text{dim}(\text{Im}(f))=3-\text{dim}(\text{Ker}(f))$. Par suite, $3-\text{dim}(\text{Ker}(f))\leqslant\text{dim}(\text{Ker}(f))$ puis $\text{dim}(\text{Ker}(f))\geqslant\dfrac{3}{2}$ puis $\text{dim}(\text{Ker}(f))\in\{2,3\}$. Enfin, $f\neq0$ et donc $\text{dim}(\text{Ker}(f))\neq3$. Tout ceci montre que
$$\text{dim}(\text{Ker}(f))=2.$$
b) D’après le théorème du rang, $\text{dim}(\text{Im}(f))=1$. $\text{Im}(f)$ est donc une droite vectorielle contenue dans le plan vectoriel $\text{Ker}(f)$.
Soit $e_1\in E\setminus\text{Ker}(f)$ puis $e_2=f\left(e_1\right)$. $e_2$ est un vecteur non nul de $\text{Im}(f)$ et donc de $\text{Ker}(f)$. On complète la famille libre $\left(e_2\right)$ en $\left(e_2,e_3\right)$ une base de $\text{Ker}(f)$ puis on note $\mathscr{B}=\left(e_1,e_2,e_3\right)$.
Vérifions que $\mathscr{B}$ est une base de $\mathbb{R}^3$. Il suffit pour cela de montrer que $\mathscr{B}$ est une famille libre. Soit $(a,b,c)\in\mathbb{R}^3$ tel que $ae_1+be_2+ce_3=0$. En prenant l’image des deux membres par $f$, on obtient $ae_2=0$ puis $a=0$ car $e_2\neq0$. Il reste $be_2+ce_3=0$ et donc $b=c=0$ car la famille $\left(e_2,e_3\right)$ est libre. Finalement, $\mathscr{B}$ est une base de $\mathbb{R}^3$. Dans cette base, la matrice de $f$ s’écrit
$$\text{Mat}_{\mathscr{B}}(f)=\begin{pmatrix}0&0&0\\1&0&0\\0&0&0\end{pmatrix}=M.$$
Enfin, si $P$ est la matrice de passage de la base canonique à la base $\mathscr{B}$, les formules de changement de base fournissent $A=PMP^{-1}$. La matrice $A$ est donc semblable à la magtrice $M$.
2) Soient $u_1=\begin{pmatrix}1\\-1\end{pmatrix}$ et $u_2=\begin{pmatrix}1\\1\end{pmatrix}$. La famille $\left(u_1,u_2\right)$ est libre et donc une base de $\mathscr{M}_{2,1}(\mathbb{R})$ et de plus, $Au_1=0$ et $Au_2=2u_2$. La matrice $A$ est donc diagonalisable et de plus, $A=PDP^{-1}$ où $D=\text{diag}(0,2)$, $P=\begin{pmatrix}1&1\\-1&1\end{pmatrix}$ et $P^{-1}=\dfrac{1}{2}\begin{pmatrix}1&-1\\1&1\end{pmatrix}$.
a) Soit alors $M\in\mathscr{M}_2(\mathbb{R})$ telle que $M^2+M=A$. Alors $AM=M^3+M^2=MA$. Les matrices $A$ et $M$ commutent. On sait alors que les sous-espaces propres de $A$ sont stables par $M$. On en déduit que $Mu_1\in E_0(A)=\text{Vect}\left(u_1\right)$ et $Mu_2\in E_2(A)=\text{Vect}\left(u_2\right)$. Ceci signifie que $M$ est diagonalisable.
b) Plus précisément, la matrice $P^{-1}MP$ est une certaine matrice diagonale $\Delta=\text{diag}(\lambda,\mu)$. Mais alors,
\begin{align*}M^2+M=A&\Leftrightarrow P^{-1}\left(M^2+M\right)P=P^{-1}AP\Leftrightarrow\left(P^{-1}MP\right)^2+\left(P^{-1}MP\right)=D\Leftrightarrow\Delta^2+\Delta=D^2\\&\Leftrightarrow\left\{\begin{array}{l}\lambda^2+\lambda=0\\\mu^2+\mu=2\end{array}\right.\Leftrightarrow\lambda\{0,-1\}\;\text{et}\;\mu\in\{1,-2\}.\end{align*}
L’équation $\Delta^2+\Delta$ a donc $4$ solutions, à savoir $\Delta_1=\text{diag}(0,1)$, $\Delta_2=\text{diag}(0,-2)$, $\Delta_3=\text{diag}(-1,1)$ et $\Delta_4=\text{diag}(-1,-2)$. Mais alors, l’équation proposée a $4$ solutions à savoir
$M_1=P\Delta_1P^{-1}=\dfrac{1}{2}\begin{pmatrix}1&1\\-1&1\end{pmatrix}\begin{pmatrix}0&0\\0&1\end{pmatrix}\begin{pmatrix}1&-1\\1&1\end{pmatrix}=\dfrac{1}{2}\begin{pmatrix}0&1\\0&1\end{pmatrix}\begin{pmatrix}1&-1\\1&1\end{pmatrix}=\dfrac{1}{2}\begin{pmatrix}1&1\\1&1\end{pmatrix}=\dfrac{1}{2}A$,
$M_2=P\Delta_2P^{-1}=\dfrac{1}{2}\begin{pmatrix}1&1\\-1&1\end{pmatrix}\begin{pmatrix}0&0\\0&-2\end{pmatrix}\begin{pmatrix}1&-1\\1&1\end{pmatrix}=\dfrac{1}{2}\begin{pmatrix}0&-2\\0&-2\end{pmatrix}\begin{pmatrix}1&-1\\1&1\end{pmatrix}=\dfrac{1}{2}\begin{pmatrix}-2&-2\\-2&-2\end{pmatrix}=-A$,
$M_3=P\Delta_3P^{-1}=\dfrac{1}{2}\begin{pmatrix}1&1\\-1&1\end{pmatrix}\begin{pmatrix}-1&0\\0&1\end{pmatrix}\begin{pmatrix}1&-1\\1&1\end{pmatrix}=\dfrac{1}{2}\begin{pmatrix}-1&1\\1&1\end{pmatrix}\begin{pmatrix}1&-1\\1&1\end{pmatrix}=\dfrac{1}{2}\begin{pmatrix}0&2\\2&0\end{pmatrix}=\begin{pmatrix}0&1\\1&0\end{pmatrix}=A-I_2$,
$M_4=P\Delta_4P^{-1}=\dfrac{1}{2}\begin{pmatrix}1&1\\-1&1\end{pmatrix}\begin{pmatrix}-1&0\\0&-2\end{pmatrix}\begin{pmatrix}1&-1\\1&1\end{pmatrix}=\dfrac{1}{2}\begin{pmatrix}-1&-2\\1&-2\end{pmatrix}\begin{pmatrix}1&-1\\1&1\end{pmatrix}=\dfrac{1}{2}\begin{pmatrix}-3&-1\\-1&-3\end{pmatrix}=-\dfrac{1}{2}A-I_2$.
Commentaires et/ou rappels de cours
$\bullet$ Si $f$ et $g$ sont deux endomorphismes, alors $f\circ g=0\Leftrightarrow\text{Im}(g)\subset\text{Ker}(f)$ car
$$f\circ g=0\Leftrightarrow\forall x\in E,\;f(g(x))=0\Leftrightarrow\forall x\in E,\;g(x)\in\text{Ker}(f)\Leftrightarrow\text{Im}(g)\subset\text{Ker}(f).$$
$\bullet$ Deux polynômes en une matrice $M$ commutent et en particulier, $M$ et un polynôme en $M$ commutent. Donc, si $M$ est solution d’une équation du type $P(M)=A$, alors $M$ et $A$ commutent.
