Exercices d’oraux type CCINP

retour vers la page des exercices d’oraux 

ALGEBRE LINEAIRE

Exercice – Difficulté 3 – Thème : algèbre linéaire. Titre : calcul d’un déterminant.

Enoncé (CCINP)

On pose $d_0=1$, $d_1=\dfrac{1}{2}$ et

$$\forall n\geqslant2,\;d_n=\begin{vmatrix}\frac{n}{n+1}&\sqrt{\frac{1}{n+1}}&0&\ldots&0\\-\sqrt{\frac{1}{n+1}}&\frac{n-1}{n}&\sqrt{\frac{1}{n}}&\ddots&\vdots\\0&-\sqrt{\frac{1}{n}}&\ddots&\ddots&0\\ \vdots&\ddots&\ddots&\ddots&\sqrt{\frac{1}{3}}\\0&\ldots&0&-\sqrt{\frac{1}{3}}&\frac{1}{2}\end{vmatrix}.$$

1) Calculer $d_2$ et $d_3$.

2) Montrer que :  $\forall n\geqslant2$, $(n+1)d_n=nd_{n-1}+d_{n-2}$.

3) En déduire une information sur le rayon de convergence de $\displaystyle\sum d_nx^{n+1}$.

4) On pose $f(x)=\displaystyle\sum_{n=0}^{+\infty}d_nx^{n+1}$. On admet (pour l’oral, sinon démontrer que) $f$ vérifie l’équation :

$$(E)~:~(1-x)f'(x)-xf(x)=1.$$

Montrer que $f(x)=\dfrac{1-e^{-x}}{1-x}$. En déduire une expression de $d_n$ en fonction de $n$.

Corrigé

1) $d_2=\begin{vmatrix}\dfrac{2}{3}&\sqrt{\dfrac{1}{3}}\\-\sqrt{\dfrac{1}{3}}&\dfrac{1}{2}\end{vmatrix}=\dfrac{1}{3}+\dfrac{1}{3}=\dfrac{2}{3}$. puis en développant suivant la première colonne

$$d_3=\begin{vmatrix}\dfrac{3}{4}&\dfrac{1}{2}&0\\-\dfrac{1}{2}&\dfrac{2}{3}&\sqrt{\dfrac{1}{3}}\\0&-\sqrt{\dfrac{1}{3}}&\dfrac{1}{2}\end{vmatrix}=\dfrac{3}{4}d_2+\dfrac{1}{2}\times\dfrac{1}{4}=\dfrac{1}{2}+\dfrac{1}{8}=\dfrac{5}{8}.$$

2) $d_{2-2}+2d_{2-1}=1+1=2=3\times\dfrac{2}{3}=3d_2$ puis $d_{3-2}+3d_{3-1}=\dfrac{1}{2}+3\times\dfrac{2}{3}=\dfrac{5}{2}=4\times\dfrac{5}{8}=4d_3$.

Soit $n\geqslant 4$. En développant $d_n$ suivant sa première colonne, on obtient $d_n=\dfrac{n}{n+1}d_{n-1}+\sqrt{\dfrac{1}{n+1}}\Delta_{n-1}$ où $\Delta_{n-1}$ est le déterminant de format $n-1$ obtenu en supprimant dans $d_n$ la première colonne et la deuxième ligne. En développant $\Delta_{n-1}$ suivant sa première ligne, on obtient $\Delta_{n-1}=\sqrt{\dfrac{1}{n+1}}d_{n-2}$ et donc, $d_n=\dfrac{n}{n+1}d_{n-1}+\dfrac{1}{n+1}d_{n-2}$ puis $(n+1)d_n=nd_{n-1}+d_{n-2}$. On a montré que

$$\forall n\geqslant2,\;(n+1)d_n=nd_{n-1}+d_{n-2}.$$

3) Montrons par récurrence, que pour tout $n\in\mathbb{N}$, $0<d_n\leqslant1$.

$\quad\bullet$ Le résultat est vrai quand $n=0$ et $n=1$.

$\quad\bullet$ Soit $n\in\mathbb{N}$. Supposons que $d_n\in]0,1]$ et $d_{n+1}\in]0,1]$. Alors,

$$0<d_{n+2}=\dfrac{n+2}{n+3}d_{n+1}+\dfrac{1}{n+3}d_n\leqslant\dfrac{n+2}{n+3}+\dfrac{1}{n+3}=1.$$

On a montré par récurrence, que pour tout $n\in\mathbb{N}$, $0<d_n\leqslant1$.

On en déduit encore que $R_d\geqslant1$.

4) Pour tout $x\in]-1,1[$ et tout $n\geqslant2$, $(n+1)d_nx^{n}=nd_{n-1}x^n+d_{n-2}x_n$ puis, en sommant, pour tout $x\in]-1,1[$,

$$\displaystyle\sum_{n=2}^{+\infty}(n+1)d_nx^{n}=\displaystyle\sum_{n=2}^{+\infty}nd_{n-1}x^n+\displaystyle\sum_{n=2}^{+\infty}d_{n-2}x^n\quad(\star).$$

La somme d’une série entière est dérivable sur son intervalle ouvert de convergence et sa dérivée s’obtient par dérivation terme à terme. Donc, pour $x\in]-1,1[$,

$\displaystyle\sum_{n=2}^{+\infty}(n+1)d_nx^{n}=\left(\displaystyle\sum_{n=2}^{+\infty}d_nx^{n}\right)’=\left(f(x)-d_0x-d_1x^2\right)'(x)=f'(x)-1-x$

$\displaystyle\sum_{n=2}^{+\infty}nd_{n-1}x^n=\displaystyle\sum_{n=1}^{+\infty}(n+1)d_{n}x^{n+1}=x\left(\displaystyle\sum_{n=1}^{+\infty}d_nx^{n+1}\right)'(x)=x(f'(x)-1)$.

$\displaystyle\sum_{n=2}^{+\infty}d_{n-2}x_n=x\displaystyle\sum_{n=2}^{+\infty}d_{n-2}x^{n-1}=x\displaystyle\sum_{n=0}^{+\infty}d_{n}x^{n+1}=xf(x)$.

$(r\star)$ fournit alors pour tout $x\in]-1,1[$,

$$f'(x)-1-x=x\left(f'(x)-1\right))+xf(x)$$

et donc

$$\forall x\in]-1,1[,\;(1-x)f'(x)-xf(x)=1.$$

Ensuite, $\displaystyle\int-\dfrac{x}{1-x}\;dx=\displaystyle\int\dfrac{1-x-1}{1-x}\;dx=\displaystyle\int\left(1-\dfrac{1}{1-x}\right)\;dx=x+\ln|1-x|+C$ et donc

\begin{align*}\forall x\in]-1,1[,\;(1-x)f'(x)-xf(x)=1&\Rightarrow\forall x\in]-1,1[,\;f'(x)-\dfrac{x}{1-x}f(x)=\dfrac{1}{1-x}\Rightarrow\forall x\in]-1,1[,\;e^{x+\ln(1-x)}f'(x)-\dfrac{x}{1-x}e^{x+\ln(1-x)}f(x)=\dfrac{e^{x+\ln(1-x)}}{1-x}\\&\Rightarrow\forall x\in]-1,1[,\;\left((1-x)e^{x}f\right)'(x)=e^x\\&\Rightarrow\exists C\in\mathbb{R}/\;\forall x\in]-1,1[$,\;(1-x)e^xf(x)=e^x+C\Rightarrow\exists C\in\mathbb{R}/\;\forall x\in]-1,1[$,\;f(x)=\dfrac{1+Ce^{-x}}{1-x}.\end{align*}

L’égalité $f(0)=0$ fournit encore $1+C=0$ puis $C=-1$. Finalement,

$$\forall x\in]-1,1[,\;f(x)=\dfrac{1-e^{-x}}{1-x}.$$

On en déduit encore que pour tout $x\in]-1,1[$,

\begin{align*}f(x)&=\left(1-\displaystyle\sum_{n=0}^{+\infty}\dfrac{(-1)^n}{n!}x^n\right)\left(\displaystyle\sum_{n=0}^{+\infty}x^n\right)=\left(\displaystyle\sum_{n=1}^{+\infty}\dfrac{(-1)^{n-1}}{n!}x^n\right)\left(\displaystyle\sum_{n=0}^{+\infty}x^n\right)\\&=\displaystyle\sum_{n=1}^{+\infty}\left(\displaystyle\sum_{k=1}^{n}\dfrac{(-1)^{k-1}}{k!}\right)x^n\;(\text{produit de Cauchy de deux séries entières dans l’intervalle ouvert de convergence})\\&=\displaystyle\sum_{n=0}^{+\infty}\left(\displaystyle\sum_{k=1}^{n+1}\dfrac{(-1)^{k-1}}{k!}\right)x^{n+1}.\end{align*}

Par unicité des coefficients d’une série entière, on obtient finalement

$$\forall n\in\mathbb{N},\;d_n=\displaystyle\sum_{k=1}^{n+1}\dfrac{(-1)^{k-1}}{k!}.$$

Commentaires et/ou rappels de cours

Théorème. Soient $\left(a_n\right)_{n\in\mathbb{N}}$ et $\left(b_n\right)_{n\in\mathbb{N}}$ deux suites complexes. Si il existe $n_0\in\mathbb{N}$ tel que pour tout $n\geqslant n_0$, $\left|a_n\right|\leqslant\left|b_n\right|$, alors $R_a\geqslant R_b$.

Dans le cas de deux suites réelles, il faut bien prendre garde à ne pas oublier les valeurs absolues (ou à bien préciser que les suites sont réelles positives si c’est le cas). Par exemple, si $a_n=-1$ et $b_n=\dfrac{1}{n!}$, on a pour tout $n\in\mathbb{N}$, $a_n\leqslant b_n$. mais on n’a pas $R_a\geqslant R_b$ car $R_a=1$ et $R_b=+\infty$.

Exercice – Difficulté 2 – Thème : réduction. Titre : trigonaliser une matrice carrée.

Enoncé (CCINP)

Soit $A=\begin{pmatrix}1&0&0\\2&3&1\\4&-4&-1\end{pmatrix}$.

1) Trouver le polynôme caractéristique et les valeurs propres de $A$.

2) $A$ est-elle diagonalisable dans $\mathscr{M}_n(\mathbb{R})$ ? dans $\mathscr{M}_n(\mathbb{C})$ ?

3) Trouver une matrice triangulaire $T$ semblable à $A$.

4) Quelle est la limite quand $n$ tend vers $+\infty$ de $\dfrac{1}{n!}A^n$ ?

Corrigé

1) Un calcul par blocs fournit

$$\text{det}(A)=\begin{vmatrix}X-1&0&0\\-2&X-3&-1\\-4&4&X+1\end{vmatrix}=(X-1)\begin{vmatrix}X-3&-1\\4&X+1\end{vmatrix}=(X-1)\left(X^2-2X+1\right)=(X-1)^3.$$

La famille des valeurs propres de $A$ est donc $(1,1,1)$.

2) Si $A$ est diagonalisable dans $\mathscr{M}_3(\mathbb{K})$, $\mathbb{K}=\mathbb{R}$ ou $\mathbb{K}=\mathbb{C}$, $A$ est semblable dans $\mathscr{M}_3(\mathbb{K})$ à $\text{diag}(1,1,1)=I_3$ et donc $A$ est égale à $I_3$. Ceci est faux et donc $A$ n’est pas diagonalisable ni dans $\mathscr{M}_3(\mathbb{R})$, ni dans $\mathscr{M}_3(\mathbb{C})$.

3) On note $\left(e_1,e_2,e_3\right)$ la base canonique de $\mathscr{M}_3(\mathbb{R})$. Soit $X=\begin{pmatrix}x\\y\\z\end{pmatrix}\in\mathscr{M}_3(\mathbb{R})$.

\begin{align*}X\in E_1(A)&\Leftrightarrow\left(A-I_3\right)X=0\Leftrightarrow\begin{pmatrix}0&0&0\\2&2&1\\4&-4&-2\end{pmatrix}\begin{pmatrix}x\\y\\z\end{pmatrix}=\begin{pmatrix}0\\0\\0\end{pmatrix}\\&\Leftrightarrow\left\{\begin{array}{l}2x+2y+z=0\\4x-4y-2z=0\end{array}\right.\Leftrightarrow\left\{\begin{array}{l}z=-2x-2y\\2x-2y-(-2x-2y)=0\end{array}\right.\Leftrightarrow\left\{\begin{array}{l}z=-2x-2y\\x=0\end{array}\right.\\&\Leftrightarrow\left\{\begin{array}{l}x=0\\z=-2y\end{array}\right..\end{align*}

Donc, $E_1(A)=\text{Vect}\left(u_1\right)$ où $u_1=\begin{pmatrix}0\\1\\-2\end{pmatrix}$. En particulier, $E_1(A)$ est une droite vectorielle.

Cherchons maintenant $u_2$ tel que $Au_2=u_1+u_2$ ou encore tel que $\left(A-I_3\right)u_2=u_1$.

Soit $X=\begin{pmatrix}x\\y\\z\end{pmatrix}\in\mathscr{M}_3(\mathbb{R})$.

\begin{align*}X\in E_1(A)&\Leftrightarrow\left(A-I_3\right)X=u_1\Leftrightarrow\begin{pmatrix}0&0&0\\2&2&1\\4&-4&-2\end{pmatrix}\begin{pmatrix}x\\y\\z\end{pmatrix}=\begin{pmatrix}0\\1\\-2\end{pmatrix}\\&\Leftrightarrow\left\{\begin{array}{l}2x+2y+z=1\\4x-4y-2z=-2\end{array}\right.\Leftrightarrow\left\{\begin{array}{l}z=-2x-2y+1\\2x-2y-(-2x-2y+1)=-1\end{array}\right.\Leftrightarrow\left\{\begin{array}{l}z=-2x-2y+1\\x=0\end{array}\right.\\&\Leftrightarrow\left\{\begin{array}{l}x=0\\z=-2y+1\end{array}\right..\end{align*}

Le vecteur $u_2=\begin{pmatrix}0\\0\\1\end{pmatrix}=e_3$ convient. On prend alors $u_3=e_1$. La matrice de la famille $\left(u_1,u_2,u_3\right)$ dans la base $\left(e_1,e_2,e_3\right)$ est

$$P=\begin{pmatrix}0&0&1\\1&0&0\\-2&1&0\end{pmatrix}.$$

En développant suivant la première ligne, on obtient $\text{det}(P)=1\times(1-0)=1\neq0$. La matrice $P$ est inversible puis $P\in GL_3(\mathbb{R})$. De plus, $e_1=u_3$, $e_3=u_2$ et enfin, $u_1=e_2-2e_3$ fournit $e_2=u_1+2u_2$. On en déduit que

$$P^{-1}=\begin{pmatrix}0&1&0\\0&2&1\\1&0&0\end{pmatrix}.$$

Mais alors,

\begin{align*}P^{-1}AP&=\begin{pmatrix}0&1&0\\0&2&1\\1&0&0\end{pmatrix}\begin{pmatrix}1&0&0\\2&3&1\\4&-4&-1\end{pmatrix}\begin{pmatrix}0&0&1\\1&0&0\\-2&1&0\end{pmatrix}\\&=\begin{pmatrix}2&3&1\\8&1&1\\1&0&0\end{pmatrix}\begin{pmatrix}0&0&1\\1&0&0\\-2&1&0\end{pmatrix}\\&=\begin{pmatrix}1&1&2\\0&1&8\\0&0&1\end{pmatrix}.\end{align*}

La matrice $T=\begin{pmatrix}1&1&2\\0&1&8\\0&0&1\end{pmatrix}$ est une matrice triangulaire semblable à $A$.

4) On sait que la série matricielle de terme général $\dfrac{1}{n!}A^n$, $n\in\mathbb{N}$, converge (et a pour somme $\text{exp}(A)$). Donc, $\displaystyle\lim_{n\rightarrow+\infty}\dfrac{1}{n!}A^n=0$.

Pour le principe, calculons $A^n$ pour $n\in\mathbb{N}$. On peut écrire $T=I_3+N$ où $N=\begin{pmatrix}0&1&2\\0&0&8\\0&0&0\end{pmatrix}$. On a

$$N^2=\begin{pmatrix}0&1&2\\0&0&8\\0&0&0\end{pmatrix}\begin{pmatrix}0&1&2\\0&0&8\\0&0&0\end{pmatrix}=\begin{pmatrix}0&0&8\\0&0&0\\0&0&0\end{pmatrix}$$

puis $N^3=0$. Puisque les matrice $I_3$ et $N$ commutent, la formule du binôme de Newton fournit, pour tout $n\in\mathbb{N}$ (y compris dans le cas où $n\in\{0,1,2\}$),

\begin{align*}T^n&=\left(I_3+N\right)^n=I_3^n+nI_3^{n-1}N+\dfrac{n(n-1)}{2}I_3^{n-1}N^2+\ldots=I_3+nN+\dfrac{n(n-1)}{2}N^2\;(\text{car pour tout}\;k\geqslant3\;N^k=0)\\&=\begin{pmatrix}1&0&0\\0&1&0\\0&0&1\end{pmatrix}+\begin{pmatrix}0&n&2n\\0&0&8n\\0&0&0\end{pmatrix}+\begin{pmatrix}0&0&4n(n-1)\\0&0&0\\0&0&0\end{pmatrix}\\&=\begin{pmatrix}1&n&2n(2n-1)\\0&1&8n\\0&0&1\end{pmatrix}\end{align*}

Mais alors, pour tout $n\in\mathbb{N}$,

\begin{align*}A^n&=\left(PTP^{-1}\right)^n=PT^nP^{-1}\\&=\begin{pmatrix}0&0&1\\1&0&0\\-2&1&0\end{pmatrix}\begin{pmatrix}1&n&2n(2n-1)\\0&1&8n\\0&0&1\end{pmatrix}\begin{pmatrix}0&1&0\\0&2&1\\1&0&0\end{pmatrix}=\begin{pmatrix}0&0&1\\1&n&2n(2n-1)\\-2&-2n+1&4n(-2n+3)\end{pmatrix}\begin{pmatrix}0&1&0\\0&2&1\\1&0&0\end{pmatrix}\\&=\begin{pmatrix}1&0&0\\2n(2n-1)&2n+1&n\\4n(-2n+3)&-4n&-2n+1\end{pmatrix}.\end{align*}

Bien sûr, on retrouve $\displaystyle\lim_{n\rightarrow+\infty}\dfrac{1}{n!}A^n$.

Commentaires et/ou rappels de cours

$\bullet$ Le programme officiel ne fournit pas à proprement parler de technique de trigonalisation.

$\bullet$ Pour une matrice de format $3$, les cas où une matrice $A$ est trigonalisable sans être diagonalisable sont peu nombreux :

$\quad$ 1er cas. Si $\chi_A=(X-\lambda)(X-\mu)^2$ avec $\lambda\neq \mu$ et $E_\mu(A)$ est une droite vectorielle. Dans ce cas, on prend $u_1\in E_\lambda(A)\setminus\{0\}$, $u_2\in E_\mu(A)\setminus\{0\}$ et $u_3$ quelconque pas dans $\text{Vect}\left(u_1,u_2\right)$. La matrice $P$ $\quad\text{ainsi}$ définie vérifie $P^{-1}AP=T\in\mathscr{T}_3(\mathbb{K})$.

$\quad$ 2ème cas. Si $\chi_A=(X-\lambda)^3$ et $E_\lambda(A)$ est un plan vectoriel. Dans ce cas, on prend $\left(u_1,u_2\right)$ base de $E_\lambda(A)$ puis $u_3$ quelconque pas dans $\text{Vect}\left(u_1,u_2\right)$. La matrice $P$ ainsi définie vérifie $\quad P^{-1}AP=T\in\mathscr{T}_3(\mathbb{K})$.

$\quad$ 3ème cas. Si $\chi_A=(X-\lambda)^3$ et $E_\lambda(A)$ est une droite vectorielle. Dans ce cas, on prend $u_1\in E_\lambda(A)\setminus\{0\}$ puis on cherche un vecteur $u_2$ tel que $Au_2=\lambda u_2+v$ où $v\in\text{Vect}\left(u_1\right)$ ou encore tel que $\quad\left(A-\lambda I_3\right)u_2\in\text{Vect}\left(u_1\right)$ puis on prend $u_3$ quelconque pas dans $\text{Vect}\left(u_1,u_2\right)$.

Dans les deux derniers cas, $P^{-1}AP=T=\lambda I_3+N$ avec $N$ nilpotente et $\lambda I_3$ et $N$ commutent. On peut donc appliquer la formule du binôme de Newton pour calculer $T^n$.

Dans le premier cas, si on a choisi $u_3$ quelconque, on obtient $T=D+N$ où $D=\text{diag}(\lambda,\mu,\mu)$ et peut-être $DN\neq ND$. Dans ce cas, la trigonalisation ne sert à rien pour calculer $T^n$.

 

Exercice – Difficulté 3 – Thème : espaces euclidiens. Titre : étude d’un endomorphisme d’un espace euclidien.

Enoncé (CCINP)

On munit $\mathbb{R}^n$ du prtoduit scalaire canonique. Soit $(u,v)\in\left(\mathbb{R}^n\setminus\{0\}\right)^2$. Soit $u\otimes v$ l’endomorphisme de $\mathbb{R}^n$ défini par :

$$\forall x\in\mathbb{R}^n,\;u\otimes v(x)=\langle x,u\rangle v.$$

1) Déterminer le rang de $u\otimes v$.

2) En déduire les valeurs propres de $u\otimes v$.

3) $u\otimes v$ est-t-il diagonalisable ?

4) Calculer $(u\otimes v)^2$ et retrouver la condition obtenue à la question précédente.

5) Soit $g\in\mathscr{L}\left(\mathbb{R}^n\right)$. Montrer que $g$ et $u\otimes v$ commutent si et seulement s’il existe $\alpha\in\mathbb{R}$ tel que $g(v)=\alpha v$ et $g^*(u)=\alpha u$ (où $g^*$ est l’adjoint de $g$).

Corrigé

1) $\text{Im}(u\otimes v)\subset\text{Vect}(v)$. Donc, $\text{rg}(u\otimes v)\leqslant1$. $(u\otimes v)(u)=\|u\|^2v\neq 0$ puis $u\otimes v\neq0$. Donc, $\text{rg}(u\otimes v)\geqslant1$ et finalement

$$\text{rg}(u\otimes v)=1.$$

2) D’après le théorème du rang, $\text{dim}(\text{Ker}(u\otimes v))=n-1$ puis $0$ est valeur propre de $u\otimes v$ d’ordre au moins $n-1$. La dernière valeur propre $\lambda$ de $u\otimes v$  est fournie par la trace de $u\otimes v$ : $\lambda=\lambda+0+\ldots+0=\text{Tr}(u\otimes v)$. Pour déterminer la trace de $u\otimes v$, on considère une base orthonormée $\mathscr{B}=\left(e_1,e_2,\ldots,e_n\right)$ de premier vecteur $e_1=\dfrac{1}{\|u\|}u$. $\mathscr{B}$ vérifie $\text{Vect}\left(e_2,\ldots,e_n\right)=e_1^\bot=u^\bot$. Par suite, pour tout $x\in\text{Vect}\left(e_2,\ldots,e_n\right)$, $(u\otimes v)(x)=\langle x,u\rangle v=0$. La trace de $u\otimes v$ est égale au coefficient ligne 1, colonne 1, de la matrice de $u\otimes v$ dans $\mathscr{B}$ et est donc la première coordonnée dans $\mathscr{B}$ de $(u\otimes v)\left(e_1\right)$. Or

\begin{align*}(u\otimes v)\left(e_1\right)&=\dfrac{1}{\|u\|}\langle u,u\rangle v\\&=\|u\|\left(\langle v,e_1\rangle e_1+\displaystyle\sum_{i=2}^n\langle v,e_i\rangle e_i\right)\;(\text{car}\;\mathscr{B}\;\text{est orthonormée})\\&=\langle u,v\rangle e_1+\displaystyle\sum_{i=2}^n\|u\|\langle v,e_i\rangle e_i.\end{align*}

Donc, $\text{Tr}(u\otimes v)=\langle u,v\rangle$ puis

$$\text{Sp}(u\otimes v)=(\langle u,v\rangle,\underbrace{0\ldots,0}_{n-1}).$$

3) $u\otimes v$ est diagonalisable si et seulement si $\chi_{u\otimes v}$ est scindé sur $\mathbb{R}$ (ce qui est le cas) et l’ordre de multiplicité de chaque valeur propre est égale à la dimension du sous-espace propre correspondant. On rappelle alors que $\text{dim}\left(E_0(u\otimes v)\right)=\text{dim}(\text{Ker}(u\otimes v))=n-1$.

Donc, si $\langle u,v\rangle=0$, $u\otimes v$ n’est pas diagonalisable car l’ordre de $0$, à savoir $n$, n’est pas $\text{dim}\left(E_0(u\otimes v)\right)$ et si $\langle u,v\rangle\neq 0$, $u\otimes v$ est diagonalisable (car le sous-espace propre associé à une valeur propre simple est toujours une droite vectorielle). En résumé,

$$u\otimes v\;\text{est diagonalisable si et seulement si}\;\langle u,v\rangle\neq0.$$

4) Pour tout $x\in \mathbb{R}^n$,

$$(u\otimes v)^2(x)=(u\otimes v)(\langle x,u\rangle v)=\langle x,u\rangle(u\otimes v)(v)=\langle x,u\rangle\langle u,v\rangle v=\langle u,v\rangle(u\otimes v)(x).$$

Par suite, $(u\otimes v)^2=\langle u,v\rangle u\otimes v$. Mais alors, le polynôme $P=X(X-\langle u,v\rangle)$ est annulateur de $u\otimes v$.

Si $\langle u,v\rangle\neq0$, $P$ est un polynôme scindé sur $\mathbb{R}$ à racines simples et annulateur de $u\otimes v$. Dans ce cas, $u\otimes v$ est diagonalisable.

Si $\langle u,v\rangle=0$, alors $P=X^2$ est annulateur de $u\otimes v$ puis le polynôme minimal $\mu_{u\otimes v}$ de $u\otimes v$, qui est un diviseur unitaire et non constant de $P$, est $X$ ou $X^2$. Mais $u\otimes v\neq0$ et donc $\mu_{u\otimes v}=X^2$. Puisque $\mu_{u\otimes v}$ n’est pas à racines simples, $u\otimes v$ n’est pas diagonalisable.

5) Soit $g\in\mathscr{L}\left(\mathbb{R}^n\right)$ tel que $g\circ(u\otimes v)=(u\otimes v)\circ g$. Pour tout $x\in\mathbb{R}^n$,

$$(g\circ (u\otimes v))(x)=g(\langle x,u\rangle v)=\langle x,u\rangle g(v)$$

et

$$((u\otimes v)\circ g)(x)=\langle g(x),u\rangle v.$$

Puisque $g\circ(u\otimes v)=(u\otimes v)\circ g$, on a en particulier $(g\circ(u\otimes v))(u)=((u\otimes v)\circ g)(u)$ ce qui fournit $g(v)=\dfrac{\langle g(u),u\rangle}{\|u\|^2}v$. Ainsi, il existe $\alpha\in\mathbb{R}$ tel que $g(v)=\alpha v$. Ensuite, pour tout $x\in\mathbb{R}^n$, $\alpha\langle x,u\rangle v=\langle g(x),u\rangle v=\langle x,g^*(u)\rangle v$ puis, en tenant compte de $v\neq 0$,

$$\forall x\in\mathbb{R}^n,\;\langle x,g^*(u)-\alpha u\rangle=0.$$

Donc, $g^*(u)-\alpha u\in\left(\mathbb{R}^n\right)^\bot=0$ puis $g^*(u)=\alpha u$.

Réciproquement, supposons qu’il existe $\alpha\in\mathbb{R}$ tel que $g(v)=\alpha v$ et $g^*(u)=\alpha u$. Alors, pour tout $x\in\mathbb{R}^n$,

$$((u\otimes v)\circ g)(x)=\langle g(x),u\rangle v=\langle x,g^*(u)\rangle v=\alpha \langle x,u\rangle v=\langle x,u\rangle g(v)=(g\circ (u\times v))(x)$$

et donc $(u\otimes v)\circ g=g\circ (u\times v)$.

On a montré que $(u\otimes v)\circ g=g\circ (u\times v)$ si et seulement si il existe $\alpha\in\mathbb{R}$ tel que $g(v)=\alpha v$ et $g^*(u)=\alpha u$.

 

Commentaires et/ou rappels de cours

$\bullet$ Le rang de $u\otimes v$ est la dimension de $\text{Im}(v)=\left\{\langle x,u\rangle v, \;x\in\mathbb{R}^n\right\}$.

$\bullet$ Pour tout valeur propre $\lambda$ d’un endomorphisme $f$, on a $1\leqslant\text{dim}\left(E_\lambda\right)\leqslant o(\lambda)$ l’ordre de multiplicité de $\lambda$ et donc aussi $o(\lambda)\geqslant\text{dim}\left(E_\lambda\right)$.

$\bullet$ Pour tout espace préhilbertien réel $(E,\langle\;,\;\rangle)$, on a $E^\bot\{0\}$ car un vecteur $x$ de $E^\bot$ est en particulier orthogonal à lui-même ($\langle x,x\rangle=0$) et est donc nul (caractère défini d’un produit scalaire). Dans un espace préhilbertien réel $(E,\langle\;,\;\rangle)$, pour montrer que deux vecteurs $x$ et $y$ sont égaux, il est fréquent de vérifier que $x-y$ est orthogonal à tout vecteur.

Exercice – Difficulté 2 – Thème : algèbre linéaire. Titre : un calcul de déterminant.

Enoncé (CCINP)

Soient $x_1$, $\ldots$ , $x_n$, $y_1$, $\ldots$ , $y_n$, $2n$ nombres complexes.

Calculer $\text{det}(A)$ où, pour tout $(i,j)\in\{1,\ldots,n\}^2$, $A_{i,j}=\left\{\begin{array}{l}1+x_iy_i\;\text{si}\;i=j\\x_iy_j\;\text{si}\;i\neq j\end{array}\right.$.

Corrigé

$\text{det}(A)$ est le produit des valeurs propres de $A$, chacune des valeurs propres étant comptée un nombre de fois égal à son ordre de multiplicité.

On suppose $n\geqslant2$. On pose $X=\begin{pmatrix}x_1\\ \vdots\\x_n\end{pmatrix}$. Pour chaque $j\in\{1,\ldots,n\}$, la $j$-ème colonne $C_j$ de la matrice $A-I_n$ est $y_jX$. L’espace engendré par les colonnes de la matrice $A-I_n$ est contenu dans $\text{Vect}(X)$. Donc, $\text{rg}\left(A-I_n\right)\leqslant1$ puis $\text{dim}\left(\text{Ker}\left(A-I_n\right)\right)\geqslant n-1>0$ d’après le théorème du rang. $1$ est valeur propre d’ordre au moins $n-1$. La dernière valeur propre $\lambda$ de $A$ est fournie par la trace de $A$ :

$$\lambda+\underbrace{1+\ldots+1}_{n-1\;\text{termes}}=\text{Tr}(A)=n+\displaystyle\sum_{i=1}^{n}x_iy_i,$$

et donc, $\lambda=1+\displaystyle\sum_{i=1}^{n}x_iy_i$. Finalement,

$$\text{det}(A)=\left(1+\displaystyle\sum_{i=1}^{n}x_iy_i\right)\times 1^{n-1}=1+\displaystyle\sum_{i=1}^{n}x_iy_i,$$

ce qui reste vrai quand $n=1$. Donc,

$$\text{det}(A)=1+\displaystyle\sum_{i=1}^{n}x_iy_i.$$

Commentaires et/ou rappels de cours

La trace (resp. le déterminant) d’une matrice carrée $A$ est égale à la somme (resp. au produit) des valeurs propres de $A$ dans $\mathbb{C}$, chacune étant comptée un nombre de fois égal à son ordre de multiplicité. 

Exercice – Difficulté 3 – Thème : réduction. Titre : matrices à coefficients entiers d’ordre fini.

Enoncé (CCINP)

Soit $A\in\mathscr{M}_2(\mathbb{Z})$ vérifiant : $\exists n\in\mathbb{N}^*/\;A^n=I_2$.

Montrer que $A^{12}=I_2$.

Corrigé

Soit $A\in\mathscr{M}_2(\mathbb{Z})$. On suppose qu’il existe $n\in\mathbb{N}^*$ tel que $A^n=I_2$. Le polynôme $P=X^n-1$ est annulateur de $A$. Le polynôme $P$ est à racines simples dans $\mathbb{C}$ (car sans racine commune avec sa dérivée $P’=nX^{n-1}$) et annulateur de $A$. On en déduit que $A$ est diagonalisable dans $\mathbb{C}$.

Les valeurs propres de $A$ sont à choisir parmi les racines de $P$. Le polynôme admet au plus deux racines réelles à savoir $1$ et $-1$ et les éventuelles racines non réelles de $P$ sont des nombres complexes de module $1$. Puisque $A$ est réelle, il y a $4$ cas possibles pour le spectre de $A$ : (1) $\text{Sp}(A)=(1,1)$, (2) $\text{Sp}(A)=(-1,-1)$, (3) $\text{Sp}(A)=(1,-1)$ (4) $\text{Sp}(A)=\left(e^{i\theta},e^{-i\theta}\right)$ pour un certain réel $\theta\in]0,\pi[$.

Cas (1). Puisque $A$ est diagonalisable, $A$ est semblable dans $\mathscr{M}_2(\mathbb{C}$ à $\text{diag}(1,1)=I_2$ puis $A$ est égale à $I_2$. Dans ce cas, $A^{12}=I_2$.

Cas (2). $A$ est semblable dans $\mathscr{M}_2(\mathbb{C}$ à $\text{diag}(-1,-1)=-I_2$ puis $A$ est égale à $-I_2$. Dans ce cas, $A^2=I_2$ puis $A^{12}=\left(A^2\right)^6=I_2$.

Cas (3). $A$ est semblable dans $\mathscr{M}_2(\mathbb{C}$ à $\text{diag}(1,-1)$ puis $A^2$ est semblable à $\text{diag}\left(1^2,(-1)^2\right)=I_2$. Dans ce cas, $A^2=I_2$ puis $A^{12}=\left(A^2\right)^6=I_2$.

Cas (4). Supposons que $\text{Sp}(A)=\left(e^{i\theta},e^{-i\theta}\right)$ pour un certain réel $\theta\in]0,\pi[$. Puisque $A\in\mathscr{M}_2(\mathbb{Z})$, $\text{Tr}(A)\in\mathbb{Z}$ puis

$$2\cos(\theta)=e^{i\theta}+e^{-i\theta}=\text{Tr}(A)\in[-2,2]\cap\mathbb{Z}=\{-2,-1,0,1,2\},$$

puis $\cos(\theta)\in\left\{-1,-\dfrac{1}{2},0,\dfrac{1}{2},1\right\}$ et donc $\theta\in\left\{\dfrac{\pi}{3},\dfrac{\pi}{2},\dfrac{2\pi}{3}\right\}$ car $\theta\in]0,\pi[$.

– Si $\theta=\dfrac{\pi}{3}$, alors $\text{Sp}(A)=\left(-j,-j^2\right)$ puis $\text{Sp}\left(A^6\right)=\left((-j)^6,\left(-j^2\right)^6\right)=(1,1)$ puis $A^6=I_2$ et donc $A^{12}=\left(A^6\right)^2=I_2$.

– Si $\theta=\dfrac{\pi}{2}$, alors $\text{Sp}(A)=\left(i,-i\right)$ puis $\text{Sp}\left(A^4\right)=\left(i^4,(-i)^4\right)=(1,1)$ puis $A^4=I_2$ et donc $A^{12}=\left(A^4\right)^3=I_2$.

– Si $\theta=\dfrac{2\pi}{3}$, alors $\text{Sp}(A)=\left(j,j^2\right)$ puis $\text{Sp}\left(A^3\right)=\left(j^3,\left(j^2\right)^3\right)=(1,1)$ puis $A^3=I_2$ et donc $A^{12}=\left(A^3\right)^4=I_2$.

On a montré dans tous les cas que $A^{12}=I_2$.

Commentaires et/ou rappels de cours

$\bullet$ Les valeurs propres d’une matrice ou d’un endomorphisme sont à choisir parmi les racines d’un polynôme annulateur.

$\bullet$ La trace d’une matrice carrée est la somme de ses valeurs propres, chacune comptée un nombre de fois égal à son ordre de multiplicité.

$\bullet$ Soit $P$ un polynôme non constant à coefficients rérels. Si un nombre complexe $z$ est racine de $P$, alors $\overline{z}$ est racine de $P$ avec le même ordre de multiplicité.

Exercice – Difficulté 2 – Thème : algèbre linéaire. Titre : hyperplans de l’espace des matrices carrées, stables par produit.

Enoncé (CCINP)

Soient $n\geqslant 2$ puis $H$ un hyperplan de $\mathscr{M}_n(\mathbb{K})$ stable par produit, c’est-à-dire vérifiant : $\forall (M,N)\in H^2$, $MN\in H$.

On suppose que $I_n\notin H$.

1) Donner un supplémentaire de $H$.

2) Montrer que : $\forall M\in\mathscr{M}_n(\mathbb{K})$, $M^2\in H\Rightarrow M\in H$.

3) En déduire une contradiction, puis conclure.

Corrigé

1) Soit $D=\text{Vect}\left(I_n\right)$. Soit $\lambda\in\mathbb{K}$. Soit $\lambda\neq 0$ et $\lambda I_n\in H$, alors $I_n=\dfrac{1}{\lambda}\lambda I_n\in H$ ce qui est faux. Donc $\lambda I_n\in H\Rightarrow \lambda=0$ puis $H\cap D=\{0\}$. D’autre part, $\text{dim}(H)+\text{dim}(D)=n^2-1+1=n^2=\text{dim}\left(\mathscr{M}_n(\mathbb{K})\right)<+\infty$. Finalement,

$$\mathscr{M}_n(\mathbb{K})=H\oplus D.$$

2) Soit $M\in\mathscr{M}_n(\mathbb{K})$. Il existe $(A,\lambda)\in H\times\mathbb{K}$ tel que $M=A+\lambda I_n$. Puisque les matrices $A$ et $\lambda I_n$ commutent,

$$M^2=\left(A+\lambda I_n\right)^2=A^2+2\lambda A+\lambda^2I_n.$$

Puisque $A\in H$, on a encore $A^2\in H$ (car $H$ est stable par produit) puis $A^2+2\lambda A\in H$ (car $H$ est un sous-espace vectoriel de $\mathscr{M}_n(\mathbb{K})$). Puisque $\mathscr{M}_n(\mathbb{K})=H\oplus D$, on a donc $M^2\in H\Rightarrow\lambda^2I_n=0\Rightarrow\lambda=0\Rightarrow M\in H$. On a montré que

$$\forall M\in\mathscr{M}_n(\mathbb{K}),\;M^2\in H\Rightarrow M\in H.$$

3) Soit $(i,j)\in\{1,\ldots,n\}^2$ tel que $i\neq j$ ($(i,j)$ existe car $n\geqslant2$). $E_{i,j}^2=0\in H$ et donc $E_{i,j}\in H$. Ensuite, soit $i\in\{1,\ldots,n\}$. Il existe $j\in\{1,\ldots,n\}$ tel que $i\neq j$. Par suite, $E_{i,i}=E_{i,j}\times E_{j,i}\in H$ car $H$ est stable par produit.

Finalement, $\forall(i,j)\in\{1,\ldots,n\}^2$, $E_{i,j}\in H$. On en déduit encore que $\mathscr{M}_n(\mathbb{K})=\text{Vect}\left(E_{i,j}\right)_{1\leqslant i,j\leqslant n}\subset H$ puis que $H=\mathscr{M}_n(\mathbb{K})$ ce qui contredit le fait que $H$ est un hyperplan de $\mathscr{M}_n(\mathbb{K})$.

Donc, il n’existe pas d’hyperplan de $\mathscr{M}_n(\mathbb{K})$, stable par produit et ne contenant pas $I_n$ ou aussi un hyperplan de $\mathscr{M}_n(\mathbb{K})$, stable par produit, contient nécessairement $I_n$.

Commentaires et/ou rappels de cours

$\bullet$ Rappel de cours. Pour $(i,j)\in\{1,\ldots,n\}^2$, on note $E_{i,j}$ la matrice carrée dont le coefficient ligne $i$, colonne $j$, est égal à $1$ et les autres coefficients sont nuls : $E_{i,j}=\left(\delta_{i,k}\times\delta_{j,\ell}\right)_{1\leqslant k,\ell\leqslant n}$.

La famille $\left(E_{i,j}\right)_{1\leqslant i,j\leqslant n}$ est la base canonique de $\mathscr{M}_n(\mathbb{K})$. De plus, pour tout $(i,j,k,\ell)\in\{1,\ldots,n\}^4$, $E_{i,j}\times E_{k,\ell}=\delta_{j,k}E_{i,\ell}$.

$\bullet$ Théorème. Si $E$ est un $\mathbb{K}$-espace vectoriel de dimension finie et $F$ et $G$ sont deux sous-espaces vectoriels de $E$, alors $E=F\oplus G$ si et seulement si deux des trois propositions suivantes sont vraies :

(1) $F\cap G=\{0\}$

(2) $E=F+G$

(3) $\text{dim}(E)=\text{dim}(F)+\text{dim}(G)$.

Exercice – Difficulté 3 – Thème : réduction. Titre : deux calculs des puissances puis de l’exponentielle d’une matrice non diagonalisable.

Enoncé (CCINP)

On considère la matrice $A=\begin{pmatrix}3&2&-2\\-1&0&1\\1&1&0\end{pmatrix}$.

1) Déterminer le polynôme caractéristique de $A$.

2) Déterminer le polynôme minimal de $A$.

3) Calculer $A^n$ Pour $n\in\mathbb{N}$. En déduire $\text{exp}(A)$.

4) Montrer que $A$ est semblable à $B=\begin{pmatrix}1&0&0\\0&1&1\\0&0&1\end{pmatrix}$.

5) Trouver une autre méthode pour calculer $A^n$.

Corrigé

1) En développant suivant la première colonne, on obtient

\begin{align*}\chi_A&=\begin{vmatrix}X-3&-2&2\\1&X&-1\\-1&-1&X\end{vmatrix}=(X-3)\left(X^2-1\right)-(-2X+2)-(2-2X)=X^3-3X^2+3X-1\\&=(X-1)^3.\end{align*}

2) Notons $\mu_A$ le polynôme minimal de $A$. $\mu_A$ est un diviseur unitaire de $\chi_A$, admettant toute valeur propre de $A$ pour racine. Donc, $\mu_A$ est l’un des trois polynômes $X-1$, $(X-1)^2$ ou $(X-1)^3$. $A\neq I_3$ et donc $\mu_A\neq X-1$. Ensuite,

$$\left(A-I_3\right)^2=\begin{pmatrix}2&2&-2\\-1&-1&1\\1&1&-1\end{pmatrix}\begin{pmatrix}2&2&-2\\-1&-1&1\\1&1&-1\end{pmatrix}=\begin{pmatrix}0&0&0\\0&0&0\\0&0&0\end{pmatrix}.$$

Donc,

$$\mu_A=(X-1)^2.$$

3) Soit $n\in\mathbb{N}$. La division euclidienne de $X^n$ par $\mu_A$ s’écrit $X^n=(X-1)^2Q_n+a_nX+b_n$ où $Q_n\in\mathbb{R}[X]$ et $\left(a_n,b_n\right)\in\mathbb{R}^2$. En évaluant en $1$, on obtient $a_n+b_n=1$ puis, en dérivant et en évaluant en $1$ (y compris quand $n=0$), on obtient $n=a_n$. Ainsi, $a_n=n$ et $b_n=1-n$ puis

$$X^n=(X-1)^2Q_n+nX+1-n.$$

En évaluant en $A$, on obtient

$$A^n=nA-(n-1)I_3=\begin{pmatrix}2n+1&2n&-2n\\-n&-(n-1)&n\\n&n&-(n-1)\end{pmatrix}.$$

Ensuite,

\begin{align*}\text{exp}(A)&=\displaystyle\sum_{n=0}^{+\infty}\dfrac{1}{n!}A^n=\displaystyle\sum_{n=0}^{+\infty}\dfrac{1}{n!}\left(nA-(n-1)I_3\right)=\left(\displaystyle\sum_{n=1}^{+\infty}\dfrac{1}{(n-1)!}\right)A-\left(\displaystyle\sum_{n=1}^{+\infty}\dfrac{1}{(n-1)!}+\displaystyle\sum_{n=0}^{+\infty}\dfrac{1}{n!}\right)I_3\\&=eA=\begin{pmatrix}3e&2e&-2e\\-e&0&e\\e&e&0\end{pmatrix}.\end{align*}

4) On note $\left(e_1,e_2,e_3\right)$ la base canonique de $\mathscr{M}_3(\mathbb{R})$. On cherche une base $\left(u_1,u_2,u_3\right)$ de $\mathscr{M}_3(\mathbb{R})$ telle que $Au_1=u_1$, $Au_2=u_2$ et $Au_3=u_2+u_3$ ou encore $\left(A-I_3\right)u_3=u_2$. Le vecteur $u_2$ est un vecteur non nul de $\text{Im}\left(A-I_3\right)$ et on peut donc prendre pour $u_2$ la première colonne (non nulle) de la matrice $A-I_3$ : $u_2=\begin{pmatrix}2\\-1\\1\end{pmatrix}$. Par construction, si $u_3=\begin{pmatrix}1\\0\\0\end{pmatrix}$, alors $\left(A-I_3\right)u_3=u_2$ ou encore $Au_3=u_2+u_3$.

$E_1(A)=\text{Ker}\left(A-I_3\right)$ est le plan d’équation $x+y-z=0$. $u_2$ est un vecteur non nul de ce plan  que l’on complète en une base $\left(u_1,u_2\right)$  de ce plan où $u_1=\begin{pmatrix}1\\-1\\0\end{pmatrix}$.

Soit alors $P=\text{Mat}_{\left(e_1,e_2,e_3\right)}\left(u_1,u_2,u_3\right)=\begin{pmatrix}1&2&1\\-1&-1&0\\0&1&0\end{pmatrix}$. En développant suivant la dernière colonne, on obtient $\text{det}(P)=-1\neq0$ ce qui montre que $P\in GL_3(\mathbb{R})$ puis par construction, $P^{-1}AP=T$ où $T=\begin{pmatrix}1&0&0\\0&1&1\\0&0&1\end{pmatrix}$. La matrice $A$ est semblable à la matrice $T$.

Soit $n\in\mathbb{N}$. Puisque les matrices $I_3$ et $E_{2,3}$ commutent, la formule du binôme de Newton fournit, en tenant compte de $E_{2,3}^k=0$ pour tout $k\geqslant2$,

$$T^n=\left(I_3+E_{2,3}\right)^n=I_3^n+nI_3^{n-1}E_{2,3}+0=I_3+nE_{2,3}=\begin{pmatrix}1&0&0\\0&1&n\\0&0&1\end{pmatrix}.$$

Calculons alors $P^{-1}$. $\left\{\begin{array}{l}u_1=e_1-e_2\\u_2=2e_1-e_2+e_3\\u_3=e_1\end{array}\right.\Leftrightarrow\left\{\begin{array}{l}e_1=u_3\\e_2=-u_1+u_3\\e_3=-u_1+u_2-u_3\end{array}\right.$. Donc,

$$P^{-1}=\text{Mat}_{\left(u_1,u_2,u_3\right)}\left(e_1,e_2,e_3\right)=\begin{pmatrix}0&-1&-1\\0&0&1\\1&1&-1\end{pmatrix}.$$

On retrouve alors l’expression de $A^n$ pour $n\in\mathbb{N}$ :

\begin{align*}A^n&=\left(PTP^{-1}\right)^n=PT^nP^{-1}\\&=\begin{pmatrix}1&2&1\\-1&-1&0\\0&1&0\end{pmatrix}\begin{pmatrix}1&0&0\\0&1&n\\0&0&1\end{pmatrix}\begin{pmatrix}0&-1&-1\\0&0&1\\1&1&-1\end{pmatrix}=\begin{pmatrix}1&2&2n+1\\-1&-1&-n\\0&1&n\end{pmatrix}\begin{pmatrix}0&-1&-1\\0&0&1\\1&1&-1\end{pmatrix}\\&=\begin{pmatrix}2n+1&2n&-2n\\-n&-(n-1)&n\\n&n&-(n-1)\end{pmatrix}.\end{align*}

Commentaires et/ou rappels de cours

Pas de commentaire particulier.

Exercice – Difficulté 2 – Thème : matrices. Titre : une classe de matrices orthogonales.

Enoncé (CCINP)

Soit $A\in\mathscr{M}_n(\mathbb{R})$ telle que $A^TA=AA^T$ et $A^2=-I_n$.

1) Calculer $\text{Tr}(A)$.

2) Montrer que $\left(A^TA\right)^2=I_n$.

3) Montrer que $A^TA$ est symétrique et en déduire que $A$ est orthogonale.

Corrigé

1) $A\in\mathscr{M}_n(\mathbb{R})$ et donc $\text{det}(A)\in\mathbb{R}$. Puisque $(\text{det}(A))^2=\text{det}\left(A^2\right)=\text{det}\left(-I_n\right)=(-1)^n$, $n$ est nécessairement pair. On pose donc $n=2p$ où $p\in\mathbb{N}^*$.

Le polynôme $X^2+1=(X-i)(X+i)$ est annulateur de $A$. Les valeurs propres de $A$ sont à choisir parmi les deux nombres $i$ et $-i$ ou encore $\chi_A=(X-i)^\alpha(X+i)^{2p-\alpha}$ pour un certain $\alpha\in\{0,1,\ldots,2p\}$. De plus, $\chi_A\in\mathbb{R}[X]$ et donc $i$ et $-i=\overline{i}$ ont même ordre de multiplicité. Ceci montre que

$$\chi_A=(X-i)^p(X+i)^p.$$

La trace de $A$ est la somme des valeurs propres de $A$, chacune comptée un nombre de fois égal à son ordre de multiplicité. Donc,

$$\text{Tr}(A)=p\times i+p\times(-i)=0.$$

2) $\left(A^TA\right)^2=A^TAA^TA=A^TA^TAA=\left(A^2\right)^TA^2=\left(-I_n\right)^T\left(-I_n\right)=I_n^2=I_n$.

3) $\left(A^TA\right)^T=A^T\left(A^T\right)^T=A^TA$. Donc, $A^TA\in\mathscr{S}_n(\mathbb{R})$. De plus, pour tout $X\in\mathscr{M}_n(\mathbb{R})$,

$$X^T\left(A^TA\right)X=(AX)^TAX=\|AX\|_2^2\geqslant 0.$$

Donc, $A^TA\in\mathscr{S}_n^+(\mathbb{R})$. 

D’après le théorème spectral, il existe $P\in O_n(\mathbb{R})$ et $D=\text{diag}\left(\lambda_i\right)_{1\leqslant i\leqslant n}$ telles que $A^TA=PDP^{-1}$. De plus, $A$ étant positive, les $\lambda_i$, $1\leqslant i\leqslant n$, sont des réels positifs. Ensuite,

\begin{align*}\left(A^TA\right)^2=I_n&\Rightarrow PD^2P^{-1}=I_n\Rightarrow D^2=I_n\\&\Rightarrow \forall i\in\{1,\ldots,n\},\;\lambda_i^2=1\Rightarrow \forall i\in\{1,\ldots,n\},\;\lambda_i=1\;(\text{car}\;\forall i\in\{1,\ldots,n\},\;\lambda_i=1\Rightarrow D=I_n\\&\Rightarrow A^TA=I_n.\end{align*}

On a montré que $A\in O_n(\mathbb{R})$.

Commentaires et/ou rappels de cours

$\bullet$ Théorème. La trace d’une matrice est la somme de ses valeurs propres dans $\mathbb{C}$, chacune comptée un nombre de fois égal à son ordre de multiplicité.

$\bullet$ Définition. Soit $A\in\mathscr{M}_n(\mathbb{R})$. $A\in O_n(\mathbb{R})\Leftrightarrow A^TA=I_n\Leftrightarrow A\in GL_n(\mathbb{R})\;\text{et}\;A^{-1}=A^T$.