Exercices d’oraux type CCINP

retour vers la page des exercices d’oraux 

ALGEBRE LINEAIRE

Exercice – Difficulté 2 – Thème : matrices. Titre : une équation matricielle.

Enoncé (Mines-Télécom)

Résoudre l’équation suivante d’inconnue $M\in\mathscr{M}_n(\mathbb{R})$ : $M\left(M^TM\right)^2=I_n$.

Corrigé

Notons $(E)$ l’équation proposée. $I_n\left(I_n^TI_n\right)^2=I_n^5=I_n$ et donc $I_n$ est une solution de l’équation $(E)$.

Soit $M\in\mathscr{M}_n(\mathbb{R})$ une solution de $(E)$.

$$1=\text{det}\left(I_n\right)=\text{det}\left(M\left(M^TM\right)^2\right)=\text{det}(M)\times\left(\text{det}\left(M^T\right)\times\text{det}\left(M\right)\right)^2=\left((\text{det}(M)\right)^5$$

et donc $\text{det}(M)\neq0$. Par suite, $M\in GL_n(\mathbb{R})$ puis $M^T\in GL_n(\mathbb{R})$. Mais alors, $M=\left(M^TM\right)^{-2}=M^{-2}\left(M^{-2}\right)^T$ et donc, $M^T=M^{-2}\left(M^{-2}\right)^T=M$. Ainsi, $M\in\mathscr{S}_n(\mathbb{R})$ puis $M^5=I_n$.

D’après le théorème spectral, il existe $D=\text{diag}\left(\lambda_1,\ldots,\lambda_n\right)\in\mathscr{D}_n(\mathbb{R})$ et $P\in O_n(\mathbb{R})$ telles que $M=PDP^{-1}$.

\begin{align*}M^5=I_n&\Leftrightarrow\left(PDP^{-1}\right)^5=I_n\Leftrightarrow PD^5P^{-1}=I_n\Leftrightarrow D^5=P^{-1}I_nP\Leftrightarrow D^5=I_n\\&\Leftrightarrow\forall i\in\{1,\ldots,n\},\;\lambda_i^5=1\Leftrightarrow\forall i\in\{1,\ldots,n\},\;\lambda_i=1\;(\text{car chaque}\;\lambda_i\;\text{est réel})\\&\Leftrightarrow D=I_n\Leftrightarrow M=I_n.\end{align*}

L’équation proposée admet une solution et une seule dans $\mathscr{M}_n(\mathbb{R})$ à savoir $I_n$.

Commentaires et/ou rappels de cours

Pas de commentaire particulier. 

Exercice – Difficulté 3 – Thème : matrices. Titre : déterminant, rang, … , d’une matrice symétrique complexe.

Enoncé (Mines-Télécom)

Soient $(A,B)\in\mathbb{C}^2$ et la matrice $A=\begin{pmatrix}a^2&ab&ab&b^2\\ab&a^2&b^2&ab\\ab&b^2&a^2&ab\\b^2&ab&ab&a^2\end{pmatrix}$.

1) Calculer $\text{det}(A)$. On exprimera le résultat sous forme factorisée.

2) Déterminer le rang de la matrice $A$.

3) La matrice $A$ est-elle diagonalisable ? Préciser les valeurs propres de $A$, ainsi que leur multiplicité.

Déterminer le polynôme minimal $\pi_A$ et $A$.

Corrigé

1) Soit $(a,b)\in\mathbb{C}^2$.

\begin{align*}\text{det}(A)&=\begin{vmatrix}a^2&ab&ab&b^2\\ab&a^2&b^2&ab\\ab&b^2&a^2&ab\\b^2&ab&ab&a^2\end{vmatrix}=\begin{vmatrix}(a+b)^2&ab&ab&b^2\\(a+b)^2&a^2&b^2&ab\\(a+b)^2&b^2&a^2&ab\\(a+b)^2&ab&ab&a^2\end{vmatrix}\;(C_1\leftarrow C_1+C_2+C_3+C_4)\\&=(a+b)^2\begin{vmatrix}1&ab&ab&b^2\\1&a^2&b^2&ab\\1&b^2&a^2&ab\\1&ab&ab&a^2\end{vmatrix}\;(\text{par linéarité par rapport à la première colonne})\\&=(a+b)^2\begin{vmatrix}1&ab&ab&b^2\\0&a^2-ab&b^2-ab&ab-b^2\\0&b^2-ab&a^2-ab&ab-b^2\\0&0&0&a^2-b^2\end{vmatrix}\;(L_2\leftarrow L_2-L_1,\;L_3\leftarrow L_3-L_1,\;L_4\leftarrow L_4-L_1)\\&=(a+b)^2\begin{vmatrix}a^2-ab&b^2-ab&ab-b^2\\b^2-ab&a^2-ab&ab-b^2\\0&0&a^2-b^2\end{vmatrix}\;(\text{déterminant triangulaire par blocs})\\&=(a+b)^2\left(a^2-b^2\right)\begin{vmatrix}a^2-ab&b^2-ab\\b^2-ab&a^2-ab\end{vmatrix}\;(\text{déterminant triangulaire par blocs})\\&=(a+b)^2\left(a^2-b^2\right)(a-b)^2\begin{vmatrix}a&-b\\-b&a\end{vmatrix}\;(\text{par linéarité par rapport à chaque colonne})\\&=(a+b)^2\left(a^2-b^2\right)(a-b)^2\left(a^2-b^2\right)=(a+b)^4(a-b)^4.\end{align*}

2) Soit $(a,b)\in\mathbb{C}^2$.

1er cas. Si $b\neq\pm a$, alors $\text{det}(A)\neq0$ puis $\text{rg}(A)=4$.

2ème cas. Si $b=\varepsilon a$ avec $\varepsilon\in\{-1,1\}$, alors $A=a^2J$ où $J=\begin{pmatrix}1&\varepsilon&\varepsilon&1\\\varepsilon&1&1&\varepsilon\\\varepsilon&1&1&\varepsilon\\1&\varepsilon&\varepsilon&1\end{pmatrix}$. $\text{rg}(J)=1$ (car $C_1\neq0$, $C_2=\varepsilon C_1=C_3$ et $C_4=C_1$) et donc si $b=\pm a\neq0$, $\text{rg}(A)=1$ et si $a=b=0$, alors $\text{rg}(A)=0$.

En résumé, $\text{rg}(A)=\left\{\begin{array}{l}4\;\text{si}\;b\neq\pm a\\1\;\text{si}\;b=\pm a\neq0\\0\;\text{si}\;a=b=0\end{array}\right.$.

3) 1er cas. Si $a=b=0$, $A=0$ et donc $A$ est diagonalisable avec $\text{Sp}(A)=(0,0,0,0)$. $A$ admet $0$ pour valeur propre d’ordre $4$.

2ème cas. On suppose que $b=\pm a\neq0$. Alors, $A=a^2J$. La matrice $J$ est symétrique réelle et donc est diagonalisable. Par suite, $A$ est diagonalisable ($J$ s’écrit $J=PDP^{-1}$ avec $D\in\mathscr{D}_4(\mathbb{R})$ et $P\in O_4(\mathbb{R})$et donc $A=PD’P^{-1}$ avec $D’=a^2D\in\mathscr{D}_4(\mathbb{C})$).

De plus, $\text{rg}(J)=1$ puis, d’après le théorème du rang, $\text{dim}(\text{Ker}(A))=3$ puis $0$ est valeur propre de $J$ d’ordre $3$ (car $J$ est diagonalisable). La dernière valeur propre $\lambda$ de $J$ est fournie par la trace de $J$ : $\lambda+0+0+0=\text{Tr}(J)=4$ et donc $\lambda=4$. Par suite, $\text{Sp}(J)=(0,0,0,4)$ puis $\text{Sp}(A)=\left(0,0,0,4a^2\right)$. $A$ admet $0$ pour valeur propre d’ordre $3$ et $4a^2$ pour valeur propre simple.

3ème cas. On suppose maintenant $b\neq\pm a$ et $a\neq0$ et $b\neq0$. Soient $U_1=\begin{pmatrix}1\\1\\1\\1\end{pmatrix}\neq0$, $U_2=\begin{pmatrix}1\\-1\\1\\-1\end{pmatrix}\neq0$, $U_3=\begin{pmatrix}1\\-1\\-1\\1\end{pmatrix}\neq0$. Alors, $AU_1=(a+b)^2U_1$, $AU_2=\left(a^2-b^2\right)U_2$ et $AU_3=(a-b)^2U_3$ puis $(a+b)^2$, $(a-b)^2$ et $a^2-b^2$ sont valeurs propres de $A$.

De plus, $(a+b)^2-(a-b)^2=4ab\neq0$, $(a+b)^2-\left(a^2-b^2\right)=2ab+2b^2=2b(a+b)\neq0$ et $(a-b)^2-\left(a^2-b^2\right)=-2ab+2b^2=2b(-a+b)\neq0$. $(a+b)^2$, $(a-b)^2$ et $a^2-b^2$ sont valeurs propres deux à deux distinctes de $A$. La dernière valeur propre $\lambda$ est fournit par la trace de $A$ :

$$\lambda+(a+b)^2+(a-b)^2+a^2-b^2=\text{Tr}(A)=4a^2$$

et donc $\lambda=a^2+b^2$. Enfin, $(a+b)^2-\left(a^2+b^2\right)=2ab\neq0$, $(a-b)^2-\left(a^2+b^2\right)=-2ab\neq0$ et $\left(a^2-b^2\right)-\left(a^2+b^2\right)=-2b^2\neq0$.

Ainsi, dans ce cas, $A$ admet quatre valeurs propres simples, à savoir $(a+b)^2$, $(a-b)^2$, $a^2+b^2$ et $a^2-b^2$. En particulier, $A$ est diagonalisable.

4ème cas. On suppose que $a=0$ et $b\neq0$, alors $A=b^2S$ avec $S=\begin{pmatrix}0&0&0&1\\0&0&1&0\\0&1&0&0\\1&0&0&0\end{pmatrix}$. La matrice $S$ vérifie $S^2=I_4$. Le polynôme $X^2-1$ est à racines simples et annulateur de $S$. Donc,  $S$ est diagonalisable et les valeurs propres de $S$ appartiennent à $\{-1,1\}$. Deplus, $\text{Tr}(S)=0$ et donc, en notant $\alpha$ et $\beta$ les ordres de multiplicité, éventuellement nuls, de $1$ et $-1$, on a $\alpha\times1+\beta\times(-1)=0$ puis $\alpha=\beta=2$.

Ainsi, $S$ est diagonalisable et $\text{Sp}(S)=(1,1,-1,-1)$. On en déduit que $A$ est diagonalisable et que $\text{Sp}(A)=\left(b^2,b^2,-b^2,-b^2\right)$. $A$ admet $b^2$ pour valeur propre d’ordre $2$ et $-b^2$ pour valeur propre d’ordre $2$.

5ème cas. On suppose que $a\neq00$ et $b=0$, alors $A=a^2I_4$. Dans ce cas, $A$ est diagonalisable (car diagonale) et admet $a^2$ pour valeur propre d’ordre $4$.

En résumé, dans tous les cas $A$ est diagonalisable. De plus,

$\quad$ Si $b=0$, $A$ admet $a^2$ pour valeur propre d’ordre $4$.

$\quad$ Si $a=0$ et $b\neq0$, $A$ admet $b^2$ pour valeur propre d’ordre $2$ et $-b^2$ pour valeur propre d’ordre $2$.

$\quad$ Si $a\neq0$ et $b\neq0$ et $b=\pm a$, $A$ admet $0$ pour valeur propre d’ordre $3$ et $4a^2$ pour valeur propre simple.

$\quad$ Si $b\neq\pm a$, $A$ admet quatre valeurs propres simples, à savoir $(a+b)^2$, $(a-b)^2$, $a^2+b^2$ et $a^2-b^2$.

Ensuite, puisque $A$ est diagonalisable, $\pi_A$ est à racines simples, unitaire et admet chaque valeur propre pour racine et uniquement des valeurs propres pour racines. Donc :

$\quad$ Si $b=0$, $\pi_A=X-a^2$.

$\quad$ Si $a=0$ et $b\neq0$, $\pi_A=\left(X-b^2\right)\left(X+b^2\right)=X^2-b^4$.

$\quad$ Si $a\neq0$ et $b\neq0$ et $b=\pm a$, $\pi_A=X\left(X-4a^2\right)=X^2-4a^2X$.

$\quad$ Si $b\neq\pm a$, $\pi_A=\left(X-(a+b)^2\right)\left(X-(a-b)^2\right)\left(X-\left(a^2+b^2\right)\right)\left(X-\left(a^2-b^2\right)\right)$.

 

Commentaires et/ou rappels de cours

$\bullet$ Le rang d’une matrice $A\in\mathscr{M}_n(\mathbb{K})$ est la dimension du sous-espace de $\mathscr{M}_{n,1}(\mathbb{K})$ engendré par les colonnes de $A$.

$\bullet$ Si une colonne $C_j$ est combinaison linéaire des autres colonnes de $A$, alors $\text{Vect}\left(C_k\right)_{1\leqslant k\leqslant n}=\text{Vect}\left(C_k\right)_{1\leqslant k\leqslant n,\;k\neq j}$.

$\bullet$. Pour toute $A\in\mathscr{M}_n(\mathbb{K})$, $A\in GL_n(\mathbb{K})\Leftrightarrow \text{rg}(A)=n$.

$\bullet$ Il est évidemment hors de question de calculer le polynôme carcatéristique de $A$ pour ensuite déterminer les valeurs propres de $A$. Pour résoudre cet exercice, il n’y a pas d’autre possibilité que de deviner des valeurs propres et/ou des vecteurs propres.

$\bullet$ Si $\chi_A=\displaystyle\prod_{i=1}^{k}\left(X-\lambda_i\right)^{\alpha_i}$ où les $\lambda_i$ sont deux à deux distincts et les $\alpha_i$ sont des entiers naturels non nuls, alors le polynôme minimal $\pi_A$ de $A$ est de la forme

$$\pi_A=\displaystyle\prod_{i=1}^{k}\left(X-\lambda_i\right)^{\beta_i}$$

où pour tout $i\in\{1,\ldots,k\}$, $1\leqslant\beta_i\leqslant\alpha_i$. De plus, les exposants $\beta_i$ sont tous égaux à $1$ quand $A$ est diagonalisable et l’un au moins des exposants $\beta_i$ est supérieur ou égal à $2$ quand $A$ n’est pas diagonalisable.

$\bullet$ Il ne faut pas dire que $A$ est symétrique et donc diagonalisable car $A$ est complexe. Par exemple, la matrice $A=\begin{pmatrix}0&1\\1&2i\end{pmatrix}$ est symétrique mais n’est pas diagonalisable. En effet, $\chi_A=X^2-2iX-1=(X-i)^2$ et donc, si $A$ est diagonalisable, $A$ est semblable à $iI_2$ et donc égale à $iI_2$, ce qui est faux.

Exercice – Difficulté 3 – Thème : réduction. Titre : f diagonalisable est-il équivalent à f^2 diagonalisable ?

Enoncé (CCINP)

Soit $E$ un $\mathbb{C}$-espace vectoriel de dimension finie $n\geqslant2$. Soit $f\in\mathscr{L}(E)$ tel que $f^2$ est diagonalisable.

Montrer que : $f$ est diagonalisable si et seulement si $\text{Ker}(f)=\text{Ker}\left(f^2\right)$.

Corrigé

Puisque $E$ est un $\mathbb{C}$-espace vectoriel de dimension finie non nulle, $\chi_f$ est scindé et on peut poser $\text{Sp}(f)=\left(\lambda_1,\ldots,\lambda_n\right)$. On sait alors que $\text{sp}\left(f^2\right)=\left(\lambda_1^2,\ldots,\lambda_n^2\right)$.

Ensuite, on a toujours $\text{Ker}(f)\subset\text{Ker}\left(f^2\right)$. En effet, pour tout $x$ de $E$, $x\in\text{Ker}(f)\Rightarrow f(x)=0\Rightarrow f(f(x))=0\Rightarrow x\in\text{Ker}\left(f^2\right)$.

$\bullet$ Supposons $f$ diagonalisable. La dimension de $\text{Ker}(f)$ est l’ordre de multiplicité de la valeur propre $0$ en tant que valeur propre de $f$ (y compris dans le cas où $0$ n’est pas valeur propre de $f$). Puisque pour tout $i\in\{1,\ldots,n\}$, $\lambda_i^2=0\Leftrightarrow\lambda_i=0$, l’ordre de multiplicité de la valeur propre $0$ en tant que valeur propre de $f$ est aussi l’ordre de multiplicité de la valeur propre $0$ en tant que valeur propre de $f^2$ ou encore la dimension de $\text{Ker}\left(f^2\right)$ puisque $f^2$ est diagonalisable.

En résumé, $\text{Ker}(f)\subset\text{Ker}\left(f^2\right)$ et $\text{dim}(\text{Ker}(f))=\text{dim}\left(\text{Ker}\left(f^2\right)\right)<+\infty$. Donc, $\text{Ker}(f)=\text{Ker}\left(f^2\right)$.

$\bullet$ Supposons $\text{Ker}(f)=\text{Ker}\left(f^2\right)$. On note $\mu_1$, $\ldots$, $\mu_k$ les valeurs propres deux à deux distinctes de $f^2$ avec éventuellement $\mu_1=0$ et les autres valeurs propres non nulles. Puisque $f^2$ est diagonalisable,

$$E=\displaystyle\overset{k}{\underset{i=1}{\bigoplus}}\text{Ker}\left(f^2-\mu_iId\right)\quad(\star).$$

Si pour un $i\in\{1,\ldots,n\}$, $\mu_i\neq0$, on note $\gamma_i$ une racine carrée de $\mu_i$ dans $\mathbb{C}$. Alors, $X^2-\mu_i=\left(X-\gamma_i\right)\left(X+\gamma_i\right)$. Puisque les polynômes $X-\gamma_i$ et $X+\gamma_i$ sont premiers entre eux (car $\gamma_i\neq-\gamma_i$), le théorème de décomposition des noyaux fournit

$$\text{Ker}\left(f^2-\mu_iId\right)=\text{Ker}\left(f-\gamma_iId\right)\oplus\text{Ker}\left(f+\gamma_iId\right).$$

Suivant que $0$ soit ou ne soit pas valeur propre de $f$, et en tenant compte de $\text{Ker}(f)=\text{Ker}\left(f^2\right)$, l’égalité $(\star)$ s’écrit $E=\text{Ker}(f)\oplus\displaystyle\overset{k}{\underset{i=2}{\bigoplus}}\left(\text{Ker}\left(f-\gamma_iId\right)\oplus\text{Ker}\left(f+\gamma_iId\right)\right)$ ou directement $E=\displaystyle\overset{k}{\underset{i=1}{\bigoplus}}\left(\text{Ker}\left(f-\gamma_iId\right)\oplus\text{Ker}\left(f+\gamma_iId\right)\right)$.

Dans ces égalités, on supprime les éventuels sous-espaces réduits à $\{0\}$. Dans une base adaptée à la décomposition obtenue, la matrice de $f$ est diagonale. Donc, $f$ est diagonalisable.

On a montré que $f$ est diagonalisable si et seulement si $\text{Ker}(f)=\text{Ker}\left(f^2\right)$.

Commentaires et/ou rappels de cours

Définition. Soient $E$ un $\mathbb{K}$-espace vectoriel et $f\in\mathscr{L}(E)$. $f$ est diagonalisable si et seulement si il existe une base de $E$ constituée de vecteurs propres de $f$.

Théorème. Soient $E$ un $\mathbb{K}$-espace vectoriel de dimension finie non nulle et $f\in\mathscr{L}(E)$.

$\begin{array}[t]{l}f\;\text{est diagonalisable}&\Leftrightarrow E\;\text{est somme directe des sous-espaces propres de}\;f\\&\Leftrightarrow\text{dim}(E)=\displaystyle\sum_{\lambda\in\text{Sp}(f)}\text{dim}\left(E_\lambda(f)\right)\\&\Leftrightarrow\chi_f\;\text{est scindé sur}\;\mathbb{K}\;\text{et l’ordre de multiplicité de chaque valeur propre est égal à la dimension du sous-espace propre correspondant}\\&\Leftrightarrow\text{il existe un polynôme non nul, scindé sur}\;\mathbb{K}\;\text{et à racines simples tel que}\;P(f)=0\\&\Leftrightarrow\text{le polynôme minimal}\;\mu_f\;\text{de}\;f\;\text{est scindé sur}\;\mathbb{K}\;\text{à racines simples}.\end{array}$

 

Exercice – Difficulté 3 – Thème : réduction. Titre : diagonalisabilité d’une matrice triangulaire par blocs.

Enoncé (CCINP)

Soient $A\in\mathscr{M}_n(\mathbb{C})$ puis $B=\begin{pmatrix}A&0\\A&A\end{pmatrix}\in\mathscr{M}_{2n}(\mathbb{C})$.

A quelle condition nécessaire et suffisante sur $A$ la matrice $B$ est-elle diagonalisable ?

Corrigé

$\bullet$. Montrons par récurrence que pour tout $k\in\mathbb{N}$, $B^k=\begin{pmatrix}A^k&0\\kA^k&A^k\end{pmatrix}$.

L’égalité est vraie quand $k=0$. Soit $k\geqslant0$. Supposons que $B^k=\begin{pmatrix}A^k&0\\kA^k&A^k\end{pmatrix}$. Alors,

$$B^{k+1}=B^k\times B=\begin{pmatrix}A^k&0\\kA^k&A^k\end{pmatrix}\begin{pmatrix}A&0\\A&A\end{pmatrix}=\begin{pmatrix}A^{k+1}&0\\(k+1)A^k&A^{k+1}\end{pmatrix}.$$

Le résultat est démontré par récurrence. Soit alors $P=\displaystyle\sum_{i=0}^{k}a_iX^i\in\mathbb{C}[X]$.

$$P(B)=\displaystyle\sum_{i=0}^{k}a_i\begin{pmatrix}A^i&0\\iA^i&A^i\end{pmatrix}=\begin{pmatrix}\displaystyle\sum_{i=0}^{k}a_iA^i&0\\\displaystyle\sum_{i=0}^{k}a_iiA^i&\displaystyle\sum_{i=0}^{k}a_iA^i\end{pmatrix}=\begin{pmatrix}P(A)&0\\AP'(A)&P(A)\end{pmatrix}.$$

Ainsi, pour tout $P\in\mathbb{K}[X]$, $P(B)=\begin{pmatrix}P(A)&0\\AP'(A)&P(A)\end{pmatrix}$.

$\bullet$ Supposons $B$ diagonalisable. Il existe un polynôme non nul $P$, à racines simples tel que $P(B)=0$ ou encore $P(A)=0$ et $AP'(A)=0$. En particulier, $A$ est diagonalisable.

Les polynômes $P$ et $XP’$ sont annulateurs de $A$ et donc, toute valeur propre de $A$ est racine de $P$ et de $XP’$. Puisque $P$ est à racines simples, $P$ et $P’$ n’ont pas de racine commune et donc une valeur propre de $A$ est nécessairement racine du polynôme $X$. Ainsi, toutes les valeurs propres de $A$ sont nulles. Puisque $A$ est diagonalisable, $A$ est semblable à $0$ et donc égale à $0$.

Réciproquement, si $A=0$, alors $B$ est diagonalisable.

On a montré que $B$ est diagonalisable si et seulement si $A=0$.

Commentaires et/ou rappels de cours

Théorème. Soit $A\in\mathscr{M}_n(\mathbb{C})$. Les valeurs propres de $A$ sont racines de tout polynôme annulateur.

Théorème. Soit $P$ un polynôme de degré supérieur ou égal à $1$. $P$ est à racines simples dans $\mathbb{C}$ si et seulement si $P$ et $P’$ n’ont pas de racine commune dans $\mathbb{C}$. 

Exercice – Difficulté 3 – Thème : réduction. Titre : utilisation d’un polynôme annulateur.

Enoncé (Mines Télécom)

Soit $A\in\mathscr{M}_n(\mathbb{R})$ telle que $A^3=A+I_n$. Montrer que $\text{det}(A)>0$.

Corrigé

$\bullet$ Soit $P=X^3-X-1$. $P$ est annulateur de $A$. Les valeurs propres de $A$ dans $\mathbb{C}$ sont à choisir parmi les racines de $P$.

Pour tout réel $x$, $P'(x)=3x^2-1=3\left(x-\dfrac{1}{\sqrt{3}}\right)\left(x+\dfrac{1}{\sqrt{3}}\right)$. Donc, la fonction $x\mapsto P(x)$ est strictement croissante sur $\left]-\infty,-\dfrac{1}{\sqrt{3}}\right]$ et sur $\left[\dfrac{1}{\sqrt{3}},+\infty\right[$ et est strictement décroissante sur $\left[-\dfrac{1}{\sqrt{3}},\dfrac{1}{\sqrt{3}}\right]$. On en déduit déjà que pour tout $x\in\left]-\infty,\dfrac{1}{\sqrt{3}}\right]$,

$$P(x)\leqslant P\left(-\dfrac{1}{\sqrt{3}}\right)=-\dfrac{1}{3\sqrt{3}}+\dfrac{1}{\sqrt{3}}-1=\dfrac{2}{3\sqrt{3}}-1<0.$$

Le polynôme $P$ n’a donc pas de racine dans $\left]-\infty,\dfrac{1}{\sqrt{3}}\right]$. D’autre part, la fonction $x\mapsto P(x)$ est continue et strictement croissante sur $\left[\dfrac{1}{\sqrt{3}},+\infty\right[$ et vérifie $P\left(\dfrac{1}{\sqrt{3}}\right)\leqslant P\left(-\dfrac{1}{\sqrt{3}}\right)<0$ et $\displaystyle\lim_{x\rightarrow+\infty}P(x)=+\infty$ et donc, la fonction $P$ s’annule une fois et une seule sur $\left[\dfrac{1}{\sqrt{3}},+\infty\right[$, en un certain réel $x_0$. On note que $x_0>0$.

D’autre part, puisque $P\left(\pm\dfrac{1}{\sqrt{3}}\right)\neq0$, $P$ et $P’$ n’ont pas de racine commune dans $\mathbb{C}$. Donc, $P$ est à racines simples dans $\mathbb{C}$. $P$ admet une deuxième racine non réelle (et donc non nulle) $\lambda$ puis $P$ étant à coefficients réels, $P$ admet aussi $\overline{\lambda}$ pour racine. Finalement, $P=\left(X-x_0\right)\left(X-\lambda\right)\left(X-\overline{\lambda}\right)$.

$\bullet$ D’après la remarque initiale, $\chi_A$ est de la forme

$$\chi_A=\left(X-x_0\right)^\alpha\left(X-\lambda\right)^\beta\left(X-\overline{\lambda}\right)^\beta$$

($\lambda$ et $\overline{\lambda}$ ont même ordre de multiplicité car $\chi_A$ est à coefficients réels) où $\alpha$ et $\beta$ sont deux entiers naturels (éventuellement nuls) tels que $\alpha+2\beta=n$.

$\bullet$ Le déterminant de $A$ est le produit de ses valeurs propres, chacune comptée un nombre de fois égal à son ordre de multiplicité. Puisque $x_0>0$ et $\lambda\in\mathbb{C}^*$,

$$\text{det}(A)=x_0^\alpha\lambda^\beta\overline{\lambda}^\beta=x_0^\alpha|\lambda|^{2\beta}>0.$$

Commentaires et/ou rappels de cours

Pas de commentaire particulier. 

Exercice – Difficulté 2 – Thème : algèbre linéaire. Titre : endomorphismes tels que Ker(U)=Im(U).

Enoncé (Mines-Télécom)

Soit $E$ un $\mathbb{K}$-espace vectoriel de dimension $n\in\mathbb{N}$.  Montrer que : $\left(\exists u\in\mathscr{L}(E)/\;\text{Ker}(u)=\text{Im}(u)\right)\Leftrightarrow n\in2\mathbb{N}$.

Corrigé

$\bullet$ Supposons qu’il existe $u\in\mathscr{L}(E)$ tel que $\text{Ker}(u)=\text{Im}(u)$. D’après le théorème du rang, en posant $r=\text{rg}(u)$,

$$r=\text{dim}(\text{Im}(u))=\text{dim}(\text{Ker}(u))=n-r$$

et donc $n=2r\in2\mathbb{N}$.

$\bullet$ Supposons que $n$ est pair. Si $n=0$, $u=0$ est un endomorphisme de $E$ tel que $\text{Ker}(u)=\text{Im}(u)(=\{0\})$.

Supposons maintenant que $n=2p$ où $p\in\mathbb{N}^*$. Soit $\mathscr{B}=\left(e_1,\ldots,e_p,e_{p+1},\ldots,e_{2p}\right)$ une base de $E$.

Soit $u$ l’endomorphisme de $E$ défini par : pour tout $k\in\{1,\ldots,p\}$, $u\left(e_k\right)=0$ et pour tout $k\in\{p+1,\ldots,2p\}$, $u\left(e_k\right)=e_{k-p}$. Pour tout $k\in\{1,\ldots,2p\}$, on a $u^2\left(e_k\right)=0$. L’endomorphisme $u^2$ s’annule sur une base de $E$ et donc $u^2=0$ puis $\text{Im}(u)\subset\text{Ker}(u)$ $(I)$. De plus, la matrice de $u$ dans $\mathscr{B}$ est la matrice définie par blocs : $A=\begin{pmatrix}0_p&I_p\\0_p&0_p\end{pmatrix}$. En supprimant les lignes et les colonnes de $0$, on obtient

$$\text{rg}(u)=\text{rg}(A)=\text{rg}\left(I_p\right)=p.$$

D’après le théorème du rang, on a encore $\text{dim}(\text{Ker}(u))=n-r=2p-p=p=\text{dim}(\text{Im}(u))<+\infty$ $(II)$. $(I)$ et $(II)$ permettent alors d’affirmer que $\text{Ker}(u)=\text{Im}(u)$.

Commentaires et/ou rappels de cours

$\bullet$ Soit $(f,g)\in(\mathscr{L}(E))^2$. $f\circ g=0\Leftrightarrow \text{Im}(g)\subset\text{Ker}(f)$. En effet,

$$f\circ g=0\Leftrightarrow\forall x\in E,\;f(g(x))=0\Leftrightarrow\forall x\in E,\;g(x)\in/text{Ker}(f)\Leftrightarrow \text{Im}(g)\subset\text{Ker}(f).$$

$\bullet$ Les relations : $\forall k\in\{1,\ldots,p\}$, $u\left(e_k\right)=0$ et $\forall k\in\{p+1,\ldots,2p\}$, $u\left(e_k\right)\neq0$, ne permettent pas d’affirmer que $\text{Vect}\left(e_1,\ldots,e_p\right)=\text{Ker}(u)$ mais uniquement que $\text{Vect}\left(e_1,\ldots,e_p\right)\subset\text{Ker}(u)$.

Exercice – Difficulté 4 – Thème : déterminants. Titre : un calcul de déterminant.

Enoncé (CCINP)

Soit $P=X^n-X-1$ avec $n\geqslant2$.

1) Montrer que $P$ admet $n$ racines deux à deux distinctes $z_1$, $\ldots$ , $z_n$, dans $\mathbb{C}$.

2) Soit $A=\left(a_{i,j}\right)_{1\leqslant i,j\leqslant n}$ telle que : $\forall(i,j)\in\{1,\ldots,n\}^2$, $a_{i,j}=\left\{\begin{array}{l}1+z_i\;\text{si}\;i=j\\1\;\text{si}\;i\neq j\end{array}\right.$. Calculer $\text{det}(A)$.

Corrigé

Pour $n\geqslant2$, on pose $P_n=X^n-X-1$.

1) Le discriminant du trinôme $P_2=X^2-X-1$ est $\Delta=5>0$. Donc, $P_2$ admet deux racines réelles et simples. On suppose maintenant $n\geqslant3$

Une éventuelle racine complexe $z$ commune à $P_n=X^n-X-1$ et $P_n’=nX^{n-1}-1$ est encore racine de $P_n-\dfrac{1}{n}XP_n’=\left(\dfrac{1}{n}-1\right)X-1$ et est donc nécessairement égale à $-\dfrac{n}{n-1}$. En particulier, une racine commune à $P_n$ et $P_n’$ est un nombre rationnel, non nul car $P_n(0)=-1\neq0$.

Soit $r=\dfrac{a}{b}$ avec $(a,b)\in\mathbb{Z}^*\times\mathbb{N}^*$ et $a\wedge b=1$. Si $P_n(r)=0$, alors $a^n-ab^{n-1}-b^n=0$ puis $a^n=b\left(ab^{n-2}+b^{n-1}\right)$ et $b^n=a\left(a^{n-1}-b^{n-1}\right)$. Mais alors, $b$ divise $b\left(ab^{n-2}+b^{n-1}\right)$ et donc $b$ divise $1\times a^n$. De plus, $b$ est premier à $a$ et donc à $a^n$. D’après le théorème de Gauss, $b$ divise $1$ puis $b=1$ car $b\in\mathbb{N}^*$. De même, $a$ divise $1\times b^n$ puis $a$ divise $1$ puis $a=\pm1$. Mais alors, $r=\pm1$. Maintenant, $P_n(1)=-1\neq0$ et $P_n(-1)=(-1)^n\neq0$. Donc, $P_n$ n’admet pas de racine rationnelle puis $P_n$ et $P_n’$ n’admettent pas de racine commune dans $\mathbb{C}$.

Ceci montre que $P_n$ admet $n$ racines simples dans $\mathbb{C}$.

2) Quand $n=2$, $X^2-X-1=\left(X-z_1\right)\left(X-z_2\right)$ et donc $z_1+z_2=1$ et $z_1z_2=-1$. Mais alors,

$$\begin{vmatrix}1+z_1&1\\1&1+z_2\end{vmatrix}=\left(1+z_1\right)\left(1+z_2\right)-1=z_1+z_2-z_1z_2=1-1=0.$$

On suppose maintenant $n\geqslant 3$. On note $\left(E_i\right)_{1\leqslant i\leqslant n}$ la base canonique de $\mathscr{M}_{n,1}(\mathbb{C})$ et on pose $U=\begin{pmatrix}1\\1\\\vdots\\1\end{pmatrix}$. On a donc

$$\text{det}(A)=\text{det}\left(U+z_1E_1,U+z_2E_2,\ldots,U+z_nE_n\right).$$

Par $n$-linéarité, $\text{det}(A)$ est somme de $2^n$ déterminants dont chaque colonne $C_j$ est soit égale à $U$, soit égale à $z_jE_j$. Un tel déterminant est nul dès que au moins deux des colonnes sont égales à $U$. Il reste

$$\text{det}(A)=\text{det}\left(z_1E_1,\ldots,z_nE_n\right)+\displaystyle\sum_{i=1}^{n}\text{det}\left(z_1E_1,\ldots,z_{j-1}E_{j-1},U,z_{j+1}E_{j+1},\ldots,z_nE_n\right).$$

Ensuite, $\text{det}\left(z_1E_1,\ldots,z_nE_n\right)=\text{det}\text{diag}\left(z_1,\ldots,z_n\right)=z_1\ldots z_n$ et d’autre part, pour tout $j\in\{1,\ldots,n\}$, $\text{det}\left(z_1E_1,\ldots,z_{j-1}E_{j-1},U,z_{j+1}E_{j+1},\ldots,z_nE_n\right)$ est un déterminant par blocs égal à $\displaystyle\prod_{\substack{i=n\\i\neq j}}^{n}z_i$. Donc,

$$\text{det}(A)=\sigma_n+\sigma_{n-1}$$

où $\sigma_1$, $\ldots$, $\sigma_n$, sont les fonctions symétriques élémentaires en les nombres $z_1$, $\ldots$, $z_n$. On sait que

$$X^n-\sigma_1X^{n-1}+\sigma_2X^{n-2}-\ldots+(-1)^{n-1}\sigma_{n-1}X+(-1)^n\sigma_n=\left(X-z_1\right)\ldots\left(X-z_n\right)=X^n-X-1.$$

Donc, $(1)^n\sigma_n=-1$ puis $\sigma_n=(-1)^{n-1}$ et de même $\sigma_{n-1}=-(-1)^{n-1}$. Donc, $\text{det}(A)=(-1)^{n-1}-(-1)^{n-1}=0$. On a montré que

$$\forall n\geqslant2,\;\text{det}(A)=0.$$

Commentaires et/ou rappels de cours

Relations entre coefficients et racines d’un polynôme scindé. Soit $P=\displaystyle\sum_{k=0}^{n}a_kX^k=a_n\left(X-z_1\right)\ldots\left(X-z_n\right)$ avec $a_n\neq0$. Pour tout $k\in\{1,\ldots,n\}$, on pose $\sigma_k=\displaystyle\sum_{1\leqslant i_1<i_2<\ldots<i_k\leqslant n}z_{i_1}\ldots z_{i_k}$.

Alors, pour tout $k\in\{1,\ldots,n\}$, $\sigma_k=(-1)^k\dfrac{a_{n-k}}{a_n}$. En particulier, $z_1+\ldots+z_n=\sigma_1=-\dfrac{a_{n-1}}{a_n}$ et $z_1\ldots z_n=\sigma_n=(-1)^n\dfrac{a_0}{a_n}$.

En effet, quand on développe le produit $a_n\left(X-z_1\right)\ldots\left(X-z_n\right)$, on obtient avant réduction une somme de $2^n$ termes, chaque terme contenant un certain nombre de facteurs $-z_i$ et de facteurs $X$. Les termes ayant $k$ facteurs $X$ sont les termes du type $\left(-z_{i_1}\right)\ldots\left(-z_{i_{n-k}}\right)\underbrace{X\ldots X}_{k\;\text{facteurs}}=(-1)^{n-k}z_{i_1}\ldots z_{i_{n-k}}X^k$ avec $i_1<i_2<\ldots<i_k$. On regroupe ces termes et on obtient le coefficient de $X^k$ : $(-1)^{n-k}\sigma_{n-k}a_n$. Pour tout $k\in\{0,\ldots,n-1\}$, on a donc $(-1)^{n-k}\sigma_{n-k}a_n=a_k$ puis $\sigma_{n-k}=(-1)^{n-k}\dfrac{a_k}{a_n}$ ou encore

$$\forall k\in\{1,\ldots,n\},\;\sigma_k=(-1)^k\dfrac{a_{n-k}}{a_n}.$$

Exercice – Difficulté 2 – Thème : espaces euclidiens. Titre : calcul de la distance à un sous-espace.

Enoncé (CCINP)

1) On considère dans $\mathbb{R}^n$ deux vecteurs non colinéaires $\left(a_1,\ldots,a_n\right)$ et $\left(b_1,\ldots,b_n\right)$.

Montrer que le système d’équations $\left\{\begin{array}{l}a_1x_1+\ldots+a_nx_n=0\\b_1x_1+\ldots+b_nx_n=0\end{array}\right.$ où $\left(x_1,\ldots,x_n\right)$ est un vecteur inconnu de $\mathbb{R}^n$, définit un espace vectoriel noté $F$. Donner sa dimension.

2) Application. Dans $\mathbb{R}^4$ muni du produit scalaire canonique, on note $e=\left(e_1,e_2,e_3,e_4\right)$ la base canonique. Soit le système : $\left\{\begin{array}{l}x-y+z+t=0\\x+2y+2z-t=0\end{array}\right.$.

a) Donner une base orthonormée de $F$.

b) Calculer $d(u,F)$ lorsque $u=e_1-e_3+2e_4$.

Corrigé

1) On note que $\mathbb{R}^n$ contient deux vecteurs non colinéaires et donc $n\geqslant2$.

Soit $\begin{array}[t]{cccc}f~:&\mathbb{R}^n&\rightarrow&\mathbb{R}^2\\ &\left(x_1,\ldots,x_n\right)&\mapsto&\left(a_1x_1+\ldots,a_nx_n,b_1x_1+\ldots+b_nx_n\right)\end{array}$. $f$ est une application linéaire et $F$ est son noyau. Donc, $F$ est un sous-espace vectoriel de $\mathbb{R}^n$. Ensuite, la matrice de $f$ relativement aux bases canoniques de $\mathbb{R}^n$ et $\mathbb{R}^2$ est $A=\begin{pmatrix}a_1&\ldots&a_n\\b_1&\ldots&b_n\end{pmatrix}$. $A$ est de rang $2$ car la famille de ses deux lignes est libre. Mais alors, d’après le théorème du rang,

$$\text{dim}(F)=\text{dim}(\text{Ker}(f))=n-\text{rg}(f)=n-\text{rg}(A)=n-2.$$

2) a) On applique 1) avec les vecteurs $a=(1,-1,1,1)$ et $b=(1,2,2,-1)$. $a$ et $b$ sont non colinéaires et donc $F$ est de dimension $4-2=2$. Ensuite, pour $(x,y,z,t)\in\mathbb{R}^4$,

$$(x,y,z,t)\in F\Leftrightarrow\left\{\begin{array}{l}x-y+z+t=0\\x+2y+2z-t=0\end{array}\right.\Leftrightarrow\left\{\begin{array}{l}y-t=x+z\\2y-t=-x-2z\end{array}\right.\Leftrightarrow\left\{\begin{array}{l}y=-2x-3z\\t=-3x-4z\end{array}\right..$$

Donc, $F=\left\{(x,-2x-3z,z,-3x-4z),\;(x,z)\in\mathbb{R}^2\right\}=\left\{x(1,0,-2,-3)+z(0,-3,1,-4),\;(x,z)\in\mathbb{R}^2\right\}=\text{Vect}\left(v_1,v_2\right)$ où $v_1=(1,-2,0,-3)$ et $v_2=(0,-3,1,-4)$. $\left(v_1,v_2\right)$ est une base du plan $F$.

Une base orthonormée de $F$ est par exemple l’orthonormalisée $\left(u_1,u_2\right)$ de la base $\left(v_1,v_2\right)$. On prend déjà $u_1=\dfrac{1}{\left\|v_1\right\|}v_1=\dfrac{1}{\sqrt{14}}(1,-2,0,-3)$. Ensuite, $\langle v_2,u_1\rangle u_1=\dfrac{18}{\sqrt{14}}\times\dfrac{1}{\sqrt{14}}(1,-2,0,-3)=\dfrac{9}{7}(1,-2,0,-3)$ puis

$$v_2-\langle v_2,u_1\rangle u_1=(0,-3,1,-4)-\dfrac{9}{7}(1,-2,0,-3)=\dfrac{1}{7}(-9,-3,7,-1).$$

La norme de ce vecteur est $\dfrac{1}{7}\sqrt{81+9+49+1}=\dfrac{1}{7}\sqrt{140}$. En normant ce vecteur, on obtient $u_2=\dfrac{1}{\sqrt{140}}(-9,-3,7,-1)$.

Une base orthonormée de $F$ est $\left(u_1,u_2\right)$ où $u_1=\dfrac{1}{\sqrt{14}}(1,-2,0,-3)$ et $u_2=\dfrac{1}{\sqrt{140}}(-9,-3,7,-1)$.

b) $u=(1,0,-1,2)$. En notant $p_F$ la projection orthogonale sur $F$, on sait que

\begin{align*}p_F(u)&=\langle u,u_1\rangle u_1+\langle u,u_2\rangle u_2=-\dfrac{5}{14}(1,-2,0,-3)-\dfrac{18}{140}(-9,-3,7,-1)=-\dfrac{25}{70}(1,-2,0,-3)-\dfrac{9}{70}(-9,-3,7,-1)=\dfrac{1}{70}(56,77,-63,84)\\&=\dfrac{1}{10}(8,11,-9,12),\end{align*}

puis

$$p_{F^\bot}(u)=u-p_F(u)=(1,0,-1,2)-\dfrac{1}{10}(8,11,-9,12)=\dfrac{1}{10}(2,-11,-1,8).$$

On sait alors que

$$d(u,F)=\left\|u-p_F(u)\right\|=\left\|p_{F^\bot}(u)\right\|=\dfrac{1}{10}\sqrt{4+121+1+64}=\dfrac{\sqrt{190}}{10}.$$

Commentaires et/ou rappels de cours

Orthonormalisation de Schmidt. Soit $\left(u_1,\ldots,u_n\right)$ une famille libre d’un espace préhilbertien $(E,\langle\;,\;\rangle)$. Il existe une famille orthonormale $\left(e_1,\ldots,e_n\right)$ et une seule telle que :  $\forall k\in\{1,\ldots,n\}$, $\text{Vect}\left(u_1,\ldots,u_k\right)=\text{Vect}\left(e_1,\ldots,e_k\right)$ et $\forall k\in\{1,\ldots,n\}$, $\langle u_k,e_k\rangle>0$ (théorème). La famille $\left(e_1,\ldots,e_n\right)$ (qui s’appelle l’orthonormalisée de la famille libre $\left(u_1,\ldots,u_n\right)$) s’obtient grâce au procédé d’orthonormalisation de Schmidt :

$\bullet$ $e_1=\dfrac{1}{\left\|u_1\right\|}u_1$,

$\bullet$ Pour tout $k\in\{1,\ldots,n-1\}$, $e_{k+1}=\dfrac{1}{\left\|e_{k+1}’\right\|}e_{k+1}’$ où $e_{k+1}’=u_{k+1}-\displaystyle\sum_{i=1}^{k}\langle u_{k+1},e_i\rangle e_i$.

Projeté orthogonal sur un sous-espace et distance à ce sous-espace. Soit $F$ un sous-espace vectoriel de dimension finie non nulle d’un espace préhilbertien $(E,\langle\;,\;\rangle)$. Soit $\left(e_1,\ldots,e_n\right)$ une base orthonormée de $F$ (obtenue en orthonormalisant une base $\left(u_1,\ldots,u_n\right)$ de $F$).

$\bullet$ La projection orthogonale $p_F$ sur $F$ est bien définie (car $E=F\oplus F^\bot$ (théorème de la projection orthogonale)).

$\bullet$ Pour tout $x\in E$, $p_F(x)=\displaystyle\sum_{k=1}^{n}\langle x,e_k\rangle e_k$.

$\bullet$ Pour tout $x\in E$, la distance de $x$ à $F$ est atteinte en $p_F(x)$ et uniquement en $p_F(x)$ et de plus

$$d(x,F)=\left\|x-p_F(x)\right\|=\left\|p_{F^\bot}(x)\right\|.$$