Exercices d’oraux type Centrale/Mines

retour vers la page des exercices d’oraux 

ALGEBRE LINEAIRE

Exercice – Difficulté 3 – Thème : espaces euclidiens. Titre : une caractérisation des similitudes.

Enoncé (Mines-Ponts)

Soit $(E,\langle\;,\;\rangle)$ un espace euclidien non réduit à $\{0\}$ et $s\in\mathscr{L}(E)$.

1) Etablir l’égalité du parallélogramme.

2) Montrer l’équivalence entre les deux propriétés suivantes :

(i) : $\exists c\in\mathbb{R}/$, $\forall(x,y)\in E^2,\;\langle s(x),s(y)\rangle=c\langle x,y\rangle$.

(ii) : $\forall(x,y)\in E^2$, $(\langle x,y\rangle=0\Rightarrow\langle s(x),s(y)\rangle=0$.

3) Trouver les $u\in\mathscr{L}(E)$ tels que : pour tout sous-espace $V$ de $E$, $u\left(V^\bot\right)\subset(u(V))^\bot$.

Corrigé

1) Pour tout $(x,y)\in E^2$, $\|x+y\|^2+\|x-y\|^2=\|x\|^2+2\langle x,y\rangle+\|y\|^2+\|x\|^2-2\langle x,y\rangle+\|y\|^2=2\left(\|x\|^2+\|y\|^2\right)$. On a montré l’identité du parallélogramme :

$$\forall(x,y)\in E^2,\;\|x+y\|^2+\|x-y\|^2=2\left(\|x\|^2+\|y\|^2\right).$$

2) (i) $\Rightarrow$ (ii) Supposons qu’il existe $c\in\mathbb{R}$ tel que pour tout $(x,y)\in E^2$, $\langle s(x),s(y)\rangle=c\langle x,y\rangle$. Soit $(x,y)\in E^2$ tel que $\langle x,y\rangle=0$. Alors, $\langle s(x),s(y)\rangle=c\langle x,y\rangle=0$.

(ii) $\Rightarrow$ (i) On suppose que $\text{dim}(E)=n\geqslant2$. Supposons que pour tout $(x,y)\in E^2$, si $\langle x,y\rangle=0$, alors $\langle s(x),s(y)\rangle=0$. Soit $\mathscr{B}=\left(e_1,\ldots,e_n\right)$ une base orthonormée. Soit $i\in\{2,\ldots,n\}$.

$$\langle e_i+e_1,e_i-e_1\rangle=\left\|e_i\right\|^2-\left\|e_1\right\|^2=0.$$

Mais alors

$$0=\langle s\left(e_i+e_1\right),s\left(e_i-e_1\right)\rangle=\langle s\left(e_i\right)+s\left(e_1\right),s\left(e_i\right)-s\left(e_1\right)\rangle=\left\|s\left(e_i\right)\right\|^2-\left\|s\left(e_1\right)\right\|^2$$

puis $\left\|s\left(e_i\right)\right\|=\left\|s\left(e_1\right)\right\|$. On peut poser $c=\left\|s\left(e_1\right)\right\|^2=\ldots=\left\|s\left(e_n\right)\right\|^2$, ce que l’on fait également quand $n=1$. Si $c=0$, alors l’endomorphisme $s$ s’annule sur une base de $E$ puis $s=0$. Mais alors, pour tout $(x,y)\in E^2$, $\langle s(x),s(y)\rangle=0=c\langle x,y\rangle$. Dorénavant, on suppose $c>0$.

Soit $f=\dfrac{1}{\sqrt{c}}s$. Pour tout $i\in\{1,\ldots,n\}$, $\left\|f\left(e_i\right)\right\|=\dfrac{1}{\sqrt{c}}\left\|s\left(e_i\right)\right\|=1$ et pour $i\neq j$, $\langle f\left(e_i\right),f\left(e_j\right)\rangle=\dfrac{1}{c}\langle s\left(e_i\right),s\left(e_j\right)\rangle=\dfrac{1}{c}\langle e_i,e_j\rangle=0$. Donc, l’image d’une base orthonormée de $E$ par $f$ est une base orthonormée de $E$ puis $f\in O(E)$.

Ainsi, $s=\sqrt{c}f$ où $c=\left\|s\left(e_1\right)\right\|^2$ et $f$ est un certain automorphisme orthogonal. On en déduit que pour tout $(x,y)\in E^2$,

$$\langle s(x),s(y)\rangle=c\langle f(x),f(y)\rangle=c\langle x,y\rangle.$$

On a montré que (i) $\Leftrightarrow$ (i). On note que la constante $c$ est nécessairement un réel positif car si $x\in E\setminus\{0\}$, $c=\dfrac{\|s(x)\|^2}{\|x\|^2}\geqslant0$.

3) Soit $u\in\mathscr{L}(E)$ tel que pour tout sous-espace $V$ de $E$, $u\left(V^\bot\right)\subset(u(V))^\bot$. Soit $x\in E\setminus\{0\}$. On $u\left(x^\bot\right)\subset(u(x))^\bot$ ou encore l’image par $u$ d’un vecteur orthogonal à $x$ est un vecteur orthogonal à $u(x)$. $u$ vérifie donc la condition (ii).

D’après la question précédente, il existe nécessairement un réel positif $k$ et un automorphisme orthogonal $f$ tels que $u=kf$.

Réciproquement, soient $k\in\mathbb{R}^+$ et $f\in O(E)$ puis $u=kf$. Soit $V$ un sous-espace de $E$. Soit $y\in U\left(V^\bot\right)$. Il existe $x\in V^\bot$ tel que $y=u(x)$ puis, pour tout $z\in V$,

$$\langle y,u(z)\rangle=\langle u(x),u(z)\rangle=k^2\langle f(x),f(z)\rangle=k^2\langle x,z\rangle=0,$$

et donc $y\in(u(V))^\bot$. Ceci montre que $u\left(V^\bot\right)\subset(u(V))^\bot$. 

On a montré que les endomorphismes $u$ de $E$ vérifiant pour tout sous-espace $V$ de $E$, $u\left(V^\bot\right)\subset(u(V))^\bot$ sont les similitudes de $E$ c’est-à-dire les endomorphismes de la forme $kf$ où $k\in\mathbb{R}^+$ et $f\in O(E)$.

Commentaires et/ou rappels de cours

Pas de commentaire particulier. 

Exercice – Difficulté 2 – Thème : espaces euclidiens. Titre : une inégalité pour des matrices symétriques définies positives.

Enoncé (Mines-Ponts)

Soit $S\in\mathscr{S}_n^{++}(\mathbb{R})$.

1) Montrer qu’il existe $A\in\mathscr{S}_n^{++}(\mathbb{R})$ telle que $A^2=S$.

2) Montrer que $A^{-1}\in\mathscr{S}_n^{++}(\mathbb{R})$ et que $\left(A^{-1}\right)^2=S^{-1}$.

3) On note $(.|.)$ le produit scalaire canonique sur $\mathscr{M}_{n,1}(\mathbb{R})$. Montrer que pour tout $X\in\mathscr{M}_{n,1}(\mathbb{R})$, on a $(X|X)^2\leqslant(SX|X)\left(S^{-1}X|X\right)$.

4) Dans quel cas a-t-on l’égalité ?

Corrigé

1) $S$ est symétrique réelle. D’après le théorème spectral, il existe $D=\text{diag}\left(\lambda_1,\ldots,\lambda_n\right)\in\mathscr{D}_n(\mathbb{R})$ et $P\in O_n(\mathbb{R})$ telles que $S=PDP^T$. De plus, $S$ est définie positive et donc, pour tout $i\in\{1,\ldots,n\}$, $\lambda_i>0$.

Soit $\Delta=\text{diag}\left(\sqrt{\lambda_1},\ldots,\sqrt{\lambda_n}\right)$ puis $A=P\Delta P^T$. $A$ est orthogonalement semblable à une matrice diagonale réelle et donc $A$ est symétrique réelle. De plus, $\text{Sp}(A)=\text{diag}\left(\sqrt{\lambda_i}\right)_{1\leqslant i\leqslant n}\subset]0,+\infty[^n$ et donc $A\in\mathscr{S}_n^{++}(\mathbb{R})$. Enfin,

$$A^2=P\Delta^2P^T=PDP^T=S.$$

2) Soit $A\in\mathscr{S}_n^{++}(\mathbb{R})$ telle que $A^2=S$ (l’unicité de $A$ n’a pas été démontrée). $0$ n’est pas valeur propre de $A$ et donc $A\in GL_n(\mathbb{R})$ puis

$$\left(A^{-1}\right)^2=\left(A^2\right)^{-1}=S^{-1}.$$

3) On reprend les notations de la question 1). Soit $X=\left(x_i\right)_{1\leqslant i\leqslant n}\in\mathscr{M}_{n,1}(\mathbb{R})$ puis $X’=P^TX=\left(x_i’\right)_{1\leqslant i\leqslant n}$.

\begin{align*}(SX|X)\left(S^{-1}X|X\right)&=\left(A^2X|X\right)\left(\left(A^{-1}\right)^2|X\right)=(AX|AX)\left(A^{-1}X|A^{-1}X\right)\;(\text{car}\;A\;\text{et}\;A^{-1}\;\text{sont symétriques})\\&=\|AX\|^2\left\|A^{-1}X\right\|^2=\|PDP^TX\|^2\left\|PD^{-1}P^TX\right\|^2=\|DX’\|^2\left\|D^{-1}X’\right\|^2\;(\text{car}\;P\in O_n(\mathbb{R}))\\&\geqslant\left(DX’|D^{-1}X’\right)^2\;(\text{d’après l’inégalité de Cauchy-Schwarz})\\&=\left(\displaystyle\sum_{i=1}^{n}\left(\lambda_ix_i’\right)\left(\dfrac{1}{\lambda_i}x_i’\right)\right)^2=\left(\displaystyle\sum_{i=1}^{n}x_i’^2\right)^2=\|X’\|^4=\left\|P^TX\right\|^4=\|X\|^4=(X|X)^2\;(\text{car}\;P\in O_n(\mathbb{R})).\end{align*}

On a montré que : $\forall X\in\mathscr{M}_{n,1}(\mathbb{R})$, $(SX|X)\left(S^{-1}X|X\right)\geqslant (X|X)^2$.

4) L’application $X\mapsto P^TX$ est une permutation de $\mathscr{M}_{n,1}(\mathbb{R})$ (de réciproque $X\mapsto PX$). Donc, $X$ décrit $\mathscr{M}_{n,1}(\mathbb{R})$ si et seulement si $X’=P^TX$ décrit $\mathscr{M}_{n,1}(\mathbb{R})$.

On a l’égalité si et seulement si la seule inégalité écrite est une égalité ce qui équivaut à $\forall X’\in\mathscr{M}_{n,1}(\mathbb{R})=\|DX’\|\left\|D^{-1}X’\right\|=\left|\left(DX’|D^{-1}X’\right)\right|$. On sait que ceci équivaut au fait que pour tout $X’\in\mathscr{M}_{n,1}(\mathbb{R})$, la famille $\left(DX’,D^{-1}X’\right)$ est liée $(\star)$.

Si c’est le cas, en appliquant $(\star)$ au vecteur $U=\begin{pmatrix}1\\\vdots\\1\end{pmatrix}$, il existe $k\in\mathbb{R}$ tel que $\left(\lambda_1,\ldots,\lambda_n\right)=k\left(\dfrac{1}{\lambda_1},\ldots,\dfrac{1}{\lambda_n}\right)$ ou encore, pour tout $i\in\{1,\ldots,n\}$, $\lambda_i^2=k$. Ainsi, $\lambda_1^2=\ldots=\lambda_n^2$ puis $\lambda_1=\ldots=\lambda_n$ car les $\lambda_i$ sont positifs. En notant $\lambda$ la valeur commune des $\lambda_i$, on obtient $D=\lambda I_n$ puis $S=\lambda I_n$. Ainsi, si on a l’égalité pour tout $X\in\mathscr{M}_{n,1}(\mathbb{R})$, alors $S$ est une matrice scalaire (définie, positive).

Inversement, si il existe $\lambda>0$ tel que $S=\lambda I_n$, alors pour tout $X\in\mathscr{M}_{n,1}(\mathbb{R})$, $(SX|X)\left(S^{-1}X|X\right)=\dfrac{\lambda}{\lambda}(X|X)^2=(X|X)^2$.

On a l’égalité pour tout $X\in\mathscr{M}_{n,1}(\mathbb{R})$ si et seulement si $S$ est une matrice scalaire (définie, positive).

Commentaires et/ou rappels de cours

Pas de commentaire particulier. 

Exercice – Difficulté 3 – Thème : réduction. Titre : un endomorphisme nilpotent.

Enoncé (Mines-Ponts)

 Soit $E$ un $\mathbb{K}$-espace vectoriel de dimension finie non nulle. Soient $f$ et $g$ deux endomorphismes de $E$ tels que $fg-gf=f$.

1) Montrer que pour tout $n\in\mathbb{N}$, $f^ng-gf^n=nf^n$.

2) En déduire, pour tout $P\in\mathbb{K}[X]$, une expression de $P(f)g-gP(f)$ en fonction de $f$ uniquement.

3) Montrer que $f$ est nilpotent.

Corrigé

1) Avec la convention $f^0=Id_E$ pour tout $f\in\mathscr{L}(E)$, l’égalité est vraie quand $n=0$. Soit $n\geqslant1$.

\begin{align*}f^n\circ g-g\circ f^n&=\displaystyle\sum_{k=0}^{n-1}\left(f^{n-k}gf^k-f^{n-(k+1)}gf^{k+1}\right)\;(\text{somme télescopique})\\&=\displaystyle\sum_{k=0}^{n-1}f^{n-k-1}\left(fg-gf\right)f^k=\displaystyle\sum_{k=0}^{n-1}f^{n-k-1}\circ f\circ f^k=\displaystyle\sum_{k=0}^{n-1}f^n=nf^n.\end{align*}

2) Soit $P=\displaystyle\sum_{k=0}^{p}a_kX^k\in \mathbb{K}[X]$ un polynôme de degré supérieur ou égal à $1$.

$$P(f)\circ g-g\circ P(f)=\displaystyle\sum_{k=0}^{p}a_k\left(f^kg-gf^k\right)=\displaystyle\sum_{k=0}^{p}ka_kf^k=f\displaystyle\sum_{k=1}^{p}ka_kf^{k-1}=fP'(f),$$

ce qui reste vrai si $\text{deg}(P)\leqslant0$.

3) On applique le résultat précédent au polynôme minimal $\mu_f$ de $f$. On obtient $0=\mu_f(f)\circ g-g\circ\mu_f(f)=f\mu_f'(f)$.

Le polynôme $X\mu_f’$ est aussi un polynôme annulateur de $f$ et $X\mu_f’$ est un multiple de $\mu_f$. En notant $d\geqslant1$ le degré de $\mu_f$, $X\mu_f’$ est encore de degré $d$ et de coefficient dominant $d$ (car $\mu_f$ est unitaire). Par suite, $X\mu_f’=d\mu_f$ puis $\dfrac{\mu_f’}{\mu_f}=\dfrac{d}{X}$.

En identifiant à la décomposition en éléments simples de $\dfrac{P’}{P}$ où $P$ est de degré supérieur ou égal à $1$, on a donc $\mu_f=X^d$. Mais alors,

$$f^d=\mu_f(f)=0,$$

et donc $f$ est nilpotent.

Commentaires et/ou rappels de cours

$\bullet$ Si $P=\lambda\displaystyle\prod_{i=1}^{k}\left(X-z_i\right)^{\alpha_i}$ où $\lambda\in\mathbb{C}^*$, où les $z_i$ sont des complexes deux à deux distincts et les $\alpha_i$ sont des entiers naturels non nuls, alors

$$\dfrac{P’}{P}=\displaystyle\sum_{i=1}^{k}\dfrac{\alpha_i}{X-z_i}.$$

En effet,

$$P’=\displaystyle\sum_{i=1}^{k}\lambda\alpha_i\left(X-z_i\right)^{\alpha_i-1}\displaystyle\prod_{\substack{j=1\\j\neq i}}^{k}\left(X-z_j\right)^{\alpha_j}=P\displaystyle\sum_{i=1}^{k}\dfrac{\alpha_i}{X-z_i}.$$

$\bullet$ « L' »autre solution à cet exercice très classique consiste (une fois établi le 1) : $f^ng-gf^n=nf^n$) à considérer $\begin{array}[t]{cccc}\varphi~:&\mathscr{L}(E)&\rightarrow&\mathscr{L}(E)\\ &h&\mapsto&hg-gh\end{array}$. $\Phi$ est un endomorphisme de $\mathscr{L}(E)$ et pour tout $n\in\mathbb{N}$, $\Phi\left(f^n\right)=nf^n$. Si par l’absurde, pour tout $n\in\mathbb{N}^*$, $f^n\neq0$, alors pour tout $n\in\mathbb{N}^*$, $n$ est valeur propre de $\Phi$ et en particulier $\Phi$ a une infinité de valeurs propres. Mais ceci est impossible car $\mathscr{L}(E)$ est de dimension finie. Donc, il existe $n\in\mathbb{N}^*$ tel que $f^n=0$.

Exercice – Difficulté 2 – Thème : algèbre linéaire. Titre : somme de projecteurs de rang 1.

Enoncé (Centrale)

 Soit $E$ un espace vectoriel de dimension finie $n$. On suppose qu’il existe $\left(u_i\right)_{1\leqslant i\leqslant n}$ des endomorphismes non nuls de $E$ tels que pour $i,j\in\{1,\ldots,n\}$, $u_i\circ u_j=\delta_{i,j}u_i$.

1) a) Montrer que $E=\underset{1\leqslant i\leqslant n}{\bigoplus}\text{Im}\left(u_i\right)$. En déduire $\text{rg}\left(u_i\right)$ puis calculer $\displaystyle\sum_{i=1}^{n}u_i$.

b) On suppose qu’il existe une famille $\left(u_i’\right)_{1\leqslant i\leqslant n}$ vérifiant les mêmes propriétés que la famille $\left(u_i\right)_{1\leqslant i\leqslant n}$. Montrer qu’il existe $\tau\in GL(E)$ tel que, pour tout $i\in\{1,\ldots,n\}$, $\tau\circ u_i\circ\tau^{-1}=u_i’$.

2) Soit $v\in\mathscr{L}(E)$. Montrer que $v$ est diagonalisable si et seulement si il existe des projecteurs $p_1$, $\ldots$, $p_n$, tels que $p_i\circ p_j=0$ pour $i\neq j$ et des scalaires $\lambda_1$, $\ldots$ , $\lambda_n$ tel que $v=\displaystyle\sum_{i=1}^n\lambda_ip_i$.

Corrigé

1) a) $\bullet$ Pour tout $i\in\{1,\ldots,n\}$, $u_i^2=u_i$ ($u_i$ est donc une projection) et pour tous $i\neq j$, $u_i\circ u_j=0$.

Vérifions que la somme des $\text{Im}\left(u_i\right)$ est directe. Soit $i\in\{1,\ldots,n\}$. Soit $x\in\text{Im}\left(u_i\right)\cap\displaystyle\sum_{\substack{j=1\\j\neq i}}^{n}\text{Im}\left(u_j\right)$. Il existe $\left(x_j\right)_{1\leqslant j\leqslant n,\;j\neq i}\in E^{n-1}$ tel que $x=\displaystyle\sum_{\substack{j=1\\j\neq i}}^{n}u_j\left(x_j\right)$. En prenant l’image des deux membres par $u_i$, on obtient (en tenant compte du fait que $x$ est dans $\text{Im}\left(u_i\right)$ et donc est invariant par $u_i$),

$$x=u_i(x)=\displaystyle\sum_{\substack{j=1\\j\neq i}}^{n}u_i\circ u_j\left(x_j\right)=0.$$

Donc, pour tout $i\in\{1,\ldots,n\}$, $\text{Im}\left(u_i\right)\cap\displaystyle\sum_{\substack{j=1\\j\neq i}}^{n}\text{Im}\left(u_j\right)=\{0\}$ et on en déduit que la somme des $\text{Im}\left(u_i\right)$ est directe. D’autre part, chaque $u_i$ étant non nul,

$$\text{dim}\left(\underset{1\leqslant i\leqslant n}{\bigoplus}\text{Im}\left(u_i\right)\right)=\displaystyle\sum_{i=1}^{n}\text{dim}\left(\text{Im}\left(u_i\right)\right)\geqslant\displaystyle\sum_{i=1}^{n}=n$$

puis $\text{dim}\left(\underset{1\leqslant i\leqslant n}{\bigoplus}\text{Im}\left(u_i\right)\right)=n=\text{dim}(E)<+\infty$. Donc, $E=\underset{1\leqslant i\leqslant n}{\bigoplus}\text{Im}\left(u_i\right)$.

$\bullet$ On a déjà écrit que pour tout $i\in\{1,\ldots,n\}$, $\text{rg}\left(u_i\right)\geqslant1$. De plus, s’il existe $i\in\{1,\ldots,n\}$ tel que $\text{dim}\left(\text{Im}\left(u_j\right)\right)>1$, alors

$$\text{dim}\left(\underset{1\leqslant i\leqslant n}{\bigoplus}\text{Im}\left(u_i\right)\right)=\displaystyle\sum_{i=1}^{n}\text{dim}\left(\text{Im}\left(u_i\right)\right)>n$$

ce qui est impossible. Donc, pour tout $i\in\{1,\ldots,n\}$, $\text{rg}\left(u_i\right)=1$.

$\bullet$ Soient $i\in\{1,\ldots,n\}$ puis $x\in\text{Im}\left(u_i\right)$. $u(x)=\displaystyle\sum_{j=1}^{n}u_j(x)=\displaystyle\sum_{j=1}^{n}\delta_{i,j}x=x$. Les endomorphismes $u$ et $Id$ coïncident sur chacun des $\text{Im}\left(u_i\right)$ qui sont des sous-espaces supplémentaires et donc $u=Id$.

b) Les $u_i’$ sont aussi des projecteurs de rang $1$ tels que $E=\underset{1\leqslant i\leqslant n}{\bigoplus}\text{Im}\left(u_i’\right)$. Pour tout $i\in\{1,\ldots,n\}$, posons $D_i=\text{Im}\left(u_i\right)=\text{Vect}\left(e_i\right)$ et $D_i’=\text{Im}\left(u_i’\right)=\text{Vect}\left(e_i’\right)$. Puisque $E$ est somme directe des $D_i$ ou des $D_i’$, $\mathscr{B}=\left(e_1,\ldots,e_n\right)$ et $\mathscr{B}’=\left(e_1′,\ldots,e_n’\right)$ sont deux bases de $E$.

Soit $\tau$ l’endomorphisme de $E$ défini par : pour tout $i\in\{1,\ldots,n\}$, $\tau\left(e_i\right)=e_i’$. Puisque l’image par $\tau$ d’une base de $E$ est une base de $E$, $\tau$ est un automorphisme. Ensuite, pour tout $(i,j)\in\{1,\ldots,n\}^2$,

$$\tau\circ u_i\circ\tau^{-1}\left(e_j’\right)=\tau\circ u_i\left(e_j\right)=\delta_{i,j}\tau\left(e_i\right)=\delta_{i,j}e_i’=u_i’\left(e_j’\right).$$

Pour tout $i\in\{1,\ldots,n\}$, les endomorphisme $\tau\circ u_i\circ\tau^{-1}$ et $u_i’$ coïncident sur une base de $E$ et donc, pour tout $i\in\{1,\ldots,n\}$, $\tau\circ u_i\circ\tau^{-1}=u_i’$.

2) $\bullet$ Supposons $v$ diagonalisable. Soient $\left(e_1,\ldots,e_n\right)$ une base de $E$ constituée de vecteurs propres de $v$ et $\left(\lambda_1,\ldots,\lambda_n\right)$ la famille des valeurs propres associée. Pour tout $i\in\{1,\ldots,n\}$, on note $p_i$ la projection sur $D_i=\text{Vect}\left(e_i\right)$ parallèlement à $H_i=\text{Vect}\left(e_j\right)_{1\leqslant j\leqslant n,\;j\neq i}$. Pour tout $i\in\{1,\ldots,n\}$, on a

$$\left(\displaystyle\sum_{j=1}^{n}\lambda_jp_j\right)\left(e_i\right)=\displaystyle\sum_{j=1}^{n}\lambda_j\delta_{i,j}e_i=\lambda_ie_i=v\left(e_i\right).$$

Les endomorphismes $\displaystyle\sum_{j=1}^{n}\lambda_jp_j$ et $v$ coïncident sur une base de $E$ et donc $v=\displaystyle\sum_{j=1}^{n}\lambda_jp_j$.

$\bullet$ Supposons qu’il existe $\left(\lambda_1,\ldots,\lambda_n\right)\in\mathbb{K}^n$ et des projecteurs $p_1$, $\ldots$ , $p_n$ tels que pour tout $i\neq j$, $p_i\circ p_j$ tels que $v=\displaystyle\sum_{i=1}^{n}\lambda_ip_i$. Tout d’abord

$$v^2=\left(\displaystyle\sum_{i=1}^{n}\lambda_ip_i\right)\left(\displaystyle\sum_{j=1}^{n}\lambda_jp_j\right)=\displaystyle\sum_{1\leqslant i,j\leqslant n}\lambda_i\lambda_jp_i\circ p_j=\displaystyle\sum_{i=1}^{n}\lambda_i^2p_i,$$

et plus généralement, par récurrence, pour tout $k\in\mathbb{N}$, $v^k=\displaystyle\sum_{i=1}^{n}\lambda_i^kp_i$. Mais alors, pour tout $P=\displaystyle\sum_{k=0}^{d}a_kX^k$,

$$P(v)=\displaystyle\sum_{k=0}^{d}a_kv^k=\displaystyle\sum_{i=1}^{n}\left(\displaystyle\sum_{k=0}^{d}a_k\lambda_i^k\right)p_i=\displaystyle\sum_{i=1}^{n}P\left(\lambda_i\right)p_i.$$

On choisit pour $P$ le polynôme unitaire de plus bas degré, admettant pour racines $\lambda_1$, $\ldots$ , $\lambda_n$ ($P$ est donc scindé sur $\mathbb{K}$, à racines simples). De plus,

$$P(v)=\displaystyle\sum_{i=1}^{n}P\left(\lambda_i\right)p_i=0.$$

On en déduit que $v$ est diagonalisable.

Commentaires et/ou rappels de cours

Définition. Soient $F_1$, $\ldots$ , $F_n$, $n$ sous-espaces vectoriels d’un espace vectoriel $E$. La somme $\displaystyle\sum_{i=1}^{n}F_i$ est directe si et seulement si tout $x$ de $\displaystyle\sum_{i=1}^{n}F_i$, $x$ s’écrit de manière unique sous la forme $x=x_1+\ldots+x_n$ avec $\left(x_1,\ldots,x_n\right)\in F_1\times\ldots\times F_n$.

Théorème. $\displaystyle\sum_{i=1}^{n}F_i$ est directe si et seulement si, pour tout $i\in\{1,\ldots,n\}$, $F_i\cap\displaystyle\sum_{j\neq i}F_j=\{0\}$.

$\displaystyle\sum_{i=1}^{n}F_i$ est directe si et seulement si pour tout $i\in\{2,\ldots,n\}$, $F_i\cap\displaystyle\sum_{j<i}F_j=\{0\}$.

Exercice – Difficulté 3 – Thème : espaces préhlibertiens. Titre : matrices de Gram et distance à un sous-espace.

Enoncé (Centrale)

On se place dans un espace préhilbertien $(E,\langle\;,\;,\rangle)$. Pour $x_1$, $\ldots$ , $x_d$, vecteurs de $E$, on pose $G\left(x_1,\ldots,x_d\right)=\left(\langle x_i,x_j\rangle\right)_{1\leqslant i,j\leqslant n}$ la matrice de GRAM associée.

1) a) Jusitfier que $G\left(x_1,\ldots,x_d\right)$ est diagonalisable.

b) Montrer que si $\left(x_1,\ldots,x_d\right)$ est lié, alors $G\left(x_1,\ldots,x_d\right)$ est inversible.

2) Soit $F$ un sous-espace vectoriel de $E$ de dimension finie. On fixe $\left(x_1,\ldots,x_d\right)$ une base de $E$.

Après avoir justifié que $G\left(x_1,\ldots,x_d\right)$ est inversible, montrer que pour tout $x$ de $E$,

$$(d(x,F))^2=\dfrac{\text{det}\left(G\left(x,x_1,\ldots,x_d\right)\right)}{\text{det}\left(G\left(x_1,\ldots,x_d\right)\right)}.$$

3) On se place dans $E=C^0([0,1],\mathbb{R})$ muni du produit scalaire $(f,g)\mapsto\langle f,g\rangle=\displaystyle\int_{0}^{1}f(t)g(t)\;dt$.

Pour $r\in\mathbb{R}_+^*$, on note $\phi_r~:~x\mapsto x^r$. définie et continue sur $\mathbb{R}^+$.

Soient $r_1$, $\ldots$ , $r_d$, des réels strictement positifs distincts. On note $F=\text{Vect}\left(\phi_{r_1},\ldots,\phi_{r_d}\right)$. Pour $r\in\mathbb{R}_+^*$, déterminer $d\left(\phi_r,F\right)$

Corrigé

1) a) $G\left(x_1,\ldots, x_d\right)$ est symétrique réelle. Donc, $G\left(x_1,\ldots, x_d\right)$ est diagonalisable dans $\mathscr{M}_n(\mathbb{R})$ d’après le théorème spectral.

b) Supposons la famille $\left(x_1,\ldots,x_d\right)$liée. Il existe $j\in\{1,\ldots,d\}$ puis $\left(\lambda_k\right)_{k\neq j}\in\mathbb{R}^{d-1}$ tel que $x_j=\displaystyle\sum_{k\neq j}\lambda_kx_k$. En notant $C_1$, $\ldots$ , $C_d$, les colonnes de $G\left(x_1,\ldots, x_d\right)$, La $j$-ème s’écrit :

$$C_j=\left(\left(\langle x_i,\displaystyle\sum_{k\neq j}\lambda x_k\right\rangle\right)_{1\leqslant i\leqslant d}=\displaystyle\sum_{k\neq j}\left(\left(\langle x_i,x_k\right\rangle\right)_{1\leqslant i\leqslant d}=\displaystyle\sum_{k\neq j}\lambda_kC_k.$$

Une des colonnes de la matrice $G\left(x_1,\ldots,x_d\right)$ est combinaison linéaire des autres colonnes de cette matrice. Donc, la matrice $G\left(x_1,\ldots,x_d\right)$ n’est pas inversible.

2) Soient $\left(x_1,\ldots,x_d\right)$ une famille libre puis $F=\text{Vect}\left(x_1,\ldots,x_d\right)$. On note $p_F$ la projection orthogonale sur $F$ (qui est bien définie puisque $F$ est de dimension finie). Soient $\mathscr{B}=\left(e_1,\ldots,e_d\right)$ une base orthonormée de $F$ puis $M\in\mathscr{M}_d(\mathbb{R})$ la matrice de la base $\left(x_1,\ldots,x_d\right)$ de $F$ dans la base $\mathscr{B}$.

Puisque la base $\mathscr{B}$ est orthonormée, pour tout $(i,j)\in\{1,\ldots,d\}$, le coefficient ligne $i$, colonne $j$, de la matrice $M^TM$ est le produit scalaire du vecteur $x_i$ et du vecteur $x_j$. Donc, $G\left(x_1,\ldots,x_d\right)=M^TM$. Puisque $M$ est la matrice de passage d’une base de $F$ à une autre base de $F$, $\text{det}(M)\neq0$ puis $\text{det}\left(G\left(x_1,\ldots,x_d\right)\right)=(\text{det}(M))^2\neq0$. La matrice $G\left(x_1,\ldots,x_d\right)$ est inversible.

Soit $x\in E$. A l’aide du théorème de PYTHAGORE, on écrit la première colonne de la matrice $G\left(x,x_1,\ldots,x_d\right)$ comme la somme de deux colonnes : $\begin{pmatrix}\left\|x-p_F(x)\right\|^2\\0\\\vdots\\0\end{pmatrix}+\begin{pmatrix}\left\|p_F(x)\right\|^2\\\langle x,x_1\rangle\\\vdots\\\langle x,x_d\rangle\end{pmatrix}$. Par linéarité par rapport à la première colonne, le déterminant de $G\left(x_1,\ldots,x_d\right)$ est la somme de deux déterminants.

Le premier des deux déterminants obtenus est, après développement suivant sa première colonne, égal à $\left\|x-p_F(x)\right\|^2\text{det}\left(G\left(x_1,\ldots,x_d\right)\right)$ ou encore à $(d(x,F))^2\text{det}\left(G\left(x_1,\ldots,x_d\right)\right)$.

Dans le deuxième déterminant, on constate que pour tout $i\in\{1,\ldots,d\}$, $\langle x,x_i\rangle=\langle p_F(x),x_i\rangle+\langle x-p_F(x),x_i\rangle=\langle p_F(x),x_i\rangle$ car $x-p_F(x)\in F^\bot$. Le deuxième déterminant est donc le déterminant de la matrice $G\left(p_F(x),x_1,\ldots,x_d\right)$ et ce déterminant est nul car la famille $\left(p_F(x),x_1,\ldots,x_d\right)$ est liée.

Finalement, $\text{det}\left(G\left(x,x_1,\ldots,x_d\right)\right)=(d(x,F))^2\text{det}\left(G\left(x_1,\ldots,x_d\right)\right)$ ou encore

$$(d(x,F))^2=\dfrac{\text{det}\left(G\left(x,x_1,\ldots,x_d\right)\right)}{\text{det}\left(G\left(x_1,\ldots,x_d\right)\right)}.$$

3) On suppose sans perte de généralité que $0<r_1<\ldots<r_d$. Vérifions d’abord que la famille $\left(\phi_{r_1},\ldots,\phi_{r_d}\right)$ est libre. Supposons par l’absurde qu’il existe $\left(\lambda_1,\ldots,\lambda_d\right)\neq(0,\ldots,0)$ tel que $\lambda_1\phi_{r_1}+\ldots+\lambda_d\phi_{r_d}=0$. On note $k$ le plus petit des indices $i\in\{1,\ldots,d\}$ tel que $\lambda_i\neq0$. Par définition, pour tout $x\in[0,1]$, $\lambda_kx^{r_k}+\lambda_{k+1}x^{r_{k+1}}+\ldots+\lambda_dx^{r_d}=0$ puis pour tout $x\in]0,1]$, $\lambda_k+\lambda_{k+1}x^{r_{k+1}-r_k}+\ldots+\lambda_dx^{r_d-r_k}=0$. Quand $x$ tend vers $0$, on obtient $\lambda_k=0$, ce qui est une contradiction.

Donc, la famille $\left(\phi_{r_1},\ldots,\phi_{r_d}\right)$ est libre puis $d\left(\phi_r,F\right)=\sqrt{\dfrac{\text{det}\left(G\left(\phi_{r_1},\ldots,\phi_{r_d},\phi_r\right)\right)}{\text{det}\left(G\left(\phi_{r_1},\ldots,\phi_{r_d}\right)\right)}}$ où

$$\text{det}\left(G\left(\phi_{r_1},\ldots,\phi_{r_d},\phi_r\right)\right)=\begin{vmatrix}\dfrac{1}{r_1+r_1+1}&\dfrac{1}{r_1+r_2+1}&\ldots&\dfrac{1}{r_1+r_d+1}&\dfrac{1}{r_1+r+1}\\\dfrac{1}{r_2+r_1+1}&\dfrac{1}{r_2+r_2+1}&\ldots&\dfrac{1}{r_2+r_d+1}&\dfrac{1}{r_2+r+1}\\\vdots&\vdots& &\vdots&\vdots\\\dfrac{1}{r_d+r_1+1}&\dfrac{1}{r_d+r_2+1}&\ldots&\dfrac{1}{r_d+r_d+1}&\dfrac{1}{r_d+r+1}\\\dfrac{1}{r+r_1+1}&\dfrac{1}{r+r_2+1}&\ldots&\dfrac{1}{r+r_d+1}&\dfrac{1}{r+r+1}\end{vmatrix}\quad(\star).$$

Si $r$ est l’un des $r_i$, $1\leqslant i\leqslant d$, $d\left(\phi_r,F\right)=0$. On suppose dorénavant que $r$ est distinct de chacun des $r_i$, $1\leqslant i\leqslant d$.

On remplace la dernière colonne $C_{d+1}$ du déterminant $(\star)$ par $C_{d+1}’=\displaystyle\sum_{j=1}^{d+1}\lambda_jC_j$ où $\left(\lambda_1,\ldots,\lambda_{d+1}\right)\in\mathbb{R}^{d+1}$ avec $\lambda_{d+1}\neq0$. On obtient

$$\text{det}\left(G\left(\phi_{r_1},\ldots,\phi_{r_d},\phi_r\right)\right)=\dfrac{1}{\lambda_{d+1}}\text{det}\left(C_1,\ldots,C_d,C_{d+1}’\right).$$

La nouvelle dernière colonne s’écrit $\begin{pmatrix}R\left(r_1+1\right)\\\vdots\\R\left(r_d+1\right)\\R(r+1)\end{pmatrix}$ où $R=\displaystyle\sum_{k=1}^{d}\dfrac{\lambda_k}{X+r_k}+\dfrac{\lambda_{d+1}}{X+r}$. On prend alors $R=\dfrac{\left(X-r_1-1\right)\ldots\left(X-r_d-1\right)}{\left(X+r_1\right)\ldots\left(X+r_d\right)\left(X+r\right)}$ qui se décompose de la manière désirée car les racines du dénominateur sont simples et car le degré du numérateur est strictement inférieur au degré du dénominateur (et car $r$ est distint de chacun des $-r_i-1$). On obtient

$$\text{det}\left(G\left(\phi_{r_1},\ldots,\phi_{r_d},\phi_r\right)\right)=\dfrac{1}{\lambda_{d+1}}\begin{vmatrix}\dfrac{1}{r_1+r_1+1}&\dfrac{1}{r_1+r_2+1}&\ldots&\dfrac{1}{r_1+r_d+1}&0\\\dfrac{1}{r_2+r_1+1}&\dfrac{1}{r_2+r_2+1}&\ldots&\dfrac{1}{r_2+r_d+1}&0\\\vdots&\vdots& &\vdots&\vdots\\\dfrac{1}{r_d+r_1+1}&\dfrac{1}{r_d+r_2+1}&\ldots&\dfrac{1}{r_d+r_d+1}&0\\\dfrac{1}{r+r_1+1}&\dfrac{1}{r+r_2+1}&\ldots&\dfrac{1}{r+r_d+1}&R(r+1)\end{vmatrix}=\dfrac{R(r+1)}{\lambda_{d+1}}\text{det}\left(G\left(\phi_{r_1},\ldots,\phi_{r_d}\right)\right).$$

Enfin, $\lambda_{d+1}=\displaystyle\lim_{x\rightarrow-r}(x+r)R(x)=\dfrac{\left(-r-r_1-1\right)\ldots\left(-r-r_d-1\right)}{\left(-r+r_1\right)\ldots\left(-r+r_d\right)}=\dfrac{\left(r+r_1+1\right)\ldots\left(r+r_d+1\right)}{\left(r-r_1\right)\ldots\left(r-r_d\right)}$. Finalement,

$$\dfrac{\text{det}\left(G\left(\phi_{r_1},\ldots,\phi_{r_d},\phi_r\right)\right)}{\text{det}\left(G\left(\phi_{r_1},\ldots,\phi_{r_d}\right)\right)}=\dfrac{R(r+1)}{\lambda_{d+1}}=\dfrac{\left(r-r_1\right)\ldots\left(r-r_d\right)}{\left(r+r_1+1\right)\ldots\left(r+r_d+1\right)}\times\dfrac{\left(r+1-r_1-1\right)\ldots\left(r+1-r_d-1\right)}{\left(r+1+r_1\right)\ldots\left(r+1+r_d\right)\left(r+1+r\right)}=\dfrac{\left(r-r_1\right)^2\ldots\left(r-r_d\right)^2}{(2r+1)\left(r+r_1+1\right)^2\ldots\left(r+r_d+1\right)^2},$$

ce qui reste vrai quand $r$ est l’un des $r_i$, $1\leqslant i\leqslant d$. On a montré que

$$d\left(\phi_r,F\right)=\dfrac{1}{\sqrt{2r+1}}\dfrac{\left|r-r_1\right|\ldots\left|r-r_d\right|}{\left(r+r_1+1\right)\ldots\left(r+r_d+1\right)}.$$

 

Commentaires et/ou rappels de cours

Pas de commentaire particulier. 

Exercice – Difficulté 3 – Thème : . Titre : .

Enoncé

 

Corrigé

 

Commentaires et/ou rappels de cours