Exercices d’oraux type Centrale/Mines

retour vers la page des exercices d’oraux

ANALYSE

Exercice – Difficulté 3 – Thème : intégration. Titre : continuité et valeurs propres d’un opérateur sur l’espace des fonctions continues.

Enoncé (Mines-Ponts)

On fixe $\omega\in C^0\left(\mathbb{R},\mathbb{R}_+^*\right)$. Pour tout $f\in C^0(\mathbb{R};\mathbb{R})$, on pose

$$T_\omega(f)(x)=\dfrac{1}{\displaystyle\int_0^x\omega(t)\;dt} \displaystyle\int_0^xf(t)\omega(t)\;dt.$$

1) Montrer que $T_\omega(f)$ est prolongeable par continuité en $0$.

2) Soit $a>0$. Montrer que $T_\omega$ est un endomorphisme continu et injectif de $C^0([0,a],\mathbb{R})$ muni de la norme infini.

3) Soient $\lambda\in\mathbb{R}$ et $f\in C^0(\mathbb{R},\mathbb{R})$, non nulle, telle que $T_\omega(f)=\lambda f$.

$\quad$a) Donner une équation différentielle vérifiée par $f$ et la résoudre.

$\quad$b) Montrer que $\lambda\in]0,1]$.

Corrigé

1) Soit $f\in C^0(\mathbb{R},\mathbb{R})$.Les fonctions $\omega$ et $f\omega$ sont continues sur $\mathbb{R}$. Donc, pour tout réel $x$, les intégrales $\displaystyle\int_0^x\omega(t)\;dt$ et $\displaystyle\int_0^xf(t)\omega(t)\;dt$ existent.

Soit $x>0$ (resp. $x<0$). La fonction $\omega$ est une fonction continue, positive et non nulle sur l’intervalle $[0,x]$ (resp. $[x,0]$). Donc, $\displaystyle\int_{0}^{x}\omega(t)\;dt>0$ (resp. $\displaystyle\int_{0}^{x}\omega(t)\;dt=-\displaystyle\int_{x}^{0}\omega(t)\;dt<0$). On en déduit l’existence de $T_\omega(f)(x)$ pour tout $x\neq0$.

Soit $\varepsilon>0$. Puisque $f$ est continue en $0$, il existe $\alpha>0$ tel que pour tout $t\in[-\alpha,\alpha]$, $|f(t)-f(0)|\leqslant\varepsilon$. Soit $x\in[-\alpha,\alpha]\setminus\{0\}$.

$$T_\omega(f)(x)-f(0)=\dfrac{1}{\displaystyle\int_0^x\omega(t)\;dt} \displaystyle\int_0^xf(t)\omega(t)\;dt-f(0)\dfrac{1}{\displaystyle\int_0^x\omega(t)\;dt} \displaystyle\int_0^x\omega(t)\;dt=\dfrac{1}{\displaystyle\int_0^x\omega(t)\;dt} \displaystyle\int_0^x(f(t)-f(0))\omega(t)\;dt.$$

Si $x\in]0,\alpha]$, $\left|T_\omega(f)(x)-f(0)\right|\leqslant\dfrac{1}{\displaystyle\int_0^x\omega(t)\;dt} \displaystyle\int_0^x|f(t)-f(0)|\omega(t)\;dt\leqslant\dfrac{1}{\displaystyle\int_0^x\omega(t)\;dt} \displaystyle\int_0^x\varepsilon\omega(t)\;dt=\varepsilon$.

Si $x\in[-\alpha,0[$, $\left|T_\omega(f)(x)-f(0)\right|=\dfrac{1}{\displaystyle\int_x^0\omega(t)\;dt}\times\left|\displaystyle\int_x^0(f(t)-f(0))\omega(t)\;dt\right|\leqslant\dfrac{1}{\displaystyle\int_x^0\omega(t)\;dt} \displaystyle\int_x^0\varepsilon\omega(t)\;dt=\varepsilon$.

On a montré que : $\forall\varepsilon>0$, $\exists\alpha>0/$ $\forall x\in[-\alpha,\alpha]\setminus\{0\}$, $\left|T_\omega(f)(x)-f(0)\right|\leqslant\varepsilon$. Donc, $T_\omega(f)(x)\underset{x\rightarrow0}{\rightarrow}f(0)$. Ainsi, la fonction $T_\omega(f)$ se prolonge par continuité en $0$ en posant $T_\omega(f)(0)=f(0)$ (dorénavant, on note encore $T_\omega(f)$ le prolongement obtenu).

2) Soit $a>0$.

$\bullet$ Soit $f\in C^0([0,a],\mathbb{R})$. Les fonctions $\omega$ et $f\omega$ sont continues sur $[0,a]$. Donc, les fonctions $x\mapsto\displaystyle\int_0^x\omega(t)\;dt$ et $x\mapsto\displaystyle\int_0^xf(t)\omega(t)\;dt$ sont continues sur $[0,a]$. Mais alors, la fonction $T_\omega(f)$ est continue sur $]0,a]$ en tant que quotient de fonctions continues sur $]0,a]$ dont le dénominateur ne s’annule pas sur $]0,a]$. D’autre part, la fonction $T_\omega(f)$ est continue en $0$ et finalement la fonction $T_\omega(f)$ est continue sur $[0,a]$.

$T_\omega$ est donc une application de $E=C^0([0,a],\mathbb{R})$ dans $E$.

$\bullet$ Soient $(f,g)\in E^2$ et $(\lambda,\mu)\in\mathbb{R}^2$. Déjà

$$T_\omega(\lambda f+\mu g)(0)=(\lambda f+\mu g)(0)=\lambda f(0)+\mu g(0)=\lambda T_\omega(f)(0)+\mu T_\omega(g)(0).$$

D’autre part, pour tout $x\in]0,a]$,

$$T_\omega(\lambda f+\mu g)(x)=\dfrac{1}{\displaystyle\int_0^x\omega(t)\;dt} \displaystyle\int_0^x(\lambda f+\mu g)(t)\omega(t)\;dt=\lambda\dfrac{1}{\displaystyle\int_0^x\omega(t)\;dt} \displaystyle\int_0^xf(t)\omega(t)\;dt+\mu\dfrac{1}{\displaystyle\int_0^x\omega(t)\;dt} \displaystyle\int_0^xg(t)\omega(t)\;dt=\left(\lambda T_\omega(f)+\mu T_\omega(g)\right)(x).$$

Finalement, pour tout $x\in[0,a]$, $T_\omega(\lambda f+\mu g)(x)=\left(\lambda T_\omega(f)+\mu T_\omega(g)\right)(x)$ puis $T_\omega(\lambda f+\mu g)=\lambda T_\omega(f)+\mu T_\omega(g)$. Par suite, $T_\omega\in\mathscr{L}(E)$.

$\bullet$ Soit $f\in E$. La fonction $f$ est continue sur le segment $[0,a]$ et en particulier, la fonction $f$ est bornée sur le segment $[0,a]$. Pour tout $x\in]0,a]$,

$$\left|T_\omega(f)(x)\right|=\dfrac{1}{\displaystyle\int_0^x\omega(t)\;dt}\left|\displaystyle\int_0^xf(t)\omega(t)\;dt\right|\leqslant\dfrac{1}{\displaystyle\int_0^x\omega(t)\;dt}\displaystyle\int_0^x|f(t)|\omega(t)\;dt\leqslant\dfrac{1}{\displaystyle\int_0^x\omega(t)\;dt}\displaystyle\int_0^x\||f\||_{\infty,[0,a]}\omega(t)\;dt=\||f\||_{\infty,[0,a]},$$

ce qui reste vrai quand $x=0$. Donc, pour tout $x\in[0,a]$, $\left|T_\omega(f)(x)\right|\leqslant\||f\||_{\infty,[0,a]}$ puis $\left\|T_\omega(f)\right\|_{\infty,[0,a]}\leqslant\||f\||_{\infty,[0,a]}$. On en déduit que $T_\omega$ est continu sur $E$ muni de la norme infinie.

$\bullet$ Soit $f\in E$ telle que $T_\omega(f)=0$. Alors, $f(0)=0$ et pour tout $x\in]0,a]$, $\displaystyle\int_0^xf(t)\omega(t)\;dt=0$. La fonction $f\omega$ est continue sur $[0,a]$. Donc la fonction $x\mapsto \displaystyle\int_0^xf(t)\omega(t)\;dt$ est de classe $C^1$ sur $[0,a]$, de dérivée $f\omega$. En dérivant, on obtient pour tout $x\in]0,a]$, $f(x)\omega(x)=0$ puis $f(x)=0$ car la fonction $\omega$ ne s’annule pas sur $]0,a]$. Ainsi, pour tout $x\in[0,a]$, $f(x)=0$ puis $f=0$.

Par suite, $\text{Ker}\left(T_\omega\right)=\{0\}$ puis $T_\omega$ est injectif.

3) a) Soient $\lambda\in\mathbb{R}$ et $f\in C^0(\mathbb{R},\mathbb{R})$ telle que $T_\omega(f)=\lambda f$.

La démonstration précédente reste valable en remplaçant $[0,a]$ par $\mathbb{R}$ (pour tout $g\in C^0(\mathbb{R},\mathbb{R})$, $T_\omega(g)=0\Rightarrow g=0$). Puisque $f\neq0$, on en déduit que $\lambda\neq0$.

Pour tout $x\in\mathbb{R}$, $T_\omega(f)(x)=\lambda f(x)$ et donc pour tout $x\in\mathbb{R}^*$, $\displaystyle\int_{0}^{x}f(t)\omega(t)\;dt=\lambda f(x)\displaystyle\int_{0}^{x}\omega(t)\;dt$, ce qui reste vrai quand $x=0$. En dérivant les deux membres de cette égalité, on obtient pour tout $x\in\mathbb{R}$,

$$\lambda f(x)\omega+\lambda f'(x)\displaystyle\int_{0}^{x}\omega(t)\;dt=f(x)\omega(x)$$

puis $\lambda f'(x)\displaystyle\int_{0}^{x}\omega(t)\;dt+(\lambda-1)f(x)\omega(x)=0$ puis $f'(x)\displaystyle\int_{0}^{x}\omega(t)\;dt+\dfrac{\lambda-1}{\lambda}f(x)\omega(x)=0$. La fonction $f$ est donc solution sur $\mathbb{R}$ de l’équation différentielle

$$y’\displaystyle\int_{0}^{x}\omega(t)\;dt+\dfrac{\lambda-1}{\lambda}y\omega(x)=0\quad(E).$$

Résolution de $(E)$ sur $]0,+\infty[$. Sur $]0,+\infty[$, la fonction $x\mapsto\displaystyle\int_{0}^{x}\omega(t)\;dt$ ne s’annule pas et donc l’équation $(E)$ s’écrit $y’+\dfrac{\lambda-1}{\lambda}\dfrac{1}{\displaystyle\int_{0}^{x}\omega(t)\;dt}\omega(x) y=0$. La fonction $a~:~x\mapsto \dfrac{\lambda-1}{\lambda}\dfrac{1}{\displaystyle\int_{0}^{x}\omega(t)\;dt}\omega(x) $ est continue sur $]0,+\infty[$ et donc, les solutions de $(E)$ sur $]0,+\infty[$ constituent un $\mathbb{R}$-espace vectoriel de dimension $1$.

Soit $g$ une fonction dérivable sur $]0,+\infty[$. En tenant compte du fait que pour tout $x>0$, $\displaystyle\int_{0}^{x}\omega(t)\;dt>0$,

\begin{align*}\forall x>0,\;g'(x)+\dfrac{\lambda-1}{\lambda}\dfrac{1}{\displaystyle\int_{0}^{x}\omega(t)\;dt}\omega(x) g(x)=0&\Leftrightarrow\forall x>0,\;g'(x)\displaystyle\int_{0}^{x}\omega(t)\;dt+\dfrac{\lambda-1}{\lambda}\omega(x) g(x)=0\\&\Leftrightarrow\forall x>0,\;g'(x)\left(\displaystyle\int_{0}^{x}\omega(t)\;dt\right)^{\frac{\lambda-1}{\lambda}}+\dfrac{\lambda-1}{\lambda}\omega(x)\left(\displaystyle\int_{0}^{x}\omega(t)\;dt\right)^{\frac{\lambda-1}{\lambda}-1} g(x)=0\\&\Leftrightarrow\forall x>0,\;\left(g\left(\displaystyle\int_{0}^{x}\omega(t)\;dt\right)^{\frac{\lambda-1}{\lambda}}\right)'(x)=0\\&\Leftrightarrow\exists C\in\mathbb{R}/\;\forall x>0,\;g(x)\left(\displaystyle\int_{0}^{x}\omega(t)\;dt\right)^{\frac{\lambda-1}{\lambda}}=C\Leftrightarrow\exists C\in\mathbb{R}/\;\forall x>0,\;g(x)=C\left(\displaystyle\int_{0}^{x}\omega(t)\;dt\right)^{\frac{1-\lambda}{\lambda}}.\end{align*}

Les solutions de $(E)$ sur $]0,+\infty[$ sont les fonctions de la forme $C\left(\displaystyle\int_{0}^{x}\omega(t)\;dt\right)^{\frac{1-\lambda}{\lambda}}$, $C\in\mathbb{R}$.

b) Donc, il existe $C\in\mathbb{R}^*$ tel que pour tout $x>0$, $f(x)=C\left(\displaystyle\int_{0}^{x}\omega(t)\;dt\right)^{\frac{1-\lambda}{\lambda}}$. Puisque $\displaystyle\lim_{x\rightarrow0}\displaystyle\int_{0}^{x}\omega(t)\;dt=0$ et que $C\neq0$, si $\dfrac{1-\lambda}{\lambda}<0$, la fonction $f$ n’a pas de limite réelle en $0$ ce qui est faux.

Donc, $\dfrac{1-\lambda}{\lambda}\geqslant 0$ puis $\lambda\in]0,1]$

Commentaires et/ou rappels de cours

Théorème. Soient $\left(E,\|\;\|_E\right)$ et $\left(F,\|\;\|_F\right)$ deux $\mathbb{K}$-espaces vectoriels normés et soit $f\in\mathscr{L}(E,F)$. $f$ est continue si et seulement si il existe $K\in\mathbb{R}^+$ tel que pour tout $x\in E$, $\|f(x)\|_F\leqslant K\|x\|_E$. 

Exercice – Difficulté 2 – Thème : suites numériques. Titre : limite d’une suite définie implicitement.

Enoncé (Mines-Ponts)

1) Soit $n\in\mathbb{N}^*$. Montrer que l’équation $\displaystyle\sum_{k=1}^{n}x^k=1$ admet une unique solution sur $\mathbb{R}^+$, notée $u_n$.

2) Montrer que la suite $\left(u_n\right)$ converge et déterminer sa limite.

Corrigé

1) Soit $n\in\mathbb{N}^*$. Pour tout $x\geqslant0$, on pose $f_n(x)=\displaystyle\sum_{k=1}^{n}x^k$. La fonction $f_n$ est continue sur $\mathbb{R}^+$ et strictement croissante sur $\mathbb{R}^+$, en tant que somme de fonctions strictement croissantes sur $\mathbb{R}^+$. La fonction $f_n$ réalise une bijection de $[0,+\infty[$ sur $f([0,+\infty[)=\left[0,\displaystyle\lim_{x\rightarrow+\infty}f(x)\right[=[0,+\infty[$. En particulier, le nombre $1$ a un antécédent et un seul par la fonction $f_n$ dans $[0,+\infty[$. Ceci montre que l’équation proposée a une solution et une seule dans $\mathbb{R}^+$. On note $u_n$ cette solution.

2) $\bullet$ On a $u_1=1$. Ensuite, pour $n\geqslant2$, $f_n(1)=n>1=f_n\left(u_n\right)>0=f(0)$. Par stricte croissance de la fonction $f_n$ sur $[0,+\infty[$, on en déduit que $0<u_n<1$. La suite $\left(u_n\right)_{n\geqslant1}$ est donc bornée.

$\bullet$ Soit $n\in\mathbb{N}^*$. $f_{n+1}\left(u_n\right)=\displaystyle\sum_{k=1}^nu_n^k+u_{n}^{n+1}=1+u_n^{n+1}=f_{n+1}\left(u_{n+1}\right)+u_n^{n+1}>f_{n+1}\left(u_{n+1}\right)$. Par stricte croissance de la fonction $f_{n+1}$ sur $[0,+\infty[$, on en déduit que $u_n>u_{n+1}$. La suite $\left(u_n\right)_{n\geqslant1}$ est donc strictement décroissante.

$\bullet$ La suite $\left(u_n\right)_{n\geqslant1}$ est décroissante et minorée par $0$. Donc, la suite $\left(u_n\right)_{n\geqslant1}$ converge vers un réel $\ell\in[0,1]$.

$\bullet$ Soit $n\in\mathbb{N}^*$. $f_n\left(\dfrac{1}{2}\right)=\dfrac{1}{2}\times\dfrac{1-\left(\dfrac{1}{2}\right)^n}{1-\dfrac{1}{2}}=1-\left(\dfrac{1}{2}\right)^n<1=f_n\left(u_n\right)$. Par stricte croissance de la fonction $f_{n}$ sur $[0,+\infty[$, on en déduit que $u_n>\dfrac{1}{2}$. Donc,

$$\forall n\in\mathbb{N}^*,\;u_n>\dfrac{1}{2}.$$

Soit $\varepsilon\in\left]0,\dfrac{1}{2}\right[$. $f_n\left(\dfrac{1}{2}+\varepsilon\right)=\left(\dfrac{1}{2}+\varepsilon\right)\dfrac{1-\left(\dfrac{1}{2}+\varepsilon\right)^n}{\dfrac{1}{2}-\varepsilon}$ puis $\displaystyle\lim_{n\rightarrow+\infty}f_n\left(\dfrac{1}{2}+\varepsilon\right)=\dfrac{\dfrac{1}{2}+\varepsilon}{\dfrac{1}{2}-\varepsilon}$. Or, $\dfrac{1}{2}+\varepsilon>\dfrac{1}{2}-\varepsilon>0$ et donc $\dfrac{\dfrac{1}{2}+\varepsilon}{\dfrac{1}{2}-\varepsilon}>1$. Par suite, il existe $n_0\in\mathbb{N}^*$ tel que, pour tout $n\geqslant n_0$, $f_n\left(\dfrac{1}{2}+\varepsilon\right)>1=f_n\left(u_n\right)$ et donc tel que $u_n<\dfrac{1}{2}+\varepsilon$. Ainsi,

$$\forall\varepsilon\in\left]0,\dfrac{1}{2}\right[,\;\exists n_0\in\mathbb{N}^*/\;\forall n\geqslant n_0,\;\dfrac{1}{2}<u_n<\dfrac{1}{2}+\varepsilon.$$

Mais alors, $\forall\varepsilon>0,\;\exists n_0\in\mathbb{N}^*/\;\forall n\geqslant n_0,\;\left|u_n-\dfrac{1}{2}\right|\leqslant\varepsilon$. Ceci montre que

$$\displaystyle\lim_{n\rightarrow+\infty}u_n=\dfrac{1}{2}.$$

 

Commentaires et/ou rappels de cours

La suite $\left(u_n\right)$ est définie implicitement par l’égalité $f_n\left(u_n\right)=1$ ou encore explicitement par $u_n=f_n^{-1}(1)$. Toute information sur la suite $u$ sera obtenue à partir de cette égalité, en profitant en particulier du fait que la fonction $f_n$ est strictement croissante sur $[0,+\infty[$. 

On calcule $f_n(0)=0<1$, $f_n(1)=n>1$, $f_n\left(\dfrac{1}{2}\right)=1-\left(\dfrac{1}{2}\right)^n<1$ (mais de peu) $\ldots$

Si on veut poursuivre en obtenant un équivalent de $v_n=u_n-\dfrac{1}{2}$ de sorte $u_n=\dfrac{1}{2}+v_n$ avec $\displaystyle\lim_{n\rightarrow+\infty}v_n=0$, on peut calculer des expressions comme $f_n\left(\dfrac{1}{2}+\dfrac{1}{n}\right)$ et les comparer à $1=f_n\left(u_n\right)$, pour commencer à cerner $v_n$.

Exercice – Difficulté 3 – Thème : suites numériques. Titre : une suite avec des parties entières en indice.

Enoncé (Mines-Ponts)

 Soit $\left(a_n\right)_{n\in\mathbb{N}^*}$ une suite réelle telle que :

$$a_1=1\quad\text{et}\quad\forall n\geqslant2,\;a_n=2a_{\left\lfloor\frac{n}{2}\right\rfloor}.$$

1) Montrer que la suite $\left(a_n\right)_{n\in\mathbb{N}^*}$ est définie.

2) Montrer que la série de terme général $\dfrac{1}{a_n^2}$ converge.

3) Calculer sa somme.

Corrigé

1) Montrons par récurrence que pour tout $n\in\mathbb{N}^*$, $a_n$ est bien défini.

$\bullet$ $a_1=1$ est bien défini.

$\bullet$ Soit $n\geqslant1$. Supposons que pour tout $k\in\{1,\ldots,n\}$, $a_k$ est bien défini. On a alors

$$1\leqslant\left\lfloor\dfrac{n+1}{2}\right\rfloor\leqslant\dfrac{n+1}{2}\leqslant\dfrac{n+n}{2}=n.$$

Ainsi, $\left\lfloor\dfrac{n+1}{2}\right\rfloor$ est un entier élément de $\{1,\ldots,n\}$ et donc $a_{n+1}=2a_{\left\lfloor\frac{n+1}{2}\right\rfloor}$ est bien défini.

On a montré par récurrence que pour tout $n\in\mathbb{N}^*$, $a_n$ est bien défini.

2) Montrons par récurrence que pour tout $k\in\mathbb{N}$, pour tout $n\in\left\{2^k,2^k+1,\ldots,2^{k+1}-1\right\}$, $a_n=2^k$.

$\bullet$ Soit $n\in\left\{2^0,\ldots,2^1-1\right\}=\{1\}$. Alors $a_n=a_1=1=2^0$. Le résultat est vrai quand $k=0$.

$\bullet$ Soit $k\geqslant0$. Supposons que pour tout $n\in\left\{2^k,2^k+1,\ldots,2^{k+1}-1\right\}$, $a_n=2^k$. Soit $n\in\left\{2^{k+1},2^{k+1}+1,\ldots,2^{k+2}-1\right\}$. Donc, $2^{k+1}\leqslant n<2^{k+2}$ puis $2^k\leqslant\dfrac{n}{2}<2^{k+1}$ et donc $\left\lfloor\dfrac{n}{2}\right\rfloor\in\left\{2^k,2^k+1,\ldots,2^{k+1}-1\right\}$, Mais alors, $a_{n+1}=2a_{\left\lfloor\frac{n}{2}\right\rfloor}=2\times2^k=2^{k+1}$.

Le résultat est démontré par récurrence.

Soit $n\geqslant1$. Soit $k\in\mathbb{N}$ tel que $2^k\leqslant n<2^{k+1}$ (c’est-à-dire $k=\left\lfloor\dfrac{\ln(n)}{\ln(2)}\right\rfloor$).

$$0\leqslant\dfrac{1}{a_n^2}=\dfrac{1}{\left(2^k\right)^2}=\dfrac{4}{\left(2^{k+1}\right)^2}\leqslant\dfrac{4}{n^2}.$$

Puisque la série de terme général $\dfrac{4}{n^2}$ converge, il en est de même de la série de terme général $\dfrac{1}{a_n^2}$.

3) Pour $N\in\mathbb{N}^*$, on pose $S_N=\displaystyle\sum_{n=1}^{N}\dfrac{1}{a_n^2}$. Puisque la suite $\left(S_N\right)_{N\in\mathbb{N}^*}$ converge, $\displaystyle\lim_{N\rightarrow+\infty}S_N=\displaystyle\lim_{p\rightarrow+\infty}S_{2^{p+1}-1}$. Pour tout $p\in\mathbb{N}$,

\begin{align*}S_{2^{p+1}-1}&=\displaystyle\sum_{n=1}^{2^{p+1}-1}\dfrac{1}{a_n^2}=\displaystyle\sum_{k=0}^{p}\displaystyle\sum_{n=2^k}^{2^{k+1}-1}\dfrac{1}{a_n^2}=\displaystyle\sum_{k=0}^{p}\displaystyle\sum_{n=2^k}^{2^{k+1}-1}\dfrac{1}{2^{2k}}\\&=\displaystyle\sum_{k=0}^{p}\dfrac{2^{k+1}-2^k}{2^{2k}}=\displaystyle\sum_{k=0}^{p}\dfrac{2^{k}(2-1)}{2^{2k}}=\displaystyle\sum_{k=0}^{p}\dfrac{1}{2^{k}}\\&=2\left(1-\dfrac{1}{2^{p+1}}\right).\end{align*}

Par suite, $\displaystyle\lim_{p\rightarrow+\infty}S_{2^{p+1}-1}=2$. On a montré que

$$\displaystyle\sum_{n=1}^{+\infty}\dfrac{1}{a_n^2}=2.$$

Commentaires et/ou rappels de cours

La partie entière d’un réel $x$ est le plus grand entier inférieur ou égal à $x$. Par suite, $\lfloor x\rfloor\leqslant x<\lfloor x\rfloor+1$ ou aussi $x-1<\lfloor x\rfloor\leqslant x$.

Plus précisément, pour tout $k\in\mathbb {Z}$, $k=\lffloor x\rfloor\Leftrightarrow k\leqslant x<k+1$.

Exercice – Difficulté 2 – Thème : séries numériques. Titre : nature d’une série numérique.

Enoncé (Mines-Ponts)

Pour $n\in\mathbb{N}^*$, on pose $u_n=\cos\left(n^2\pi\ln\left(\dfrac{n}{n+1}\right)\right)$. Déterminer la nature de la série de terme général $u_n$. 

Corrigé

\begin{align*}n^2\pi\ln\left(\dfrac{n}{n+1}\right)&=-n^2\pi\ln\left(1+\dfrac{1}{n}\right)\underset{n\rightarrow+\infty}{=}-n^2\pi\left(\dfrac{1}{n}-\dfrac{1}{2n^2}+\dfrac{1}{3n^3}+O\left(\dfrac{1}{n^4}\right)\right)\\&\underset{n\rightarrow+\infty}{=}-n\pi+\dfrac{\pi}{2}-\dfrac{\pi}{3n}+O\left(\dfrac{1}{n^2}\right)\end{align*}

puis

\begin{align*}u_n&\underset{n\rightarrow+\infty}{=}\cos\left(-n\pi+\dfrac{\pi}{2}-\dfrac{\pi}{3n}+O\left(\dfrac{1}{n^2}\right)\right)\underset{n\rightarrow+\infty}{=}-(-1)^n\sin\left(-\dfrac{\pi}{3n}+O\left(\dfrac{1}{n^2}\right)\right)\underset{n\rightarrow+\infty}{=}(-1)^n\sin\left(\dfrac{\pi}{3n}+O\left(\dfrac{1}{n^2}\right)\right)\underset{n\rightarrow+\infty}{=}(-1)^n\dfrac{\pi}{3n}+O\left(\dfrac{1}{n^2}\right).\end{align*}

La suite $\left(v_n\right)_{n\in\mathbb{N}^*}=\left((-1)^n\dfrac{\pi}{3n}\right)_{n\in\mathbb{N}^*}$ est alternée en signe et sa valeur absolue, à savoir le suite $\left(\dfrac{\pi}{3n}\right)_{n\in\mathbb{N}^*}$, tend vers $0$ en décroissant. Donc, la série de terme général $v_n$ converge d’après le critère spécial aux séries alternées. D’autre part, la série de terme général $w_n=O\left(\dfrac{1}{n^2}\right)$ converge absolument et en particulier converge.

Mais alors, la série de terme général $u_n=v_n+w_n$ converge.

Commentaires et/ou rappels de cours

 Pas de commentaire particulier.

Exercice – Difficulté 2 – Thème : intégration. Titre : nature d’une intégrale.

Enoncé (Centrale)

La fonction $x\mapsto\displaystyle\int_{0}^{x}\sin\left(e^t\right)dt$ a-t-elle une limite en $+\infty$ ? 

Corrigé

 La fonction $t\mapsto\sin\left(e^t\right)$ est continue sur $[0,+\infty[$. On peut donc poser pour tout $x\geqslant0$, $f(x)=\displaystyle\int_{0}^{x}\sin\left(e^t\right)dt$.

Soit $x>0$. En posant $u=e^t$ et donc $t=\ln(u)$ puis $dt=\dfrac{du}{u}$, on obtient, à l’aide d’une intégration par parties licite,

\begin{align*}f(x)&=\displaystyle\int_{0}^{x}\sin\left(e^t\right)dt=\displaystyle\int_{1}^{e^x}\dfrac{\sin\left(u\right)}{u}\;du\\&=\left[\dfrac{-\cos(u)}{u}\right]_1^{e^x}-\displaystyle\int_{1}^{e^x}\dfrac{\cos(u)}{u^2}\;du=-\dfrac{\cos\left(e^x\right)}{e^x}+\cos(1)-\displaystyle\int_{1}^{e^x}\dfrac{\cos(u)}{u^2}\;du.\end{align*}

Pour tout $x>0$, $\left|\dfrac{\cos\left(e^x\right)}{e^x}\right|\leqslant e^{-x}$. Puisque $\displaystyle\lim_{x\rightarrow+\infty}e^{-x}=0$, le théorème des gendarmes permet d’affirmer que $\dfrac{\cos\left(e^x\right)}{e^x}$ converge en $+\infty$ et que $\displaystyle\lim_{x\rightarrow+\infty}\dfrac{\cos\left(e^x\right)}{e^x}=0$.

Ensuite, la fonction $u\mapsto\dfrac{\cos(u)}{u^2}$ est continue sur $[1,+\infty[$ et est dominée par $\dfrac{1}{u^2}$ en $+\infty$. Donc, la fonction $u\mapsto\dfrac{\cos(u)}{u^2}$ est intégrable sur $[1,+\infty[$ et en particulier, $\displaystyle\int_{1}^{+\infty}\dfrac{\cos(u)}{u^2}\;du$ est une intégrale convergente. Puisque $e^x\underset{x\rightarrow+\infty}{\rightarrow}+\infty$, la fonction $x\mapsto\displaystyle\int_{1}^{e^x}\dfrac{\cos(u)}{u^2}\;du$ a une limite réelle en $+\infty$.

Finalement, la fonction $f~:~x\mapsto\displaystyle\int_{0}^{x}\sin\left(e^t\right)dt$ a une limite réelle en $+\infty$ ou encore $\displaystyle\int_{0}^{+\infty}\sin\left(e^t\right)dt$ est une intégrale convergente.

Commentaires et/ou rappels de cours

On rappelle que pour montrer l’existence de $\displaystyle\int_{0}^{+\infty}\dfrac{\sin(t)}{t}\;dt$ (intégrale de DIRICHLET), l’intégration par parties est effectuée plus finement pour tenir compte également de la convergence en $0$ :

$$\displaystyle\int_{\varepsilon}^{A}\dfrac{\sin(t)}{t}\;dt=\dfrac{1-\cos(A)}{A}-\dfrac{1-\cos(\varepsilon)}{\varepsilon}+\displaystyle\int_{\varepsilon}^{A}\dfrac{1-\cos(t)}{t^2}\;dt.$$

Exercice – Difficulté 2 – Thème : intégration. Titre : développement asymptotique d’une intégrale.

Enoncé (Mines-Ponts)

1) Montrer que $\displaystyle\int_{n\pi}^{+\infty}\dfrac{\sin(t)}{t}\;dt\underset{n\rightarrow+\infty}{=}O\left(\dfrac{1}{n}\right)$. 

2) Soit $f$ continue, $2\pi$-périodique et impaire. Montrer qu’elle admet une primitive $2\pi$-périodique et paire si et seulement si $\displaystyle\int_{0}^{2\pi}f(t)\;dt=0$.

3) Soit $f$ une telle fonction. Montrer que $\displaystyle\int_{n\pi}^{+\infty}\dfrac{f(t)}{t}\;dt\underset{n\rightarrow+\infty}{=}O\left(\dfrac{1}{n}\right)$. 

Corrigé

1) Soit $n\in\mathbb{N}^*$. Soit $x>n\pi$. Les deux fonctions $t\mapsto-\cos(t)$ et $t\mapsto\dfrac{1}{t}$ sont de classe $C^1$ sur le segment $[n\pi,x]$. On peut donc effectuer une intégration par parties qui fournit

$$\displaystyle\int_{n\pi}{x}\dfrac{\sin(t)}{t}\;dt=\left[\dfrac{-\cos(t)}{t}\right]_{n\pi}^{x}-\displaystyle\int_{n\pi}^{x}\dfrac{\cos(t)}{t^2}\;dt=-\dfrac{\cos(x)}{x}+\dfrac{(-1)^n}{n\pi}-\displaystyle\int_{n\pi}^{x}\dfrac{\cos(t)}{t^2}\;dt.$$

Pour tout $x>n\pi$, $\left|-\dfrac{\cos(x)}{x}\right|\leqslant\dfrac{1}{x}$ et donc $\displaystyle\lim_{x\rightarrow+\infty}-\dfrac{\cos(x)}{x}=0$ d’après le théorème des gendarmes. D’autre part, la fonction $t\mapsto\dfrac{\cos(t)}{t^2}$ est continue sur $[n\pi,+\infty[$ et est dominée par $\dfrac{1}{t^2}$ en $+\infty$. Donc, la fonction $t\mapsto\dfrac{\cos(t)}{t^2}$ est intrégrable sur $[n\pi,+\infty[$ et en particulier, $\displaystyle\int_{n\pi}^{+\infty}\dfrac{\cos(t)}{t^2}\;dt$ est une intégrale convergente.

Mais alors, $\displaystyle\int_{n\pi}^{+\infty}\dfrac{\sin(t)}{t}\;dt$ est une intégrale convergente. De plus, quand $x$ tend vers $+\infty$, on obtient

$$\displaystyle\int_{n\pi}^{+\infty}\dfrac{\sin(t)}{t}\;dt=\dfrac{(-1)^n}{n\pi}-\displaystyle\int_{n\pi}^{+\infty}\dfrac{\cos(t)}{t^2}\;dt.$$

Pour tout $n\in\mathbb{N}^*$,

\begin{align*}\left|\displaystyle\int_{n\pi}^{+\infty}\dfrac{\sin(t)}{t}\;dt\right|&\leqslant\dfrac{1}{n\pi}+\displaystyle\int_{n\pi}^{+\infty}\dfrac{|\cos(t)|}{t^2}\;dt\leqslant\dfrac{1}{n\pi}+\displaystyle\int_{n\pi}^{+\infty}\dfrac{1}{t^2}\;dt\\&=\dfrac{1}{n\pi}+\dfrac{1}{n\pi}=\dfrac{2}{n\pi}.\end{align*}

En particulier, $\displaystyle\int_{n\pi}^{+\infty}\dfrac{\sin(t)}{t}\;dt\underset{n\rightarrow+\infty}{=}O\left(\dfrac{1}{n}\right)$.

2) Soit $f$ une fonction continue sur $\mathbb{R}$, $2\pi$-périodique et impaire. La fonction $F~:~x\mapsto\displaystyle\int_{0}^{x}f(t)\;dt$ est une primitive de la fonction $f$ sur $\mathbb{R}$. Ensuite, pour tout $x\in\mathbb{R}$, puisque $f$ est impaire,

$$F(-x)=\displaystyle\int_{0}^{-x}f(t)\;dt=\displaystyle\int_{0}^{x}f(-u)\;(-du)=\displaystyle\int_{0}^{x}f(u)\;du=F(x).$$

La fonction $F$ est donc paire. Enfin, puisque qu’une fonction constante est paire, toutes les primitives de $f$ sur $\mathbb{R}$, à savoir les fonctions $G=F+C$, $C\in\mathbb{R}$, sont paires.

Soit $G$ une primitive quelconque de $f$ sur $\mathbb{R}$. Pour tout réel $x$, on pose $H(x)=G(x+2\pi)-G(x)$. La fonction $H$ est dérivable sur $\mathbb{R}$ et pour tout réel $x$,

$$H'(x)=f(x+2\pi)-f(x)=0.$$

La fonction $H$ est donc constante sur $\mathbb{R}$ puis, pour tout réel $x$,

$$H(x)=H(0)=G(2\pi)-G(0)=\displaystyle\int_{0}^{2\pi}f(t)\;dt.$$

Si $\displaystyle\int_{0}^{2\pi}f(t)\;dt\neq0$, la fonction $H$ est non nulle puis aucune primitive de $f$ sur $\mathbb{R}$ n’est $2\pi$-périodique et si $\displaystyle\int_{0}^{2\pi}f(t)\;dt=0$, la fonction $H$ est la fonction nulle puis toutes les primitives de $f$ sur $\mathbb{R}$ sont $2\pi$-périodiques.

3) Soit $f$ une fonction continue sur $\mathbb{R}$, $2\pi$-périodique, impaire, telle que $\displaystyle\int_{0}^{2\pi}f(t)\;dt=0$. Soit $F$ une primitive de la fonction $f$ sur $\mathbb{R}$. D’après la question précédente, la fonction $F$ est $2\pi$-périodique. De plus, la fonction $F$ est de classe $C^1$ sur $\mathbb{R}$. On note que la fonction $F$ est continue sur le segment $[0,2\pi]$ et en particulier, la fonction $F$ est bornée sur ce segment puis sur $\mathbb{R}$ par $2\pi$-périodicité.

Soit $n\in\mathbb{N}^*$. Soit $x>n\pi$. Une intégration par parties, licite fournit

$$\displaystyle\int_{n\pi}^{x}\dfrac{f(t)}{t}\;dt=\left[\dfrac{F(t)}{t}\right]_{n\pi}^{x}+\displaystyle\int_{n\pi}^{x}\dfrac{F(t)}{t^2}\;dt=\dfrac{F(x)}{x}-\dfrac{F(n\pi)}{n\pi}+\displaystyle\int_{n\pi}^{x}\dfrac{F(t)}{t^2}\;dt.$$

Ensuite, $\dfrac{F(x)}{x}\underset{x\rightarrow+\infty}{=}\dfrac{O(1)}{x}\underset{x\rightarrow+\infty}{=}O\left(\dfrac{1}{x}\right)$. En particulier, $\dfrac{F(x)}{x}\underset{x\rightarrow+\infty}{\rightarrow}0$. D’autre part, la fonction $t\mapsto\dfrac{F(t)}{t^2}$ est continue sur $[n\pi,+\infty[$ et est dominée par $\dfrac{1}{t^2}$ en $+\infty$. Donc, $\displaystyle\int_{n\pi}^{+\infty}\dfrac{F(t)}{t^2}\;dt$ est une intégrale convergente. Mais alors, $\displaystyle\int_{n\pi}^{+\infty}\dfrac{f(t)}{t}\;dt$ est une intégrale convergente. De plus, quand $x$ tend vers $+\infty$, on obtient

$$\displaystyle\int_{n\pi}^{+\infty}\dfrac{f(t)}{t}\;dt=\dfrac{F(n\pi)}{n\pi}+\displaystyle\int_{n\pi}^{+\infty}\dfrac{F(t)}{t^2}\;dt.$$

Ensuite, pour tout $n\in\mathbb{N}^*$,

$$\left|\displaystyle\int_{n\pi}^{+\infty}\dfrac{f(t)}{t}\;dt\right|\leqslant\dfrac{\|F\|_\infty}{n\pi}+\displaystyle\int_{n\pi}^{+\infty}\dfrac{\|F\|_\infty}{t^2}\;dt=\dfrac{2\|F\|_\infty}{n\pi}.$$

En particulier,

$$\displaystyle\int_{n\pi}^{+\infty}\dfrac{f(t)}{t}\;dt\underset{n\rightarrow+\infty}{=}O\left(\dfrac{1}{n}\right).$$

 

Commentaires et/ou rappels de cours

Une primitive de fonction paire n’est pas nécessaitement impaire. Par exemple, la fonction paire $x\mapsto1$ admet pour primitive la fonction $x\mapsto x+1$ qui n’est pas impaire. 

Exercice – Difficulté 3 – Thème : intégration. Titre : nature d’une intégrale impropre.

Enoncé (Mines-Ponts)

Nature, suivant $\alpha>0$, de l’intégrale $\displaystyle\int_{0}^{+\infty}\ln\left(1+\dfrac{\sin(t)}{t^\alpha}\right)dt$.

Corrigé

$\bullet$ Soit $\alpha>0$. Pour tout $t\in\left]0,\dfrac{\pi}{2}\right]$, $\dfrac{\sin(t)}{t^\alpha}>0$ puis $1+\dfrac{\sin(t)}{t^\alpha}>0$. D’autre part, si $t>\dfrac{\pi}{2}$, $\sin(t)\geqslant-1$ et $\dfrac{\sin(t)}{t\alpha}>-\dfrac{1}{t^\alpha}>-1$ et donc $1+\dfrac{\sin(t)}{t^\alpha}>0$. Ainsi, pour tout $t>0$, $1+\dfrac{\sin(t)}{t^\alpha}>0$ et donc, la fonction  $f~:~t\mapsto\ln\left(1+\dfrac{\sin(t)}{t^\alpha}\right)$ est définie et continue sur $]0,+\infty[$.

$\bullet$ Etude en $0$. $\dfrac{\sin(t)}{t^\alpha}\underset{t\rightarrow0}{\sim}t^{1-\alpha}$.

Si $\alpha\in]0,1[$, $\dfrac{\sin(t)}{t^\alpha}\underset{t\rightarrow0}{\rightarrow}0$ puis $f(t)\underset{t\rightarrow0}{\rightarrow}0$. La fonction $f$ se prolonge par continuité en $0$ et donc la fonction $f$ est intégrable sur un voisinage de $0$ à droite.

Si $\alpha=1$, $f(t)\underset{t\rightarrow0}{\rightarrow}\ln(2)$. La fonction $f$ se prolonge par continuité en $0$ et donc la fonction $f$ est intégrable sur un voisinage de $0$ à droite.

Si $\alpha>1$, $\dfrac{\sin(t)}{t^\alpha}\underset{t\rightarrow0}{\rightarrow}+\infty$ puis

$$f(t)\underset{t\rightarrow0}{\sim}\ln\left(\dfrac{\sin(t)}{t^\alpha}\right)=\ln(\sin(t))-\alpha\ln(t)\underset{t\rightarrow0}{=}\ln(t)-\alpha\ln(t)+o(\ln(t))\underset{t\rightarrow0}{=}(1-\alpha)\ln(t)+o(\ln(t))\underset{t\rightarrow0}{\sim}(1-\alpha)\ln(t).$$

Mais alors, $\sqrt{t}f(t)\underset{t\rightarrow0}{\sim}(1-\alpha)\sqrt{t}\ln(t)\underset{t\rightarrow0}{=}o(1)$ puis $f(t)\underset{t\rightarrow0}{=}o\left(\dfrac{1}{t^{\frac{1}{2}}}\right)$. Puisque $\dfrac{1}{2}<1$, la fonction $f$ est intégrable sur un voisinage de $0$ à droite.

En résumé, la fonction $f$ est intégrable sur un voisingae de $0$ à droite pour tout $\alpha>0$.

$\bullet$ $\dfrac{\sin(t)}{t^\alpha}\underset{t\rightarrow+\infty}{=}O\left(\dfrac{1}{t^\alpha}\right)$ puis $\dfrac{\sin(t)}{t^\alpha}\underset{t\rightarrow+\infty}{=}o(1)$. Donc, $f(t)=\ln\left(1+\dfrac{\sin(t)}{t^\alpha}\right)\underset{t\rightarrow+\infty}{=}g(t)+h(t)$ où $g(t)=\dfrac{\sin(t)}{t^\alpha}$ et $h(t)\underset{t\rightarrow+\infty}{=}-\dfrac{\sin^2(t)}{2t^{2\alpha}}+o\left(\dfrac{\sin^2(t)}{t^{2\alpha}}\right)$.

Soit $A>0$. Les deux fonctions $t\mapsto-\cos(t)$ et $t\mapsto\dfrac{1}{t^{\alpha}}$ sont de classe $C^1$ sur $[1,A]$. On peut donc effectuer une intégration par parties qui fournit

$$\displaystyle\int_{1}^A\dfrac{\sin(t)}{t^\alpha}\;dt=\left[\dfrac{-\cos(t)}{t^\alpha}\right]_1^A-\displaystyle\int_{1}^A-\alpha\dfrac{-\cos(t)}{t^{\alpha+1}}\;dt=-\dfrac{\cos(A)}{A^\alpha}+\cos(1)-\alpha\displaystyle\int_{1}^A\dfrac{\cos(t)}{t^{\alpha+1}}\;dt.$$

Pour tout $A>1$, $\left|\dfrac{\cos(A)}{A^\alpha}\right|\leqslant\dfrac{1}{A^\alpha}$ Puisque $\alpha>0$, $\dfrac{1}{A^\alpha}\underset{A\rightarrow+\infty}{\rightarrow}0$ et donc $\dfrac{\cos(A)}{A^\alpha}\underset{A\rightarrow+\infty}{\rightarrow}0$. D’autre part, $\dfrac{\cos(t)}{t^{\alpha+1}}\underset{A\rightarrow+\infty}{=}O\left(\dfrac{1}{t^{\alpha+1}}\right)$ avec $\alpha+1>1$. Donc, $\displaystyle\int_{1}^{+\infty}\dfrac{\cos(t)}{t^{\alpha+1}}\;dt$ est une intégrale convergente. Mais alors, $\displaystyle\int_{1}^{+\infty}\dfrac{\sin(t)}{t^{\alpha}}\;dt$ est une intégrale convergente, pour tout $\alpha>0$.

$\bullet$ En résumé, l’intégrale proposée converge si et seulement si $\displaystyle\int_{1}^{+\infty}-h(t)\;dt$ est une intégrale convergente où $-h(t)\underset{t\rightarrow+\infty}{=}\dfrac{\sin^2(t)}{2t^{2\alpha}}+o\left(\dfrac{\sin^2(t)}{t^{2\alpha}}\right)$.

Si $\alpha>\dfrac{1}{2}$, puisque $-h(t)\underset{t\rightarrow+\infty}{=}O\left(\dfrac{1}{t^{2\alpha}}\right)$ avec $2\alpha>1$, $\displaystyle\int_{1}^{+\infty}-h(t)\;dt$ est une intégrale convergente.

Supposons maintenant $\alpha\in\left]0,\dfrac{1}{2}\right]$. Il existe $A\geqslant\pi$ tel que pour tout $t\in[A,+\infty[$, $o\left(\dfrac{\sin^2(t)}{t^{2\alpha}}\right)\geqslant-\dfrac{1}{4}\dfrac{\sin^2(t)}{t^{2\alpha}}$ puis $h(t)\geqslant\dfrac{\sin^2(t)}{2t^{2\alpha}}-\dfrac{\sin^2(t)}{4t^{2\alpha}}=\dfrac{\sin^2(t)}{4t^{2\alpha}}\geqslant0$. On a alors,

\begin{align*}\displaystyle\int_A^{+\infty}-h(t)\;dt&\geqslant\displaystyle\int_A^{+\infty}\dfrac{\sin^2(t)}{4t^{2\alpha}}\;dt=\displaystyle\sum_{\substack{k=1\\k\geqslant\frac{A}{\pi}}}^{+\infty}\displaystyle\int_{k\pi}^{(k+1)\pi}\dfrac{\sin^2(t)}{4t^{2\alpha}}\;dt\\&\geqslant\displaystyle\sum_{\substack{k=1\\k\geqslant\frac{A}{\pi}}}^{+\infty}\displaystyle\int_{k\pi+\frac{\pi}{4}}^{(k+1)\pi-\frac{\pi}{4}}\dfrac{\sin^2(t)}{4t^{2\alpha}}\;dt\geqslant\displaystyle\sum_{\substack{k=1\\k\geqslant\frac{A}{\pi}}}^{+\infty}\dfrac{1}{2}\times\dfrac{\pi}{2}\times\dfrac{1}{4\left((k+1)\pi-\frac{\pi}{4}\right)^{2\alpha}}\;dt\\&=+\infty\;(\text{car}\;2\alpha\leqslant1).\end{align*}

Mais alors, $\displaystyle\int_A^{+\infty}-h(t)\;dt$ est une intégrale divergente puis $\displaystyle\int_0^{+\infty}f(t)\;dt$ est une intégrale divergente.

En résumé, l’intégrale $\displaystyle\int_0^{+\infty}\ln\left(1+\dfrac{\sin(t)}{t^\alpha}\right)dt$ est convergente si et seulement si $\alpha>\dfrac{1}{2}$.

Commentaires et/ou rappels de cours

La présence du sinus a crée un certain nombre de problèmes techniques, anecdotiques, mais devant être pris en compte. Par exemple, nous n’avons pas remplacé l’égalité $-h(t)\underset{t\rightarrow+\infty}{=}\dfrac{\sin^2(t)}{t^{2\alpha}}+o\left(\dfrac{\sin^2(t)}{t^{2\alpha}}\right)$ par $-h(t)\underset{t\rightarrow+\infty}{\sim}\dfrac{\sin^2(t)}{t^{2\alpha}}$ car $\sin^2(t)$ s’annule dans tout voisinage de $+\infty$.

Exercice – Difficulté 4 – Thème : topologie. Titre : l’ensemble des polynômes unitaires, de degré au plus d, scindés sur R, est fermé.

Enoncé (Centrale)

Soient $(E,N)$ et $(E’,N’)$ deux espaces vectoriels de dimension finie.

Soit $d\in\mathbb{N}$. On note $\|.\|$ l’application sur $\mathbb{R}_d[X]$ définie par : $\left\|\displaystyle\sum_{k=0}^{d}a_kX^k\right\|=\underset{0\leqslant k\leqslant d}{\text{Max}}\left|a_k\right|$.

1) Montrer que $\|.\|$ est une norme sur $\mathbb{R}_d[X]$.

2) a) Soit $\left(y_n\right)_{n\in\mathbb{N}}\in\left(E’\right)^{\mathbb{N}}$ telle que $y_n\underset{n\rightarrow+\infty}{\rightarrow}\ell$. Montrer que $Y=\{\ell\}\cup\left\{y_n,\;n\in\mathbb{N}\right\}$ est un compct de $E’$.

b) Soit $f~:~E\rightarrow E’$ continue telle que, pour tout compcat $K$ de $E’$, $f^{-1}(K)$ est un compact de $E$. Montrer alors que pour tout fermé $F$ de $E$, $f(F)$ est un fermé de $E’$.

3) Soient $P\in\mathbb{R}_d[X]$ unitaire, $x$ une racine de $P$ telle que $|x|>1$. Montrer que $|x|\leqslant1+\|P\|$.

En déduire que l’ensemble des polynômes unitaires et scindés de $\mathbb{R}_d[X]$ est un fermé de $\mathbb{R}_d[X]$.

Corrigé

1) $\bullet$ $\|\;\|$ est une application de $\mathbb{R}_d[X]$ vers$\mathbb{R}$.

$\bullet$ Soit $P=\displaystyle\sum_{k=0}^{d}a_kX^k\in\mathbb{R}_d[X]$. $\|P\|\geqslant\left|a_0\right|\geqslant0$ (positivité).

$\bullet$ Soit $P=\displaystyle\sum_{k=0}^{d}a_kX^k\in\mathbb{R}_d[X]$ tel que $\|P\|=0$. Alors, pour tout $k\in\{0,\ldots,d\}$, $\left|a_k\right|\leqslant\|P\|=0$ puis pour tout $k\in\{0,\ldots,d\}$, $a_k=0$ et donc $P=0$ (axiome de séparation).

$\bullet$ Soient $\lambda\in\mathbb{R}$ et $P=\displaystyle\sum_{k=0}^{d}a_kX^k\in\mathbb{R}_d[X]$. $\left\|\lambda P\right\|=\underset{0\leqslant k\leqslant d}{\text{Max}}\left|\lambda a_k\right|=|\lambda|\underset{0\leqslant k\leqslant d}{\text{Max}}\left|a_k\right|=|\lambda|\|P\|$ (homogénéité).

$\bullet$ Soient $P=\displaystyle\sum_{k=0}^{d}a_kX^k\in\mathbb{R}_d[X]$ et $Q=\displaystyle\sum_{k=0}^{d}b_kX^k\in\mathbb{R}_d[X]$. Pour tout $k\in\{0,\ldots,d\}$,

$$\left|a_k+b_k\right|\leqslant\left|a_k\right|+\left|b_k\right|\leqslant\|P\|+\|Q\|$$

et en particulier, $\|P+Q\|= \underset{0\leqslant k\leqslant d}{\text{Max}}\left|a_k+b_k\right|\leqslant\|P\|+\|Q\|$ (inégalité triangulaire).

On a montré que $\|\;\|$ est une norme sur $\mathbb{R}_d[X]$.

2) a) Vérifions que $Y$ est un compact de l’espace vectoriel normé $(E’,N’)$. Soit $\left(z_n\right)_{n\in\mathbb{N}}$ une suite d’éléments de $Y$. On va vérifier que l’on peut extraire de la suite $\left(z_n\right)_{n\in\mathbb{N}}$ une suite convergente, de limite $\ell\in Y$.

$\bullet$ Si la suite $\left(z_n\right)_{n\in\mathbb{N}}$ prend un nombre fini de valeurs $t_1$, $\ldots$ , $t_p$, l’une au moins de ces valeurs, notée $t_i$, est prise une infinité de fois (si par l’absurde, chaque valeur est prise un nombre fini de fois, il existe $N\in\mathbb{N}$ tel que pour $n\geqslant N$, $y_n$ n’est ni $t_1$, $\ldots$ , ni $t_p$, ce qui est impossible). On peut alors extraire une suite $\left(z_{\varphi(n)}\right)_{n\in\mathbb{N}}$ telle que pour tout $n\in\mathbb{N}$, $z_{\varphi(n)}=t_i$. La suite $\left(z_{\varphi(n)}\right)_{n\in\mathbb{N}}$ converge vers $t_i\in Y$.

$\bullet$ Sinon, la suite $\left(z_n\right)_{n\in\mathbb{N}}$ prend une infinité de valeurs.

$\quad$ – Il existe $\varphi(0)\in\mathbb{N}$ tel que $z_{\varphi(0)}\in\left\{y_p,\;p\in\mathbb{N}\right\}$ (dans le cas contraire, la suite $\left(z_n\right)_{n\in\mathbb{N}}$ ne prend que la valeur $\ell$ et en particulier un nombre fini de valeurs ce qui est faux).

$\quad$ – Soit $n\geqslant0$. Supposons avoir construit des entiers $\varphi(0)<\ldots<\varphi(n)$ tel que pour tout $k\in\{0,\ldots,n\}$, $z_{\varphi(k)}\in\left\{y_p,\;p\geqslant k\right\}$.

On ne peut avoir pour tout $k>\varphi(n)$, $z_k\in\left\{y_0,\ldots,y_n\right\}\cup\{\ell\}$ (dans le cas contraire, la suite $z$ prend un nombre fini de valeurs ce qui est faux). Donc, il existe un entier $\varphi(n+1)>\varphi(n)$ tel que $z_{\varphi(n+1)}\in\left\{y_p,\;p\geqslant n+1\right\}$.

On a construit par récurrence une suite d’entiers strictement croissante $\left(\varphi(n)\right)_{n\in\mathbb{N}}$ telle que pour tout $n\in\mathbb{N}$, $z_{\varphi(n)}\in\left\{y_p,\;p\geqslant n\right\}$.

Soit $\varepsilon>0$. Il existe $n_0\in\mathbb{N}$ tel que, pour tout $p\geqslant n_0$, $\left|y_p-\ell\right|\leqslant \varepsilon$. En particulier, pour tout $n\geqslant n_0$, on a $\varphi(n)\geqslant n\geqslant n_0$ et donc $\left|z_{\varphi(n)}-\ell\right|\leqslant \varepsilon$. La suite extraite $\left(z_{\varphi(n)}\right)_{n\in\mathbb{N}}$ converge vers $\ell\in Y$.

On a montré que de toute suite d’éléments de $Y$, on peut extraire une sous-suite convergente, de limite appartenant à $Y$. Donc, $Y$ est un compact de l’espace vectoriel normé $(E’,N’)$.

b) Soit $\left(y_n\right)_{n\in\mathbb{N}}$ une suite convergente d’éléments de $f(F)$ puis $\ell’=\displaystyle\lim_{n\rightarrow+\infty}y_n$. Soit $Y=\{\ell’\}\cup\left\{y_n,\;n\in\mathbb{N}\right\}$. $Y$ est un compact de $\left(E’,N’\right)$ d’après la question précédente.

Pour tout $n\in\mathbb{N}$, il existe $x_n\in F$ tel que $f\left(x_n\right)=y_n$. La suite $\left(x_n\right)_{n\in\mathbb{N}}$ est une suite d’éléments de $f^{-1}(Y)$ qui est par hypothèse un compact de l’espace vectoriel normé $(E,N)$. On peut donc extraire une suite $\left(x_{\varphi(n)}\right)_{n\in\mathbb{N}}$ convergente, de limite $\ell\in F$. Puisque la fonction $f$ est continue sur l’espece $(E,N)$, la suite $\left(y_{\varphi(n)}\right)_{n\in\mathbb{N}}=\left(f\left(x_{\varphi(n)}\right)\right)_{n\in\mathbb{N}}$ converge vers $f(\ell)$. Mais la suite $\left(y_{\varphi(n)}\right)_{n\in\mathbb{N}}$, en tant que suite extraite de la suite $\left(y_n\right)_{n\in\mathbb{N}}$ converge vers $\ell’$. Donc, $\ell’=f(\ell)\in f(F)$.

On a montré que toute suite convergente d’éléments de $f(F)$ converge dans $F$ et donc $f(F)$ est une partie fermée de l’espace vectoriel normé $(E’,N’)$.

3) $\bullet$ Soit $P=X^d+\displaystyle\sum_{k=0}^{d-1}a_kX^k\in\mathbb{R}[X]$ un polynôme à cooefficients réels, unitaire, de degré $d$. Soit $x\in\mathbb{C}$ une (éventuelle) racine de $P$ telle que $|x|>1$. Alors, $x^d=-\displaystyle\sum_{k=0}^{d-1}a_kx^k$ puis

$$|x|^d=\left|-\displaystyle\sum_{k=0}^{d-1}a_kx^k\right|\leqslant\displaystyle\sum_{k=0}^{d-1}\left|a_k\right||x|^k\leqslant\|P\|\displaystyle\sum_{k=0}^{d-1}|x|^k=\|P\|\dfrac{|x|^d-1}{|x|-1}.$$

On en déduit (en tenant compte de $|x|-1>0$) que $|x|^d(|x|-1)\leqslant\|P\|\left(|x|^d-1\right)$ puis que $|x|-1\leqslant\|P\|\left(1-\dfrac{1}{|x|^d}\right)$ et donc que

$$|x|\leqslant1+\|P\|\left(1-\dfrac{1}{|x|^d}\right)\leqslant1+\|P\|.$$

On note que cette inégalité reste vraie si $|x|\leqslant1$ et donc pour tout racine $x$ de $P$ dans $\mathbb{C}$, $|x|\leqslant1+\|P\|$.

$\bullet$ On note $S$ l’ensemble des polynômes $P\in\mathbb{R}[X]$, unitaires, de degré $d$ et scindés sur $\mathbb{R}$. Pour $x=\left(x_1,\ldots,x_d\right)\in\mathbb{R}^d$ et $k\in\{1,\ldots,d\}$, on pose $\sigma_k(x)=\displaystyle\sum_{1\leqslant i_1<i_2<\ldots<i_k\leqslant d}x_{i_1}x_{i_2}\ldots x_{i_k}$ (fonctions symétriques élémentaires en les $x_i$).

Soit $\begin{array}[t]{cccc}f~:&\mathbb{R}^d&\rightarrow&\mathbb{R}_d[X]\\ &x=\left(x_1,\ldots,x_d\right)&\mapsto&P_x=\displaystyle\prod_{k=1}^{d}\left(X-x_k\right)\end{array}$. On a alors $S=f\left(\mathbb{R}^d\right)$. Vérfions d’abord que $f$ est continue sur $\mathbb{R}^d$.

Soient $\begin{array}[t]{cccc}g~:&\mathbb{R}^d&\rightarrow&\mathbb{R}^d\\ &x=\left(x_1,\ldots,x_d\right)&\mapsto&\left(\sigma_d(x),\ldots,\sigma_1(x)\right)\end{array}$ et $\begin{array}[t]{cccc}h~:&\mathbb{R}^d&\rightarrow&\mathbb{R}_d[X]\\ &\left(a_0,\ldots,a_{d-1}\right)&\mapsto&X^d-a_{d-1}X^{d-1}+\ldots+(-1)^da_0\end{array}$. Puisque pour tout $\left(x_1,\ldots,x_d\right)\in\mathbb{R}^d$, $\displaystyle\prod_{k=1}^{d}\left(X-x_k\right)=X^d-\sigma_1(x)X^{d-1}+\ldots+(-1)^d\sigma_d(x)$, on a $f=h\circ g$. L’application $g$ est continue sur $\mathbb{R}^d$ car ses composantes sont polynomiales en $x_1$, $\ldots$ , $x_d$, et l’application $h$ est continue sur $\mathbb{R}^d$ car linéaire sur un espace de dimension finie. Ainsi, $f=h\circ g$ est continue sur $\mathbb{R}^d$.

Vérifions que l’image réciproque de tout compact de $\mathbb{R}_d[X]$ par $f$ est un compact de $\mathbb{R}^d$. Soit $K$ un compact non vide de $\mathbb{R}_d[X]$. Si $f^{-1}(K)=\varnothing$, $f^{-1}(K)$ est un compact de $\mathbb{R}^d$. On suppose dorénavant que $f^{-1}(K)\neq\varnothing$.

Puisque $\mathbb{R}^d$ est de dimension finie, pour montrer que $f^{-1}(K)$ est un compact de $\mathbb{R}^d$, il suffit de montrer que $f^{-1}(K)$ est une partie fermée bornée de $\mathbb{R}^d$, d’après le théorème de BOREL-LEBESGUE. $K$ est un compact et en particulier, $K$ est une partie bornée de l’espace vectoriel normé $\left(\mathbb{R}_d[X],\|\;\|\right)$. Soit $M$ un majorant des normes des éléments de $K$.

Soient $x=\left(x_1,\ldots,x_d\right)\in f^{-1}(K)\subset\mathbb{R}^d$ puis $P_x=f(x)=\displaystyle\prod_{k=1}^{d}\left(X-x_k\right)\in K$. Pour tout $k\in\{1,\ldots,d\}$, $\left|x_k\right|\leqslant1+\left\|P_x\right\|\leqslant1+M$, d’après la question précédente, et donc $\|x\|_\infty\leqslant1+M$. Donc, $f^{-1}(K)$ est une partie bornée de $\mathbb{R}^d$. Il reste à vérifier que $f^{-1}(K)$ est une partie fermée de $\mathbb{R}^d$.

Soit $\left(x_n\right)_{n\in\mathbb{N}}=\left(\left(x_{1,n},\ldots,x_{d,n}\right)\right)_{n\in\mathbb{N}}$ une suite convergente d’éléments de $f^{-1}(K)$. Posons $x=\displaystyle\lim_{n\rightarrow+\infty}x_n$. Pour tout $n\in\mathbb{N}$, on pose $P_n=f\left(x_n\right)\in K$. Puisque $K$ est compact, on peut extraire de la suite $\left(P_n\right)_{n\in\mathbb{N}}$, une sous-suite $\left(P_{\varphi(n)}\right)_{n\in\mathbb{N}}$, convergente, de limite $P\in K$. La suite $\left(x_{\varphi(n)}\right)_{n\in\mathbb{N}}$ reste convergente, de limite $x$ et donc, par continuité de $f$, $P_{\varphi(n)}=f\left(x_{\varphi(n)}\right)\underset{n\rightarrow+\infty}{\rightarrow}f(x)$. On en déduit que $f(x)=P\in K$ puis que $x\in f^{-1}(K)$. Toute suite convergente d’éléments de $f^{-1}(K)$ converge dans $f^{-1}(K)$ et donc $f^{-1}(K)$ est une partie ferméer de $\mathbb{R}^d$.

Ainsi, $f$ est continue sur $\mathbb{R}^d$ et pour tout compact $K$ de $\mathbb{R}_d[X]$, $f^{-1}(K)$ est un compact de $\mathbb{R}^d$. D’après la question 2)b), puisque $\mathbb{R}^d$ est un fermé de $\mathbb{R}^d$, $S=f\left(\mathbb{R}^d\right)$ est un fermé de $\mathbb{R}_d[X]$.

 

Commentaires et/ou rappels de cours

$\bullet$ Il existe quatre axiones définissant une norme : positivité, séparation, homogénéité et inégalité triangulaire. On peut noter que la positivité est une conséquence des autres axiomes. En effet, l’homogénéité fournit $\|0\|=\|2.0\|=2\|0\|$ puis $\|0\|=0$. Ensuite, l’inégalité triangulaire et l’homogénéité fournissent $\|0\|=\left\dfrac{1}P+\left(-\dfrac{1}{2}\right)P\right\|\leqslant\dfrac{1}{2}\|P\|+\dfrac{1}{2}\|P\|=\|P\|$.

$\bullet$ En 2)a), l’hypothèse de dimension finie est superflue.