Bonsoir,
Voici un nouveau défi que nous lance notre prof et affirme que personne ne parviendra à le relever. Une semaine que je cherche et rien.
Qu'en pensez-vous ?
f est une fonction numérique définie sur [0;1]
et f(1) < 0 < f(0)
On suppose qu'il existe une fonction numérique g continue sur [0;1] tel que f + g est croissante .
Montrez que f(D) = 0 tel qu'il existe un D appartenant à [0 ;1]
N.B : ( Attention f n'est pas continue sur [0;1] ) Donc, on ne doit pas appliquer le théorème des valeurs intermédiaires.
Merci d'essayer.
Défi
-
- Messages : 6351
- Enregistré le : mer. 5 sept. 2007 12:10
Re: Défi
Bonjour Haddou,
L'objectif de ce site n'est pas de relever des défis ...
Cependant voici quelques pistes pour t'aider.
Tu peux supposer que pour tout x de [0;1] f(x) \(\neq\) 0.
Ensuite comme f est une fonction définie sur [0;1] et que f(1) < 0 < f(0), alors il existe x0 de [0;1] tel que \(\lim_{x \to x_0^+} f(x)<0<\lim_{x \to x_0^-} f(x)\).
Il te reste alors à utiliser les autres hypothèses du défi pour montrer une contradiction ...
SoSMath.
L'objectif de ce site n'est pas de relever des défis ...
Cependant voici quelques pistes pour t'aider.
Tu peux supposer que pour tout x de [0;1] f(x) \(\neq\) 0.
Ensuite comme f est une fonction définie sur [0;1] et que f(1) < 0 < f(0), alors il existe x0 de [0;1] tel que \(\lim_{x \to x_0^+} f(x)<0<\lim_{x \to x_0^-} f(x)\).
Il te reste alors à utiliser les autres hypothèses du défi pour montrer une contradiction ...
SoSMath.