Page 1 sur 1

théorie de l'information

Posté : dim. 15 déc. 2013 19:58
par Julie
Bonsoir
J'ai un exercice à faire mais je ne comprends rien. Pouvez-vous m'aider à le commencer svp.

Les opérateurs de télécommunication cherchent à minimiser la tailles des messages transmis, sans perdre d'information.
Pour mesurer la quantité d’information contenue dans un message, l'ingénieur américain Claude Shannon a proposé la définition suivante: si le message désigne un élément parmi n éléments possibles, alors l'information qu'il apporte (en bit) est I=ln(n)/ln(2).

1. Démontrez que I=-ln(p)/ln(2) où p désigne la probabilité d'obtenir l’élément cherché en choisissant au hasard un élément parmi n.
2. Calculez la quantité d'information donnant le vainqueur d'un tournoi de tennis à 2 joueurs.
3. Au jeu 'c'est plus, c'est moins", on doit deviner, par des questions binaires, un nombre entier entre 1 et 100. Calculez la quantité d'information que donne la réponse.

Merci à vous

Re: théorie de l'information

Posté : dim. 15 déc. 2013 23:27
par SoS-Math(7)
Bonsoir Julie,

Je vais te donner un petit coup de pouce pour la première question. Quelle est la probabilité d'obtenir au hasard un élément parmi n ? A partir de cette probabilité, exprime n en fonction de p et reprends l'expression de I. La forme cherchée devrait apparaitre.

Bonne continuation.

Re: théorie de l'information

Posté : dim. 15 déc. 2013 23:44
par Julie
La probabilité c'est bien 1/n ?

Re: théorie de l'information

Posté : dim. 15 déc. 2013 23:55
par SoS-Math(7)
Bonsoir,

Oui p=1/n

Bonne continuation.