Théorie de la littérature PDF

Please forward this error screen to sharedip-16015312934. Dans un sens plus général, une théorie de l’information est une théorie visant à quantifier et qualifier la notion de contenu en information présent dans un ensemble de données. L’information est un concept physique nouveau qui a théorie de la littérature PDF dans un champ technologique. Le concept théorique d’information a été introduit à partir de recherches théoriques sur les systèmes de télécommunication.


Boltzmann et Markov sur la notion de probabilité d’un événement et les possibilités de mesure de cette probabilité. Modèle de la communication de Shannon et Weaver. Cette théorie est née de préoccupations techniques pratiques. La société Bell cherche à transmettre les messages de la façon à la fois la plus économique et la plus fiable. Cette source de confusion est régulièrement rappelée dans la littérature.

Cette théorie mathématique appliquée aux techniques de la télécommunication a été élaborée plus spécialement par Claude Shannon, ingénieur à la Compagnie des Téléphones Bell et reste jusqu’à nos jours la base du concept dit scientifique d’information. Dans sa conception originale, la théorie de l’information de Shannon s’est limitée à analyser les moyens à mettre en œuvre dans les techniques de télécommunication pour transmettre l’information le plus rapidement possible et avec le maximum de sécurité. Elle s’est donc efforcée de développer des méthodes susceptibles de minimiser la probabilité d’erreur dans la reconnaissance du message. Pour Shannon, l’information présente un caractère essentiellement aléatoire. Un événement aléatoire est par définition incertain.

Cette incertitude est prise comme mesure de l’information. Donc l’information est la mesure de l’incertitude calculée à partir de la probabilité de l’événement. Shannon a donc confondu la notion d’information et de mesure d’incertitude. L’information de Shannon se mesure en unités binaires dites bits. Le bit peut être défini comme un événement qui dénoue l’incertitude d’un récepteur placé devant une alternative dont les deux issues sont pour lui équiprobables. Plus les éventualités que peut envisager ce récepteur sont nombreuses, plus le message comporte d’événements informatifs, plus s’accroît la quantité de bits transmis. La notion d’information d’après Shannon est nécessairement associée à la notion de  redondance  et à celle de  bruit .