Communication propulsé l'humanité dans l' ère de l'information numérique. Manifeste par l'omniprésence des dispositifs mobiles sans fil , de la télévision haute définition et d'autres services multimédias haut débit que les consommateurs tiennent pour acquis , la technologie continue de s'améliorer. Pourtant, les lois fondamentales ont découvert il ya 60 ans , encore étayer la technologie d'aujourd'hui et ont dévoilé plusieurs applications universelles. Histoire Considéré comme le père fondateur de la théorie moderne de l'information , la découverte de Claude E. Shannon est souvent appelé la théorie de la communication. Dans son repère papier 1948 " A Mathematical Theory of Communication », Shannon a énoncé les modèles et le système de concepts fondamentaux qui caractérisent l'information en termes de probabilités mathématiques qui peuvent être quantifiés et mesurés. La notion que la communication virtuellement sans erreur peut être facilitée par un canal bruyant avec des techniques de codage efficace est une contribution clé de la théorie de l'information. Canal de communication Dans la communication de Shannon modèle , le canal de communication est le moyen physique par lequel les messages d'information sont transmis entre l'émetteur et le récepteur. Une paire de cuivre torsadée , câble coaxial, câble à fibre optique et le spectre de fréquences radio sans fil constituent tous un canal. Bande passante bande passante est un facteur qui influe le taux de transfert de l'information sur un canal de communication et est désigné comme une plage de fréquence en kilohertz ou mégahertz. Par exemple , les signaux WiFi ont une bande passante beaucoup plus large que la radio AM à bande étroite. En comparant la capacité de charge de l'information des deux en termes de bande passante , l'ancien se trouve sur l'échelle d'une plate-forme semi-remorque tandis que le second est comme une voiture compacte. Bruit bruit est inhérent à tout système de communication et peut provenir de sources naturelles ou artificielles . Les exemples incluent les interférences des fréquences radioélectriques des appareils électroniques , statique de la foudre et l'équipement électrique et les interférences électromagnétiques de l'activité des taches solaire. Le bruit introduit des erreurs et modifie la forme originale du message au moment où il atteint sa destination. La force du signal de message par rapport au bruit , aussi connu comme le rapport signal -sur-bruit (S /N) , est un autre aspect important qui influe sur la vitesse de transfert de l'information . Imaginez avoir une conversation dans un restaurant calme et puis à un événement sportif sauvage. Dans le second cas , vous avez besoin de vous répéter plusieurs fois parce que le bruit de la foule envahit le message. Théorie de l'information de capacité de canal définit la capacité du canal comme le maximum vitesse à laquelle l'information peut être transmise par un canal , mesurée en bits par seconde ou kilobits par seconde . La capacité de canal est une fonction à la fois de la bande passante et le rapport signal -sur-bruit et l'on peut être échangé contre de l'autre . Diminuer la bande passante et augmenter le rapport S /N peut préserver la capacité du canal . Cependant, théorie de l'information précise en outre de Shannon ce message efficace et canal techniques de codage jouent également un rôle clé dans l'établissement de la limite théorique .
|