Un bit (abréviation de chiffre binaire) est la plus petite unité d'information en informatique numérique et en télécommunications. Il peut avoir l'une des deux valeurs suivantes :0 ou 1. Les bits sont combinés en unités plus grandes telles que les octets (8 bits), les kilobits (1 024 bits), les mégabits (1 048 576 bits) et les gigabits (1 073 741 824 bits).
Le terme « bit » a été inventé en 1948 par Claude Shannon, mathématicien et ingénieur électricien considéré comme le père de la théorie de l'information. Shannon a utilisé le terme « bit » comme abréviation de « chiffre binaire », un concept introduit par le mathématicien John Atanasoff en 1937.
Les bits sont utilisés pour mesurer la quantité de données pouvant être stockées ou transmises sur un canal de communication numérique. Par exemple, un signal de télévision haute définition (HD) nécessite une bande passante d'environ 10 mégabits par seconde (Mbps), ce qui signifie que 10 millions de bits de données sont transmis chaque seconde.
Les données peuvent également être mesurées en unités d'octets, kilo-octets (1 024 octets), mégaoctets (1 048 576 octets) et gigaoctets (1 073 741 824 octets). Voici un tableau résumant les différentes unités de mesure des données :
| Unité | Nombre de bits |
|---|---|
| Peu | 1 |
| Octet | 8 |
| Kilobit (Ko) | 1 024 |
| Mégabit (Mo) | 1 048 576 |
| Gigabit (Go) | 1 073 741 824 |
| Kilooctet (Ko) | 8 192 |
| Mégaoctet (Mo) | 8 388 608 |
| Gigaoctet (Go) | 8 589 934 592 |
Ces unités de mesure de données sont couramment utilisées en informatique et en télécommunications pour décrire la taille des fichiers, la vitesse des transferts de données et la quantité d'espace de stockage disponible sur un appareil.
|