Convertir Bits (b) en Octets (B)
Entrez une valeur ci-dessous pour convertir Bits (b) en Octets (B).
Conversion:
1 Bits (b) = 0.125 Octets (B)
Comment convertir Bits (b) en Octets (B)
1 bit = 0.125 byte
1 byte = 8 bit
Exemple : convertir 15 Bits (b) en Octets (B) :
25 bit = 3.125 byte
Tableau de conversion Bits (b) en Octets (B)
| Bits (b) | Octets (B) |
|---|---|
| 0.01 bit | 0.00125 byte |
| 0.1 bit | 0.0125 byte |
| 1 bit | 0.125 byte |
| 2 bit | 0.25 byte |
| 3 bit | 0.375 byte |
| 5 bit | 0.625 byte |
| 10 bit | 1.25 byte |
| 20 bit | 2.5 byte |
| 50 bit | 6.25 byte |
| 100 bit | 12.5 byte |
| 1000 bit | 125 byte |
Bits (b)
Définition
Le bit (b) est l'unité la plus fondamentale de l'information numérique. Il représente une seule valeur binaire — 0 ou 1. Toutes les données numériques, du texte à la vidéo, sont encodées sous forme de séquences de bits.
Histoire
Le terme 'bit' a été inventé par le mathématicien John Tukey en 1947 puis popularisé par Claude Shannon dans son article fondateur de 1948 'A Mathematical Theory of Communication'. Il est devenu la base de la théorie de l'information et de l'informatique numérique.
Utilisation actuelle
Les bits servent à mesurer les débits de transmission (ex : mégabits par seconde pour la bande passante internet), les longueurs de clés de chiffrement et le traitement du signal. Ils restent l'unité atomique de tout système de stockage et de communication numérique.
Octets (B)
Définition
L'octet (B) est une unité d'information numérique composée de 8 bits. C'est l'unité adressable standard de la mémoire dans pratiquement toutes les architectures informatiques modernes.
Histoire
L'octet a été introduit à la fin des années 1950 par Werner Buchholz lors de la conception de l'ordinateur IBM Stretch. Initialement de taille variable, l'octet de 8 bits est devenu le standard de facto avec l'IBM System/360 dans les années 1960.
Utilisation actuelle
Les octets sont l'unité de base pour mesurer les tailles de fichiers, la capacité mémoire et le stockage. Les schémas d'encodage comme ASCII utilisent un octet par caractère, tandis que l'UTF-8 moderne utilise de un à quatre octets.