Convertir Mégaoctets (Mo) en Octets (B)
Entrez une valeur ci-dessous pour convertir Mégaoctets (Mo) en Octets (B).
Conversion:
1 Mégaoctets (Mo) = 1000000 Octets (B)
Comment convertir Mégaoctets (Mo) en Octets (B)
1 mb = 1000000 byte
1 byte = 0.000001 mb
Exemple : convertir 15 Mégaoctets (Mo) en Octets (B) :
25 mb = 25000000 byte
Tableau de conversion Mégaoctets (Mo) en Octets (B)
| Mégaoctets (Mo) | Octets (B) |
|---|---|
| 0.01 mb | 10000 byte |
| 0.1 mb | 100000 byte |
| 1 mb | 1000000 byte |
| 2 mb | 2000000 byte |
| 3 mb | 3000000 byte |
| 5 mb | 5000000 byte |
| 10 mb | 10000000 byte |
| 20 mb | 20000000 byte |
| 50 mb | 50000000 byte |
| 100 mb | 100000000 byte |
| 1000 mb | 1000000000 byte |
Mégaoctets (Mo)
Définition
Le mégaoctet (Mo) est une unité décimale d'information numérique égale à 1 000 000 d'octets (10⁶ octets) dans le système SI. En contexte informatique, il est parfois utilisé de manière approximative pour désigner 1 048 576 octets (2²⁰).
Histoire
Le mégaoctet s'est répandu dans les années 1980 lorsque les disquettes et les premiers disques durs ont atteint cette capacité. L'usage marketing et technique a divergé, incitant l'IEC à formaliser le mebioctet (Mio) pour l'interprétation binaire.
Utilisation actuelle
Les mégaoctets sont utilisés quotidiennement pour exprimer les tailles d'images, de fichiers musicaux, d'applications et de forfaits data mobiles. Les fabricants de stockage, les FAI et les développeurs utilisent le Mo décimal comme standard.
Octets (B)
Définition
L'octet (B) est une unité d'information numérique composée de 8 bits. C'est l'unité adressable standard de la mémoire dans pratiquement toutes les architectures informatiques modernes.
Histoire
L'octet a été introduit à la fin des années 1950 par Werner Buchholz lors de la conception de l'ordinateur IBM Stretch. Initialement de taille variable, l'octet de 8 bits est devenu le standard de facto avec l'IBM System/360 dans les années 1960.
Utilisation actuelle
Les octets sont l'unité de base pour mesurer les tailles de fichiers, la capacité mémoire et le stockage. Les schémas d'encodage comme ASCII utilisent un octet par caractère, tandis que l'UTF-8 moderne utilise de un à quatre octets.