Convertir Mégaoctets (Mo) en Octets (B)

Entrez une valeur ci-dessous pour convertir Mégaoctets (Mo) en Octets (B).

Convert from
Convert to

Conversion:

1 Mégaoctets (Mo) = 1000000 Octets (B)

Comment convertir Mégaoctets (Mo) en Octets (B)

1 mb = 1000000 byte

1 byte = 0.000001 mb

Exemple : convertir 15 Mégaoctets (Mo) en Octets (B) :

25 mb = 25000000 byte

Tableau de conversion Mégaoctets (Mo) en Octets (B)

Mégaoctets (Mo)Octets (B)
0.01 mb10000 byte
0.1 mb100000 byte
1 mb1000000 byte
2 mb2000000 byte
3 mb3000000 byte
5 mb5000000 byte
10 mb10000000 byte
20 mb20000000 byte
50 mb50000000 byte
100 mb100000000 byte
1000 mb1000000000 byte

Mégaoctets (Mo)

Définition

Le mégaoctet (Mo) est une unité décimale d'information numérique égale à 1 000 000 d'octets (10⁶ octets) dans le système SI. En contexte informatique, il est parfois utilisé de manière approximative pour désigner 1 048 576 octets (2²⁰).

Histoire

Le mégaoctet s'est répandu dans les années 1980 lorsque les disquettes et les premiers disques durs ont atteint cette capacité. L'usage marketing et technique a divergé, incitant l'IEC à formaliser le mebioctet (Mio) pour l'interprétation binaire.

Utilisation actuelle

Les mégaoctets sont utilisés quotidiennement pour exprimer les tailles d'images, de fichiers musicaux, d'applications et de forfaits data mobiles. Les fabricants de stockage, les FAI et les développeurs utilisent le Mo décimal comme standard.

Octets (B)

Définition

L'octet (B) est une unité d'information numérique composée de 8 bits. C'est l'unité adressable standard de la mémoire dans pratiquement toutes les architectures informatiques modernes.

Histoire

L'octet a été introduit à la fin des années 1950 par Werner Buchholz lors de la conception de l'ordinateur IBM Stretch. Initialement de taille variable, l'octet de 8 bits est devenu le standard de facto avec l'IBM System/360 dans les années 1960.

Utilisation actuelle

Les octets sont l'unité de base pour mesurer les tailles de fichiers, la capacité mémoire et le stockage. Les schémas d'encodage comme ASCII utilisent un octet par caractère, tandis que l'UTF-8 moderne utilise de un à quatre octets.