Convertir Téraoctets (To) en Octets (B)

Entrez une valeur ci-dessous pour convertir Téraoctets (To) en Octets (B).

Convert from
Convert to

Conversion:

1 Téraoctets (To) = 1000000000000 Octets (B)

Comment convertir Téraoctets (To) en Octets (B)

1 tb = 1000000000000 byte

1 byte = 1e-12 tb

Exemple : convertir 15 Téraoctets (To) en Octets (B) :

25 tb = 25000000000000 byte

Tableau de conversion Téraoctets (To) en Octets (B)

Téraoctets (To)Octets (B)
0.01 tb10000000000 byte
0.1 tb100000000000 byte
1 tb1000000000000 byte
2 tb2000000000000 byte
3 tb3000000000000 byte
5 tb5000000000000 byte
10 tb10000000000000 byte
20 tb20000000000000 byte
50 tb50000000000000 byte
100 tb100000000000000 byte
1000 tb999999999999999.9 byte

Téraoctets (To)

Définition

Le téraoctet (To) est une unité décimale d'information numérique égale à 1 000 000 000 000 d'octets (10¹² octets), soit 1 000 gigaoctets.

Histoire

Le téraoctet s'est démocratisé dans les années 2000 avec l'arrivée de disques durs externes et de systèmes de stockage d'entreprise de plusieurs téraoctets. Les fournisseurs cloud comme AWS, Google et Azure opèrent désormais à l'échelle du pétaoctet et de l'exaoctet.

Utilisation actuelle

Les téraoctets sont utilisés pour mesurer les grands supports de stockage (HDD, SSD), les systèmes NAS, les solutions de sauvegarde d'entreprise et les offres de stockage cloud. Les disques externes grand public vont couramment de 1 To à 20 To.

Octets (B)

Définition

L'octet (B) est une unité d'information numérique composée de 8 bits. C'est l'unité adressable standard de la mémoire dans pratiquement toutes les architectures informatiques modernes.

Histoire

L'octet a été introduit à la fin des années 1950 par Werner Buchholz lors de la conception de l'ordinateur IBM Stretch. Initialement de taille variable, l'octet de 8 bits est devenu le standard de facto avec l'IBM System/360 dans les années 1960.

Utilisation actuelle

Les octets sont l'unité de base pour mesurer les tailles de fichiers, la capacité mémoire et le stockage. Les schémas d'encodage comme ASCII utilisent un octet par caractère, tandis que l'UTF-8 moderne utilise de un à quatre octets.