Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».
l'unité d'allocation la plus petite qu'on puisse adresser, en général, sur une architecture ou un compilateur. Sur la majorité des architectures sa taille est de un octet. N'ayant pas une taille fixe, utiliser cette unité pour désigner une taille de mémoire indépendamment de l'architecture est un abus de langage. Le byte n'est pas une unité du système international qui recommande l'octet, même en anglais. Son symbole non officiel est b et parfois B pour le distinguer du symbole du bit. Ce terme a été inventé par Werner Buchholz(en) en remplaçant le i du mot anglais bite par un y pour ne pas le confondre avec bit (bite signifiant morceau, en allusion au découpage de l'information en paquets de bits)[1],[2].
à l'origine, un mot désignait une unité de 16 bits (2 octets) sur la plupart des architecture. La taille d'un mot pouvait cependant varier et était généralement basée sur la taille du bus de données du processeur.
seize bits. Ce terme fut introduit pour tenter de dissiper la confusion régnant autour du terme « mot » (anglais word), qui signifie souvent 16 bits mais peut aussi valoir 32 ou 64 bits selon le processeur.
un entier ayant 4 fois la taille d'un mot, généralement 64 bits (8 octets). Aujourd'hui, il peut être question d'un "Quad" float, d'un mot en précision quadruple par rapport à un mot de précision simple (float sur 32 bits) ou double (double sur 64 bits). En nombre flottant, il s'agit d'un nombre codé 128 bits. Ces termes sont dérivés de ceux utilisé par le langage C.
Bit : unité de mesure de base, son symbole est b ou bit. Le bit (anglais binary digit, « chiffre binaire ») représente la plus petite unité de mémoire utilisable sur un ordinateur. Cette mémoire ne peut prendre que deux valeurs, la plupart du temps interprétées comme 0 ou 1. Les autres unités de mesure ne correspondent qu'à des regroupements de bits.
Quartet ou nibble : la moitié d'un octet, soit quatre bits[3].
Octet : un octet est composé de huit bits. Son symbole normalisé est o. Il peut prendre 28, soit 256 valeurs différentes. En représentation « non signé » classique il s'agit des valeurs de 0 à 255 ; en représentation complément à deux il s'agit des valeurs de -128 à +127. (il existe d'autres représentation des nombres entiers)
seizet ou doublet : seize bits. Voir l' ISO/CEI 10646 (F) et les seizets d'indirection en UTF-16. Sur le modèle d'octet et de seizain (pièce de 16 vers). Le seizet est devenu la représentation des caractères utilisée sous Windows car il permet de coder quasiment tous les caractères de toutes les langues vivantes.
trente-deuzet ou quadlet[réf. nécessaire] : trente-deux bits. Sur le modèle d'octet et de trente-deuxain (drap dont la chaîne était composée de 32 fois cent fils).
pixel : l'unité d'affichage la plus petite. En général composée de trois points de couleur rouge, vert et bleu, pour un écran couleur.
rémanence : temps pour un pixel pour passer de son intensité lumineuse la plus forte à la plus faible. La rémanence est un problème sur les écrans à cristaux liquides.
ppi : pixel per inch ou pixel par pouce
diagonale : souvent indiquée en pouce (à l'encontre de toutes les réglementations), la diagonale est une donnée trompeuse. Sur un tube cathodique, il s'agit de la diagonale du tube et non de la partie visible. Avec les écrans à cristaux liquides, il s'agit de la diagonale de la partie visible. Notez aussi qu'il est trompeur de comparer une diagonale d'un écran 16/9 et d'un écran 4/3, la surface effective de l'écran étant plus grande chez les écrans 4/3 pour une même diagonale.
Le pixel est la plus petite unité adressable sur l'écran (enfin, presque, compte tenu de l'astuce de la technique ClearType).
La définition d'écran est le produit du nombre de points selon l’horizontale par le nombre de points selon la verticale de l’affichage. Par exemple, 1024 × 768 signifie 1 024 pixels de large sur 768 pixels de haut, et donc à un nombre de 786432 pixels.
La résolution est un rapport entre la définition d’écran et sa taille physique, est exprimé en général en pixels par pouce.
Le Larousse inverse la définition des termes définitions et résolution, la 9e édition du dictionnaire de l’Académie française indique que définition est le nombre de lignes d’un format de télévision.
Note : certains constructeurs font varier les caractéristiques de leurs écrans, notamment la dimension verticale des écrans 16/9 est souvent légèrement agrandie au format 16/10 afin de permettre l'affichage d'une barre d'outil ou de navigation sous l'image. Ils omettent souvent de préciser les extensions après les lettres "GA", et confondent certaines nomenclatures (en ne précisant que le sigle sur leurs spécifications, mais pas la définition d'affichage effective...).
Nom
Dimensions
Taille écran indicative, elle dépend en fait du pas de masque
Unités de vitesse de traitement en virgule flottante
La vitesse de traitement de la partie virgule flottante, dite FPU (Floating Point Unit), d'un processeur est exprimée en opérations par seconde, les FLOPS (Floating Point Operations Per Second).
Le tableau ci-contre donne quelques exemples d'équivalences. Curieusement les disquettes de « trois pouces et demi » sont en fait spécifiées comme faisant 90 mm (la norme est d'origine japonaise) et mesurent en réalité 1⁄32 pouce de plus que 3 ½.
En revanche, le millimètre est universellement adopté pour les épaisseurs de disques durs (9 mm, 9,5 mm, etc.)