Les combinaisons possibles des 3 bits sont 000, 001, 010, 011, 100, 101, 110, 111 Ainsi de suite... 16,32,64,128,256,512,1024,2048,4096... on multiplie par 2 à chaque bit supplémentaire.
Un bit, mot-valise créé à partir de l'anglais binary digit, soit chiffre binaire, est la plus petite unité de donnée d'un ordinateur. Un bit a une seule valeur binaire, 0 ou 1.
Par exemple, pour un codage sur 3 bits, on peut représenter 2 3 = 8 nombres. On utilise les 4 premiers pour coder les entiers positifs 0,+1,+2,+3 et les 4 suivants pour coder les quatre entiers négatif -4,-3,-2,-1. L'intervalle de codage : Sur 8 bits (1 octet), l'intervalle de codage est [−128, 127].
Le bit porte ce nom car il signifie en anglais « binary digit », ce que l'on pourrait traduire par unité binaire. Autrement dit, un chiffre ou un symbole qui représente un des deux états du code binaire. Un bit = 2 possibilités (0 ou 1). Deux bits = 4 états ou possibilités (00 / 11 / 01 / 10).
Le découpage en groupes de 5 bits (quintuplets) donne 01110 et 01010, ce qui d'après la table de correspondance correspond aux lettres O et K. Le message reçu de la base est donc « OK ».
Bit et octet
Le bit est la plus petite unité de mesure d'information numérique. Cette unité ne peut contenir que deux valeurs : 0 ou 1. Très proche du fonctionnement de l'électronique sous-jacent, elle correspond à une tension ou une absence de tension dans les transistors.
La base est définie par le nombre de signes différents qui permettent d'écrire un nombre. En base 10 → 10 chiffres En base 3 → 3 chiffres (0,1,2). Dans une base « B », les chiffres ont tous une valeur inférieure à « B ». Ex : en base 5, les chiffres utilisés sont 0, 1, 2, 3, 4.
Pour trois bits, on procède de même : on recopie deux fois la liste obtenue pour 2 bits, une fois en ajoutant un 0 devant, une fois en ajoutant un 1 devant : 000, 001, 010, 011, 100, 101, 110, 111.Et ainsi de suite pour 4 bits, 5 bits, etc., de proche en proche.
1) Codage d'un entier relatif sur 8 bits.
Le bit de poids le plus fort (à gauche) sert à coder le signe de l'entier. Il reste donc 7 bits pour coder le nombre soit des valeurs entre -128 et 127. Exemple : Codage de 89 sur 8 bits 01011001. On va représenter 89 par 256 (28) -89=167.
L'octet est une unité des mesures de la quantité des données en informatique. Il correspond à 8 bits. Le bit, ou binary digit est l'unité la plus petite d'un système de numération et ne compte pour valeur que zéro et un. Il s'agit donc d'un système de codage de type binaire.
En informatique, un octet est un multiplet de 8 bits codant une information. Dans ce système de codage, s'appuyant sur le système binaire, un octet permet de représenter 28 nombres, soit 256 valeurs différentes. Un octet permet de coder des valeurs numériques ou jusqu'à 256 caractères différents.
Bien qu'il n'y ait rien de plus petit que 1 bit, il existe une unité plus petite que le byte : le nibble. Également appelé quartet, il désigne généralement 4 bits.
Un bit ne peut prendre que deux valeurs. En logique (algèbre de Boole), ces valeurs sont faux et vrai, ou quelquefois non et oui. En arithmétique, ce sont 0 et 1.
Le terme « bit » est employé comme nom d'unité, de symbole invariable bit, soit seul pour exprimer la taille d'une mémoire ou d'un fichier, soit en combinaison avec une unité de temps, généralement la seconde, pour exprimer un débit de transmission.
Pour convertir un nombre décimal en nombre binaire (en base B = 2), il suffit de faire des divisions entières successives par 2 jusqu'à ce que le quotient devienne nul. Le résultat sera la juxtaposition des restes. Le bit de poids fort correspondant au reste obtenu à l'ultime étape de la division.
Parce que c'est un système simple, qui limite les erreurs. Un “ chiffre informatique ”, appelé bit (pour BInary digiT), ne peut prendre que deux valeurs : 0 et… Parce que c'est un système simple, qui limite les erreurs.
En Occident, la plupart des gens ont appris à compter en base 10 avec les chiffres 0, 1, 2..., 9. Cependant, il existe d'autres systèmes de numération, les plus connus étant les systèmes binaire (0, 1) et hexadécimal (0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F).
Le binaire est utilisé en informatique car il permet de modéliser le fonctionnement des composants de commutation comme le TTL ou le CMOS.
L'octet étant une unité de taille très petite, la plupart des fichiers informatiques sont exprimés en Ko (Kilo octets), Mo (Méga octets), Go (Giga octets) ou To (Tera octets). Ces dernières années ont vu exploser les normes et les capacités moyennes de stockage.
C'est l'unité de mesure du débit Internet : Mégabit ou Gigabit. On peut aussi voir l'abréviation Mb/s, Mbit/s, Gbit/s.
En informatique, on parle d'une architecture 32 bits lorsque les mots manipulés par le processeur ont une largeur de 32 bits , ce qui leur permet de varier entre les valeurs 0 et 4 294 967 295 pour un mot non signé (c'est-à-dire un mot non doté d'un signe mathématique positif ou négatif), et entre −2 147 483 648 et 2 ...