Bonjour,
tout (ou quasiment tout) est dans le titre. Je sais qu'il existe le BCD, mais je crois savoir qu'il est utilisé que par certaines calculatrices. Lesquelles et pourquoi ?
Sinon, je suppose que les ordinateurs se débrouillent autrement. Je suppose donc que tous les nombres écrits en décimal sont analysés comme des chaînes de symboles, et à chaque fois que l'ordinateur veut comprendre la valeur, il doit les calculer (en regardant dans sa table que valent les chiffres de 0 à 9 en binaire, puis il multiplie par les bonnes puissances de 10 et il additionne). Et je suppose qu'on pourrait accélérer ça en stockant des tableaux de correspondances binaire-décimal plus grands que simplement de 0 à 9. Mais je n'y suis sûrement pas du tout, car ça a l'air très moche et très lent (même si parfois on serait surpris). Comment cela fonctionne-t-il en réalité ?
Il me semble que ce genre de calcul à lieu d'être vraiment partout et tout le temps. Par exemple, quand j'écris un programme, est-ce au compilateur de gérer la conversion de mes nombres de décimal à binaire, au système d'exploitation d'appeler une instruction du processeur faite pour, ou encore quelque chose d'autre ?
Merci beaucoup !