Voilà à mon avis le fond du problème. Considérer des bits comme des chiffres... En unités décimales déjà on divise par 3, et en
nombre encore une fois la
signification d'une telle précision est
absurde. Et de plus, encore une fois, à part pour écrire des bits pour du cryptage (
et CRC en est une sorte) , qui se sert de ça ??? Je pense donc que le tout vient d'une profonde confusion entre nombre utilisable et représentation binaire d'un grand nombre... C'est ça que je ne comprend pas... Qu'on l'enseigne dans un cours pour les futurs cryptographistes, ou en maths avancées en théorie des grands nombres, soit.. Mais je ne comprend vraiment pas , mais alors pas du tout, que, au vu du nombre de posts sur le sujet (et au vu des questions et dialogues lors des posts, on n'a pas affaire à des spécialistes de maths avancées) cela soit enseigné quasi "de base" (
voir la remarque de droggo "presque basique") à des débutants...
Partager