Je tente de déchiffrer tout ça. De ce que je comprends la HP Machine c'est plusieurs idées défendues par d'autres constructeurs (avec moins de marketing) :
a) Des hordes de processeurs peu puissants mais avec un meilleur rapport énergie/calcul et espace/calcul. Intel Atom et ARM. On les trouve déjà dans les cartouches HP Moonshot. C'est le premier point de réduction de la conso.
b) Des processeurs spécialisés. Typiquement je m'attends à des puces spécialisées pour l'optimisation linéaire et autres tâches de
reconnaissance - minage - synthèse (RMS). Et HP vendrait ses cartouches adaptées à diverses tâches et on pourrait librement empiler des cartouches différentes dans un rack. Du GPU avec un support natif pour les matrices creuses et arbres de recherche pour simplifier, et plus amical envers le parallélisme de tâche.
c) Des connexions photoniques entre composants. Mouais, sans doute possible vu qu'il y aussi de telles actus chez d'autres constructeurs mais je le croirai quand ce sera en vente.
d) L'élimination des hiérarchies de mémoire : en gros on lit tout depuis des SSD améliorés, donc forte latence (sans doute réduite par des techniques 3D qui stimulent les fondeurs aujourd'hui), mais compensée par des calculs en série façon GPU (une seule unité de calcul exécutant tour à tour les instructions de nombreux threads matériels, laissant le temps aux données d'arriver entre chaque cycle). D'où aussi la conso réduite puisque plus de mémoire ni de cache à alimenter.
e) La réduction de la latence des disques une fois les memristors au point, avec des nouveautés en conséquence côté architectures des SGBD.
Et côté logiciel ça voudrait donc dire d'abord des codes spécialisés pour les archis spécialisées (OpenCL ?), et ensuite des API systèmes différentes du fait de la disparition du concept de mémoire volatile (encore qu'il devrait rester possible de faire tourner un logiciel conçu pour un OS traditionnel).
Si quelqu'un en sait plus long que moi, j'apprécierais un oeil critique.
Partager