Pas du tout, ce sont des OS qui ont été pensés, dès le départ, pour gérer et fonctionner sur des "fermes" ou "grappes" informatique.
Une ferme est composée d'un certain nombre d'ordinateurs (en général entre 30 et 40) qui sont reliés en réseau directement les uns aux autres (topologie "multi-étoiles"). Chaque machine est un nœud, cumulant les rôles de "serveur" et de "client".
Le but est partager / distribuer les traitements entre les différentes machines afin d'obtenir une puissance équivalente à celle d'un super-calculateur.
Avec cette architecture, Les calculs, faits auparavant de façon séquentielle par une seule machine, sont distribués entre les différents pc du réseau et se font donc en parallèle les uns par rapport aux autres.
C'est un peu comme un processeur mutli-coeur, mais à une plus grande échelle.
Article wikipédia
[edit] j'ai des connaissances dans ce domaine, car grâce à une connaissance, j'ai pu effectuer, a la fin de mes études, un stage au département "traitement des données" du LHC (accélérateur de particule du CERN)[/edit]
Partager