Gartner suggère que les changements de licence de VMware signifient que le bare metal peut faire son retour par le biais de la "dévirtualisation"
afin d'aider les clients de réduire les coûts des licences

Les changements opérés par Broadcom sur les licences VMware se traduisent par une augmentation des prix de 2 à 3 fois pour certaines entreprises. Un nouveau rapport de Gartner a observé que ces changements ont poussé les entreprises à accélérer ce que les analyses appellent la "dévirtualisation" : un processus de migration des charges de travail des environnements virtuels vers les environnements physiques. Le rapport indique que les augmentations de prix des licences sont difficiles à supporter pour certaines charges de travail importantes. En outre, le passage à des solutions de remplacement des produits VMware est également à l'ordre du jour.

Les changements de Broadcom entraînent des surcoûts importants pour les entreprises

Broadcom a finalisé le rachat de VMware pour 61 milliards de dollars fin novembre 2023. Environ huit mois après, le bilan de la gestion de Broadcom semble catastrophique, notamment à cause des changements très controversés qui ont attisé l'ire des clients. Le CISPE (Cloud Infrastructure Services Providers in Europe) a accusé Broadcom de rançonner le secteur du cloud en modifiant les licences VMware. En outre, Gartner estime que les nouveaux modèles de licence de Broadcom, qui passent d'accords de licence d'entreprise à des modèles de consommation plus complexes, peuvent obliger les clients à payer 2 à 3 fois plus.


Dans son nouveau rapport "Hype Cycle for Data Center Infrastructure Technologies, 2024", Gartner fait remarquer que les frustrations provoquées par les changements de Broadcom accélèrent le passage des entreprises à des environnements virtuels vers les environnements physiques. « Alors que les projets de virtualisation sur site passent d'un ELA [enterprise license agreement - accord de licence d'entreprise] et de licences perpétuelles à de nouveaux modèles de regroupement, de ratios socket-core et de consommation, les coûts et la tarification peuvent être multipliés par deux ou trois », souligne le cabinet d'analyse.

Le rapport ajoute : « les grandes charges de travail complexes virtualisées sur site, dont les avantages en matière de consolidation sont plus marginaux, sont envisagées pour être réhébergées sur des serveurs physiques ou dévirtualisées. Les clients constatent une augmentation des coûts de la virtualisation sur site avec l'acquisition de VMware par Broadcom. Les coûts ne sont pas le seul facteur à prendre en compte, tout comme les niveaux de service, basés sur la résilience, la disponibilité et la portabilité des charges de travail ». Alors, qu'est-ce que Broadcom a fait exactement pour déclencher cette hausse des prix ?

Après l'acquisition de VMWare, Broadcom a fusionné de nombreux produits VMware en deux offres principales : VMware Cloud Foundation et VMware vSphere Foundation. Certains composants ont été intégrés dans ces deux solutions ou entièrement supprimés, comme l'ancienne solution VMware End-User Computing (EUC), désormais appelée Omnissa. En conséquence, les clients de longue date VMware ne peuvent plus acheter de licences perpétuelles ou l'hyperviseur ESXi seul. Ces changements ont rendu l'utilisation de machines virtuelles plus coûteuse pour les clients, en particulier pour les grandes charges de travail.

L'augmentation des coûts de licence logicielle pousse les clients vers la dévirtualisation

En conséquence, certaines entreprises envisagent une mesure surprenante : abandonner complètement les machines virtuelles et revenir à l'utilisation d'ordinateurs physiques pour des charges de travail spécifiques. Cette approche, que les analystes appellent dévirtualisation", peut permettre de réaliser des économies, mais elle s'accompagne d'une complexité supplémentaire liée à la gestion du matériel physique. Le rapport de Gartner comporte plusieurs mises en garde concernant le coût et la complexité de l'acquisition et de l'exploitation de systèmes "bare metal" offrant la même résilience qu'un environnement virtualisé.

Un autre facteur à l'origine de cette tendance est que les grandes charges de travail exécutées sur des hôtes VM dédiés ne bénéficient pas des mêmes augmentations de densité et des mêmes économies que la consolidation des petites charges de travail. (La dévirtualisation consiste à déplacer une charge de travail d'un hôte virtualisé basé sur un hyperviseur vers un hôte physique composé de matériel serveur, de système d'exploitation et d'outils d'administration.) Gartner estime qu'il faudra 5 à 10 ans pour que la dévirtualisation atteigne le "plateau de productivité" où la technologie devient mature et largement acceptée.

Cependant, Gartner a déclaré que la dévirtualisation a son propre ensemble de défis et peut avoir des impacts commerciaux variés. Gartner indique dans son rapport : « au fur et à mesure que les charges de travail se dévirtualisent et se déplacent vers le matériel physique, les fonctions de portabilité doivent être remplacées dans le monde physique du métal nu de la dévirtualisation. Cela nécessite un investissement dans des fonctions de remplacement à forte valeur et à coût élevé, ainsi que l'adhésion de l'entreprise ». Les entreprises doivent donc évaluer tous les défis et les coûts avant de se lancer dans la dévirtualisation.

En somme, la dévirtualisation entraîne la nécessité d'investir dans une infrastructure complexe et coûteuse telle que des grappes de systèmes d'exploitation ou de SGBD afin de remplacer la fonctionnalité de résilience de la migration en direct et de la récupération basée sur l'hôte. Selon Gartner, les serveurs virtuels de grande taille ou dédiés sont des charges de travail plus marginales à virtualiser et de bons candidats à la dévirtualisation, mais il n'est pas aussi facile d'étudier l'impact du remplacement de la migration en direct et de la restauration basée sur l'hôte sur les charges de travail physiques dévirtualisées.

La migration vers de nouveaux hyperviseurs (ou "revirtualisation") a le vent en poupe

Outre la dévirtualisation, le rapport de Gartner souligne également l'essor de la "revirtualisation" ou des migrations de virtuel à virtuel comme une autre solution potentielle. La revirtualisation consiste à passer de VMWare à un autre fournisseur d'hyperviseur. Selon Gartner, elle est applicable par cinq à vingt pour cent des organisations. Là encore, les changements de licence de VMware sont un facteur déterminant. Gartner note : « avec les changements significatifs dans les licences VMware, de nombreuses organisations envisagent un hyperviseur alternatif construit sur des technologies open source ou alternatives ».

Le rapport ajoute : « les clients cherchent également des moyens de définir le champ d'application de la gestion des accords d'entreprise avec les fournisseurs de virtualisation à mesure qu'ils adoptent des modèles d'abonnement ». Gartner a expliqué que la revirtualisation est généralement entreprise pour pallier une déficience technique ou pour répondre à un risque de viabilité ou commercial. Le rapport ajoute que tels efforts pourraient augmenter le coût total de possession, introduire des outils d'administration et de gestion immatures, créer une charge opérationnelle supplémentaire ou des problèmes de fiabilité.

Mais Gartner pense que ces risques pourraient en valoir la peine, car ils sont destinés à compenser l'exposition à l'augmentation des audits et des problèmes contractuels découlant du passage des fournisseurs historiques à des modèles d'abonnement. (Alors que la dévirtualisation en est à son stade "embryonnaire" avec environ 1 % de pénétration organisationnelle, Gartner indique que la revirtualisation est un peu plus mûre avec environ 5 à 20 % d'entreprises qui ont déjà sauté le pas.) Selon le rapport de Gartner, les autres technologies émergentes qui suscitent de l'engouement sont les suivantes :

  • technologies de mémoire émergentes : Gartner estime que la mémoire vive magnétorésistive (magnetoresistive random access memory - MRAM) et la mémoire vive résistive (resistive random access memory - ReRAM) pourraient contribuer à la mise à l'échelle d'applications complexes ;
  • jumeaux numériques des réseaux : la complexité croissante des réseaux signifie qu'il sera utile de disposer d'un modèle hors ligne pour tester les changements. Gartner estime que cette technologie pourrait améliorer les délais de livraison des demandes de 20 % ;
  • alimentation hors réseau : des générateurs privés reliés aux centres de données réduisent la dépendance à l'égard du réseau et garantissent la possibilité de s'étendre. Les centres de données alimentés à l'hydrogène figurent également sur la liste des technologies émergentes, la fusion nucléaire est mentionnée pour son potentiel à fournir une énergie abondante et abordable, et les petits réacteurs nucléaires modulaires sont également considérés comme une technologie à suivre ;
  • la réalité augmentée dans les centres de données : Gartner pense que les technologies qui fournissent aux techniciens une visualisation des données en temps réel, un guidage à distance et des modèles 3D interactifs pour faciliter les tâches complexes et les processus de maintenance peuvent réduire le temps nécessaire au dépannage et aux réparations, et rendre les manuels redondants.


Parmi les technologies qui ont atteint leur apogée, on trouve les économies circulaires dans l'informatique, les centres de données "net-zero", les modèles basés sur la consommation pour l'informatique sur site et hybride, et le refroidissement liquide direct sur la puce (D2C). Selon Gartner, l'informatique périphérique est en difficulté, car le cabinet d'analystes estime qu'il glisse vers le creux de la désillusion, c'est-à-dire le moment où une technologie n'a pas tenu ses promesses. Par ailleurs, l'automatisation de l'infrastructure est également en perte de vitesse, tout comme le refroidissement par immersion.

Les serveurs hybrides conçus pour exécuter des charges de travail informatiques et opérationnelles déçoivent également les acheteurs, tout comme l'infrastructure composable. Les idées technologiques qui commencent à se concrétiser et à remonter la pente vers le plateau de la productivité comprennent l'infrastructure immuable (des modèles architecturaux qui ne sont jamais modifiés afin d'améliorer la gestion et la sécurité) et l'infrastructure définie par logiciel.

Source : Gartner

Et vous ?

Quel est votre avis sur le sujet ?
Comprenez-vous le tollé suscité par les décisions de Broadcom ?
Que pensez-vous des impacts des décisions de Broadcom sur l'ensemble de l'industrie ?
Que pensez-vous de la dévirtualisation ? Est-ce une alternative viable pour réduire les coûts ?
Utilisez-vous les produits de VMware ? Si oui, songez-vous à migrer vers un autre hyperviseur ?

Voir aussi

Le groupe industriel européen CISPE accuse Broadcom de rançonner le secteur du cloud en modifiant les licences logicielles de VMware, et demande l'ouverture d'une enquête sur le fabricant de puces

OVHcloud lance Metal Instances, un accord entre serveurs dédiés, paiement à l'usage et Infrastructure-as-Code

Après 114 jours de changement, le PDG de Broadcom avoue le « malaise » lié à VMware, les changements comprennent la reprise des comptes clients, la transition vers des licences d'abonnement