Une révolution en marche : la virtualisation des réseaux


<< Back to the list

Par Thibaut Bechetoille, président du directoire, Qosmos
Publié le 29/10/2015 sur itrnews.com

La virtualisation des réseaux est devenue la vedette des rendez-vous internationaux majeurs consacrés aux technologies de l’information et fait déjà l’objet d’une âpre compétition entre les grands industriels du secteur.

Qu’est-ce qui se cache exactement derrière cette notion ? La virtualisation consiste à faire tourner plusieurs fonctions informatiques sur un seul serveur physique. Avant 2010, les équipements informatiques (tels que pare-feux, commutateurs, routeurs) étaient construits avec des puces et des processeurs spécifiques. Pour chaque fonction informatique ou réseau, le fournisseur (IBM, Cisco, HP…) vendait le matériel, le logiciel et les outils de gestion. Ils s’agissaient d’objets, palpables, visibles. Au début des années 2010, les processeurs grand public de type Intel sont devenus si puissants qu’ils ont commencé à être utilisés dans la construction des réseaux télécoms. C’est alors qu’un seul serveur physique a été utilisé pour plusieurs fonctions informatiques : cela a été un véritable tournant.

Avec la virtualisation, il n’est plus nécessaire de dimensionner chaque serveur pour son éventuel pic de charge. Il est possible de mutualiser la puissance de calcul pour les besoins globaux de toutes les applications. La virtualisation des réseaux consiste en une réduction sensible de l’enveloppe physique (le matériel) au profit d’un service logiciel global. Les bénéfices en sont multiples : gains de place et d’énergie, réduction des coûts d’acquisition, de maintenance et d’exploitation, flexibilité accrue. Autre avantage : le logiciel (software) prend beaucoup plus d’importance que le matériel (hardware). La part du logiciel dans la valeur d’un système fermé est passée de 20% avant 2010, à 80% après.

Pour les opérateurs et les entreprises, l’enjeu n’est donc pas seulement technique. Il est aussi, et surtout, économique. Il a donc une vraie dimension stratégique. Avec la virtualisation, les réseaux et les applications ne sont plus liés à des câbles ou des serveurs physiques. Les responsables informatiques ont cependant plus que jamais besoin de connaître la nature du trafic dont ils sont responsables pour diagnostiquer les dysfonctionnements, maximiser l’utilisation de leurs équipements, optimiser le cheminement du trafic vers les fonctions pertinentes ou protéger les installations contre des attaques informatiques. Au sein de cette nouvelle architecture, de nouveaux logiciels d’analyse informent les fonctions réseaux sur la nature du trafic (vidéo audio…), y compris dans un environnement sans câblage physique . C’est le rôle que jouent les classificateurs de trafic IP qui identifient les flux réseau jusqu’au niveau applicatif, comme par exemple le Qosmos Classifier. Ces produits permettent d’optimiser les combinaisons de services pour les abonnés ou de sécuriser les centres d’hébergement informatiques complètement virtualisés.

La virtualisation des réseaux s’accompagne d’une autre évolution, tout aussi fondamentale : la standardisation et la « componentisation », c’est-à-dire le fonctionnement par assemblage de composants. De quoi s’agit-il ? Malgré des efforts de standardisation, le secteur des réseaux et des télécoms s’est développé, tout au long de ces 25 dernières années, autour de solutions très « propriétaires » enfermant les opérateurs et les entreprises dans des offres souvent mono-constructeurs, chères, et peu évolutives. Au cours des trois dernières années, l’industrie a lancé des initiatives telles que le concept de NFV (virtualisation des fonctions réseaux ou Network Function Virtualisation) dont l’objectif est de faire en sorte que les infrastructures de réseaux se construisent autour de briques, un peu à la manière d’un jeu de lego. Chaque brique est bien définie : une VNF (fonction réseau virtuelle ou Virtual Network Function) correspond à une fonction réseau ou sécurité comme un routeur, un pare-feu… Le dialogue entre les différentes briques est standardisé par des API (interfaces de programmation des applications ou Application Programming Interfaces). Dans cette architecture, l’analyse de trafic est un service horizontal partagé entre les différentes fonctions et prend la forme d’un VNFC (composant de fonction réseau virtuelle ou Virtual Network Function Component).

Combinées, « componentisation » et virtualisation permettent de développer des architectures plus flexibles, plus ouvertes, et ainsi d’accélérer la mise sur le marché de nouveaux services réseaux ou télécoms. Ces composants seront développés soit par les équipementiers, soit par des communautés autour de projets Open Source (ou code source ouvert).

De fait, ces phénomènes, ou plutôt ces révolutions en marche, sont en train de rebattre totalement les cartes entre les acteurs du secteur. Bien malin qui peut dire qui sera le grand gagnant de ce nouvel ordre des choses. Mais des géants de l’industrie ont compris le changement en cours et ont commencé à collaborer avec des PME autour de projets ouverts. C’est le cas d’HP, qui a lancé récemment une communauté « OpenSwitch » et un nouveau système d’exploitation réseau en Open Source. Qosmos fait partie de cette communauté.
L’avenir sera résolument collaboratif. Y compris dans l’industrie des réseaux.