Publié le 12/06/2020
Comme pour illustrer le sujet du jour, cette Technoférence #32 se déroulait exceptionnellement en ligne. Un webinaire “as a service” très complet sur le cloud et ses multiples déclinaisons. Où il était question de nouveaux leviers économiques et d’hébergement de projets innovants aussi bien que de sécurité de données, consommation énergétique, réseaux 5G, streaming vidéo, et Fog computing notamment.
En introduction sur les enjeux et tendances du cloud, Dalila Tamzalit, focalisait son intervention sur le Software as a Service (SaaS) qui est “le modèle cloud le plus mature”. L’enseignante-chercheur du L2SN distingue deux cas. D’abord le “faux SaaS” où chaque client possède son propre environnement d’exécution si bien que la quantité de ressources mobilisées doit augmenter avec le nombre de clients. Tandis que dans le cas du “full SaaS”, les clients partagent un environnement d’exécution commun. Ce deuxième modèle, dit mutualisé, est plus intéressant du fait du faible coût initial et de “la facilité à passer à l’échelle”. Mais en regard de ces avantages de “rêve”, l’intervenante met en garde sur certains aspects “cauchemar”. En particulier, la contrainte de redévelopper à zéro les applications existantes pour la plateforme qui permettra la mutualisation des ressources. Et par conséquent l’effet “Vendor lock-in” : on devient prisonnier de la plateforme choisie.
À suivre, Nicolas Jullien, de l’IMT Atlantique, confirme cette mise en garde : “On a l’impression de payer à l’usage, on n’a pas la charge de la maintenance de l’infrastructure… Mais il ne faut pas oublier qu’on est dépendant de la plateforme à laquelle on a confié ses données.” Derrières ces paroles, on devine les grandes plateformes qui dominent outrageusement le marché du cloud : Amazon Web Services, Microsoft Azure, Google Cloud Platform, notamment.
Heureusement, on peut aussi faire le choix de la proximité. Yohann Bourd intervenait à point pour présenter les avantages d’un cloud sécurisé hébergé dans un datacenter de Bretagne Télécom. La sécurisation y est physique (contre les pannes, l’intrusion, l’incendie). Elle est aussi logique : le réseau opéré est sécurisé et prêt à réagir aux principales formes d’attaque telles que DDoS notamment. Un exemple, la sécurisation du poste de travail : “Seul l’affichage est transmis, toutes les données restent dans le datacenter”.
Autre solution cloud locale, Teralab, “pour les projets précompétitifs du type big data ou intelligence artificielle” précise le directeur technique de la plateforme, Olivier Dehoux. Teralab fournit des moyens, techniques, juridiques, des infrastructures, des outils et de l’accompagnement dans un environnement souverain, sécurisé et neutre. Les startups peuvent ainsi prototyper des produits et des services. Deux exemples de projets devenus success stories : Acklio dans l’univers de l’IoT, Blacknut dans celui du cloud gaming. Teralab est aussi fournisseur de services à l’échelle de l’Europe. Notamment pour les DIH, les Digital Innovation Hubs qui se mettent en place.
Dans un autre registre, toujours en Bretagne, Bérenger Cadoret veut associer transformation digitale et transition énergétique. Pour cela, il a créé Stratosfair, une startup dont l’objectif est de créer des mini-datacenters de proximité consommant de l’énergie “100 % renouvelable”. Le jeune entrepreneur voit loin : il imagine à terme une multiplication de petits datacenters au plus près des besoins (edge computing). Les collectivités locales pourraient alors s’équiper pour en faire un atout supplémentaire de leurs zones d’activités.
La technoférence passait ensuite aux cas d’usage, avec d’abord la distribution de contenus. Jusqu’à présent, “l’environnement classique était composé de racks” indique Cédric Thiénot, d’Enensys. Mais il observe aujourd’hui que “la distribution de contenus est en train de se cloudifier” en commençant par les États-Unis. Avec toutefois les exigences spécifiques de la télévision en termes de disponibilité : “Quand arrive le moment des tirs au but, l’écran noir est interdit”.
Quelques exemples de composantes métier qui migrent vers le nuage. Le “test and monitoring” de la distribution de contenus par internet (OTT) pour lequel le cloud autorise une très large “scalabilité”. Le “targeted advertising” qui permet quasiment “un coût au clic” inenvisageable hors contexte cloud. L’architecture globale de l’infrastructure de distribution qui devient capable de s’adapter avec fluidité aux contextes unicast, multicast et broadcast. Conséquence pratique pour le fournisseur de solutions de distribution : “Il a fallu former nos ingénieurs à passer de l’embarqué au cloud.”
Cette migration est accompagnée d’efforts constants en matière de compression vidéo. Wassim Hamidouche, de l’Equipe VAADER, de l’Insa Rennes – IETR, faisait en complément un tour des travaux récents sur le standard VVC (Versatile Video Coding). Avec pour résultat de réduire de moitié la bande passante nécessaire “pour une qualité subjective équivalente”.
5G et Network Slicing avec Veronica Quintuna-Rodriguez d’Orange Labs
Les explications cette fois sont de Veronica Quintuna-Rodriguez, ingénieur de recherche à Orange Labs. Au cœur de son intervention, le Slicing as a service (SlaaS) : donc la capacité de la 5G a créer une tranche virtuelle de réseau afin d’adapter les performances de cette tranche aux exigences particulières d’un service donné.
Chaque slice est “un réseau logique de bout en bout” qui peut être créé “à la demande et à la volée” afin de constituer une sorte de réseau mobile privé. Orange a automatisé la mécanique qui permet de créer ces tranches à la demande. La possibilité de déployer des segments de réseau privés “as a service” ouvre de nouvelles opportunités d’affaires pour l’opérateur comme pour ses clients.
Pour terminer la matinée de conférences, Thomas Ledoux de l’IMT Atlantique traitait des nuages brumeux : le Fog computing. Par opposition au Cloud computing centralisé dans de gros datacenters, le Fog computing (ou Edge computing, Mist computing…) s’appuie sur de petits centres de données distribués au plus près des besoins. Les motivations : réduire les problèmes de latence, éviter les goulets d’étranglement, réduire l’empreinte énergétique, éviter d’exporter des données sensibles notamment. Et puis répondre à l’explosion de la demande générée par l’Internet des objets : “Le Fog est une infrastructure géolocalisée entre cloud et IoT.” Les cas d’usage sont nombreux : smart home, smart city, smart factory par exemple.
Au final, il est vraisemblable que les modèles centralisé et distribué cohabiteront : “Il faut mettre le curseur au bon endroit entre ce qu’on garde en local et ce qu’on centralise dans le cloud.” Reste que pour l’instant, le Fog computing émerge tout juste de la brume : “Le marché n’est pas mature… Nous sommes en pleine exploration.”