Publié le 14/02/2018
C’est la loi du Hype Cycle : après l’ascension irrésistible vient le creux de la désillusion. Aujourd’hui réalité virtuelle et réalité augmentée ont dépassé ce deuxième cap. Pour preuve, les milliards de dollars investis sur ces sujets en 2017 à travers le monde. Technos, recherches, applications, marchés… Un point complet sur “les réalités” grâce à la Technoférence #24.
“J’étais déjà venu il y a 3 ans… J’ai été choqué quand j’ai revu les diapos que j’avais présenté à l’époque. Entre temps, 90% des acteurs ont disparu.” C’est sur ce constat qu’Alexandre Bouchet débutait son état des lieux sur les réalités virtuelle et augmentée. Pour le directeur de centre de ressources lavallois CLARTE, le creux de la vague est désormais derrière nous. Après la grande casse, le moment est venu de “la structuration des écosystèmes”.
Son intervention débutait la Technoférence #24 intitulée Réalité virtuelle, augmentée, immersive, quelles réalités ? L’événement organisé par Images & Réseaux se tenait le 8 février à Rennes, dans les locaux de l’Inria Rennes Bretagne Atlantique. Il était également suivi en visioconférence depuis Brest, Lannion, Laval, Lorient, Nantes et Quimper.
Alexandre Bouchet focalisait son intervention sur la technologie, car les usages lui paraissent encore “à inventer” et “sans limite”. Il commence par la réalité virtuelle dont le développement est étroitement lié aux nouvelles possibilités offertes par le casque VR. Celui-ci devient un dispositif autonome, capable de se repérer dans l’espace (inside-out tracking), sans fil et vendu à un prix abordable. Tandis que la qualité visuelle ne cesse de s’améliorer, grâce notamment au Eye tracking qui permet de “mettre des pixels là où vous regardez”. Au final, les gains en termes de confort visuel et de déplacement dans l’espace favorisent “une meilleure immersion”. Si bien que, du point de vue du marché, les enjeux se déplacent maintenant vers “les plateformes de distribution de contenus”.
Côté réalité augmentée, “les verrous sont en train de sauter un à un”. Notamment sous l’impulsion des géants américains qui “drivent toutes les innovations”. Et avec lesquels “on ne peut pas rivaliser”. La tendance est aux wearables, les objets portés sur soi. Et ce, “y compris dans les milieux industriels”. L’autre tendance de fond étant l’AR Cloud : une infrastructure dans le nuage qui servira de socle aux applications de réalité augmentée grâce à “un contenu persistant, enrichi de manière collaborative”. Le directeur de CLARTE voit dans ce “double numérique du monde” une promesse qui va rebattre toutes les cartes. Pour le vérifier, le lavallois propose un nouveau rendez-vous “dans 3 ans”.
Suite au tour d’horizon technologique, quelques exemples d’usages. Le premier concerne la réalité augmentée dans le secteur de la fabrication de cartes électroniques. Said Abouali est directeur de production et qualité chez Axis Électronique. Une PME dont le métier est d’insérer de l’électronique dans un équipement, “quel qu’il soit”. Le problème auquel l’entreprise est confrontée : la vérification de la conformité de la pose des composants avant soudure. Et la solution trouvée : une application de réalité augmentée qui “co-localise image réelle et image virtuelle” de façon à aider l’opérateur dans la prise de décision.
Aviwest, représentée par son CTO Ronan Poullaouec, étudie un autre cas d’usage, pour le grand public cette fois. Il s’agit de télévision immersive et connectée avec le projet collaboratif LIVE360TV. Son objectif : “développer une solution de bout-en-bout de création, diffusion et restitution audio/vidéo 360 degrés”. Donc résoudre des problèmes complexes de captation à 360°, de traitement des images en temps réel, de transmission à faible latence sur les réseaux existants. Également de restitution sur un second écran ou sur un casque VR connecté. L’ensemble permettra de renouveler l’offre de télévision, en permettant au spectateur de s’immerger, par exemple, dans son sport préféré.
Après la télé, le cinéma. Avec des vidéos spectaculaires issues du tournage de Le livre de la jungle. Le film réalisé en 2016 par Jon Favreau est une animation 3D dont le personnage central, Mowgli, est réel. Gaël Seydoux, directeur de recherche chez Technicolor, décryptait quelques-uns des outils développés pour faciliter la mise en scène. Le principal obstacle à contourner est la durée de calcul des images, “une vingtaine d’heures”. Si bien que : “L’équipe ne peut pas voir le résultat final.” Pour éviter de travailler en aveugle et “introduire du temps réel”, elle a recours à un environnement virtuel intégré à un moteur de jeu vidéo : “Le réalisateur, le chef opérateur, le décorateur se promènent dans la scène pour déterminer les axes de caméra, gérer la lumière, régler la mise en scène… La réalité virtuelle apporte un vrai changement dans les process de réalisation et de post-production.”
Place ensuite aux leviers qui améliorent l’expérience immersive. Guillaume Jégou, de B<>com, détaillait les axes de travail du laboratoire Usages et Acceptabilité qu’il dirige. Il parle outils, méthodes et applications à des cas d’usage comme le cyber-sickness, la nausée provoquée par les environnements virtuels. Mais aussi d’engagement de l’utilisateur par l’IA interactive. Il s’agit de “modéliser les interactions et non les comportements”. Une méthode prometteuse qui permet de “laisser émerger les comportements de manière naturelle” grâce à l’intelligence artificielle. Et de s’affranchir ainsi “des règles et scripts préétablis”.
Le retour multimodal associant vue et toucher est une autre piste, étudiée par Maud Marchal, chercheuse à l’Iris”a. Celle-ci rend compte des avancées issues du projet collaboratif MANDARIN, sur “la manipulation dextre haptique”. Ce thème est un “vrai défi”, pour lequel on en est encore “à l’âge de pierre”. Le projet a développé un gant à retours d’effort d’un nouveau genre, qui procure des sensations réalistes au bout des doigts. Le dispositif est en cours d’industrialisation par Haption. Voir aussi MANDARIN, la réalité virtuelle au bout des doigts.
Pour terminer, Samory Houzangbe, décrivait ses recherches sur le biofeedback utilisé comme outil d’interaction avec la réalité virtuelle. Ceci grâce à un “Body Sensor Network” réalisé à partir d’objets connectés. Le doctorant développe cette thèse avec le concours des Arts et Métiers et Eon Reality. L’idée est de récupérer des informations sur les états psycho-physiologiques de l’utilisateur (le rythme cardiaque, la sueur, etc.) pour générer “plus d’engagement et donc plus d’immersion”. Par exemple, détecter une émotion comme la peur pour orienter le déroulé d’un jeu vidéo. La thèse est en cours, il faudra patienter pour ses conclusions.
À noter
Prochain rendez-vous technologique Images & Réseaux
Technoférence #25 : IA, machine learning, deep learning
Jeudi 7 juin 2018 de 9h à 12h à Rennes et en visioconférence