Données et interactions : 6 témoignages de haut vol

Publié le 24/01/2017

Technoference #19

Plonger en réalité virtuelle dans des données complexes, exploiter au mieux les données 3D d’une ville, interagir avec la maison par la voix, tirer parti des retours écrits des clients, explorer des traces informatiques, s’inspirer de la curiosité enfantine pour l’apprentissage d’un robot… Retour sur la Technoférence du 19 janvier sur le thème “L’intelligence artificielle, le big data et moi : quelles évolutions ?”. Événement marqué par six témoignages passionnants sur des projets et travaux menés en Bretagne et Pays-de-la-Loire.

Cette Technoférence, 19e édition du cycle de conférences thématiques Images & Réseaux, se tenait à Rennes, à l’Institut Mines Télécom Atlantique. L’IMT Atlantique, un nom auquel il va falloir s’habituer. Car c’est depuis 1er janvier celui d’un établissement de poids parmi les écoles d’ingénieurs françaises, issu de la fusion de Télécom Bretagne avec l’École des Mines de Nantes. Avec ses trois sites de Brest, Rennes et Nantes, l’IMT Atlantique représente 2300 étudiants et près de 300 chercheurs.

L’amphithéâtre du site rennais était comble ce 19 janvier, signe que l’intelligence artificielle et le big data sont des sujets mobilisateurs. D’autant que l’événement était également suivi en visioconférence à Brest, Lorient, Laval, Le Mans, Lorient et Nantes. La matinée commençait par un aperçu des perspectives marché avant de balayer les champs d’application au travers de six présentations de projets industriels et de recherche.

Un marché en phase d’accélération

Le marché de l’interaction – interaction avec les données et données issues d’interactions – est quasi infini selon Jean-Claude Fraval, qui se chargeait de donner une vue d’ensemble. Ce marché est essentiellement tourné vers le prédictif : analyser d’énormes quantité de données pour en extraire des alertes, des prévisions, des corrélations… Les technologies misent en œuvre parcourent toute la chaîne de valeur : collecte des données, stockage, analyse, intelligence artificielle, cybersécurité, visualisation. Cette dernière fonction, la data visualisation, ayant pris de plus en plus d’importance avec l’augmentation des masses de données, “pour simplifier ce qui est trop gros pour être vu en une seule fois”.

Les applications basées sur les données traversent l’ensemble de “l’univers digital”, dont l’expansion semble sans limite : celui-ci croît de 36% par an, notamment dans les pays émergents et avec partout une part croissante de données “machine generated”. Tous les secteurs sont concernés, deux exemples pour preuve de la diversité : les algorithmes d’analyse prédictive de General Electric prévoient la consommation électrique pour optimiser la production d’énergie en Irlande, tandis que ceux d’Adecco aident les décideurs à anticiper leurs orientations en matière de gestion des ressources humaines. Les volumes seront là à horizon 2020-2025, période où on évalue le marché à plus de 80 milliards de dollars toutes technologies confondues : data, big data, analytics, IA et visualisation.

S’immerger dans les données pour mieux visualiser

À suivre, Jérôme Royan de B-com, s’attaquait à un sujet phare du moment, la visualisation de données. Avec une problématique qui s’apparente à celle de l’aiguille dans la botte de foin : comment dégager une information pertinente d’une énorme quantité de données, surtout quand on multiplie les variables considérées. La représentation 3D et la couleur ajoutent des possibilités mais soulèvent aussi des problèmes de lisibilité.

L’outil Data SpotR mis au point par l’institut de recherche prend le parti de la réalité virtuelle : le data analyst équipé d’un casque plonge dans la représentation 3D pour multiplier les angles de vue et naviguer parmi les courbes, cubes ou points, qui matérialisent les données. Et il peut interagir, par exemple : “on zoome en se penchant sur les données”. Présenté lors d’événements, l’outil se heurte parfois au scepticisme de certains spécialistes soupçonnant “le gadget”, mais s’amuse Jérôme Royan “quand ils ont le casque sur la tête, on ne peut plus les arrêter”.

Immersion-données

Rendre accessibles les maquettes 3D

Le projet collaboratif Ty City aborde, lui, le sujet de la représentation des données en 3D sous un autre angle : celui du coût. Avec pour objectif, selon Laurent Le Breton, de Eegle, de “démocratiser les maquettes 3D”. L’idée pivot du projet est de “créer un pont” entre deux usages qui s’ignorent : la maquette 3D de communication et la maquette 3D d’aide à la décision. Ty City débouchera sur une plateforme collaborative d’intégration, de visualisation et de partage de données.

L’intervenant attire ensuite l’attention sur une série de problématiques rencontrées par le projet : sur la propriété, “attention aux licences” ; sur la nécessité de mettre en place une infrastructure pour distribuer ; sur la qualité des données dont, très important, “la fréquence des mises à jour” ; sur la sécurité, “avec qui on partage” ; sur le format des données, qui est “un choix structurant”. Laurent Le Breton conclut par cet avertissement : “Les données sont au cœur de la valeur mais elles sont aussi facteur de risques.” Et de donner un exemple : “Mettre trop d’efforts sur des activités de production manuelle peut tuer un modèle économique.”

Commander les objets en langage naturel

Un autre projet labellisé Images & Réseaux prenait la suite, VoiceHome, présenté par Éric Lamandé, de VoiceBox Technologies France. Il s’agit cette fois de commander les équipements de la maison par la voix. Avec deux exigences : pouvoir communiquer en langage naturel et de là où on se trouve, sans équipement spécifique. Par exemple : “pouvoir baisser le son de la télé alors qu’on a les mains plongées dans la vaisselle”.

Ces exigences sont aussi des défis techniques pour les partenaires du projet : en termes de reconnaissance vocale alors que la voix est captée à distance, et en termes d’analyse sémantique pour identifier une commande dans les propos de tout un chacun. Au-delà de la domotique, l’enjeu est aussi de maîtriser les interfaces vocales comme moyen de dialogue avec les objets connectés. “Nous sommes dans la dernière phase. Les prototypes marchent bien. Il reste maintenant à faire rentrer les algorithmes dans des appareils de faible puissance.”

L’intelligence artificielle pour analyser les écrits

De langage naturel il est de nouveau question avec l’intervention de Fabien Poulard, sauf qu’il s’agit cette fois de langage écrit. La startup qu’il dirige, Dictanova, fouille dans les retours clients tels que des enquêtes de satisfaction pour en extraire des indicateurs. Objectif affiché : retenir le client car “5% d’amélioration de la rétention client permet d’augmenter les profits de 25% à 95%”. Le graal étant d’atteindre “l’ultra-satisfaction pour générer de la prescription et de la recommandation”.

Selon le jeune entrepreneur, “personne ne veut faire d’analytique” car elle est trop gourmande en ressources et en temps. D’où le recours aux outils automatiques basés sur l’intelligence artificielle tels que le propose la startup. La plateforme Dictanova cherche dans les verbatims clients “des expressions clés” pour construire des indicateurs qu’elle consolide à partir d’autres données statistiques. Au final, elle délivre quelques enseignements nécessairement simples “car les opérationnels n’ont pas le temps”. Les magasins FNAC, qui génèrent 500 000 verbatims clients par an, utilisent ce service pour améliorer leurs performances.

Interagir avec l’algorithme

Dans la même veine, l’équipe DUKe, du laboratoire LS2N de l’Université de Nantes, cherche à tirer parti de traces laissées par les utilisateurs dans leur usage d’outils informatiques. L’objet des travaux, présentés par Vincent Raveneau : “Explorer des traces d’interaction à l’aide de fouille de motifs”. On veut par exemple comprendre comment un outil est utilisé afin de l’améliorer. L’analyse visuelle des traces est possible mais limitée en volume ; le traitement automatique s’accommode bien de grands volumes mais il manque de capacité d’interprétation. L’équipe DUKe explore une voie intermédiaire, à “algorithmes progressifs”, dans laquelle l’analyste interagit avec l’algorithme pour influer sur l’extraction à réaliser.

La curiosité enfantine, modèle d’apprentissage pour les robots

La dernière intervention était réalisée depuis Brest, par Maxime Devanne, de l’IMT Atlantique. Il présentait les travaux du laboratoire Lab-STICC, équipe IHSEV, sur “la curiosité artificielle comme moteur de l’apprentissage interactif”. L’idée : s’inspirer des sciences cognitives et de la façon dont le petit enfant découvre son environnement par le jeu “pour faire en sorte qu’un robot puisse s’insérer dans son environnement de la manière la plus naturelle”.

Par exemple, apprendre à reconnaitre des objets en les manipulant, ce qui revient à créer de la “curiosité artificielle”. Également, avoir recours au “guidage social”, c’est-à-dire s’appuyer sur l’entourage pour progresser. Cette forme d’apprentissage repose sur l’initiative. Et selon les résultats mesurés par les chercheurs : “Quand on choisit comment on veut apprendre, on est plus efficace.”

Robot-et-enfantgs

Prochaine Technoférence, le 9 février

La prochaine Technoférence aura lieu à Rennes le jeudi 9 février. Le thème du jour : Mieux vivre grâce au numérique : sport, suivi de l’activité et rééducation. Elle peut être suivie en visioconférence depuis Brest, Nantes, Lorient, Le Mans et Quimper. Programme et inscription.

Plus