Vers une intelligence artificielle éthique et responsable, avec Philippe Leray

Publié le 16/06/2021

IA responsable

L’intelligence artificielle va-t-elle forcément de pair avec opacité des algorithmes et consommation astronomique de données ? Non selon Philippe Leray, qui préfère orienter ses recherches vers des modèles ouverts et capables de fonctionner dans un contexte pauvre en données. Les valeurs que défend le chercheur nantais sont l’équité, la confiance, la sobriété…

Vous êtes enseignant-chercheur à l’Université du Nantes au sein du laboratoire L2SN. À partir de quel moment vous êtes vous orienté vers l’intelligence artificielle ?

Philippe Leray L2SNPhilippe Leray. En fait depuis toujours. Dès la fin de mes études, il y a 30 ans, j’ai réalisé une thèse sur les algorithmes d’apprentissage. Et depuis je n’ai jamais cessé d’essayer de faire en sorte qu’un ordinateur réalise des choses de plus en plus intelligentes. En toute modestie, car dans ce qu’on appelle intelligence artificielle, le terme intelligence est parfois à prendre avec des pincettes.

Parlons de vos travaux pour illustrer. Vous participez actuellement au développement d’une application de prévention du suicide. Où intervient l’intelligence artificielle dans ce projet ?

Philippe Leray. Le projet Medical Companion vise plus précisément à mettre au point une application de prévention de la récidive du suicide qui cible les adolescents et jeunes adultes. C’est un public particulièrement sensible et pour lequel des travaux montrent que lorsque l’on maintient un contact régulier avec le jeune, on diminue fortement le risque de récidive. L’application est un assistant mobile qui est capable de dialoguer avec la personne pour détecter des signaux comme un niveau d’anxiété grandissant ou un problème d’appétit par exemple. À partir de ces signaux, l’assistant pourrait alors proposer des conseils ou même déclencher automatiquement un appel aux urgences.

Dans ce projet que l’on mène en étroite collaboration avec le CHU de Nantes, l’intelligence artificielle intervient à plusieurs niveaux : dans le mécanisme qui génère les questions et les suggestions au patient, et dans celui qui permet de construire le modèle de décision. Nous sommes dans un contexte small data où, au départ, il existe peu de données et donc pas de possibilité de construire l’IA par apprentissage. Ce que nous utilisons, ce sont des modèles graphiques probabilistes basés sur les réseaux bayésiens qui nous permettent de construire un premier modèle d’IA. Cette version initiale de l’assistant pourra ainsi recueillir des premières données et démarrer une boucle vertueuse où le modèle s’améliore progressivement en fonction des données collectées et des retours de l’utilisateur.

Quand on parle d’intelligence artificielle, on fait référence très souvent au Deep Learning associé au Big Data pour, finalement, constituer une sorte de boite noire dont on ne sait pas bien comment elle marche. Alors que dans le cas du Medical Companion, il n’y a absolument pas de boite noire. Dès le départ et à chaque étape, il est possible de partager le modèle avec des experts métiers. Et ceux-ci sont capables de comprendre le modèle et de voir dans quel sens il évolue. C’est un exemple de ce qu’on appelle une intelligence artificielle de confiance.

À vous entendre, on sent que vous êtes réservé quant aux algorithmes IA du type boite noire basés sur de l’apprentissage profond. C’est bien le cas ?

Philippe Leray. Tout à fait. Lorsque des modèles d’intelligence artificielle sont uniquement développés et utilisés sous forme de boites noires, l’utilisateur et le citoyen sont en droits de s’en défier. Attention, qu’on se comprenne bien, il existe beaucoup de domaines où le Deep Learning donne de très bons résultats. Mais cette approche a aussi de nombreux désavantages liés notamment à l’aspect fermé du modèle d’IA qui le rend difficilement compréhensible. Également aux énormes volumes de données nécessaires à l’apprentissage qui en font des systèmes très gourmands en ressources et en énergie.

Ce qui m’intéresse davantage, c’est la notion de boite blanche. Donc un modèle d’intelligence artificielle ouvert et parfaitement explicable. Et puis, entre boite noire et boite blanche il y a toutes les nuances de gris. Je pense qu’on peut parvenir à des solutions intermédiaires où l’on cherche à placer le curseur autant que possible du côté de la confiance. Ce qui ouvre sur des approches très intéressantes à mon avis.

Quels sont les risques liés aux intelligences artificielles construites par apprentissage ?

Philippe Leray. Ce n’est pas ma spécialité mais il est clair que l’apprentissage peut introduire des biais du fait du jeu de données utilisé pour entrainer l’algorithme. Et là, il existe beaucoup de cas connus. Prenons l’exemple du domaine bancaire, où une IA serait chargée d’attribuer un crédit selon le profil du demandeur.  Si pour entrainer le modèle vous utilisez des données existantes où les gens qui attribuent les crédits ont des comportements discriminants, vous allez construire un système qui va reproduire ces mêmes biais. Et donc créer une IA qui attribue moins de crédits à telle population sensible même si c’est contraire à l’éthique et à la loi. L’intelligence artificielle n’a rien de magique : utiliser un algorithme sans le comprendre peut causer plus de tort que de bien. C’est pour cette raison que l’on parle de “fairness” des algorithmes, que l’on peut traduire en français par le terme “équité”. Idéalement un algorithme devrait être équitable, ce qui n’est pas simple à réaliser.

En conséquence, quels garde-fous mettre en place ?

Philippe Leray. Le premier garde-fou est la notion de science ouverte. Si un algorithme est ouvert et compréhensible, si les résultats qu’il produit sont explicables, alors on peut envisager de l’améliorer. Et on pourra aussi développer des contre-mesures pour le contrecarrer. Seule l’ouverture peut garantir la confiance dans la technologie.

L’intelligence artificielle éthique, équitable, sobre, responsable est elle source de recherches ?

Philippe Leray. Ce sont des valeurs qui ouvrent quantité de questions scientifiques sur lesquelles on peut travailler. Dans le cas du Medical Companion où l’acquisition progressive de données permet d’améliorer l’intelligence artificielle locale, on aurait envie que ces mêmes données améliorent globalement le système et profitent à l’ensemble des utilisateurs. Mais là, autant pour des raison éthiques que légales, il n’est pas question que des données patients circulent entre différents mobiles. Ce qui donne lieu à une nouvelle thématique de recherche où il est question de confidentialité préférentielle et d’apprentissage fédéré dans le but de garantir qu’aucune information ne puisse être détournée. Éthique et sciences se rencontrent pour lever un verrou technologique et développer de nouveaux outils de confiance. Et c’est ça qui est passionnant.

Pour aller plus loin