L’Université de Rennes : Vers une Utilisation Responsable de l’Intelligence Artificielle avec RAGaRenn

Publié le 05/03/2025

UniversiteRennes_Apres

L’intelligence artificielle (IA) est désormais un outil incontournable dans de nombreux secteurs, y compris dans le domaine académique.

L’Université de Rennes a décidé de franchir un pas audacieux en intégrant l’IA dans ses pratiques éducatives et de recherche, en mettant en place une charte d’usage visant à encourager la curiosité et l’innovation face à cette technologie en pleine expansion. L’originalité de l’initiative réside dans la création de RAGaRenn, un outil d’IA développé en interne pour protéger les données sensibles de l’établissement tout en minimisant l’impact environnemental.

RAG, c’est pour “Retrieval-Augmented Generation”, soit la possibilité de donner ses propres sources à l’IA, pour la faire travailler, en quelque sorte, en interne. D’où le nom, RAGaRenn.

À travers cette démarche, l’Université de Rennes cherche à concilier exploration technologique et engagement responsable, redéfinissant ainsi les contours de l’usage de l’IA dans le milieu universitaire.

Olivier Wong-Hee-Kam, vice-président de l’Université de Rennes en charge du numérique, et enseignant à l’IUT de Rennes, a accepté de répondre à nos questions sur cette initiative. 

Pourquoi l’Université de Rennes a-t-elle décidé de développer sa propre IA ?

L’Université de Rennes a déployé depuis mars 2024 sa propre solution d’intelligence artificielle générative en utilisant des briques open source (open web ui, vLLM, ollama). Nous proposons à nos personnels volontaires une solution maitrisée et de niveau satisfaisant afin qu’ils travaillent leurs documents avec différents grands modèles de langage (LLM) distribués de façon ouverte via des plateformes de partage telles que HuggingFace.

Cette décision s’inscrit dans une stratégie d’expérimentation dans un environnement de confiance visant à comprendre, apprendre et à terme, décider d’un cadrage pour l’établissement, en accompagnant nos personnels via des ateliers dédiés sur les usages. Nous assurons une bonne maitrise des données qui sont traitées, qui restent en interne, ne sont pas réutilisées et restent maitrisées par chaque utilisateur.

Nous en profitons aussi pour évaluer la consommation énergétique de l’infrastructure hébergée au sein d’Eskemm Data, datacenter de l’ESR breton, qui nous donne accès à des mesures détaillées difficilement communicables avec des hébergeurs “grand public”.

En quoi cette IA est-elle différente des services d’IA générative grand public comme ChatGPT ?

Je vais commencer par parler des ressemblances : l’interface est simple, avec des fonctionnalités quasi identiques à celles des outils grand public, et parfois en avance comme la fonctionnalité de RAG rendue disponible en mars dernier avant ChatGPT. Nous observons 70 à 80% de taux de satisfaction via nos enquêtes internes et nous ne cherchons pas à améliorer la performance à tout prix. Au contraire, notre solution est tournée vers la robustesse et la recherche d’efficience (on pourrait parler de “sobriété numérique”).

Pour aborder les différences, d’une part nous ne dépendons pas d’un unique fournisseur : nous cherchons justement à diversifier les modèles en sélectionnant ceux qui offrent la meilleure satisfaction pour un usage donné, avec un impact environnemental le plus faible possible.

D’autre part l’infrastructure s’appuie au maximum sur une approche open source et de transparence, ce qui est rarement le cas des solutions grand public à l’exception de ComparIA (https://www.comparia.beta.gouv.fr/).

Enfin nous accompagnons nos usagers en échangeant avec eux afin de définir les pratiques présentant un réel intérêt au regard des impacts (environnementaux, sociaux, éthiques, budgétaires, risques sur les données, …).

Quels ont été les défis techniques et éthiques rencontrés ?

Les défis techniques ont porté sur le déploiement d’une infrastructure robuste et rapidement adaptable : nous avons bénéficié des compétences déjà présentes dans nos structures de recherche (IRISA et INRIA Rennes) et en particulier au sein de l’équipe Logica (François Bodin et Laurent Morin). Ils ont assumé le déploiement et proposent une offre de formation continue pour les entreprises souhaitant faire de même (https://istic.univ-rennes.fr/actualites/formation-courte-utilisation-des-ia-generatives-llm-en-entreprise).

Sur le plan éthique, ainsi que sur d’autres dimensions telles que l’impact environnemental, nous avons capitalisé les réflexions issues des ateliers pour établir une cartographie des opportunités et des risques et orienter nos choix : par exemple nous avons décidé de ne pas déployer de génération d’image qui certes fonctionne bien mais qui s’avère très impactante, et qui pose question sur notre positionnement en termes de communication sur la vérité scientifique et sur les compétences de nos collègues professionnels de l’image (graphistes, photographe).

Les échanges en ateliers ont aussi permis de rédiger, en collaboration avec d’autres universités, une proposition de charte sur les usages de l’IA générative, à partir de travaux existants comme la charte votée par l’Université d’Orléans à l’été dernier.

Comment l’université gère-t-elle les questions de protection des données et de souveraineté numérique ?

Je vois la souveraineté numérique comme notre capacité à faire des choix maitrisés malgré des dépendances fortes (sur le matériel par exemple).

Choisir des briques logicielles open source favorise notre maitrise du fonctionnement interne de la solution, en particulier sur le traitement et la protection des données.

Côté infrastructure, Eskemm Data est un datacenter régional labellisé par le MESR, aussi souverain et sécurisée que possible dans notre contexte, comme en témoigne la récente certification ISO 270001. En complément du volet technique, les ateliers participatifs ont aussi été organisés pour sensibiliser les personnels aux enjeux de la protection des données et à une utilisation sécurisée de l’IA générative.

En quoi cette IA est-elle plus sobre en énergie par rapport aux modèles généralistes ?

Les modèles généralistes sont souvent orientés vers la performance et la polyvalence, ce qui se traduit souvent par des consommations énergétiques élevées.

Nous avons fait le choix de proposer des modèles efficients, spécialisés sur un domaine (programmation informatique, biomédical, espagnol, etc.) dont la consommation est moindre pour une différence de performance qui est souvent négligeable sur la plupart des cas d’usages observés. Cette adéquation entre les usages et la technologie se traduit aussi par le fait d’éteindre les serveurs la nuit après avoir constaté qu’ils étaient inutilisés. Nous cherchons à utiliser l’IA générative de façon parcimonieuse, comme illustré pour la génération d’images. 

Quels sont les projets futurs liés à cette IA ?

Nous avons ouvert à un plus grand nombre d’acteurs publics avec lesquels nous échangeons sur les possibilités de collaboration. Nous prévoyons de documenter nos cas d’usages pertinents et de les partager à un plus grand nombre d’utilisateurs, tout en travaillant la mise en œuvre de la charte évoquée avec des guides de recommandations. Nous étudions aussi les possibilités en lien avec les besoins des étudiants. Et enfin nous travaillons avec d’autres universités et le soutien du MESR pour mutualiser le plus possible, en particulier nos infrastructures de calcul utiles pour les services d’IA générative.