Olivier Wong-Hee-Kam, vice-président de l’Université de Rennes en charge du numérique, et enseignant à l’IUT de Rennes, a accepté de répondre à nos questions sur cette initiative.
Publié le 05/03/2025
Olivier Wong-Hee-Kam, vice-président de l’Université de Rennes en charge du numérique, et enseignant à l’IUT de Rennes, a accepté de répondre à nos questions sur cette initiative.
L’Université de Rennes a déployé depuis mars 2024 sa propre solution d’intelligence artificielle générative en utilisant des briques open source (open web ui, vLLM, ollama). Nous proposons à nos personnels volontaires une solution maitrisée et de niveau satisfaisant afin qu’ils travaillent leurs documents avec différents grands modèles de langage (LLM) distribués de façon ouverte via des plateformes de partage telles que HuggingFace.
Cette décision s’inscrit dans une stratégie d’expérimentation dans un environnement de confiance visant à comprendre, apprendre et à terme, décider d’un cadrage pour l’établissement, en accompagnant nos personnels via des ateliers dédiés sur les usages. Nous assurons une bonne maitrise des données qui sont traitées, qui restent en interne, ne sont pas réutilisées et restent maitrisées par chaque utilisateur.
Nous en profitons aussi pour évaluer la consommation énergétique de l’infrastructure hébergée au sein d’Eskemm Data, datacenter de l’ESR breton, qui nous donne accès à des mesures détaillées difficilement communicables avec des hébergeurs “grand public”.
Je vais commencer par parler des ressemblances : l’interface est simple, avec des fonctionnalités quasi identiques à celles des outils grand public, et parfois en avance comme la fonctionnalité de RAG rendue disponible en mars dernier avant ChatGPT. Nous observons 70 à 80% de taux de satisfaction via nos enquêtes internes et nous ne cherchons pas à améliorer la performance à tout prix. Au contraire, notre solution est tournée vers la robustesse et la recherche d’efficience (on pourrait parler de “sobriété numérique”).
Pour aborder les différences, d’une part nous ne dépendons pas d’un unique fournisseur : nous cherchons justement à diversifier les modèles en sélectionnant ceux qui offrent la meilleure satisfaction pour un usage donné, avec un impact environnemental le plus faible possible.
D’autre part l’infrastructure s’appuie au maximum sur une approche open source et de transparence, ce qui est rarement le cas des solutions grand public à l’exception de ComparIA (https://www.comparia.beta.gouv.fr/).
Enfin nous accompagnons nos usagers en échangeant avec eux afin de définir les pratiques présentant un réel intérêt au regard des impacts (environnementaux, sociaux, éthiques, budgétaires, risques sur les données, …).
Les défis techniques ont porté sur le déploiement d’une infrastructure robuste et rapidement adaptable : nous avons bénéficié des compétences déjà présentes dans nos structures de recherche (IRISA et INRIA Rennes) et en particulier au sein de l’équipe Logica (François Bodin et Laurent Morin). Ils ont assumé le déploiement et proposent une offre de formation continue pour les entreprises souhaitant faire de même (https://istic.univ-rennes.fr/actualites/formation-courte-utilisation-des-ia-generatives-llm-en-entreprise).
Sur le plan éthique, ainsi que sur d’autres dimensions telles que l’impact environnemental, nous avons capitalisé les réflexions issues des ateliers pour établir une cartographie des opportunités et des risques et orienter nos choix : par exemple nous avons décidé de ne pas déployer de génération d’image qui certes fonctionne bien mais qui s’avère très impactante, et qui pose question sur notre positionnement en termes de communication sur la vérité scientifique et sur les compétences de nos collègues professionnels de l’image (graphistes, photographe).
Les échanges en ateliers ont aussi permis de rédiger, en collaboration avec d’autres universités, une proposition de charte sur les usages de l’IA générative, à partir de travaux existants comme la charte votée par l’Université d’Orléans à l’été dernier.
Je vois la souveraineté numérique comme notre capacité à faire des choix maitrisés malgré des dépendances fortes (sur le matériel par exemple).
Choisir des briques logicielles open source favorise notre maitrise du fonctionnement interne de la solution, en particulier sur le traitement et la protection des données.
Côté infrastructure, Eskemm Data est un datacenter régional labellisé par le MESR, aussi souverain et sécurisée que possible dans notre contexte, comme en témoigne la récente certification ISO 270001. En complément du volet technique, les ateliers participatifs ont aussi été organisés pour sensibiliser les personnels aux enjeux de la protection des données et à une utilisation sécurisée de l’IA générative.
Les modèles généralistes sont souvent orientés vers la performance et la polyvalence, ce qui se traduit souvent par des consommations énergétiques élevées.
Nous avons fait le choix de proposer des modèles efficients, spécialisés sur un domaine (programmation informatique, biomédical, espagnol, etc.) dont la consommation est moindre pour une différence de performance qui est souvent négligeable sur la plupart des cas d’usages observés. Cette adéquation entre les usages et la technologie se traduit aussi par le fait d’éteindre les serveurs la nuit après avoir constaté qu’ils étaient inutilisés. Nous cherchons à utiliser l’IA générative de façon parcimonieuse, comme illustré pour la génération d’images.
Nous avons ouvert à un plus grand nombre d’acteurs publics avec lesquels nous échangeons sur les possibilités de collaboration. Nous prévoyons de documenter nos cas d’usages pertinents et de les partager à un plus grand nombre d’utilisateurs, tout en travaillant la mise en œuvre de la charte évoquée avec des guides de recommandations. Nous étudions aussi les possibilités en lien avec les besoins des étudiants. Et enfin nous travaillons avec d’autres universités et le soutien du MESR pour mutualiser le plus possible, en particulier nos infrastructures de calcul utiles pour les services d’IA générative.