Intelligence artificielle : la chasse aux “fake news” est ouverte

Publié le 07/12/2018

Markos Zampoglou ECW2018

Manipuler l’information n’a rien de neuf. Ce qui change aujourd’hui, c’est la rapidité et l’échelle à laquelle se propagent les fausse nouvelles. Dans ses prédictions 2018, Gartner avance qu’elles domineront l’information sur internet dès 2022. Quelle est l’influence des fake news ? Comment s’en défendre ? Avec quels outils ? La conférence Médias, intelligence artificielle et cybersécurité du 22 novembre se penchait sur ces questions.

Une image est revenue en boucle au cours des présentations de l’après-midi, celle d’une déclaration de Barack Obama qu’il n’a jamais prononcée. Ce faux discours partagé par BuzzFeed a été réalisé intentionnellement pour dénoncer les deep fakes, les trucages vidéo qui abondent sur internet. Créer une fausse nouvelle n’a jamais été si facile, de même qu’un clic suffit pour activer le tam-tam des réseaux sociaux. Au point que les fake news sont devenues une arme qui menace jusqu’aux fondements de la démocratie.

Pour traiter du phénomène, la conférence du 22 novembre réunissait journalistes, chercheurs et spécialistes de la cybersécurité. Quelques startups également, qui proposent des solutions. C’était à Rennes dans le cadre de ECW2018, la European Cyber Week qui, pour sa troisième édition, a accueilli plus de 2000 participants. L’après-midi Médias, intelligence artificielle et cybersécurité était organisée conjointement par le pôle de compétitivité Images & Réseaux et le laboratoire Irisa. Suivent quelques enseignements glanés au fil des interventions.

Face aux fake News, les médias sont en difficulté

Premier à intervenir, Thierry Fanchon du groupe France Médias Monde avoue que la prise de conscience du risque est récente. Elle date de “l’attaque de TV5 Monde” en 2015. Celle -ci avait provoqué l’arrêt de la chaine et la publication de messages de soutien à l’État islamique sur les réseaux sociaux. Si bien qu’aujourd’hui “la peur du détournement d’antenne” est réelle. La parole de Radio France Internationale “est une référence” dans de nombreux pays, en particulier en Afrique. D’où l’impact prévisible si la radio venait à annoncer de fausses informations. “La menace est maintenant connue” souligne le directeur technique du groupe.

Puis il pointe un autre danger : “la décrédibilisation”. Contre laquelle il n’existe qu’une parade : “délivrer une information exacte”, dans le respect de la déontologie journalistique. Sauf que les journalistes sont désormais soumis à une “inversion de la charge de preuve”. Les “propagateurs de fake news” sont en position de force car c’est aux médias traditionnels de prouver leurs mensonges. Plus tard dans l’après-midi, Erwan Alix, datajournaliste à Ouest-France, abondera en ce sens. “Quand nous détectons une fausse nouvelle, nous faisons notre travail de recherche et de vérification… C’est un temps pendant lequel, nous sommes impuissants.” Pour accélérer le processus de vérification, le journal a mis en place une “banque de contenus” qui s’appuie sur le large historique des articles publiés. C’est une source de données “imparfaite mais maîtrisée” fait valoir le journaliste.

Une étude, présentée par Emeric Henry, de Sciences-Po, confirme la difficulté de réagir face à la désinformation. Cette étude, menée pendant la dernière présidentielle française, mesurait l’impact de chiffres falsifiés ayant traits à l’immigration sur les intentions de vote des participants. Le résultat est consternant : l’impact de l’affirmation mensongère demeure même lorsque le participant a connaissance de la preuve statistique du mensonge. “L’exposition initiale aux fake news est très difficile à corriger” explique l’universitaire. Si bien que le fact checking, la vérification des faits devenu genre journalistique en vogue, pourrait être contre-productif dans la mesure où il donne un écho supplémentaire aux fausses informations.

Des outils IA pour falsifier, d’autres pour les contrer

Les motivations des émetteurs de fausses informations peuvent être très variées : politiques comme dans l’exemple précédent, commerciales pour promouvoir un produit ou désavantager ses concurrents, crapuleuses également. Thierry Berthier, chercheur en cyberdéfense et cybersécurité, raconte comment le piratage d’un compte e-mail utilisé pour diffuser un faux communiqué de presse a permis de “faire dévisser” le cours de l’action Vinci pendant quelques minutes. Laps de temps qui suffit pour spéculer. Si bien qu’il faudrait pouvoir réaliser en temps réel “de la contre influence automatique”. Sauf que, “on n’en est pas là” regrette le chercheur.

Thierry Berthier

Patrick Pérez démontrait pour sa part que les falsificateurs disposent d’outils de plus en plus performants, souvent basés sur l’intelligence artificielle. Notamment “des réseaux neuronaux profonds” développées à l’origine à des fins de recherche ou pour le monde du cinéma et de la publicité. Ces algorithmes de deep learning “une fois entraînés sont super rapides et peu coûteux” constate le directeur scientifique de Valéo. Il prend l’exemple du “Visual Dubbing”, une technique de manipulation du visage destinée à faciliter le doublage d’un film, qui peut être utilisée pour créer des “deep fakes” tel que le faux discours d’Obama déjà évoqué.

Pour contrer ces deep fakes, il faut des “deep forensics” propose Markos Zampoglou, du CERTH de Salonique (Grèce). Donc utiliser le deep learning pour créer des outils de détection des manipulations qui ont transformé l’image. Par exemple, en recherchant les traces laissées par les appareils de capture d’images altérées par les algorithmes de retouche. Ou encore par une analyse du contexte : confronter l’image aux données météo du jour et du lieu de prise de vue pour infirmer ou confirmer le doute. Des projets de recherche européens ont travaillé dans ce sens avec pour objectifs de créer des outils :  InVID et Reveal notamment. Agnès Saulnier de l’INA présentera plus tard un autre outil. OTMedia est un observatoire transmedia permettant de suivre la propagation de l’information francophone à travers le web et les réseaux sociaux.

Vers une certification des contenus ?

Deux startups intervenaient pour promouvoir leurs solutions de marquage de contenu (watermarking). D’abord Lamark spécialisée dans la photographie. Elle a développé une technologie de tatouage d’image qui établit un lien quasi-indestructible entre le visuel source et les métadonnées associées : l’auteur, l’heure et la date, l’appareil de prise de vue, etc. Puis ContentArmor pour le domaine de la vidéo. Sa solution de tatouage vidéo après compression est une arme sans équivalent contre le piratage.

Ces deux technologies vont dans le sens de la certification des contenus. Un sujet évoqué à plusieurs reprises lors des échanges, avec d’autres solutions de bon sens comme l’éducation des enfants et la sensibilisation du grand public aux dangers de la désinformation.

Pour aller plus loin