Retour aux actualités précédentes
Publié le 19 - 03 - 2026

    « Permettre à l’IA de détecter les incohérences et de raisonner »

    Directeur de recherche CNRS au Centre de recherches en informatique de Lens spécialisé en intelligence artificielle, distingué pour ses travaux sur la fusion et la révision des connaissances, Sébastien Konieczny évoque les grands enjeux du déploiement de l'IA.

    Pouvez-vous nous retracer les grandes lignes de vos travaux sur l'intelligence artificielle (IA), la décision collective et la découverte de la vérité ?
    La fusion de connaissances et la gestion de l'incohérence sont des concepts essentiels pour garantir la robustesse des décisions d’une IA. Mes travaux de recherche s'inscrivent dans cette quête de recherche de vérité. Comment la trouver ou s'en approcher lorsqu'on doit s'appuyer sur les avis de plusieurs autres personnes et dont la fiabilité n’est jamais garantie ? Cette question m'a conduit à m'intéresser au raisonnement, à l’argumentation et à la décision : comment les individus représentent-ils, aux autres ou à eux-mêmes, les connaissances d’autres personnes ? Quels arguments sont vus comme respectables ou non et comment ces derniers influencent-ils notre prise de décision ? De là, j'en suis venu à travailler sur la « révision de croyances », c’est-à-dire la mise à jour de ce que l'on sait lorsqu'on reçoit des informations nouvelles ou contradictoires.

    Ces problématiques sont complémentaires aux grands modèles de langage (LLM), ces modèles d'apprentissage automatique et d’IA générative qui ont propulsé l’IA dans le débat public. Le grand public ne voit souvent que cette facette de l’IA alors qu’elle possède un spectre bien plus large, avec en particulier des questions sur la modélisation du raisonnement et la prise de décision, mon domaine de recherche.
     

    Outre la « révision de croyance », vos travaux portent également sur la « fusion de connaissances ». De quoi s’agit-il ?
    Ces deux concepts sont les méthodes par lesquelles nous apprenons. La « révision de croyances », c’est corriger ce que l’on croyait savoir. Un exemple simple : les mathématiques. Petit, on vous dit qu’on ne peut pas soustraire un nombre par un autre plus grand. Puis, plus tard, on vous explique le concept des nombres négatifs. C’est quelque chose que nous faisons en permanence. Nos connaissances d’un sujet spécifique ou du quotidien (nouvelles lois, informations de votre entreprise, votre santé…) évoluent constamment.

    La « fusion de connaissances », elle, tourne autour de la capacité à faire face à plusieurs sources qui fournissent des informations différentes voire contradictoires, et à les combiner pour en déduire une vérité cohérente. Si en tant qu'humains, nous faisons tout cela naturellement, la question devient bien plus complexe avec les machines. Il faut définir les bons principes : comment faire évoluer leurs connaissances lorsqu’elles reçoivent des informations qui contredisent les précédentes ? Que faire lorsqu'une base de données se révèle incomplète ou ne contient pas les informations pertinentes dont on aurait besoin ?

    Le CRIL est le seul laboratoire en France entièrement dédié à l'IA et à la conception de systèmes intelligents autonomes »

    Pouvez-vous nous présenter le Centre de recherche en informatique de Lens (CRIL) ?
    Dans le giron du CNRS (Centre national de la recherche scientifique), le CRIL est un laboratoire où travaillent une soixantaine de chercheurs avec la particularité unique en France d’être entièrement dédié à l'IA avec des recherches développées concernant la conception de systèmes intelligents autonomes. Généralement, dans les laboratoires informatiques français, bien plus grands, seule une section de dix à vingt personnes travaille sur l'IA.

    Historiquement, le CRIL s'est structuré en deux branches : le raisonnement de la machine ; et la résolution de problèmes. Depuis quelques années, nous avons monté une équipe focalisée sur l’explicabilité de l’apprentissage automatique pour faire comprendre comment fonctionnent ces méthodes. C’est un point fondamental à l'heure où des entreprises et des startups du monde entier cherchent à déployer ces technologies, sans réellement savoir comment faire.

    Vous avez contribué en 2017 au rapport gouvernemental France IA en pilotant le groupe de travail « Recherche Amont ». Qu'en reste-t-il aujourd'hui dans les politiques publiques ?
    C’était le premier rapport public sur l’IA et de nombreux autres ont suivi. S’agissant du groupe sur la recherche académique dont j’étais responsable, presque toutes les recommandations ont été suivies : financement des travaux de recherche de pointe, création de centres liés à l'IA (12 clusters IA aujourd’hui en France), mise en place de nouveaux modèles de financement, renforcement des liens avec les grands acteurs privés (Google, Facebook…). Ce travail n’a pas été vain !

    On parle beaucoup de l’intelligence artificielle générative comme ChatGPT et de l'apprentissage automatique. Quelle est la spécificité de votre approche ?
    Il existe deux grandes familles d'IA. La mienne, si je puis dire, c'est l'IA « symbolique », construite sur une base de règles. Concrètement, on puise de l'information via des ontologies, c'est-à-dire des bases de connaissances structurées qui définissent des concepts et les liens entre eux. On les combine pour déduire de nouvelles informations à partir de ce qu'on sait déjà, et construire ainsi un modèle à partir duquel l’intelligence artificielle va raisonner. Par exemple, les GPS fonctionnent ainsi : ils suivent un ensemble de règles et de données structurées et établies pour calculer le meilleur itinéraire.

    L'autre famille, radicalement différente, c'est l'apprentissage automatique qui repose notamment sur ce qu’on appelle les « réseaux de neurones » artificiels. C’est la base des grands modèles de langage (LLM pour « Large Language Model ») comme ChatGPT (développé par OpenAI) et Gemini (développé par Google). On ne fournit pas de connaissances au logiciel : on lui donne beaucoup de données et c'est à lui de faire le tri et d'extrapoler.
     

    L’IA du futur sera "neuro-symbolique", capable de raisonnement, d'apprentissage et de modélisation cognitive »

    Quelles peuvent être les limites respectives de ces deux modèles ?
    L'IA symbolique travaille avec des règles logiques, ce qui la rend peu à l'aise avec les conflits et les imprécisions. En outre, elle est lente et plutôt gourmande en termes de puissance de calcul. Quant à l'apprentissage automatique, il est rapide et donne souvent de bons résultats, mais il ne peut pas certifier que ce qu'il dit est vrai : son but est de produire ce qui est statistiquement plausible mais pas nécessairement exact. C'est d’ailleurs une limite que beaucoup d'acteurs du secteur préfèrent passer sous silence.

    Ces deux méthodes sont antagonistes mais leur combinaison donnera je pense naissance à l’intelligence artificielle du futur, à savoir une IA « neuro-symbolique » visant à fournir une IA capable de raisonnement, d'apprentissage et de modélisation cognitive. Il est intéressant de noter que cette approche reprend d’ailleurs le fonctionnement du cerveau humain avec d’une part ce qui relève de l’intuition (comme le système de neurones) et, de l’autre, ce qui a trait à la réflexion (telle que l’IA symbolique).

    À l'heure des fake news et du risque de désinformation, quels sont les enjeux en termes d’IA et de gestion des contradictions dans les informations ?
    Le problème de fond, c’est celui des hallucinations, ces réponses fausses mais « confiantes » que font ChatGPT ou Grok. Encore une fois, ces intelligences artificielles ne sont pas faites pour trouver ce qui est vrai, mais ce qui est plausible. Elles sont entraînées sur la littérature scientifique mais aussi sur des œuvres de fiction. Une manière de contourner ce problème est de chercher des sources sûres et de demander à l’IA de puiser dans ces sources fiables pour rédiger sa réponse.

    Une partie de mon travail consiste à comparer les informations données par plusieurs sources et de trouver la réponse la plus consensuelle, celle qui a le plus de chances d’être juste. Cela peut se faire avec des sources documentaires, mais aussi en interrogeant plusieurs modèles de langage et en combinant leurs réponses. Ce principe s'appuie sur le théorème du jury de Condorcet : si vous posez une question à un grand nombre de personnes, plus vous en interrogez, plus vous avez de chances d'obtenir la bonne réponse. L'enjeu est de déterminer quelles personnes sont les plus fiables !

    La France est reconnue pour l'excellence de sa recherche en IA mais peine à transformer cela en puissance industrielle. A-t-elle les moyens de sa souveraineté en matière d'IA ?
    Au niveau académique, la France est très bien placée avec d’excellents mathématiciens et des laboratoires de haut niveau. Le problème c'est que pour faire marcher des LLM il faut des usines et des machines surpuissantes que nous n’avons pas aujourd’hui. Et qu’on ne pourra pas avoir un modèle par pays. Idéalement, il en faudrait un seul pour toute la planète mais aucun modèle n’est neutre. Voulons-nous vraiment que la « vérité » soit américaine ou chinoise ? À mi-chemin entre souveraineté et réalités politico-économiques, le meilleur entre-deux pourrait une intelligence artificielle européenne. Pour en revenir à notre pays, la licorne Mistral (ndlr : dont la valorisation a dépassé la barre des 10 milliards de dollars fin 2025) est une belle réussite mais l’entreprise doit encore grossir face aux géants américains. L'exemple du moteur de recherche Qwant, qui avait tenté de concurrencer Google sans jamais véritablement y parvenir, montre à quel point le défi est immense.

    Quel regard portez-vous sur le déploiement progressif du règlement européen sur l'IA (AI Act), entrée en vigueur le 1er août 2024 ?
    Du strict point de vue de la recherche académique, ce règlement ne change pas grand-chose sur la façon dont nous travaillons.Les impacts sont plutôt sur les plans industriel et « citoyen », sur ce qu’on a le droit de faire ou pas. De mon point de vue, il faut réguler l’intelligence artificielle et protéger les personnes de multiples applications potentiellement néfastes. Les méthodes à base de réseaux de neurones requièrent énormément de données pour être efficaces. Si vous utilisez des assistants, ces derniers ont besoin de connaitre beaucoup de choses sur vous. Quand tout cela reste privé, aucun problème. Mais la réalité, c’est que quand vous signez un contrat d’utilisation pour ChatGPT ou Gemini, vous leur donnez le droit de garder toutes ces informations. Tout ceci peut très vite être intrusif voire dangereux en termes de contrôle d’opinion ou de potentielle surveillance des populations par un acteur étatique. L’IA ACT vise donc à encadrer le développement, la mise sur le marché et l’utilisation des systèmes d’IA avec quatre niveaux de risques, ce qui n’est pas sans embêter plusieurs géants du numérique.

    Dans quelle mesure le Shadow AI (IA clandestine), désignant l’utilisation de solutions d'IA générative par les salariés sans l’approbation de l’entreprise, est-il préoccupant en termes de sécurité et de confidentialité des données ?
    Il me semble que chaque employeur doit sensibiliser un minimum ses collaborateurs sur ces sujets, à due proportion du niveau de confidentialité et de sensibilité des informations de l’entreprise. Au CNRS, nous avons mené ce travail et mis en alerte tous les personnels. Utiliser une IA c’est en effet donner des informations qui vont être sauvegardées, utilisées, potentiellement revendues. Il y a eu des exemples d'employés de grandes entreprises - c'est particulièrement vrai pour les codeurs informatiques - qui ont utilisé ces solutions d’intelligence artificielle et qui ont ainsi « libéré » des données sensibles : secrets industriels, listes de clients, etc. Les entreprises doivent donc faire de la prévention auprès des salariés voire, si elles le peuvent, déployer leur propre modèle d’IA pour fonctionner en local, même si le système sera toujours moins puissant que la dernière version de ChatGPT.

    Il est difficile de mesurer et d’anticiper les impacts de l’IA sur la transformation, la disparition et la création de tel ou tel métier »

    Comment acculturer et responsabiliser les militants syndicaux aux usages de l’intelligence artificielle et à ses impacts sur l’emploi ?
    Là encore, il s’agit d’informer et d’accompagner aux pratiques de l’IA. Cela passe notamment par des formations et par l’établissement de chartes d’utilisation. J’ajoute au passage qu’il faut bien garder en tête le coût énergétique que représente l’utilisation des systèmes d’IA.

    Concernant l’impact sur l’emploi, il faut bien rappeler que les solutions d’IA ne peuvent pas remplacer tout le savoir-faire d’un expert-comptable ou d’un avocat. Si vous n’êtes pas capables de vérifier ce que le modèle de langage vous a donné, il ne faut pas l’utiliser dans un contexte professionnel. Plus largement, je ne suis pas économiste et il est difficile de mesurer ou d’anticiper les conséquences du déploiement de l’IA sur la transformation, la disparition et la création de tel ou tel métier dans tel et tel secteur. Les travaux que j’ai regardés sur le sujet restent assez nébuleux. Il est donc très difficile en l’état de placer un quelconque curseur. On peut toutefois estimer que l’IA peut être - et devrait être - un outil et un assistant afin de faciliter la réalisation de certaines tâches répétitives, permettant à chacun de se concentrer sur son vrai cœur de métier en faisant valoir son expertise. Combiner IA et expertise humaine peut s’avérer un réel facteur de productivité pour les entreprises.

    Pour les salariés, n’y a-t-il pas un risque d’intensification du travail à ne traiter que des sujets complexes à forte dimension cognitive ?
    C’est exact, ce sont aussi des problématiques à bien appréhender en entreprise. Par ailleurs, si vous avez une aide fiable, divers travaux montrent qu’il peut y avoir un biais psychologique qui fait que l’employé ne vérifie plus le travail que réalise correctement une IA 90 % du temps. Il convient donc de rester vigilant afin de toujours assurer un minimum de vérification, y compris sur les dossiers les plus simples à traiter.

    Dans le monde du travail, l'IA peut aussi être utilisée pour les recrutements, l'évaluation des performances, voire pour prétexter des licenciements. Quid des garde-fous ?
    L’intelligence artificielle et les systèmes à base de réseaux de neurones doivent être utilisés à bon escient et certaines pratiques sont d’ailleurs encadrées ou interdites par l’IA ACT et par le règlement général sur la protection des données (RGPD). Ce dernier stipule que n’importe quel algorithme qui a un impact sur la vie des personnes doit être explicable, ce qui n’est pas le cas des réseaux de neurones. Après, demander à l’IA de résumer un texte, voire comparer des CV, pourquoi pas. Mais comprendre tout ce qu’il y a derrière un travail et demander à l’IA l’évaluation de ce travail réel, ce serait n’importe quoi. Il va y avoir des hallucinations, des réponses erronées ou trompeuses. J’ajoute que l’employeur doit toujours demander le consentement pour l’utilisation des données personnelles qui ne lui appartiennent pas.

    Qu’en est-il de l’exercice du dialogue social et de la recherche d’un consensus sur ces sujets ?
    Tous les travaux référents sur l’IA montrent la nécessité qu’il y a, malgré parfois des intérêts divergents, à discuter et à objectiver les problématiques induites par l’introduction et les usages de ces technologies en entreprise. Il faut créer les conditions de cette discussion, ne pas cacher les éventuels conflits/problèmes et énumérer les arguments qui font qu’on prend telle ou telle décision.

    Quel dernier conseil donneriez-vous, cette fois au grand public ?
    J’invite le maximum de personnes à s’acclimater aux usages de l’IA pour appréhender l’outil à titre personnel et, le cas échéant, dans un cadre professionnel. Je donne régulièrement des conférences grand public et les avis sont souvent partagés avec des personnes très éloignées de tous ces grands enjeux numériques !

    Propos recueillis par Mathieu Bahuet et François Tassain