27 juin 2025

Vérité et IA

 Au début des années 1980, je suis tombé par hasard sur un texte de conférence à l’UQAM d’un démographe retraité d’une carrière au Gouvernement canadien et à l’ONU (où il avait organisé et supervisé des recensements dans divers pays de trois continents), Yves de Jocas. Il dénonçait avec raison la prétention qu’avaient les  experts techniques en communication de définir une «Théorie de l’information». Il notait que celle-ci ne se limite pas à la codification et à la transmission des données, mais comporte bon nombre d’éléments tout aussi importants qui soit n’ont rien à voir avec elles, soit les dépassent par leur portée: la perception sensorielle ou mécanique, les mémoires naturelle et artificielle et leur gestion, la symbolisation (lettres ou idéogrammes, dictionnaire et grammaire d’une part, nombres, arithmétique, algèbre et algorithmique de l’autre), l’interprétation, la compilation et l’articulation d’éléments de même nature et provenance ou au contraire hétérogènes et disparates, la hiérarchisation et la classification, etc.

J’ai aussitôt pris rendez-vous avec lui pour l’interviewer dans le cadre de ma chronique «Demain l’an 2000» dans La Presse; dès notre rencontre initiale, nous avons dépassé ce niveau de rapport pour devenir amis et collaborateurs, surtout lorsque j’ai découvert que sa critique de la communication n’était qu’une facette mineure d’une démarche inédite et beaucoup plus ambitieuse: créer une véritable «Théorie de l’information» non pas technique et spécialisée, mais rationnelle et inclusive. Son point de vue, qui me fascinait, était carrément philosophique, tout en s’inspirant des sciences exactes, physique, chimie et mathématique (il était statisticien de formation). Son point de départ était le concept d’un «atome» ou cellule d’information dotée de caractéristiques propres et intégrée dans une ou plusieurs chaînes d’autres cellules, formant des «réseaux cognitifs» de valeur et de fiabilité variables, inscrits et évoluant dans le temps et l’espace. À partir de cette prémisse, il redéfinissait le processus d'appréhension, d'interprétation et traduction, de compilation et structuration, de mise en mémoire et d'exploitation des données, du simple au plus complexe. Il a formulé le tout dans un ouvrage passé totalement inaperçu – non seulement son thème n’était pas d’actualité, mais son style était d’une lecture assez ardue – que j’ai pratiquement forcé mon ami et éditeur Louis-Philippe Hébert à publier: «Théorie générale de l’information: assises formelles du savoir et de la connaissance» (Éditions Logiques, 1996).

Une des applications pratiques de son approche, celle qui m’intéresse ici, était de fournir des outils objectifs pour la validation de la vérité, ou plus justement de la crédibilité, des informations circulant dans les médias; ce qui allait devenir infiniment plus pertinent une fois que l’Internet allait se mettre à charrier sans aucune règle officielle ni formelle d’éthique ou de vérification, des masses gigantesques de données de toutes provenances. Au milieu des années 1990, avec notamment la collaboration en France de mon ami Bernard Savonet, informaticien de haut niveau et journaliste expert en technologie, nous avons élaboré et tenté de mettre en ligne une formule combinant algorithmique et intervention humaine, permettant d’attribuer à tout énoncé circulant sur le réseau numérique une «cote de crédibilité» chiffrée en pourcentage, de 0% (entièrement faux) à 100% (absolument certain).

Malheureusement, nous étions loin en avance des besoins et perceptions de l’époque dans ce domaine, si bien que nos tentatives d’obtenir le financement nécessaire à la réalisation du projet ont échoué, aussi bien du côté des pouvoirs publics que des investisseurs privés. Près de trente ans plus tard, la solution que nous avions proposée n’est toujours pas implémentée… et pourtant sa nécessité ne fait pas le moindre doute. La seule utilisation jamais faite de la formule, extrêmement limitée et quasi-confidentielle, est celle que j’exploitais dans le «newsletter» sur le commerce électronique de l’éphémère start-up ViaNet que j’avais créée avec mon compère Vallier Lapierre au milieu des années ‘90: nos quelques centaines de lecteurs, en Amérique du Nord et en Europe, appréciaient particulièrement la «note de confiance» attribuée à chacune des informations que nous diffusions – le fait de savoir que telle nouvelle était douteuse et à quel degré avait pour eux un intérêt certain. Les sites actuels de «fact checking» virtuel que j’ai pu consulter, faute d’une assise théorique structurée, sont loin du niveau que nous pouvions atteindre, même au palier extrêmement modeste où nous opérions.

Pour résumer, les éléments que nous examinions étaient les suivants:

La date de publication (plus elle est ancienne, moins fiable est la donnée).

La source (chaque source ayant sa propre cote de crédibilité, évaluée en fonction d’une série de critères objectifs et de la compilation statistique des opinions des lecteurs).

La nature de l’énoncé: valeur numérique ou date, référence à un fait avéré, affirmation gratuite ou documentée, opinion ou sondage (incluant le degré d’expertise impliqué), reprise d’un énoncé publié ailleurs, ensemble d’informations (discours, rapport, article, recension de livre), etc.

La cohérence interne des composantes d’un énoncé complexe.

L’existence de corroborations externes (incluant leur propre cote de fiabilité).

L’existence d’affirmations contradictoires (incluant leur propre cote de fiabilité).

La position et le rôle de l’énoncé dans le ou les réseaux d’informations auxquels il se rattache (par l’auteur, le sujet, l’emplacement, la tendance idéologique, etc.).

Comme on peut le constater, la plupart de ces critères peuvent être évalués par programmation, surtout en profitant des progrès récents de l'IA (ex. date, provenance, corroboration/contradiction), d’autres se fondent sur des statistiques accumulées dans le temps (ex. fiabilité d’une source institutionnelle), d’autres font appel à la subjectivité et à l’expertise d’évaluateurs humains (ex. cohérence interne, compétence ou biais idéologique d’un auteur d’opinion). L’ébauche de logiciel que nous avions créée lors de la recherche de financement était limitée par les possibilités alors primitives de l’IA, mais elle permettait tout de même d’obtenir des résultats acceptables (souvent sous la forme d’une fourchette de valeurs plutôt que d’une cote ferme) assez rapidement pour être utiles… et surtout, elle comportait un contrôle de l’existence des principaux critères qui faisait partie intégrante du processus: toute lacune était prise en compte dans la cote finale. Ce qui est un des reproches majeurs qu’on fait à bon droit aux présentes applications d’IA génératives. 

De fait, l’inclusion d'un processus structuré de validation selon cette approche dans la programmation des «chats» d'IA générative accorderait à ces derniers un niveau de fiabilité qui leur manque cruellement. C'est une des raisons qui me poussent à croire qu'il y aurait un intérêt réel à reprendre cette piste en intégrant les développements techniques récents aux résultats théoriques déjà acquis, plutôt que de continuer à miser uniquement sur l'augmentation de la puissance de calcul et l'accès encore plus massif au «big data»... Cela aurait aussi pour effet de réduire l'effet souvent pervers des intérêts pécuniaires des entreprises impliquées.

Aucun commentaire: