Source: The Conversation – in French – By Catherine Régis, Professeure titulaire, Faculté de droit, Chaire Canada-CIFAR en IA et Chaire de recherche du Canada en droit et politiques de la santé, Université de Montréal
Les États sont en compétition afin de développer le plus rapidement possible des modèles d’intelligence artificielle (IA). Les intérêts nationaux et internationaux des différents acteurs divergent en fonction de leurs enjeux et réalités propres. Ce développement tous azimuts de l’IA suscite des préoccupations croissantes. Un groupe d’experts a été créé afin de dépasser les rivalités et de développer un consensus scientifique à l’échelle de la planète autour de l’IA.
Le 3 février 2026, 40 expertes et experts ont été nommés parmi 2600 candidatures. Sélectionnés pour un mandat de trois ans par la communauté internationale, les candidats constituent ainsi le premier « Groupe scientifique international indépendant de l’intelligence artificielle » (Groupe d’experts). Ce groupe de haut niveau, co-présidé par le professeur québécois Yoshua Bengio, est chargé de rédiger un rapport annuel fondé sur des données fiables synthétisant les recherches existantes sur les « promesses, risques et répercussions » de l’IA, sans toutefois devoir se prononcer sur les enjeux, pourtant de taille en gouvernance mondiale de l’IA, liés au militaire.
Ce groupe constitue un cas d’étude particulièrement intéressant pour les travaux que nous menons dans le cadre de la Chaire en Diplomatie scientifique et gouvernance mondiale de l’IA à l’Université de Montréal puisqu’il représente un exemple prometteur de diplomatie scientifique appliquée à l’IA.
Les dangers de l’IA
Que ce soit en raison de leur conception, de leur mise au point ou de leur utilisation, les systèmes d’IA présentent des risques aujourd’hui connus et documentés.
Par exemple, les systèmes d’IA utilisés pour le diagnostic médical peuvent reproduire des biais présents dans les données sur lesquelles ils sont entraînés, avec des taux d’erreur plus élevés pour les femmes et les personnes racisées.
À lire aussi :
La pornographie générée par l’IA perturbera l’industrie du sexe et soulèvera de nouvelles préoccupations éthiques
De même, les outils de génération de contenu permettent de produire en quelques secondes des milliers de faux articles ou de fausses déclarations, saturant l’espace public de désinformation, difficile à contrer. Quant aux systèmes de reconnaissance faciale déployés par certains États, ils permettent une surveillance de masse sans consentement, avec des erreurs d’identification documentées ayant conduit à des arrestations injustifiées.
Dans ces circonstances, la création du Groupe d’experts apparaît plus qu’opportune puisqu’il a pour mandat de fournir des connaissances scientifiques vis-à-vis des risques de l’IA et cela de manière indépendante, sans ingérence politique.
Une impasse persistante
Les effets de l’IA dépassent largement les frontières des pays, ce qui plaide en faveur d’une réponse mondiale organisée.
Différents mécanismes et outils de gouvernance ont été adoptés par le passé, que ce soit en recourant à l’éthique (ex : Recommandation sur l’éthique de l’IA de l’Unesco), aux stratégies (ex : Stratégie continentale sur l’IA de l’Union africaine), aux standards (ex : norme ISO/IEC 42001) ou encore aux normes créant des obligations pour les États (ex : Convention-cadre du Conseil de l’Europe sur l’IA et les droits de l’homme, la démocratie et l’État de droit).
Ces différentes initiatives ont posé les premières pierres pour une gouvernance mondiale de l’IA. Pour autant, ces efforts multilatéraux sont limités : peu d’obligations juridiques pour contraindre les entreprises et les États, peu de moyens d’obtenir réparation en cas de violations de ces obligations et, surtout, de nombreux États sont en dehors du champ d’application des quelques normes contraignantes qui existent pour encadrer les systèmes d’IA et les données qu’ils mobilisent à l’échelle internationale.
À lire aussi :
L’IA est un raz-de-marée pour la communauté scientifique. Comment réagir ?
C’est notamment le cas des États-Unis ou de la Chine. La course à l’IA ayant pris de l’ampleur et les États ayant affirmé des positions parfois complètement antagonistes (ex : réguler versus libre développement), ces dynamiques nous ont plongés dans une impasse qui essouffle les efforts de gouvernance mondiale de l’IA. La perspective d’un traité international sur l’IA regroupant tous les États semble vaine pour le moment.
Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.
L’ONU choisit la science
C’est dans cette impasse que s’inscrit le pari du Groupe d’experts, qui se distingue des initiatives précédentes puisqu’il ne vise aucunement à dire ce qu’il faudrait faire (caractère normatif), mais à évaluer scientifiquement les risques et les opportunités de l’IA. L’ONU mise ainsi sur la science pour développer des consensus à l’échelle de la planète.
Ce pari peut surprendre au regard du contexte actuel où la science doit faire face à des attaques croissantes sur sa légitimité et à une perte de confiance observée depuis la pandémie de Covid-19. Pourtant, c’est précisément parce que l’IA est une technologie complexe et évolutive que seule une évaluation scientifique rigoureuse permettra d’en saisir les risques réels, d’en anticiper les effets et d’éclairer, ensuite, les décideurs.
Le Groupe d’experts réunit des profils délibérément variés, avec des expertises multidisciplinaires (apprentissage automatique, cybersécurité, droits humains, gouvernance des données…). Cela lui permet de produire des évaluations qui dépassent le seul champ technique pour intégrer les dimensions sociales et éthiques de l’IA.
Le groupe va ainsi entreprendre de bâtir une compréhension commune et globale de l’IA « fondée non pas sur l’idéologie, mais sur la science ; non pas sur les fausses informations, mais sur la connaissance ». En pratique, cela signifie que le groupe produira des évaluations qui s’imposent par leur rigueur, en limitant l’interférence des intérêts nationaux et des entreprises privées.
Cependant, les experts ne disposeront d’aucun pouvoir décisionnel en matière de politiques publiques. Les rapports qu’ils produiront viseront plutôt à fournir un baromètre scientifique sur les avancées de l’IA pour ensuite permettre aux États de prendre les décisions appropriées sur cette base. Le Groupe d’experts représente ainsi une expression récente d’efforts en matière de diplomatie scientifique.
Un laboratoire inédit pour observer la diplomatie scientifique
Entendue au sens large, la diplomatie scientifique constitue « l’ensemble des pratiques se situant à l’intersection de la science et de la diplomatie », dont la finalité est d’apporter une contribution significative aux défis mondiaux. En l’occurrence, étant notamment appelé à éclairer les discussions engagées lors du Dialogue mondial, une rencontre annuelle entre les gouvernements et les parties prenantes sur l’IA, le Groupe d’experts constitue une forme concrète de diplomatie scientifique.
Ce qui confère au Groupe d’experts un intérêt particulier, au-delà de ses livrables, c’est qu’il va se positionner comme un acteur incontournable de la diplomatie scientifique liée à une technologie numérique de pointe en temps réel. Cela est d’autant plus pertinent qu’il va permettre d’observer la diplomatie scientifique telle qu’elle s’exprime dans une période de reconfiguration.
D’ailleurs, sur ce point, le secteur privé occupe actuellement une place significative tant dans la production scientifique que dans la diplomatie. Par exemple, les géants de la Tech ont participé aux différents sommets sur l’IA, qui sont des rendez-vous pour définir les priorités mondiales et influer sur les négociations et décisions à venir.
Face à des acteurs privés dont l’influence sur les négociations internationales n’a cessé de croître, le Groupe d’experts incarne une logique différente : celle où les conclusions sont guidées par la rigueur scientifique plutôt que par des intérêts économiques. Toutefois, le Groupe ne cherche pas à exclure le secteur privé, qui reste une source essentielle d’innovation.
Les experts éclaireront, mais seront-ils écoutés et suivis ?
Reste la question centrale : la science parviendra-t-elle à faire converger des intérêts nationaux et mondiaux qui peinent à se rejoindre et, surtout, les évaluations scientifiques trouveront-elles écho auprès des décideurs qui restent libres de les ignorer ?
La réponse dépendra en grande partie de la capacité du Groupe à faire valoir ce qui constitue l’un de ses seuls leviers réels : l’expertise reconnue de ses membres, leur capacité à colliger des données de qualité tirées tant de la recherche universitaire que de l’industrie où l’IA de pointe est généralement concentrée et leur indépendance formelle.
Son premier rapport, attendu pour juillet prochain, constituera bien plus qu’un document technique : en moins de six mois d’existence, le Groupe d’experts testera en conditions réelles si la science peut encore faire office de langage commun entre des États aux intérêts profondément divergents, ce qui constituera un laboratoire d’étude précieux sur la diplomatie scientifique de demain dans un contexte géopolitique sous forte tension.
Catherine Régis a reçu des financements des Fonds de recherche du Québec, de CIFAR, des Instituts de recherche en santé du Canada et du Conseil de recherches en sciences humaines du Canada.
Gaëlle Foucault a reçu des financements de IVADO pour ses recherches postdoctorales.
Michel Audet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
– ref. Un groupe d’experts pour éclairer la gouvernance de l’IA par la science – https://theconversation.com/un-groupe-dexperts-pour-eclairer-la-gouvernance-de-lia-par-la-science-280760
