Podle akademiotoelektronik, 01/02/2023
Une Québécoise à la coprésidence du groupe de travail international sur l’IA responsable
Quelle est la mission du groupe de travail sur l’intelligence artificielle responsable?
Le but est de créer des liens avec différents acteurs et actrices de l’IA, qui ne sont pas juste des universitaires qui se parlent ensemble, ou encore des gouvernements ou des pros de l’IA travaillant en vase clos.
Le partenariat mondial sur l’IA (PMIA) – qui compte plusieurs groupes de travail dont celui sur l’IA responsable – a été lancé en 2020 au terme d’un G7 de l’initiative du Canada et de la France. On comptait au départ 15 membres, donc 15 pays. On en compte maintenant 25.
On veut combler ensemble le fossé entre la pratique et la théorie en IA, soutenir et favoriser la recherche dans ce secteur, tout en s’alignant sur des priorités en lien avec le développement durable.
Vous prenez la relève de Yoshua Bengio, le fondateur de Mila Québec, à la coprésidence. Comment vous sentez-vous?
Ce sont de grandes chaussures à remplir, c’est certain. Je travaille beaucoup avec Yoshua Bengio sur différents projets, donc ce sera la continuité des chantiers que j’ai déjà avec lui.
Yoshua Bengio a reçu en juin 2019 le prix Turing de l'Association for Computing Machinery (ACM), considéré comme étant le prix Nobel de l'informatique.
Photo : Radio-Canada
Son expertise est complètement différente de la mienne, lui étant un génie de la technique, moi étant plus normative comme juriste. Mais ces approches sont complémentaires.
Je suis toujours fière quand une femme arrive à s’intégrer dans le milieu de l’IA. Donc, d’accéder à une position comme celle-ci, où je peux jouer un rôle non seulement comme leader de cette organisation, mais aussi comme femme, en apportant ma perspective différente, ça me rend particulièrement fière.
La diversité et l’inclusion figurent-elles parmi vos préoccupations?
C’est au cœur de ce que je souhaite amener comme coprésidente. Le groupe est déjà sensible à ces questions, et pas juste pour les femmes, mais aussi pour les pays du Sud, souvent sous-représentés.
En tant que femme en position de leadership, je vais pouvoir avoir des connexions avec d’autres organes et ne pas lésiner sur le message et les comptes à rendre en lien avec la diversité et l’inclusion. Je le fais déjà, et je vais continuer de le faire, parce que je trouve ça très important.
Le savoir-faire québécois occupe une place de choix dans ce groupe de travail, pourquoi?
À la création de l’organisation en 2020, ça a demandé un investissement de ressources très important de la part de la France et du Canada. Au fur et à mesure que ça évolue, on intègre d’autres pays.
Ce désir de la France et du Canada d’investir dans un partenariat mondial montre bien leurs ambitions de mettre le développement responsable de l’IA au cœur de leurs priorités.
Quels sont les accomplissements réalisés jusqu'ici?
Pour ce qui est de la lutte aux changements climatiques, par exemple, le groupe de travail a récemment émis 50 recommandations afin de mettre l’IA à contribution (Nouvelle fenêtre).
Une première proposition d’une carte de travail (road map) a été présentée à la COP 26 et au sommet du PMIA afin de sensibiliser les gouvernements. Un gouvernement intéressé à ça aurait donc déjà un début de guide utile à son action, mais c’est davantage sur une forme volontaire que ça se présente en ce moment.
Comment l’IA peut-elle aider à réguler les contenus en ligne jugés nuisibles
, sur les réseaux sociaux, par exemple?
On voit l’effet important que les réseaux sociaux ont sur la démocratie. Il y a eu plusieurs exemples de ça dans les dernières années. Des algorithmes d’IA utilisés dans différents réseaux sociaux peuvent amener les internautes dans une certaine direction et renforcer ce qu’on appelle les chambres d’échos.
Le groupe de travail essaie de développer un mécanisme d’évaluation des faits (Nouvelle fenêtre) (facts finding) afin de mieux encadrer le contenu. On veut s’assurer de poser les bonnes questions pour que ça ne perpétue pas les abus potentiels.
Comment utilise-t-on l’IA dans la découverte de médicaments pour contrer les maladies touchant des populations plus démunies?
L’idée, c’est de se demander comment on peut utiliser l’IA afin d’accélérer le développement de certains médicaments. Il s’agit d’un long processus dans lequel il y a des gains énormes à faire (Nouvelle fenêtre) en temps, et donc en argent. Et c’est très important pour les systèmes de santé.
Que souhaitez-vous apporter au groupe de travail sur l’IA responsable?
Pendant mon mandat, je vais miser sur quatre grandes priorités. La première étant de maintenir les chantiers de travail déjà entamés par le groupe sur les changements climatiques, les réseaux sociaux et la santé.
Mais surtout, en tant que juriste, et aussi comme personne, j’ai une forte préoccupation pour les droits de la personne en lien avec l’IA. J’aimerais développer un nouveau projet en phase avec ça.
On a le devoir de se préoccuper que l’IA s’inscrive dans le respect des droits de la personne. C’est un pacte juridique et social très fort, tout comme la Déclaration universelle des droits de l’Homme, qui fait consensus auprès des États.
Le PMIA est une organisation encore très jeune, et j’aimerais beaucoup amplifier son effet et sa visibilité en solidifiant les liens avec les gouvernements. Comme ça, lorsqu’on émettra des recommandations, on suscitera davantage leur intérêt et leur imputabilité afin qu’ils passent à l’action.
Comment entrevoyez-vous la coprésidence avec Raja Chatila, de l’Université Sorbonne?
Raja Chatila a une expertise similaire à celle de Yoshua Bengio, tous les deux étant issus du domaine plus technique de l’IA. C’est peut-être une alliance moins naturelle avec les sciences humaines, mais elle peut être très fructueuse. J’ai hâte de voir comment on va arriver à jumeler nos expertises complémentaires pour faire quelque chose de plus ambitieux.
Ce partenariat innovant entre les sciences humaines et l’IA, on doit le maintenir. C’est de cette manière, avec une meilleure compréhension des deux domaines, qu’on va réussir à développer des IA responsables.
Související články