Trusted AI

Tandis que l’IA se fait de plus en plus omniprésente et pénètre des domaines où elle était encore inconnue jusque récemment (gestion des ressources humaines, administrations, fintech, sciences fondamentales, e-health, justice, industrie 4.0, etc.), il devient évident qu’une relation de confiance doit être établie entre les utilisateurs et celle-ci. Qu’ils soient experts ou non, les personnes confrontées à l’IA sont en droit d’attendre certaines garanties (fiabilités, respect de la confidentialité des données, stabilité et cohérence des décisions, etc.).

Le work package 2 “mécanismes de confiance pour l’IA” cherche à répondre à ce besoin sous différents angles : le federated learning sur base des technologies blockchain telles que Trusted Coalitions for Blockchained Distributed Learning (TCLearn) et les (BFAs) ; la logique inductive pour la justice prédictive ; les garanties telles que la stabilité, le choix de bons métaparamètres (notamment en deep learning), l’auto-évaluation et la certification ; la robustesse aux variations d’objectifs, à la qualité de la supervision et aux données non-vues, en ce compris dans les représentations internes ; l’interprétablité des modèles via des mécanismes d’hybridation, de distillation, de contraintes et de compromis complexité-optimalité ; l’interaction par exemple pour l’infovis et les systèmes multi-agents pour des garanties by-design pour les robots et les essaims. L’ensemble de ces différents angles seront donc étudiés sous cet axe de recherche.

Le work package est coordonné par le Prof. Benoît Frénay et la Dr. Rebecca Marion à l’UNamur. Un appel a été lancé pour faire une première réunion de lancement du WP2 en mars, après le début du second quadrimestre. Le but sera de recenser les marques d’intérêt et de clarifier les tâches sur lesquelles les chercheurs ARIAC travaillent. Des réunions régulières seront ensuite planifiées (par ex. tous les deux mois) pour assurer une cohésion et une visibilité sur l’avancement des différentes équipes et avoir également une vue sur la façon dont les travaux de recherche et les sous-tâches des grands défis peuvent s’articuler. Un premier atelier sera organisé dans le cadre de la 33ème conférence internationale francophone sur l’Interaction Humain-Machine (IHM’22) qui se tiendra à l’Université de Namur du 5 au 8 avril 2022, Namur (https://ihm2022.afihm.org/fr/ ) avec pour thème “’Interaction Humain-Machine et l’Explicabilité en Intelligence Artificielle”. Les intervenants du WP2 (et plus largement ARIAC) seront invités à y contribuer.

Pour l’instant, ce sont 20 chercheurs au total, dont 14 financés par le projet ARIAC, qui travaillent sur cet axe de recherche. Nous sommes satisfaits d’avoir pu attirer des expertises de plusieurs partenaires. La plupart des chercheurs ARIAC sont affiliés à l’UNamur, l’UCLouvain et au CETIC.