Valorisation économique de la recherche en AI

UPDATE

On en parle dans la presse :

https://www.regional-it.be/detached/trail-trusted-ai-labs-maximise-impact-de-la-recherche-ia-sur-le-tissu-socioeconomique/

Il y a un peu plus d’un an, l’initiative TRAIL était lancée pour booster la recherche en IA et que celle-ci puisse permettre un coup d’accélérateur dans ce domaine stratégique en Région Wallonne en facilitant l’adoption de l’IA par le tissu socio-économique:

https://www.uwe.be/trail-trusted-a-i-labs/

Le vendredi 6 mai, cette volonté est devenue une réalité avec la rencontre d’acteurs industriels clefs tels qu’AISIN, I-care, Sagacify et d’autres entreprises utilisatrices d’IA, mais également prestataires de services en IA. Cette rencontre s’est fait dans les locaux d’A6K. A cette occasion, plus de 150 personnes issues du monde académique, du monde industriel et des acteurs publics actifs dans ce domaine ont échangé sur leurs défis technologiques. Le but étant de mettre les savoirs et ressources en commun afin de permettre à la Wallonie de se positionner parmi les écosystèmes IA reconnus en Europe.

Vous trouvez le programme du jour de cet événement, organisé sous la tutelle du Vice-Président de la Wallonie et Ministre du Numérique, Willy Borsus.
 

Dialogues entre chercheurs & entrepreneurs sur les Grands Défis (GD) de l’IA

Lien pour participer à l’événement en ligne le 16 mars de 9h à 12h

Robert ‘Bob’ David (Technord) et Caroline Sainvute (Cenaero) abordent les méthodes de modélisation hybrides pour les produits/processus industriels combinant la physique/connaissance et l’apprentissage automatique pour développer des modèles plus fiables et explicables notamment dans les processus de production utilisant la fabrication additive.

Robert 'Bob' David (Head of Data Science/Analytcs/Modeling, Technord)
Caroline Sainvitu (Senior Research Scientist, Minamo Team Leader, Cenaero)

Fabien Francis (Micropole) et Caroline Sainvitu échangent sur la performance énergétique des bâtiments à grande échelle afin d’aider les parties prenantes à prendre de meilleures décisions en matière d’amélioration de l’efficacité énergétique.

Fabien Francis (Lead Data Scientist, Lucy in the Cloud by Micropole)
Caroline Sainvitu (Senior Research Scientist, Minamo Team Leader, Cenaero)

Karim El Khoury (UCLouvain) et Xavier Lessage (Cetic) nous éclairent sur les approches où les utilisateurs d’intelligence artificielle, les fournisseurs de solutions et les autres parties prenantes gardent sous contrôle la confidentialité de leurs données, informations et connaissances.

Karim El Khoury (UCLouvain)
Xavier Lessage (Senior Researcher, Cetic)

Olivier Deroo (Acapela) et Jean-Yves Parfait (Multitel) abordent des solutions d’IA qui réduisent radicalement le besoin d’énormes quantités de données étiquetées et démontrent de fortes capacités de généralisation.

Olivier Deroo (Cofounder, Acaepla Group)
Jean-Yves Parfait (Research Manager, Head of the Artificial Intelligence Research Group, Multitel)

Eric Callut (Deltatec) et Emmanuel Jean (Multitel) nous expliquent comment concevoir une IA digne de confiance et de réduire ainsi les obstacles pour les entreprises wallonnes désireuses de déployer des solutions d’IA dans des secteurs réglementés.

Eric Callut (Project and Business Development Manager, Deltatec)
Emmanuel Jean (R&D Engineer, Multitel)

Grégory Reichling (Cilyx) et Thierry Coutelier (Sirris) abordent la façon de construire des méthodologies d’IA adaptées qui permettent des interactions entre des machines industrielles et/ou des robots avec un opérateur humain afin de l’assister dans l’exécution de ses tâches.

Grégory Reichling (CEO, Cilyx)
Thierry Coutelier (Smart Products Senior Expert, Sirris)

Baptiste Fosséprez (Pepite) et Thierry Coutelier (Sirris) échangent sur les systèmes avancés d’aide à la décision pour guider les ingénieurs et les opérateurs tout au long du cycle de conception et de fabrication afin d’obtenir rapidement une production répondant à des normes de qualité élevées.

Baptiste Fosséprez (CEO, Pepite)
Thierry Coutelier (Smart Products Senior Expert, Sirris)

Pour résoudre les nombreux problèmes de la société, les technologies d’intelligence artificielle doivent être de grande qualité et être mises au point et utilisées de manière à gagner la confiance des citoyens

Spécialiste en traitement du signal et en apprentissage automatique, Emmanuel Jean est chercheur au sein du groupe AI de Multitel. Ses centres d’intérêts sont l’analyse de données et le Deep learning. Ses  travaux de recherche actuels se concentrent sur le développement d’une Intelligence Artificielle digne de confiance.

Dans VIADUCT, ses travaux portent sur une nouvelle interface homme/machine multimodale, adaptative et centrée sur la parole dans les voitures semi-autonomes. Les nouveaux systèmes avancés d’aide à la conduite (ADAS) étant peu utilisés par manque de confiance, un assistant vocal est développé afin de rassurer le conducteur en lui fournissant les informations nécessaires à son utilisation. Il dirige égalemant le groupe de travail consacré à ‘une intelligence artificielle digne de confiance pour les systèmes critiques’ du projet ARIAC.

L’industrialisation de l’IA est un enjeu crucial de compétitivité industrielle et économique. Or les systèmes basés sur l’IA sont de plus en plus complexes et apparaissent comme des boîtes noires, ce qui crée de la méfiance et freine l’adoption de ses nouvelles technologies,notamment dans des secteurs sensibles comme l’aéronautique, le spatial ou la médecine. Afin de rendre les systèmes basés sur l’IA digne de confiance, il est nécessaire de développer des outils et méthodes permettant d’industrialiser une IA  certifiée reposant sur des principes d’explicabilité, de robustesse et de conformité à l’éthique et aux cadres légaux et régulatoires.

Vers une intelligence artificielle garantissant la confidentialité des données dans les syste

 

Jean-François Toubeau est chercheur FNRS post-doctorant à l’Université de Mons.

Désireux de tirer parti de l’intelligence artificielle afin d’améliorer l’exploitation des systèmes énergétiques, sa recherche est à l’intersection du Machine Learning et de l’optimisation en environnement incertain.

Ses  travaux de recherche actuels se concentrent sur le développementde nouveaux algorithmes de Machine Learning collaboratif capable de préserver la confidentialité des données.

Pour ce faire, l’apprentissage fédéré (Federated Learning) est utilisé pour garantir que les données locales ne soient pas échangées lors de la phase d’entrainement. Ensuite, la méthodologie est enrichie via l’utilisation de confidentialité différentielle (Differential Privacy), qui consiste à injecter du bruit pour réduire le risque que le modèle puisse révéler les données brutes.

Ce projet, développé en collaboration avec le professeur Yi Wang (The University of Hong Kong), a reçu le prix IIF-SAS (10 000 $) décerné chaque année par l’International Institute of Forecasters.

Le succès de notre transition énergétique repose principalement sur la bonne coordination entre les acteurs du système qui doivent s’associer pour extraire le plein potentiel de leurs ressources.

En mutualisant les données personnelles dans une procédure de Machine Learning qui garantit la confidentialité des informations privées, on améliore non seulement la performance des outils de prédictions et de décisions, mais également la satisfaction et l’engagement de tous les acteurs.

Il s’agit d’une étape essentielle vers une meilleure gestion des systèmes énergétiques modernes, ce qui permet de réduire la facture d’énergie, tout en améliorant la sécurité d’approvisionnement.

Pour en savoir d’avantage sur ses travaux, consultez ResearchGate

En situation réelle, une simple métrique n’est généralement pas suffisante pour décrire les performances d’un modèle, il est nécessaire d’avoir une interprétation et explicabilité des performances afin de déterminer les limites réelles des modèles

Mathilde Brousmiche est chercheuse au sein du département IA de Multitel. Elle a réalisé une thèse en cotutelle entre l’Université de Mons et l’Université de Sherbrooke (Canada). Durant sa thèse, elle a travaillé avec différentes modalités telles que l’image et le son et plus particulièrement sur la fusion d’informations audio-visuelles avec des réseaux de neurones profonds dans le contexte de l’analyse de scènes.

L’axe majeur de ses travaux actuels concerne le suivi (tracking) d’objets. Ses recherches consistent d’une part à réaliser le tracking de plusieurs objets quelle que soit leur catégorie contrairement à la plupart des travaux réalisant le tracking d’une seule catégorie d’objets à la fois. D’autre part, les modèles d’IA développés doivent être adaptés à une situation réelle avec des contraintes matérielles et les performances doivent être interprétables et explicables à l’utilisateur.

L’IA réalise automatiquement le tracking d’un grand nombre d’objet permettant une meilleure compréhension de la scène ou encore une anticipation de la suite des évènements. Le tracking automatique permet par exemple de superviser et modéliser les flux de trafics pour améliorer la mobilité dans les centres urbains. Plusieurs métriques existent pour comparer les performances des modèles d’IA. Cependant elle ne reflète pas toujours les résultats attendus en situation réelle. La valeur de la métrique peut être plus faible mais le résultat obtenu mieux correspondre aux attentes de l’utilisateur. C’est pourquoi, l’interprétation concrète des performances et l’identification des limites des solutions implémentées permettent une meilleure compréhension de la part des utilisateurs et de proposer des modèles qui correspondent mieux aux attentes.

En situation réelle, une simple métrique n’est généralement pas suffisante pour décrire les performances d’un modèle, il est nécessaire d’avoir une interprétation et explicabilité des performances afin de déterminer les limites réelles des modèles.

Vers une intelligence artificielle qui intègre la notion d’équité

Géraldin Nanfack, chercheur à l’UNamur, travaille depuis décembre 2018 sur sa thèse dans le cadre du projet EOS VeriLearn. Ses travaux de recherche ont pour but de garantir le respect des propriétés ou de certaines contraintes à des algorithmes de Machine Learning. Par exemple, dans l’un de ses travaux [1] publiés à la conférence ESANN’21, il a proposé une méthode pour forcer des algorithmes d’arbres de décision à prendre des décisions équitables par rapport à descaractéristiques sensibles comme la race ou le genre. Dans un autre travail [2] publié à la conférence UAI’21, il a développé une méthode visant à contraindre des modèles dits “black-box” et différentiables comme des réseaux de neurones, à s’expliquer facilement et globalement par des règles de décisions afin que les utilisateurs non- experts de cette intelligence artificielle puissent comprendre comment les décisions ont été prises.

Ses travaux visent à avoir une Intelligence Artificielle (IA) plus fiable, qui pourra être dotée de facultés pour fournir des explications fidèles de son comportement. Cette évolution de l’IA est précieuse pour plusieurs secteurs sensibles comme celui de la santé ou bancaire qui pourrait utiliser une IA prédisposée à fournir des explications fiables de ses décisions tout en garantissant ou maximisant l’équité dans ses prédictions.

[1] Nanfack, G., Delchevalerie, V., & Frénay, B. (2021). Boundary-Based Fairness Constraints in Decision Trees and Random Forests. In The 29th European Symposium on Artificial Neural Networks, Computational Intelligence and Machine Learning, https://proceedings.mlr.press/v161/nanfack21a.html.

[2] Nanfack, G., Temple, P., & Frénay, B. (2021, December). Global explanations with decision rules: a co-learning approach. In Uncertainty in Artificial Intelligence (pp. 589-599). PMLR, https://pure.unamur.be/ws/portalfiles/portal/61249591/ES2021_69.pdf.

 

Une intelligence artificielle apprend avec moi à trouver les causes de maladies génétiques dans les publications scientifiques

Passionnée par le secret derrière les maladies génétiques, Charlotte Nachtegael s’est engagée, après avoir obtenu son diplôme en master en sciences biomédicales à l’UMONS, dans un master et puis un doctorat en Bioinformatique sur l’étude des maladies génétiques complexes à l’(IB)2 (Interuniversity Institute in Bioinformatics in Brussels) et au MLG (Machine Learning Group) à l’ULB.

Son travail a premièrement consisté à trouver dans la littérature scientifique des combinaisons de mutations causant des maladies génétiques complexes, récoltées sous forme d’une base de données (publication en cours de révision). Ce travail colossal de biocuration l’a encouragée à se concentrer sur les techniques de text mining pour être capable d’extraire automatiquement ces données du texte des articles et les rendre facilement disponibles. Elle utilise également le principe de l’active learning, impliquant directement l’expert humain dans l’apprentissage du modèle d’intelligence artificielle.

Cette extraction automatique des données sur les maladies génétiques complexes serait un avantage pour le monde médical et bioinformatique, d’autant plus vu l’augmentation des données génétiques et du nombre de publications sur le sujet. Ces données pourront être utilisées pour étudier les causes des maladies génétiques rares ou pour développer des modèles de prédictions lors d’une grossesse… De plus, on ouvre également la porte à une interaction directe entre l’intelligence artificielle et l’humain grâce à l’active learning, où c’est l’humain qui enseigne directement à un modèle. Ce travail devrait donc, on l’espère, accroître la confiance envers l’intelligence artificielle.