« L’Intelligence Artificielle (IA), ça marche, mais on ne sait pas pourquoi ça marche ». La formule est souvent revenue depuis une dizaine d’années et avec l’émergence des techniques de deep learning, qui ne sont pas les seules en IA, mais qui restent les plus importantes. D’où l’émergence d’un certain malaise à appliquer de telles technologies. Dans ce contexte, le consortium Confiance.AI a été fondé en janvier 2021, un programme de recherche de quatre ans qui s’inscrit dans le cadre de la stratégie nationale pour l’intelligence artificielle lancée par le gouvernement français en 2018. Il associe des industriels (Airbus, Thalès, Renault…) et des organismes de recherche académiques (CEA, Inria, Instituts de Recherche Technologique…) autour de cas d’usage.
Une série de projets ont été présentés les 5 et 6 octobre 2022 à CentraleSupélec sur le campus Paris-Saclay. Soit un ensemble de méthodes, d’applications, de logiciels destinés à ajouter une couche de transparence, de sécurité ou d’explicabilité à une fonction d’intelligence artificielle. « Il faut sortir de la situation où l’IA reconnaît un husky non pas à cause de ce que c’est, mais parce qu’il y a de la neige sur la photo. Mettez un husky sur la plage et l’IA ne sait plus ce que c’est. », résume Bertrand Braunschweig, coordinateur scientifique de Confiance.AI, citant le fameux exemple de mauvaise interprétation de l’image.
Droit réduit à l’erreur
Toutes les applications de l’IA ne sont pas concernées, mais celles où des vies humaines, des missions de défense, des transactions financières, par exemple, sont en jeu. « Il ne s’agit pas de créer des outils d’IA, mais des outils pour les systèmes industriels critiques, où le droit à l’erreur doit être réduit. », ajoute David Sadek, président du conseil d’administration du consortium et vice-président en charge de l’innovation et de la technologie chez Thalès.
L’un des projets évoque donc la question des « attaques adverses », c’est-à-dire ces perturbations insérées dans les données, invisibles ou gênantes pour l’homme, mais qui peuvent faire déraper l’IA car elle ne comprend pas la même chose. . critères que nous. Il s’agit d’un exemple classique de quelques pixels ajoutés à une image pour interférer avec son interprétation correcte par un algorithme de vision par ordinateur. Pour contrer ce type de manœuvre, l’outil scanne les fichiers, leur luminosité, applique divers filtres, pour vérifier l’intégrité des données.