L’intelligence artificielle face à ses défis
Par Pr. Mohamed Ali Mahjoub - Les progrès de l’intelligence artificielle (IA) sont d’ores et déjà spectaculaires. L’IA est en train de révolutionner notre économie et notre société, et elle continuera à transformer nos vies. L'application de l'IA peut aller de la surveillance et le suivi des planètes et des sondes spatiales pour prédire les maladies sur terre, explorer des moyens nouveaux et innovants de prévisions météorologiques. Néanmoins, les acteurs de technologies d'IA doivent connaître à la fois les qualités et les défis associés à l'adoption de l'IA. Cela aide à atténuer les risques liés à la technologie et à en tirer pleinement parti. De même il est très important de savoir comment un scientifique doit aborder les problèmes d'IA dans le monde réel. A ce propos, voici les défis que les spécialistes en IA continueront à affronter et à traiter.
1- La généralisation
En apprentissage automatique appelé aussi Machine Learning (ML), la généralisation est un concept pour démontrer à quel point un modèle formé est capable s'adapter correctement à de nouvelles données inédites, tirées de la même distribution que celle utilisée pour créer le modèle. Pensez par exemple à un robot qui comprend que laisser tomber des verres les fait casser ne doit pas avoir besoin de jeter des dizaines d’objets par terre pour voir ce qui leur arrive ! La variance et le biais sont deux termes importants pour la mesure de qualité en apprentissage automatique. Quand on dispose d’un modèle à faible biais et à variance élevée on parle de sur-ajustement, et quand on dispose d’un modèle à faible biais et à faible variance, on parle de sous-ajustement. Par généralisation, nous essayons de trouver le meilleur compromis entre sous-apprentissage et sur-apprentissage afin qu'un modèle entraîné obtienne les meilleures performances. Et savoir déterminer la frontière entre le sur-ajustement et le sous-ajustement des situations connues reste un problème difficile.
2- La reproductibilité
La reproductibilité signifie qu’on peut exécuter un algorithme à plusieurs reprises sur certains ensembles de données et obtenir les mêmes résultats ou, presque sur un projet particulier. Dans un monde parfait, le fonctionnement interne d'un projet d'apprentissage automatique devrait être l'incarnation de la transparence informatique. Cependant, il n'est pas toujours évident si un projet d'apprentissage automatique est reproductible. Lorsqu’on assure la reproductibilité, on apporte de la transparence à notre expérience et on donne la possibilité aux autres de comprendre ce qui a été fait. Aujourd’hui encore, les modifications de données, des contextes et différents environnements techniques ainsi que de nombreux autres petits détails peuvent entraîner un échec.
3- La justesse
Si on fait entrer les mots clés : « personnages historiques célèbres» dans un moteur de recherche, on verra probablement une liste des personnalités masculines les plus connues dans le monde. Combien de femmes comptons-nous ? C’est là un exemple de préjugé de genre dans l'intelligence artificielle, résultant de représentations stéréotypées ancrées dans nos sociétés. La technologie des moteurs de recherche n'est pas neutre, car elle traite des données complexes et hiérarchise les résultats en fonction des préférences de l'utilisateur et de son endroit. Ainsi, un moteur de recherche peut devenir une chambre d'écho qui maintient les préjugés du monde réel. Comment pouvons-nous garantir des résultats plus équitables et plus pertinents ? L'UNESCO a entrepris, à cet effet et pour la première fois, d'élaborer un document juridique global sur l'éthique de l'IA afin de ne pas reproduire les représentations stéréotypées des femmes dans le domaine numérique.
4- La protection de la vie privée
L’IA peut contribuer de manière considérable à personnaliser le user-experience (expérience-utilisateur), prédire les comportements des consommateurs, interagir avec la clientèle ou prendre des décisions automatisées quant à l’accès à un service. Les entreprises en ligne recueillent une quantité phénoménale de données sur les clients et les consommateurs, mais ne donnent que de l’information parcellaire quant au traitement de ces données par leurs systèmes techniques d’IA. Par ailleurs, le contrôle qu’elles offrent aux consommateurs sur leurs renseignements personnels reste limité. Elle comporte des avantages pour les consommateurs, mais elle pose aussi des risques d’atteinte à la vie privée, d’exclusion de groupes vulnérables ou d’exploitation économique des consommateurs.
5- L’accessibilité
Compte tenu de la multiplication incessante des appareils et de l’automatisme dans nos vies, il est primordial que les personnes handicapées et les personnes atteintes de maladies rares puissent avoir pleinement accès de façon autonome aux possibilités offertes par les technologies de l'information et de l’IA. L'accessibilité digitale ou numérique est essentielle pour garantir le respect du droit de chacun de pouvoir participer à un monde interconnecté. Elle assure l'inclusion numérique et un discours ouvert à tous, indépendamment de l’âge, du sexe, ou de la capacité ou la localisation des personnes. On peut citer à titre indicatif comme fonctionnalités d'accessibilité courantes, la conversion de la voix en texte (sous-titrage), les sous-titres automatiques et la langue des signes pour les personnes sourdes ou malentendantes.
6- La causalité
La causalité c’est l’influence qu’exerce un événement sur la production d'un autre événement. Aujourd’hui, la plupart des projets basés sur l'apprentissage automatique se concentrent sur la prédiction des résultats plutôt que sur la compréhension de la causalité. En effet, le ML est excellent pour trouver des corrélations, et non de causalité, dans les données. Comment faire pour ne pas tomber dans le piège consistant à assimiler corrélation et causalité. La capacité à découvrir les causes et les effets de différents phénomènes dans des systèmes complexes aiderait certainement à élaborer de meilleures solutions dans des domaines aussi divers que les soins de santé, la justice et l'agriculture. En effet, ces domaines ne devraient pas prendre de risques lorsque les corrélations sont confondues avec la causalité. Comprendre la cause et l'effet rendrait les systèmes d'IA existants plus intelligents et plus efficaces.
7- L’explicabilité
Aujourd’hui, les modèles en vogue ceux de l'apprentissage en profondeur ou Deep Learning appelés modèles de boîte noire sont créés directement à partir de données par un algorithme, ce qui signifie que même ceux qui les conçoivent, ne peuvent pas comprendre les détails de la façon de combinaison des variables pour faire des prédictions. Les modèles interprétables sont contraints de fournir une meilleure compréhension de la manière dont les prédictions sont faites. Cependant, la plupart des modèles d'apprentissage automatique ne sont pas conçus avec des contraintes d'interopérabilité ; ils sont simplement conçus pour être des prédicateurs ou classifieurs précis sur un ensemble de données qui peuvent ou non représenter la façon dont le modèle serait utilisé dans la pratique. Une question fondamentale se pose: A quel degré autorisons-nous l'utilisation de modèles de boîte noire pour des décisions à enjeux élevés ? Quand on comprend ce qu’on fait lorsqu'on construit des modèles, on peut produire des systèmes d'IA mieux à même de servir les hommes qui en dépendent.
Pr. Mohamed Ali Mahjoub
Ecole Nationale d’ingénieurs de Sousse