Maledh Marrakchi: Ethique et gouvernance de L'intelligence artificielle générative
L'intelligence artificielle (IA) est un domaine en pleine effervescence qui suscite beaucoup d’enthousiasme et d’inquiétudes. Le développement de systèmes d’IA avec apprentissage automatique (ou apprentissage machine-Machine Learning) de plus en plus puissants pousse les limites des possibilités de cette technologie. En apprentissage machine, il existe principalement deux sous-catégories de modèles: les modèles apprenants discriminatifs et les modèles apprenants génératifs.
La majorité des modèles utilisés sont discriminatifs. Que ce soit pour la classification, la segmentation ou la régression, il s’agit de modèles d’apprentissage machine ayant comme principe de base d’associer un enregistrement en entrée (x) à une valeur de sortie (y). Par exemple, un cas où une image x en entrée est classifiée par le modèle dans une classe prédéterminée (de chats, de chiens, de véhicules, etc.). Peu importe la technique d’apprentissage (par un réseau de neurones artificiels ou un arbre de décision), le principe de fonctionnement des modèles discriminatifs est le même: associer une variable d’entrée à un label de sortie bien spécifique. Les modèles génératifs représentent une catégorie à part. Contrairement aux modèles discriminatifs qui associent les valeurs d’entrée à des étiquettes de sortie, ils ont pour objectif de générer de nouvelles données suivant des règles et des conditions spécifiques. Les modèles génératifs sont capables d’apprendre les caractéristiques communes d’une collection de données et, ensuite, de générer des données similaires. Au moment où les modèles discriminatifs associent un enregistrement x à une étiquette y, les modèles génératifs génèreront un autre enregistrement x’. Par exemple, si l’enregistrement x est l’image «d’un chat», associé à une étiquette y «la classe chats», un bon modèle génératif sera capable de générer une image de chat x’ si réaliste qu’un modèle discriminatif pourra l’associer à une étiquette y (classe de chats).
Il existe une multitude d’utilités pour les modèles génératifs. Historiquement, comme ils étaient difficiles à entraîner, les cas d’usage opérationnels étaient limités. Actuellement, la construction d’un modèle d’IA générative est devenue possible grâce à l’augmentation de la puissance de calcul et à la quantité de stockage de données disponible. ChatGPT en est un exemple et a été formé sur 45 téraoctets de données textuelles pour un coût estimé à plusieurs millions de dollars américains. Ce type d’outils génératifs peut créer une grande variété de textes, puis répondre aux critiques pour rendre le texte plus adapté à son objectif.
L'IA générative se trouve à un point de basculement en termes d'adoption et d'impact, tout comme l'apprentissage automatique et l'IA il y a quelques années. Mais cette fois, les enjeux, l'environnement réglementaire, les effets sociaux, politiques et économiques potentiels de ces technologies et le rythme exponentiel de l'adoption et de l'évolution sont différents. Beaucoup de voix s’élèvent aujourd’hui pour dire que le moment est venu de poser la question suivante: comment les régulateurs et les entreprises devraient-ils permettre une transparence significative des technologies d'IA générative afin de garantir la responsabilité vis-à-vis de la société? Ces technologies ne sont pas dénuées de potentiel. L'amélioration des technologies d'accessibilité grâce à la génération d'images à partir de textes est prometteuse. Le potentiel de personnalisation de l'éducation avec de l’IA et l’IA générative particulièrement pourrait être transformateur. Les applications de l’IA générative dans les domaines de la santé, de l’industrie pharmaceutique, de l’industrie chimique et d’autres, offrent des potentiels énormes. L'IA générative peut améliorer l'efficacité de la conception et pourrait contribuer aux efforts de développement durable. Comment pouvons-nous donc tirer parti de ces avantages tout en évitant les inconvénients? Quels sont les systèmes de gouvernance nécessaires? Quelles sont les capacités techniques à développer pour ces systèmes de gouvernance afin de garantir que la technologie réponde aux besoins de la société?
Plusieurs gouvernements, organismes et experts explorent les mécanismes permettant une surveillance technique responsable de l'IA générative. Parmi les sujets cruciaux pour l'IA générative à explorer, citons: les nouveaux développements en matière de dommages et leurs impacts, l'équilibre entre la transparence et la sécurité dans la recherche ouverte, et la manière de permettre un contrôle technique significatif dans le paysage réglementaire naissant, l’impact sur les droits d’auteur et de propriété intellectuelle, etc. Ces problématiques alimentent les thèmes et les questions clés que les régulateurs et les auditeurs techniques indépendants devraient comprendre et être prêts à aborder. Le cas de l’IA a particulièrement mis en exergue l’influence, de plus en plus importante, des compagnies privées dans le domaine public et la nécessité de repenser les voies de la responsabilisation des acteurs privés à l’ère des algorithmes.
Ces nouvelles technologies ont le pouvoir énorme d'amplifier les préjudices existants et d'en créer de nouveaux d'une manière que nous ne pouvons pas encore imaginer. Par exemple, l'IA générative peut aider à produire des documents efficaces pour les campagnes de propagande à une échelle beaucoup plus rapide et avec un niveau de précision plus élevé que ce qui était possible auparavant. En outre, les modèles renvoient souvent des réponses erronées en toute confiance, citant même des documents "inexistants" ou d'autres documents de référence qui existent sans garde-fous empiriques. L'intégration des modèles génératifs dans les moteurs de recherche, l'assistance à la clientèle et d'autres outils essentiels utilisés par le public suscite des inquiétudes légitimes quant au tissu social de la confiance et de la démocratie. Le rythme de croissance et d'évolution de ces modèles est rapide. En lançant de nouveaux modèles, les entreprises brouillent la frontière entre "recherche" et "produit", tout en s'efforçant de trouver un équilibre entre transparence et sécurité. Étant donné que ces modèles sont formés à partir de données publiques, des voix s'élèvent aussi pour demander qu'ils soient exploités ouvertement et en tant que ressource publique. Cependant, les modèles à source ouverte - bien qu'ils soient ambitieux - peuvent réduire les capacités à freiner les acteurs malveillants. Pour permettre une transparence responsable, les modèles de "recherche ouverte" doivent tenir compte des risques d'utilisation malveillante. Les législateurs sont aux prises avec la réglementation de ces systèmes dans un environnement réglementaire de l'IA naissant. De nombreuses réglementations naissantes et possibles s'appuient sur l'audit technique et l'accès aux données en tant que mécanisme de transparence clé pour garantir la responsabilité. Toutefois, pour que ces mécanismes constituent un outil de responsabilisation efficace, nous devons mieux comprendre ce qui a changé (le cas échéant) avec les progrès de l'IA générative, où se situent les compromis entre transparence et sécurité, et quelles sont les capacités techniques nécessaires en dehors de l'industrie pour mettre en œuvre une surveillance technique efficace.
Stephen Hawking disait : «Notre avenir est une course entre le pouvoir croissant de la technologie et la sagesse avec laquelle nous l'utilisons». L’innovation ne peut fleurir que dans un espace de libertés, mais il nous appartient d’avoir la sagesse d’en faire bon usage.
Maledh Marrakchi
Universitaire, spécialiste en IA