Press "Enter" to skip to content

2.3. Apprendre

L’apprentissage est une capacité cognitive essentielle. Sans elle, un agent est condamné à ne jamais changer de perspective sur le monde, à sans cesse reproduire les mêmes règles de comportement.

L’apprentissage automatique (“Machine Learning*”) est la discipline visant à doter des machines de la capacité, d’une part, de découvrir des régularités à partir d’observations, qui peuvent provenir de bases de

données, de capteurs, de textes, etc. et, d’autre part, de se programmer (et de se reprogrammer) par l’expérience.

Le monde, dans son ensemble, n’est pas chaotique. Cela signifie que l’on peut décrire de nombreux phénomènes en extrayant des données* (ou observations) des régularités, des modèles, cela à des fins de compréhension ou pour faire des prédictions.

Supposons que l’on étudie des patients victimes de certaines pathologies dans un hôpital. On cherchera à savoir si l’on peut distinguer des catégories de patients, s’il est possible de faire des prédictions sur leurs évolutions futures. On voudra également savoir si l’on peut intervenir pour modifier le pronostic lié à certaines maladies, voire pour un patient donné, par exemple en introduisant un nouveau médicament. Il faut alors aller au-delà de simples corrélations pour découvrir les liens de causalité. Ces exemples simples font appel à des apprentissages différents.

Pour décrire le monde, on parle d’apprentissage non supervisé*. On cherchera par exemple des catégories, ou clusters*, des règles d’association*, des projections dans des espaces de représentation plus interprétables par les experts humains. Le but est d’interpréter et de comprendre les données.

Pour réaliser des prédictions, par exemple que cette forme de couleur dominante rouge devant la caméra d’un véhicule autonome est un panneau stop, on parle d’apprentissage supervisé*. En effet, les données sont alors fournies avec une partie descriptive, mais aussi avec une étiquette spécifiant une prédiction idéale. Le but est d’apprendre un modèle permettant de faire de bonnes prédictions à propos de données nouvelles, ce que l’on appelle généralisation. Finalement, l’apprentissage de relations de causalité, appelé souvent apprentissage prescriptif, fait appel à des modélisations* plus sophistiquées du monde.

La programmation par l’expérience, qui permet à un robot d’accomplir sa tâche en s’améliorant, ou bien à un agent virtuel de s’améliorer au jeu de go ou à un jeu vidéo jusqu’à devenir imbattable par les êtres humains, fait appel à de l’apprentissage par renforcement*. L’agent apprend les réflexes appropriés à chaque situation. Ce processus peut faire intervenir de l’apprentissage non supervisé ou supervisé. Ici aussi, il faut généraliser les résultats des expériences passées à de nouvelles situations.

Bien sûr, d’autres formes d’apprentissage sont étudiées, comme l’apprentissage de préférences ou de recommandations ou encore l’apprentissage par transfert permettant d’adapter un modèle à un autre domaine.

Les modèles permettant de décrire ou de prédire sont multiples. Il peut s’agir de modèles de type statistique spécifiant des distributions de probabilités*, des règles de type logique*: si … alors …, des frontières définies géométriquement dans des espaces de (re-)description des données du type réalisé par les fameux réseaux de neurones*, des réseaux sémantiques, et bien d’autres choses encore. Quel que soit le modèle favorisé, les questions fondamentales sont : permet-il une description appropriée du monde pour le comprendre ou pour réaliser des prédictions justes? Est-il possible de déterminer un tel modèle à partir des données disponibles? Par exemple, dans le cas de modèles très versatiles, comme les réseaux de neurones profonds* actuels, il faut énormément de données pour en apprendre les très nombreux paramètres.

La recherche porte sur les types de modèles à la fois intéressants et apprenables, c’est-à-dire permettant d’approcher les régularités sous-jacentes du monde avec des ressources en calcul et en données raisonnables. Cela implique de définir des algorithmes permettant d’apprendre ces modèles et d’en analyser les propriétés.

L’apprentissage supervisé doit se garder des biais présents dans les données qu’on ne voudrait pas reproduire par un modèle prédictif pour des

raisons éthiques. Si on souhaite, par exemple, entraîner un modèle à répondre à des demandes de crédit (cas d’une banque), et si certaines données utilisées (par exemple les salaires) sont biaisées en faveur d’un genre, il faudrait pouvoir éviter que le modèle n’intègre ce biais. Détecter et réparer ces biais est un problème de recherche actuel important.

Si l’apprentissage supervisé est maintenant bien compris, il reste beaucoup à faire pour établir des garanties sur l’apprentissage non supervisé, l’apprentissage par transfert et l’apprentissage de relations de causalité, par exemple.

Les modèles sont souvent vus comme des boîtes noires*, difficiles à interpréter et l’intégration de l’apprentissage, du raisonnement et des connaissances est donc un sujet appelé à se développer. Cette intégration peut être une des solutions possibles au problème de l’explicabilité des résultats fournis par ces boîtes noires, constituant une thématique de recherche actuelle importante, appelée IA explicable* (en anglais “Explainable AI”).

La capacité d’apprendre à partir de très peu d’exemples, ce que nous réalisons tous les jours est encore une tâche difficile pour les machines. Apprendre sur l’apprentissage, pour mieux comprendre aussi les agents cognitifs naturels, est donc encore un horizon, comme il l’était pour les pionniers de l’intelligence artificielle il y a 60 ans.