Press "Enter" to skip to content

Author: konieczny

4.7. IA et psychologie

Jusqu’à une époque récente, l’intelligence artificielle ne faisait son apparition dans les média qu’à des moments très symboliques, ceux où la machine prenait le dessus sur l’humain. Les échecs ont longtemps fait office de champ de bataille; plus récemment, l’intelligence artificielle a conquis le jeu de go. La relation entre l’humain et la machine, pourtant, dépasse largement le cadre de ces affrontements. De plus en plus fréquemment, nous sommes amenés à coopérer avec des machines pilotées par l’intelligence artificielle. Nous agissons de concert avec ces machines, nous prenons leur conseil, et nous leur déléguons une partie de nos tâches. Cette relation entre l’humain et la machine, coopérative et non compétitive, demande une confiance et une adaptation mutuelle. La machine doit anticiper la façon dont son partenaire humain traite l’information et prend ses décisions ; mais elle doit aussi rendre ses décisions et ses traitements les plus compréhensibles possible pour son partenaire, afin d’en gagner la confiance.

Cette coopération entre humain et machine ne peut être obtenue sans une coopération entre la psychologie et l’intelligence artificielle. En particulier, les psychologues et les chercheurs en intelligence artificielle ont à relever ensemble trois grands défis, afin de construire des agents artificiels capables de coopérer efficacement avec des agents humains: le défi de la complémentarité, le défi de l’explicabilité, et le défi de l’acceptabilité éthique.

La complémentarité exige des agents artificiels qu’ils se substituent efficacement aux humains quand ils sont capables d’une meilleure performance. Cela implique de bien comprendre les limites et les erreurs cognitives dont les humains sont victimes, un domaine dont les psychologues se sont fait une spécialité. Un agent artificiel efficace concentre ses efforts là où l’humain est le plus susceptible de négliger une information importante, ou bien de mal la traiter. Il doit également se garder de fournir une recommandation ou une conclusion qui serait mal

interprétée par son partenaire humain. En effet, il ne servirait à rien qu’un agent artificiel évite une erreur humaine, si une communication inappropriée en provoquait une autre.

L’explicabilité exige des agents artificiels qu’ils soient capables de donner à leur partenaire humain une justification, même sommaire, de leurs conclusions. Un agent artificiel dont le fonctionnement serait totalement opaque aurait les plus grandes difficultés à gagner la confiance de son partenaire humain. Ce manque de confiance se fera particulièrement sentir lorsque l’agent artificiel commettra une erreur (et cela arrivera, inéluctablement). Nous maintenons notre confiance aux autres humains quand ils font une erreur, dans la mesure où nous sommes capables de reconstruire avec eux comment ils en sont arrivés là. Ce travail nous rassure sur leur compétence générale, et sur leur capacité à éviter la même erreur dans le futur. Un agent artificiel incapable d’expliquer son raisonnement soulèverait en nous de puissants doutes quant à sa programmation (sa compétence), et sa capacité à ne pas refaire à nouveau la même erreur.

Enfin, les agents artificiels sont ou seront bientôt amenés à prendre des décisions lourdes de conséquences pour les humains, en particulier dans le domaine de la santé, et dans le domaine des transports, avec l’avènement des véhicules autonomes qui devront distribuer le risque encouru par les différents usagers de la route. Confier ces décisions à l’intelligence artificielle n’est possible que si les citoyens acceptent les principes éthiques qui seront suivis par les machines. Cette acceptation nécessitera une compréhension fine de la psychologie morale des citoyens. Une intelligence artificielle efficace, transparente et éthique ne se construira qu’avec un apport décisif de la psychologie du raisonnement, de la morale et de la décision.

4.6. IA et neurosciences

Concernées par l’étude du système nerveux, les neurosciences entretiennent des relations profondes avec l’intelligence artificielle, par des contributions réciproques. Comme pour d’autres disciplines, l’intelligence artificielle a fourni aux neurosciences des outils pour donner du sens aux connaissances qu’elles accumulent et traiter les données* qu’elles génèrent. Ceci est particulièrement critique pour un domaine étudiant le cerveau, généralement considéré comme le plus complexe des systèmes existants. Ses caractéristiques anatomiques et fonctionnelles abordées de façon multi-échelle et transdisciplinaire (chimie, biologie, physique, psychologie), produisent des connaissances dont la validité est régulièrement remise en cause par de nouveaux faits et de nouvelles méthodes d’investigation. Les progrès récents des neurosciences doivent beaucoup au développement de nouvelles technologies (neurochimie, électrophysiologie, imagerie) qui génèrent des masses de données dans lesquelles il faut rechercher des indices très diffus. Sur tous ces aspects, l’intelligence artificielle est aujourd’hui un partenaire essentiel des neurosciences.

L’étude du système nerveux est aussi singulièrement l’étude du système biologique responsable de la faculté d’intelligence chez les animaux. Il était donc naturel que l’intelligence artificielle s’intéresse aux neuros- ciences, y fasse référence pour qualifier les fonctions qu’elle se propose de modéliser et s’en inspire pour les réaliser. Certains précurseurs de l’intelligence artificielle (Alan Turing, Norbert Wiener, John von Neumann) faisaient des références fortes aux neurosciences et se montraient au moins autant intéressés par comprendre le cerveau que par créer une « machine pensante ». La confrontation de ce positionnement avec celui d’autres pères fondateurs (John McCarthy, Alan Newell, Herbert Simon), plutôt orientés vers la logique* et l’hypothèse du système formel (physical symbol system hypothesis), a donné naissance à une dualité fondamentale de l’intelligence artificielle, reprise par l’expression des frères Dreyfus** « Making a mind versus modelling the brain ». Ceci résume deux pistes majeures pour émuler* une intelligence artificielle, en créant un esprit ou en modélisant le cerveau, auxquelles s’est ajoutée la piste de l’intégration neuro-symbolique, visant à hybrider le meilleur des deux approches. Un débat important associé à cette dualité est le problème de l’ancrage du symbole, défini par Stevan Harnad (comment les symboles acquièrent leur signification), et de son émergence possible à partir de traitements sub-symboliques réalisés par des neurones (comment des traits extraits par des traitements perceptifs ou moteurs élémentaires peuvent être combinés pour établir cette sémantique).

L’apport des neurosciences à l’intelligence artificielle a été notable pour répondre à certaines limitations d’une approche purement logique et abstraite de l’intelligence et considérer, en contraste, que l’intelligence du vivant reposait fortement sur le rôle du corps et des émotions, singulièrement absents de cette approche. Mieux comprendre grâce aux neurosciences les liens entre corps et cerveau et le rôle des émotions dans la cognition a joué un rôle clé dans le développement de l’intelligence artificielle incarnée*, également avec le concours de la robotique qui permettait de fournir un substitut de corps. L’apport des neurosciences a été également décisif pour modéliser l’apprentissage, même si d’autres approches numériques ou logiques ont également développé cette faculté. Les premiers modèles neuronaux ont mis l’accent sur l’apprentissage et les performances se sont encore fortement améliorées avec les modèles ultérieurs, dits connexionnistes. Ceci explique que la plausibilité biologique a pu décroître voire disparaître de certains modèles connexionnistes dont le but n’était plus de rendre compte de l’apprentissage des neurones biologiques, mais de fournir une capacité d’adaptation à divers traitements d’information. Les modèles neuronaux centrés sur la description biophysique des mécanismes (potentiels d’actions, transmission synaptique) sont peu utilisés en intelligence artificielle aujourd’hui. On peut enfin mentionner un rôle important des neurosciences lors de tentatives de réalisation matérielle d’une intelligence artificielle puisque par leurs études anatomiques, les neurosciences fournissent des pistes pour réaliser des circuits émulant certaines propriétés de traitement d’information.

Enfin, la modélisation du cerveau et les travaux en intelligence artificielle ont déjà donné lieu à de belles fertilisations croisées. On peut mentionner notamment :

  • les progrès impressionnants de l’apprentissage par renforcement*, et en miroir l’étude du codage de l’erreur de prédiction de la récompense par le système dopaminergique du cerveau ;
  • la description des codages procédural et déclaratif pour représenter l’information dans le cerveau et en intelligence artificielle;
  • ou encore la compréhension de mécanismes de résolution de problèmes par des allers-retours constructifs entre neurosciences et intelligence artificielle.Sans préjuger où cette dynamique pourrait nous conduire, elle devrait en tout cas participer au progrès de ces deux disciplines.

** Making a Mind versus Modeling the Brain : Artificial Intelligence Back at a Branchpoint. Hubert Dreyfus et Stuart Dreyfus. Daedalus, Vol. 117, No. 1, pp. 15-43. 1988.

4.5. IA et bioinformatique

Les liens entre intelligence artificielle et bioinformatique remontent à l’origine des disciplines: Joshua Lederberg, professeur de génétique à Stanford, a établi des liens dès la fin des années 1960 avec Edward Feigenbaum et Bruce Buchanan, deux chercheurs en intelligence artificielle. Un des premiers résultats de ces efforts, le système expert DENDRAL, identifiait les composés organiques à partir de données* de spectrométrie de masse et d’une base de règles exploitant des connaissances* spécifiques au domaine. Puis, parmi les premières applications d’apprentissage automatique, Meta-DENDRAL a appris les règles né- cessaires à DENDRAL à partir de paires (spectres, structures).

Les raisons de cette convergence d’intérêt tiennent probablement à deux facteurs :

  • d’abord, les organismes vivants sont une source d’inspiration pour l’intelligence artificielle pour mettre au point des méthodes robustes par rapport au traitement de données du monde réel : la tolérance aux données imprécises et incertaines et la capacité d’auto-adaptation et d’apprentissage se rencontrent dans de nombreux exemples en biologie. Les méthodes correspondantes se regroupent parfois sous le terme de “soft computing” (réseaux neuronaux, algorithmes évolutionnaires*, logiques* de l’incertain, techniques d’optimisation…) ;
  • ensuite, la biologie est une science de la connaissance par excellence. On y observe un jeu complexe d’influences causales contextuelles et hiérarchiquement organisées, en lien avec des fonctions biologiques ciblées. Qu’il s’agisse de santé, d’agronomie ou d’étude de la biodiver- sité, la biologie cherche à donner un sens à cet énorme ensemble de relations. Par ses questionnements sur la représentation des connaissances et l’automatisation du raisonnement, l’intelligence artificielle permet d’affronter le double challenge de l’intégration des observations et des connaissances et de l’exploitation intensive de ces informations.

L’un des premiers enjeux de l’intelligence artificielle en bioinformatique est le traitement des connaissances. En biologie moléculaire, le flux à haut débit de données de multiples dispositifs d’observation combiné aux résultats d’analyses est actuellement recueilli dans des centaines de bases de données. La maintenance puis l’intégration de ces bases de différents niveaux de qualité sont extrêmement complexes. L’enjeu est la transition d’un ensemble d’îlots d’expertise mal formalisés et partiellement erronés, vers une vision cohérente et unifiée de connaissances interdépendantes. L’intelligence artificielle apporte des outils essentiels pour accompagner cette transition et conférer du sens aux données. Ceci comprend la création d’ontologies*, qui structurent un domaine de façon contrôlée, en identifiant de façon non ambiguë les entités, leurs propriétés et relations avec les autres entités, ainsi que la représentation de graphes de données hétérogènes, en particulier via des formalismes logiques. Différentes formes de raisonnement automatisé sur les connaissances sont étudiées, qu’il s’agisse de traquer les incohérences, d’extraire des causalités cachées ou d’interrogation intelligente du contenu.

Un vaste ensemble d’informations en biologie et santé résiste aux efforts pour normaliser et exploiter les données: les ressources textuelles (comptes rendus hospitaliers, articles de revues). Le savoir-faire de l’intelligence artificielle en analyse de textes en langage naturel et en fouille de textes permet, non pas de tout automatiser, mais d’assister les curateurs, personnages clés de la formalisation des connaissances, en filtrant, en mettant en forme l’information et en proposant et vérifiant des associations d’entités. On peut ainsi chercher à distinguer dans un article les parties traitant du dispositif expérimental ou des résultats, les faits accrédités ou rejetés par une expérience, les hypothèses… Signalons pour terminer le passionnant nouveau domaine de la compréhension automatique de figures, source très riche d’informations.

Un autre axe important est celui de la prédiction, à des fins de diagnostic, de pronostic ou de sélection d’hypothèses les plus intéressantes à tester. L’apprentissage automatique est au cœur de ces travaux en bioinformatique. On peut vouloir prédire les sites actifs ou la conformation tridimensionnelle totale d’une protéine, les interactions entre différentes molécules ou encore les facteurs génétiques déterminant un développement, une maladie, ou un fonctionnement particulier. L’application à cette fin de méthodes connexionnistes s’est récemment énormément développée, mais on a également recours à des méthodes plus explicites comme le raisonnement à partir de cas, l’apprentissage d’arbres de déci- sion, de grammaires formelles ou de programmes logiques. En effet, il ne s’agit pas seulement d’obtenir un prédicteur efficace, mais aussi de comprendre et d’éclairer un processus de décision qui reste manuel car impliquant des coûts importants, en termes de santé ou d’expérimentation. L’aide à l’expérimentation et à la découverte reste un thème très important de l’intelligence artificielle en bioinformatique.

Enfin il nous faut citer un dernier axe important, la résolution de problèmes combinatoires. En effet, l’approche mathématique analytique n’est pas toujours applicable en biologie où les équations régissant un système peuvent être extrêmement complexes. Comprendre le fonctionnement ou la structure d’un système qui mélange une hiérarchie d’aspects discrets et continus suppose l’emploi de méthodes symboliques et hybrides, en particulier les systèmes de contraintes* et les solveurs logiques. Une caractéristique fondamentale des problèmes en

4.4. IA et mathématiques

L’intelligence artificielle, à l’instar des autres disciplines scientifiques récentes ou anciennes, s’appuie fortement sur différents domaines des mathématiques.

Une des particularités de l’intelligence artificielle de ce point de vue est qu’elle se situe non pas dans la continuité (et encore moins l’application directe) d’un seul domaine mathématique, mais est au contraire à l’intersection de nombreuses, si ce n’est de toutes les problématiques classiques des mathématiques. Qu’elles concernent les mathématiques appliquées, comme les statistiques et les probabilités* bien sûr, mais également, l’optimisation, les équations stochastiques et aux dérivées partielles, la théorie des jeux*, etc., ou les mathématiques fondamentales (logique, algèbre, etc.) ou discrètes (graphes, réseaux, combinatoires), il est vain d’essayer d’énumérer toutes les techniques qu’il a fallu combiner, et sublimer pour certaines, pour parvenir à l’état de l’art actuel. Cette variété est d’autant plus impressionnante qu’au-delà des mathématiques, l’intelligence artificielle bénéficie également des fondements théoriques de domaines connexes, comme l’informatique (théories de la complexité*), l’économie (théorie de la décision, théorie des jeux, etc.), la physique, la biologie, etc.

Par exemple, une des problématiques centrales de l’intelligence artificielle consiste à retrouver dans des données* une structure cachée dans du bruit. On peut alors imaginer que les statisticiens vont réussir à modéliser le problème posé pour le réduire à un problème d’optimisation (combinatoire ou continue), qu’il est nécessaire de pouvoir résoudre… dans un temps limité. Il faut donc que l’optimisation soit “traitable”, c’est-à-dire qu’un ordinateur puisse trouver une solution en temps fini (et si possible raisonnable). Mais là encore, interviendra l’architecture choisie (et les moyens mis en place) pour tenter d’obtenir une solution (que les statisticiens pourront à nouveau analyser pour en comprendre la stabilité ou la robustesse aux erreurs de mesures par exemple).

En intelligence artificielle, on parle parfois de solution “end-to-end”, par exemple un traducteur automatique qui n’a besoin d’aucun système extérieur pour fonctionner. En elle-même, l’intelligence artificielle est en quelque sorte “end-to-end ” ; il ne s’agit pas seulement de montrer des résultats asymptotiques, en petite dimension, mais bien d’utiliser des outils mathématiques pour modéliser un problème concret (la reconnaissance de caractère, de visage, le changement de style, la création de nouvelle forme d’art, etc.), puis de trouver des solutions théoriques, que l’on peut implanter sur un ordinateur tout en assurant des garanties de performances.

C’est en cela que l’intelligence artificielle est en train de transformer certains domaines des mathématiques (comme les statistiques ou l’optimisation). Les chercheurs se doivent maintenant de comprendre, connaître et appréhender les contraintes et objectifs de leurs collègues issus de disciplines connexes. Ces interactions peuvent être très fructueuses. On peut par exemple utiliser des réseaux de neurones profonds*, sans vraiment comprendre pourquoi ils fonctionnent aussi bien (mieux que prévu voire espéré), mais les représenter comme “approximation” d’équations différentielles ou de systèmes contrôlés a apporté des éclairages récents sur leur fonctionnement. Mais l’exemple récent le plus représentatif des succès de cette intégration des multiples techniques issues de différents domaines restera probablement la conception d’un programme qui a littéralement appris tout seul à jouer au go (certes à un coût astronomique en temps de calcul, électricité, etc.) jusqu’à battre les meilleurs joueurs mondiaux. Il a fallu pour cela combiner les dernières avancées en simulation numérique, statistiques, optimisation, réseau de neurones*, etc., pour construire un système apprenant (il est encore un peu tôt pour parler d’intelligence) qui a réussi ce qui était à l’époque perçu comme une tâche insurmontable et l’apanage de l’humain: maîtriser le go.

Mentionnons également que l’intelligence artificielle, en inventant des modèles pour répondre à différentes tâches de raisonnement ou de décision (logiques* non classiques, modélisations* de l’incertain au-delà des probabilités, etc.) peut poser des questions nouvelles aux mathématiciens.

Par ailleurs, l’apport de l’intelligence artificielle aux mathématiques se retrouve là où l’on ne l’y attendait pas forcément. Par exemple, la programmation par contraintes* peut mettre à la disposition des mathématiciens des outils logiciels permettant de les aider à découvrir des démonstrations, voire en les réalisant à leur place. On citera à titre d’exemple la preuve récente du problème de la “bicoloration des triplets pythagoriciens”, qui fut en haut de l’affiche au printemps 2016. Ce problème s’énonce comme suit : “est-il possible de colorier chaque entier positif en bleu ou en rouge de telle manière qu’aucun triplet d’entiers a, b et c qui satisfont la fameuse équation de Pythagore a2 + b2 = c2 soient tous de la même couleur?”. Par exemple, pour le triplet (3, 4, 5), si 3 et 5 sont coloriés en bleu, alors 4 doit être rouge. À cette énigme, on a répondu par la négative. On a montré que, jusqu’à 7 824, il est possible de colorier ainsi les entiers, et même de plusieurs façons, mais, arrivé à 7 825, cela n’est plus faisable (c’est-à-dire qu’à partir de 7 825 on trouvera toujours (au moins) un triplet pythagoricien monocolore). La preuve du résultat, obtenue en utilisant un solveur SAT*, est fantastiquement longue** (elle occupe 200 téraoctets – soit l’équivalent de tous les textes numérisés détenus par la bibliothèque américaine du Congrès).

** Solving and Verifying the Boolean Pythagorean Triples Problem via Cube-and-Conquer. Marijn Heule, Oliver Kullmann et Victor Marek. Dans Theory and Applications of Satisfiability Testing (SAT). pp. 228-245. 2016.

4.3. L’IA dans les autres sciences de l’information

L’intelligence artificielle possède des interfaces avec plusieurs champs de l’informatique et des autres sciences de l’information. D’abord, l’intelligence artificielle vise à la construction de systèmes “intelligents” qui prennent le plus souvent la forme de programmes. Or, un programme “intelligent” est avant tout un programme informatique, et pour cette raison, sa conception, sa mise en œuvre, son analyse et son évaluation relèvent des concepts et méthodes issus de l’algorithmique et de la programmation, mais aussi du génie logiciel*. Réciproquement, le pan du génie logiciel qui porte sur la vérification formelle de systèmes

ou de programmes exploite fortement des outils de programmation par contraintes* (en particulier les solveurs SAT*) développés en grande partie par la communauté des chercheurs en intelligence artificielle.

La simulation informatique de nombreux processus de raisonnement et de prise de décision s’appuyant sur des représentations symboliques nécessite de faire face à des difficultés de passage à l’échelle, liées à la complexité algorithmique* de ces processus. Pour pouvoir faire face à ces difficultés, il importe d’identifier précisément les sources de complexité en présence. Pour cela, les chercheurs en intelligence artificielle utilisent largement les notions mises en avant et les résultats afférents des théories de la calculabilité et de la complexité, développées en informatique théorique. La notion de complexité paramétrée, permettant une analyse plus fine de la complexité des problèmes, est par exemple fréquemment mobilisée depuis une dizaine d’années en intelligence artificielle.

L’intelligence artificielle entretient également des liens étroits avec le champ des bases de données depuis très longtemps. La déduction sous hypothèse de monde clos* qui est au cœur de l’interrogation des bases de données relationnelles est aussi une forme centrale de raisonnement (non monotone) permettant de tirer des conclusions de “bon sens” à partir de connaissances* typiques. À l’intersection des deux disciplines, on trouve d’autres sujets et problématiques comme celui de la fouille de données ou encore celui des bases de données déductives (il s’agit d’ajouter aux informations de nature factuelle qui sont stockées explicitement dans des tables, des informations implicites, représentées par des contraintes* logiques, comme des instructions PROLOG* ou des formules issues de logiques* de description représentant des ontologies). On peut également mentionner la problématique commune de la réponse aux requêtes des utilisateurs en mettant en œuvre un raisonnement basé sur les ontologies* du web sémantique*.

Une autre discipline qui possède une frontière importante avec l’intelligence artificielle est la recherche opérationnelle. La programmation par contraintes constitue un sujet d’intérêt commun aux deux communautés (les principales différences se situant à la fois dans la nature des contraintes considérées – plutôt “numériques” ou plutôt symboliques – des objectifs visés – satisfaction ou optimisation – et des méthodes employées, même s’il y en a en commun, comme les méta-heuristiques*). L’ordonnancement, mais aussi la planification sont deux autres terrains d’application partagés. Très grossièrement, on peut dire que recherche opérationnelle et intelligence artificielle s’intéressent à beaucoup de sujets communs, autour de l’optimisation et de la résolution de problèmes combinatoires. La priorité est mise, en recherche opérationnelle, sur le développement d’algorithmes spécifiques performants pour des problèmes ciblés, alors que l’intelligence artificielle recherche plutôt des méthodes plus génériques et plus facilement adaptables et explicables.

4.2. IA et interaction personne-machine

L’intelligence artificielle a pris, ces dernières années, une place de plus en plus importante dans le domaine de l’interaction humain-machine, conduisant à de nouveaux paradigmes d’interaction. De nombreux travaux de recherche portent sur l’adaptation de l’interaction aux utilisateurs, la prise en compte de leurs individualités, mais aussi de leurs états affectifs, de leurs capacités cognitives et sensori-motrices, de leurs intentions, de leur culture… L’interaction avec la machine doit donc s’adapter dynamiquement aux besoins et états affectifs des utilisateurs, en tant qu’individus ou collectifs, pour améliorer non seulement les performances du système, mais aussi la qualité de leur expérience avec le système (déterminée par leur engagement, leur degré de confiance, d’acceptabilité, etc.). Dans cet objectif, les interactions font maintenant usage de plusieurs modalités telles que la voix, le comportement non verbal, la prosodie, le toucher. Les interactions humain-machine demandent de prendre en compte les signaux multimodaux émis par l’humain, de les reconnaître et de les interpréter (ce que l’humain dit, comment il le dit, ce qu’il fait…), de raisonner et décider quoi répondre, de générer une réponse multimodale, de définir des stratégies d’interaction. Enfin, les interfaces avec une représentation humanoïde (robot physique ou virtuel – souvent appelé agent conversationnel animé*) tendent à se généraliser. Elles doivent être dotées de capacités proches de celles des humains : percevoir, comprendre les intentions et états affectifs de leurs interlocuteurs, raisonner, prendre des décisions, montrer des affects, des intentions, gérer les tours de parole, lier une relation engageante, etc. Elles doivent être tout autant locuteur qu’interlocuteur.

Récemment, il y a eu de réelles avancées aussi bien dans le traitement automatique de la parole, dans la reconnaissance multimodale des émotions*, que dans la synthèse de parole expressive, pour citer quelques réussites spectaculaires. L’explosion dans le déploiement des chatbots* illustre ce succès. Cependant, plusieurs défis identifiés par la communauté scientifique sont toujours d’actualité. Ces défis portent sur l’amé

lioration des différents modules nécessaires à la modélisation* d’une interaction humain-agent virtuel/physique, mais aussi au passage au monde réel et à une interaction non seulement dyadique, mais pouvant comprendre plusieurs interlocuteurs humains. Les modèles d’interaction humain-machine ne doivent plus rester confinés à un certain domaine de conversation (par exemple, la prise de rendez-vous), type de population (d’une même culture, d’un même environnement socio- émotionnel, d’un même âge…). Ils doivent s’ouvrir à la diversité.

Les agents conversationnels animés doivent acquérir une plus grande autonomie dans leur prise de décision et leur prédiction des intentions de leurs interlocuteurs; ils doivent améliorer leur capacité adaptative (adaptation dynamique de leurs comportements et de leurs décisions aux besoins et aux objectifs des utilisateurs ainsi qu’aux états affectifs et mentaux de ces derniers). Leur capacité dialogique doit dépasser les échanges courts d’une simple interaction de type question/réponse (type chatbot) ; les agents doivent pouvoir maintenir un dialogue construit où la gestion des tours de parole, les interruptions, sont prises en compte. Le dialogue peut être lié à la résolution de tâches collaboratives et tourné vers le social (comme raconter une histoire, bavarder, créer des liens affectifs). Suivant les applications dans lesquelles les agents seront placés, ceux-ci seront conduits à interagir à long terme avec les utilisateurs. Cela demande que l’agent puisse mémoriser ce qui s’est dit dans les interactions précédentes, se construire une représentation mentale de ses interlocuteurs, créer une relation affective et de confiance avec eux.

Des agents virtuels et robotiques sont déployés dans de nombreuses applications. Parmi les plus courantes, on peut noter les assistants virtuels ; ils peuvent avoir aussi une fonction pédagogique et agir comme tuteur. Plusieurs “agents-compagnons” et “agents-coachs” ont été développés. Un autre domaine d’application est celui de la santé. Les agents peuvent donner des explications médicales, faire passer des tests de détection de dépression, voire même aider les gens à formuler leur mal- être. Ils sont aussi beaucoup déployés dans les jeux sérieux*. Cependant,

des règles éthiques doivent être posées, pour s’assurer par exemple du respect de la vie privée des utilisateurs et de ne pas les induire en erreur par manipulation. Ces questions sont très pertinentes, car les algorithmes de reconnaissance des émotions, voix de synthèse, reproduction de l’animation peuvent repousser les limites du réel et troubler la ligne de démarcation entre le réel et le virtuel, dépassant la vallée de l’étrange*.

Les méthodes d’intelligence artificielle employées dans ces formes d’interaction humain-machine reposent à la fois sur des modèles experts (par exemple, décrits par des logiques* formelles) et sur l’analyse automatique (par exemple, à l’aide d’algorithmes d’apprentissage) de don- nées multimodales d’interaction humain-humain ou humain-machine. Il faut donc développer des outils d’annotation de ces données*, d’analyse et de synthèse de comportement, de dialogue, de voix de synthèse. La question de l’évaluation de ces modèles doit aussi être abordée. Elle se situe aussi bien au niveau de la performance de chacun des modules constituant un système d’interaction humain-machine qu’au niveau subjectif concernant la crédibilité de l’agent, son niveau de confiance, ses capacités relationnelles… Ainsi, il est important de développer des techniques d’évaluation et des benchmarks*.

4.1. IA et robotique

Un robot est une machine composée d’actionneurs, de capteurs, de moyens de communication et de calcul qui lui assurent des capacités de perception de son état et de son environnement, de prise de décision, de déplacement, et de préhension d’objets. Il est conçu pour accomplir une catégorie de tâches dans une classe d’environnements avec un certain degré d’autonomie et de robustesse.

La variabilité des environnements et des tâches d’un robot est une difficulté essentielle. En l’absence de variabilité – un seul environnement bien modélisé et instrumenté, ou bien une seule tâche bien spécifiée – on trouve des technologies matures. Ainsi, en robotique manufacturière, près de deux millions de robots-manipulateurs sont en opération dans l’industrie. De même, les robots mono-tâche, par exemple aspirateurs ou tondeuses à gazon, sont amplement déployés.

Lorsque l’environnement et les tâches sont très variables, par exemple dans des applications d’interaction et d’aide aux personnes, un robot autonome sera confronté aux défis d’interprétation et de modélisation* de ses perceptions sensorielles, et de délibération pour la planification et la conduite de ses actions. Les liens entre robotique et intelligence artificielle deviennent alors critiques.

La robotique a toujours été très présente dans les recherches en intelligence artificielle. C’est une référence naturelle, en particulier pour les travaux en intelligence située (ou intelligence incarnée*) et pour l’expérimentation. Les difficultés de réalisation des fonctions sensori-motrices ont freiné pendant longtemps les possibilités d’expérimentation. Les débuts de l’intelligence artificielle sont néanmoins riches en projets précurseurs de robots autonomes, tels que Shakey, ou le Stanford Cart à la fin des années 1960 en Californie. Tous ces projets, et de nombreux autres depuis, se situent clairement à l’intersection de l’intelligence artificielle et de la robotique, en termes d’autonomie de perception, de décision et d’action dans des environnements ouverts et pour une diversité de tâches.

L’intelligence artificielle fut sans doute moins présente dans la recherche robotique à ses débuts. Ceci est dû au fait que les verrous qui ont mobilisé initialement la communauté robotique ont relevé davantage des fonctions sensori-motrices que des fonctions cognitives.

L’intersection intelligence artificielle – robotique est importante et fertile pour les deux domaines. Pour la robotique, l’intelligence artificielle est au cœur de la boucle perception-décision-action à tous les niveaux, et en particulier pour les problèmes :

  • d’interprétation et de modélisation métrique et sémantique de l’environnement, de reconnaissance d’objets, de scènes et de situations dynamiques ;
  • d’action délibérée: planification et exécution de mouvements et de tâches, supervision de l’activité, raisonnement sur les buts et les missions ;
  • de communication et d’interaction avec des personnes, dialogue multimodal, coopération ;
  • d’architecture, d’organisation des fonctions sensori-motrices et cognitives d’un robot, de sûreté de son fonctionnement;
  • d’apprentissage à tous les niveaux précédents.

La plupart de ces problèmes sont présents sur d’autres volets de l’intelligence artificielle et ont été évoqués dans les sections qui précèdent. Cependant, la robotique leur apporte trois éléments importants :

  • une dimension intégrative, dans le sens où des hypothèses simplificatrices, souvent légitimes pour l’étude de telle ou telle fonction cognitive, seront remises en cause en robotique. Ainsi, les problèmes de vision, de perception, et de reconnaissance doivent être traités dans un contexte sensoriel plus complexe et en prenant en compte les mouvements et actions du robot (l’asservissement visuel et la perception active sont des problématiques issues de la robotique). Les problèmes de planification sont indissociables en robotique de ceux de la réalisation des actions et de la supervision des activités du robot. Les problèmes d’apprentissage, supervisé* ou par renforcement*, intègrent une partie des problèmes d’interaction, voire de perception (apprentissage inverse et estimation des fonctions de récompense). Les problèmes d’architecture doivent prendre en compte les dépendances mutuelles des fonctions, et les dynamiques des contre-réactions qu’elles gèrent ;
  • une dimension développementale pour une construction incrémentale, par apprentissage, des représentations du monde et des capacités décisionnelles du robot à travers son interaction avec l’environnement;
  • une dimension expérimentale: la robotique nécessite des plateformes et des validations empiriques, ce qui contraint les développements mais enrichit considérablement les recherches.

4. Interfaces entre IA et d’autres disciplines

L’intelligence artificielle fait partie des disciplines constitutives des sciences de l’information. Il est donc naturel de préciser ses rapports avec les autres disciplines sœurs. Mais il est aussi important de souligner les interfaces de l’intelligence artificielle, avec d’une part les mathématiques sur lesquelles elle s’appuie, et d’autre part toutes les disciplines qui concernent l’humain ou la cognition d’une manière ou d’une autre.

3.9. IA et créativité

Être créatif est généralement regardé comme un signe manifeste d’intelligence pour une personne, que cela soit dans les domaines de l’invention scientifique ou technologique, ou dans celui des arts et lettres, ou dans tout autre domaine. L’intelligence artificielle, dans son ambition de faire réaliser à des machines toujours plus de tâches requérant différentes formes d’intelligence, a été naturellement conduite à s’intéresser à la créativité, et a permis des réalisations dont la puissance peut légitimement interroger quant à la nature des capacités de ces machines.

Les outils d’intelligence artificielle qui sont à l’œuvre dans de tels “programmes créatifs” s’inscrivent principalement dans les registres de la gestion de contraintes*, de l’apprentissage, du raisonnement à partir de cas, et de l’analogie. La puissance des calculateurs et les algorithmes d’intelligence artificielle permettent en effet d’étudier la faisabilité de combinaisons de contraintes, en explorant la combinatoire des possibles, ce qui peut être très utile pour permettre un design “à la carte” d’un produit. La transposition de solutions connues et leur adaptation à de nouvelles situations peuvent certainement conduire à des solutions et à des réalisations jamais vues auparavant.

Pour ce qui est du rôle de l’apprentissage, on peut, par exemple, adapter une mélodie à la manière d’un compositeur connu, ou transformer une image à la manière d’un peintre, à l’aide d’un réseau de neurones profond* qui aurait “capturé” le style de ces artistes. On peut aussi générer de nouvelles images d’un genre donné (portrait, paysage, etc.) à l’aide d’une combinaison (appelée Generative Adversarial Network, ou GAN) de deux réseaux de neurones profonds, où le premier réseau génère des images candidates, et le second juge si elles appartiennent bien au genre recherché. De quoi s’interroger sur la part d’intention et de hasard dans la création artistique.

Considérons maintenant plus particulièrement les domaines littéraires et musicaux. Il existe une longue histoire de génération d’artefacts littéraires à l’aide de l’intelligence artificielle. Les premiers algorithmes s’appuyaient sur la créativité mécanique (c’est-à-dire la combinaison déterministe de mots ou phrases pouvant donner lieu à des expressions créatives) telle que pratiquée par des groupes littéraires comme l’Oulipo6 et l’Alamo7. Un peu plus avancés sont les algorithmes qui s’appuient sur des règles. À l’aide de règles, un grand nombre d’expressions candidates peuvent être générées; en combinant cette étape de génération avec diverses stratégies d’optimisation, un système peut alors sélectionner automatiquement les créations les plus réussies.

Néanmoins, la génération de texte basée sur des règles a une tendance inhérente à être structurellement plutôt rigide. Les progrès des méthodes statistiques de génération de langage ont ouvert de nouvelles perspectives pour une approche plus variée et hétérogène pour la génération de langage créatif. En particulier, les modèles dits n-grammes (qui prédisent le mot suivant sur la base des précédents) et les réseaux de neurones récurrents* (capables de coder une expression pour en prédire la suivante) peuvent être directement utilisés comme modèles de base pour la génération de textes littéraires. Il est à noter que la majorité des modèles, en particulier ceux qui reposent sur l’apprentissage automatique, sont entraînés sur des corpus littéraires. À cet égard, les capacités littéraires montrées par les modèles découlent souvent de l’imitation d’artefacts existants, au lieu de démontrer une véritable créativité.

Pour ce qui est de la musique, à côté de la composante mélodique “de surface” de la plupart des œuvres musicales, la structure-forme est, pro

bablement plus que dans tout autre art, une composante essentielle, à tous les niveaux. Son impact est à la fois psychologique, symbolique et rhétorique. Suivant Pythagore, on peut dire que la musique est un ensemble de nombres, de symboles, de structures et de processus transformés en éléments audibles par le compositeur et l’interprète. De ce point de vue, l’intelligence artificielle est très certainement un outil majeur dans la conception de formes complexes. De nombreux modèles ont vu le jour pour produire des structures mathématiques ou logiques* qui suivent des principes formels et des contraintes. Ceci est le cas dans le traitement de la polyphonie qui va de la superposition des lignes mélodiques du baroque à celle d’imbrications de théories via les polyphonies de timbres, de rythmes, ou d’intensités.

Néanmoins, l’intelligence artificielle reste un outil certes très puissant, mais aux résultats prédéfinis. L’intelligence artificielle demeure un instrument au service du compositeur qui doit apprendre à l’utiliser sinon à l’apprivoiser. Pour l’interprète, qui doit développer une image mentale d’une œuvre avant de la jouer, elle permet de mieux maîtriser et mieux comprendre la hiérarchie de ces formes complexes.

Ainsi, nous ne devons pas nous leurrer sur l’inventivité des machines, qui ne proposent “leurs créations” qu’à l’intérieur des cadres imaginés par les concepteurs des algorithmes, la puissance des machines ne faisant qu’assister l’utilisateur dans des tâches spécifiques.

3.8. Jeux

Pourquoi avons-nous besoin de jouer? Cette question a depuis longtemps fasciné les philosophes et psychologues avec de nombreux essais nous expliquant pourquoi les jeux constituent une activité fondamentale chez les humains, enfants ou adultes. Il existe une grande variété de jeux, allant des jeux de plateau comme les dames, les échecs, ou le go, aux jeux vidéo de plus en plus élaborés, tels que Eve Online, ou World of Warcraft, nous immergeant dans des univers virtuels immenses. Le chiffre d’affaires de l’industrie vidéoludique mondiale représente aujourd’hui près de deux fois celui du cinéma. Il n’est donc pas étonnant que les jeux constituent un domaine phare de l’intelligence artificielle.

En fait, les jeux de plateau font partie des toutes premières applications de l’intelligence artificielle: dès 1950, Claude Shannon propose un algorithme de recherche pour jouer aux échecs et, peu après, Arthur Samuel chez IBM écrit le premier programme capable de jouer aux dames. Depuis lors, l’intelligence artificielle des jeux n’a cessé de progresser, avec des résultats spectaculaires comme DeepBlue pour les échecs, AlphaGo pour le go, et maintenant AlphaStar pour StarCraft.

Naturellement, ce résumé n’offre qu’un tour d’horizon rapide du vaste domaine qu’est l’intelligence artificielle des jeux. Nous commençons par présenter quelques catégories de jeux et d’intelligence artificielle, puis examinons quelques paradigmes algorithmiques pour résoudre les jeux.

Catégories de jeux. Afin d’appréhender l’intelligence artificielle des jeux, il est nécessaire de commencer par regrouper les jeux existants en catégories. Pour cela, la théorie des jeux* offre un cadre formel permettant de classer les jeux selon diverses dimensions, telles que le type de jeu (compétitif ou coopératif), le nombre de joueurs, la présence du hasard, l’information dont disposent les joueurs, la durée des événements, etc. La catégorie la plus connue en intelligence artificielle est celle des jeux compétitifs à deux joueurs (zero-sum two-player games), dont font partie les jeux d’échecs, de dames ou de go. Dans ces jeux, définis dès les années 1940 par John von Neumann et Oskar Morgenstern, les joueurs ont une observation totale du plateau et leurs coups sont déterministes. De tels jeux peuvent être représentés sous forme extensive par un arbre, appelé game tree*, dont les feuilles capturent les états terminaux, ou fins de partie. En théorie, ces jeux peuvent être résolus par une stratégie MiniMax* qui correspond à trouver un équilibre de Nash* du jeu. Au-delà de cette catégorie, on trouve la classe des jeux stochastiques (stochastic games) faisant intervenir le hasard (comme le backgammon), et plus généralement la classe des jeux stochastiques à information partielle (partially observable stochastic games) faisant aussi intervenir des éléments cachés (comme le poker ou Civilisation). Avec l’arrivée des jeux de stratégie temps-réel (comme StarCraft), les chercheurs en intelligence artificielle ont aujourd’hui identifié des classes encore plus élaborées, capturant la durée des actions et l’incertitude sur cette durée.

Catégories d’IA. Il existe deux grandes tendances en intelligence artificielle pour jouer: l’intelligence artificielle dédiée qui se focalise sur un seul jeu, et l’intelligence artificielle générique qui vise à résoudre toute une catégorie de jeux. Les objectifs sont différents. Pour l’intelligence artificielle dédiée, le but est d’intégrer les stratégies inventées par les experts humains pour un jeu donné et, potentiellement, d’apprendre des stratégies encore meilleures pour ce jeu. Les programmes tels que

DeepBlue (IBM), AlphaGo et AlphaStar (Google DeepMind) sont des systèmes d’intelligence artificielle dédiés, capables aujourd’hui d’affronter les meilleurs joueurs humains sur un jeu spécifique. Dans le cadre de l’intelligence artificielle générique, appelée aussi General Game Playing (GGP), le but est de comprendre quels sont les algorithmes efficaces pour traiter toute une variété de jeux et, à terme, de transférer les connaissances* acquises dans un jeu donné vers un autre. Dans ce cadre, le programme ne connaît pas à l’avance le jeu : il commence par recevoir les règles d’un nouveau jeu dans un langage déclaratif (appelé Game Description Language ou GDL) et, au bout de quelques minutes, doit s’affronter à un humain ou un autre programme.

Catégories d’algorithmes. Avec la richesse des jeux existants, il existe aujourd’hui une grande variété d’algorithmes d’IA pour les jeux, dédiés ou génériques. On peut néanmoins classer ces algorithmes selon trois grandes périodes dans l’intelligence artificielle des jeux. La première période est celle des années 1950-2000, avec l’invention d’algorithmes de recherche arborescente, équipés de techniques d’élagage (comme alpha-beta pruning*), de tables de transposition pour mémoriser des informations sur les états déjà rencontrés, et d’heuristiques* pour les fonctions d’évaluation des nœuds du game tree. La seconde période débute en 2006 avec l’arrivée des algorithmes de type Monte Carlo Tree Search* (MCTS), utilisant à nouveau la recherche arborescente, mais incorporant des techniques d’échantillonnage et d’apprentissage (bandits multi-bras*) pour estimer la fonction d’évaluation. Enfin, depuis 2015, la troisième période est l’avènement de l’apprentissage par renforcement profond* (Deep Reinforcement Learning) pour prédire le prochain coup (et donc réduire la largeur de l’arbre), et pour prédire la valeur des positions (et donc remplacer l’échantillonnage). Les joueurs AlphaGo et AlphaStar sont conçus sur de telles architectures profondes, permettant au programme de jouer des millions de parties contre lui-même et de découvrir de nouvelles stratégies gagnantes. Les programmes d’apprentissage par renforcement profond ont été appliqués à de nombreux jeux, sans utiliser de connaissances préalables de ces jeux, où ils obtiennent de meilleurs résultats que les programmes dédiés.