Press "Enter" to skip to content

Author: konieczny

Contributeurs

Cet ouvrage a été élaboré sous l’égide du comité scientifique du Groupement De Recherche sur les aspects formels et algorithmiques de l’Intelligence Artificielle (GDR IA) du CNRS. Il s’agit d’un travail collectif ; nous avons néanmoins indiqué après chaque nom la ou les sections pour lesquelles cette personne a été un des contributeurs principaux.

Coordinateurs

  • Sébastien Konieczny. Directeur de Recherche CNRS – Directeur du GDR IA
  • Henri Prade. Directeur de Recherche CNRS – EurAI Fellow

Contributeurs

  • Frédéric Alexandre [4.6, 5.2]. Directeur de Recherche INRIA
  • Leila Amgoud [2.2]. Directeur de Recherche CNRS – EurAI Fellow
  • Christian Bessière [3.5]. Directeur de Recherche CNRS – EurAI Fellow
  • Jean-François Bonnefon [4.7]. Directeur de Recherche CNRS – Mé- daille de Bronze du CNRS
  • Tristan Cazenave [3.8]. Professeur – Université Paris Dauphine – PSL
  • RajaChatila[4.1].Professeur-SorbonneUniversité-IEEEFellow
  • Antoine Cornuejols [2.3]. Professeur – AgroParisTech
  • Frédéric Cuppens [3.7]. Professeur – Polytechnique Montréal
  • Sébastien Destercke [3.4]. Chargé de Recherche CNRS
  • Béatrice Daille [3.2]. Professeur – Université de Nantes
  • Didier Dubois [2.2]. Directeur de Recherche CNRS – EurAI Fellow
  • Jérôme Euzenat [3.3]. Directeur de Recherche INRIA – EurAI Fellow
  • Jean-Gabriel Ganascia [5.4, 5.5]. Professeur – Sorbonne Université – EurAI Fellow – Directeur du Comité d’Éthique du CNRS
  • Malik Ghallab [4.1]. Directeur de Recherche CNRS – EurAI Fellow
  • Matthieu Geist [3.2]. Professeur – Université de Lorraine
  • Andréas Herzig [3.6]. Directeur de Recherche CNRS – EurAI Fellow
  • Sébastien Konieczny [5.1, 5.2, 5.3]. Directeur de Recherche CNRS – Directeur du GDR IA
  • Frédéric Koriche [3.8]. Professeur – Université d’Artois
  • Jérôme Lang [4.3, 4.8]. Directeur de Recherche CNRS – EurAI Fellow – Médaille d’Argent du CNRS
  • Frédéric Maris [3.6]. Maître de Conférences – Université de Toulouse
  • Pierre Marquis [4.3, 4.4]. Professeur – Université d’Artois – EurAI Fel- low – Membre Senior Institut Universitaire de France
  • Nicolas Maudet [4.8]. Professeur – Sorbonne Université
  • EngelbertMephuNguifo[5.3].Professeur-UniversitéClermontAuvergne
  • Jacques Nicolas [4.5]. Directeur de Recherche INRIA
  • Catherine Pelachaud [4.2]. Directeur de Recherche CNRS
  • Vianney Perchet [4.4]. Professeur – ENS Paris Saclay
  • HenriPrade[1,2.1,3.9,5.2].DirecteurdeRechercheCNRS-EurAIFellow
  • Marie-Christine Rousset [2.1, 3.3]. Professeur – Université de Grenoble Alpes – EurAI Fellow – Membre Senior Institut Universitaire de France
  • Patrick Saint-Dizier [3.9]. Directeur de Recherche CNRS
  • Frédéric Saubion [2.4]. Professeur – Université d’Angers
  • Christine Solnon [2.4]. Professeur – INSA Lyon
  • Karim Tabia [3.7]. Maître de Conférences – Université d’Artois
  • Tim Van de Cruys [3.9]. Chargé de Recherche CNRS
  • Christel Vrain [2.3]. Professeur – Université d’Orléans
  • Christian Wolf [3.1]. Maître de Conférences – INSA Lyon

Autres relecteurs

  • Philippe Dague. Professeur – Université Paris-Saclay
  • Odile Papini. Professeur – Aix-Marseille Université

Quelques références

Nous donnons ici quelques références générales et spécialisées, ordonnées suivant la présentation des sections de l’ouvrage (cf le numéro de section entre crochets), afin que le lecteur intéressé puisse trouver une porte d’entrée vers les travaux de la communauté scientifique. Certaines de ces sections n’ont pas de références spécifiques, mais on pourra alors se tourner vers les ouvrages généraux (en particulier le Panorama de l’Intelligence Artificielle).

Ouvrages Généraux

  • Pierre Marquis, Odile Papini et Henri Prade (Eds). Panorama de l’Intelligence Artificielle – Volume 1: Représentation des Connaissances, et Formalisation des Raisonnements. Volume 2 : Algorithmes pour l’Intelligence Artificielle, Volume 3: Frontières et Applications. Cépaduès. 2014. [Version anglaise mise à jour et augmentée : A Guided Tour of Artificial Intelligence Research – 3 volumes. Springer. 2020.]
  • Nils Nilsson. Artificial Intelligence: A New Synthesis. Morgan Kaufmann. 1998.
  • Jacques Pitrat. De la machine à l’intelligence. Hermès. 1995.
  • Stuart Russell et Peter Norvig. Artificial Intelligence: A Modern Approach (3rd edition). Prentice Hall Press. 2009.

Histoire de l’IA [1]

  • Daniel Crevier. AI. The Tumultuous History of the Search for Artificial Intelligence. Basic Books, Harper Collins Publishers, New York. 1993. Traduction française: À la Recherche de l’Intelligence Artificielle. Champs, Flammarion. 1997.
  • Michael Wooldridge. The Road to Conscious Machines: The Story of AI. Pelican Books. 2020.

Représentation, Raisonnement et Décision [2.1 et 2.2]

  • Denis Bouyssou, Didier Dubois, Marc Pirlot et Henri Prade (Eds).Decision-Making Process – Concepts and Methods. Wiley. 2009.
  • Ronald Brachman et Hector Levesque. Knowledge Representation and Reasoning. The Morgan Kaufmann Series in Artificial Intelligence. 2003.
  • Ronald Fagin, Joseph Halpern, Yoram Moses et Moshe Vardi. Reasoning about Knowledge. MIT Press. 2003.
  • Joseph Halpern. Reasoning about Uncertainty. MIT Press. 2003.
  • Markus Knauff et Wolfgang Spohn (Eds). Handbook of Rationality. MIT Press. 2020.
  • Judea Pearl et Dana Mackenzie. The Book of Why. The New Science of Cause and Effect. Basic Books. 2018.

Apprentissage [2.3]

  • François Chollet. Deep Learning with Python. Manning Publications. 2017.
  • Antoine Cornuejols, Laurent Miclet et Vincent Barra. Apprentissage Artificiel – Deep Learning, Concepts et Algorithmes (3e édition). Eyrolles. 2018.
  • Ian Goodfellow, Yoshua Bengio et Aaron Courville. Deep Learning. MIT Press. 2016.
  • Johannes Fürnkranz et Eyke Hüllermeier. Preference Learning. Springer. 2010.
  • Yann Le Cun. Quand la Machine Apprend – La Révolution des Neurones Artificiels et de l’Apprentissage Profond. Odile Jacob. 2019.

Résoudre [2.4]

  • Rina Dechter. Constraint Processing. The Morgan Kaufmann Series in Artificial Intelligence. 2003.
  • Christophe Lecoutre. Constraint Networks – Techniques and Algorithms. STE/Wiley. 2009.

Traitement du Langage [3.2]

  • Dan Jurafsky et James Martin. Speech and Language Processing – An Introduction to Natural Language Processing (3rd edition). Computational Linguistics, and Speech Recognition. 2019.

Recherche d’information et Web sémantique [3.3]

  • Fabien Gandon, Catherine Faron-Zucker et Olivier Corby. Le Web Sémantique – Comment Lier les Données et les Schémas sur le Web ? Dunod. 2012.

Planification [3.6]

  • Hector Geffner et Blai Bonet. A Concise Introduction to Models andMethods for Automated Planning. Morgan & Claypool. 2013.
  • Malik Ghallab, Dana Nau et Paolo Traverso. Automated Planning and Acting. Cambridge University Press. 2016.
  • Pierre Régnier et Vincent Vidal. Algorithmique de la Planification en IA. Cépaduès. 2004.

Jeux [3.8]

  • Georgios Yannakakis et Julian Togelius. Artificial Intelligence and Games (1st edition). Springer. 2018.

Créativité [3.9]

  • Mira Balaban, Kemel Ebcioglu et Otto Laske (Eds). Understanding Music With AI – Perspectives on Music Cognition, MIT Press. 1992.
  • Diana Raffman. Language, Music and the Mind. MIT Press. 1993.
  • Patrick Saint-Dizier. Musical Rhetoric: Foundations and Annotation Schemes. Wiley. 2014.

Robotique [4.1]

  • Rodney Brooks. Elephants Don’t Play Chess. Robotics and Autono-mous Systems, vol. 6, pp. 3-15. 1990.
  • Kevin Lynch et Frank Park. Modern Robotics: Mechanics, Planning, and Control. Cambridge University Press. 2017.
  • Sebastian Thrun. Toward Robotic Cars. Communications of the ACM, vol. 53, pp. 99-106. 2010.

Interaction personne machine [4.2]

  • Justine Cassell, Joseph Sullivan, Scott Prevost et Elizabeth Churchill(Eds). Embodied Conversational Characters. MIT Press. 2000.
  • Rafa Calvo, Sidney D’Mello, Jonathan Gratch et Arvid Kappas (Eds). Handbook of Affective Computing. Oxford University Press. 2015.
  • Klaus Scherer, Tanja Bänziger et Etienne Roesch (Eds). A Blueprint for Affective Computing – A Sourcebook. Oxford University Press. 2010.

Neurosciences [4.6]

  • Thomas Trappenberg. Fundamentals of Computational Neuros-cience. Oxford University Press. 2002.
  • Ron Sun et Frédéric Alexandre. Connectionist-Symbolic Integra- tion : From Unified to Hybrid Approaches (3rd edition). Taylor & Francis Group. 2013.

Psychologie [4.7]

  • Jean-François Bonnefon. La Voiture qui en Savait Trop: l’Intelligence Artificielle a-t-elle une Morale? Humensciences. 2019.
  • Stevan Harnad. The Symbol Grounding Problem. Physica D, vol. 42, pp. 335–346. 1990.
  • Daniel Kahneman. Thinking, Fast and Slow. Farrar, Straus and Gi- roux. 2011. Traduction française: Système 1 / Système 2 – Les Deux Vitesses de la Pensée. Flammarion. 2012.

Éthique [5.5]

  • Jean-Gabriel Ganascia. Le Mythe de la Singularité. Seuil. 2017.
  • Lignes Directrices en Matière d’Éthique pour une IA Digne de Confiance. Par un groupe d’experts de haut niveau sur l’intelligence artificielle, 56 pages. Commission européenne. 2019. https://ec.europa.eu/digital-single-market/en/news/ethics-guide- lines-trustworthy-ai.

Pour conclure

Lectrice, lecteur, te voilà au terme de cet ouvrage. Tu as sans doute découvert que l’intelligence artificielle a de multiples facettes, qu’elle ne se réduit pas à un paradigme simple et unique, et que derrière des prouesses technologiques, il y a une grande variété de questions scientifiques. Sans doute cette multiplicité de facettes peut-elle nuire à une appréhension simple de cette discipline. Cet ouvrage s’est efforcé néanmoins de fournir une image construite, espérons-le pas trop brouillée, de la richesse des problématiques de l’intelligence artificielle.

Dire que l’intelligence artificielle consiste à faire faire à des machines des tâches réputées requérir pour l’homme de l’intelligence, n’éclaire que fort peu sur la réalité des recherches dans ce domaine. De même qu’il y a plusieurs types d’intelligence chez les humains selon les capacités particulières dont ils font montre et qu’ils développent, il y a plusieurs formes d’intelligence artificielle. Certaines sont essentiellement réactives et concernent des tâches mettant en jeu principalement la perception et la reconnaissance d’entités ou de situations, tandis que d’autres sont orientées vers l’exploitation de contraintes, le raisonnement et l’explication, et utilisent des approches souvent différentes. L’intelligence artificielle n’est pas plus simple à appréhender que l’intelligence humaine !

5.5. IA et éthique

L’intelligence artificielle et, plus généralement, l’informatique, trans- forment bien des aspects de nos vies en ouvrant de nouvelles opportunités d’actions, de nouveaux choix et, en conséquence, de nouvelles responsabilités. Ainsi, si l’apprentissage machine permet d’anticiper les risques d’accidents avec une grande précision, le caractère mutualiste des assurances pourrait, si l’on n’y prend garde, s’affaisser progressi- vement. De même, avec des systèmes d’aide au diagnostic entraînés par apprentissage, les médecins pourraient se conformer aveuglément aux suggestions des machines pour éluder leurs responsabilités. Et, si les robots agissent de façon autonome, c’est-à-dire sans intervention humaine, et qu’ils se reprogramment eux-mêmes par apprentissage, à partir d’immenses quantités d’exemples, il se pourrait qu’ils deviennent imprévisibles et provoquent de grands dommages. Pour toutes ces rai- sons, il importe aujourd’hui de réfléchir collectivement à la place que nous accorderons aux machines dans nos sociétés et aux prescriptions morales auxquelles nous asservirons leurs comportements. Cette ré- flexion relève de l’éthique, c’est-à-dire la branche de la philosophie qui s’intéresse aux principes qui régissent les comportements individuels et aux conséquences sociales et morales du développement des sciences et de leurs applications pratiques.

5.4. La machine devient plus intelligente que l’homme

Les machines nous dépassent depuis longtemps : elles font des multiplications mieux que la plupart d’entre nous; l’une d’entre elles a battu le champion du monde en titre aux échecs en 1997, une autre l’a emporté sur l’un des meilleurs joueurs au jeu de go en 2016. Cependant, affirmer qu’elles deviennent plus intelligentes supposerait que l’intelligence serait quantifiable, autrement dit qu’il s’agirait d’une substance que l’on peut mesurer, comme la notion de quotient intellectuel le laisse faussement entendre. Or, l’intelligence recouvre au moins trois dimensions dont aucune n’est cumulative.

On range d’abord sous le terme intelligence un ensemble de facultés cognitives – par exemple la perception, la mémorisation, l’apprentissage, le raisonnement, l’imagination, l’aptitude à communiquer, etc. – à la fois innombrables, incomparables et plus ou moins développées selon les espèces, et, dans les espèces, selon les individus, ce qui fait qu’on ne saurait les additionner. Dans le cas des machines, ce sont les hommes qui attribuent ces facultés : sans nous, la perception, la mémorisation, le raisonnement et a fortiori l’intelligence des machines n’auraient aucun sens.

En deuxième lieu, l’étymologie latine du mot « intelligence », inter-legere, renvoie à la capacité à établir des liens (legere) entre (inter) des choses très éloignées, ce qui suppose des capacités d’intégration de connaissances* très variées que les machines actuelles, spécialisées dans une tâche unique, n’ont pas.

Enfin, l’intelligence renvoie à la réflexion, à la conscience morale, au libre arbitre, autrement dit à la capacité de choisir par soi-même et par là, d’engager sa propre responsabilité, alors que les ordinateurs ne font qu’exécuter des algorithmes et satisfaire des objectifs qui leur ont été donnés par les hommes.

5.3. L’IA change nos vies

L’intelligence artificielle est déjà depuis longtemps au cœur de nos vies sans que l’on s’en aperçoive. C’est grâce aux méthodes d’intelligence artificielle que l’on peut optimiser la planification de la production dans les usines, ou calculer les trajets optimaux pour des tournées de livraison en camion, et ainsi limiter le gaspillage et les pertes; mais également vérifier que les processeurs d’ordinateurs et de téléphones fonctionnent correctement, que les logiciels ont moins de bugs*, etc.

Sa présence est désormais visible partout grâce au déploiement des or- dinateurs et d’internet. C’est grâce à l’intelligence artificielle que l’on peut facilement trouver une information sur internet, que l’on peut par- ler avec son téléphone ou tout autre appareil, que l’on peut nous proposer un film, un morceau de musique ou un produit que l’on est susceptible d’aimer, que l’on peut avoir des robots-aspirateurs ne se cognant pas partout, et que l’on peut concevoir des véhicules de plus en plus autonomes. Bref, cela nous simplifie grandement la vie au quotidien.

En santé, l’intelligence artificielle va permettre d’améliorer les soins des patients, en permettant une meilleure détection des maladies, et une meilleure personnalisation des traitements. Elle pourra également assister et entraîner les médecins.

En ce qui concerne le monde du travail, l’intelligence artificielle va permettre d’automatiser un grand nombre de tâches répétitives, ce qui permettra à beaucoup d’employés de se concentrer sur les tâches les plus intéressantes de leur emploi.

Globalement, nous disposerons bientôt, pour un grand nombre d’activités, de petits oracles informatiques, à qui on pourra demander conseil ou déléguer un certain nombre de tâches. Ceci nous permettra de prendre plus rapidement nos décisions, de gagner du temps, et de pouvoir nous concentrer sur des activités plus importantes et plus intéressantes.

Cela nécessitera néanmoins d’apprendre à utiliser ces techniques convenablement, c’est-à-dire en particulier qu’il ne faudra pas laisser ces oracles prendre des décisions importantes ou critiques seuls, mais qu’ils restent à leur place en nous fournissant une aide à la décision, et que ce soit l’humain qui prenne la décision finale lui-même.

Finalement, rappelons que, comme toute autre discipline ayant un impact important sur la société, l’intelligence artificielle peut être également utilisée à de mauvaises fins. Ainsi, les chercheurs ont pu à bon droit demander l’encadrement et la limitation de son usage dans les nouvelles générations de systèmes d’armes. Il importe donc que la société (en particulier, via des comités d’éthique) veille à identifier, réguler ou interdire les usages nocifs potentiels.

5.2. Plusieurs sortes d’IA ?

Il n’aura pas échappé au lecteur attentif de ce petit livre que l’intelligence artificielle est diverse dans ses préoccupations et ses méthodes, même si tous ses travaux relèvent, d’une manière ou d’une autre, de la conception de systèmes offrant des fonctionnalités en rapport avec la réalisation de tâches réputées complexes. Depuis les débuts de l’intelligence artificielle il y a eu des chercheurs qui ont rêvé de construire des cerveaux artificiels dotés de capacités cognitives riches, et des chercheurs qui se sont attachés à développer des systèmes artificiels capables de réaliser de manière très performante des fonctions particulières, comme la déduction automatique, ou la reconnaissance de formes par apprentissage, pour prendre deux exemples. Pour mécaniser de telles fonctions, l’intelligence artificielle peut faire appel à des modélisations* très différentes, fondées sur la logique* (on parle d’« IA symbolique »), ou sur des modèles quantitatifs, inspirés en particulier par les statis- tiques et le traitement du signal (on parle alors d’« IA numérique »). Une autre formulation plus actuelle se référant à des notions proches de cette dichotomie est d’opposer IA basée sur les connaissances* et IA basée sur les données*. S’il est clair que les connaissances sur le monde sont issues ultimement d’observations, donc de données, on peut aussi avoir besoin de manipuler les connaissances de façon explicite (ce qui peut se faire avec des outils logiques ou numériques comme des réseaux bayésiens* par exemple). Mais il existe aussi des situations où il est inté- ressant d’utiliser des connaissances et des données conjointement.

Même si dès l’origine l’ambition de créer une “intelligence artificielle” en modélisant le cerveau a été affichée, force est de constater que ce Graal n’est pas encore atteint et que des voix s’élèvent régulièrement pour suggérer que comprendre le cerveau de façon unifiée n’est pas à notre portée et qu’il vaut mieux voir l’intelligence artificielle comme un ensemble de techniques pour résoudre différents problèmes. Ceci se réfère à la distinction, quelquefois faite, entre « IA faible » (réalisa- tion de tâches spécifiques, telles que décrites dans ce document) et « IA forte » (avec un modèle complet de cerveau, une machine pourrait ras- sembler l’ensemble des compétences intelligentes d’un humain), aussi appelée « Intelligence Artificielle Générale ». Ces questions impactent à l’évidence différents domaines de la philosophie, comme la théorie de l’esprit, l’étude de la conscience et, bien sûr, l’éthique. Débattre de la pertinence d’une forme d’intelligence artificielle plutôt qu’une autre est légitime, tant que l’on reste dans le cadre de démarches scientifiques falsifiables et que l’on ne se cantonne pas au simple énoncé de croyances. Ces débats ne doivent en aucun cas obérer la poursuite de différents programmes scientifiques, tant sur la modélisation du cerveau dans le cadre de l’intelligence artificielle que sur la conception et la réalisation de systèmes dédiés à des tâches spécifiques.

5.1. Un algorithme = une intelligence artificielle ?

Les médias identifient souvent algorithmes et intelligence artificielle. Nous voulons ici souligner le fait que ces deux notions sont disjointes: un algorithme, ce n’est pas forcément de l’intelligence artificielle. Et il y a d’autres questions en intelligence artificielle que les questions algorithmiques.

L’essentiel ici est de définir ce qu’est un algorithme. Ce qui est finalement assez simple: il s’agit de décomposer la résolution d’un problème en une séquence d’instructions simples, qui permet, lorsqu’on applique cette séquence à un ensemble d’entrées, d’obtenir le résultat visé.

Pour montrer qu’un algorithme n’a pas besoin d’un ordinateur, il suffit de parler d’un algorithme que tout un chacun a déjà pu mettre en œuvre: une recette de cuisine. Une recette est une séquence d’instructions simples (éplucher tel aliment, mélanger, cuire, etc.) qui, lorsqu’on l’applique aux entrées (les aliments nécessaires), produit (normalement) le plat souhaité.

Pour un programme informatique, c’est exactement la même chose : les entrées ce sont les données*, et on doit décomposer le problème en ins- tructions simples que comprend la machine (et qui se résument habituellement à aller chercher une donnée, à la modifier, et à la sauvegarder ou à l’afficher).

Toute fonction, tout programme d’un ordinateur ou d’un robot correspondent donc à un algorithme. Mais certains de ces algorithmes n’ont rien à voir avec la cognition, avec la résolution de problème, et donc rien à voir avec l’intelligence artificielle. Pensez par exemple à l’ensemble des programmes qui permettent à votre ordinateur de jouer un morceau de musique.

Pour exécuter un programme d’intelligence artificielle (ce que certains résument par “une intelligence artificielle”) sur une machine, il faut l’écrire dans un code informatique, et il faut donc un algorithme. Le problème algorithmique fait donc partie des étapes par lesquelles il faut passer. Mais ce n’est pas la seule étape.

Il y en a bien d’autres qui sont souvent bien plus compliquées,comme :

  • trouver comment modéliser le problème (en faire une abstraction sur laquelle on pourra travailler), ce qui nécessite en général des connais- sances* ;
  • trouver comment le résoudre ;
  • étudier si on peut effectivement trouver un algorithme permettant d’obtenir une réponse en un temps raisonnable (problème de complexité algorithmique*), ce qui est loin d’être toujours le cas;
  • éventuellement trouver comment approximer la réponse.

4.8. IA et sciences humaines et sociales

L’intelligence artificielle entretient des interactions dans deux directions avec les sciences humaines et sociales (SHS): d’une part, l’intelligence artificielle permet d’élargir le champ d’étude des disciplines concernées des SHS en y apportant de nouveaux outils; d’autre part, les SHS apportent des paradigmes et méthodes permettant de mieux analyser les impacts sociétaux de l’intelligence artificielle.

IA et sciences économiques. L’entrée de l’intelligence artificielle dans ce champ disciplinaire a eu lieu à partir des années 1990. Les sciences économiques posent souvent des postulats de rationalité des agents en situation de prise de décision qui, s’ils sont souvent discutables lorsqu’il s’agit de modéliser le comportement humain, s’avèrent précieux pour la branche de l’intelligence artificielle qui cherche à programmer de tels agents. Notamment, les recherches en planification font largement appel à la théorie de la décision, tandis que les systèmes multi-agents* font appel à la théorie des jeux* et à la théorie du choix social. À l’inverse, les méthodes de simulation à base d’agents permettent de questionner certaines théories économiques, en procédant à des expérimentations “in silico*”.

IA et droit. Le développement de modèles formels et d’algorithmes permet d’automatiser le raisonnement et la décision à partir de connaissances* légales. Par ailleurs, la constitution de grandes masses de données juridiques se prête, au moyen de tâches d’apprentissage, à l’analyse des décisions juridiques et à l’aide à la jurisprudence (dans ce cadre, mentionnons le problème important des biais d’apprentissage, qui peuvent conduire à des décisions injustes envers certains groupes d’individus); on parle du problème d’équité (“ fairness in Machine Learning”). Enfin, dans la direction opposée, l’intelligence artificielle est devenue un objet d’étude du droit, notamment pour tenter de régler les problèmes légaux et éthiques liés au déploiement des algorithmes d’intelligence artificielle, des robots, drones, et autres véhicules autonomes.

IA et philosophie. Diverses branches de l’intelligence artificielle, notamment la représentation des connaissances, le raisonnement automatisé, les agents autonomes, et les architectures cognitives, sont largement fondées sur des modèles issus de la philosophie (notamment la logique*, la philosophie du langage, et la théorie de l’esprit). D’ailleurs, de nombreuses questions sont étudiées par les deux communautés (telles que: qu’est-ce qu’une connaissance? Qu’est-ce que la vérité? etc.). Par ailleurs, l’intelligence artificielle pose des questions difficiles (notamment des questions éthiques, l’identité des agents autonomes, la place de l’intelligence artificielle dans la société, sans oublier le test de Turing*) sur lesquelles se penchent certaines branches de la philosophie.

IA et sciences des réseaux. À la frontière de l’intelligence artificielle, l’étude des systèmes complexes a été à l’origine d’un nouveau champ de recherche en sociologie: l’analyse des réseaux (entre individus dans un réseau social, entre pages web) et des communautés numériques. Outre cette analyse des réseaux sociaux et de la structure sociale du web, la représentation des connaissances et le raisonnement automatisé ont permis des avancées considérables en ce qui concerne la représentation et la manipulation des ontologies*, et ses applications au web sémantique*.

IA et humanités numériques. Débordant le périmètre de l’intelligence artificielle, les humanités numériques ont pour vocation d’appliquer méthodes et outils numériques aux SHS (en particulier, à la littérature). Les outils de reconnaissance de formes sont évidemment précieux pour analyser documents anciens, sons ou musiques. Le traitement automatisé des langues naturelles et l’analyse de sentiments ont aussi un impact majeur en ce qui concerne l’analyse et la classification de nouvelles sources documentaires: blogs, tweets, sites web, voire débats en ligne.