Press "Enter" to skip to content

Author: konieczny

2.2. Raisonner, décider

Un des thèmes majeurs de l’intelligence artificielle est la formalisation et l’automatisation du raisonnement humain. En effet, la capacité de raisonner de façon articulée pour résoudre des problèmes, prendre des décisions rationnelles et les expliquer est souvent considéré comme étant le propre de l’esprit humain, tandis que la faculté d’effectuer de façon purement réactive des actions non triviales pour reconnaître son environnement, s’y déplacer ou le modifier est partagée par nombre d’animaux.

Le souci de formaliser le raisonnement délibératif remonte au moins à l’antiquité avec les travaux d’Aristote autour des syllogismes. Cette tradition a été considérablement étudiée au cours du temps pour donner naissance à la logique* classique au milieu du XIXe siècle. Mais la logique classique a surtout été développée pour servir de fondement aux mathématiques, et non pour rendre compte du raisonnement humain. Néanmoins, on peut la voir comme une idéalisation de celui-ci, et de nombreux travaux portant sur la démonstration automatique de théorèmes en intelligence artificielle ont vu le jour.

À partir de la seconde moitié du XXe siècle, et surtout au début des années 1980, des logiques non classiques sont apparues, qui se sont avérées plus naturelles, souples ou expressives que la logique classique dans l’optique de formaliser diverses formes de raisonnements humains.

On a vu éclore:

  • les logiques épistémiques* qui raisonnent sur la notion de connaissance et l’introspection (savoir qu’on sait) et ses extensions multi-agents* qui prennent en compte le fait que nos décisions sont influencées non seulement par nos connaissances* sur le monde, mais aussi par ce que l’on sait des connaissances d’autres agents ;
  • les logiques non monotones* qui se focalisent sur la capacité de tirer des conclusions plausibles en l’absence d’information suffisante (à partir de règles ayant des exceptions implicites comme “typiquement les oiseaux volent”), conclusions qui sont révisables si de nouvelles informations arrivent (si on apprend que “l’oiseau [dont on parle] est une autruche”) ;
  • les logiques paraconsistantes* qui cherchent à obtenir des déductions non triviales malgré la présence de contradictions ;
  • les logiques multi-valuées*, où la notion de vérité devient graduelle. Ces logiques sont fortement reliées aux ensembles flous*, à la représentation de concepts non booléens du langage naturel, et au raisonnement interpolatif ;
  • les logiques de l’incertain qui attachent des degrés de croyance (par exemple des probabilités*) aux formules. Certaines théories de l’incertain, telle la théorie des possibilités* (pour traiter l’information incomplète) se marient très bien avec la logique, mais d’autres (telle la théorie des probabilités) mènent à des formalismes plus complexes, et se tournent vers l’utilisation de représentations graphiques ;
  • diverses logiques qui formalisent des contextes spécifiques, telles que les logiques temporelles, spatiales, celles qui formalisent les préférences d’agent, les logiques déontiques qui raisonnent sur la notion d’obligation et de permission, etc.

D’autres formes de raisonnement sont l’objet de recherches actives, tels le raisonnement abductif (où l’on cherche les causes les plus plausibles qui expliquent une observation), le raisonnement inductif (qui crée des règles génériques à partir d’un ensemble d’exemples factuels, permettant ainsi l’apprentissage), le raisonnement à partir de cas (on raisonne en se basant sur des exemples déjà rencontrés), ou le raisonnement analogique (qui met en correspondance des paires d’objets en exploitant leurs similarités et leurs différences).

Ces travaux ont fait apparaître des problématiques transversales qui sont pertinentes quels que soient les formalismes. Plusieurs d’entre elles concernent le fait que l’humain raisonne souvent en présence d’informations contradictoires, une problématique absente de la logique mathématique.

Notons en particulier :

  • la révision des connaissances (appelée “révision de croyances” en intelligence artificielle) : l’arrivée de nouvelles informations peut mener à remettre en cause nos connaissances sur l’état du monde. Cette contradiction est résolue en effectuant un changement minimal des connaissances antérieures de manière à incorporer la nouvelle information ;
  • la mise à jour : dans ce cas la contradiction avec les nouvelles informations vient du fait que le monde a évolué et il faut éliminer les informations devenues fausses ;
  • la fusion d’informations : la contradiction provient d’informations issues de plusieurs sources en conflit. Le problème est de combiner ces informations en restaurant la cohérence tout en prenant en compte toutes les sources.

Un autre aspect de la recherche en intelligence artificielle concerne les méthodes pour la décision. On peut considérer que le raisonnement dans toutes ses formes est une étape préliminaire pour pouvoir ensuite décider d’une action à entreprendre. La plupart du temps on décide sur la base de nos connaissances sur le monde. La décision peut être multicritère (par exemple le choix d’une nouvelle voiture en fonction du prix, de la consommation, des performances, etc.), ou en présence d’incertitude (décider de notre heure de départ pour arriver à temps étant donné les possibilités d’embouteillages). Les spécificités de l’intelligence artificielle sur ce thème ont été, d’une part la proposition de cadres qualitatifs pour représenter des préférences conditionnelles et définir des critères robustes de décision, et d’autre part, d’étudier des problèmes de décision multi-étapes en présence d’observations partielles. Des logiques dynamiques de l’action, qui utilisent la logique épistémique multi-agents, ont été également proposées pour traiter des problèmes de robotique cognitive*.

Enfin, l’argumentation intéresse depuis le début des années 1990 les chercheurs en intelligence artificielle. Elle peut être utilisée pour modéliser différentes formes de raisonnements, pour l’aide à la décision, et pour générer des explications. Elle joue aussi un rôle important dans les interactions multi-agents et en particulier dans des dialogues de persuasion et de négociation. Dans toutes ces applications, l’argumentation est un processus qui consiste à soutenir des thèses par des arguments qui peuvent prendre différentes formes, avoir différentes forces, être plus ou moins pertinents vis-à-vis de la thèse défendue.

2.1. Représenter l’information

Dans toutes ses tâches, l’intelligence artificielle (IA) manipule et exploite des informations. Ces informations doivent donc être représentées de façon à pouvoir être traitées par ordinateur. L’intelligence artificielle est, en effet, une des disciplines des sciences du traitement de l’information, à côté d’un certain nombre d’autres spécialités que sont notamment, les bases de données (qui permettent de stocker de l’information factuelle et de la retrouver efficacement), la recherche d’infor mation (qui sélectionne des documents pertinents dans un corpus à partir de requêtes en termes de mots-clés), la recherche opérationnelle (qui cherche des bonnes solutions pour des problèmes posés en termes de contraintes* à satisfaire et de critères à optimiser), l’interaction humain-machine (qui s’intéresse aux interfaces de communication), l’automatique (qui porte sur la commande de systèmes dynamiques), et le traitement du signal et des images (qui concerne leur analyse, interprétation, et transmission). La reconnaissance des formes, historiquement sœur de l’intelligence artificielle, et tendant maintenant à se fondre avec la partie de l’intelligence artificielle tournée vers l’apprentissage

automatique, développe des méthodes afin de catégoriser des objets en identifiant des motifs caractéristiques dans des données* les décrivant.

La représentation des connaissances est une branche de l’intelligence artificielle qui vise la formalisation de connaissances* produites et verbalisables par les humains: ces connaissances expriment des faits (par exemple, “il pleut”), des lois générales (par exemple, “les hommes sont mortels”) ou susceptibles d’exceptions (par exemple, “les oiseaux volent”), de façon à pouvoir automatiser divers raisonnements.

On parle de connaissances pour les distinguer des informations factuelles, qui se rapportent à des faits particuliers (par exemple, “Marie a 27 ans”): ces faits correspondent à des données et sont souvent vus comme des triplets “attribut, objet, valeur” (par exemple, “l’âge de Marie est 27 ans”).

Les connaissances s’énoncent souvent avec des règles de la forme “si <condition(s)> alors <conclusion>”, qui permettent d’exprimer des relations de conséquence qui peuvent se rapporter à une taxonomie (“si c’est un corbeau, alors c’est un oiseau”), à la causalité (“si le véhicule va trop vite, alors il dérapera”), ou à une recommandation (“si on est déshydraté, alors il faut boire”). Un type important de connaissances est constitué par les ontologies* de domaine, qui décrivent les relations taxonomiques entre les termes de vocabulaire d’un domaine spécialisé, par exemple médical. Un autre type d’information, qui ne concerne pas la description de l’état du monde, est constitué par les préférences ou les buts d’un agent (humain ou artificiel), ou de groupes d’agents.

La représentation des connaissances s’appuie souvent sur le formalisme de la logique* classique, propositionnelle, ou du premier ordre qui permet alors d’introduire des quantifications universelles (par exemple, “pour tout x, si x est un homme, alors x est mortel”, exprimé en logique par la formule “∀ x, homme(x) → mortel(x)”), ou existentielles (par exemple, “il existe x, tel que x est un homme et x a marché sur la lune”, soit en logique

“∃x, homme(x) ∧ a_marche_sur_la_lune(x)”). La logique classique est cependant insuffisante pour raisonner en présence de règles avec exceptions, ou d’informations incohérentes (cf. la section suivante “Raisonner, décider”).

Une large part de l’information disponible sur laquelle on raisonne est incertaine. Le cadre classique de traitement de l’incertitude est celui de la théorie des probabilités*. Ce cadre est approprié quand on dispose de statistiques de bonne qualité sur la variabilité de quantités ou de traits caractéristiques (par exemple le nombre de jours où il pleut en avril à Toulouse). D’autres cadres de représentation plus récemment introduits, comme les probabilités imprécises*, la théorie des possibilités*, ou les fonctions de croyance* peuvent s’avérer intéressants quand l’incertitude est épistémique, c’est-à-dire qu’elle est due à un manque relatif d’information plutôt qu’à la variabilité d’un phénomène (par exemple, ce que l’on sait de l’âge d’une personne déterminée sur laquelle on est peu renseigné). Les informations incertaines sont alors associées à des modalités (qui peuvent être une question de degré) dans l’ordre du probable, du crédible, du plausible, du possible ou du certain. D’autres types de modalités sont utiles pour la représentation de relations temporelles ou spatiales, mais aussi des émotions, ce qui a motivé le développement de nombreuses logiques modales*.

Par ailleurs, les énoncés avec des prédicats de la logique classique ne peuvent être que vrais ou faux. Mais si on utilise des propriétés de nature graduelle, comme “jeune” ou “grand” par exemple, alors l’énoncé “Jean est grand ” peut éventuellement être considéré comme ayant un degré de vérité intermédiaire entre le vrai et le faux si Jean mesure 1,75 m. C’est l’idée de départ de la logique* dite floue*.

Des langages de représentation basés sur des fragments de la logique classique, ou des extensions limitées de cette logique qui maintiennent la complexité* des algorithmes de raisonnement à un niveau acceptable font l’objet d’études spécifiques pour différentes tâches de raisonnement.

Les cadres de représentation offerts par la logique classique ou par les différents modèles de l’incertain ont des équivalents graphiques (graphes conceptuels*, réseaux bayésiens*, etc.), qui présentent l’intérêt de visualiser des relations taxonomiques pour les premiers, ou des relations d’indépendance conditionnelle pour les seconds.

Un autre cadre de représentation très différent est celui des réseaux de neurones artificiels*, où l’information réside dans les poids associés aux nœuds du réseau, mais qui est difficilement interprétable en termes intelligibles par l’humain.

1. L’IA : ambitions et histoire

Des travaux en relation avec la formalisation du raisonnement et de la décision ou la conception de machines présentant de l’autonomie ont débuté longtemps avant la “création” de l’intelligence artificielle. Cette histoire, qu’il serait trop long de conter ici, passe en particulier par les noms d’Aristote, de Ramon Llull, de Gottfried Leibniz, de Thomas Bayes, de Georges Boole, ou d’Augustus De Morgan.

L’acte de naissance de l’Intelligence Artificielle (IA) correspond à un programme de rencontres organisées à Dartmouth College (Hanover, New Hampshire, USA) ayant réuni une dizaine de personnes pendant l’été 1956, à l’initiative de deux jeunes chercheurs qui, dans des registres différents, allaient fortement marquer le développement de la discipline : John McCarthy et Marvin Minsky, le premier défendant une vision purement logique* de la représentation des connaissances, le second travaillant alors sur les neurones* formels et les perceptrons*, et qui privilégierait plus tard l’usage de représentations structurées (appelées en anglais “ frames”) de stéréotypes de situations pouvant inclure différents types d’information. C’est à cette occasion que l’expression “Artificial Intelligence” (choisie par McCarthy) fut utilisée pour la première fois de manière systématique pour désigner le nouveau champ de recherche; elle était cependant loin de faire l’unanimité parmi les chercheurs présents, certains ne voyant là que du traitement complexe d’informations. Cette initiative avait bénéficié du soutien de deux autres chercheurs déjà reconnus, Claude Shannon, père de la théorie de l’information et du calcul binaire sur machines, et Nathaniel Rochester, concepteur du premier ordinateur commercial. D’autres participants à ces rencontres,

Alan Newell et Herbert Simon, allaient aussi avoir un impact particulièrement important sur le développement de l’intelligence artificielle, ainsi que Ray Solomonoff et Oliver Selfridge en apprentissage et en reconnaissance des formes.

Les rencontres de Dartmouth étaient le résultat d’une effervescence qui avait débuté un peu avant 1950 autour de questions liées à la possibilité de construire des “machines à penser”, voire des “machines pensantes” (“thinking machines”), et à la comparaison du fonctionnement du cerveau humain avec les premiers ordinateurs qui venaient d’apparaître (et qui étaient essentiellement tournés vers le calcul numérique). La naissance de l’intelligence artificielle a été ainsi plus ou moins directement influencée par différents travaux, notamment ceux de Warren McCulloch et Walter Pitts qui, inspirés par la neurophysiologie, proposaient les tout premiers modèles de réseaux de neurones artificiels, ceux de Norbert Wiener sur la cybernétique (science centrée sur l’étude des mécanismes de communication et de contrôle des machines et des êtres vivants), ceux de Claude Shannon en théorie de l’information, ceux de John von Neumann sur l’architecture des calculateurs, et ceux d’Alan Turing sur les fonctions calculables par machine.

C’est aussi en 1956 que Alan Newell et Herbert Simon (en collaboration avec John Cliff Shaw), proposent un premier programme d’ordinateur capable de démontrer des théorèmes en logique, avant de bientôt présenter un “résolveur de problème général” (“General Problem Solver”), basé sur l’évaluation de la différence entre la situation à laquelle le résolveur est arrivé et le but qu’il doit atteindre.

L’intelligence artificielle s’intéresse dès ses débuts au développement de programmes capables de jouer aux échecs (Claude Shannon aborde le problème dans plusieurs articles dès 1950). Les premiers programmes, notamment ceux de Arthur Samuel et Alex Bernstein, apparaissent au début des années 60, et au fil des décennies arrivent à battre des joueurs de niveaux de plus en plus élevés. La recherche des années 1970 dans

ce domaine est marquée par l’idée de doter la machine de capacités de mise en œuvre de stratégies sophistiquées évoluant dynamiquement avec le jeu (comme dans les travaux de Hans Berliner). C’est cependant d’abord la puissance calculatoire de l’ordinateur, capable d’explorer de gigantesques espaces combinatoires, qui viendra à bout du champion du monde de la discipline (victoire de l’ordinateur Deep Blue sur Gary Kasparov, en 1997).

Parmi les travaux variés qui marquèrent les débuts de l’intelligence artificielle, mentionnons encore le programme de Thomas Evans (1963) capable, comme dans un test d’intelligence, de trouver par analogie la quatrième figure géométrique complétant une série de trois (ce qui nécessitait aussi une représentation conceptuelle des figures), ou les systèmes propageant des contraintes*, comme dans l’approche de David Waltz (1975) pour interpréter dans une image les arêtes de solides et leurs positions relatives, qui devaient s’étendre par la suite à beaucoup d’autres domaines où la résolution par contraintes s’impose naturellement.

Le traitement de textes ou de dialogues en langage naturel tant au plan de leur compréhension, qu’au plan de leur production automatique, a préoccupé également l’intelligence artificielle très tôt. Le système ELIZA (de Joseph Weizenbaum) était capable, dès 1965, de dialoguer, à l’écrit, en langage naturel en trompant un moment des interlocuteurs humains qui croyaient avoir affaire à un autre humain! Pourtant ELIZA ne construisait aucune représentation des phrases du dialogue et donc n’en détenait aucune compréhension: il repérait des expressions clés dans des phrases et reconstruisait des phrases toutes faites. C’est sans doute le système SHRDLU de Terry Winograd qui, en 1971, fut le premier à construire de telles représentations et à les exploiter dans des dialogues qui portaient, dans un monde simplifié, sur les positions relatives de blocs de différentes formes, tailles, et couleurs.

Les années 1970 et le début des années 1980 sont marquées par la réalisation de nombreux systèmes experts (DENDRAL en chimie, MYCIN en médecine, HEARSAY-II en compréhension de la parole, PROSPECTOR en géologie). Ces systèmes modélisent la connaissance d’experts dans un domaine spécialisé sous forme de règles “si… alors…”. En appliquant ces règles sur un ensemble de faits décrivant une situation particulière, le système peut produire certaines conclusions, pour établir un diagnostic ou faire une prédiction par exemple.

Les années 1970 ont été aussi l’occasion des premières expérimentations avec des robots mobiles (comme par exemple le robot Shakey du SRI à Menlo Park en Californie), qui posaient conjointement des problèmes de vision par ordinateur, de représentation des connaissances, et de planification d’activités et de trajectoires. Une dizaine d’années plus tard, Rodney Brooks, au MIT, s’intéressera à des sociétés de robots réactifs à leur environnement immédiat, mais agissant sans représentation construite du monde dans lequel ils évoluent.

Les années 1980 sont marquées par le développement de la programmation logique (avec le développement du langage PROLOG*), à la base du projet japonais d’ordinateurs de 5e génération, et de la résolution symbolique de problèmes (avec les langages PROLOG et LISP).

Les années 1990 voient l’avènement des réseaux bayésiens*, et plus généralement la modélisation en termes de probabilités de l’incertain, à la suite des travaux pionniers de Judea Pearl, qui ont permis de développer une algorithmique efficace et bien fondée pour traiter ce type de représentation des connaissances*. Dans ces mêmes années les systèmes de règles floues, basés sur la logique floue* de Lotfi Zadeh, trouvent de nombreuses applications, notamment dans le pilotage automatique de processus mécaniques.

Dans les années 2000, le développement du web et des bases de données induisent une disponibilité grandissante des données*, ce qui conduit au développement de méthodes de fouille de données (“data mining” en anglais), qui visent à la découverte de connaissances à partir de grandes

masses de données. On peut également mentionner l’essor des systèmes multi-agents*, intégrant notamment des modélisations venant de la théorie de la décision, de la théorie des jeux, de l’argumentation, etc.

Ces dernières décennies, l’intelligence artificielle s’est développée dans de multiples directions, en étudiant les fondements théoriques de la représentation de l’information et de la déduction logique, en faisant progresser les algorithmes de résolution de problèmes (tels que les problèmes de satisfaction de contraintes, par exemple), et en obtenant des résultats spectaculaires en apprentissage. De fait, l’intelligence artificielle et ses applications ont connu depuis le milieu des années 2010 un regain considérable d’intérêt scientifique et médiatique, tiré, pour beaucoup, par les succès de l’apprentissage automatique, et en particulier des réseaux de neurones profonds*.

Les réseaux de neurones* ont été longtemps négligés à cause des limitations des perceptrons et des problèmes calculatoires posés par les réseaux de neurones plus généraux. Un regain d’intérêt a eu lieu dans les années 1980-1990 avec les travaux notamment de Yann Le Cun, Yoshua Bengio, Geoffrey Hinton et David Rumelhart sur l’algorithme de rétropropagation du gradient* et les réseaux convolutifs*, qui ont permis la mise en œuvre et l’amélioration des performances de ces réseaux. Mais la résurgence actuelle des réseaux de neurones a été surtout permise par l’augmentation des capacités de calcul des ordinateurs (avec à présent des processeurs dédiés à ces calculs) et la disponibilité massive des données nécessaires à ces algorithmes d’apprentissage profond. Ces derniers sont devenus incontournables pour les tâches de perception, et sont à présent à la base des méthodes les plus performantes de traitement d’images et du langage naturel.

Comme beaucoup de disciplines scientifiques ayant des retombées technologiques susceptibles d’être médiatisées, l’intelligence artificielle a connu une alternance d’époques d’engouement (et de soutien des agences de financement) à l’occasion d’avancées remarquables, et d’époques de dédain et de vaches maigres (les “hivers de l’IA”).

Comme le montre ce bref aperçu historique (Pour plus de détails sur l’histoire de l’intelligence artificielle voir le chapitre de Pierre Marquis, Odile Papini et Henri Prade. Éléments pour une histoire de l’intelligence artificielle, dans le Panorama de l’Intelligence Artificielle. Vol. 1, Cépaduès, pp. 1-39. 2014.), l’intelligence artificielle s’est largement développée d’abord aux États-Unis avant d’intéresser des chercheurs en Europe puis en Asie à partir du milieu des années 1970. Pour ce qui est de la France, si on excepte des pionniers de la cybernétique (Louis Couffignal, Paul Braffort), et si l’on ne s’en tient qu’à des recherches se réclamant explicitement de l’intelligence artificielle, les premières équipes françaises dans ce domaine furent créées à Paris, puis à Marseille sous les impulsions respectives de Jacques Pitrat (qui a en particulier mis en lumière le rôle des métaconnaissances* dans les processus de résolution de problèmes et d’apprentissage), et d’Alain Colmerauer (père d’un langage de programmation, PROLOG, basé sur la logique et qui a marqué l’intelligence artificielle).

Des équipes d’intelligence artificielle devaient ensuite bientôt naître progressivement dans d’autres grands centres: Toulouse, Grenoble, Nancy, Rennes, Montpellier, Lens… Aujourd’hui, presque tous les laboratoires d’informatique comptent des chercheurs en intelligence artificielle.

Objectifs de cet ouvrage

L’intelligence artificielle est née il y a plus de 60 ans lorsque ce terme a été utilisé pour désigner la problématique d’automatisation de différentes capacités cognitives, que l’on ramène souvent à la question de savoir si une machine peut penser (“Can machines think?” étant la question d’un célèbre article d’Alan Turing** publié en 1950).

Depuis lors, les progrès ont été nombreux et l’intelligence artificielle est utilisée pour résoudre un grand nombre de problèmes de notre vie de tous les jours, sans que l’on y prête attention.

L’intelligence artificielle a été particulièrement mise en lumière ces dernières années, suite aux avancées obtenues en apprentissage automatique, et ses applications à différents domaines, comme la reconnaissance d’images, le traitement du langage naturel, et le développement de véhicules autonomes.

Ainsi, tout le monde entend à présent parler d’intelligence artificielle, mais sans toujours savoir de quoi l’on parle vraiment. En effet, on peut facilement constater l’abondance de comptes rendus dans les médias mettant en avant une nouvelle prouesse de l’intelligence artificielle.

Ces annonces sont cependant trompeuses en faisant croire à une unité de “l’intelligence artificielle”. Or, depuis son origine, l’intelligence artificielle est un agrégat de différentes techniques pour différentes problématiques.

Ce constat était déjà posé dès la création de la discipline, lors de la conférence de Dartmouth, quand John McCarthy, Marvin Minsky et leurs collègues*** ont défini l’intelligence artificielle comme “la capacité [pour des machines] d’utiliser le langage, de former des abstractions et des concepts, de résoudre différentes familles de problèmes pour le moment réservés aux humains, et de s’améliorer elles-mêmes”. Ceci montre que l’on parle d’un ensemble de capacités différentes dont il faut comprendre les principes et qu’il faut automatiser pour pouvoir les simuler en utilisant un ordinateur ou un robot.

Le but de cet ouvrage est de faire le tour de la discipline “intelligence artificielle” en montrant cette diversité et en présentant les différentes techniques employées, tout en restant accessible à tous.

Il s’agit donc d’une introduction élémentaire à l’intelligence artificielle. Après une brève section historique, cet ouvrage est composé de 4 grandes parties :

  • La première présente les principaux paradigmes de l’intelligence artificielle.
  • La seconde illustre l’intelligence artificielle à l’œuvre au travers de neuf grandes thématiques où elle joue un rôle crucial.
  • La troisième partie est consacrée aux interactions importantes de l’intelligence artificielle avec d’autres disciplines.
  • Enfin une dernière partie aborde quelques questions fréquentes relatives à l’intelligence artificielle.

La structuration de l’ouvrage en sections largement indépendantes a été pensée pour permettre une lecture vagabonde, aussi bien qu’une approche linéaire du contenu. Un glossaire, en annexe, explique les termes techniques, dont l’emploi a été volontairement limité au strict nécessaire. Enfin une bibliographie est fournie pour le lecteur qui désirerait ensuite découvrir plus en profondeur certaines de ces problématiques.

** Computing machinery and intelligence. Alan Turing. Mind, vol 59, pp 433-460. 1950.

*** A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. John McCarthy, Marvin Minsky, Nathaniel Rochester, et Claude Shannon. 1955. https://doi.org/10.1609/aimag.v27i4.1904