Press "Enter" to skip to content

2.1. Représenter l’information

Dans toutes ses tâches, l’intelligence artificielle (IA) manipule et exploite des informations. Ces informations doivent donc être représentées de façon à pouvoir être traitées par ordinateur. L’intelligence artificielle est, en effet, une des disciplines des sciences du traitement de l’information, à côté d’un certain nombre d’autres spécialités que sont notamment, les bases de données (qui permettent de stocker de l’information factuelle et de la retrouver efficacement), la recherche d’infor mation (qui sélectionne des documents pertinents dans un corpus à partir de requêtes en termes de mots-clés), la recherche opérationnelle (qui cherche des bonnes solutions pour des problèmes posés en termes de contraintes* à satisfaire et de critères à optimiser), l’interaction humain-machine (qui s’intéresse aux interfaces de communication), l’automatique (qui porte sur la commande de systèmes dynamiques), et le traitement du signal et des images (qui concerne leur analyse, interprétation, et transmission). La reconnaissance des formes, historiquement sœur de l’intelligence artificielle, et tendant maintenant à se fondre avec la partie de l’intelligence artificielle tournée vers l’apprentissage

automatique, développe des méthodes afin de catégoriser des objets en identifiant des motifs caractéristiques dans des données* les décrivant.

La représentation des connaissances est une branche de l’intelligence artificielle qui vise la formalisation de connaissances* produites et verbalisables par les humains: ces connaissances expriment des faits (par exemple, “il pleut”), des lois générales (par exemple, “les hommes sont mortels”) ou susceptibles d’exceptions (par exemple, “les oiseaux volent”), de façon à pouvoir automatiser divers raisonnements.

On parle de connaissances pour les distinguer des informations factuelles, qui se rapportent à des faits particuliers (par exemple, “Marie a 27 ans”): ces faits correspondent à des données et sont souvent vus comme des triplets “attribut, objet, valeur” (par exemple, “l’âge de Marie est 27 ans”).

Les connaissances s’énoncent souvent avec des règles de la forme “si <condition(s)> alors <conclusion>”, qui permettent d’exprimer des relations de conséquence qui peuvent se rapporter à une taxonomie (“si c’est un corbeau, alors c’est un oiseau”), à la causalité (“si le véhicule va trop vite, alors il dérapera”), ou à une recommandation (“si on est déshydraté, alors il faut boire”). Un type important de connaissances est constitué par les ontologies* de domaine, qui décrivent les relations taxonomiques entre les termes de vocabulaire d’un domaine spécialisé, par exemple médical. Un autre type d’information, qui ne concerne pas la description de l’état du monde, est constitué par les préférences ou les buts d’un agent (humain ou artificiel), ou de groupes d’agents.

La représentation des connaissances s’appuie souvent sur le formalisme de la logique* classique, propositionnelle, ou du premier ordre qui permet alors d’introduire des quantifications universelles (par exemple, “pour tout x, si x est un homme, alors x est mortel”, exprimé en logique par la formule “∀ x, homme(x) → mortel(x)”), ou existentielles (par exemple, “il existe x, tel que x est un homme et x a marché sur la lune”, soit en logique

“∃x, homme(x) ∧ a_marche_sur_la_lune(x)”). La logique classique est cependant insuffisante pour raisonner en présence de règles avec exceptions, ou d’informations incohérentes (cf. la section suivante “Raisonner, décider”).

Une large part de l’information disponible sur laquelle on raisonne est incertaine. Le cadre classique de traitement de l’incertitude est celui de la théorie des probabilités*. Ce cadre est approprié quand on dispose de statistiques de bonne qualité sur la variabilité de quantités ou de traits caractéristiques (par exemple le nombre de jours où il pleut en avril à Toulouse). D’autres cadres de représentation plus récemment introduits, comme les probabilités imprécises*, la théorie des possibilités*, ou les fonctions de croyance* peuvent s’avérer intéressants quand l’incertitude est épistémique, c’est-à-dire qu’elle est due à un manque relatif d’information plutôt qu’à la variabilité d’un phénomène (par exemple, ce que l’on sait de l’âge d’une personne déterminée sur laquelle on est peu renseigné). Les informations incertaines sont alors associées à des modalités (qui peuvent être une question de degré) dans l’ordre du probable, du crédible, du plausible, du possible ou du certain. D’autres types de modalités sont utiles pour la représentation de relations temporelles ou spatiales, mais aussi des émotions, ce qui a motivé le développement de nombreuses logiques modales*.

Par ailleurs, les énoncés avec des prédicats de la logique classique ne peuvent être que vrais ou faux. Mais si on utilise des propriétés de nature graduelle, comme “jeune” ou “grand” par exemple, alors l’énoncé “Jean est grand ” peut éventuellement être considéré comme ayant un degré de vérité intermédiaire entre le vrai et le faux si Jean mesure 1,75 m. C’est l’idée de départ de la logique* dite floue*.

Des langages de représentation basés sur des fragments de la logique classique, ou des extensions limitées de cette logique qui maintiennent la complexité* des algorithmes de raisonnement à un niveau acceptable font l’objet d’études spécifiques pour différentes tâches de raisonnement.

Les cadres de représentation offerts par la logique classique ou par les différents modèles de l’incertain ont des équivalents graphiques (graphes conceptuels*, réseaux bayésiens*, etc.), qui présentent l’intérêt de visualiser des relations taxonomiques pour les premiers, ou des relations d’indépendance conditionnelle pour les seconds.

Un autre cadre de représentation très différent est celui des réseaux de neurones artificiels*, où l’information réside dans les poids associés aux nœuds du réseau, mais qui est difficilement interprétable en termes intelligibles par l’humain.