Jusqu’à une époque récente, l’intelligence artificielle ne faisait son apparition dans les média qu’à des moments très symboliques, ceux où la machine prenait le dessus sur l’humain. Les échecs ont longtemps fait office de champ de bataille; plus récemment, l’intelligence artificielle a conquis le jeu de go. La relation entre l’humain et la machine, pourtant, dépasse largement le cadre de ces affrontements. De plus en plus fréquemment, nous sommes amenés à coopérer avec des machines pilotées par l’intelligence artificielle. Nous agissons de concert avec ces machines, nous prenons leur conseil, et nous leur déléguons une partie de nos tâches. Cette relation entre l’humain et la machine, coopérative et non compétitive, demande une confiance et une adaptation mutuelle. La machine doit anticiper la façon dont son partenaire humain traite l’information et prend ses décisions ; mais elle doit aussi rendre ses décisions et ses traitements les plus compréhensibles possible pour son partenaire, afin d’en gagner la confiance.
Cette coopération entre humain et machine ne peut être obtenue sans une coopération entre la psychologie et l’intelligence artificielle. En particulier, les psychologues et les chercheurs en intelligence artificielle ont à relever ensemble trois grands défis, afin de construire des agents artificiels capables de coopérer efficacement avec des agents humains: le défi de la complémentarité, le défi de l’explicabilité, et le défi de l’acceptabilité éthique.
La complémentarité exige des agents artificiels qu’ils se substituent efficacement aux humains quand ils sont capables d’une meilleure performance. Cela implique de bien comprendre les limites et les erreurs cognitives dont les humains sont victimes, un domaine dont les psychologues se sont fait une spécialité. Un agent artificiel efficace concentre ses efforts là où l’humain est le plus susceptible de négliger une information importante, ou bien de mal la traiter. Il doit également se garder de fournir une recommandation ou une conclusion qui serait mal
interprétée par son partenaire humain. En effet, il ne servirait à rien qu’un agent artificiel évite une erreur humaine, si une communication inappropriée en provoquait une autre.
L’explicabilité exige des agents artificiels qu’ils soient capables de donner à leur partenaire humain une justification, même sommaire, de leurs conclusions. Un agent artificiel dont le fonctionnement serait totalement opaque aurait les plus grandes difficultés à gagner la confiance de son partenaire humain. Ce manque de confiance se fera particulièrement sentir lorsque l’agent artificiel commettra une erreur (et cela arrivera, inéluctablement). Nous maintenons notre confiance aux autres humains quand ils font une erreur, dans la mesure où nous sommes capables de reconstruire avec eux comment ils en sont arrivés là. Ce travail nous rassure sur leur compétence générale, et sur leur capacité à éviter la même erreur dans le futur. Un agent artificiel incapable d’expliquer son raisonnement soulèverait en nous de puissants doutes quant à sa programmation (sa compétence), et sa capacité à ne pas refaire à nouveau la même erreur.
Enfin, les agents artificiels sont ou seront bientôt amenés à prendre des décisions lourdes de conséquences pour les humains, en particulier dans le domaine de la santé, et dans le domaine des transports, avec l’avènement des véhicules autonomes qui devront distribuer le risque encouru par les différents usagers de la route. Confier ces décisions à l’intelligence artificielle n’est possible que si les citoyens acceptent les principes éthiques qui seront suivis par les machines. Cette acceptation nécessitera une compréhension fine de la psychologie morale des citoyens. Une intelligence artificielle efficace, transparente et éthique ne se construira qu’avec un apport décisif de la psychologie du raisonnement, de la morale et de la décision.