L’intelligence artificielle et, plus généralement, l’informatique, trans- forment bien des aspects de nos vies en ouvrant de nouvelles opportunités d’actions, de nouveaux choix et, en conséquence, de nouvelles responsabilités. Ainsi, si l’apprentissage machine permet d’anticiper les risques d’accidents avec une grande précision, le caractère mutualiste des assurances pourrait, si l’on n’y prend garde, s’affaisser progressi- vement. De même, avec des systèmes d’aide au diagnostic entraînés par apprentissage, les médecins pourraient se conformer aveuglément aux suggestions des machines pour éluder leurs responsabilités. Et, si les robots agissent de façon autonome, c’est-à-dire sans intervention humaine, et qu’ils se reprogramment eux-mêmes par apprentissage, à partir d’immenses quantités d’exemples, il se pourrait qu’ils deviennent imprévisibles et provoquent de grands dommages. Pour toutes ces rai- sons, il importe aujourd’hui de réfléchir collectivement à la place que nous accorderons aux machines dans nos sociétés et aux prescriptions morales auxquelles nous asservirons leurs comportements. Cette ré- flexion relève de l’éthique, c’est-à-dire la branche de la philosophie qui s’intéresse aux principes qui régissent les comportements individuels et aux conséquences sociales et morales du développement des sciences et de leurs applications pratiques.
De quoi s'agit-il vraiment ?