1. Accueil
  2. Thématiques
  3. Philosophie morale
  4. Faire la morale aux robots

couverture du livre

Faire la morale aux robots



L’éthique des algorithmes est un nouveau domaine de recherche qui se demande comment programmer les robots et autres systèmes d’intelligence artificielle.

Peut-on traduire les principes de nos théories morales en code informatique ?


Voir aussi : Intelligence artificielle



Ce livre vise un triple objectif : 1) servir d’introduction à l’éthique, 2) servir d’introduction à l’éthique des algorithmes, un sous-domaine de l’éthique de l’intelligence artificielle et, 3) défendre une position sur la bonne manière de programmer des agents moraux artificiels. Et tout ça en moins de 95 pages pour l’édition québécoise et de 160 pour l’édition française - laquelle comporte un avant-propos inédit sur la gestion d’une pandémie par Multivac, un robot imaginé par Isaac Asimov.

Qu’est-ce que l’éthique? demande le premier chapitre. C’est chercher à répondre à la question “Que faire ?” en invoquant des arguments ou des raisons morales.

Le livre présente un cas précis. C’est celui de la programmation d’une voiture autonome - c’est-à-dire un robot de transport - devant faire face au dilemme (improbable mais quand même) de choisir qui sauver: un enfant ou un vieillard ?

Trois théories morales

Si vous pensez qu’il faut sauver l’enfant parce qu’il lui reste plus d’années à vivre qu’au vieillard, votre argument s’inscrit dans une théorie morale existante, le conséquentialisme (et plus précisément l’utilitarisme). Dans la tradition analytique qui constitue le cadre conceptuel du livre, on trouve deux autres familles de théories morales: le déontologisme et l’éthique de la vertu.

Le déontologisme soutient que nous devrions agir conformément à des normes, par exemple ne pas discriminer selon l'âge. Cela pourrait impliquer qu’on programme la voiture autonome en déléguant ce choix difficile au hasard. On le voit, les raisons d’agir conséquentialiste et déontologistes militent pour des types de programmations très distincts. On peut donc parler d’un débat en éthique des algorithmes, ce domaine de l’éthique qui s’intéresse à la bonne manière de programmer les robots et autres systèmes d’IA.

Dans le septième et dernier chapitre du livre, je soutiens qu’on devrait plutôt s’en remettre à la troisième théorie morale, l’éthique de la vertu. Je m’appuie sur le travail de la philosophe néo-zélandaise Rosalind Hursthouse qui définit la bonne chose à faire comme étant ce qu’une personne vertueuse ferait dans une situation similaire. Sans entrer dans les détails, je montre qu’on pourrait programmer la voiture autonome de manière à ce qu’elle se comporte comme le ferait (ou conseillerait de le faire) une personne vertueuse.

Patients et agents moraux artificiels

Mais revenons au chapitre 2. Il présente Aristotle, un agent conversationnel destiné à raconter des histoires aux enfants tout en permettant aux parents de garder un œil sur eux. En 2017, une campagne qui y voyait une menace pour la vie privée et l’éducation des enfants signa la mort du chatbot et la compagnie Mattel le retira des rayons. Ce n’est pas grave, parce que Aristotle n’est pas ce que les philosophes nomment un patient moral, c’est-à-dire une entité envers qui nous aurions des obligations morales.

En un sens, c’est même une bonne nouvelle, parce que cela illustre bien l’idée que tout ce qui peut être fabriqué ne doit pas nécessairement l’être. Certaines technologies sont dangereuses et indésirables; d’autres méritent d’être sérieusement corrigées ou encadrées. Dans le sillage des réflexions d’Asimov sur les lois (inapplicables) de la robotique, l’éthique de l’intelligence artificielle consiste dès lors à examiner si tel véhicule autonome ou tel agent conversationnel doit être déployé.

Ce qui est proprement nouveau dans ce sous-domaine de l’éthique des techniques, c’est que pour la première fois dans l’histoire humaine, on est face à des artefacts relativement autonomes qui peuvent prendre des décisions moralement significatives. Dans leur livre Moral Machines (OUP, 2008), Wallach et Allen n’hésitent pas à parler d’agents moraux artificiels pour désigner certains systèmes d’IA. Se pose alors la question de base en éthique des algorithmes : comment programmer ces entités pour qu’elles suivent de bons standards éthiques ? Autrement dit, comment faire la morale aux robots ?

Systèmes experts, apprentissage par renforcement et supervisé

Le chapitre 3 se penche sur des systèmes d’IA existant comme les voitures autonomes ou les chatbot tandis que le chapitre 4 envisage, à la suite de Nick Bostrom, le cas d’hypothétiques superintelligences. Une thèse du livre (voir aussi l’article Automatiser les théories morales) consiste alors à souligner les affinités entre les trois théories morales susmentionnées et trois approches bien connues en IA :

1. Les systèmes experts comme Deep Blue qui gagna aux échecs face à Garry Kasparov en 1997.
2. Les systèmes fondés sur l’apprentissage par renforcement comme AlphaGo, qui gagna au jeu de go contre Lee Sedol en 2016.
3. Les systèmes fondés sur l’apprentissage supervisé, comme les voitures autonomes ou les systèmes de traduction automatique.

Or, il se trouve que les systèmes experts avec leur règles prédéfinis partagent la logique du déontologisme tandis que l’apprentissage par renforcement semble idéal pour programmer l’utilitarisme et sa fonction d’objectif unique : maximiser le bien-être des patients moraux.

Enfin, l’apprentissage supervisé qui consiste à “nourrir” une IA avec des exemples se combine très bien avec l’éthique de la vertu qui soutient justement que la bonne chose à faire consiste à imiter un exemple vertueux.


Bien sûr, ces techniques d’IA soulèvent à leur tour des enjeux moraux spécifiques. Ainsi, comme l’explique le chapitre 5, l’apprentissage supervisé hérite des biais humains présents dans les jeux de données. Il y a alors un vrai risque de construire des machines qui intégrerait comme normal le sexisme, le racisme ou le classisme et automatiserait dès lors ces discriminations.

La programmation soulève aussi des enjeux métaéthiques (chapitre 6) puisqu’on peut notamment se demander s’il existe vraiment une bonne manière de programmer les robots ou quel rôle donner aux émotions.


La conclusion du livre propose un récapitulatif à partir de la nouvelle d’Ursula Le Guin The ones who walk away from Omelas. Quoi d’autre? Il y a quelques blagues et une surprise que je ne vais pas divulgâcher.

Auteur de l'article :

Martin Gibert, chercheur en éthique de l'intelligence artificielle à l'Université de Montréal. En savoir +