La Machine Morale du MIT, ou comment faire face à sa morale

Nombreux sont, sur internet, les outils et autres sites mettant à rude épreuve notre conception du bien et du mal. Et depuis 2016, c’est le Massachusetts Institue of Technology (MIT) qui s’amuse à tester la morale de chacun, avec sa “Machine morale” (ou Moral Machine dans la langue de Mick Jagger).

Le but ? Vous êtes dans la peau d’un constructeur automobile de voitures autonomes. Votre mission ? Configurer la capacité des voitures à “choisir”, en cas d’accident inévitable, quelles seront la ou les victimes. A chaque fois, vous devrez choisir entre deux situations, les deux impliquant un sacrifice.

Par exemple : dans le cas A, la voiture percutera trois sans-abri, qui ont traversé au rouge. Dans le cas B, il n’y aura qu’un humain et deux chiens, mais la personne sera un médecin ayant traversé au vert. Facile ? Au premier abord, la société nous soufflerait de sauver le médecin, “utile” a autrui. MAis vient ensuite la morale : pourquoi cet homme aurait-il plus de valeur que trois vies, du simple fait de sa condition sociale ? Et s’il était mauvais ? Ou même, prolongeons la réflexion, comment savoir que ces trois sans-abri n’auraient pas tôt ou tard une influence incroyablement positive sur le monde ?

C’est là que réside tout l’intérêt de la Moral Machine : faire face à ses propres codes moraux. De plus, chaque “joueur” est invité à consulter une infographie de ses résultats à la fin du test. Ainsi, il est possible de savoir si l’on sauve plus d’enfants que d’adultes, plus d’animaux, etc…

Pour jouer gratuitement, en français et sans inscription, ça se passe ici !