0:00:04.200,0:00:08.240 Le financement de ce programme a été assuré par : [musique ringarde] 0:00:08.240,0:00:15.240 Le financement complémentaire par : [musique ringarde] 0:00:33.509,0:00:37.750 Ce cours sur la justice commence par une histoire : 0:00:37.750,0:00:40.179 supposez que vous être le conducteur d'un tramway 0:00:40.179,0:00:44.640 et que ce tramway est lancé sur les rails à 100km/h. 0:00:44.640,0:00:49.390 Au bout des rails vous apercevez cinq ouvriers travaillant sur les voies 0:00:49.390,0:00:51.799 Vous avez déjà essayé de vous arrêter mais c'est impossible 0:00:51.799,0:00:53.829 vos freins ne fonctionnent pas 0:00:53.829,0:00:56.780 vous vous sentez désespéré parce que vous savez 0:00:56.780,0:00:59.590 que si vous entrez en collision avec ces cinq personnes 0:00:59.590,0:01:01.490 ils mourront tous. 0:01:01.490,0:01:05.079 Supposons que vous soyez absolument certain de tout cela 0:01:05.079,0:01:07.420 si bien que vous vous sentez sans ressource 0:01:07.420,0:01:09.450 jusqu'à l'instant où vous remarquez qu'existe 0:01:09.450,0:01:11.290 une voie de garage 0:01:11.290,0:01:13.170 sur le côté droit 0:01:13.170,0:01:15.579 et qu'au bout de cette voie 0:01:15.579,0:01:17.390 il n'y a qu'un seul travailleur 0:01:17.390,0:01:19.079 à l'oeuvre 0:01:19.079,0:01:21.368 Votre volant fonctionne 0:01:21.368,0:01:23.030 vous pouvez donc 0:01:23.030,0:01:26.010 faire tourner le tram si vous le voulez 0:01:26.010,0:01:28.840 sur cette voie de garage 0:01:28.840,0:01:30.399 et tuer un homme 0:01:30.399,0:01:33.269 tout en en épargnant cinq. 0:01:33.269,0:01:36.109 D'où notre première question : 0:01:36.109,0:01:38.819 quelle elle la bonne chose à faire ? 0:01:38.819,0:01:40.478 Que feriez-vous ? 0:01:40.478,0:01:42.560 Faisons un sondage. 0:01:42.560,0:01:45.180 Combien d'entre vous 0:01:45.180,0:01:52.020 feraient tourner le tram vers la voie de garage ? 0:01:52.019,0:01:53.530 Combien ne le feraient pas ? 0:01:53.530,0:01:58.180 Combien continueraient tout droit ? 0:01:58.180,0:02:04.050 Que ceux qui continueraient tout droit lèvent la main 0:02:04.049,0:02:08.378 Une poignée de gens seulement : la grande majorité tournerait 0:02:08.378,0:02:09.878 Commençons faire une petite audition 0:02:09.878,0:02:14.149 Nous devons commencer à cerner pourquoi vous pensez 0:02:14.149,0:02:19.799 que c'est la bonne action à accomplir.[br]Commençons par la majorité : ceux qui tourneraient 0:02:19.799,0:02:22.058 vers la voie de garage. 0:02:22.058,0:02:23.669 Pourquoi feriez-vous cela, 0:02:23.669,0:02:25.808 quelles seraient vos raisons ? 0:02:25.808,0:02:30.188 Qui est prêt à se prêter volontaire pour donner une raison ? 0:02:30.188,0:02:32.218 Allez-y, levez-vous. 0:02:32.218,0:02:39.218 Parce qu'il ne peut être bon de tuer cinq personnes alors que vous pourriez n'en tuer qu'une. 0:02:39.579,0:02:42.239 Il ne serait pas juste de tuer cinq personnes 0:02:42.239,0:02:47.069 si vous pouviez n'en tuer qu'une. 0:02:47.068,0:02:48.528 C'est une bonne raison [rires] 0:02:48.528,0:02:52.959 C'est une bonne raison 0:02:52.959,0:02:53.778 Que pourrait-on dire d'autre ? 0:02:53.778,0:02:56.658 Tout le monde est-il en accord 0:02:56.658,0:03:01.218 avec ce raisonnement ? Allez-y ! 0:03:01.218,0:03:03.620 Eh bien, j'étais en train de songer au fait que c'est le même raisonnement 0:03:03.620,0:03:05.459 qui avait animé les passagers d'un des vols du 11 septembre 0:03:05.459,0:03:08.009 qui ont dirigé héroïquement leur avion 0:03:08.008,0:03:09.528 dans un champ de Pennsylvanie 0:03:09.528,0:03:11.718 parce qu'ils ont préféré se tuer eux-mêmes 0:03:11.718,0:03:14.418 plutôt que de tuer davantage de personnes 0:03:14.419,0:03:16.109 qui vivaient dans de grands bâtiments. 0:03:16.109,0:03:19.260 Donc, le principe fut le même le 11 septembre. 0:03:19.259,0:03:21.638 Il s'agit de circonstances dramatiques 0:03:21.639,0:03:25.359 mais le principe selon lequel il vaut mieux tuer une personne pour que cinq puissent vivre, ... 0:03:25.359,0:03:30.748 ... est-ce bien la raison pour laquelle la majorité d'entre vous avez choisi de tourner ? Oui ? 0:03:30.748,0:03:32.628 Ecoutons maintenant 0:03:32.628,0:03:33.628 ceux 0:03:33.628,0:03:35.508 qui font partie de la minorité 0:03:35.508,0:03:40.558 ceux qui n'auraient pas choisi de tourner. 0:03:40.558,0:03:45.709 Eh bien, je pense que c'est ce type de mentalité qui sert à justifier les génocides et les régimes totalitaires : 0:03:45.468,0:03:50.358 pour sauver une race, vous éradiquez l'autre. 0:03:50.359,0:03:53.278 Donc que feriez-vous en ce cas ? 0:03:53.278,0:03:55.378 Pour éviter 0:03:55.378,0:03:57.798 les horreurs d'un génocide 0:03:57.799,0:04:03.989 iriez-vous écraser et tuer cinq personnes ? [rires] 0:04:03.989,0:04:07.628 Oui, sans doute. 0:04:07.628,0:04:09.929 OK, qui d'autre ? 0:04:09.930,0:04:14.498 C'est une réponse courageuse, merci. 0:04:14.498,0:04:16.079 Considérons maintenant un autre cas 0:04:16.978,0:04:20.238 de tramway 0:04:20.238,0:04:21.688 et voyons 0:04:21.689,0:04:24.189 si 0:04:24.189,0:04:27.429 ceux de la majorité 0:04:27.428,0:04:30.989 seraient prêts à rester fidèles à ce principe 0:04:30.990,0:04:33.500 qu'il est préférable qu'une personne meure pour que cinq puissent continuer à vivre. 0:04:33.500,0:04:38.528 Cette fois, vous n'êtes plus le conducteur du tram, mais un témoin 0:04:38.528,0:04:42.678 situé sur un pont surplombant la voie ferrée. 0:04:42.678,0:04:45.658 Un tramway descend la voie 0:04:45.658,0:04:49.620 et au bout on retrouve les cinq travailleurs 0:04:49.620,0:04:51.739 les freins ne fonctionnent pas 0:04:51.738,0:04:55.948 il est sur le point de percuter les cinq personnes à toute vitesse, et de les tuer 0:04:55.949,0:04:57.218 et maintenant 0:04:57.218,0:04:58.788 vous n'êtes pas le conducteur 0:04:58.788,0:05:01.308 vous vous sentez désemparé 0:05:01.309,0:05:03.259 jusqu'à ce que vous remarquiez... 0:05:03.259,0:05:06.879 ... juste à côté de vous ... 0:05:06.879,0:05:08.639 ... en train de se pencher ... 0:05:08.639,0:05:09.889 ... au-dessus du pont ... 0:05:09.889,0:05:16.889 ... un homme très gras. [rires] 0:05:17.218,0:05:20.178 Il vous suffirait 0:05:20.178,0:05:22.668 de lui donner une pichenette 0:05:22.668,0:05:24.728 et il tomberait du pont 0:05:24.728,0:05:27.949 sur la voie 0:05:27.949,0:05:29.538 parfaitement sur le chemin 0:05:29.538,0:05:32.199 du tram 0:05:32.199,0:05:33.419 mourrait 0:05:33.418,0:05:38.930 mais sauverait cinq personnes. 0:05:38.930,0:05:41.108 Alors, dans cette situation, combien pousseraient 0:05:41.108,0:05:48.089 le gros homme par-dessus le pont ? Levez la main. [rires] 0:05:48.089,0:05:51.198 Combien ne le feraient pas ? 0:05:51.199,0:05:54.069 Une majorité ne le ferait pas. 0:05:54.069,0:05:55.789 Voici maintenant une question évidente. 0:05:55.788,0:05:56.878 Qu'est-il advenu 0:05:56.879,0:06:00.169 de ce principe 0:06:00.168,0:06:05.109 selon lequel il était juste de sauver cinq vies au prix du sacrifice d'un seul ? Qu'est-il advenu de ce principe... 0:06:05.110,0:06:07.490 ... que presque tout le monde a approuvé ... 0:06:07.490,0:06:09.240 ... dans le premier cas ? 0:06:09.240,0:06:12.809 J'ai besoin d'entendre quelqu'un qui faisait partie de la majorité 0:06:12.809,0:06:13.580 dans les deux cas: 0:06:13.579,0:06:17.758 comment expliquez-vous cette différence entre les deux cas ? 0:06:17.759,0:06:21.860 Le second implique le choix actif de 0:06:21.860,0:06:22.509 pousser une personne 0:06:22.509,0:06:24.279 d'où on peut déduire 0:06:24.279,0:06:25.198 je pense 0:06:25.199,0:06:29.830 que cette personne n'aurait jamais été impliquée dans cette situation autrement 0:06:29.829,0:06:31.269 et donc 0:06:31.269,0:06:33.769 choisir en son nom, je suppose 0:06:33.769,0:06:36.769 en 0:06:36.769,0:06:39.990 l'impliquant dans quelque chose auquel il aurait pu échapper autrement est 0:06:39.990,0:06:41.788 va plus loin à mon avis 0:06:41.788,0:06:43.620 que ce la situation exposée dans le premier cas où 0:06:43.620,0:06:45.968 les trois parties, le conducteur et 0:06:45.968,0:06:47.668 les deux groupes de travailleurs étaient 0:06:47.668,0:06:50.598 je suppose déjà dans la situation. 0:06:50.598,0:06:55.108 Mais l'homme qui était en train de travailler, celui qui se trouvait dans la voie de garage... 0:06:55.108,0:07:02.068 ... lui non plus n'a pas choisi de sacrifier sa vie, pas plus que notre gros homme, n'est-ce pas ? 0:07:02.069,0:07:05.420 C'est vrai, mais il était sur les voies. 0:07:05.399,0:07:10.438 L'autre homme était sur le pont. 0:07:10.439,0:07:13.550 Poursuivons, vous pouvez réintervenir si vous le souhaitez. 0:07:13.550,0:07:15.329 Très bien, il s'agit d'une question difficile... 0:07:15.329,0:07:18.658 ... mais vous vous en êtes bien sorti. 0:07:19.629,0:07:21.180 Qui d'autre... 0:07:21.180,0:07:22.598 ... pour tenter ... 0:07:22.598,0:07:26.028 ... de trouver une manière de concilier 0:07:26.028,0:07:30.158 la réactions des deux majorités pour ces deux cas ? Oui ? 0:07:30.158,0:07:31.550 Eh bien, je suppose 0:07:31.550,0:07:32.540 que dans le premier cas 0:07:32.540,0:07:35.179 où vous avez un travailleur et les cinq autres 0:07:35.178,0:07:37.429 c'est une choix entre deux éventualités, et vous avez à 0:07:37.430,0:07:41.218 prendre une décision alors que des gens sont sur le point de mourir à cause du tramway, 0:07:41.218,0:07:45.029 pas nécessairement à cause de vos actes directs. Le tramway est un objet qui est lancé sur une piste 0:07:45.029,0:07:48.209 alors que quand vous devez faire face à la seconde alternative 0:07:48.209,0:07:52.658 entre pousser l'homme gras ou non, il s'agit véritablement d'un acte de meurtre de votre part 0:07:52.658,0:07:54.490 vous maîtrisez ce choix 0:07:54.490,0:07:57.278 alors que vous n'avez aucun contrôle sur le tramway. 0:07:57.278,0:08:00.089 Je pense donc qu'il s'agit d'une situation légèrement différente. 0:08:00.089,0:08:04.359 Très bien, qui pourrait répondre à cela ? C'était une bonne réponse. 0:08:04.360,0:08:06.319 Qui veut répondre ? 0:08:06.319,0:08:09.490 Peut-on trouver une issue à ce problème ? 0:08:09.490,0:08:12.439 Je ne pense pas que ce soit une très bonne raison 0:08:12.439,0:08:16.889 parce que dans les deux cas -en tournant ou en tuant directement quelqu'un- vous choisissez qui va mourir, 0:08:16.889,0:08:18.500 c'est un acte de pensée conscient 0:08:18.500,0:08:19.718 qu'il s'agisse de faire un virage 0:08:19.718,0:08:21.319 ou de choisir de pousser le gros homme 0:08:21.319,0:08:23.609 dans les deux cas c'est 0:08:23.608,0:08:27.688 une action consciente et déterminée : vous faites un choix dans les deux cas. 0:08:27.689,0:08:29.729 Voulez-vous répondre ? 0:08:29.728,0:08:34.189 En fait, je ne suis pas tout à fait sûr que cela soit vrai : il y a tout de même une forme de différence 0:08:34.190,0:08:38.230 entre pousser quelqu'un sur une voie et le tuer, 0:08:38.230,0:08:42.600 -ce qui veut dire que vous l’assassinez. Vous le poussez de votre propres mains. 0:08:42.600,0:08:43.710 Cela est différent 0:08:43.710,0:08:47.090 de piloter un mécanisme qui va causer la mort 0:08:47.090,0:08:48.670 dans un autre... même si comme vous le voyez... 0:08:48.669,0:08:52.829 ... mon argument ne sonne pas très juste quand je suis là en train de le dire devant vous [rires] 0:08:52.830,0:08:54.740 Pas du tout, c'est une bonne réponse. Quel est votre nom ? 0:08:54.740,0:08:55.570 Andrew. 0:08:55.740,0:08:59.570 Andrew. Permettez-moi de vous poser une question, Andrew. 0:08:59.570,0:09:02.240 Supposez 0:09:02.240,0:09:03.680 que lorsque je me tiens sur le pont 0:09:03.679,0:09:04.809 près du gros homme 0:09:04.809,0:09:07.849 je n'aurais pas besoin de le pousser, mais qu'il soit 0:09:07.850,0:09:14.850 au-dessus d'une trappe dont je pourrais commander l'ouverture avec un volant comme ça... 0:09:17.450,0:09:18.690 ...est ce que vous le tourneriez ? 0:09:18.690,0:09:20.960 Pour une certaine raison, cette action me semblerait 0:09:20.960,0:09:24.129 encore plus mauvaise. 0:09:24.129,0:09:30.350 Je veux dire que peut-être que si vous aviez actionné ce volant accidentellement, ou quelque chose comme cela, 0:09:30.350,0:09:31.060 ou... 0:09:31.059,0:09:33.118 mettons par exemple que le tramway 0:09:33.119,0:09:37.850 pousse lui-même un interrupteur qui ouvre la trappe 0:09:37.850,0:09:39.230 alors je pourrais être d'accord. 0:09:39.850,0:09:42.230 Ca me va, mais il semble tout de même 0:09:42.230,0:09:45.500 que vous trouvez injuste d'une certaine façon, ce que vous ne trouviez pas injuste dans le premier cas : tourner le volant. 0:09:45.500,0:09:50.419 Pour le dire autrement, vous êtes impliqué directement dans la première situation 0:09:50.419,0:09:52.449 alors que dans la seconde vous êtes aussi un spectateur? 0:09:52.450,0:09:56.920 Vous pouvez donc choisir de vous impliquer ou pas en poussant le gros homme. 0:09:56.919,0:09:59.549 Mettons de côté ce cas un instant. 0:09:59.549,0:10:01.269 C'est intéressant, 0:10:01.269,0:10:06.460 mais imaginons un cas différent. Cette fois, vous êtes un médecin dans une salle d'urgences... 0:10:06.460,0:10:11.629 ... et six patients viennent vous voir... 0:10:11.629,0:10:18.500 ... il y a eu un terrible accident de tram ... 0:10:18.500,0:10:23.889 ... au cours duquel cinq ont des blessures d'intensité modérée et un très graves : vous pouvez consacrer votre journée 0:10:23.889,0:10:27.720 à traiter celui qui est gravement blessé 0:10:27.720,0:10:32.330 mais alors les cinq autre mourraient, ou vous pouvez veiller sur les cinq, les remettre d’aplomb, mais 0:10:32.330,0:10:35.490 pendant tout ce temps celui qui est gravement blessé 0:10:35.490,0:10:36.470 mourrait. 0:10:36.470,0:10:37.660 Combien sauveraient 0:10:37.659,0:10:39.539 les cinq 0:10:39.539,0:10:40.849 maintenant en tant que médecin ? 0:10:40.850,0:10:44.480 Combien sauveraient l'homme seul ? 0:10:44.480,0:10:46.300 Peu de gens, 0:10:46.299,0:10:49.269 je ne vois qu'une poignée de gens. 0:10:49.269,0:10:51.439 Pour la même raison, je suppose : 0:10:51.440,0:10:55.570 une vie contre cinq. 0:10:55.570,0:10:57.230 Considérons maintenant 0:10:57.230,0:10:59.070 un autre cas médical 0:10:59.070,0:11:02.080 cette fois vous êtes un chirurgien chargé d'une greffe 0:11:02.080,0:11:06.160 et vous avez cinq patients nécessitant désespérément la greffe 0:11:06.159,0:11:09.639 d'un organe pour survivre 0:11:09.639,0:11:12.220 l'un a besoin d'un coeur, l'autre d'un poumon, 0:11:12.220,0:11:13.550 l'autre d'un rein, 0:11:13.549,0:11:15.089 l'autre d'un foie, 0:11:15.090,0:11:16.680 et le cinquième 0:11:16.679,0:11:20.209 d'un pancréas. 0:11:20.210,0:11:22.780 Et vous n'avez aucun donneur d'organe à disposition 0:11:22.779,0:11:24.909 vous êtes sur le point 0:11:24.909,0:11:27.649 de les voir tous mourir 0:11:27.649,0:11:28.860 et alors 0:11:28.860,0:11:30.649 vous entendez 0:11:30.649,0:11:32.470 que dans la pièce à côté 0:11:32.470,0:11:35.720 il y a un homme sain qui vient pour un examen général de santé 0:11:39.450,0:11:43.740 et il est en train... 0:11:43.740,0:11:47.159 -vous aimez ça !- 0:11:47.159,0:11:50.740 ... il est en train de faire une sieste. 0:11:53.269,0:11:56.769 Vous pourriez donc intervenir très tranquillement... 0:11:56.769,0:12:00.600 lui piquer cinq organes, ce qui entraînerait sa mort, ... 0:12:00.600,0:12:03.170 ... mais vous pourriez en sauver cinq. 0:12:03.169,0:12:10.169 Combien le feraient ? Personne ? 0:12:10.389,0:12:17.389 Combien ? Levez la main si vous le feriez. 0:12:18.100,0:12:21.840 Personne au balcon ? 0:12:21.840,0:12:24.280 Vous le feriez ? Attention, ne vous penchez pas trop. 0:12:26.269,0:12:29.340 Combien refuseraient de le faire ? 0:12:29.340,0:12:30.360 Très bien. 0:12:30.360,0:12:33.600 Prenez la parole au niveau du balcon, que diriez-vous, vous 0:12:33.600,0:12:35.840 qui vous empareriez des organes, pourquoi ? 0:12:35.840,0:12:38.629 En fait, je voudrais envisager une éventualité 0:12:38.629,0:12:40.188 un peu différente, qui consiste à ne prendre qu'à l'un 0:12:40.188,0:12:44.419 des cinq qui a besoin d'un organe, et qui meurt en premier, 0:12:44.419,0:12:50.229 puis d'utiliser ses 4 organes sains pour sauver les autres quatre personnes. 0:12:50.230,0:12:54.639 C'est une très bonne idée. 0:12:54.639,0:12:57.830 Une excellente idée même, 0:12:57.830,0:13:00.160 si l'on excepte le fait 0:13:00.159,0:13:06.159 que vous venez de démolir le point philosophique. 0:13:06.159,0:13:07.360 Prenons un peu de distance 0:13:07.360,0:13:10.240 avec ces histoires et ces discussions 0:13:10.240,0:13:12.750 pour remarquer une série de choses 0:13:12.750,0:13:17.809 sur la manière dont les arguments ont commencé à être exposé. 0:13:17.809,0:13:18.649 Certains 0:13:18.649,0:13:20.360 principes moraux 0:13:20.360,0:13:23.340 ont déjà commencé à émerger 0:13:23.340,0:13:25.879 des discussions que nous venons d'avoir 0:13:25.879,0:13:27.570 et essayons d'examiner 0:13:27.570,0:13:29.740 à quoi ces principes moraux 0:13:29.740,0:13:31.250 ressemblent. 0:13:31.250,0:13:35.710 Le 1er principe moral qui a émergé de la discussion dit 0:13:35.710,0:13:39.110 que la bonne action, l'action morale 0:13:39.110,0:13:43.139 dépend des conséquences qui vont résulter 0:13:43.139,0:13:45.480 d'une action 0:13:45.480,0:13:47.080 au bout du compte 0:13:47.080,0:13:49.250 mieux vaut que cinq personnes vivent 0:13:49.250,0:13:52.320 même si une doit mourir. 0:13:52.320,0:13:53.700 Il s'agit d'un exemple 0:13:53.700,0:13:56.280 de raisonnement moral 0:13:56.279,0:13:59.459 "conséquentialiste". 0:13:59.460,0:14:04.310 Un raisonnement conséquentialiste situe la moralité d'une action dans ses conséquences, 0:14:04.309,0:14:06.549 dans l'état du monde qui va résulter 0:14:06.549,0:14:09.049 de ce que vous accomplissez. 0:14:09.049,0:14:12.789 Mais, un peu plus tard, nous avons envisagé d'autres cas 0:14:12.789,0:14:15.319 et les gens n'étaient alors plus tellement sûrs 0:14:15.320,0:14:17.300 de la validité 0:14:17.299,0:14:20.529 du raisonnement moral conséquentialiste. 0:14:20.529,0:14:22.419 Quand les gens ont hésité 0:14:22.419,0:14:24.269 à pousser le gros homme 0:14:24.269,0:14:25.789 par-dessus le pont 0:14:25.789,0:14:28.639 ou à chiper les organes d'un innocent 0:14:28.639,0:14:29.750 patient 0:14:29.750,0:14:32.259 Certains d'entre vous ont désigné 0:14:32.259,0:14:34.259 des raisons 0:14:34.259,0:14:35.379 qui concernent 0:14:35.379,0:14:37.250 la qualité intrinsèque 0:14:37.250,0:14:39.230 d'un acte 0:14:39.230,0:14:40.690 en lui-même 0:14:40.690,0:14:42.770 indépendamment des conséquences. 0:14:42.769,0:14:45.179 Des gens étaient réticents 0:14:45.179,0:14:47.819 d'autres pensaient que c'était simplement une mauvaise chose 0:14:47.820,0:14:49.480 une chose catégoriquement mauvaise 0:14:49.480,0:14:50.500 de tuer 0:14:50.500,0:14:51.408 une personne 0:14:51.408,0:14:53.509 une personne innocente 0:14:53.509,0:14:54.689 même pour la cause 0:14:54.690,0:14:55.819 du sauvetage 0:14:55.818,0:14:58.500 de cinq vies. Tout au moins, ces personnes ont pensé cela 0:14:58.500,0:15:00.610 dans la seconde version 0:15:00.610,0:15:05.120 de chaque histoire que nous avons réexaminée. 0:15:05.120,0:15:06.519 Par conséquent, cela réfère 0:15:06.519,0:15:09.539 à une seconde 0:15:09.539,0:15:10.689 manière 0:15:10.690,0:15:12.660 catégorique 0:15:12.659,0:15:14.679 de penser 0:15:14.679,0:15:16.429 le raisonnement moral. 0:15:16.429,0:15:22.429 Le raisonnement moral catégorique identifie la moralité à des exigences morales absolues 0:15:22.429,0:15:24.439 concernant certains devoirs et droits catégoriques 0:15:24.440,0:15:27.440 sans prendre en compte les conséquences. 0:15:27.440,0:15:29.230 Ce que nous allons examiner dans 0:15:29.230,0:15:33.070 les jours et semaines qui viennent, c'est le contraste entre 0:15:33.070,0:15:36.540 les principes moraux conséquentialistes et catégoriques. 0:15:36.539,0:15:38.370 Le plus influent 0:15:38.370,0:15:40.419 des exemples de 0:15:40.419,0:15:45.919 raisonnement moral conséquentialiste est l'utilitarisme, une doctrine inventée par 0:15:45.919,0:15:51.099 Jérémie Benthan, philosophe politique anglais du XVIIIème siècle. 0:15:51.100,0:15:54.139 Le plus important 0:15:54.139,0:15:56.850 des philosophes du raisonnement moral catégorique 0:15:56.850,0:15:58.170 est un philosophe allemand du XVIIIème : 0:15:58.169,0:16:02.589 Emmanuel Kant 0:16:02.590,0:16:03.860 Nous allons donc examiner 0:16:03.860,0:16:07.259 ces deux modes différents de raisonnement moral 0:16:07.259,0:16:08.299 les évaluer 0:16:08.299,0:16:10.669 mais aussi en considérer d'autres. 0:16:10.669,0:16:16.099 Si vous jeter un oeil sur le programme d'études, vous constaterez que nous allons lire un certain nombre de livres grands et fameux... 0:16:16.100,0:16:18.310 ... par Aristote 0:16:18.309,0:16:19.889 ... John Locke 0:16:19.889,0:16:22.080 Emmanuel Kant, John Stuart Mill 0:16:22.080,0:16:24.030 et d'autres. 0:16:24.029,0:16:28.169 Vous remarquerez d'après ce prgramme que nous ne nous contenterons pas de lire ces livres 0:16:28.169,0:16:30.069 mais aussi 0:16:30.070,0:16:32.010 de nous préoccuper 0:16:32.009,0:16:37.000 de controverses politiques et juridiques actuelles qui soulèvent des questions philosophiques. 0:16:37.000,0:16:40.190 Nous débattrons d'égalité et d'inégalité, 0:16:40.190,0:16:41.490 de discrimination positive, 0:16:41.490,0:16:43.698 de la liberté d'opinion opposée au discours de haine, 0:16:43.698,0:16:47.039 du mariage entre personnes de même sexe, de conscription militaire, 0:16:47.039,0:16:50.980 tout un champ de questions pratiques, qui ne sont pas 0:16:50.980,0:16:55.350 simplement destinées à égayer ces livres anciens et abstraits 0:16:55.350,0:17:01.040 mais pour rendre clair et distinct ce qui est en jeu dans nos vies quotidiennes, 0:17:01.039,0:17:03.519 vie politique inclue, 0:17:03.519,0:17:05.639 pour la philosophie. 0:17:05.640,0:17:07.720 Nous allons donc lire ces livres 0:17:07.720,0:17:09.818 et nous allons débattre 0:17:09.818,0:17:15.480 de ces problèmes et voir comment ils se nourrissent et s'éclairent mutuellement. 0:17:15.480,0:17:17.599 Tout cela pourrait sembler assez séduisant 0:17:17.599,0:17:19.109 mais c'est le moment 0:17:19.109,0:17:22.549 pour moi de formuler un avertissement 0:17:22.549,0:17:25.210 et cet avertissement est le suivant : 0:17:25.210,0:17:28.500 lire ces livres 0:17:28.500,0:17:31.549 ainsi 0:17:31.549,0:17:34.119 est une épreuve en matière de connaissance de soi 0:17:34.119,0:17:38.849 les lire de cette façon implique des risques, 0:17:38.849,0:17:42.119 qui sont aussi bien personnels que politiques, 0:17:42.119,0:17:47.799 des risques que connaît tout étudiant de philosophie politique. 0:17:47.799,0:17:50.690 Ces risques proviennent du fait 0:17:50.690,0:17:52.580 que la philosophie 0:17:52.579,0:17:54.220 nous élève 0:17:54.220,0:17:56.400 et nous bouscule 0:17:56.400,0:18:01.390 en nous confrontons à ce que nous connaissons déjà. 0:18:01.390,0:18:03.390 Là est le paradoxe : 0:18:03.390,0:18:09.790 la difficulté de ce cours consiste dans le fait qu'il nous enseigne ce que nous savons déjà. 0:18:09.789,0:18:12.159 Il fonctionne en extrayant 0:18:12.160,0:18:16.470 ce que nous savons de situations familières non mises en question 0:18:16.470,0:18:20.370 et les rend étranges. 0:18:20.369,0:18:22.389 C'est de cette manière que nos cas fonctionnaient 0:18:22.390,0:18:23.120 en travaillant 0:18:23.119,0:18:29.029 avec les hypothèses avec lesquelles nous avons commencé, et leur mélange d'enjouement et de sobriété. 0:18:29.029,0:18:33.940 C'est également la manière dont les livres philosophiques fonctionnent. 0:18:33.940,0:18:35.640 La philosophie nous éloigne 0:18:35.640,0:18:37.520 du familier 0:18:37.519,0:18:40.389 non pas en nous procurant de nouvelles informations 0:18:40.390,0:18:41.780 mais en nous invitant 0:18:41.779,0:18:43.599 et nous stimulant 0:18:43.599,0:18:47.419 à voir de façons nouvelles. 0:18:47.420,0:18:49.970 Mais, et là réside le risque, 0:18:49.970,0:18:50.720 une fois 0:18:50.720,0:18:54.299 que le familier se brouille 0:18:54.299,0:18:58.259 il ne redevient plus jamais le même. 0:18:58.259,0:19:00.210 La connaissance de soi 0:19:00.210,0:19:03.200 est comme l'innocence perdue 0:19:03.200,0:19:04.720 aussi déstabilisante 0:19:04.720,0:19:06.029 puissiez vous la trouver 0:19:06.029,0:19:07.289 on ne peut jamais 0:19:07.289,0:19:09.720 défaire la pensée 0:19:09.720,0:19:13.390 ou la rendre inconnue. 0:19:13.390,0:19:17.259 Ce qui rend cette entreprise difficile 0:19:17.259,0:19:19.970 mais également captivante 0:19:19.970,0:19:20.880 c'est que 0:19:20.880,0:19:25.400 la philosophie morale et politique est une histoire. 0:19:25.400,0:19:29.340 Vous ne savez pas comment elle finit, mais ce que vous savez 0:19:29.339,0:19:31.319 c'est que cette histoire 0:19:31.319,0:19:34.480 c'est la vôtre. 0:19:34.480,0:19:37.079 Voilà pour les risques personnels. 0:19:37.079,0:19:40.220 Voyons maintenant les risques politiques. 0:19:40.220,0:19:43.038 L'une des manière d'introduire un cours tel que celui-ci 0:19:43.038,0:19:44.730 serait de vous promettre 0:19:44.730,0:19:46.460 qu'en lisant ces livres 0:19:46.460,0:19:48.069 et en débattant de ces problèmes 0:19:48.069,0:19:51.769 vous allez devenir des citoyens meilleurs et plus responsables. 0:19:51.769,0:19:56.450 Vous allez examiner les présupposés qui sous-tendent la politique publique, vous allez affiner 0:19:56.450,0:19:57.289 votre jugement politique 0:19:57.289,0:20:02.819 vous allez devenir un acteur plus efficient dans le domaine des affaires publiques 0:20:02.819,0:20:06.869 mais ce serait là une promesse partielle et trompeuse. 0:20:06.869,0:20:11.489 La philosophie politique, pour l'essentiel, n'a jamais fonctionné ainsi. 0:20:11.490,0:20:14.660 Vous devez accepter l'éventualité selon laquelle 0:20:14.660,0:20:19.100 la philosophie politique va faire de vous de plus mauvais 0:20:19.099,0:20:21.969 plutôt que de meilleurs citoyens, 0:20:21.970,0:20:23.809 ou, au moins, d'abord un moins bon citoyen, 0:20:23.809,0:20:25.629 avant de vous rendre 0:20:25.630,0:20:27.950 meilleurs. 0:20:27.950,0:20:30.400 La raison en est que la philosophie 0:20:30.400,0:20:32.620 est une activité de distanciation 0:20:32.619,0:20:34.709 parfois débilitante. 0:20:34.710,0:20:36.600 ... 0:20:36.599,0:20:37.759 Vous pourrez le constater 0:20:37.759,0:20:39.890 en revenant à Socrate 0:20:39.890,0:20:42.290 et son dialogue, le Gorgias, 0:20:42.289,0:20:44.680 où l'un des amis de Socrate, 0:20:44.680,0:20:45.620 Calliclès 0:20:45.619,0:20:47.239 essaye de le détourner 0:20:47.240,0:20:49.970 de l'activité de la philosophie. 0:20:49.970,0:20:54.400 Calliclès dit à Socrate que la philosophie est un charmant jeu 0:20:54.400,0:20:57.980 à condition de ne s'y vouer qu'avec modération et au bon moment de la vie 0:20:57.980,0:21:03.779 mais que si l'on s'en préoccupe au-delà, c'est la ruine absolue. 0:21:03.779,0:21:06.819 Suis mon conseil, dit Calliclès 0:21:06.819,0:21:08.369 renonce à l'argumentation 0:21:08.369,0:21:11.669 découvre les réalisations d'une vie active, 0:21:11.670,0:21:16.880 prend pour modèle les gens qui consacrent leur existence, non pas à ces arguties insignifiantes 0:21:16.880,0:21:20.080 mais ceux qui ont de bons moyens d'existence et une réputation 0:21:20.079,0:21:22.319 et bien d'autres qualités. 0:21:22.319,0:21:26.808 Ce que Calliclès dit véritablement à Socrate c'est : 0:21:26.808,0:21:28.690 délaisse la philosophie 0:21:28.690,0:21:30.549 reviens à la réalité 0:21:30.549,0:21:35.169 va faire une école de gestion ! 0:21:35.170,0:21:38.300 Et Calliclès a raison sur un point 0:21:38.299,0:21:39.690 Il a raison 0:21:39.690,0:21:42.210 car la philosophie nous met à distance 0:21:42.210,0:21:45.009 des conventions, des présupposés établis 0:21:45.009,0:21:46.750 et des croyances installées, 0:21:46.750,0:21:48.650 tels sont les risques, 0:21:48.650,0:21:49.970 personnels et politiques 0:21:49.970,0:21:54.089 et face à ces risques, il existe un moyen typique de se dérober 0:21:54.089,0:21:57.470 le nom pour cette dérobade, c'est le scepticisme. C'est une idée 0:21:57.470,0:21:58.990 qui consiste à dire à peu près ceci : 0:21:58.990,0:22:03.660 "nous n'avons pas résolu, une fois pour toutes,..." 0:22:03.660,0:22:09.759 "... aucun des cas ou principes sur lesquels nous avons débattu depuis le début ..." 0:22:09.759,0:22:11.390 "... et si Aristote ..." 0:22:11.390,0:22:17.220 "... Locke, Kant ou Mill n'ont pas trouvé la solution à ces questions après toutes ces années ..." 0:22:17.220,0:22:19.589 " ... qui sommes-nous pour avoir la prétention de penser ..." 0:22:19.589,0:22:23.730 " nous qui sommes ici dans l'amphithéâtre Sander pour un semestre" 0:22:23.730,0:22:26.430 "que nous pourrions les résoudre" 0:22:26.430,0:22:29.460 "Peut-être s'agit-il d'un sujet" 0:22:29.460,0:22:33.519 "sur lequel chaque personne peut avoir ses propres principes personnels et sur lequel rien ne peut être dit de plus" 0:22:33.519,0:22:34.170 "Cela ne sert à rien" 0:22:34.170,0:22:36.590 "de raisonner !" 0:22:36.589,0:22:37.649 Voilà la dérobade 0:22:37.650,0:22:39.440 C'est l'échappatoire du scepticisme, 0:22:39.440,0:22:41.279 à laquelle j'aimerais opposer 0:22:41.279,0:22:42.660 la réponse suivante : 0:22:42.660,0:22:43.720 il est vrai 0:22:43.720,0:22:47.559 que ces questions sont débattues depuis très longtemps 0:22:47.559,0:22:49.059 mais le fait même 0:22:49.059,0:22:52.700 qu'elles ne cessent de durer et de se reposer 0:22:52.700,0:22:54.650 pourrait signifier 0:22:54.650,0:22:57.169 que bien qu'elles soient insolubles en un sens 0:22:57.169,0:22:59.800 elles sont inévitables en un autre sens 0:22:59.799,0:23:02.299 et la raison pour laquelle elles sont inévitables 0:23:02.299,0:23:06.500 est que nous vivons quotidiennement selon une forme de réponse 0:23:06.500,0:23:10.069 à ces questions. 0:23:10.069,0:23:16.129 Le scepticisme, qui consiste à se résigner et à renoncer à toute réflexion en matière morale, 0:23:16.130,0:23:18.280 n'est pas la solution 0:23:18.279,0:23:19.990 Emmanuel Kant 0:23:19.990,0:23:23.710 a très bien décrit le problème du scepticisme quand il écrivit 0:23:23.710,0:23:26.308 qu'il s'agit d'un lieu de repos pour la raison humaine : 0:23:26.308,0:23:29.099 un lieu où il peut réfléchir sur ses errements dogmatiques 0:23:29.099,0:23:33.069 mais où on ne peut installer une résidence permanente. 0:23:33.069,0:23:35.939 Selon Kant, le fait d’acquiescer au scepticisme... 0:23:35.940,0:23:42.660 ... ne pourra jamais suffire à satisfaire notre raison insatiable. 0:23:42.660,0:23:47.040 Au travers de ces histoires et de ces arguments, j'ai cherché à donner 0:23:47.039,0:23:49.898 une certaine idée des risques et tentations, 0:23:49.898,0:23:55.589 des périls et des possibilités. Je concluerais simplement en disant 0:23:55.589,0:23:58.099 que le but de ce cours 0:23:58.099,0:23:59.629 est de réveiller 0:23:59.630,0:24:02.240 ce caractère insatiable de la raison 0:24:02.240,0:24:04.380 et de voir où cela peut nous mener. 0:24:04.380,0:24:11.380 Merci beaucoup. 0:24:15.440,0:24:16.980 - Dans une situation désespérée ... 0:24:16.980,0:24:21.259 ... vous devez faire ce que vous avez à faire pour survivre.[br]- Vous avez à faire ce que vous avez à faire, n'est-ce pas ? 0:24:21.259,0:24:22.779 Ce que vous 0:24:22.779,0:24:23.619 devez faire, d'abord, 0:24:23.619,0:24:25.699 si vous avez passé dix-neuf jours sans aucune nourriture 0:24:25.700,0:24:32.700 quelqu'un doit se sacrifier pour que les autres puissent survivre. Parfait, c'est très bien. Quel est votre nom ? Marcus. 0:24:33.569,0:24:40.349 Marcus. Que voulez-vous dire à Marcus ? 0:24:40.349,0:24:44.569 Dans la dernière séance 0:24:44.569,0:24:46.960 nous avons démarré 0:24:46.960,0:24:48.980 avec certaines histoires 0:24:48.980,0:24:51.019 des dilemmes moraux 0:24:51.019,0:24:53.049 sur des tramways 0:24:53.049,0:24:54.509 des docteurs 0:24:54.509,0:24:56.269 et des patients sains 0:24:56.269,0:24:57.559 susceptibles 0:24:57.559,0:25:00.909 de devenir victimes de transplantations d'organes. 0:25:00.910,0:25:04.090 Nous avons remarqué deux choses 0:25:04.089,0:25:06.889 à propos des arguments que nous avons échangés 0:25:06.890,0:25:10.830 La première concernait la manière dont nous débattions 0:25:10.829,0:25:13.569 Après des jugements sur des cas particuliers 0:25:13.569,0:25:18.470 nous avons essayé d'articuler les raisons et principes 0:25:18.470,0:25:22.549 qui sous-tendaient nos jugements 0:25:22.549,0:25:25.399 et nous les avons ensuite confrontés à un nouveau cas 0:25:25.400,0:25:30.759 qui nous a obligés à réexaminer ces principes 0:25:30.759,0:25:34.019 à les réviser à leur lumière mutuelles 0:25:34.019,0:25:38.920 et nous avons remarqué une certaine résistance inhérente à nos efforts pour mettre en cohérence 0:25:38.920,0:25:41.680 nos jugements sur des cas particuliers 0:25:41.680,0:25:43.940 et les principes que nous serions prêts à approuver. 0:25:43.940,0:25:46.360 Après réflexion 0:25:46.359,0:25:50.589 nous avons relevé un point concernant l'essence des arguments 0:25:50.589,0:25:55.250 qui ont émergé de la discussion. 0:25:55.250,0:26:00.859 Nous avons remarqué que parfois nous étions tentés de situer la moralité d'un acte à ses conséquences 0:26:00.859,0:26:06.519 dans les résultats, l'état du monde qui en sort. 0:26:06.519,0:26:09.019 C'est ce qu'on appelle le raisonnement 0:26:09.019,0:26:11.690 moral conséquentialiste. 0:26:11.690,0:26:13.240 Mais nous avons aussi remarqué que 0:26:13.240,0:26:16.440 dans certains cas 0:26:16.440,0:26:18.610 nous n'étions pas simplement déterminés 0:26:18.609,0:26:22.089 par les résultats. 0:26:22.089,0:26:23.399 Parfois 0:26:23.400,0:26:25.350 un grand nombre d'entre nous pensons 0:26:25.349,0:26:31.669 que ce ne sont pas simplement les conséquences, mais aussi la qualité ou le caractère intrinsèque d'une action 0:26:31.670,0:26:35.370 qui comptent moralement. 0:26:35.369,0:26:40.979 Certains ont soutenu que certaines choses sont simplement catégoriquement mauvaises 0:26:40.980,0:26:42.579 même si elles débouchent 0:26:42.579,0:26:44.460 sur un bon résultat. 0:26:44.460,0:26:45.490 Même 0:26:45.490,0:26:47.200 si elles conduisent à sauver cinq personnes 0:26:47.200,0:26:49.788 au prix d'une seule. 0:26:49.788,0:26:52.730 Nous avons donc opposé les principes moraux 0:26:52.730,0:26:54.569 conséquentialiste 0:26:54.569,0:26:58.139 avec les catégoriques. 0:26:58.140,0:26:59.790 Aujourd'hui 0:26:59.789,0:27:00.819 et au cours des quelques prochaines journées 0:27:00.819,0:27:06.569 nous allons commencer à examiner 0:27:06.569,0:27:08.839 l'une des versions les plus influentes 0:27:08.839,0:27:10.970 de la théorie morale du conséquentialisme. 0:27:10.970,0:27:16.329 Il s'agit de la philosophie utilitariste. 0:27:16.329,0:27:17.429 Jérémie Bentham 0:27:17.430,0:27:19.080 le philosophe politique anglais 0:27:19.079,0:27:21.689 du XVIIIème siècle 0:27:21.690,0:27:22.910 a donné 0:27:22.910,0:27:26.630 la première expression systématique clair 0:27:26.630,0:27:28.670 à la théorie morale 0:27:28.670,0:27:32.210 utilisariste. 0:27:32.210,0:27:36.400 Et l'idée de Bentham 0:27:36.400,0:27:38.440 son idée essentielle 0:27:38.440,0:27:42.930 est très simple. 0:27:42.930,0:27:44.808 avec moralement beaucoup 0:27:44.808,0:27:46.329 d'attrait intuitif. 0:27:46.329,0:27:48.429 ... 0:27:48.430,0:27:50.450 L'idée clé de Benthma est 0:27:50.450,0:27:51.590 la suivante : 0:27:51.589,0:27:54.439 la bonne action 0:27:54.440,0:27:57.799 l'action juste 0:27:57.799,0:27:58.819 consiste 0:27:58.819,0:28:01.369 à maximiser 0:28:01.369,0:28:02.339 l'utilité. 0:28:02.339,0:28:06.329 Qu'entend-il par "utilité" ? 0:28:06.329,0:28:11.490 Il entend l'équilibre 0:28:11.490,0:28:14.000 du plaisir sur la douleur 0:28:14.000,0:28:16.778 du bonheur sur la souffrance. 0:28:16.778,0:28:18.210 Voici comment nous sommes arrivés 0:28:18.210,0:28:19.259 au principe 0:28:19.259,0:28:22.308 de maximisation de l'utilité. 0:28:22.308,0:28:24.450 Il commence par observer 0:28:24.450,0:28:26.399 que nous tous 0:28:26.398,0:28:27.750 les êtres humains 0:28:27.750,0:28:31.490 sommes gouvernés par deux maîtres souverains 0:28:31.490,0:28:34.620 le plaisir et la peine 0:28:34.619,0:28:37.479 Nous, êtres humains, 0:28:37.480,0:28:42.308 aimons le plaisir et réprouvons la peine 0:28:42.308,0:28:45.839 et donc nous devrions fonder la moralité 0:28:45.839,0:28:49.169 qu'il s'agisse de penser ce que nous devons faire dans nos propres vies 0:28:49.170,0:28:50.490 ou en tant 0:28:50.490,0:28:52.579 comme législateurs ou citoyens 0:28:52.579,0:28:57.029 quand nous réfléchissons aux lois qui devraient exister, 0:28:57.029,0:29:02.069 la bonne chose à faire individuellement ou collectivement 0:29:02.069,0:29:05.838 est d'agir en sorte de maximimiser 0:29:05.838,0:29:07.659 le niveau général 0:29:07.660,0:29:11.519 de bonheur. 0:29:11.519,0:29:15.430 L'utilitarisme de Bentham est souvent résumé par le slogan 0:29:15.430,0:29:18.870 le plus grand bien pour le plus grand nombre. 0:29:18.869,0:29:20.398 Munis de ce principe basique 0:29:20.398,0:29:22.989 de l'utilité 0:29:22.990,0:29:26.410 commençons pas le mettre à l'épreuve et l'examiner 0:29:26.410,0:29:28.409 en nous intéressant à un autre cas 0:29:28.409,0:29:30.620 une autre histoire, mais cette fois 0:29:30.619,0:29:32.639 pas une histoire hypothétique 0:29:32.640,0:29:34.120 une histoire tirée de l'histoire réelle. 0:29:34.119,0:29:35.059 Il s'agit du cas 0:29:35.059,0:29:38.329 de la Reine contre Dudley et Stephens. 0:29:38.329,0:29:41.889 Il s'agit d'un cas de jurisprudence anglais du XVIIIème siècle 0:29:41.890,0:29:44.009 qui est très célèbre 0:29:44.009,0:29:47.538 et largement débattu dans les écoles de droit. 0:29:47.538,0:29:50.059 Voici ce qui s'est passé dans ce cas 0:29:50.059,0:29:51.869 Je vais d'abord résumer l'affaire 0:29:51.869,0:29:54.909 et ensuite j'aimerais entendre la façon 0:29:54.910,0:29:57.640 dont vous rendriez votre jugement 0:29:57.640,0:30:04.350 en imaginant que vous soyez jurés. 0:30:04.349,0:30:06.178 Un compte-rendu d'un journal de l'époque 0:30:06.179,0:30:09.290 décrit le contexte: 0:30:09.289,0:30:11.460 la triste histoire d'un désastre en mer 0:30:11.460,0:30:12.789 qui n'a jamais été racontée 0:30:12.789,0:30:15.288 que par les survivants du voilier 0:30:15.288,0:30:16.240 Mignonette. 0:30:16.240,0:30:19.109 Le bateau a coulé dans l'Atlantique sud 0:30:19.109,0:30:21.789 à plus de 2000km du cap. 0:30:21.789,0:30:24.000 Il y avait 4 personnes dans l'équipage 0:30:24.000,0:30:26.500 Dudley le capitaine 0:30:26.500,0:30:28.400 Stephen, le premier adjoint 0:30:28.400,0:30:30.220 Brooks le marin 0:30:30.220,0:30:31.279 Tous hommes 0:30:31.279,0:30:32.490 d'excellent caractère 0:30:32.490,0:30:34.249 selon ce que le rapport du journal 0:30:34.249,0:30:35.819 nous raconte. 0:30:35.819,0:30:38.639 La quatrième membre, l'homme de cabine, 0:30:38.640,0:30:40.300 Richard Parker 0:30:40.299,0:30:42.849 avait 17 ans. 0:30:42.849,0:30:44.629 C'était un orphelin 0:30:44.630,0:30:46.930 il n'avait aucune famille 0:30:46.930,0:30:51.410 et c'était son premier long voyage en mer. 0:30:51.410,0:30:53.700 Selon le compte-rendu, il s'oppose 0:30:53.700,0:30:56.730 aux conseils de ses amis. 0:30:56.730,0:31:00.210 Il part avec les espoirs d'une jeune ambition 0:31:00.210,0:31:03.390 estimant que le voyage ferait de lui un homme. 0:31:03.390,0:31:05.140 Malheureusement, cela n'allait pas être le cas, 0:31:05.140,0:31:07.780 les faits de l'affaire ne faisaient pas l'objet d'un débat 0:31:07.779,0:31:08.970 une vague a balayé le bateau 0:31:08.970,0:31:12.000 et la Mignonette a coulé. 0:31:12.000,0:31:14.859 Les quatre membre de l'équipage s'échappent sur un canot de sauvetage 0:31:14.859,0:31:16.199 la seule 0:31:16.200,0:31:18.380 nourriture dont ils disposent 0:31:18.380,0:31:19.659 consistait en deux 0:31:19.659,0:31:20.990 conserves 0:31:20.990,0:31:21.779 de navets 0:31:21.779,0:31:23.980 sans eau propre 0:31:23.980,0:31:26.610 Pendant les trois premiers jours, ils ne mangent rien. 0:31:26.609,0:31:30.459 Au quatrième jour, ils ouvrent l'une des boîtes de navets 0:31:30.460,0:31:31.590 et la mangent. 0:31:31.589,0:31:34.449 Le jour suivant, ils attrapent une tortue 0:31:34.450,0:31:36.960 ensemble avec l'autre boîte de navets. 0:31:36.960,0:31:38.549 La tortue 0:31:38.549,0:31:40.058 leur permet de subsister 0:31:40.058,0:31:43.069 pendant les quelques jours suivants, mais ensuite pendant huit jours 0:31:43.069,0:31:44.038 ils n'ont plus rien 0:31:44.038,0:31:47.069 ni nourriture, ni eau. 0:31:47.069,0:31:50.069 Mettez-vous dans une situation telle que celle-ci : 0:31:50.069,0:31:52.849 qu'auriez-vous fait ? 0:31:52.849,0:31:55.119 Voici ce qu'ils firent. 0:31:55.119,0:32:00.969 Entre temps, Parker, le mousse de cabine est étendu au fond du canot de sauvetage dans un coin 0:32:00.970,0:32:03.230 parce qu'il a bu de l'eau de mer 0:32:03.230,0:32:05.490 contre le conseil de ses compagnons 0:32:05.490,0:32:07.230 Il est tombé malade 0:32:07.230,0:32:10.669 et semble être en train de mourir 0:32:10.669,0:32:14.619 si bien qu'au dix-neuvième jour, le capitaine Dudley propose 0:32:14.618,0:32:17.349 qu'ils devraient tous 0:32:17.349,0:32:18.759 tirer au sort 0:32:18.759,0:32:19.619 pour voir qui 0:32:19.619,0:32:20.859 devrait mourir 0:32:20.859,0:32:24.079 pour sauver les autres. 0:32:24.079,0:32:25.210 Brooks 0:32:25.210,0:32:26.539 refuse. 0:32:26.539,0:32:29.139 Il n'aime pas cette idée de loterie. 0:32:29.140,0:32:30.619 Nous ignorons si 0:32:30.618,0:32:35.999 c'était parce qu'il ne voulait pas courir le risque ou parce qu'il adhérait à des principes moraux catégoriques 0:32:35.999,0:32:36.870 ... 0:32:36.869,0:32:38.619 mais en tout cas 0:32:38.619,0:32:42.129 aucun tirage au sort n'eut lieu. 0:32:42.130,0:32:43.230 Le jour suivant 0:32:43.230,0:32:45.028 toujours aucun bateau en vue 0:32:45.028,0:32:48.470 alors Dudley demanda à Brooks de détourner le regard 0:32:48.470,0:32:50.720 et il fit signe à Stephens 0:32:50.720,0:32:53.929 que le mousse Parker devait être tué. 0:32:53.929,0:32:55.850 Dudley récite une prière 0:32:55.849,0:32:58.480 dit au jeune homme que son temps est venu 0:32:58.480,0:33:00.679 et le tue avec un canif 0:33:00.679,0:33:03.900 d'un coup dans la veine jugulaire. 0:33:03.900,0:33:09.750 Brooks finit par renoncer à son objection de conscience concernant le partage de l'horrible butin. 0:33:09.750,0:33:11.029 Pendant quatre jours 0:33:11.029,0:33:15.230 trois d'entre eux se nourissent du corps et du sang du mousse. 0:33:15.230,0:33:17.220 Il s'agit d'une histoire vraie. 0:33:17.220,0:33:19.390 Ils sont alors sauvés. 0:33:19.390,0:33:22.840 Dudley décrit leur sauvetage 0:33:22.839,0:33:24.678 dans son journal 0:33:24.679,0:33:27.570 avec un euphémisme stupéfiant, je cite : 0:33:27.569,0:33:29.648 "Au 20 ème jour, 0:33:29.648,0:33:34.750 alors que nous petit-déjeunions [rires] 0:33:34.750,0:33:38.599 un bateau apparaît enfin." 0:33:38.599,0:33:44.309 Les trois survivants sont récupérés par un bateau allemand. Ils sont rapatriés à Falmouth en Angleterre 0:33:44.309,0:33:47.079 où ils sont arrêtés et jugés 0:33:47.079,0:33:47.829 Brooks 0:33:47.829,0:33:49.949 devient témoin pour l'Etat 0:33:49.950,0:33:54.450 Dudley et Stephen sont jugés. Ils ne remettent pas en cause les faits 0:33:54.450,0:33:55.390 ils avancent 0:33:55.390,0:33:58.140 qu'ils ont agi par nécessité. 0:33:58.140,0:33:59.430 Telle était leur défense : 0:33:59.430,0:34:01.220 ils avancent en effet 0:34:01.220,0:34:03.250 qu'il vaut mieux qu'un seul meure 0:34:03.250,0:34:06.420 pour que trois puissent survivre. 0:34:06.420,0:34:08.619 Le procureur 0:34:08.619,0:34:10.849 ne suit pas cette argumentation : 0:34:10.849,0:34:12.509 il dit qu'un meurtre est un meurtre 0:34:12.509,0:34:16.429 et donc le cas est jugé.[br]Imaginez que vous êtes les jurés 0:34:16.429,0:34:19.489 et simplement aux fins de simplifier la discussion 0:34:19.489,0:34:21.989 faites abstraction de la question de droit 0:34:21.989,0:34:23.010 et supposons qu'en tant 0:34:23.010,0:34:25.879 que jury 0:34:25.878,0:34:28.278 vous êtes chargés de décider 0:34:28.278,0:34:31.009 si ce qu'ils ont accompli était moralement 0:34:31.009,0:34:34.378 acceptable ou non. 0:34:34.378,0:34:36.608 Combien d'entre vous 0:34:36.608,0:34:39.808 voreraient 0:34:39.809,0:34:46.809 non coupable, estimant que ce qu'il ont fait était moralement acceptable ? 0:34:49.528,0:34:51.639 Et combien d'entre vous voteraient coupable 0:34:51.639,0:34:54.858 en disant qu'ils ont mal agi moralement ? 0:34:54.858,0:34:57.998 Un majorité assez importante. 0:34:57.998,0:35:03.808 Maintenant examinons ce que sont les raisons des uns et des autres, en commençant par ceux qui sont dans la minorité. 0:35:03.809,0:35:07.739 Ecoutons d'abord 0:35:07.739,0:35:10.099 les défenseurs de Dudley et Stephens. 0:35:10.099,0:35:14.160 Pourquoi les exonéreriez ? 0:35:14.159,0:35:17.989 Quelles sont vos raisons ? 0:35:17.989,0:35:20.798 Je pense que l'acte est moralement condamnable 0:35:20.798,0:35:24.349 mais je pense qu'il existe une différence entre ce qui est moralement réprehensible 0:35:24.349,0:35:26.609 et ce qui vous rend légalement responsable. 0:35:26.608,0:35:30.690 En d'autres termes, comme le juge le disait, ce qui est toujours moral n'est pas nécessairement 0:35:30.690,0:35:34.789 contraire à la loi et même si je ne pense pas que la nécessité 0:35:34.789,0:35:36.169 puisse justifier 0:35:36.168,0:35:38.578 le vol, le meurtre ou tout autre acte illégal 0:35:38.579,0:35:43.509 à un certain point, le degré de nécessité qui est le vôtre 0:35:43.509,0:35:45.849 vous exonère de tout sentiment de culpabilité. Ok. 0:35:45.849,0:35:50.588 Y a-t-il d'autres défenseurs, d'autres voix pour la défense ? 0:35:50.588,0:35:53.038 Des justifications morales de 0:35:53.039,0:35:56.989 ce qu'ils ont fait ? 0:35:56.989,0:35:57.619 Oui, merci 0:35:57.619,0:35:58.798 ... 0:35:58.798,0:35:59.570 J'ai simplement le sentiment 0:35:59.570,0:36:03.139 qu'en une situation aussi désespérée vous devez faire ce que vous avez à faire pour survivre. 0:36:03.139,0:36:04.679 Vous avez à faire à ce que vous avez à faire 0:36:04.679,0:36:06.789 ouais, c'est ça tu dois faire ce que tu dois faire 0:36:06.789,0:36:07.849 Si vous avez vécu 0:36:07.849,0:36:09.899 dix-neuf jours sans nourriture 0:36:09.898,0:36:14.710 vous savez que quelqu'un doit simplement être sacrifié, doit faire des sacrifices pour que les gens puissent survivre 0:36:14.710,0:36:16.139 et en plus de cela 0:36:16.139,0:36:21.299 disons que s'ils survivent et deviennent alors des membres qui contribuent à la société, qui rentrent dans leur patrie et qui établissent disons 0:36:21.300,0:36:26.230 un million d'organisations charitables et ceci ou cela, eh bien je pense qu'au bout du compte tout le monde en profite. 0:36:26.230,0:36:28.519 Au fond, je ne sais pas ce qu'ils ont fait par la suite, au fond ils pourraient 0:36:28.519,0:36:30.478 avoir continué en tuant plus de gens 0:36:30.478,0:36:32.889 mais peu importe. 0:36:32.889,0:36:35.708 Comment ? Et si ils rentrent chez eux et s'avèrent être des assassins ? 0:36:35.708,0:36:38.908 Et s'ils rentrent chez eux et s'avèrent être des assassins ? 0:36:38.909,0:36:42.878 Vous chercheriez sans doute à savoir qui ils ont assassionés. 0:36:42.878,0:36:45.848 C'est vrai aussi, c'est acceptable. 0:36:45.849,0:36:49.609 Je chercherais à savoir qui ils ont assassinés. 0:36:49.608,0:36:50.708 OK, c'est intéressant. Quel est votre nom ? Marcus. 0:36:50.708,0:36:52.489 Nous venons d'entendre la défense 0:36:52.489,0:36:54.050 deux voix pour la défense 0:36:54.050,0:36:55.660 Maintenant il faut que nous entendions 0:36:55.659,0:36:57.298 l'accusation 0:36:57.298,0:36:59.338 La plupart des gens pensent 0:36:59.338,0:37:05.068 que ce qu'ils ont fait était une mauvaise action, pourquoi ? 0:37:05.068,0:37:09.898 Au départ mon premier mouvement était de penser, oh après tout, il n'ont pas pu manger pendant un très long moment 0:37:09.898,0:37:11.409 peut-être 0:37:11.409,0:37:12.469 alors 0:37:12.469,0:37:15.139 que leurs facultés mentales étaient altérées 0:37:15.139,0:37:16.408 ce qui pourrait être utilisé par la défense 0:37:16.409,0:37:20.619 C'est un argument plausible : "oh 0:37:20.619,0:37:24.179 puisqu'ils n'avaient plus tout leur jugement, ils ont pris 0:37:24.179,0:37:28.519 des décisions qu'ils n'auraient jamais prises autrement".[br]Mais si cet argument est séduisant 0:37:28.518,0:37:33.608 cela suggère que les gens qui trouvent cet argument convaincant 0:37:33.608,0:37:36.108 [estiment que ce n'est pas normalement l'acte d'un homme éclairé] 0:37:36.108,0:37:40.088 Mais estimez-vous qu'ils agissent immoralement ? J'aimerais savoir ce que vous pensez. Vous êtes du côté de la défense. 0:37:40.088,0:37:41.248 - ah non, désolé, vous avez voté pour qu'ils soient reconnus coupables.[br]- ouioui, je ne pense pas qu'ils ont agi d'une façon appropriée 0:37:45.548,0:37:49.449 sur le plan moral.[br]- Et pourquoi pas. Souvenez-vous de Marcus 0:37:49.449,0:37:51.088 il vient de les défendre, 0:37:51.088,0:37:52.909 il disait 0:37:52.909,0:37:53.880 vous avez entendu ce qu'il disait, 0:37:53.880,0:37:55.249 Oui, en effet 0:37:55.248,0:37:56.558 Oui 0:37:56.559,0:38:00.119 que vous aviez à faire ce que vous aviez à faire dans une situation comme celle-là 0:38:00.119,0:38:04.789 Qu'avez-vous à répondre à Marcus ? 0:38:04.789,0:38:06.439 Qu'ils n'avaient pas à faire cela, 0:38:06.438,0:38:13.438 qu'il n'existe aucune situation qui autorise des êtres humains 0:38:13.579,0:38:17.959 à forcer le destin ou à mettre la vie des gens entre leurs mains : 0:38:17.958,0:38:19.328 nous n'avons pas ce type de pouvoir. 0:38:19.329,0:38:21.399 Bien, ok. 0:38:21.398,0:38:24.130 Merci, et quel est votre nom ? 0:38:24.130,0:38:24.548 Britt? ok. 0:38:24.548,0:38:26.028 Qui d'autre ? 0:38:26.028,0:38:28.159 Qu'avez-vous à dire ? Levez-vous. 0:38:28.159,0:38:35.159 Je me demandais si Dudley et Stephens avaient cherché le consentement de Richard Parker, dans le fait de mourir. 0:38:35.429,0:38:37.568 Si cela était le cas 0:38:37.568,0:38:41.228 cela les exonérerait-il 0:38:41.228,0:38:45.448 d'un acte de meurtre, et si oui cela l'acte serait-il pour autant moralement justifiable ? 0:38:45.449,0:38:51.720 C'est intéressant. Très bien. "Le consentement". Attendez un moment. Quel est votre nom ? Kathleen. 0:38:51.719,0:38:56.088 Kathleen. Supposons que ce soit le cas, à quoi ce scénario ressemblerait-il ? 0:38:56.088,0:38:56.619 L'histoire se déroulerait ainsi : 0:38:56.619,0:39:00.410 Dudley est présent, avec son canif à la main, 0:39:00.409,0:39:02.608 mais au lieu d'une prière 0:39:02.608,0:39:04.588 ou avant la prière 0:39:04.588,0:39:07.599 il dit à Parker 0:39:07.599,0:39:11.519 est-ce que cela t’ennuierait s'il te plaît 0:39:11.518,0:39:14.348 nous sommes désespérément affamés 0:39:14.349,0:39:17.679 -et Marcus en est très touché- 0:39:17.679,0:39:19.769 nous sommes désespérément affamés 0:39:19.768,0:39:22.168 de toutes façons tu n'en as plus pour longtemps 0:39:22.168,0:39:23.498 tu as l'opportunité de devenir un martyre 0:39:23.498,0:39:25.748 Aimerais-tu devenir un martyre ? 0:39:25.748,0:39:29.468 Qu'en penses-tu Parker ? 0:39:29.469,0:39:33.220 Et alors, et alors... 0:39:33.219,0:39:37.639 qu'en pensez-vous ? Cela serait-il justifiable ? 0:39:37.639,0:39:38.219 Supposez que Parker 0:39:38.219,0:39:40.168 dans sa semi-stupeur 0:39:40.168,0:39:42.498 dise "très bien" 0:39:42.498,0:39:47.889 Je ne pense pas que cela soit moralement légitime, mais je me pose la question.[br]- Même avec le consentement cela ne serait pas acceptable ? - Non. 0:39:47.889,0:39:50.650 Vous pensez donc que même avec le consentement 0:39:50.650,0:39:52.490 cela ne serait pas défendable moralement . 0:39:52.489,0:39:54.568 D'autres personnes sont-elles prêtes ici 0:39:54.568,0:39:56.369 à reprendre l'idée de consentement 0:39:56.369,0:39:57.200 de Kathleen 0:39:57.199,0:40:01.688 mais qui pensent que cela rendrait l'acte moral ? Levez la main si vous pensez 0:40:01.688,0:40:05.868 que ce serait le cas. 0:40:05.869,0:40:07.588 C'est très intéressant. 0:40:07.588,0:40:09.168 Pourquoi le consentement 0:40:09.168,0:40:15.888 entraînerait-il une différence sur le plan moral ? 0:40:15.889,0:40:18.509 En fait, je pense que ce n'est seulement qu'à la condition que cela soit son idée originale 0:40:18.509,0:40:20.969 que ce soit lui qui ait commencé à avoir cette idée 0:40:20.969,0:40:23.778 cela serait la seule situation dans laquelle je pense que le consentement serait véritable 0:40:23.778,0:40:25.940 parce qu'ainsi personne ne pourrait dire qu'il 0:40:28.358,0:40:30.579 a subi une pression, parce que le ratio était de trois 0:40:30.579,0:40:32.759 contre un 0:40:32.759,0:40:34.070 et je pense que 0:40:34.070,0:40:38.009 s'il avait pris la décision d'offrir sa vie alors il aurait pris la responsabilité 0:40:38.009,0:40:42.668 de se sacrifier par lui-même, ce que certains auraient trouvé admirable et d'autres 0:40:42.668,0:40:45.449 condamnable. 0:40:45.449,0:40:49.099 Autrement dit, c'est seulement s'il avait introduit l'idée 0:40:49.099,0:40:52.820 que nous pourrions avoir confiance dans ce type de consentement. 0:40:52.820,0:40:55.359 Moralement, cela serait alors acceptable. 0:40:55.358,0:40:57.268 Autrement, 0:40:57.268,0:40:59.788 cela serait une forme de consentement contraint par la violence 0:40:59.789,0:41:01.469 des circonstances. 0:41:01.469,0:41:05.278 C'est ce que vous pensez. 0:41:05.278,0:41:07.349 Est-ce que quelqu'un pense 0:41:07.349,0:41:10.979 que même le consentement de Parker 0:41:10.978,0:41:13.419 ne justifierait 0:41:13.420,0:41:15.479 pas son exécution ? 0:41:15.478,0:41:18.088 Qui pense cela ? 0:41:18.088,0:41:19.538 Oui, dites-nous pourquoi, levez-vous 0:41:19.539,0:41:21.260 Je pense que Parker 0:41:21.260,0:41:22.319 est tué 0:41:22.318,0:41:26.558 avec l'espoir que les autres membres de l'équipages soient sauvés. 0:41:26.559,0:41:29.250 Il n'y a donc pas de raison bien certaine pour les tuer 0:41:29.250,0:41:31.199 puisqu'ils ne savent pas avec certitude 0:41:31.199,0:41:35.809 si l'on viendra les sauver : il est donc possible qu'on le tue en vain. 0:41:35.809,0:41:38.039 Va-t-on continuer un membre de l'équipe après l'autre jusqu'au sauvetage jusqu'à ce qu'il n'en reste plus qu'un... 0:41:38.039,0:41:40.309 ... au motif que quelqu'un mourra de toutes façons ? 0:41:40.309,0:41:44.199 C'est bien ce qui semble être la logique de la situation : 0:41:44.199,0:41:45.829 ils continueraient probablement 0:41:45.829,0:41:50.318 à choisir le plus faible, l'un après l'autre, 0:41:50.318,0:41:51.818 jusqu'à ce qu'ils soient 0:41:51.818,0:41:57.679 sauvés, et dans notre cas alors que trois étaient encore vivants. 0:41:57.679,0:41:58.880 Maintenant si 0:41:58.880,0:42:01.298 si Parker avait bien donné son consentement 0:42:01.298,0:42:04.068 tout serait-il bien selon vous ou pas ? 0:42:04.068,0:42:06.329 Non, cela ne serait pas bien. 0:42:06.329,0:42:08.030 Expliquez-nous alors pourquoi. 0:42:08.030,0:42:10.028 Premièrement, le cannibalisme est selon moi 0:42:10.028,0:42:13.228 moralement mauvais 0:42:13.228,0:42:14.509 On ne doit donc pas manger un être humain de toutes façons. 0:42:14.510,0:42:17.449 Donc 0:42:17.449,0:42:19.380 si le cannibalisme est moralement répréhensible en-dehors de ce cas 0:42:19.380,0:42:22.400 il l'est aussi dans le cas 0:42:22.400,0:42:24.568 d'une personne qui attendrait la mort d'une personne 0:42:24.568,0:42:27.018 il serait alors toujours condamnable 0:42:27.018,0:42:27.929 Oui, à mes yeux 0:42:27.929,0:42:29.739 j'ai le sentiment 0:42:29.739,0:42:31.199 que tout dépend 0:42:31.199,0:42:35.288 de la morale personnelle de chacun... on ne peut pas simplement... enfin ce n'est que mon opinion... 0:42:35.289,0:42:39.339 bien sûr d'autres personnes vont me contredire... 0:42:39.338,0:42:41.498 Ej bien, nous allons voir, écoutons en quoi ils sont en désaccord. 0:42:41.498,0:42:42.639 Et alors nous verrons 0:42:42.639,0:42:44.259 s'ils ont des raisons 0:42:44.259,0:42:46.228 qui peuvent vous persuader ou non. 0:42:46.228,0:42:48.358 Essayons ça. 0:42:48.358,0:42:50.098 Voyons 0:42:50.099,0:42:53.249 maintenant s'il y a quelqu'un 0:42:53.248,0:42:57.908 qui peut expliquer, pour ceux qui sont tentés par le consentement, 0:42:57.909,0:42:59.778 qui pourrait expliquer 0:42:59.778,0:43:02.028 pourquoi le consentement produit 0:43:02.028,0:43:03.358 une telle différence morale ? 0:43:03.358,0:43:05.650 Que pensez-vous de l'idée du tirage au sort ? 0:43:05.650,0:43:08.930 Est-ce que cela s'assimile à du consentement ? Souvenez-vous au départ 0:43:08.929,0:43:11.308 Dudley a proposé une loterie 0:43:11.309,0:43:13.839 supposez qu'ils se soient mis d'accord 0:43:13.838,0:43:16.338 pour ce tirage au sort 0:43:16.338,0:43:17.369 alors 0:43:17.369,0:43:20.798 combien auraient estimé 0:43:20.798,0:43:23.929 que ce serait bien. Supposons qu'il y ait ce tirage au sort, 0:43:23.929,0:43:25.380 que le mousse ait perdu 0:43:25.380,0:43:32.380 et que le reste de l'histoire en découle. Combien d'entre vous y verraient quelque chose de moralement acceptable ? 0:43:33.199,0:43:37.030 Donc les chiffres montent quand on ajoute un tirage au sort ! Ecoutons l'un de ceux 0:43:37.030,0:43:41.609 pour qui la loterie produit une différence morale 0:43:41.608,0:43:43.458 Pourquoi donc ? 0:43:43.458,0:43:44.739 Je pense que l'élément 0:43:44.739,0:43:45.718 essentiel, 0:43:45.719,0:43:47.858 qui constitue un crime est 0:43:47.858,0:43:53.848 l'idée qu'ils ont décidé à un certain moment que leurs vies étaient plus importantes que la sienne, et cela 0:43:53.849,0:43:56.609 je pense que c'est le fondement d'à peu près tout crime 0:43:56.608,0:43:57.688 n'est-ce pas ? C'est un peu comme dire 0:43:57.688,0:44:01.949 mes besoins, mes désirs sont plus importants que les tiens, les miens priment 0:44:01.949,0:44:04.798 alors que s'ils avaient organisé un tirage au sort où chacun aurait consenti 0:44:04.798,0:44:06.478 que l'un d'autre eux devrait mourir 0:44:06.478,0:44:09.239 alors c'est d'une certaine façon comme s'ils se sacrifiaient tous eux-mêmes, 0:44:09.239,0:44:11.008 pour sauver les autres. 0:44:11.009,0:44:12.949 Alors tout serait pour le mieux ? 0:44:12.949,0:44:15.880 Cela paraît un peu grotesque mais, ... 0:44:15.880,0:44:18.959 ... est-ce moralement acceptable ?[br]- Oui. 0:44:18.958,0:44:22.688 Quel votre nom ? Matt. 0:44:22.688,0:44:25.578 Donc Matt 0:44:25.579,0:44:27.329 ce qui vous contrarie, ce n'est pas 0:44:27.329,0:44:31.389 le cannibalisme mais l'absence d'un processus régulier. 0:44:31.389,0:44:34.689 Je suppose qu'on peut dire cela. 0:44:34.688,0:44:38.170 Et est-ce qu'une personne qui serait d'accord avec Matt 0:44:38.170,0:44:40.499 pourrait en dire un peu plus 0:44:40.498,0:44:41.378 sur la raison pour laquelle 0:44:41.378,0:44:43.690 un tirage au sort 0:44:43.690,0:44:47.099 rendrait selon vous 0:44:47.099,0:44:50.979 de la moralité à l'action ? 0:44:50.978,0:44:55.568 Selon la manière dont j'ai compris la situation le problème provenait du fait que le mousse n'a jamais été 0:44:55.568,0:44:56.398 consulté 0:44:56.398,0:45:00.478 sur le fait que quelque chose lui arriverait ou non, et même dans 0:45:00.478,0:45:01.088 le tirage au sort initial 0:45:01.088,0:45:04.420 s'il en ferait partie au non. On a juste décidé pour lui 0:45:04.420,0:45:08.170 qu'il allait être celui qui allait mourir.[br]- Oui c'est bien ce qui s'est passé dans le cas réel... 0:45:08.170,0:45:11.900 ... mais s'il y avait eu ce tirage au sort et que tous se seraient mis d'accord sur la procédure ... 0:45:11.900,0:45:13.539 pensez-vous que cela aurait été acceptable ? 0:45:13.539,0:45:16.418 Oui, parce que tout le monde aurait conscient qu'il y aurait un mort 0:45:16.418,0:45:17.079 alors 0:45:17.079,0:45:18.878 que l'on sait que le mousse de cabine ne savait même pas 0:45:18.878,0:45:21.038 qu'une discussion avait seulement lieu 0:45:21.039,0:45:21.919 il n'y avait 0:45:21.918,0:45:23.578 d'avertissement préalable 0:45:23.579,0:45:28.829 qu'il lui aurait permis de savoir "hé, je pourrais être celui qui va mourir". Of, mais supposons maintenant que tout le monde approuve 0:45:28.829,0:45:35.089 le principe de la loterie, qu'elle ait lieu, que le mousse perde et qu'il change alors d'avis. 0:45:35.088,0:45:40.989 Il avait déjà pris une décision : il s'agit d'un accord verbal, sur lequel vous ne pouvez revenir. La décision fut prise. 0:45:40.989,0:45:45.139 Vous savez que vous allez mourir pour permettre aux autres de vivre. 0:45:45.139,0:45:45.999 Vous savez 0:45:45.998,0:45:47.688 que si un autre que vous allait mourir 0:45:47.688,0:45:51.969 vous l'auriez mangé, donc... 0:45:51.969,0:45:57.429 Mais alors, il pourrait dire je le savais, mais j'ai perdu. 0:45:57.429,0:46:01.939 Je pense que tout le problème moral tient au fait que le mousse n'a pas été consulté 0:46:01.938,0:46:04.298 et le plus terrible 0:46:04.298,0:46:08.909 est qu'il n'avait aucune idée de ce qui se tramait. S'il avait su 0:46:08.909,0:46:10.599 cela aurait 0:46:10.599,0:46:13.109 été un peu plus compréhensible. 0:46:13.108,0:46:14.509 Parfait, j'aimerais maintenant entendre... 0:46:14.510,0:46:17.049 Il y a donc ceux qui pensent 0:46:17.048,0:46:18.708 que l'action est acceptable moralement 0:46:18.708,0:46:24.048 mais seulement à peu près 20% 0:46:24.048,0:46:26.559 conduits par Marcus 0:46:26.559,0:46:28.439 il y a ensuite ceux qui disent 0:46:28.438,0:46:30.208 que le véritable problème 0:46:30.208,0:46:32.838 tient à l'absence de consentement 0:46:32.838,0:46:37.139 qu'il s'agisse de l'absence de consentement au tirage au sort ou à une procédure réglée 0:46:37.139,0:46:38.588 ou 0:46:38.588,0:46:39.690 et c'est l'idée de Kathlenn 0:46:39.690,0:46:40.749 l'absence de consentement 0:46:40.748,0:46:42.928 au moment 0:46:42.929,0:46:45.139 de la mort. 0:46:45.139,0:46:48.318 Si nous ajoutons ce consentement 0:46:48.318,0:46:49.019 alors 0:46:49.019,0:46:51.889 plus de gens sont prêts à envisager 0:46:51.889,0:46:54.528 que le sacrifice est moralement justifié. 0:46:54.528,0:46:56.639 Pour terminer, j'aimerais entendre 0:46:56.639,0:46:58.548 ceux de vous qui pensent 0:46:58.548,0:47:00.199 que même avec le consentement 0:47:00.199,0:47:01.898 même avec une loterie 0:47:01.898,0:47:02.519 et même avec 0:47:02.519,0:47:04.579 un murmure 0:47:04.579,0:47:06.950 de consentement final de Parker 0:47:06.949,0:47:08.018 au derniers 0:47:08.018,0:47:09.179 instants 0:47:09.179,0:47:10.838 cela serait toujours 0:47:10.838,0:47:12.639 mauvais sur le plan moral 0:47:12.639,0:47:14.248 et pourquoi cela serait mauvais. 0:47:14.248,0:47:16.998 Voilà ce que j'aimerais entendre. 0:47:16.998,0:47:18.818 Eh bien pendant toute cette discussion 0:47:18.818,0:47:22.639 je ne cesse de me rapprocher vers le raisonnement moral catégorique. 0:47:22.639,0:47:25.568 Je pense qu'il 0:47:25.568,0:47:29.608 y aurait une éventualité dans laquelle je pourrais approuver l'idée qu'une loterie ait lieu si le perdant 0:47:29.608,0:47:31.440 se donnait lui-même 0:47:31.440,0:47:32.749 la mort 0:47:32.748,0:47:33.679 ... 0:47:33.679,0:47:37.358 Il n'y aurait donc de meurtre mais je persiste à penser 0:47:37.358,0:47:42.278 que même dans ce cas, tout serait contraint et je ne pense pas non plus qu'un seul remord 0:47:42.278,0:47:43.338 soit exprimé dans le journal de Dudley. 0:47:43.338,0:47:44.909 "Nous )petit-déjeunons" : 0:47:44.909,0:47:47.659 on dirait qu'il de ce gens d'état d'esprit 0:47:47.659,0:47:51.440 qui nie la valeur de la vie d'un autre. 0:47:51.440,0:47:53.639 Tout cela fait que 0:47:53.639,0:47:57.969 je me sens le devoir d'adopter l'attitude catégorique. On a envie de lui le jeter son journal à la figure.. 0:47:57.969,0:48:02.298 ... lorsqu'il manque de remords ou du moindre sentiment d'avoir commis quelque chose de mal.[br]- Très bien. 0:48:02.298,0:48:06.969 Parfait, y a-t-il d'autres 0:48:06.969,0:48:08.769 défenseurs qui 0:48:08.768,0:48:13.268 estiment que l'acte est catégoriquement mauvais, avec ou sans consentement. Oui, levez-vous. Pourquoi ? 0:48:13.268,0:48:17.288 Je pense que notre société est indubitablement structurée selon l'idée qu'un meurtre est un meurtre 0:48:17.289,0:48:21.829 un meurtre est un meurtre et ceci dans tous les cas où notre société l'envisage 0:48:21.829,0:48:24.780 et je ne pense que cela change en fonction de la situation. OK, mais laissez-moi vous poser une question. 0:48:24.780,0:48:27.119 Trois vies étaient en jeu 0:48:27.119,0:48:30.489 contre une seule. 0:48:30.489,0:48:33.028 Cette vie, c'est celle du mousse qui était sans famille 0:48:33.028,0:48:34.509 sans personnes à charge 0:48:34.509,0:48:38.739 alors que les autres avaient des familles et beaucoup de personnes à charge qui attendaient leur retour en Angleterre 0:48:38.739,0:48:41.418 Epouses et enfants. 0:48:41.418,0:48:43.328 Repensez à Bentham. 0:48:43.329,0:48:44.989 Bentham soutient que nous devons prendre en considération 0:48:44.989,0:48:48.048 le bien-être, l'utilité, le bonheur 0:48:48.048,0:48:51.288 de tous. Il faut donc tout aditionner 0:48:51.289,0:48:54.640 il ne s'agit pas que des chiffres "trois contre un", 0:48:54.639,0:48:58.759 c'est aussi tous ces gens restés au pays. 0:48:58.759,0:49:00.909 En fait, le journal londonien de l'époque, The Times, 0:49:00.909,0:49:04.248 et l'opinion publique avaient de la sympathie pour eux 0:49:04.248,0:49:05.478 Dudley et Stephens 0:49:05.478,0:49:07.919 et le journal écrivait que s'il n'avaient pas 0:49:07.920,0:49:08.280 été motivés 0:49:08.280,0:49:09.640 par l'affection 0:49:09.639,0:49:13.489 et le souci des personnes aimée ou à charge restées au pays, ils n'auraient sûrement pas 0:49:13.489,0:49:15.969 fait cela.[br]- Oui, mais en quoi est-ce différent des gens 0:49:15.969,0:49:17.369 qui sont au coin de la rue 0:49:17.369,0:49:21.108 et ont ce même désir de nourrir leur famille ? A mes yeux, cela n'est pas différent. Je pense que dans tous les cas, 0:49:21.108,0:49:25.279 si je vous assassine pour améliorer mon état, il s'agit bien d'un meurtre et je pense que nous devons considérer toute 0:49:25.280,0:49:28.430 cette situation à la même lumière. Au lieu de criminaliser 0:49:28.429,0:49:30.278 certaines activités 0:49:30.278,0:49:33.760 et considérer que certaines semblent plus violentes ou sauvages 0:49:33.760,0:49:36.760 alors que dans ce même cas c'est exactement la même action et mentalité 0:49:36.760,0:49:40.150 qui conduisent au meurtre, à savoir la nécessité de nourrir leurs familles. 0:49:40.150,0:49:43.028 Supposez qu'ils n'étaient pas trois, mais trente 0:49:43.028,0:49:44.608 ou 300, 0:49:44.608,0:49:47.358 une vie pour en sauver trois-cents 0:49:47.358,0:49:48.349 ou avec un peu plus de temps 0:49:48.349,0:49:49.589 trois mille 0:49:49.590,0:49:51.039 ou supposez que les enjeux soient encore plus grands. 0:49:51.039,0:49:52.778 Supposez que les enjeux soient encore plus grands. 0:49:52.778,0:49:54.608 Je pense que c'est toujours la même affaire. 0:49:54.608,0:49:58.108 Estimez-vous que Bentham avait tort de dire que la bonne action 0:49:58.108,0:49:58.929 consiste à aditionner 0:49:58.929,0:50:02.479 le bonheur collectif. Pensez-vous qu'il s'est trompé sur ce sujet ? 0:50:02.478,0:50:06.728 Je ne pense pas mais un meurtre est un meurtre dans tous les cas. - Eh bien alors Bentham doit avoir tort 0:50:06.728,0:50:09.568 si vous avez raison, alors il a tort. Très bien, alors il a tort. 0:50:09.568,0:50:12.818 Bien, merci, bravo. 0:50:12.818,0:50:14.358 Bien, prenons un peu de recul 0:50:14.358,0:50:16.389 par rapport à toute cette discussion 0:50:16.389,0:50:19.728 et prêtons attention 0:50:19.728,0:50:23.259 au nombre d'objections qui ont été exprimées sur leurs actes. 0:50:23.259,0:50:26.048 Nous avons entendu des arguments pour les défendre. 0:50:26.048,0:50:28.509 Elles étaient liées à la 0:50:28.509,0:50:28.918 nécessité 0:50:28.918,0:50:32.588 aux circonstances extrêmes et, 0:50:32.588,0:50:33.409 au moins implicitement, 0:50:33.409,0:50:36.018 à l'idée que les nombres importent 0:50:36.018,0:50:37.858 et pas simplement les nombres 0:50:37.858,0:50:40.380 mais les conséquences au sens large 0:50:40.380,0:50:43.459 leurs familles, les personnes à charge restées au pays. 0:50:43.458,0:50:44.768 Parker était orphelin 0:50:44.768,0:50:47.978 il n'aurait manqué à personne 0:50:47.978,0:50:49.578 donc si vous 0:50:49.579,0:50:50.829 aditionnez 0:50:50.829,0:50:52.649 et essayiez de calculer 0:50:52.648,0:50:53.998 le solde 0:50:53.998,0:50:56.598 entre le bien-être et la souffrance 0:50:56.599,0:50:58.838 vous pourriez avoir un argument 0:50:58.838,0:51:02.768 pour dire qu'ils ont fait une bonne action. 0:51:02.768,0:51:09.468 Nous avons alors entendu au moins trois types d'objections différentes 0:51:09.469,0:51:11.690 une objection disait 0:51:11.690,0:51:14.108 que leurs actes étaient catégoriquement mauvais 0:51:14.108,0:51:15.750 juste ici au fond 0:51:15.750,0:51:17.389 catégoriquement immorale. 0:51:17.389,0:51:19.820 Un meurtre est un meurtre, qui est toujours mal 0:51:19.820,0:51:20.969 même si 0:51:20.969,0:51:23.349 cela accroît le bien-être général 0:51:23.349,0:51:25.639 de la société. 0:51:25.639,0:51:28.499 C'était l'objection catégorique. 0:51:28.498,0:51:30.738 Mais il nous reste encore à examiner 0:51:30.739,0:51:32.749 pourquoi le meurtre 0:51:32.748,0:51:35.448 est catégoriquement mauvais. 0:51:35.449,0:51:38.579 Est-ce parce 0:51:38.579,0:51:42.339 que même les mousses de cabine ont certains droits fondamentaux ? 0:51:42.338,0:51:44.400 Et si telle est la raison 0:51:44.400,0:51:47.880 d'où proviennent ces droits, si ce n'est de l'idée 0:51:47.880,0:51:53.209 du bien-être général, de l'utilité ou du bonheur. Question n°1. 0:51:53.208,0:51:56.308 D'autres ont avancé 0:51:56.309,0:51:58.449 qu'un tirage au sort aurait tout changé 0:51:58.449,0:52:00.039 une juste procédure 0:52:00.039,0:52:05.949 comme le disait Matt. 0:52:05.949,0:52:08.769 Vous avez été un certain nombre à avoir été convaincus. 0:52:08.768,0:52:12.188 Il ne s'agissait pas tout à fait d'une objection catégorique 0:52:12.188,0:52:13.828 elle avancait 0:52:13.829,0:52:16.798 que chacun avait à être considéré de façon égale 0:52:16.798,0:52:18.469 même si, au bout du compte, 0:52:18.469,0:52:20.769 l'un d'entre eux aurait à être sacrifié 0:52:20.768,0:52:23.288 au nom du bien-être général. 0:52:23.289,0:52:26.059 Cela nous conduit à examiner une autre question 0:52:26.059,0:52:29.670 En quoi un accord à une certaine procédure 0:52:29.670,0:52:31.969 même une procédure "juste" 0:52:31.969,0:52:34.739 justifierait son résultat quel qu'il soit 0:52:34.739,0:52:38.088 à partir du fonctionnement de cette procédure ? 0:52:38.088,0:52:39.898 Question n°2 0:52:39.898,0:52:42.398 Et question n°3. 0:52:42.398,0:52:45.338 L'idée fondamentale du consentement. 0:52:45.338,0:52:48.528 Kathleen nous y a conduit. 0:52:48.528,0:52:52.719 Si le mousse avait consenti par lui-même 0:52:52.719,0:52:54.499 et non sous la contrainte 0:52:54.498,0:52:57.068 comme cela a été précisé 0:52:57.068,0:53:01.918 alors il aurait acceptable de prendre sa vie pour sauver les autres. 0:53:01.918,0:53:04.900 Une proportion encore plus large d'entre vous a adhéré à cette idée 0:53:04.900,0:53:06.630 mais soulève 0:53:06.630,0:53:08.528 une 3ème question philosophique 0:53:08.528,0:53:11.009 Quelle est l'action morale 0:53:11.009,0:53:12.838 du consentement ? 0:53:12.838,0:53:14.438 ... 0:53:14.438,0:53:16.978 Pourquoi l'acte du consentement 0:53:16.978,0:53:19.188 produirait-il une telle différence morale 0:53:19.188,0:53:23.818 au point qu'un acte supposé mauvais sans consentement -prendre une vie- 0:53:23.818,0:53:25.369 deviendrait 0:53:25.369,0:53:26.358 moralement acceptable 0:53:26.358,0:53:29.619 avec lui? 0:53:29.619,0:53:31.699 Pour examiner ces trois questions 0:53:31.699,0:53:34.108 nous devrons lire quelques philosophes 0:53:34.108,0:53:35.728 et lorsque nous commencerons la prochaine fois 0:53:35.728,0:53:36.939 nous allons lire 0:53:36.940,0:53:37.720 Bentham 0:53:37.719,0:53:43.798 et John Stuart Mill, deux philosophes utilitaristes. 0:53:43.798,0:53:47.298 Ne passez pas à côté de la possibilité d'interagir en ligne avec d'autres spectateurs de "Justice" 0:53:43.798,0:53:47.298 Rejoignez la conversation 0:53:49.869,0:53:56.869 passez un quizz, visionnez les cours que vous avez manqué et bien plus encore. Visitez www.justiceharvard.org. "C'est la bonne chose à faire". 0:54:36.219,0:54:40.269 Financement du programme assuré par : 0:54:40.268,0:54:41.678 Financement complémentaire assuré par :[br]Traduction originale www.canal-educatif.fr