LES DRONES ARMES AU CŒUR DES DÉBATS ETHIQUES

Tout au long de l’histoire, la tendance naturelle de l’humanité à pratiquer la guerre ne s’est jamais démentie. Selon Emmanuel Kant, pour qui « la guerre n’a que faire de motivation, mais semble indissociable de la nature humaine et se voit même attribuée valeur de noblesse », le principal danger de l’homme est lui même. Si l’innovation technologique a toujours été au cœur de l’activité humaine – permettant parfois des ruptures dans l’art de la guerre – les conflits sont aussi des moments privilégiés de l’inventivité scientifique. Ainsi, les deux guerres mondiales de 1914-1918 et 1940-1944 sont à l’origine de multiples innovations : lance flamme, grenades, gaz de combat etc.

 

Que représente, dès lors, l’arrivé des drones dans le paysage stratégique contemporain ? Sont-ils la « nouvelle figure aérienne du mal » comme le laisse penser J. Henrotin[1] ?

Le sujet bénéficie d’une couverture médiatique importante et les drones américains, notamment dans le cadre des targeted killing conduits par la Central Intelligence Agency (CIA) pour lutter contre Al-Qaïda, sont l’objet de vives polémiques. En effet, l’emploi létal des UAV par quelques États nations occidentaux, principalement les Etats-Unis, s’est accru au fil des années sur plusieurs théâtres d’opérations – Pakistan, Yémen, Afghanistan, Somalie – et l’émergence de cette technologie a suscité un vaste débat autour de la justification éthique de son emploi. Certains estiment par exemple que les drones armés créent une situation de conflit asymétrique particulièrement vile et déshonorante et que l’efficacité de leur emploi dans le cadre de la lutte anti-terroriste n’est pas prouvée. D’autres soulignent les répercussions psychologiques sur les opérateurs – qui sont souvent à des milliers de kilomètres du théâtre d’opération – qui peuvent provoquer une dissonance cognitive grave chez le combattant. Enfin, des auteurs affirment que le droit de la guerre – dans sa conception contemporaine par le jus ad bellum et surtout le jus in bello -  n’est pas respecté.

 

Bien que la drone warfare soit relativement récente, les problèmes qu’elle soulève ne le sont pas et correspondent à des interrogations éthiques sur la conduite de la guerre tout à fait traditionnelles. En effet, appliquer à la pratique contemporaine de la guerre à distance  la théorie de la guerre juste, qui trouve ses origines chez Saint Augustin[2]. Les théoriciens de la guerre juste, dont Michael Walzer est l’un des penseurs modernes[3], partagent avec les forces armées une même vision du rôle que peuvent jouer les innovations technologiques dans la conduite de la guerre. Pour eux, les états-majors doivent adapter leur cadre éthique aux problèmes posés par les innovations technologiques, problèmes liés aussi bien à la théorie de la guerre juste qu’à l’approche militaire de la guerre à distance ou encore à la conduite elle-même de la guerre. Surtout, le danger vient du fait qu’on accorde trop souvent d’importance à ce qu’apporte la technologie, notamment l’avantage d’écarter les risques de mort du combattant en l’éloignant du champ de bataille, alors qu’on oublie de considérer le sens que le combattant qui est éloigné du champ de bataille va donner à cette technologie[4].

 

La technologie permettrait une plus grande discrimination que par le passé puisque les technologies militaires les plus avancées ne mettraient plus leurs utilisateur en danger tout en imposant des coûts très élevés à leurs cibles. Dans cette guerre des drones, il ne s’agit donc plus d’une relation agresseur/victime mais bel et bien d’une relation utilisateur de technologie/cible. Selon la théorie de la guerre juste, les victimes d’une agression doivent toujours être protégées contre la souffrance que cette agression engendre. Selon cette vision donc, la technologie militaire doit être perçue comme un simple outil permettant d’aider l’agresseur ou d’aider la victime. C’est ainsi que Walzer affirme que « les avantages technologiques nous permettent de combattre avec une plus grande discrimination et que si ces avancées sont dépourvues de risques pour l’utilisateur, cette possibilité d’une plus grande discrimination peut entrainer un risque pour celui-ci »[5].

 

La technologie est-elle « la promesse d’une guerre sans effusion de sang »[6] ? Le développement des véhicules militaires non habités  peut en effet être compris comme la réponse à des pertes trop élevées.  C’est ce que Ralph Peters, officier de l’US Army en retraite et analyste militaire évoque en parlant de la « quête, essentiellement américaine, du Graal, à savoir les croyances selon lesquelles la technologie résoudra tous les problèmes humains »[7]. Il semble donc que les véhicules inhabités offrent un niveau de sécurité jamais égalé auparavant.

 

Mais est-ce également le cas sur l’aspect psychologique ? Certains auteurs comme David Grossman[8] soulignent en effet le fait que la distance entre l’agresseur et la victime est inversement proportionnelle au degré de résistance devant l’acte de tuer et donc au taux de dommages psychiatriques du coté de l’agresseur. Ainsi un combattant qui combat en corps à corps souffrira plus facilement d’un stress post-traumatique qu’un pilote d’avion de chasse. Il indique également que lorsque le tueur est à distance  avec « une assistance mécanique » comme un radar, une caméra ou des jumelles, non seulement le tueur ne refuse pas de tuer mais en plus il ne subit aucun traumatisme psychiatrique. Il convient donc d’insister sur l’importance du facteur de la distance émotionnelle ou emphatique.

Pour d’autres analystes, les opérateurs de véhicules inhabités souffrent autant si ce n’est plus que les combattants présents physiquement dans la zone de guerre au niveau fatigue, épuisement émotionnel et surmenage[9]. Nolen Gertz[10] par exemple, affirme que si la réponse à cette question est compliquée, c’est peut-être parce que la technologie joue un rôle que l’on n’a pas encore identifié dans la relation entre l’éloignement et le traumatisme. Conduisant son analyse essentiellement à travers les positions de Freud, Gertz rappelle que le psychanalyste considérait qu’avoir conscience du fait qu’agir selon son désir conduirait à un danger extérieur de punition engendre une angoisse qui ne peut être soulagée qu’en éliminant ce désir et, dès lors, la menace qu’il a fait naître.  Un adulte peut également éprouver de l’angoisse lorsqu’il ressent du plaisir par des procédés socialement inacceptables. Cette angoisse est due à ce que Freud appelle « des modifications contemporaines [des] situations anciennes du danger »[11].  Selon lui ce que redoute l’individu c’est la perte de la source de son plaisir : dans notre cas l’arme.  Ainsi « la « résistance devant l’acte de tuer » qui, d’après Grossman est naturelle et correspond au traumatisme induit par la proximité physique avec l’ennemi, serait selon Freud, une résistance aux conséquences du fait de tuer et d’en prendre plaisir d’une manière inacceptable »[12].

 

 

Quoiqu’il en soit, la tendance pressentie par certains est que « les guerres vont perdurer et à terme,  ce sont des robots autonomes qui seront déployés, pour en assurer la conduite »[13]. On peut alors se poser la question de savoir si les systèmes automatisés sont capables de se plier aux lois de la guerre actuellement en vigueur « aussi bien, voire mieux, que nos soldats ».[14] Le résultat visé par une telle démarche est bien évidemment la diminution des dommages collatéraux et notamment des victimes civiles. La question à se poser est alors de savoir si les robots, qui sont déjà plus rapides, plus forts et dans certains cas, plus intelligents que les êtres humains, seront capables un jour de faire preuve de davantage d’humanité sur le champ de bataille qu’eux[15]. « Dans le brouillard de la guerre, il est bien difficile pour un être humain de déterminer concrètement si une cible donnée est bel et bien légitime »[16]. C’est donc pour pallier à cela que les chercheurs espèrent que les robots autonomes seront un jour capable de mieux se comporter que les êtres humains. Si les chercheurs fondent leurs espoirs dans ce « mieux » c’est d’abord parce que les robots  n’ont pas besoin de se protéger, et peuvent même être programmés pour se sacrifier. L’instinct de survie n’intervient donc pas dans leurs décisions, ils peuvent être équipés de matériels bien plus performants que ceux dont l’être humain dispose actuellement. De plus, ils sont capables, plus rapidement que l’homme, d’intégrer beaucoup plus d’informations pour une prise de décision optimale. Par ailleurs, ils peuvent être programmés pour ne pas éprouver d’émotions qui pourraient perturber leur capacité de jugement. Ils ne sont donc pas affectés, dans des situations de stress intense, et ne sont donc pas conduits, comme l’est l’être humain, au phénomène de  refus de prendre en compte des nouvelles informations. Enfin, si des systèmes autonomes sont mêlés à un groupe mixte on imagine qu’ils seront capables de surveiller le comportement éthique des êtres humains ce qui pourrait amener le nombre des infractions à diminuer.

 

Que devrait être, dès lors, les orientations de la recherche dans le domaine de l’intelligence artificielle ? Ronald Arkin affirme par exemple que « rien ne justifie, ni ne devrait justifier, que les systèmes autonomes armés soient programmés pour adopter, sous quelque forme que ce soit, l’un de ces modes de rationalisation ou d’action inacceptables, et propres aux êtres humains »[17]. Le danger est en effet l’accroissement régulier de ces atrocités commises sur le champ de bataille à la vue d’une utilisation croissante de la technologie. Il faut donc stopper cette escalade en imposant des limites à la technologie elle-même. Pour cela il conviendrait par exemple d’inviter tous les scientifiques à se rassembler afin « de faire en sorte que les machines que [les] ingénieurs en robotique [créent] répondent de façon optimale aux attentes et aux besoins de la communauté internationale et de la société contemporaine ».[18]

 

S’interroger sur les drones armés semble d’autant plus pertinent que ceux-ci seront sans doute de plus en plus présents dans les opérations militaires, à tous les niveaux. Toute technologie nouvelle, protégeant mieux le combattant, devrait a priori constituer une amélioration éthique et son emploi s’imposerait donc d’un point de vue moral, à moins que « de forte raisons compensatoires existent pour renoncer à cette protection »[19]. Si l’utilisation actuelle des UAV, notamment dans le cadre de la lutte anti-terroriste américaine, apparaît comme très discutable d’un point de vue moral, notamment au regard de la responsabilité légale ou de la violation dans certaines circonstances du jus ad bellum et du jus in bello, d’autres principes moraux sous-tendraient néanmoins l’obligation éthique qu’il y a à opérer des UAV pour des actions justes[20]. Surtout, les préoccupations morales et éthiques liées aux drones armés doivent davantage être tournées vers la remise en cause des décisions politiques et des cas particuliers de mise en œuvre de la force – notamment les targeted killing, les dommages collatéraux éventuels ou l’opacité de l’encadrement et de la responsabilité légale de certaines situations – et ne doivent pas devenir des « objections de principe » à l’égard des drones[21].

Ceci étant dit, le débat public devrait se concentrer sur une plus grande transparence des prises de décisions politiques. Aux Etats-Unis, l’encadrement automatique des frappes de drones de la CIA par une commission sénatoriale par exemple, ou tout simplement le transfert pur et simple des prérogatives de cette agence vers le Pentagone, sont en cours de discussion[22]. Si les politiques et les états-majors ont un rôle primordial à jouer dans la normalisation – nationale mais aussi internationale – ou dans la redéfinition de principes moraux de responsabilité et d’éthique, la société civile s’invite et doit continuer à s’inviter au débat. Si les UAV continuent d’être déployés sur des théâtres d’opérations, il devra exister tôt ou tard une responsabilité des conséquences prévisibles et imprévisibles, responsabilité partagée dans nos démocraties par chaque citoyen au sein de la nation souveraine. C’est pour cette raison que le débat sur l’emploi des UAV ne doit pas être limité aux cercles institutionnels d’experts mais doit être ouvert.

 

Charles Devesse, diplômé de Sciences Po Aix en 2014 (d’après son mémoire de fin d’études)

[1] « Le drone, figure aérienne du mal ? », DSI, Hors-série, n°30, juin-juillet 2013, p. 50-52.

[2] Daniel Brunstetter et Jean-Vincent Holeindre, « La guerre juste au prisme de la théorie politique », article consulté sur internet : <http://www.cairn.info/article.php?ID_ARTICLE=RAI_045_0005&gt;.

[3] Michael Walzer, Arguing about war, New Haven, Yale University Press, 2004, p.174.

[4] Michael Walzer, Arguing about war, op. cit., p.174.

[5] Ibid.

[6] Peter W. Singer, Wired for War, New York, The Penguin Press, 2009, p.291.

[7] Peter W. Singer, Wired for War, op. cit., p.291.

[8] David Grossman, On killing, Boston, Brown and Company, 1995, P.107-108.

[9] Peter W. Singer, Wired for War, New York, op. cit. p.291.

[10] Nolen Gertz est docteur en philosophie et ses travaux portent entre autres sur l’éthique appliquée, la philosophie sociale et la phénoménologie.

[11] Sigmund Freud, Lecture XXXII : Anxiety and instinctual Life, in The Freud Reader, translated by Peter Gay, New York, W.W.Norton & Co,1989, P.779.

[12] Nolen Gertz, Les drones aériens : passé, présent et avenir, op. cit., p.579.

[13] Cité dans Les drones aériens : passé, présent et avenir, op. cit., p. 587.

[14] Ibid.

[15] Ronald Arkin, Regent’s professor et vice-doyen en charge de la recherche au College of Computing au Georgia Institute of Technology, Professeur invité à la KTH Royal Institute of Technology de Stockholm, au Sony Intelligence Dynamics Laboratoires de Tokyo et à l’Artificial Intelligence Group du LAAS/CNRS de Toulouse.

[16] Les drones aériens : passé, présent et avenir, op. cit., p.587.

[17] Cité dans Les drones aériens : passé, présent et avenir, op.cit., p.596.

[18] Ibid.

[19] Bradley J. Strawser, Les drones aériens, passé, présent et avenir, op. cit., chapitre 6 Moral Predators : le devoir d’opérer des véhicules inhabités, p. 397.

[20] Bradley Strawser, Moral Predators : le devoir d’opérer des véhicules inhabités, in Les drones aériens, passé, présent, futur, approche globale, op. cit. p.369.

[21] Ibid.

[22] Philipe Bernard, « Barack Obama veut encadrer l’usage des drones », Le Monde, 7 décembre 2012

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l’aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s