Par Yacine Merzougui
En 1924, alors que le monde pansait encore les plaies de la Première Guerre mondiale, Bertrand Russell publiait son essai visionnaire « Icarus, or the Future of Science ». Dans ce texte, le philosophe britannique imagine un avenir où la guerre serait menée par des machines, une « guerre sans larmes » qui éloignerait les hommes du champ de bataille. Cent ans plus tard, cette prémonition résonne avec une acuité troublante.
Russell n’était pas un technophobe, mais un penseur lucide qui avait compris que les avancées scientifiques, si elles n’étaient pas accompagnées d’une évolution éthique proportionnelle, pourraient engendrer des monstres. Sa crainte fondamentale était que la technologie, en créant une distance émotionnelle face à la violence, ne rende la guerre plus acceptable, plus « propre » en apparence, et donc paradoxalement plus probable.
Aujourd’hui, les drones de combat survolent des zones de conflit pilotés depuis des bases situées à des milliers de kilomètres. Des opérateurs, assis devant des écrans dans le confort climatisé d’une salle de contrôle, peuvent décider de la vie ou de la mort d’individus qu’ils ne rencontreront jamais. Ce détachement physique s’accompagne inévitablement d’un détachement moral.
Les systèmes d’armes autonomes, en développement dans plusieurs pays, représentent l’étape suivante de cette évolution. Des algorithmes pourraient bientôt prendre des décisions létales sans intervention humaine directe. La guerre devient alors un exercice technique, une série de calculs et de probabilités, dépouillée de son horreur immédiate et viscérale.
Cette mécanisation du conflit transforme profondément notre rapport à la violence. Les images de guerre diffusées dans nos médias ressemblent désormais à des séquences de jeux vidéo : vues aériennes en noir et blanc, explosions lointaines, absence de sang et de cris. La souffrance est rendue invisible, abstraite, comme si elle appartenait à un autre monde.
Cette « guerre sans larmes » n’est pas sans conséquences profondes. Pour les populations des pays technologiquement avancés, elle crée l’illusion d’une guerre « propre » où seuls les « méchants » seraient touchés. Cette perception erronée facilite l’acceptation sociale des interventions militaires, réduisant l’opposition publique qui pourrait autrement servir de frein aux décisions belliqueuses.
Pour les opérateurs de ces systèmes, la réalité est plus complexe. Si la distance physique les protège des dangers immédiats, elle n’élimine pas entièrement le poids moral de leurs actions. De nombreux opérateurs de drones développent des symptômes de stress post-traumatique, piégés dans ce paradoxe d’une intimité technologique avec la mort qu’ils infligent depuis l’autre bout du monde.
Pour les populations qui subissent ces guerres technologiques, l’expérience reste aussi brutale et traumatisante qu’elle l’a toujours été. La déshumanisation n’existe que d’un côté de l’équation.
Le dilemme que posait Russell reste entier : comment faire en sorte que notre développement moral suive le rythme de notre développement technologique ? Comment préserver ce qui fait notre humanité dans des conflits de plus en plus désincarnés ?
Plusieurs pistes se dessinent. D’abord, la nécessité d’un cadre juridique international contraignant pour encadrer le développement et l’utilisation des technologies militaires autonomes. Des initiatives comme la campagne « Stop Killer Robots » œuvrent en ce sens, appelant à maintenir un contrôle humain significatif sur tous les systèmes d’armes.
Ensuite, un effort éducatif et médiatique pour contrer la vision aseptisée de la guerre que véhiculent les images de frappes « chirurgicales ». Rappeler la réalité brutale des conflits, même technologiques, est essentiel pour maintenir une conscience collective de ce qu’implique véritablement la décision d’entrer en guerre.
Enfin, une réflexion philosophique renouvelée sur la notion de responsabilité à l’ère des
algorithmes. Qui porte la responsabilité morale d’une frappe décidée par une intelligence
artificielle ? Le programmeur, le fabricant, le commandant militaire, ou la société tout entière qui
accepte de déléguer de telles décisions à des systèmes autonomes ?
La « guerre sans larmes » que redoutait Russell est en passe de devenir réalité. Pourtant, paradoxalement, c’est peut-être dans notre capacité à pleurer, à ressentir l’horreur de la violence, que réside notre meilleur espoir de limiter les conflits.
En effet, les larmes ne sont pas seulement l’expression d’une souffrance ; elles sont aussi le témoignage de notre capacité d’empathie, cette faculté essentielle qui nous permet de reconnaître l’humanité de l’autre, même lointain, même ennemi. En robotisant la guerre, nous risquons de perdre non seulement cette empathie, mais aussi les inhibitions naturelles qui ont jusqu’ici servi de dernier rempart contre nos pulsions destructrices.
La véritable sagesse, que Russell appelait de ses vœux, consisterait peut-être à développer non pas des technologies qui nous éloignent de la réalité de la guerre, mais une conscience collective qui nous rapproche de notre humanité partagée. Car si la guerre sans larmes devient possible techniquement, elle signera aussi, inévitablement, le triomphe d’une forme de barbarie sophistiquée sur notre civilisation.
Et, en fin, que dirions-nous le jour où ces machines tombent entre les mains des terroristes ?