Neuf États appellent à une interdiction préventive des systèmes d'armes autonomes et soixante-cinq ont exprimé des préoccupations à leurs propos, dont la Suisse. © Oli
Neuf États appellent à une interdiction préventive des systèmes d'armes autonomes et soixante-cinq ont exprimé des préoccupations à leurs propos, dont la Suisse. © Oli

Armes La guerre des robots

Par Julie Jeannet - Article paru dans le magazine AMNESTY n° 84, Mars 2016
Des soldats faits d’acier et de puces électroniques affrontent des machines humanoïdes sur des champs de bataille. Des algorithmes sophistiqués décident qui doit vivre ou mourir. Et si les machines se chargeaient désormais du « sale boulot », celui de maintenir l’ordre, de déceler les ennemis et de les abattre ? Ce scénario vous paraît digne d’un film de science-fiction ? La réalité pourrait peut-être bientôt dépasser les rêves des scénaristes les plus fous. Enquête.

Des machines totalement autonomes, programmées pour sélectionner une cible sur la base d’algorithmes et tuer sans intervention humaine n’existent pas encore, mais la technologie permettra bientôt leur création. Selon Boi Faltings, directeur du laboratoire d’intelligence artificielle de l’École polytechnique fédérale de Lausanne, cela serait techniquement possible. «La plupart des composantes technologiques sont disponibles sur le marché et la programmation n’est pas compliquée. Certains systèmes d’armes actuels pourraient être les précurseurs de systèmes d’armes létales ou semi-létales autonomes», explique le scientifique. En effet, plusieurs États ont déjà mis en place des systèmes semi-autonomes programmés pour intercepter des missiles, des obus ou des grenades. Israël utilise depuis 2011 un dôme d’acier pour intercepter et neutraliser les roquettes lancées depuis la bande de Gaza. Les forces américaines et britanniques ont recours à des systèmes antimissiles aux processus de détection, d’évaluation et de réponse extrêmement rapides. Bien que ceux-ci soient pour l’instant utilisés dans des environnements généralement dépourvus de civils, ils soulèvent de nombreuses questions quant à leur usage futur.

 

«Certains systèmes d’armes actuels pourraient être les précurseurs de systèmes d’armes létales ou semi-létales autonomes» - Boi Faltings, directeur du laboratoire d’intelligence artificielle de l'EPFL

Révolution militaire

Boi Faltings fait partie des spécialistes d’intelligence artificielle et de robotique qui tirent la sonnette d’alarme. Une lettre ouverte rédigée en juillet 2015 et signée par plus de trois mille spécialistes, dont ce scientifique, demande l’interdiction du développement d’armes létales autonomes. «Le prochain pas serait de laisser un ordinateur interpréter des données, de définir et d’abattre une cible sans intervention humaine, et ça serait très dangereux ! L’intelligence artificielle fonctionne sur des techniques où les réactions de la machine doivent être programmées à l’avance. La technologie n’est pas assez avancée pour anticiper la multitude de scénarios possibles en situation de guerre», avance-t-il.

Maya Brehm, spécialiste du désarmement et du droit international humanitaire à Genève, partage ces préoccupations. La chercheuse soutient la campagne Stop Killer Robots (Stop aux robots tueurs). Cette coalition de cinquante-quatre ONG, dont fait partie Amnesty International, milite depuis 2012 pour interdire le développement de systèmes d’armes autonomes. «Le développement d’une telle technologie  pourrait porter atteinte à la protection des civils lors de conflits armés, violer les normes internationales en matière de droits humains, et donc menacer la paix et la sécurité internationale», prévient la chercheuse. «Je crains une course à l’armement qui pourrait changer le visage des confits et des interventions des forces de l’ordre». Certain·e·s expert·e·s envisagent le développement de systèmes d’armes autonomes comme la troisième révolution militaire après la poudre à canon et la bombe atomique. «Nous devons agir urgemment car nous savons que la Chine, Israël, la Russie, la Corée du Sud, les États-Unis et le Royaume-Uni développent actuellement des systèmes donnant de plus en plus d’autonomie aux armes», avance Maya Brehm.

«Je crains une course à l’armement qui pourrait changer le visage des confits et des interventions des forces de l’ordre» - Maya Brehm, spécialiste du désarmement et du droit international humanitaire 

Pour Alexandre Vautravers, expert à l’Institut des Nations unies sur le désarmement et rédacteur en chef de la Revue militaire suisse, l’appellation «robots tueurs» est maladroite. «Avec ce terme on commet à la fois un stéréotype et un anthropomorphisme. Cette campagne interdira un objet mal défini et mal compris. Cela n’a guère de sens. Car les systèmes autonomes peuvent prendre des formes très diverses.» S’il admet qu’un débat de société sur l’utilisation de l’intelligence artificielle dans différents domaines est nécessaire, il estime que la campagne des ONG est mal aiguillée. «De nombreux systèmes assistent les prises de décisions militaires, mais la responsabilité finale repose toujours sur un humain. A l’heure actuelle, l’industrie, les ingénieurs, les militaires et les juristes ne sont absolument pas prêts à rendre les systèmes d’armes complètement autonomes accessibles.»

Algorithmes tueurs

Une question reste incontournable : si ces armes sont un jour disponibles, voulons-nous déléguer le droit de vie ou de mort sur des êtres humains à des machines ? Les partisan·e·s des systèmes d’armes autonomes affirment qu’ils permettraient de réduire le déploiement de troupes sur le terrain, de sauver des vies et d’économiser de l’argent. Ils ajoutent que ces systèmes seraient aussi plus fiables et efficaces, puisqu’ils ne sont pas affectés par des sentiments, comme la peur ou la haine, qui poussent parfois les humains à commettre des atrocités. Pour celles et ceux qui mettent en garde contre leurs dérives, les machines sont également dépourvues de compassion et d’indulgence, et seraient donc incapables de refuser un ordre lorsque celui-ci est illégal, injuste ou inapproprié.

D’après Rasha Abdul-Rahim, chargée de campagne contrôle des armes chez Amnesty International, il est très improbable que des machines puissent un jour être programmées pour répondre au droit international humanitaire lors de conflits. Elle s’interroge : «Comment les robots pourraient-ils distinguer entre des soldats et des civils, ou entre des assaillants et des militaires blessés qui se rendent ? Comment pourraient-ils agir selon les principes de proportionnalité et de précaution inhérents aux lois de la guerre ?» La problématique se pose également lors de l’utilisation de ces systèmes par les forces de l’ordre : «En cas d’homicides illégaux, qui sera tenu responsable, le robot, le chef de la police, le fabricant, le programmateur ?» Elle esquisse d’autres scénarios : «Si l’arsenal militaire passait entre les mains de régimes totalitaires ou de groupes armés ? Si les machines étaient victimes de cyberattaques ?» Selon Rasha Abdul-Rahim, les systèmes d’armes autonomes permettraient de commettre des crimes en toute impunité.

Interdiction préventive

Depuis 2013, plusieurs discussions informelles sur les systèmes d’armes autonomes ont eu lieu aux Nations unies, dans le cadre de la Convention sur certaines armes classiques (CCAC). «Nous espérons qu’à l’issue des prochaines discussions prévues en avril et décembre, les États parties mandatent un groupe d’experts afin de négocier un traité d’interdiction préventive d’ici un à deux ans», explique Maya Brehm au nom de Stop Killer Robots. Le processus lancé s’apparente à celui qui a mené à l’interdiction des mines antipersonnel et des armes à sous-munitions. La bataille s’avère ardue puisque six États, dont la Chine et les États-Unis, travaillent au développement de ces technologies dont les enjeux politiques, militaires et économiques sont gigantesques. Mais les membres de la campagne gardent la tête froide. «La société civile est forte et n’est pas seule dans cette bataille. Neuf États appellent à une interdiction préventive et soixante-cinq ont exprimé des préoccupations à propos de ces systèmes, dont la Suisse.» Est-il possible d’interdire des armes qui n’existent pas encore ? «Absolument», argumente Rasha Abdul-Rahim d’Amnesty International. «La société civile a déjà prouvé qu’elle pouvait le faire avec l’adoption du protocole sur l’interdiction des lasers aveuglants en 1998. Ce protocole a permis d’éviter de nombreuses souffrances inutiles. Une interdiction préventive du développement des systèmes d’armes autonomes est cruciale.»