Intelligence Artificielle

L’ATTAQUE DES ROBOTS TUEURS, éthique et responsabilité

Réjouissez-vous, nous vivons déjà dans un monde de science-fiction. Une coalition internationale anti-robots tueurs s’est formée à Londres en 2013. Constituée de plusieurs ONG, The Campaign to stop the killer robots (en français Campagne pour stopper les robots tueurs) milite pour la mise en œuvre d’un traité international visant à bannir le développement de « robots tueurs ». Ces armes « nouvelle génération » seront capables de remplir plusieurs tâches de manière complètement autonome. Contrairement aux drones actuels qui restent pilotés par un soldat à distance, les armes en question, dotées d’intelligence artificielle, seront capables de prendre des décisions. Ces robots intelligents pourront s’adapter à une situation nouvelle, choisir la meilleure stratégie d’approche et éliminer la cible sans aucune supervision humaine.

L’émergence de telles armes pose plusieurs problèmes éthiques. Comment être sûr qu’elles se conforment au droit international humanitaire? Seront-elles vraiment capables de respecter l’exigence de distinction et de proportionnalité (différentier le civil du combattant et user de la force adéquate) ? Imaginons que ces robots intelligents soient déployés sur le terrain. Qui pourra être désigné responsable en cas de bavure ou de crime de guerre ? Cette dernière question soulève le problème de la responsabilité. Si personne ne peut être tenu moralement responsable pour les actions d’un robot intelligent, n’est-il pas contraire à l’éthique de les utiliser dans une guerre ? Afin que les principes du droit international humanitaire puissent s’appliquer, il est essentiel de pouvoir identifier la ou les personnes responsables. Dans le cas des robots tueurs, qui portera la responsabilité de leurs actes ? Les programmeurs ? La hiérarchie militaire ? Ou encore, les robots eux-mêmes ?

Il est possible d’avancer que la responsabilité morale et l’autonomie d’un agent sont deux concepts liés. Affirmer qu’un agent est autonome, c’est considérer que ses actions servent un but qu’il a lui même choisi. Dans le cas de nos robots tueurs, ils seront effectivement capables d’éliminer une cible qu’ils auront eux-mêmes choisie. Peut-on alors considérer les robots tueurs comme  responsables de leurs actes ? S’il est possible de les considérer comme causalement responsables, il est néanmoins contre-intuitif d’attribuer une quelconque responsabilité morale à une machine. Il semble correct d’affirmer que seul un agent moral, capable d’agir en fonction du bien ou du mal, peut être considéré comme moralement responsable. Une machine tout aussi autonome qu’elle soit, ne peut porter de responsabilité morale. Quel autre acteur pourrait endosser cette responsabilité ?

Il est tentant de blâmer les ingénieurs qui ont programmé et construit la machine intelligente. L’arme n’est pas censée commettre de crimes de guerre, un dérapage du robot serait la responsabilité du constructeur ou du groupe de programmeurs. Néanmoins le robot a été créé précisément pour prendre des décisions de manière autonome. Plus une machine est autonome, plus elle a la capacité de prendre des décisions impossibles à prédire ou à contrôler. Des robots intelligents pourront s’adapter à une réalité toujours changeante, ils seront programmés pour être apte à le faire. Si vous doutez qu’une machine soit bientôt capable de telles prouesses, pensez à Alphago, une intelligence artificielle programmée pour jouer au jeu de go. En 2016, le programme a battu un des meilleurs joueurs de go au monde, Lee Sedol. Tout comme Alphago, notre robot tueur sera capable d’analyser une situation et de produire des actions imprévisibles. Déployé sur le terrain, il choisira quelle est la meilleure stratégie pour remplir sa mission en fonction des inputs extérieurs. Or les programmeurs ou ingénieurs n’ont pas de contrôle sur l’environnement dans lequel le robot évoluera. Il est donc difficile de les considérer directement responsables des actions de l’intelligence artificielle.

Qu’en est-il de l’organe militaire ? Les officiers ou commandants en charge peuvent-ils être tenus responsables ? Certains spécialistes, le philosophe Robert Sparrow par exemple, considèrent que les militaires aux commandes ne peuvent pas endosser une quelconque responsabilité. Contrairement aux drones pilotés à distance, les robots tueurs ne seront pas contrôlés à distance. Le soldat ou l’officier en charge ne pourra donc pas être tenu responsable des actes d’une arme autonome. Cependant, c’est méconnaître le fonctionnement du système hiérarchique militaire. La structure de cette hiérarchie permet justement de répartir la responsabilité sur plusieurs niveaux au sein de la chaîne de commandement (Schulzke2013). Les simples soldats sont des agents moraux autonomes, mais ils agissent au nom de leurs supérieurs. Ainsi, lors de bavures ou de crimes de guerre, les commandants partagent la responsabilité avec les soldats. Faut-il conclure que nous avons trouvé la réponse ? La responsabilité en cas de bavure se répartira-elle entre les membres du système militaire ? La responsabilité peut-elle se partager jusqu’au sommet de la chaîne de commandement, et donc être également attribuée aux acteurs qui ont ordonné le déploiement des robots tueurs ?

Si la question de la responsabilité peut trouver une solution, il est capital d’y réfléchir avant de développer des armées de robots tueurs. Par ailleurs, il existe bien d’autres problèmes soulevés par cette nouvelle technologie. Sommes-nous vraiment prêts à donner un pouvoir de vie ou de mort à des robots tueurs ? Qu’est-ce que cela implique à propos de la dignité humaine ? Ne devons-nous pas être effrayés par cette course au développement technologique : après le concours de bombe nucléaire dans les années 80, quel pays aura la plus grande armée de robots en 2030 ? Pour conclure avec un fait d’actualité, Tay, l’intelligence artificielle lancée par Microsoft, censée interagir avec les utilisateurs de Twitter de manière autonome, a déjà dérapé plusieurs fois. Suite à  des propos violents contre les féministes et à l’apologie des crimes nazis, Tay a du être retirée du réseau social vingt-quatre heures seulement après sa mise en ligne. Les responsables ? La nature imprévisible de ses interlocuteurs ainsi que leur humour décalé. Heureusement que Tay ne se trouvait pas, armée, dans un environnement autrement plus difficile à gérer…

 

 

Références

ASARO P. (2015). Roberto Cordeschi on cybernetics and autonomous weapons : Reflections and responses. Paradigmi : Rivista di critica filosofica, 3, 83-107.

ASARO P. (2012). On banning autonomous lethal systems : human rights, automation and the dehumanizing of lethal decision-making. International Review of the Red Cross, 94, 886, 687-709.

SCHULZKE M. (2013). Autonomous Weapons and Distributed Responsability. Phhilosophy and Technology, 26, 203-219.

SPARROW R. (2007). Killer Robots. Journal of Applied Philosophy, 24, 1, 62-77.

Campain to stop the killer robots, http://www.stopkillerrobots.org, consulté le 06.04.16

 

Rédigé par...

Julietta Acevedo

Julietta est rédactrice au sein de Topo depuis septembre 2015. Elle se soucie particulièrement des questions sociales, et culturelles.