mercredi 29 juillet 2015

SALA - La société civile s'alarme contre les « robots tueurs »

La tourelle autonome SGR-A1 de Samsung

Des milliers de chercheurs et personnalités, dont certains très célèbres comme l'astrophysicien Stephen Hawking, le cofondateur d'Apple Steve Wozniak, ou encore Elon Musk, qui dirige entre autres Tesla et SpaceX, ont lancé un appel international pour l'interdiction des armes offensives autonomes. Le syndrome du Terminator s'emparerait-il de la planète ?

Alors que s'ouvre à Buenos Aires en Argentine la 24ème conférence internationale sur l’intelligence artificielle (IGCAI - International Joint Conference on Artificial Intelligence), les spécialistes des hautes technologies, dont plusieurs sommités vous l'aurez compris, appellent les gouvernements du monde à interdire le développement des systèmes d'armes létaux autonomes ou SALA. Selon eux, il y là une dérive tant technologique que morale qui pourrait mettre en danger l'humanité.

Cet appel est formulé via une Lettre ouverte intitulée sobrement: "Autonomous Weapons: an Open Letter from AI & Robotics Researchers", dont la liste (ouverte à tous) des signataires est consultable ici ,et publiée par le Future of Life Institute.
Outre les magnats de l'internet ou des technologies de pointe, on trouve bien sûr des chercheurs du monde entier venant des plus grandes universités comme Harvard, Berkeley ou Cambridge, et même des pionniers du jeux vidéo.

Alors comme je l'évoque plus haut, le risque est bien de voir apparaître dans le débat le syndrome du Terminator, ou la peur de la machine. « Les armes autonomes choisissent et frappent des cibles sans intervention humaine (..) elles ont été décrites comme la troisième révolution dans la pratique de la guerre, après la poudre et les armes nucléaires », peut-on lire dans la lettre.
Ces machines pourraient en effet prendre la décision dans le futur de tuer sans contrôle humain, ce qui provoque de plus en plus d’inquiétudes chez les experts, scientifiques ou juristes en DIH, et y compris à l'ONU, où des réunions ont déjà eu lieu sur ce thème.

Intelligence artificielle et guerre: va-t-on vers le scénario des Terminator ?

L'avantage premier des SALA, comme actuellement du drone, est la disparition du risque humain, et donc de son impact sur une armée, mais aussi et surtout sur l'opinion publique.
Cependant, prendre une décision sur le champ de bataille étant déjà assez complexe, si l'on se "limite" au cerveau et au corps humain, la crainte est que les SALA, que certains voient déjà comme infaillibles, ne soient pas capables de faire la différence entre civils et combattants, ou ne puissent évaluer la proportionnalité d'une réponse armée, face à un acte de provocation par exemple. 

Une véritable prolifération est aussi redoutée. Moins chers et bientôt bien plus faciles à concevoir qu'une arme nucléaire ou chimique, qu'est ce qui empêcherait dans un futur proche des Etats voyous ou des groupes terroristes de se doter de SALA ? Ce serait donc aux grandes puissances de montrer l'exemple dès maintenant: « Si une puissance militaire de premier plan commence à investir dans les armes autonomes, une course à l’armement sera virtuellement inévitable, et la finalité de cette trajectoire technologique est évidente : les armes autonomes deviendront les Kalashnikov de demain ».

Ce plaidoyer est avant tout moral, et tient plus de la mise en garde que de l'appel à renoncer à ces technologies. Il rappelle même que l'IA, ou tout simplement les systèmes autonomes, sont des domaines extrêmement prometteurs dans le monde civil, mais qu'ils doivent être strictement encadrés. La crainte est d'ailleurs qu'à travers le développement d’armes autonomes, le grand public en vienne à rejeter tout un pan de la robotique et de la cybernétique, quitte à en abandonner les bienfaits.

La "Google Car" est totalement autonome et roulera dès 2015 en Californie

Et d'annoncer cette révolution comme plus proche que prévue: « La technologie de l'intelligence artificielle a atteint un point où le déploiement de ces systèmes est, pratiquement sinon légalement, faisable non dans les décennies mais dans les années à venir ».

Militairement parlant, nous n'en sommes qu'aux balbutiements de ces technologies (même si...). Des exemples très concret (photo en Une) sont les tourelles autonomes SGR-A1 de Samsung qui surveillent le no mans land qui compose la frontière entre les deux Corée.
Les drones sont un bon exemple du chemin qu'il reste à parcourir. Souvent et injustement qualifiés dans les médias d'armes autonomes, et quasiment toujours associés à cette peur de la machine, ils ne sont pourtant que des avions sans pilote, aujourd'hui incapables de prendre des décisions propres... 
Concernant cette question de l'autonomie, on commence seulement à voir se développer des robots (au sol ou dans les airs) capables de définir leur trajet, ayant même des réflexes d'évitement et des capacités de franchissement. Cela fonctionne certes sur route (ex: Google Car), il reste d'immenses progrès à faire s'agissant d'une zone de guerre. Pour ce faire, toutes les pistes sont envisagées comme le montre ci-dessous l'impressionnante démonstration du "Cheetah", développé au MIT, l'Institut Technologique du Massachusetts.


Lors d'une conférence de la Summer School DSC (Defence Security Cyber), qui se déroulait début juillet à Bordeaux, une des pistes envisagées concernant l'emploi de SALA était celle de leur utilisation dans des milieux dénués de présence humaine, tels la haute atmosphère, ou les fonds marins... L'espace sera très probablement leur terrain de prédilection.

En ce qui concerne un autre débat houleux, juridique celui-ci, se tourner vers cette publication de l'ONG Human Right Watch: "The ‘Killer Robots’ Accountability Gap: Obstacles to Legal Responsibility Show Need for Ban".

Et pour plus d'informations, Sciences & Avenir publie cet été un hors-série sur les nouvelles technologies et façons de faire la guerre.


Aucun commentaire:

Enregistrer un commentaire