Le ³§²¹¾±²Ô³Ù-³§¾±Ã¨²µ±ð veut promouvoir l’usage pacifique de l’IA
Alessandro De Carolis - Cité du Vatican
Des robots soldats entraînés à identifier des cibles à abattre et à tirer sans qu'aucun être humain ne gère l'action. La science-fiction la plus inquiétante est une réalité qui se développe rapidement dans le domaine militaire, bien au-delà des drones guidés par l'homme. L'acronyme anglais qui identifie ces dispositifs, LAWS (Lethal Autonomous Weapon Systems), ou "lois" (SALA en français, pour systèmes d’armes létales autonomes), semble presque paradoxal. Car c'est précisément l'absence de législation claire qui a conduit le Saint-Siège à prendre position sur la question aujourd'hui et à proposer un renversement de cap vers l'utilisation d'une intelligence artificielle partagée entre États mais à des fins entièrement pacifiques et non militaires.
Les préoccupations et les idées du Saint-Siège ont été exprimées par Mgr John D. Putzer, chargé d'affaires ad interim à la Mission permanente d'observation du Saint-Siège auprès des Nations unies à Genève et chef de la délégation à la sixième Conférence d'examen de la "Convention sur l'interdiction ou la limitation de l'emploi de certaines armes classiques qui peuvent être considérées comme produisant des effets traumatiques excessifs ou comme frappant sans discrimination". C'est précisément la discussion sur les SALA que le représentant du Vatican a jugée insuffisante, et il a rappelé aux parties à la fois la volonté déjà déclarée par tous de faire tous les efforts «en vue d'un désarmement général et complet sous un contrôle international strict et efficace», et la nécessité de «poursuivre la codification et le développement progressif des règles du droit international applicables dans les conflits armés».
Désarmement général
En raison de leur physionomie, les robots soldats posent des «problèmes éthiques et juridiques», a déclaré Mgr Putzer. Par conséquent, du point de vue du Saint-Siège, «il est impératif de garantir un contrôle humain adéquat, significatif et cohérent des systèmes d'armes», car «seuls les êtres humains sont capables de voir les résultats de leurs actions et de comprendre les liens entre la cause et l'effet», alors que les SALA, a-t-il souligné, «ne pourraient jamais comprendre le sens de leurs actions». Le délégué du Vatican a notamment demandé que des «conditions suffisantes» soient introduites pour «préserver les principes éthiques susmentionnés et garantir le respect du droit humanitaire international».
Il demande ensuite que ce soit toujours la personne humaine qui «guide la recherche, le développement et l'utilisation des systèmes d'armes, même en l'absence de normes juridiques spécifiques, comme l'implique la "clause de Martens" (norme selon laquelle les civils et les combattants d'un conflit sont protégés par les droits en vigueur au moment et dans le lieu en question et par les principes humanitaires dictés par la conscience publique)».
Enfin, estimant qu’un système d'armes n'est pas en mesure de «contredire ce que l'autorité humaine a prescrit comme but ou résultat principal de son intervention», il demande par conséquent que ses «actes» soient toujours sous contrôle humain.
La technologie pour le bien de tous
Et ici, Mgr Putzer espère que, en plus d'établir entre-temps «un moratoire» sur le développement et l'utilisation des SALA, les nations envisageront «la création d'une organisation internationale pour l'intelligence artificielle, afin de faciliter et de garantir le droit de tous les États à participer à l'échange le plus complet possible d'informations scientifiques et technologiques pour des utilisations pacifiques et pour le bien commun de toute la famille humaine». Un choix fort d'autant plus, a-t-il affirmé, «au milieu de la pandémie mondiale» qui appelle à «mettre les technologies émergentes» au service du «développement humain intégral» et de ses besoins actuels.
Merci d'avoir lu cet article. Si vous souhaitez rester informé, inscrivez-vous à la lettre d’information en cliquant ici