ÃÛÌÒ½»ÓÑ

Mgr Paul Tighe, secrétaire du dicastère pour la Culture et l'Éducation. Mgr Paul Tighe, secrétaire du dicastère pour la Culture et l'Éducation.  

Mgr Tighe: Antiqua et Nova offre des conseils sur le développement éthique de l'IA

Alors que le Saint-Siège publie un document sur l'intelligence artificielle, le secrétaire du dicastère pour la Culture et l'Éducation parle aux médias du Vatican du potentiel extraordinaire de l'IA et de la nécessité pour l'humanité de piloter son développement avec une responsabilité collective, afin qu'elle puisse être une bénédiction pour tous les peuples.

Devin Watkins – Cité du Vatican

Les dicastères pour la Doctrine de la foi et pour la Culture et l'Éducation rendent publique ce mardi un document intitulé Antiqua et Nova: Note sur la relation entre l'intelligence artificielle et l'intelligence humaine. Selon le secrétaire du dicastère pour la Culture et l'Éducation, ce document vise à fournir des orientations aux institutions catholiques et à l'humanité dans son ensemble concernant le développement et l'utilisation éthiques de l'intelligence artificielle.

S'adressant aux médias du Vatican, Mgr Paul Tighe soutient que la note Antiqua et Nova est un document ouvert sur l'IA, dont l’objectif est de contribuer au débat en fournissant des éléments de réflexion.«Il y a une compréhension plus large de l'intelligence, qui concerne notre capacité humaine à trouver un but et un sens à la vie», déclare-t-il. «C'est une forme d'intelligence que les machines ne peuvent pas vraiment remplacer».

Le Saint-Siège vient de publier Antiqua et Nova: Note sur la relation entre l'intelligence artificielle et l'intelligence humaine. Qu'est-ce qui est nouveau dans ce document et qu'espère-t-il dire au monde, en particulier à l'Église?

Ce document rassemble un grand nombre de réflexions qui se sont développées organiquement au cours des dernières années. Ce qu'il tente de faire, c'est d'offrir aux gens certaines perspectives à partir desquelles ils peuvent commencer à réfléchir de manière critique à l'IA et à ses avantages potentiels pour la société. Il alerte les gens sur ce à quoi nous devons penser pour nous assurer que nous ne créons pas par inadvertance quelque chose, ou que nous ne permettons pas que quelque chose soit créé, qui pourrait être préjudiciable à l'humanité et à la société.

Je dirais qu'il y a un certain élément de prudence. Beaucoup d'entre nous, au début des réseaux sociaux, ont été très prompts à embrasser leur extraordinaire potentiel. Nous n'avons pas nécessairement vu les effets secondaires en termes de polarisation, de diffusion de fausses informations et d'autres problèmes.

Nous voulons accueillir quelque chose qui a un grand potentiel pour les êtres humains. Nous voulons voir ce potentiel, tout en étant attentifs aux inconvénients possibles. Je pense que c'est ce que nous essayons de faire ici. Un jour, les journaux titrent que l'IA sera notre salut à tous. Le lendemain, on lit que c'est l'anéantissement et la fin du monde. Nous essayons d'offrir aux gens une approche plus équilibrée. Le document se concentre sur un certain nombre de points. Il y a les grandes questions auxquelles tout le monde a pensé: l'avenir du travail, la guerre, les fausses informations, les inégalités. Il y a aussi les questions éthiques et sociétales que nous voulons examiner. Mais en les abordant, nous essayons aussi de nous concentrer sur une question plus fondamentale, celle de la signification de l'être humain, la question anthropologique de la signification de l'être humain. Qu'est-ce qui donne à la vie humaine une valeur, un but et un sens. Nous reconnaissons que les systèmes d'IA peuvent améliorer et accroître certaines parties de notre humanité, c'est-à-dire notre capacité à raisonner, à traiter, à discerner, à découvrir, à voir des modèles, à innover. L'IA peut certainement améliorer cela.

Nous tenons également à dire que ce type d'intelligence n'est pas le seul. Il existe une conception plus large de l'intelligence, qui concerne notre capacité humaine à trouver un but et un sens à la vie. Une des questions que nous devons poser est la suivante: qu'est-ce qui est bon pour l'humanité? Qu'est-ce qui favorise le bien-être humain? Il s'agit là d'une forme d'intelligence, que les machines ne peuvent pas vraiment remplacer. Nous devons comprendre que dans la tradition catholique, enracinée dans nos propres traditions philosophiques, et pas seulement dans le catholicisme, notre compréhension de l'intelligence va au-delà du simple raisonnement, du calcul et du traitement. Elle inclut également cette capacité à chercher un but, un sens et une direction dans nos vies.

Je pense que ce qui nous préoccupe toujours, c'est la recherche de vérités ultimes, de ce qui donne une forme, un but et un sens à la vie. C'est une chose pour laquelle nous pourrions utiliser l'IA pour nous aider dans certains domaines, mais en dernière analyse, il s'agit d'un type d'engagement intellectuel qui va au-delà de ce qui peut être fait par une simple machine.

Le développement de l'IA évolue à un rythme rapide. Pourquoi le dicastère pour la Doctrine de la foi et le dicastère pour la Culture et l'Éducation ont-ils décidé de publier ce document à ce moment précis?

De notre point de vue, dans le monde de l'éducation, tous les éducateurs se posent des questions sur le potentiel de l'IA en matière d'éducation et sur les risques de dépersonnalisation de la nature de l'éducation. Nous répondons également aux questions qui nous sont posées lors des visites ad limina, car les évêques souhaitent obtenir une certaine orientation.

Ce document est une synthèse de nombreuses autres initiatives. Il représente une unité de vision, qui tente de mettre ensemble les questions éthiques et de les relier à cette vision anthropologique plus fondamentale de ce qui fait de nous des êtres humains.

L'UNESCO a déclaré que l'IA -et c'est ce qui m'a le plus frappé- conduit à ce qu'elle appelle une perturbation anthropologique. La Silicon Valley adore le langage de la perturbation, de la rupture pour réinventer. Mais ici, lorsque nous parlons de la nature de l'être humain et de ce qui rend la vie humaine satisfaisante, il devient très important que nous y réfléchissions de manière critique et que nous ne contournions pas la question du sens ultime de la vie.

Je pense que les questions qui émergent fortement dans ce document sont liées au risque d'accroissement des inégalité avec l'IA. On peut le voir, de manière générale, en termes de distribution de ce qui est arrivé à la numérisation: elle a provoqué une augmentation d'un très petit nombre de personnes extraordinairement riches leur conférant un extraordinaire pouvoir, sans les rendre nécessairement responsables devant d'autres institutions. Alors, comment faire en sorte que cela ne serve pas à fracturer l'unité de la famille humaine, l'unité économique ou encore l'accès au pouvoir et à l'information?

L'un des domaines où l'IA présente un potentiel extraordinaire est celui des soins médicaux. Nous savons déjà que les soins médicaux ont tendance à ne pas être distribués de manière très équitable. L'IA va-t-elle aggraver les inégalités dans ce domaine? Une grande partie de notre réflexion et le moment choisi pour ce document sont liés au fait que nous avons besoin de quelque chose pour aborder le débat.

Dans l'ensemble de la note, il semble y avoir une reconnaissance du potentiel de l'IA, accompagnée d'une mise en garde contre son utilisation abusive. Le cycle de romans Les Robots d'Isaac Azimov vient à l'esprit lorsqu'on pense à la relation ultime de l'humanité avec l'IA. Diriez-vous que le document adopte un point de vue plus favorable ou plus prudent sur l'IA?

J'espère qu'il se situe à mi-chemin, qu'il n'adopte aucune des visions apocalyptiques. Il n'essaie pas non plus d'imaginer que l'IA va, en soi, résoudre tous les problèmes humains. Il s'agit d'essayer de voir le potentiel et de célébrer l'extraordinaire réussite que représente l'IA. C'est une réflexion sur la capacité de l'humanité à apprendre, à innover, à se développer, qui est une capacité donnée par Dieu.

Nous voulons la célébrer. Mais en même temps, nous disons: nous savons par expérience que de nombreuses innovations merveilleuses qui avaient un grand potentiel sont devenues problématiques pour un certain nombre de raisons; peut-être parce qu’elles n’étaient pas exemptes de défauts inhérents aux systèmes eux-mêmes, parce que les gens pouvaient utiliser la même technologie à des fins très bonnes ou très mauvaises. Parfois, des systèmes -et nous pensons ici à l'IA- ont été développés dans un environnement commercial et politique particulier et peuvent déjà être marqués par les valeurs de ces environnements.

Nous souhaitons réfléchir de manière critique pour nous assurer que l'IA sera finalement exploitée par l'humanité, utilisée par l'humanité d'une manière qui garantisse qu'elle réalise son potentiel pour être bénéfique à tous les êtres humains. L'humanité doit s'approprier les processus et veiller à ce qu'il y ait un sens des responsabilités.

C'est là que la série des robots d'Azimov entre en jeu. Où se situera la responsabilité? Les machines d'IA feront des choses extraordinaires. Parfois, nous ne pourrons pas comprendre comment elles le font. Elles développent une capacité à se reprogrammer et à progresser. Nous devons donc essayer de déterminer où se situe la responsabilité. De nombreuses personnes dans l'industrie parlent maintenant de l'IA comme étant «éthique dès sa conception». Cela signifie qu'il faut réfléchir dès le départ: quels sont les problèmes? Quelles sont les difficultés? Comment planifier de manière à éviter les problèmes? En d'autres termes, comment assurer la sécurité, le bon fonctionnement, l'absence de dysfonctionnement? Comment faire en sorte qu'elle ne soit pas facilement exploitée par des personnes qui l'utiliseraient à mauvais escient? Comment s'assurer que les bases de données qui conditionnent l'IA reflètent bien l'ensemble de l'expérience humaine, et pas seulement ce qui a déjà été numérisé? Comment s'assurer que l'IA reflète le meilleur de nous-mêmes en tant qu'êtres humains?

C'est pourquoi nous essayons toujours de responsabiliser ceux qui conçoivent, ceux qui planifient, ceux qui développent, mais aussi ceux qui utilisent l'IA.

Si vous pouviez souligner un aspect du document, quel serait-il?

Je ne sais pas si c'est un aspect du document que je voudrais souligner, mais ce que je voudrais dire aux personnes susceptibles de lire ce texte, qu'elles soient catholiques ou non, c'est que l'objectif est d'essayer d'être aussi informé que possible sur ce qui se déroule sous nos yeux, de ne pas se sentir désemparé ou mis à l'écart. Je dis cela en tant que personne d’un certain âge.

S’il y a une chose que je dirais aux gens, c'est de commencer à utiliser les technologies, de les explorer, de voir à quel point elles sont extraordinaires, mais aussi de commencer à les critiquer, d'apprendre à les évaluer et à y réfléchir. Ce que je retiendrais de tout cela, c'est l'importance de la responsabilité.

Chacun doit réfléchir à son niveau de responsabilité, et ce, à partir de l'utilisateur. Vais-je commencer à partager un contenu que je sais douteux, que je sais destiné à provoquer la haine ? Vais-je assumer la responsabilité personnelle de la manière dont j'utilise l'IA et de ce que j'en fais?

Merci d'avoir lu cet article. Si vous souhaitez rester informé, inscrivez-vous à la lettre d’information en cliquant ici

28 janvier 2025, 08:22