ҽ

Fray Paolo Benanti, docente en la Pontificia Universidad Gregoriana, experto en bioética y en ética de la tecnología. Fray Paolo Benanti, docente en la Pontificia Universidad Gregoriana, experto en bioética y en ética de la tecnología.

Benanti: La Nota "Antiqua et Nova" nos ayuda a formular las preguntas adecuadas

En conversación con el experto de la tecnología que estudia el impacto de la inteligencia artificial en la información: la Nota "Antiqua et Nova", del Dicasterio para la Doctrina de la Fe y del Dicasterio para la Cultura y la Educación, llama a la responsabilidad.

Andrea Tornielli

"Un documento que nos dice: este es quizás el momento de hacer preguntas antes de dar respuestas". Con estas palabras el fray Paolo Benanti -profesor de la Pontificia Universidad Gregoriana, experto en bioética y ética de la tecnología, presidente de la Comisión para el estudio del impacto de la inteligencia artificial en el periodismo y la edición de la Presidencia del Consejo Italiano- «fotografía» la Nota Antiqua et Nova de los Dicasterios para la Doctrina de la Fe y de Cultura y Educación sobre la relación entre inteligencia artificial e inteligencia humana. Así lo comenta con los medios vaticanos.

¿Cuál cree que es la novedad de este documento?

Es una toma de conciencia por parte del pensamiento creyente que pretende también acompañar a la Iglesia en la vida de la sociedad. Cuanto más nos interrogamos sobre esta máquina capaz de sustituir una parte de la decisión humana, más nos interrogamos inevitablemente sobre la identidad misma del ser humano y sobre la unicidad que lo caracteriza, es decir, sobre lo que nos hace criaturas en relación con un Creador. La verdadera novedad de este texto es situarnos en la perspectiva adecuada para interrogarnos sobre nuestra identidad y nuestra capacidad de contribuir a la custodia y el cultivo del mundo que nos ha confiado el Creador.

Entonces, ¿la inteligencia artificial se convierte en una oportunidad para plantear preguntas sobre lo que realmente somos?

Esto es una gran novedad: pensemos que hasta hace 10/15 años este tipo de preguntas sobre lo humano parecían eclipsadas. Teníamos decisiones políticas que equiparaban de hecho a ciertas especies de grandes simios con la persona humana o que negaban la identidad de persona al embrión o a quienes vivían la fase terminal de su vida. Lo que parecía una cuestión archivada en el pasado, de repente, gracias al trabajo de la humanidad, vuelve con fuerza al debate público y al interés mundial. Esta cuestión tiene una doble trascendencia: por un lado, es antropológica, como bien subraya el documento; por otro, tiene indudables consecuencias sociales, por lo que ya podemos imaginar que será desarrollada en el marco de la Doctrina Social de la Iglesia.

¿Cuál es la diferencia entre la llamada inteligencia artificial y la inteligencia humana?

Es precisamente la naturaleza humana -difícil de contener en una definición o perímetro predeterminados- lo que nos lleva a decir que cuando hablamos del hombre, hablamos de algo que es más fácil de describir en muchas de sus dimensiones. Si pensamos en cómo los griegos hablaban de inteligencia, debemos reconocer que las palabras eran "plurales": Ulises se define como "astuto", "inteligente", y la palabra metis indica una forma de inteligencia capaz de encontrar soluciones a problemas prácticos. Cuando se habla en cambio de inteligencia capaz de captar el sentido del conjunto, los griegos utilizan la palabra nous. Aquí, ya en las matrices del pensamiento occidental, tenemos una inteligencia humana plural, capaz de ir en varias direcciones. La inteligencia artificial no sustituye a todas estas formas de inteligencia: es muy buena para ganar partidas, para encontrar soluciones, es capaz de grandes metis. Pero el nous, aquello que busca el sentido del conjunto y es capaz de orientar nuestra vida hacia un horizonte, hacia un futuro o incluso hacia la trascendencia, eso sólo es humano.

¿Qué debemos temer de las aplicaciones de la inteligencia artificial?

Si se me permite la broma, diría que lo primero que hay que temer es la estupidez natural. Porque la máquina no se pone a sí misma en situación de tomar el relevo: siempre somos nosotros quienes, como resultado de cálculos o intentos de optimizar ciertos procesos, podríamos utilizar la máquina haciéndola elegir en lugar del hombre. Y una máquina tan poderosa, capaz de elegir entre infinitas opciones en fracciones de segundo, no siempre es capaz de sustituir lo que humanamente se llama una decisión, es decir, algo relacionado con la sabiduría. 

He aquí toda la ambivalencia de una IA capaz de hacer las cosas con gran rapidez y eficacia, mientras que el hombre, en cambio, está llamado a cuestionarse el sentido. Quizás podríamos o deberíamos temer todas aquellas elecciones que no acceden a decisiones. Pensemos, por ejemplo, en el ámbito médico: un diagnóstico nunca es simplemente una elección entre terapias, sino una toma de posesión de una existencia humana por otra existencia humana que le hace implícitamente una promesa de curación. Debemos temer todas aquellas situaciones en las que experimentaríamos una humanidad disminuida para permitir una "maquinalidad" aumentada. Y, en cambio, promover todas las aplicaciones que mantengan viva esta responsabilidad humana.

El documento hace gran hincapié en la responsabilidad humana y la obligación de rendir cuentas por la decisión tomada. ¿Por qué?

Hay dos grandes vertientes que dan lugar a la hermosa respuesta de este documento. Hay una vertiente que parte de la perspectiva de la fe y cuestiona cuál es la especificidad humana desde la perspectiva de la conciencia. La constitución conciliar Gaudium et Spes nos habla de ese lugar íntimo dentro de nosotros donde oímos una voz que nos dice en determinados momentos: haz esto y evita aquello. Es el santuario donde el hombre escucha la voz de Dios. Aquí está la matriz de la responsabilidad. Pero dentro de esta conciencia creyente hay también toda una conciencia del efecto de eliminar la responsabilidad de la toma de decisiones humanas. Grandes escritores como Hannah Arendt han hablado de cómo, en las grandes masacres del siglo pasado, se intentó sustraer la responsabilidad de la toma de decisiones humanas para formar parte de un engranaje que conduce a la máxima deshumanización personal y social. Estas dos capacidades humanas, la fe y la razón, dándose la mano, pueden ayudarnos a ver cómo innovar la inteligencia artificial para que se convierta realmente en una fuente de desarrollo humano.


Por desgracia, seguimos viendo el papel de las armas autónomas. ¿Qué podemos decir de la aplicación de la inteligencia artificial a la guerra?

Piense en nosotros hace 60.000 años, cuando cogimos por primera vez un garrote en una cueva. Era una herramienta para conseguir más cocos y un arma para abrir más cráneos que otras personas. Cada vez que nos enfrentamos a la tecnología, nos enfrentamos a la tentación de convertir una herramienta en un arma. Pero también estamos inmersos en una historia de salvación -recordemos al profeta Isaías- en la que las armas pueden convertirse en herramientas para cultivar, alimentar y dar vida. En esta nuestra historia de pecado y conversión, los que hacen la guerra tienen una tentación muy fuerte de utilizar herramientas con una tecnología tan poderosa. 

Permítanme recordarles que la IA no es la primera forma de tecnología autónoma utilizada en la guerra. Pensemos en las minas antipersona: ¡son autónomas! Un sistema de IA puede definirse como algo que puede tomar un fin del ser humano, y luego adaptar los medios para lograr ese fin. 

Sin embargo, nunca antes habíamos visto que no todos los medios son iguales: desde la gran tragedia atómica, nos hemos dado cuenta de que hay medios que deben evitarse a toda costa. Una máquina, a diferencia de un ser humano, nunca se cansará de perseguir su objetivo, por lo que es posible que nunca haya tregua si sólo confiamos en las máquinas. Cuanta más capacidad humana, más radicales son las preguntas a las que tenemos que responder.

Entrevista del director editorial de los medios vaticanos, Andrea Tornielli, a Fray Paolo Benanti, docente en la Pontificia Universidad Gregoriana de Roma, experto en bioética y en ética de la tecnología.
Entrevista del director editorial de los medios vaticanos, Andrea Tornielli, a Fray Paolo Benanti, docente en la Pontificia Universidad Gregoriana de Roma, experto en bioética y en ética de la tecnología.

En su intervención en el G7 el año pasado, el Papa Francisco dijo que nunca debería dejarse en manos de una máquina la decisión de quitar una vida humana.

Una voz profética la del Papa. Una voz muy fuerte que señala una dirección. Necesitamos extremar las precauciones, o más bien, para utilizar las palabras del documento, extremar la responsabilidad.

La inteligencia artificial permite hoy falsificar la representación de la realidad. Pensemos en las imágenes falsas o retocadas que cada vez se distinguen menos de las reales. O la difusión masiva de noticias falsas. ¿Cómo contrarrestar estas derivas?

Parece que para algunos la verdad se ha convertido en algo secundario y que son posibles narrativas completamente desvinculadas de los hechos. Todas las democracias occidentales se basan en una premisa fundamental: pueden existir como democracias si la gente es capaz de formarse una opinión correcta sobre los hechos. 

Así, la democracia otorga al periodista casi un papel de "funcionario": su profesionalidad es similar a la del científico que busca la verdad o el juez que trata de establecer los hechos. La inteligencia artificial podría abaratar mucho cierto tipo de procesos de producción de información, pero no los haría más veraces ni más útiles. Para vivir en democracia necesitamos un periodismo profesional, y el periodismo profesional necesita una industria. Todo esto puede ser dañado económicamente, o destruido en su capacidad, por la inteligencia artificial en las manos equivocadas o con los propósitos equivocados.


¿Cómo podemos protegernos?

El documento nos recuerda la categoría clave de la responsabilidad, y hay formas de responsabilidad que en el espacio público adquieren la consistencia de un derecho. Quizá haya llegado el momento de insistir en la existencia de un derecho "cognitivo" de las personas: el de saber qué contenidos han sido elaborados por un ser humano que pone en ello su responsabilidad profesional, y cuáles han sido producidos por una máquina. Quizá haya que definir un par de guardarraíles para mantener encauzado el servicio a la verdad de la información y el periodismo. El documento nos dice que tal vez sea el momento de hacer preguntas antes de dar respuestas.

Gracias por haber leído este artículo. Si desea mantenerse actualizado, suscríbase al boletín pulsando aquí

28 enero 2025, 10:46