La «inteligencia artificial» no es una persona: el Vaticano advierte contra el «poder de unos pocos»

ACN
ACN

Los Dicasterios para la Doctrina de la Fe y para la Cultura y la Educación han publicado hoy conjuntamente la Nota “Antiqua et Nova” sobre la relación entre inteligencia artificial e inteligencia humana. A continuación analizamos las cuestiones clave planteadas en este documento.

La inteligencia artificial no debe ser tratada como una persona, no debe ser idolatrada ni permitirse que reemplace las relaciones humanas, sino que debe usarse «sólo como una herramienta para complementar la inteligencia humana».

Las advertencias del Papa sobre la inteligencia artificial en los últimos años forman la base del documento «Antiqua et Nova» (referencia a «la vieja y la nueva sabiduría»), una nota sobre la relación entre la inteligencia artificial y la inteligencia humana. Es fruto de una reflexión conjunta del Dicasterio para la Doctrina de la Fe y del Dicasterio para la Cultura y la Educación.

El documento está dirigido a padres, profesores, sacerdotes, obispos y a todos aquellos llamados a educar y transmitir la fe, así como a quienes reconocen la necesidad del desarrollo científico y tecnológico «al servicio de la persona y del bien común». 5].

La Nota, publicada el 28 de enero, fue aprobada por el Papa.

En 117 párrafos, Antiqua et nova destaca los desafíos y oportunidades para el desarrollo de la inteligencia artificial (IA) en los campos de la educación, la economía, el trabajo, la salud, las relaciones internacionales e interpersonales y en el contexto de la guerra. En este último caso, como advierte Nota, las capacidades de la IA podrían expandir los recursos militares “mucho más allá del alcance del control humano”, acelerando “una carrera armamentista desestabilizadora con consecuencias desastrosas para los derechos humanos” [99].

Peligros y beneficios

El documento enumera de forma detallada y equilibrada tanto los riesgos asociados a la inteligencia artificial como sus beneficios, que incluso anima a desarrollar como «parte de la cooperación» del hombre con Dios «para llevar a la perfección la creación visible» [2] . Sin embargo, la preocupación es grande y afecta a todas las innovaciones cuyos efectos aún son impredecibles, incluso aquellas que actualmente parecen inofensivas, como la generación de textos e imágenes.

La distinción entre inteligencia artificial e inteligencia humana

Las reflexiones de los dos Dicasterios se centran en los aspectos éticos y antropológicos que están en el centro del documento. Muchos párrafos de la Nota están dedicados a la distinción «decisiva» entre inteligencia artificial (IA) e inteligencia humana. La inteligencia humana «se realiza en las relaciones» [18], está moldeada por Dios y «plástica gracias a innumerables experiencias vividas en la carne». La inteligencia artificial “carece de capacidad de evolucionar en este sentido” [31]. Su perspectiva es «puramente funcionalista», juzgando a las personas únicamente a través del prisma de su trabajo y logros, mientras que la dignidad humana es inalienable y siempre inviolable. Esto también se aplica a «un feto», «una persona inconsciente» o un «anciano que sufre» [34]. Por tanto, es «engañoso» utilizar la palabra «inteligencia» para referirse a la inteligencia artificial: no es «una forma artificial de inteligencia» sino «uno de sus productos» [35].

El poder en manos de unos pocos.

Como cualquier producto del genio humano, la inteligencia artificial puede orientarse hacia «objetivos tanto positivos como negativos», subraya Antiqua et Nova . El documento no niega que la inteligencia artificial pueda introducir «importantes innovaciones» en diversos campos [48], pero también puede profundizar los fenómenos de marginación, discriminación, pobreza, «exclusión digital» y desigualdades sociales [52]. En particular, las «preocupaciones éticas» surgen por el hecho de que «la mayor parte del poder sobre las principales aplicaciones de la inteligencia artificial se concentra en manos de unas pocas empresas poderosas» [53], lo que significa que la tecnología puede ser manipulada con fines «personales». o ganancia corporativa» o para «dirigir la opinión pública en interés de un sector específico” [53].

Guerra

A continuación, Nota analiza diversos aspectos de la vida en relación con la inteligencia artificial. Debe haber habido una referencia a la guerra. Las «capacidades analíticas» de la IA podrían utilizarse para ayudar a las naciones a buscar la paz y la seguridad, pero los sistemas de armas autónomos y letales capaces de «identificar y atacar objetivos sin intervención humana directa» plantean «importantes preocupaciones éticas» [100]. El Papa pidió una prohibición urgente de su uso, como afirmó en la cumbre del G7 en Apulia: «Ninguna máquina debería decidir jamás si quitar la vida a un ser humano».

Las máquinas capaces de realizar asesinatos autónomos de precisión y otras tecnologías de destrucción masiva representan una amenaza real para «la supervivencia de la humanidad o de regiones enteras» [101]. Estas tecnologías «dan a la guerra un poder destructivo incontrolado que afecta a muchos civiles inocentes, sin perdonar ni siquiera a los niños», advierte Antiqua et Nova . Para evitar que la humanidad caiga en una «espiral de autodestrucción», es necesario «adoptar una postura clara contra todos los usos de la tecnología que amenazan fundamentalmente la vida y la dignidad de la persona humana».

Relaciones humanas

En términos de relaciones interpersonales, el documento señala que la inteligencia artificial puede «fomentar las conexiones», pero también conducir a un «aislamiento perjudicial» [58]. La “antropomorfización de la inteligencia artificial” también plantea dificultades particulares para el desarrollo de los niños, a los que se anima a comprender “las relaciones humanas de forma utilitaria”, como es el caso de los chatbots [60].

Se considera «incorrecto» presentar la inteligencia artificial como una persona y es una «violación ética grave» utilizarla con fines injustos. De manera similar, “el uso de la IA para engañar en otros contextos –como la educación o las relaciones interpersonales, incluida la sexualidad– es profundamente inmoral y requiere una supervisión cuidadosa” [62].

Economía y trabajo

Se requiere una vigilancia similar en el contexto de la economía y las finanzas. En particular, en el ámbito laboral, se señala que si bien la inteligencia artificial tiene el «potencial» de aumentar las competencias, la productividad o crear nuevos puestos de trabajo, también puede «reducir las cualificaciones de los empleados, someterlos a una supervisión automática y reducir sus funciones». a funciones rígidas y repetitivas» [ 67].

Un proceso así podría incluso «asfixiar» cualquier capacidad de innovación. La nota subraya: «No podemos esforzarnos en sustituir cada vez más el trabajo humano por el progreso tecnológico; al hacerlo, la humanidad se perjudica a sí misma» [70].

Salud

Se presta considerable atención al tema de la atención sanitaria. Si bien la inteligencia artificial tiene un gran potencial en una variedad de aplicaciones médicas (por ejemplo, apoyando el diagnóstico), existe el riesgo de que reemplazar la relación entre médico y paciente con la interacción únicamente con máquinas pueda «profundizar la soledad que a menudo acompaña a la enfermedad». La optimización de los recursos tampoco debería «dañar a los más vulnerables» ni dar lugar a «prejuicios y discriminación» [75] que podrían afianzar la «medicina para los ricos». En un sistema de este tipo, quienes tienen medios económicos se benefician de herramientas de prevención avanzadas e información sanitaria personalizada, mientras que otros tienen dificultades para acceder incluso a servicios básicos.

Educación

En el ámbito de la educación también se señalan posibles amenazas. Si se utiliza con cuidado, la IA puede mejorar el acceso al aprendizaje y proporcionar a los estudiantes “retroalimentación instantánea” [80]. El problema, sin embargo, es que muchos programas «se limitan a proporcionar respuestas ya preparadas en lugar de animar a los estudiantes a buscarlas ellos mismos o crear sus propios textos». Esto conduce a la pérdida de la capacidad de recopilar información y desarrollar el pensamiento crítico [82]. También debemos recordar el riesgo de que algunos programas generen «información distorsionada o falsa» o «contenidos inexactos», lo que puede contribuir a la legitimación de noticias falsas [84].

Noticias falsas y deepfake

En lo que respecta a las noticias falsas, el documento llama la atención sobre el grave riesgo de que la inteligencia artificial pueda «generar contenidos manipulados e información falsa» [85], creando así «alucinaciones» de IA, es decir, contenidos falsos que parecen reales. Aún más inquietante es el uso deliberado de ese tipo de contenido ficticio con fines de manipulación. Por ejemplo, cuando se distribuyen intencionadamente imágenes, vídeos o grabaciones de audio en forma de deepfakes (alterados o generados por algoritmos) con el fin de «engañar o dañar» [87]. Por ello, se pide a las personas que siempre «comprueben cuidadosamente la veracidad» de los contenidos compartidos y que eviten en todo caso «compartir palabras e imágenes que menosprecien la dignidad humana». También se subraya la necesidad de excluir todo lo que «alimenta el odio y la intolerancia, degrada la belleza y la intimidad de la sexualidad humana y explota a los más débiles e indefensos» [89].

Privacidad y control

En términos de privacidad y control, el documento destaca que algunos tipos de datos pueden tocar la intimidad más profunda de una persona, «y tal vez incluso su conciencia» [90]. Actualmente los datos se obtienen con información mínima, lo que crea el riesgo de que todo se convierta en «una especie de espectáculo que pueda ser espiado y monitorizado» [92]. También se señala que «la vigilancia digital puede utilizarse para controlar la vida de los creyentes y la forma en que expresan su fe» [90].

casa común

En el contexto del cuidado de la creación, las aplicaciones de la inteligencia artificial que pueden mejorar la relación con nuestro entorno común se consideran “prometedoras”. Podemos mencionar aquí modelos que predicen eventos climáticos extremos, apoyan operaciones de rescate o promueven la agricultura sostenible [95]. Al mismo tiempo, sin embargo, los modelos actuales de IA y la infraestructura de hardware que los respalda requieren «enormes cantidades de energía y agua, contribuyen significativamente a las emisiones de CO2 y consumen muchos recursos». Por tanto, la carga sobre el medio ambiente es «pesada»: «El desarrollo de soluciones sostenibles es crucial para reducir su impacto en nuestra casa común».

Referencia a Dios

“La creencia de que puedes reemplazar a Dios con el trabajo de tus propias manos es idolatría”, el documento cita las Escrituras para advertir que la inteligencia artificial puede ser “más tentadora que los ídolos tradicionales” [105]. Recuerda que la IA es sólo un «pálido reflejo» de la humanidad: «La inteligencia artificial no debe ser idolatrada ni adorada, porque de esta manera el hombre se convierte en esclavo de su propia creación». De ahí la recomendación final: “La inteligencia artificial sólo debe utilizarse como herramienta para complementar la inteligencia humana, no para reemplazar su riqueza” [112].

CIUDAD DEL VATICANO.

MARTES 28 DE ENERO DE 2025.

KAI.

Comparte:
ByACN
Follow:
La nueva forma de informar lo que acontece en la Iglesia Católica en México y el mundo.