El papa volvió a poner el foco en los riesgos de la inteligencia artificial (IA) calificando su potencial como “emocionante y al mismo tiempo desorientador”. La advertencia se produjo después de que el propio pontífice reconociera que fue objeto de una falsa fotografía creada con esa herramienta y que se hizo viral en marzo 2023. Francisco resaltó los peligros «perversos» de la IA, renovando un llamado a su regulación mundial con el fin de aprovecharla para el bien común.
En un discurso en el Vaticano se refirió al aumento de «imágenes que parecen perfectamente plausibles pero falsas (yo también he sido objeto de esto)». Y señaló que los mensajes de audio también pueden «utilizar la voz de una persona y decir cosas que esa persona nunca dijo”.
Recientemente se lanzaron herramientas impulsadas por IA como MidJourney, que permiten a los consumidores crear imágenes fotorrealistas utilizando nada más que indicaciones de texto. Los usuarios simplemente escriben lo que les gustaría ver y los generadores de imágenes de IA pueden crear fotos realistas que son difíciles de distinguir de las reales. Instó al mundo a “trabajar juntos para adoptar un tratado internacional vinculante que regule el desarrollo y el uso de la IA en sus múltiples formas”. Francisco ya dio el ejemplo: designó a Paolo Benanti, un fraile de la orden franciscana a cargo de la IA en la Santa Sede.
En su mensaje sobre ‘Inteligencia artificial y sabiduría del corazón’, miró con admiración y preocupación la evolución de los sistemas que están «modificando radicalmente la información y la comunicación». Y, «algunos de los fundamentos de la convivencia civil», comentó en un acto con motivo de la celebración de San Francisco de Sales, patrono de los periodistas,
“Es un cambio que afecta a todos, no sólo a los profesionales”, confió.
La IA vista por Francisco
Si bien instó a la gente a «dejar de lado temporalmente las predicciones catastróficas y sus efectos adormecedores» sobre cosas nuevas, su discurso se desarrolló con un alto contenido crítico. Advirtió sobre la «contaminación cognitiva» que puede distorsionar la realidad y encarcelar a las personas en cámaras de eco ideológicas”.
El fiscal general de New Hampshire, en EE UU, dijo que su oficina había abierto una investigación sobre los orígenes de llamadas automáticas falsas que simulaban la voz del presidente Joe Biden. Y animaban a los votantes a no votar en las primarias presidenciales.
«La tecnología de simulación detrás de estos programas puede ser útil en ciertos campos específicos. Pero se vuelve perversa cuando distorsiona nuestra relación con los demás y con la realidad», insistió.
Durante su intervención renovó un llamado que hizo el mes pasado a favor de un tratado internacional jurídicamente vinculante para regular la IA. En su mensaje habló de las «patologías asociadas» de la IA. Incluida una disminución del pluralismo y una proliferación del «pensamiento de grupo», donde se adoptan posiciones de consenso sin considerar críticas o alternativas.
El obispo de Roma también habló del peligro de la IA en los medios de comunicación, particularmente en los informes de guerra. Según dijo, podrían estar sujetos a una guerra paralela librada a través de campañas de desinformación. La IA debe apoyar y no eliminar el papel del periodismo sobre el terreno, afirmó.
“El uso de la inteligencia artificial podrá contribuir positivamente en el campo de la comunicación. Si ésta no anula el papel del periodismo sobre el terreno, sino que, por el contrario, lo respalda. Si aumenta la profesionalidad de la comunicación, responsabilizando a cada comunicador. O si devuelve a cada ser humano el papel de sujeto, con capacidad crítica, respecto de la misma comunicación”, argumentó.
Los algoritmos no son neutros
Ante la acelerada difusión de «inventos maravillosos» que suscitan «un asombro que oscila entre lo emocionante y la desorientación», el Francisco invita a preguntarse: «¿Cómo permanecer plenamente humanos y orientar hacia el bien el cambio cultural en curso?».
En su opinión hay que permanecer «sensibles» a todo lo que es «destructivo» y «no humano». Es decir, hay que recomenzar desde el corazón «en esta época que corre el riesgo de ser rica en tecnología y pobre en humanidad». Necesitamos sabiduría, continuó.
“No se trata, pues, de exigir que las máquinas parezcan humanas”, agregó. “Se trata más bien de despertar al hombre de la hipnosis en la que ha caído debido a su delirio de omnipotencia. Creyéndose un sujeto totalmente autónomo y autorreferencial, separado de todo vínculo social y ajeno a su creaturalidad”.
Es una antigua tentación del hombre «llegar a ser como Dios sin Dios». Y «toda extensión técnica del hombre puede ser instrumento de servicio amoroso o de dominación hostil», subrayó. “Los sistemas de IA pueden contribuir al proceso de liberación de la ignorancia y facilitar el intercambio de información entre pueblos y generaciones diferentes”. Pero también pueden ser instrumentos de fakenews que se sirven del deepfake, de la «creación» de imágenes y audios falsos.
El pontífice también se detiene en las redes sociales, que son «herramientas que en las manos equivocadas podrían abrir escenarios negativos». «Como todo lo que ha salido de la mente y de las manos del hombre, también los algoritmos no son neutros». En ese sentido, pidió una «acción preventiva», proponiendo modelos de regulación ética. El llamamiento se dirige de nuevo a la comunidad internacional para que formule «un tratado internacional vinculante que regule el desarrollo y el uso de la inteligencia artificial en sus múltiples formas».
Pensamiento anónimo e irresponsable
«La revolución digital puede hacernos más libres», añade el Francisco, subrayando que, sin embargo, «no es aceptable que el uso de la IA conduzca a un pensamiento anónimo, a un ensamblaje de datos no certificados, a una irresponsabilidad editorial colectiva». La representación de la realidad en big data, por ejemplo, corre el riesgo de «dañar nuestra misma humanidad».
Sostuvo además que las grandes posibilidades de bien acompañan al riesgo de que “todo se transforme en un cálculo abstracto, que reduzca las personas a meros datos. El pensamiento a un esquema, la experiencia a un caso. El bien a un beneficio, y sobre todo que acabemos negando la unicidad de cada persona y de su historia, disolviendo la concreción de la realidad en una serie de estadísticas”.