Jornada Mundial de la Paz 2024: 'La inteligencia artificial no debe alimentar las guerras'
El mensaje del Papa Francisco para el 1 de enero de 2024 está dedicado a la relación entre las nuevas fronteras de la tecnología sobre los datos y el desafío de la paz. El pontífice pone en guardia contra peligros como la manipulación de la información, el desarrollo de armas que "ocultan" las responsabilidades y las "categorizaciones que hacen artificial incluso el corazón". "La comunidad internacional debería elaborar y adoptar un tratado vinculante sobre el uso de estos instrumentos".
Ciudad del Vaticano (AsiaNews)- Las aplicaciones más avanzadas de la inteligencia artificial “no deben utilizarse para facilitar la resolución violenta de los conflictos, sino para allanar los caminos hacia la paz”, dice el Papa Francisco en su mensaje con motivo de la 57ª Jornada Mundial de la Paz que la Iglesia celebra el 1 de enero de 2024 y este año estará centrada en el tema "Inteligencia artificial y paz". En el texto - difundido hoy por la oficina de prensa de la Santa Sede - el pontífice propone una larga y detallada reflexión sobre las nuevas fronteras de la ciencia y la tecnología digital, pidiendo un desarrollo y una regulación responsables a la luz de sus "serias implicaciones para la búsqueda de la justicia y de la armonía entre los pueblos".
El Papa Francisco considera que el desarrollo de algoritmos capaces de procesar inmensas cantidades de datos, a menudo extrapolados sin el conocimiento de los interesados, plantea cuestiones éticas específicas. Podrán beneficiar a nuestras comunidades - comenta - "sólo si somos capaces de actuar de forma responsable y de respetar los valores humanos fundamentales como «la inclusión, la transparencia, la seguridad, la equidad, la privacidad y la responsabilidad'. Tampoco basta con suponer que quienes diseñan algoritmos y tecnologías digitales tienen el compromiso de actuar de forma ética y responsable. Es preciso reforzar o, si es necesario, crear órganos encargados de examinar las cuestiones éticas emergentes y tutelar los derechos de los que utilizan formas de inteligencia artificial o reciben su influencia".
Los peligros, en efecto, son realmente grandes. El pontífice cita, por ejemplo, las llamadas "máquinas que aprenden solas", fruto de disciplinas como el aprendizaje automático o el aprendizaje profundo. “La habilidad de algunos dispositivos para producir textos sintáctica y semánticamente coherentes - escribe el Papa Francisco - no es garantía de confiabilidad. Se dice que pueden “alucinar”, es decir, generar afirmaciones que a primera vista parecen plausibles, pero que en realidad son infundadas o delatan prejuicios”. Esto puede generar fenómenos como "la discriminación, la interferencia en los procesos electorales, la implantación de una sociedad que vigila y controla a las personas, la exclusión digital y la intensificación de un individualismo cada vez más desvinculado de la comunidad". Todos ellos factores que "corren el riesgo de alimentar los conflictos y obstaculizar la paz".
Luego está la cuestión de la transparencia en los criterios: "las máquinas 'inteligentes' - recuerda el Papa - pueden efectuar cada vez con mayor eficiencia las tareas que se les asignan, pero la finalidad y el sentido de sus operaciones seguirán estando determinadas o habilitadas por seres humanos que tienen su propio universo de valores. El riesgo es que los criterios que están en la base de ciertas decisiones se vuelvan menos transparentes, que quede oculta la responsabilidad decisional y que los productores puedan eludir la obligación de actuar por el bien de la comunidad".
Sin olvidar los problemas relacionados con la "categorización" de las personas: "En el futuro - denuncia Francesco - la fiabilidad de quien pide un préstamo, la idoneidad de un individuo para un trabajo, la posibilidad de reincidencia de un condenado o el derecho a recibir asilo político o asistencia social podrían ser determinados por sistemas de inteligencia artificial". Pero al hacerlo se corre el riesgo de que "formas de prejuicios y discriminaciones" "pueden multiplicarse fácilmente, produciendo no sólo injusticias en casos concretos sino también, por efecto dominó, auténticas formas de desigualdad social". “No debemos permitir que los algoritmos - advierte el Papa - determinen el modo en el que entendemos los derechos humanos, que dejen a un lado los valores esenciales de la compasión, la misericordia y el perdón o que eliminen la posibilidad de que un individuo cambie y deje atrás el pasado".
En este marco también se sitúa la cuestión del uso de la inteligencia artificial por parte de la industria armamentista. “La posibilidad de conducir operaciones militares por medio de sistemas de control remoto - observa Francisco - ha llevado a una percepción menor de la devastación que estos han causado y de la responsabilidad en su uso, contribuyendo a un acercamiento aún más frío y distante a la inmensa tragedia de la guerra. La búsqueda de las tecnologías emergentes en el sector de los denominados “sistemas de armas autónomos letales”, incluido el uso bélico de la inteligencia artificial, es un gran motivo de preocupación ética. Los sistemas de armas autónomos no podrán ser nunca sujetos moralmente responsables. La exclusiva capacidad humana de juicio moral y de decisión ética es más que un complejo conjunto de algoritmos, y dicha capacidad no puede reducirse a la programación de una máquina".
“Tampoco podemos ignorar - añade el pontífice - la posibilidad de que armas sofisticadas terminen en las manos equivocadas facilitando, por ejemplo, ataques terroristas o acciones dirigidas a desestabilizar instituciones de gobierno legítimas. En resumen, realmente lo último que el mundo necesita es que las nuevas tecnologías contribuyan al injusto desarrollo del mercado y del comercio de las armas, promoviendo la locura de la guerra. Si lo hace así, no sólo la inteligencia, sino el mismo corazón del hombre correrá el riesgo de volverse cada vez más “artificial”".
Por eso el Papa invita a asumir los dos grandes desafíos que hoy plantea el desarrollo de la inteligencia artificial. El primero es educativo: “continúa siendo necesaria una reflexión permanente sobre el tipo de relaciones al que nos está llevando – explica -. La educación en el uso de formas de inteligencia artificial debería centrarse sobre todo en promover el pensamiento crítico. Es necesario que los usuarios de todas las edades, pero sobre todo los jóvenes, desarrollen una capacidad de discernimiento en el uso de datos y de contenidos obtenidos en la web o producidos por sistemas de inteligencia artificial".
Sin embargo, también parece urgente el desarrollo de normas específicas del Derecho Internacional que regulen el desarrollo y uso de estos sistemas. “exhorto a la comunidad de las naciones a trabajar unida para adoptar un tratado internacional vinculante, que regule el desarrollo y el uso de la inteligencia artificial en sus múltiples formas”, dice Francisco. Y señala como objetivo no sólo la prevención de malas prácticas, "sino también alentar las mejores prácticas, estimulando planteamientos nuevos y creativos y facilitando iniciativas personales y colectivas".
“Espero que esta reflexión - concluye el pontífice - anime a hacer que los progresos en el desarrollo de formas de inteligencia artificial contribuyan, en última instancia, a la causa de la fraternidad humana y de la paz. No es responsabilidad de unos pocos, sino de toda la familia humana. Que los fieles cristianos, los creyentes de distintas religiones y los hombres y mujeres de buena voluntad puedan colaborar en armonía para aprovechar las oportunidades y afrontar los desafíos que plantea la revolución digital, y dejar a las generaciones futuras un mundo más solidario, justo y pacífico".
03/02/2024 13:43