2024年世界和平日:人工智能不应宣扬“愚蠢的战争”
教宗方济各2024年1月1日的演讲致力于解决资料科技新领域与和平挑战之间的关系。教宗警告说,存在操纵资讯、开发“隐藏”责任的武器以及“分类过程”等危险,这些危险可能使“人心本身(‧‧‧‧‧‧)越来越'人造'。” 为了避免这种情况,“国际社会”应该“透过一项具有约束力的国际条约来规范此类工具的开发和使用”。
梵蒂冈城(亚洲新闻) - 教会将于 2024 年 1 月 1 日庆祝第 57 届世界和平日,教宗方济各在致词中重点关注“人工智能与和平”。教宗在其中写道,人工智能(AI)最先进的应用“不应被用来促进暴力解决冲突,而应为和平铺平道路。”
在教廷新闻办公室今天发布的消息中,教宗提议对科学和数位技术的新领域进行长期而详细的反思,呼吁对其进行负责任的开发和监管,因为它们“对追求正义的严重影响”以及各国人民之间的和谐。 ”
对于教宗方济各来说,能够处理大量数据的演算法的开发(通常是在相关人员不知情的情况下进行推断)引发了严重的道德问题。他说,只有“我们表现出有能力采取负责任的行动并尊重‘包容、透明、安全、公平、隐私和可靠性’等基本人类价值观,它们才会使我们的社区受益。”
“光是假设演算法和数位技术设计者承诺以道德和负责任的方式行事也是不够的。 有必要加强或在必要时建立机构,负责审查该领域出现的道德问题,并保护那些使用人工智能或受其影响的人的权利。”
危险确实很大。例如,教宗引用了由机器学习或深度学习产生的“自行『学习』的机器”。 “例如,某些设备生成语法和语义连贯文本的能力并不能保证其可靠性。 据说他们会产生“幻觉”,即创造出乍看之下似乎有道理但毫无根据或暴露偏见的陈述。 ”
这可能导致“歧视、干预选举、监视社会的兴起、数位排斥以及与社会日益脱节的个人主义的加剧。 所有这些因素都有可能加剧冲突并阻碍和平。”
标准的透明度是另一个问题。 “『智慧』机器可能会以更高的效率执行分配给它们的任务,但它们操作的目的和意义将继续由拥有自己的价值观的人类决定或实现。
“存在这样的风险:某些决定背后的标准将变得不那么明确,这些决定的责任被隐藏,生产者能够逃避为社区利益采取行动的义务。”
我们不要忘记与人的“分类”相关的问题。 “未来,抵押贷款申请人的可靠性、个人是否适合工作、被定罪者累犯的可能性、获得政治庇护或社会救助的权利都可以由人工确定。情报系统。”
这样做时,存在“各种形式的偏见和歧视:系统性错误很容易倍增,不仅在个别情况下产生不公正,而且由于多米诺骨牌效应,还会产生真正形式的社会不平等。”
教宗警告说,“绝不能让算法决定我们如何理解人权,抛开同情、仁慈和宽恕等人类基本价值观,或消除个人改变和抛弃过去的可能性”在后面。 ”
军火工业对人工智能的使用也属于这个框架。 “透过远端控制系统进行军事行动的能力导致人们对这些武器系统造成的破坏以及使用它们的责任负担的认识减弱,从而导致人们对战争的巨大悲剧采取更加冷漠和超然的态度。
“对所谓致命自主武器系统领域的新兴技术的研究,包括人工智能的武器化,引起了严重的道德担忧。
“自主武器系统永远不可能成为道德上负责任的主体。 人类独特的道德判断和道德决策能力不仅仅是演算法的复杂集合,而且这种能力不能简化为对机器进行编程。”
更重要的是,我们不能“忽视先进武器最终落入坏人之手的可能性,从而为恐怖攻击或旨在破坏合法政府体系稳定的干预活动提供便利。
“总而言之,世界不需要那些助长商业和武器贸易不公正发展并最终助长愚蠢战争的新技术。 这样做的话,不仅智力,而且人类的心脏本身都将面临变得更加‘人造’的风险。”
因此,教宗敦促采取行动应对人工智能发展当今带来的两大挑战。
第一个是教育性的。教宗强调:“然而,仍然需要持续反思他们引导我们建立的关系类型。” “使用人工智能形式的教育首先应旨在促进批判性思维。”
“所有年龄段的用户,尤其是年轻人,都需要制定一种敏锐的方法来使用网路上收集的或人工智能系统生成的数据和内容。”
然而,根据国际法制定具体规则来规范这些系统的开发和使用也显得迫切。
弗朗西斯写道:“我敦促国际社会共同努力,通过一项具有约束力的国际条约,规范多种形式的人工智能的开发和使用。”
教宗也指出,目标不仅是防止有害做法。 “监管的目标”也应该是“通过激发新的和创造性的方法并鼓励个人或团体的主动性来鼓励最佳实践。”
教宗最后表示:“希望上述反思能鼓励人们努力确保人工智能发展形式的进步最终服务于人类博爱与和平的事业。 这不是少数人的责任,而是整个人类大家庭的责任。”
同时,“愿基督教信徒、各宗教信徒和善心人士齐心协力,拥抱数位革命带来的机遇,应对数位革命带来的挑战,为子孙后代留下一个更加团结的世界,正义与和平。”
02/02/2024 15:53
13/12/2023 15:54
21/09/2023 14:14
06/10/2022 17:22
25/03/2024 14:45