无障碍链接

中国时间 13:50 2024年4月25日 星期四

美国、中国等国敦促采取行动制定战争中使用人工智能的规则


2023年2月16日,来自60多个国家的代表在荷兰海牙参加首届关于在军队中负责任地使用人工智能(AI)的国际峰会后合影。(路透社照片)
2023年2月16日,来自60多个国家的代表在荷兰海牙参加首届关于在军队中负责任地使用人工智能(AI)的国际峰会后合影。(路透社照片)

包括美国和中国在内的多国2月16日呼吁采取紧急行动,规范人工智能的开放和在战争中日益增多的使用,并警告说,人工智能技术“可能产生意想不到的后果”。

在海牙举行的有60多个国家参加的为期两天会议,为建立在战场上使用人工智能的国际规则的行动迈出了第一步。建立这套规则的目的旨在建立类似规范化学和核武器使用的协议。

“人工智能提供了巨大的机会,并且成为一种具有非凡潜力的使能技术,使得我们能够充分利用以前无法想象的数据量并且改善决策过程,”与会国家在会后的联合行动呼吁中表示。

但他们警告说:“全世界都担心人工智能在军事领域的使用,以及人工智能系统的潜在不可靠性、人类参与的问题以及在有关责任和可能产生的意外后果等问题上缺乏明确性。”

来自政府、科技公司和民间社会的大约2000名代表还同意成立一个全球委员会,以澄清在战争中使用人工智能的情况,并制定某些指导方针。

在军事上,人工智能已经用于侦察和监视以及分析,最终可能用于自主目标选定——例如派出“集群”无人机进入敌方领土。

荷兰官员说,中国被邀请作为科技和人工智能领域的关键参与者参加会议,但俄罗斯因为近一年前入侵乌克兰,所以没有受邀。

“我们已经清楚地确定了这个问题的紧迫性。我们现在需要采取进一步措施,” 荷兰外交大臣沃普克·胡克斯特拉(Wopke Hoekstra)在会议结束时表示。

尽管专家们表示,规范人工智能在战争中的使用的条约可能还有很长的路要走,但与会者一致认为迫切需要制定出指导方针。

战场上的“决定最终总是需要人类来做出的,”前北约高级指挥官裘格·弗莱姆(Joerg Vollmer)将军告诉代表们。

“无论我们在说什么,人工智能都是可以提供帮助,可以提供支持的,但永远不要让人类摆脱他们必须承担的责任——永远、永远不要把它交给人工智能,” 弗莱姆在小组讨论中说。

(本文依据了法新社的报道。)

评论区

XS
SM
MD
LG