中新社北京10月22日电 (黄钰钦 李京泽)在20日至22日举行的第九届北京香山论坛上,人工智能与未来战争相关议题继去年首次被纳入论坛范围后,今年再度成为论坛重要议程之一。 当前,人工智能已成为可能带来战略性影响的重要军事技术。另一方面,在世界大国竞相角逐军事智能化的同时,相关国际规则仍是空白,一度引起国际社会的普遍担忧。 面对其可能带来的不确定性挑战,将人工智能军事应用关在可控的“笼子”成为多国与会专家的共识。多位军事专家提出,制定相关国际规则,本质是为了引导军事智能化理性发展,谨防人工智能成为失控的“潘多拉魔盒”。 泰国皇家武装力量总部国防研究所战略研究中心主任普姆杰少将表示,人工智能造成的风险应当得到合理监管,各国需要思考如何制定公平公正的机制,充分利用人工智能为人类服务。 “在军事领域,人工智能已经成为世界关注的热点问题。”普姆杰说,由于特定武器会给人们带来更大伤害,无论是在区域内还是国际上,都需要应对当前缺乏国际规则约束的问题。 日本亚太倡议智库高级研究员加藤洋一分析称,当下对新武器系统开发速度过快,国际社会制定框架和监管工作则进行得相对缓慢。因此,需要设定一套国际规则对自主性武器进行限制,同时也需要保留人工智能所带来的积极因素。 在谈及为人工智能军事化发展制定规则时,诸多与会专家均以核武器的发展与限制作对比指出,国际社会经过长期努力,形成《核不扩散条约》等系列国际规则,从而使核武器的实战作用让位于威慑作用。 军事科学院战争研究院研究员、北京香山论坛秘书处办公室主任赵小卓表示,人工智能是正能量还是负能量取决于相关规则控制得好与坏。“就像核武器一样,核扩散将导致巨大威胁,《核不扩散条约》尽管并非完美无缺,但却起到了一定的限制作用。” 他指出,在人工智能显现对战争形态影响和破坏威力的初期,香山论坛就将其纳入议程框架进行讨论,目的是希望国际社会对此引起重视。“认识到一个初始技术的负面性,永远是少数人。希望能够通过广泛讨论,在国际社会达成共识,逐渐控制人工智能不利一面,发展有利一面。” 针对国际规则需要聚焦的领域,此间有评论分析称,制定相关国际规则应聚焦军事智能安全的关键领域,如果把对人或载人平台的开火权交给冰冷的智能武器,极可能导致违背伦理道德的误杀滥杀,这也是军事智能化发展的主要风险。 北京香山论坛高级顾问、退役少将姚云竹指出,在任何情况下,最后决策权都要落在人的手里,不要让好莱坞电影上演的人类毁灭情节成真,应该基于人类共同价值观,基于对共同道德的认同建立相关规则。 赵小卓强调,相比核武器在原材料获取、发展、使用等多方面限制,人工智能军事化可能将更多在使用层面进行控制,因为人工智能与民用设备紧密相连,并不能单一地从生产源头进行限制。(完) |
Powered by Discuz! X3.4
© 2001-2013 Comsenz Inc.