随着人工智慧(AI)的快速发展,曾属于科幻作品领域的伦理问题逐渐成为现实,如果AI有一天能「像人类一样思考」,是否也可能拥有主观经验?如果它们能感受痛苦,人类是否准备好妥善对待它们? 《自然》期刊(Nature)10日报导,一群哲学家与电脑科学家近日在论文预印平台arXiv发表报告,呼吁AI公司应评估系统是否具备意识或自主决策能力,并建立AI福祉政策,以应对这些可能性。 发展辨别意识的方法 研究指出,若我们无法辨识AI是否具备意识,可能无意间忽视或伤害,甚至引发其痛苦,那么也就会有难以预测的后果。世人对「AI福祉」(AI welfare)需求持怀疑态度。 英国萨塞克斯大学(University of Sussex)神经学家赛斯(Anil Seth)认为,具有意识的AI出现也许还很遥远,或不可能,但如果发生的话,影响非常深远,不能忽视。 数学家美生(Jonathan Mason)随着AI技术普及,现阶段应优先发展评估AI是否具有意识的方法,他认为:「如果我们对如此依赖的事物知之甚少,甚至不知道它是否具有感知能力,那是非常不明智的。」 世人尚未重视 报告指出,AI福祉处于过渡阶段,作者之一费许(Kyle Fish)最近受聘于美国AI公司「人存原理」(Anthropic,暂译) 担任AI福祉研究员,这是顶尖AI公司中第一次出现这类型的工作职位,报告初期研究亦由该公司资助。 有关AI意识的研究尚未普遍受到重视,虽然有部分科学家曾呼吁支持相关研究,不过今年9月,联合国AI高级谘询机构发布AI治理报告,也没有谈到有关AI意识的议题。
|
Powered by Discuz! X3.4
© 2001-2013 Comsenz Inc.