曾毅:构建新一代智能AI准绳

作者: 财经频道  发布:2020-03-25

作者:曾毅(中国科学院自动化研究所类脑智能研究中心研究员、副主任)

著名作家阿西莫夫1940年在科幻小说中提出了“机器人三原则”:机器人不得伤害人类,或看到人类受到伤害而袖手旁观;机器人必须服从人类的命令,除非这条命令与第一条相矛盾;机器人必须保护自己,除非这种保护与以上两条相矛盾。今天,人工智能逐渐从科幻走向现实,人们对人工智能可能产生的危害也愈加警惕,希望能够为其制定准则以确保人工智能科技和产业向对社会有益的方向顺利发展。

4月,欧盟委员会发布人工智能伦理准则,并宣布同时启动该准则的试行阶段,并邀请企业、研究机构等对这一准则进行测试。人工智能发展的数十年间,经历了多次起起伏伏。到今天,人们对深度学习、大数据、通用人工智能带来的成果期许有加。但仍然需要有人察觉,这些技术中黑暗的一面,在4月20日由中国社会科学院科学技术和社会研究中心举办的人工智能的社会、伦理与未来研究研讨会上,美国技术哲学家卡尔米切姆引用了莎士比亚在《威尼斯商人》中的一句话:闪光之物,未必是金。以提醒人们发展人工智能技术时,可能面对的伦理挑战。值得庆幸的是,人工智能的研究者已经开始与人文领域深度融合。2018年开始,我们在中国科学院大学就面向人工智能和计算机科学的研究生开设了《人工智能哲学与伦理》课程。据我了解,今年北京大学、浙江大学、西安交通大学等高校也将逐步开始设置人工智能伦理相关的课程。中国科学院自动化研究所研究员曾毅在报告时指出。曾毅还指出,迄今为止,目前由国家地区的政府、非政府组织及研究机构和产业颁布的人工智能伦理准则提案已经超过40个。但不同的准则涉及到的议题视角各不相同。曾毅告诉《中国科学报》,其研究团队对这些提案进行梳理,但没有任何一个提案可以覆盖其他提案超过65%的议题。曾毅研究团队主要从事类脑人工智能的研究。对人工智能研究长远发展的思考让他感到对人工智能风险、安全与伦理的思考急需进行算法化、模型化落地,从而确保人工智能向对社会有益的方向发展。技术发展会对伦理准则提出新的要求。由于文化、地域、领域的差异,大一统的准则提案不但很难做到,而且没有必要。因此,不同国家、组织之间伦理准则如何协同很重要,曾毅还指出,这些准则如何进行技术落地、经受社会检验,再不断迭代完善,是未来要面临的更有意义的问题。在当前对人工智能伦理的讨论中,还有一些问题亟待解决。曾毅在报告中提到,由于设计缺陷,现阶段的很多人工智能模型,更关心如何获得最大的计算奖励,但忽略了对环境和社会造成的潜在隐患。以强化学习模型为例,模型中会设计一个奖励函数,以帮助模型在与环境交互过程中通过获得尽可能多的奖赏进行学习,但如果奖励函数设置不合理,为了完成任务,很可能会忽略掉对周围环境和其他智能体的影响,并产生不可逆的后果。目前绝大多数的人工智能没有自我的核心,不能够区分自我和他人。而人类的涉身经验、对外部事物的揣测,是建立在自我经验的基础之上的。曾毅告诉记者。对自我的计算建模也是当前人工智能领域的一个关键研究问题,具有一定程度自我感知能力的人工智能模型将从本质上更利于自主学习、理解人类的价值观。

著名作家阿西莫夫1940年在科幻小说中提出了“机器人三原则”:机器人不得伤害人类,或看到人类受到伤害而袖手旁观;机器人必须服从人类的命令,除非这条命令与第一条相矛盾;机器人必须保护自己,除非这种保护与以上两条相矛盾。今天,人工智能逐渐从科幻走向现实,人们对人工智能可能产生的危害也愈加警惕,希望能够为其制定准则以确保人工智能科技和产业向对社会有益的方向顺利发展。

1.以和谐互补的方式链接不同的人工智能准则提案

1.以和谐互补的方式链接不同的人工智能准则提案

人工智能既是经过数十年锤炼发展出来的科学领域,又是改变未来的重要颠覆性技术。人工智能的研究与发展不仅关系到国家科技、经济发展、社会稳定,更关系到国家在科技、产业领域的国际影响与国际局势。

人工智能既是经过数十年锤炼发展出来的科学领域,又是改变未来的重要颠覆性技术。人工智能的研究与发展不仅关系到国家科技、经济发展、社会稳定,更关系到国家在科技、产业领域的国际影响与国际局势。

人工智能在带来机遇的同时也带来潜在的风险与隐患。例如应用最为广泛的深度神经网络模型在对输入引入极小的噪声(如改变图像输入中某个关键的一个像素值)情况下,就有可能使网络的识别和预测结果产生颠覆性的错误(如将青蛙识别为卡车、乌龟识别为枪支)。若没有充分的风险评估,新兴技术在对社会发展带来机遇的同时,很有可能引入不可预计的安全隐患与风险。

人工智能在带来机遇的同时也带来潜在的风险与隐患。例如应用最为广泛的深度神经网络模型在对输入引入极小的噪声(如改变图像输入中某个关键的一个像素值)情况下,就有可能使网络的识别和预测结果产生颠覆性的错误(如将青蛙识别为卡车、乌龟识别为枪支)。若没有充分的风险评估,新兴技术在对社会发展带来机遇的同时,很有可能引入不可预计的安全隐患与风险。

现在对于人工智能的发展而言,首要的问题是选择正确的道路。创新、价值、伦理是一个铁三角,创新性技术对社会带来潜在价值的同时,可能存在难以预期的风险,并对社会伦理提出重大挑战。因此,发展人工智能技术普惠经济与社会的同时,关注人工智能的社会属性,从社会风险、伦理准则与治理角度确保人工智能科学、技术、产业的健康、良性发展至关重要。

现在对于人工智能的发展而言,首要的问题是选择正确的道路。创新、价值、伦理是一个铁三角,创新性技术对社会带来潜在价值的同时,可能存在难以预期的风险,并对社会伦理提出重大挑战。因此,发展人工智能技术普惠经济与社会的同时,关注人工智能的社会属性,从社会风险、伦理准则与治理角度确保人工智能科学、技术、产业的健康、良性发展至关重要。

为了确保发展有益的人工智能,世界上各国政府、非政府组织、科学团体、科研机构、非营利性组织、企业都提出了人工智能发展准则。包括英国政府、国际电子电器工程学会、国际劳工组织。至今,于公开渠道可见的人工智能准则提案已接近40个,涉及以人为本、合作、共享、公平、透明、隐私、安全、信任、权利、偏见、教育、通用人工智能等主题。例如,美国生命未来研究所倡导的阿西洛玛人工智能准则(Asilomar AI Principles)、英国上议院提出的人工智能准则等,都希望通过在人工智能伦理与准则制定方面的领先来引领人工智能的发展。

为了确保发展有益的人工智能,世界上各国政府、非政府组织、科学团体、科研机构、非营利性组织、企业都提出了人工智能发展准则。包括英国政府、国际电子电器工程学会、国际劳工组织。至今,于公开渠道可见的人工智能准则提案已接近40个,涉及以人为本、合作、共享、公平、透明、隐私、安全、信任、权利、偏见、教育、通用人工智能等主题。例如,美国生命未来研究所倡导的阿西洛玛人工智能准则(Asilomar AI Principles)、英国上议院提出的人工智能准则等,都希望通过在人工智能伦理与准则制定方面的领先来引领人工智能的发展。

事实上目前任何一个国家、机构、组织提出的人工智能准则都仅覆盖了少部分主题(更为具体的层面,人工智能准则提案涉及超过50个主要议题),虽然不少准则提案都有自身的特色,有其他方案未能覆盖的考量,但想要构建统一、全面、完善的人工智能准则既是难以实现的,又是没有必要的——难以实现的原因是人工智能这门科学技术本身、人工智能准则、伦理的内涵和外延都是在不断完善的;没有必要的原因是每个国家、组织与机构的准则提案都结合自身实际情况,有组织目标、环境、文化、伦理传统相关的特殊考虑。

本文由澳门金莎娱乐网站发布于财经频道,转载请注明出处:曾毅:构建新一代智能AI准绳

关键词: