中新经纬12月21日电 (薛宇飞)近日,清华大学社会科学学院社会学系、中国科学院学部-清华大学科学与社会协同发展研究中心主办了“伦理立场、算法设计与企业社会责任”研讨会。在研讨会上,中科院自然科学史研究所副研究员王彦雨表示,无论是外界干扰还是自我演化,只要人工智能可以形成区别于初始目标的新目标,并根据新目标自主行动,就可以看作是强人工智能形式。但机器所形成的新目标并不是基于意向性,而是基于目标变化而产生了与原始目标不同的新东西,成为相对于原始智能机器的异化体。基于意向性的人工智能,至少到现在还没有任何可行性。
中科院自然科学史研究所副研究员王彦雨。主办方供图
强人工智能概念在1980年提出,相对于弱人工智能,强人工智能概念有以下共同特征:一是达到或者是超越人类智慧;二是具有意向性,拥有自我目标设定与自我评价及认知能力;三是强AI必须有通用性,拥有完整的人类能力谱系。
王彦雨分享了人工智能研究共同体和哲学科学社会界对于强AI的看法和态度转换过程。20世纪50年代中期至70年代初期,是人工智能的第一个黄金期,随着人工智能技术的进步,这一时期的人工智能界对于强AI非常乐观,当时的许多人工智能科学家认为10年、20年以后的机器就可以做人类能够完成的任何事情。但这一时期,哲学社会科学界共同体是以强AI的反对者身份出现的,他们基于人脑功能的特殊性(如心灵的整体性、感知的综合性、经验的情景性等),对当时的强AI乐观思潮进行了批判。
在20世纪70年代中期至80年代末,人工智能研究进入寒冬期,强AI概念逐渐衰落。1966年美国自动语言处理咨询委员会发布“ALPAC 报告”,以及1973年英国的“Lighthill Report”,均指出当时的人工智能技术难以解决诸如语义消歧、智能爆炸、不具备学习能力等问题。在他们看来,当时的人工智能并不智能,更多的是依赖一系列已经给出的固定程序来执行命令,没有学习能力。在这一时期,一种新的理念“智能增强”——强调人工智能研究目的是为了简化人机交互,而不是为了制造超越人类智慧的终极机器,开始吸引到越来越多的科学家。
从20世纪90年代初至90年代末,人工智能界基本不再提及强AI概念,怕被贴上“白日梦”标签。不过,那时候开始出现了“奇点议题”,如机器人专家莫拉维克、弗诺·文奇等通过写作科幻小说,来宣扬未来可能会出现超级智能机器,它的兴起为21世纪初的哲学社会科学界的强AI思潮提供思想基础。进入21世纪,基于摩尔定律的印证,哲学社会科学界开始复兴奇点议题,从2010年到现在,随着深度学习理念的提出,强AI的论调开始盛行。
那强AI到底强在哪里呢?他介绍,它拥有以深度学习为代表的学习模式,更类似于人,这种类似包括结构和学习过程等。而且,数据存储、搜索能力也比较强,拥有一个强大的泛化能力与进化能力。此外,当前基于深度学习技术的人工智能产品,具有更快的进化速度,以围棋AI为例,Crazy Stone的进化单位是按年计算的,阿尔法狗(AlphaGo)是以月为单位进行功能提升的,而最新的AlphaGo Zero则呈现出以天/小时为单位的功能提升模式,这种进化效率令人担忧。此外,人们的担忧还包括AI的自主性,包括决策自主性与行动自主性,且纯自主的机器人已经出现。
但这并不意味着人工智能能超越人类,因为人类的思维具有其独特品质。王彦雨说:人的思维由主动的意识起,是基于已有的背景知识、需求甚至责任等等方面而形成的自主目标,这个目标是主动提出的,而阿尔法狗(AlphaGo)等智能机器的目标则是先赋的、由人设定的,这与人类有着根本区别。此外,人脑思维具有更高阶的思维模式,比如智慧、直觉、灵感,这是人工智能没有的。
“我们还提出强人工智能2.0概念,无论是外界的干扰,还是自己的演化,只要人工智能可以形成新目标,根据这个目标自主行动,就可以看作是强AI形式。新目标不是基于意向性,而是基于目标的变化,产生了一些与原始目标不同的新东西,就可以称为强AI。”他说。
弱AI与强AI是两个不同的机制,强AI在外部的入侵与干扰、内部的演化下可以做到原始目标的偏离,这在科学上可以实现,更具有可行性,如俄罗斯机器人Promobot IR77在没有预先训练的情况下独自走出实验室寻找“充电桩”,一些机器人可将所习得的常识自主运用到新场中等。但基于意向性的人工智能,至少到现在还没有任何可行性。
王彦雨指出,在未来社会,除了作为工具的人工智能带来的风险,还有可能出现更多具有强AI2.0特质的智能体所带来的风险,这需要引起关注;另外,从哲学角度来讲,未来可能会出现人工智能机器自己生产知识的形式,随着这种知识体量的增大,会对人际关系等带来新的社会影响。(中新经纬APP)
(王治强 HF013)