中新经纬客户端5月31日电 (张燕征)近日,由清华大学社科学院主办的“人工智能心理学与算法伦理”研讨会在清华科技园举行。武汉大学哲学学院心理学系教授喻丰在研讨会上表示,只有空泛原则和数据备案不可行,需基于实证研究对算法伦理做规则设计。
武汉大学哲学学院心理学系教授喻丰。来源:主办方供图
在喻丰看来,目前学术界有各种各样的人工智能伦理规条,但并不能切实指导实践。比如透明、负责任等等,丰富又不统一。他做了一些研究,把人工智能伦理到数据库里进行搜索,扒取了几千条文献,进行文献之间的聚类,发现英文文献上,人工智能规条聚类很混乱,中文文献则心理学文章很少,法律、传播、伦理文章很多。但是所有文章都在提出一种规条,应该怎么做,人工智能应该要怎么样以及人工智能要符合这样一些原则。“从我自己的研究角度来说,一是伦理规条是抽象的,道德心理学发现,抽象的道德原则不能指导实际的道德行为,这中间存在巨大的鸿沟;二是伦理规条没有解决知行分离的问题。”
那为什么规则没有用,但是大家都说规范呢?喻丰认为,这是因为学者关心精英智慧而忽视普通人想法。专家洞见和哲学家智慧不一定正确,而面向人的人工智能应该考虑普通人的感觉,考虑素人是如何看待人工智慧与人进行交互的,这便是社会心理学。喻丰举例称,现在很多人想做人工智能陪伴机器人,并认为这能够帮助到孤独症患者。而他通过实证研究发现,孤独症患者不喜欢人工智能机器人陪伴,甚至不希望一个人陪着他。只有暂时“孤独情境”的人更青睐机器人,比如学生失恋了,这种情况下需要陪伴机器人。但对于孤独症患者或者是自闭症儿童,他们不喜欢也不需要机器人。“你以为对这部分人有市场,其实没有,这是拍脑袋的结果。”
人工智能的智能本身就是心理学内容,但是人工智能伦理考察的是人工智能和人之间的“伦和理”,才是以人为本的人工智能。心理学普遍认为,认知神经科学才做人工智能。神经网络和深度学习其实跟神经没有任何关系,只是借助了神经一层一层引申为算法而已,所谓神经网络会造成两个误解。第一个误解是人工智能似乎和神经科学有关,这只是名义上的混淆,其实它和大脑神经结构以及当前神经科学心理学研究没有任何直接关系。第二是现存人工智能方法是在人类智能研究上的倒退,从行为主义发展到认知心理学,人开始才有主动加工、主动意识,有自上而下加工过程,现在人工智能方法变成数据驱动的底层自下而上的加工,在智能上是倒退的。
喻丰还指出,不同文化也会产生不同的人工智能伦理规条。中国人更倾向于保护老人,应该根据不同的文化来设计规则。“我觉得实证社会心理学很重要,面向人的人工智能应该考虑素人的感觉,考虑素人是如何看待人工智能与人进行交互的。人工智能的智能本身就是心理学内容,但是人工智能伦理考察的是人工智能和人之间的‘伦和理’,这才是以人为本的人工智能。”人类具有美德,人工智能是否同样能够实现呢?喻丰表示,可以用美德论方法做出负责任、道德的人工智能体。“通过设置大量具体情境,并将其伦理脚本应用在人工智能上。这不仅对人工智能使用者、设计者来说很重要,对于人工智能本身也一样重要。”
人工智能问题的解决最终一定是社会心理学方式解决,对于人工智能来说,不要列出具体的伦理规条,应该用美德论方法做出负责任、道德的人工智能体,应该设置大量具体情境,把它设置成伦理脚本。“我们不能只设计一条所谓透明度的原则,只有把它设计成规则,如果怎么样,那么怎么样,自上而下的列出规则,让人工智能知道它如何做,那才有用。这和现在的底层往上的数据驱动的、深度学习的方法是相反的。心理学的情境研究把情境做了分类,讲情境如何分类。应该把人工智能会面临的情境识别出来,对每个情境写出道德行为脚本,自上而下解决。”喻丰称。(中新经纬APP)
( HN666)