吕鹏:人工智能伦理问题需实证证实或证伪

快报
2021
08/18
10:31
亚设网
分享

中新经纬客户端8月18日电 (张燕征)近日,由清华大学数据治理研究中心主办的“人工智能伦理与治理”研讨会在线上举行。中国社会科学院社会学所经济与科技社会学研究室主任、研究员吕鹏在研讨会上表示,有关人工智能伦理问题不能凭空争论,需要用实证研究来证实或证伪。

吕鹏表示,如今关于人工智能治理的理论文章特别多,涉及哲学、法学、政治学等,一些宏观的原则上问题可能都讨论的差不多了,但有一些特别聚焦的理论或者需要经验研究去支撑的理论问题还没有讲清楚。

“比如在疫情防控中,很多最后关口的问题都是靠人解决的。那么治理体系中,数字应用的边界在哪儿?人与机器是什么样的合作模式?这些理论问题都需要更多的实证研究。包括所谓的信息茧房现象,一些学者做的最新研究,证明信息茧房的产生机制原比我们想象的复杂。”吕鹏称。

吕鹏指出,以现在的人工智能研究来说,可能需要聚焦在“关键人群”的调查,比如开发者、架构师、社会精英人群、意见领袖的态度。“关于人工智能的研究,需要跟普通大众做一个区分和对比,这两者要齐头并进。”

吕鹏还表示,要想做好人工智能的实证研究,还需要让它产品化。相关的人工智能社会治理实验室可以跟地方、企业合作,做有关人工智能社会风险的预测和监督机制。通过网络大数据,调研人们对于人工智能的信任、信心等指标,这也是社会风险中的一个维度。

在吕鹏看来,要把人工智能、社会治理和伦理实证研究做起来,还需要建立四个“库”。一是数据库;二是文献库;三是案例库;四是资源库。“在当下时代中,把社会科学和计算科学结合起来解决产品应用上的具体问题,我想把这种新职业叫‘社计师’,社就是社会科学,计就是计算科学。可以探讨关于人工智能的原则、伦理,在技术层面怎样制定标准,在具体的应用场景下又该如何制定标准。”

用社会学干预算法治理,那具体该如何操作?吕鹏表示,这需要引入“算法审计”这个概念。“算法审计是对算法的后果进行诊断,包括数据操纵、社会偏误、删截数据、社会歧视、侵犯隐私等。主要包括三个层面:一是源头上参与数据的生产和算法的改进,让这些数据带有更多的社会视角;二是内容治理,比如网上内容涉黄的具体标准是什么;三是共同治理,平台和相关部门都参与进来。”(中新经纬APP)

( HN666)

THE END
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表亚设网的观点和立场。

2.jpg

关于我们

微信扫一扫,加关注

Top