中新经纬客户端6月26日电 (薛宇飞)近日,由中国人民大学高瓴人工智能学院等单位主办的“推荐算法社会价值与可持续发展”研讨会在中国人民大学举行。中国科学院计算所研究员郭嘉丰在研讨会上称,对算法的公平性进行监管时,可能会面临一定的挑战,不仅仅是法律条款上的,还体现在定义和评价指标上。如今看,评价手法、评测办法都非常匮乏。
中国科学院计算所研究员郭嘉丰。来源:主办方供图
推荐算法产生不公平性的原因有很多,例如性别、地域、种族,以及很多无法感知的东西。他说:“即使所有不公平性的原因都找到了,又该怎么去检测呢?从技术角度讲,这是一个很值得探讨的命题。”
另外,推荐算法的可解释性,也不是一个简单的问题,最关键的是对谁解释。解释算法模型时,可能不会给普通大众解释具体的模型参数,因为大众不关心这些。做算法备案、算法公开时,可能是给一些专业人士做解释,但解释的也是一些原理,解释不了它的参数。
郭嘉丰还认为,当前存在过度解读推荐算法可解释性的情况。很多时候,算法的可解释性是针对普通用户,最多做到结果或者过程可解释。但到了更严谨的领域时,如医疗推荐、法律推荐,这是非常严肃的东西,可能需要在因果上面进行研究,有更强度的解释才有意义。
对于信息茧房现象,他表示,应该从更长时间、更大尺度上去观察。“为什么要用推荐系统去过滤信息,是因为信息太多了,而人的认知是有限的,如果一定要强迫他看好多东西,反而可能会对他的认知产生障碍。信息茧房现象在很多领域都存在,人本身也是有选择偏好的,解决了信息茧房,是不是还会带来另一个问题呢?”(中新经纬APP)
( HN666)