中新经纬12月22日电 (薛宇飞)近日,清华大学社会科学学院社会学系、中国科学院学部-清华大学科学与社会协同发展研究中心主办了“伦理立场、算法设计与企业社会责任”研讨会,来自清华大学、中国科学院、大连理工大学的十余位专家学者就算法的伦理问题、算法治理以及企业责任等话题,展开交流探讨。会上,清华大学社会科学学院社会学系发布了《伦理立场、算法设计与企业社会责任》研究报告(下称报告)和《企业算法伦理实践指南》。
与会学者认为,算法在促进社会进步的同时,算法公平、算法偏见、算法歧视等伦理议题也为社会所关注。同时,算法具有价值可塑性特征,算法设计需要突破传统思维结构和社会观念,用向善的价值立场推动社会发展,促进公序良俗和新社会伦理发展。对于算法治理,则应建立起一个融合各伦理观念所长、多元主体参与的“治理网络”,实现政府、专业机构、团体、企业及公众共同参与的协同治理。
伦理现象是算法应用价值的伴生
“伦理立场、算法设计与企业社会责任”研讨会。主办方供图
如今,算法已经应用于各行各业,与人们的生产、生活息息相关。报告指出,算法为人们的思维、决策和行动提供了新的技术实现路径,在一定程度上避免了基于人类情感的主观抉择的局限性,也有助于提高生活质量、改善社会管理。在研讨会上,清华大学新闻与传播学院常务副院长陈昌凤指出,算法技术不再是一个简单的工具,而且影响着人们的交往和信息的传播,“算法和数据技术正在不断提升人们的认知能力,助益社会生活。”
清华大学新闻与传播学院常务副院长陈昌凤。主办方供图
报告指出,算法技术的飞速发展也伴生着伦理议题,主要体现在人类主体权利、社会性伦理、技术性伦理三个层面。人类主体权利涉及公平性和自主性,对公平的定义很大程度上基于情境和主观,决策权的让渡也与主体的自主性相关;社会性伦理涉及隐私和信息安全,要防止未经审查、不受限制和未经许可的算法应用,在数据主体不知情的情况下进行自动化的数据分析;技术性伦理涉及不透明和偏见、歧视,算法可能含有设计者、使用者和所学习数据的偏见。
清华大学社会学系教授李正风。主办方供图
清华大学社会学系教授李正风在研讨会上说:“算法可能再现社会当中已有的伦理问题,尤其是掌握了大量数据并且对数据进行深度挖掘后,隐含在社会当中的伦理问题会更清晰地展现出来。比如,现在人们讨论比较多的公平性问题,还有算法偏见、算法歧视、隐私保护,这些都是社会当中已存在的伦理问题,但通过算法会更为显性地展现出来。”
清华大学公共管理学院副教授陈玲。主办方供图
算法的公平性,一直都是各界对算法在应用过程中最关心的议题之一,但何为公平、怎么实现公平,却并没有形成共识。清华大学公共管理学院副教授陈玲指出,各界对算法公平还没有共同的、可接受的定义。公平可分为起点公平、过程公平、结果公平,应针对不同阶段的公平来制定相应的公平准则。其中,结果公平是人们最直观、最朴素的公平诉求,但它不意味着最终结果的均等,而是指算法推荐结果的可计算、可预期、可解释。
针对隐私和信息保护,中国科学院自动化研究所研究员曾毅称,政策和法律规定用户有授权撤销的权利,也就是说,在不使用一款应用软件后,用户可以要求企业删除数据,这看似很简单,但在技术落地上几乎不具备可行性。这是因为绝大多数数据不是放在数据库里面调用,而是通过人工智能和机器学习模拟学习用户特征,以参数的形式内化于人工智能模型当中,如果企业采用类似于深度学习的神经网络模型,它很难把单个用户数据的影响从模型当中删除。
清华大学公共管理学院教授、人工智能治理研究中心主任梁正则认为,从技术特性方面看,机器学习目前还处于“黑箱”状态,在透明性和可解释性上存在问题。目前,中国已经出台一系列法律法规,包括《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》,建立了基础机制,一些规范、指引、准则也在推出,数据治理体系正在建设,在基本的制度体系建立后,接下来应该重点研究制定可实施和操作的细则。
报告分析道,算法伦理问题源于技术上的难以解释性和部分企业的商业利益至上,算法技术的复杂性、专业性和封闭性特点,使得公众对设计原理及结构、运行参数、决策依据、实现机制的认知理解不足,一些企业从商业利益出发违规搜集数据侵犯了用户隐私和信息安全。
中科院自然科学史研究所副研究员王彦雨。主办方供图
研讨会上,中科院自然科学史研究所副研究员王彦雨回顾了人工智能的发展历史,他表示,从哲学角度来讲,未来可能会出现人工智能机器自己生产知识的形式,随着这种知识体量的增大,会对人际关系等带来新的社会影响。但具有意向性的强人工智能,至少到现在还没有可行性。
坚持算法向善的价值立场
“伦理立场、算法设计与企业社会责任”研讨会。主办方供图
报告指出,算法具有价值可塑性特征,可能带来两类“道德真空”情境,一是道德无意识,在算法设计中缺失道德或伦理维度考虑;二是道德无规则,前沿技术发展涉及的伦理问题超越了传统道德规范,新的具体规范需要重新建立。
同时,算法既受到人类社会价值判断的影响,也具有价值塑造的作用。由于人的伦理价值立场具有多样性,包括伤风败俗、入乡随俗、公序良俗、移风易俗四个层次,且在入乡随俗层次上的人群分布最多,所以无意识、朴素的价值观念和伦理立场往往会占据主导,而算法可能默认其为应当普遍遵守的社会行为准则。
李正风指出,无意识、朴素的价值观念和伦理立场占据主导后,会出现伦理责任缺失,反映到技术和社会之间的关系时,会导致技术的“助纣为虐”。因此,不能完全地随波逐流,好的企业具有比较值得肯定的价值立场,会成为维护公序良俗的中流砥柱。同时,也希望算法治理能发挥更重要的作用,源清流净,开风气之先。
算法设计的伦理立场则可分为功利论、义务论、契约论、德性论四种。功利主义立场认为,算法设计应以其实际的功效或利益为基本目的,不考虑动机和手段;义务论认为算法设计需要制定某种道德原则或按照某种正当性去行动,强调算法设计的道德义务和责任以及履行义务和责任的重要性;契约论主张,在企业和用户之间建立一种公开透明、平等公正的契约关系;德性论认为,算法设计的伦理水平最终主要由算法设计者和算法企业的主体德性决定。
李正风称,从算法治理角度看,新规则的生成也是某种约束和引导,包括政府部门出台的规制手段,更为重要的是要让相关的行动者能够具有较高的伦理意识和伦理责任,就是要提高算法设计者、企业的“德性”,这就上升到德性论的伦理立场。如今,企业越来越注重社会责任,这是非常值得肯定的。
报告发现,中国企业在算法伦理“知行合一”方面迈出了步伐,例如,字节跳动人工智能实验室已经在对机器学习公平性和“负责任的人工智能”的其他方面(包括但不限于可解释性、可控性、多样性、真实性、隐私性和鲁棒性)进行技术基础研究,以确保字节跳动基于机器学习的智能系统惠及所有用户。
报告提出,算法设计需要突破传统思维结构和社会观念,用向善的价值立场推动社会发展,促进公序良俗和新社会伦理发展。在国家政策推动和行业实践带动下,“算法向善”在中国已步入实质性的伦理规范阶段。算法技术的道德嵌入不能只满足于既有的伦理框架,还要求迭代、调整规范体系来引领社会整体的价值向善。
陈昌凤认为,新技术确实带来了各种风险,引发人们的担忧,就如同过去所有新技术到来之时一样,人们都会有疑惑,这是必然的。人们应该学会如何善用新技术,把最核心的有益的部分使用起来,而不是“因噎废食”。她表示,开发和使用算法时要有价值观的指导,从当前看,中国使用算法方面具有优势的企业,都很重视算法善用。
多方协同治理需秉持“算法友好”
报告称,任何单一主体的判断并不具有普遍效力,因而算法治理的逻辑必然是多元化的,包括技治、监管和治理网络三重逻辑。算法技治主义要求尊重和发挥企业在算法治理上的主体性,同时要避免单纯追求经济效益最大化;监管主义要求企业和政府在发挥技术监管作用的同时注重对数据安全和隐私的保护,同时不盲目跟从用户关于算法问题不当的质疑和判断;治理网络要求政府、企业、公众协同参与治理和对重要问题的商谈,既满足公众合理价值诉求,也把算法当作各种价值偏见的调解中介,用算法技术的演变和规则规范的更新迭代来解决算法问题。
李正风进一步解释,“技治主义”强调的是技术维度重要性,依靠专业机构、人员在治理中扮演重要角色,强调自治。但受技术发展不成熟和利益因素的影响,单纯依靠技术维度的治理存在一定困难,所以,后来又发展到监管主义,强调监管机构的作用。慢慢地,人们发现,无论是专业团体还是政府部门,单独扮演监管角色都非常困难,因此,现在更加强调“治理网络”,强调多元主体参与的治理网络,政府、专业机构、团体、企业及公众共同参与的协同治理。
梁正认为,“目前国家出台的相关法律,把安全、个人权益等敏感问题的红线都划出来了,接下来针对各专门应用领域就要提出更具体的要求,算法做到可解释、可问责,治理中实现分级分类,分场景。同时,过程中有监督,事后有补救,以及确定治理的优先级,在不同领域应用不同的治理工具,包括对基本底线的把控。”算法治理是一个制度问题,不是技术问题,算法的治理应当重点关注算法使用的过程及其产生的影响。
多位与会专家呼吁,在构建多方参与的算法治理网络的同时,也要给予企业一定的发展空间。陈玲强调,要兼顾创新和数字经济的发展,尊重客观的现实条件,吸引更多的工程师和不同领域的专家参与到规则制定过程中。
清华大学计算机与科学技术系副教授崔鹏。主办方供图
清华大学计算机与科学技术系副教授崔鹏也表示,外部对算法的监管应秉持对“算法友好”的理念。因为它并不是监管某一种客观事物,而是对未来二三十年经济发展有重要作用的技术形态的引导,避免因为一些不恰当的调控而带来双输局面,要给企业预留足够的空间,以促进企业之间的良性竞争,推动算法经济平台技术的健康发展。
促进企业算法伦理实践和公众专用智能素养
如何让算法的应用更契合社会赋予的责任,这就要求企业采取更加积极的策略响应社会需求,通过多元主体的参与来塑造和提升信任,尊重个体的主动权,加强人机协同,构建以人为本、感知情境的具有积极促进意义的算法系统。
研讨会上发布的《企业算法伦理实践指南》提出,企业要在构建算法伦理治理体系、加强伦理委员会建设、制定算法伦理治理的基本准则和规范、加强员工伦理素养培训四个方面制定具体的工作措施,其中,在企业算法伦理治理的基本准则规范方面要重视公平公正、安全透明、平衡与多样、价值性、可溯源可追责、合规性。
大连理工大学人文与社会科学学部部长李伦认为,企业应履行数字责任,而算法伦理是企业数字责任的核心,应将算法伦理嵌入到企业数字责任的契约中,使企业数字责任从自我约束变成社会约束。
清华大学社会科学学院助理研究员戴思源。主办方供图
除了企业责任,个人又应如何更好地参与到算法治理之中呢?清华大学社会科学学院助理研究员戴思源提出了“人工智能素养”概念,它可以拆解为通用智能素养与专用智能素养,通用智能素养是人对于产品运用服务消费能力,专用智能素养是人工智能技术研发与生产能力。在他看来,通用智能素养可能会直接增加信息隐私忧虑,这是因为个人隐私意识的提升,而专用智能素养可能会对信息隐私忧虑有缓解作用,因为它来自于技术信任。
“换句话说,缓解信息隐私忧虑,专用智能素养在全社会的普及势在必行。”戴思源表示,专业技术公司可向公众进一步打开技术“黑箱”,让更多人了解到算法等专业知识。“同时,我们也应该建立一个人工智能技术治理运用与信息隐私保护的社会共治格局,向公众科普算法专业知识,提高他们对于智能产品的技术信任。”(中新经纬APP)
(王治强 HF013)