作为引领第四次科技革命的战略性技术,人工智能虽然在纯技术层面是价值中立的,但在实际应用中,兼具创造性和破坏性。数据隐私、算法偏见、技术滥用等安全问题正给社会公共治理与产业智能化转型带来严峻挑战。
8月2-3日,首届全球数字经济大会在京召开,人工智能产业治理论坛作为大会的平行论坛之一备受关注。会上,来自我国人工智能领域的顶尖科学家、学者以及知名企业家围绕主题“探索创新、共举担当”展开对话,共同发布首个《人工智能产业担当宣言》。
中国科学院院士、清华大学人工智能研究院院长张钹,北京市海淀区区委副书记、区长王合生,北京市大数据中心党总支书记、副主任唐建国,中关村(000931,股吧)科学城管委会专职副主任、海淀区科信局局长舒毕磊,中国信息通信研究院副总工程师王爱华,北京智源人工智能研究院执行副院长曹岗出席论坛。
人工智能创新发展与安全治理深度协同
“人工智能与信息系统在安全性上有着显著区别。信息系统安全性问题主要是软件设计中的漏洞,容易被解决。而第二代人工智能的安全性问题主要来自深度学习算法本身的不安全,更加本质、更难克服。”
中国科学院院士、清华大学人工智能研究院名誉院长、瑞莱智慧首席科学家张钹在主旨演讲中率先破题。
他指出,对人工智能进行治理,防止它被误用、制止它被滥用,一方面需要从法律法规、伦理规范、行业共识等不同层面去“治标”,还应从技术创新层面发力去“治本”。
张钹院士提出发展第三代人工智能技术,即融合了第一代的知识驱动和第二代的数据驱动的人工智能,利用知识、数据、算法和算力四个要素,建立新的可解释和鲁棒的AI理论与方法,发展安全、可信、可靠和可扩展的AI技术。
中国科学院自动化研究所研究员、国家新一代人工智能治理专委会委员、联合国教科文组织人工智能伦理特设专家组专家曾毅认为,人工智能的治理并不存在“发展优先还是治理先行”的矛盾,人工智能稳健发展的两大前提是可持续发展和人工智能的善治,两者深度协同。
如何实现人工智能的可持续发展?
曾毅提出了具体建议,即在人工智能产品设计、研究、开发、部署、使用全生命周期嵌入伦理与治理,并形成政府、学术界、企业、公民社会、媒体、用户、服务提供商等多方主动共治的良性生态,使稳健发展的人工智能赋能全球可持续发展目标的实现。
他表示,本次宣言的发布对企业具有重要参考作用并具初步的实操建议,将推动政产学研各界加快形成多方共治体系,稳步推进构建“负责任、可持续”的人工智能生态,赋能人类与生态的可持续发展。
中国社科院科技哲学研究室主任、科学技术和社会研究中心主任段伟文在演讲中重点谈到了数字时代的社会信任危机与重建。
他说,数字技术与人工智能产业发展的伦理风险带来了诸多社会信任问题,面对既防患未然也溯及既往的数字治理趋势,人工智能企业应直面社会许可的挑战,认真感知公众对科技企业的认知和评价。
段伟文建议,人工智能企业不应回避社会监督,而是不断思考、重塑科技的社会印象,技术改进和伦理设计要齐头并进,携手走向共建性的人工智能伦理治理。
中伦律师事务所合伙人陈际红结合9月1日起即将施行的《中华人民共和国数据安全法》进行了分享。人工智能治理的实现,需要多方参与、多元路径。为人工智能的发展设定规则就是路径之一,而法律就是制定硬规则。人工智能企业要遵守《数据安全法》开展数据处理,达到的合规标准。
独行快,众行远。在主旨演讲环节,嘉宾们在分享中达成共识:在推动人工智能创新发展的道路上,只有从技术、伦理、法律三个维度“三管齐下”,才能实现安全治理的高效能。只有创新发展与安全治理深度协同,人工智能才能真正成为社会发展的有力工具,增进人类福祉。
(王治强 HF013)