管控人工智能“野蛮生长”,ACM 审核通过生成式 AI 开发原则

观点
2023
07/13
12:32
亚设网
分享

IT之家 7 月 13 日消息,美国生成式人工智能协会 (Association for Generative AI)计算机器全球技术政策委员会 (ACM TPC) 日前发布了《生成式人工智能技术的开发、部署和使用原则》,日前已经由 ACM 的美国技术政策委员会(USTPC)和欧洲技术政策委员会(Europe TPC)通过。

据悉,该原则旨在促进有关生成和所有其他人工智能技术的公平、准确和有益的决策。不过 ACM 方面并未就此敦促推行具体的立法。

ACM 美国技术政策委员会主席 Jeremy Epstein 表示,“我们会直接回应立法机构的意见征询,但不会对法案或其中的部分内容公开表态。”

ACM 成立于 1947 年,号称是“世界上最大的科学和教育计算协会”,拥有约 110000 名学生和专业会员。他们认为,生成式 AI 日益强大,或将对社会构成严重风险,目前的技术安全使用指南不足,因此需要建立新标准,以确保可规避该技术可能带来的危害。

▲ 图源 美国人工智能协会此次发布的原则中,有四项原则专门针对生成式 AI,另外四项原则改编自 TPC 2022 年的 《负责任的算法系统声明》原则,IT之家将原则全文置于下方:

生成式 AI 特定原则

部署和使用的限制和指南: 应与所有利益相关者协商,审查和应用书面或修订的法律和法规,以在需要时限制生成人工智能技术的部署和使用,以最大程度地减少危害。如果没有明确和充分的保障措施,包括 “human in the loop” 以及相关利益相关者之间的明确共识,即该系统的好处将大大超过其潜在的负面影响,则不应允许任何高风险的人工智能系统运行。一种方法是定义风险等级,最高级别为不可接受的风险,最低级别为最小风险。

所有权:知识产权 (IP) 法律和法规尚未充分考虑生成式人工智能系统的结构和功能的固有方面。

个人数据控制: 生成式人工智能系统应该允许人们选择不使用他们的数据来训练系统或促进其信息生成。

可纠正性: 生成人工智能系统的提供者应创建和维护公共存储库,可以记录系统所犯的错误,并可以选择进行更正。

改编的先前原则

透明度: 任何使用生成式人工智能的应用程序或系统都应向适当的利益相关者明确披露。

可审计性和可质疑性: 生成人工智能系统的提供者应确保尽可能记录系统模型、算法、数据和输出(适当考虑隐私),以便在适当的情况下对其进行审计和 / 或质疑。

限制环境影响: 鉴于生成式人工智能模型对环境的巨大影响,建议就方法论达成共识,以衡量、归因并积极减少此类影响。

更高的安全性和隐私性: 生成式人工智能系统容易受到各种新的安全和隐私风险的影响,包括新的攻击向量和恶意数据泄露等。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

THE END
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表亚设网的观点和立场。

2.jpg

关于我们

微信扫一扫,加关注

Top