面临要求对人工智能发展进行限制的呼声,Alphabet (GOOGL.US) 和OpenAI公司在内的一群科技公司正在创建一个组织,以确保AI模型的安全性。这项工作还得到了人工智能初创公司Anthropic 和微软 (MSFT.US) 的支持,并旨在整合成员公司的专业知识,为该行业制定基准。该组织被称为Frontier Model Forum,表示欢迎其他从事大型机器学习平台的企业加入。
生成式人工智能工具(如OpenAI的ChatGPT)的快速普及,可以根据简单提示创建文本、照片甚至视频,这给科技巨头带来了谨慎行事的压力。参与Frontier Model Forum的公司已经同意在美国国会可能通过具有约束力的法规之前采取保障措施。
OpenAI全球事务副总裁Anna Makanju表示,“确保人工智能的安全性是一项紧迫的任务,该组织具备专业知识、资源和支持,可以在行业内迅速作出决策和行动,以推动AI技术发展并确保其安全性。
该组织计划在接下来的几个月内组建一个咨询委员会,评估优先事项,并希望建立章程、管理体系和资金,带头开展工作。此外,该组织希望与现有的倡议和机构合作,包括Partnership on AI和MLCommons。
虽然公司长期以来一直利用机器学习来驱动搜索和社交媒体功能,但最新一代的AI系统可以达到越来越接近或甚至超越人类的水平。
世界各国政府誓言共同努力应对人工智能的危险。其中包括七国集团,它们正计划在英国举行国际人工智能峰会。然而,目前在美国,AI的监管仍由公司自行决定。
微软总裁表示,“这一倡议是将科技行业聚集到一起,负责任地推动AI并应对挑战,是造福全人类的关键一步。”