IT之家 5 月 3 日消息,微软公司近日发布了新的透明度报告,概述了 2023 年制定并部署了各种措施,负责任地发布各项生成式产品。
微软于 2023 年 7 月签署自愿协议,承诺每年定期公布人工智能透明度报告,希望建立负责任的人工智能系统并让其健康、安全发展。
微软在《负责任的人工智能透明度报告》中,介绍了在安全部署人工智能产品方面取得的成就,共创建了 30 个负责任的人工智能工具,扩大了负责任的人工智能团队,并要求开发生成式人工智能应用程序的团队在整个开发周期中衡量和绘制风险。
该公司指出,它在其图像生成平台中添加了内容凭证,该平台在照片上添加水印,将其标记为由人工智能模型制作。
该公司表示,Azure AI 客户可以使用检测仇恨言论、性内容和自残等问题内容的工具,以及评估安全风险的工具。
它还正在扩大其红队(渗透测试团队)工作,包括故意尝试绕过其人工智能模型中的安全功能的内部红队,以及红队应用程序,以允许在发布新模型之前进行第三方测试。
IT之家附上参考地址
Responsible AI Transparency Report
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。