微软的一份新报告概述了该公司去年为负责任的人工智能平台所采取的步骤。
在其主要涵盖 2023 年的 AI 透明度报告中,微软“吹捧”了其在安全部署 AI 产品方面取得的成就。年度人工智能透明度报告是该公司在去年7月与白宫签署自愿协议后做出的承诺之一。微软和其他公司承诺建立负责任的人工智能系统并致力于安全。
微软在报告中表示,它在过去一年中创建了30个负责任的人工智能工具,发展了负责任的人工智能团队,并要求制作生成式人工智能应用程序的团队在整个开发周期中衡量和映射风险。该公司指出,它在其图像生成平台中添加了内容凭据,并且该平台在照片上加了水印,将其标记为由AI模型制作。
该公司表示,它允许 Azure AI 客户访问检测有问题内容(如仇恨言论、色情内容和自残)的工具,以及评估安全风险的工具。这包括新的越狱检测方法,该方法于今年 3 月进行了扩展,包括间接提示注入,其中恶意指令是 AI 模型摄取的数据的一部分。
它还在扩大其红队工作,包括故意试图绕过其AI模型中的安全功能的内部红队,以及允许在发布新模型之前进行第三方测试的红队应用程序。
然而,它的红队部队有他们的工作要做。该公司的人工智能推广也未能幸免于争议。
当 Bing AI 于 2023 年 2 月首次推出时,用户发现聊天机器人自信地陈述了不正确的事实,并一度教人们种族诽谤。10 月,Bing 图像生成器的用户发现他们可以使用该平台生成马里奥(或其他流行角色)驾驶飞机前往双子塔的照片。泰勒·斯威夫特(Taylor Swift)等名人的深度伪造裸照在一月份在X上流传,据报道,这些照片来自一个分享与Microsoft设计师制作的图像的小组。Microsoft最终堵住了允许生成这些图片的漏洞。当时,Microsoft首席执行官萨蒂亚·纳德拉(Satya Nadella)表示,这些图像“令人震惊和可怕”。
Microsoft首席人工智能官娜塔莎·克兰普顿(Natasha Crampton)在发给The Verge的一封电子邮件中表示,该公司了解人工智能仍在进行中,负责任的人工智能也是如此。
“负责任的人工智能没有终点线,所以我们永远不会认为我们在自愿人工智能承诺下的工作已经完成。但自从签下他们以来,我们已经取得了长足的进步,并期待今年继续保持我们的势头,“克兰普顿说。