有关我们对安全、负责任的生成性 AI 承诺的最新进展 机器学习博客
更新我们的安全与负责任生成AI承诺进展
关键要点
安全与公平:亚马逊始终将安全性、公平性和隐私作为生成AI发展的关键。新工具与技术推出:包括引入Amazon Bedrock Guardrails及水印技术,提升AI服务的透明度。合作与培训:与政府、公司及研究机构协同推动AI的安全可靠发展,提供全球免费的AI技能培训。负责任的人工智能一直是亚马逊的重要承诺。自创立之初,我们便将负责任AI的创新作为重点,通过将安全性、公平性、强健性、安全和隐私融入我们的开发流程,并对员工进行培训。我们的目标是在改善客户生活的同时,建立必要的防护措施来保护他们的权益。我们务实的方法将负责任的AI理论转化为实践,并通过工具和专业知识帮助AWS用户在其组织中有效实施负责任的AI实践。到目前为止,我们已开发了超过70种内部和外部的负责任AI工具和机制,发布或资助了超过500篇关于负责任AI的研究论文、研究和科学博客,并为亚马逊员工提供了数万小时的负责任AI培训。同时,亚马逊持续扩展其针对各个年龄段、背景和经验水平的免费负责任AI培训课程。
今天,我们分享关于负责任AI努力的进展更新,其中包括新工具、合作伙伴关系及测试的推出,这些措施改善了我们AI服务和模型的安全性、可靠性和透明度。
推出新工具与能力,安全构建与扩展生成AI,支持对抗性测试如红队测试
在2024年4月,我们宣布正式推出Amazon Bedrock Guardrails和Amazon Bedrock中的模型评估,以便更轻松地引入保护措施,防止有害内容,并根据关键的安全性和准确性标准评估模型。我们最近在Guardrails中添加了上下文化检查,以检测模型响应中的虚假信息,尤其是在使用RAG和摘要应用时。上下文化检查增强了Guardrails中的行业领先安全保护,确保LLM的响应基于正确的企业数据源,并评估LLM的响应,以确认其与用户查询或指令的相关性。这项技术可以检测并过滤超过75的虚假响应,对于RAG和摘要工作负载尤为有效。此外,为了支持使用不同FM的应用程序,Guardrails现在支持ApplyGuardrail API,以评估用户输入和模型响应,适用于任何来自Amazon Bedrock外部的自定义和第三方FM。
在5月份,我们发布了Amazon Titan Text Premier的新AI服务卡,以进一步支持我们在负责任和透明生成AI方面的投资。AI服务卡是负责任AI文档的一种形式,旨在为客户提供一个集中地点,以获取有关我们AI服务和模型的预期使用案例和限制、负责任AI设计选择及部署和性能优化最佳实践的信息。到目前为止,我们已创建了超过10个AI服务卡,为客户提供透明度,作为我们全面开发过程的一部分,涵盖公平性、可解释性、真实性、强健性、治理、透明度、隐私与安全、以及可控性等方面。
AI系统也可能存在性能缺陷和脆弱性,这可能增加安全威胁或有害内容的风险。在亚马逊,我们使用多种技术测试我们的AI系统和模型,例如亚马逊Titan,采用手动红队测试。红队测试让人工测试人员以对抗的方式探测AI系统的缺陷,补充了我们的其他测试技术,包括针对公开和专有数据集的自动基准测试、人类对完成结果的评估等。例如,我们开发了专有的评估数据集,以挑战性提示来评估Titan Text的发展进展。我们针对多个用例、提示和数据集进行测试,因为不太可能通过单一的评估数据集提供一个绝对的性能图像。总的来说,Titan Text经历了多次红队测试,涉及安全性、隐私、真实性和公平性等问题。
引入水印技术,帮助用户识别AI生成的视觉内容
生成AI的一个常见应用是创建数字内容,例如图像、视频和音频,但为了防止虚假信息,用户需要能够识别AI生成的内容。水印等技术可以用来确认内容是否来自特定的AI模型或提供商。为了减少虚假信息的传播,所有由Amazon Titan图像生成器生成的图像默认都有一个隐形水印。该水印旨在抵抗篡改,帮助提高对AI生成内容的透明度,并打击虚假信息。此外,我们还在Amazon Bedrock中推出了一个新的API预览版,用于检测水印的存在,帮助您确认图像是否由Titan图像生成器生成新的API。
促进公司与政府的合作,以应对信任和安全风险
公司、政府、研究人员和AI社区之间的合作对于促进安全、负责任和可信的AI发展至关重要。在2024年2月,亚马逊加入了美国人工智能安全研究院联盟,该联盟由国家标准与技术研究所NIST成立。亚马逊与NIST合作建立新的测量科学,以识别可扩展、可互操作的测量和方法,促进可信AI的开发。我们还向研究所贡献了500万美元的AWS计算积分,用于开发评估基础模型安全性的工具和方法。同样在2月,亚马逊还加入了“技术协议以打击AI在2024年选举中的欺骗性使用”在慕尼黑安全会议上。这是我们共同工作的一部分,以推动防范欺骗活动的安全措施,并保护选举的完整性。
随着技术不断演变,我们继续寻找新的方法来促进信息共享,这包括我们与Thorn与All Tech is Human的合作,以安全地设计我们的生成AI服务,减少其被滥用于儿童剥削的风险。我们也是前沿模型论坛的成员,推动前沿AI模型的科学、标准和最佳实践的发展。

利用AI作为应对社会最大挑战的力量,并支持促进教育的举措
在亚马逊,我们致力于促进安全、负责任的AI发展,作为一项造福人类的力量。我们看到,生成AI在各行业中持续帮助应对气候变化和改善医疗保健的实例。Brainbox AI,一项商业建筑技术的先锋,在AWS上推出了全球首个由生成AI驱动的虚拟建筑助手,为设施管理者和建筑运营者提供优化能源使用和减少碳排放的洞察。Gilead,一家美国生物制药公司,通过利用内部和真实世界数据集进行AI驱动的方案分析,增强了用于拯救生命的药物开发的可行性以及优化临床研究的场所选择。
小熊加速器npv在导航这些技术的变革潜力时,我们认为教育是实现其好处、减轻风险的基础。因此,我们提供有关生成AI系统潜在风险的教育。自2023年7月以来,亚马逊员工已花费数万小时完成培训,涵盖了多种关键主题,如风险评估,以及深入探讨公平性、隐私和模型可解释性等复杂考量。作为亚马逊“AI就绪”计划的一部分,我们计划在2025年前为全球200万人提供免费的AI技能培训,现已推出关于安全与负责任AI使用的新免费培训课程。这些课程包括在AWS Educate上的“负责任AI简介”,以及在AWS Skill Builder上的课程,如“负责任AI实践”和“AI解决方案的安全性、合规性和治理”。
以信任为核心推动突破性创新
作为AI的先行者,亚马逊继续促进安全、负责任和可信的AI技术发展。我们致力于代表客户推动创新,同时建立并实施必要的保障措施。我们还致力于与公司、政府、高校和研究人员合作,在信任为核心的基础上,推动突破性的生成AI创新。
作者介绍
Vasi Philomin 是AWS的生成AI副总裁,负责领导生成AI相关工作,包括Amazon Bedrock和Amazon Titan。