在re:Invent大会前夕,Amazon Bedrock 宣布推出了一系列更新,进一步完善了开发者构建 RAG(Retrieval-Augmented Generation) 应用的能力。
这些更新包括支持自定义连接器与流式数据摄取、新增 Rerank API 重排功能,以及 LLM-as-a-judge 模型评估功能。这些创新不仅提高了开发效率,还显著降低了数据管理和模型优化的复杂性,为企业AI应用开发提供了全方位支持。
数据管理新突破:支持自定义连接器与流式数据摄取
对于需要处理动态数据的企业来说,数据同步的效率和成本一直是痛点。此次 Amazon Bedrock Knowledge Bases 的更新,通过支持自定义连接器与流式数据摄取,解决了传统数据同步的诸多难题。
• 实时数据摄取:开发者可以直接通过 API 添加、更新或删除数据,无需全量同步。例如,企业可以实时摄取来自 Google Drive 或 IoT 传感器的数据,而不必先将其迁移至 Amazon S3。
• 降低延迟与成本:跳过中间存储步骤,显著减少数据接入延迟,同时降低操作成本。这对金融、物联网等需要处理高频动态数据的行业尤为关键。
例如,一家金融服务公司可以持续更新市场数据,让生成式AI应用始终为用户提供最新、最准确的信息。这种能力极大提升了企业应用的实时性和用户体验。
精准回答的关键:Rerank API 提升文档检索准确性
在 RAG 应用中,检索的相关性直接影响生成式AI的回答质量。Amazon Bedrock 推出的 Rerank API,通过先进的重排模型(如 Amazon Rerank 1.0 和 Cohere Rerank 3.5),进一步优化了文档排序的精准度。
• 解决复杂查询问题:语义搜索在处理模糊或复杂查询时,可能无法优先返回最相关的内容。Rerank API 能对检索到的文档重新排序,确保与用户意图最匹配的内容优先被基础模型使用。例如,当用户询问退货流程时,系统会优先返回退货相关政策,而非不相关的运输指南。
• 优化成本与性能:通过提升上下文窗口的利用率,Rerank API 不仅提高了生成模型的准确性,还能减少不必要的数据处理成本。
这一功能的上线,让生成式AI应用在精准性和用户满意度上实现双赢。
高效模型评估:LLM-as-a-judge 技术助力选择最佳模型
模型评估是生成式AI开发中的重要环节,此次 Amazon Bedrock 推出的 LLM-as-a-judge 功能,为开发者提供了一种高效、经济的模型评估方式。
多维度评估指标:
• 质量指标:正确性、完整性和专业风格。
• 负责任AI指标:有害性检测、回答拒绝和去除刻板印象。
• 自定义评估数据:开发者可以上传自定义提示数据集,让评估更贴合实际应用场景。
• 节约成本与时间:相比传统的人工评估,这种方法不仅成本低,还能在几周内完成对模型性能的全面分析,为开发者快速选择合适的基础模型提供支持。
这一功能尤其适合需要快速迭代和精准调优的企业场景。
这些更新全面覆盖了生成式AI应用的开发关键环节:
1. 高效数据管理:通过自定义连接器和流式数据摄取,企业能够实时管理动态数据,显著提升应用响应速度。
2. 优化检索相关性:Rerank API 通过重排模型提升文档排序准确性,确保生成内容与用户意图一致。
3. 精准模型评估:LLM-as-a-judge 提供了一种高效且经济的模型评估方式,帮助开发者快速找到最佳基础模型。
这些功能不仅提高了生成式AI应用的开发效率,还帮助企业大幅降低了运营成本,拓宽了应用场景。
Amazon Bedrock 此次更新再次巩固了其在亚马逊生成式AI战略中的核心地位。从实时数据管理到高效模型评估,再到文档检索优化,亚马逊为开发者构建高性能、低延迟的生成式AI应用提供了强大的支持。这些功能的推出,标志着生成式AI技术在企业级应用中的进一步成熟,也为行业未来的发展树立了新标杆。
目前,这些新功能已在支持 Amazon Bedrock 的很多地区上线。开发者可以通过 AWS 管理控制台 或 API 开始体验这些强大功能,为下一代生成式AI应用奠定基础。