AWS Bedrock 新增 Custom Model Import 功能,支持 OpenAI 开源 GPT-OSS 模型部署

亚马逊网络服务(AWS)近日宣布,其 Amazon Bedrock 平台已推出 Custom Model Import 新功能,使用户能够便捷部署 OpenAI 的开源 GPT-OSS 模型。此项更新旨在简化企业将其现有应用程序无缝迁移至 AWS 平台的过程,同时保持 API 兼容性。

据 AWS 官方消息,Amazon Bedrock Custom Model Import 目前支持 20 亿和 120 亿参数的 GPT-OSS 模型变体。 用户仅需将模型文件上传至 Amazon S3 存储桶,随后通过 Amazon Bedrock 控制台启动导入流程。 AWS 将自动负责 GPU 配置、推理服务器搭建及按需自动扩展等基础设施管理工作,使企业能够将精力集中于应用开发。

GPT-OSS(GPT Open-Source Series)模型是 OpenAI 自 GPT-2 以来首次发布的两款开放权重语言模型,其旨在提供强大的推理能力和工具使用功能。 其中,GPT-OSS-20B 模型适用于对速度和效率要求较高的场景,而 GPT-OSS-120B 则更适合处理复杂的推理任务。 这两款模型均采用专家混合架构(Mixture-of-Experts, MoE),仅在请求时激活最相关的模型组件,以确保高效性能。

迁移至 AWS 平台的用户将受益于极少的代码更改。由于新功能支持 OpenAI 聊天完成 API 的格式,现有应用程序只需调整调用方式,消息结构则保持不变,从而实现无缝过渡。 部署流程主要包括下载并准备模型文件、将文件上传至 Amazon S3、使用 Amazon Bedrock 进行模型导入,以及通过 OpenAI 兼容的 API 调用测试模型。 用户需确保拥有有效的 AWS 账号及适当权限,并在目标区域创建 S3 存储桶。

AWS 强调,此项功能已在美国东部(弗吉尼亚北部)区域普遍可用,并建议用户在利用新功能的同时,遵循文件验证和安全性设置等最佳实践,以确保模型部署的顺利进行。 此次更新进一步丰富了 Amazon Bedrock 支持的模型生态,使用户能够更灵活地选择和部署符合其特定需求的生成式人工智能模型。

上一篇:

下一篇:

发表回复

登录后才能评论