10分钟零代码,0元立即部署OpenAI开源模型 GPT-OSS

简介: 8月,OpenAI推出开源模型gpt-oss-120b和gpt-oss-20b,在多项测试中表现优异,甚至超越GPT-4o等模型。为方便用户部署,阿里云人工智能平台PAI提供一键部署方案,无需编码,可免费体验。用户可通过Model Gallery快速部署模型并使用Cherry Studio客户端进行对话体验。

8月,OpenAI 推出两款开源模型 gpt-oss-120b 和 gpt-oss-20b。OpenAI称,这两个模型在工具使用、少样本函数调用、CoT推理(如在 Tau-Bench 智能体评估套件中的结果所示)以及 HealthBench 测试中表现强劲(甚至超越了 OpenAI o1 和 GPT‑4o 等专有模型)。

想要尝鲜gpt-oss,但本地部署又面临硬件短缺、运维复杂、性能调优难等问题?

不用担心,本方案通过人工智能平台 PAI 的 Model Gallery,无须编写代码即可一键部署gpt-oss开源模型。目前体验还免费,快来试试吧!


Step 1 找到技术解决方案,开启免费试用

方法1:

直接访问 https://www.aliyun.com/solution/tech-solution-deploy/2974153?utm_content=g_1000406697 或点击阅读原文 ,来到方案部署教程页,按照指引开始“立即试用”。

方法2:访问aliyun.com,搜索"OpenAI开源模型 GPT-OSS",点击“零代码部署openAI开源模型 GPT-OSS_部署教程”,来到方案部署页,按照指引开始“立即试用”。

Step 2 部署 gpt-oss-20b 模型

1. 登录PAI 控制台[1],左侧导航栏选择工作空间列表,单击新建工作空间。

  • 设置工作空间名称。
  • 在服务角色授权部分单击去授权,确认授权后,回到创建页面,单击下一步。
  • 弹窗会提示没有添加成员,直接确定,会自动添加当前用户为空间成员。

2. 进入gpt-oss-20b[2]模型详情页面。点击右上角部署按钮。

3. 弹窗选择确认授权。

4. 在弹出的部署面板中,配置部署参数。部署方式选择llama.cpp部署 > 单机-标准机型,资源规格选择ml.gu7i.c8m30.1-gu30,其他参数默认。

说明:若没有可用的资源规格,说明当前地域资源紧张,您可以尝试在控制台左上角切换至其他地域。

5. 点击左下角部署按钮。弹窗提示计费提醒,点击确定按钮。

6. 部署耗时约5分钟,完成后如下图所示。

7. 单击查看调用信息,在弹出的看板中,复制保存公网调用地址Token

Step 3 使用 Cherry Studio 客户端进行对话

Cherry Studio 是业界主流的大模型对话客户端,且集成了 MCP 功能,您可以方便地与大模型进行对话。

1. 安装客户端

重要

请下载安装到本地,不要在右侧虚拟机窗口中下载。

访问https://docs.cherry-ai.com/cherry-studio/downloadhttps://github.com/CherryHQ/cherry-studio/releases下载并安装客户端。

2. 配置模型服务。

  • 单击左下角的设置按钮,在模型服务栏中点击添加。在提供商名称中填写自定义名称,如人工智能平台PAI,提供商类型为OpenAI。单击确定。
  • API 密钥输入您前面获取的 Token;在API 地址输入您前面获取的访问地址。
  • 单击添加,在模型ID 中填写gpt-oss-20b(注意大小写),添加该模型。
  • 您可以在API 密钥处点击检测来确认连通性。

3. 快速体验模型

回到对话框界面,在顶部选择模型后开始对话。比如,提问“9.11和9.9谁大”,得到结论。

参考链接:

[1]https://pai.console.aliyun.com/?regionId=cn-hangzhou&utm_content=g_1000406695

[2]https://pai.console.aliyun.com/?regionId=cn-hangzhou#/quick-start/models/gpt-oss-20b/intro&utm_content=g_1000406696



来源  |  阿里云开发者公众号


相关文章
|
NoSQL 安全 Linux
Linux|minio对象存储服务的部署和初步使用总结
Linux|minio对象存储服务的部署和初步使用总结
843 0
|
运维 文件存储 对象存储
【运维知识进阶篇】用阿里云部署kod可道云网盘(配置Redis+MySQL+NAS+OSS)(三)
【运维知识进阶篇】用阿里云部署kod可道云网盘(配置Redis+MySQL+NAS+OSS)(三)
544 0
|
3月前
|
人工智能 自然语言处理 运维
【新模型速递】PAI-Model Gallery云上一键部署gpt-oss系列模型
阿里云 PAI-Model Gallery 已同步接入 gpt-oss 系列模型,提供企业级部署方案。
|
存储 人工智能 开发工具
AI助理化繁为简,速取代码参数——使用python SDK 处理OSS存储的图片
只需要通过向AI助理提问的方式输入您的需求,即可瞬间获得核心流程代码及参数,缩短学习路径、提升开发效率。
1717 5
AI助理化繁为简,速取代码参数——使用python SDK 处理OSS存储的图片
|
8月前
|
关系型数据库 数据库 对象存储
Dify实践|Dify on DMS+对象存储OSS,实现多副本部署方案
本文介绍了在DMS上部署Dify的详细步骤,用户可选择一键购买资源或基于现有资源部署Dify,需配置RDS PostgreSQL、Redis、AnalyticDB for PostgreSQL等实例,并设置存储路径和资源规格。文中还提供了具体配置参数说明及操作截图,帮助用户顺利完成部署。
|
存储 运维 数据安全/隐私保护
【运维知识进阶篇】用阿里云部署kod可道云网盘(配置Redis+MySQL+NAS+OSS)(四)
【运维知识进阶篇】用阿里云部署kod可道云网盘(配置Redis+MySQL+NAS+OSS)(四)
535 0
|
分布式计算 Java 开发工具
阿里云MaxCompute-XGBoost on Spark 极限梯度提升算法的分布式训练与模型持久化oss的实现与代码浅析
本文介绍了XGBoost在MaxCompute+OSS架构下模型持久化遇到的问题及其解决方案。首先简要介绍了XGBoost的特点和应用场景,随后详细描述了客户在将XGBoost on Spark任务从HDFS迁移到OSS时遇到的异常情况。通过分析异常堆栈和源代码,发现使用的`nativeBooster.saveModel`方法不支持OSS路径,而使用`write.overwrite().save`方法则能成功保存模型。最后提供了完整的Scala代码示例、Maven配置和提交命令,帮助用户顺利迁移模型存储路径。
|
存储 弹性计算 监控
建设云上稳定性问题之为什么要在云效平台创建发布流水线并将源代码编译环节替换为从OSS下载构建部署物
建设云上稳定性问题之为什么要在云效平台创建发布流水线并将源代码编译环节替换为从OSS下载构建部署物
207 2
|
弹性计算 监控 Serverless
Serverless 应用引擎操作报错合集之阿里函数计算中调用zip-oss-fc函数返回时候出现错误代码如何解决
Serverless 应用引擎(SAE)是阿里云提供的Serverless PaaS平台,支持Spring Cloud、Dubbo、HSF等主流微服务框架,简化应用的部署、运维和弹性伸缩。在使用SAE过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
138 1
Serverless 应用引擎操作报错合集之阿里函数计算中调用zip-oss-fc函数返回时候出现错误代码如何解决
下一篇