![图片[1]-OpenAI 开源了!本地免费部署ChatGPT,普通电脑也能轻松跑, GPT-OSS 最强版媲美 o3 模型!附最新下载安装教程!支持Windows、macOS、Linux!](https://www.mohe-sc.com/wp-content/uploads/2025/08/OpenAI-开源了!本地免费部署ChatGPT,普通电脑也能轻松跑,-GPT-OSS-最强版媲美-o3-模型!附最新下载安装教程!支持Windows、macOS、Linux!-1024x576.jpg)
OpenAI 正式推出 gpt-oss-120b 与 gpt-oss-20b —— 两款性能卓越的轻量级语言模型,旨在为开发者和企业提供高效、低成本的 AI 解决方案。 它们在 推理任务、工具使用能力 以及 消费级硬件优化 方面表现突出,并采用了灵活的 Apache 2.0 开源许可证,支持商业和非商业应用。
模型亮点
| 宽松的 Apache 2.0 许可证: | 自由构建,不受版权限制或专利风险 – 非常适合实验、定制和商业部署。 |
| 可配置的推理力度: | 根据您的具体用例和延迟需求轻松调整推理力度(低、中、高)。 |
| 完整的思路链: | 提供对模型推理过程的完整访问权限,从而简化调试并增强输出的可信度。此信息不打算向最终用户显示。 |
| 可微调: | 通过参数微调完全根据您的特定用例定制模型。 |
| Agentic 功能: | 使用模型的本机功能进行函数调用、网页浏览、Python 代码执行和结构化输出。 |
| 原生 MXFP4 量化: | 模型使用原生 MXFP4 精度针对 MoE 层进行训练,允许gpt-oss-120b在单个 H100 GPU 上运行并gpt-oss-20b在 16GB 内存内运行。 |
模型规格
| 模型 | 参数量 | 活动参数 | 应用场景 |
|---|---|---|---|
| gpt-oss-120b | 1170亿 | 51亿 | 高推理、生产级应用,单H100 GPU |
| gpt-oss-20b | 210亿 | 36亿 | 本地部署、低延迟场景 |
这两个模型都是使用OpenAI的和声反应格式进行训练的,并且只能与这种格式一起使用;否则,它们将无法正常工作。
安装要求
- Python 3.12(跨平台支持)
- macOS:需安装 Xcode CLI 工具
- Linux:需要 CUDA 环境
- Windows:推荐使用 Ollama 进行本地部署
如果您尝试在消费类硬件上运行,你可以有2种安装方式:
- 在安装 Ollama上进行部署, 点击下载后运行以下命令来使用 Ollama 。
# gpt-oss-20b
ollama pull gpt-oss:20b
ollama run gpt-oss:20b
# gpt-oss-120b
ollama pull gpt-oss:120b
ollama run gpt-oss:120b
- 在 LM Studio 上部署 ,如果您使用LM Studio,则可以使用以下命令进行下载。
# gpt-oss-20b
lms get openai/gpt-oss-20b
# gpt-oss-120b
lms get openai/gpt-oss-120b
- 如果需要下载原尺寸模型,您可以直接从 Hugging Face CLI下载Hugging Face Hub中的模型权重:
# gpt-oss-120b
huggingface-cli download openai/gpt-oss-120b --include "original/*" --local-dir gpt-oss-120b/
# gpt-oss-20b
huggingface-cli download openai/gpt-oss-20b --include "original/*" --local-dir gpt-oss-20b/
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END






![百度网盘直链解析彻底解除百度云限速限制[利用IDM工具在线解析网页版]-MOHE素材库-设计行业的乐园,各类素材的矿山!](http://mohe-sc.com/wp-content/uploads/2021/07/baiduwangpan-400x273.png)

![关于本站启用[注册邀请码]的说明-MOHE素材库-设计行业的乐园,各类素材的矿山!](https://www.mohe-sc.com/wp-content/uploads/2022/10/2023_09xI0Dxg_-800x448.png)







请登录后查看评论内容