OpenAI 开源了!本地免费部署ChatGPT,普通电脑也能轻松跑, GPT-OSS 最强版媲美 o3 模型!附最新下载安装教程!支持Windows、macOS、Linux!

图片[1]-OpenAI 开源了!本地免费部署ChatGPT,普通电脑也能轻松跑, GPT-OSS 最强版媲美 o3 模型!附最新下载安装教程!支持Windows、macOS、Linux!

OpenAI 正式推出 gpt-oss-120bgpt-oss-20b —— 两款性能卓越的轻量级语言模型,旨在为开发者和企业提供高效、低成本的 AI 解决方案。 它们在 推理任务工具使用能力 以及 消费级硬件优化 方面表现突出,并采用了灵活的 Apache 2.0 开源许可证,支持商业和非商业应用。

模型亮点

宽松的 Apache 2.0 许可证:自由构建,不受版权限制或专利风险 – 非常适合实验、定制和商业部署。
可配置的推理力度:根据您的具体用例和延迟需求轻松调整推理力度(低、中、高)。
完整的思路链:提供对模型推理过程的完整访问权限,从而简化调试并增强输出的可信度。此信息不打算向最终用户显示。
可微调:通过参数微调完全根据您的特定用例定制模型。
Agentic 功能:使用模型的本机功能进行函数调用、网页浏览、Python 代码执行和结构化输出。
原生 MXFP4 量化:模型使用原生 MXFP4 精度针对 MoE 层进行训练,允许gpt-oss-120b在单个 H100 GPU 上运行并gpt-oss-20b在 16GB 内存内运行。

模型规格

模型参数量活动参数应用场景
gpt-oss-120b1170亿51亿高推理、生产级应用,单H100 GPU
gpt-oss-20b210亿36亿本地部署、低延迟场景

这两个模型都是使用OpenAI的和声反应格式进行训练的,并且只能与这种格式一起使用;否则,它们将无法正常工作。

安装要求

  • Python 3.12(跨平台支持)
  • macOS:需安装 Xcode CLI 工具
  • Linux:需要 CUDA 环境
  • Windows:推荐使用 Ollama 进行本地部署

如果您尝试在消费类硬件上运行,你可以有2种安装方式:

  • 在安装 Ollama上进行部署, 点击下载后运行以下命令来使用 Ollama 。
# gpt-oss-20b
ollama pull gpt-oss:20b
ollama run gpt-oss:20b

# gpt-oss-120b
ollama pull gpt-oss:120b
ollama run gpt-oss:120b
  • LM Studio 上部署 ,如果您使用LM Studio,则可以使用以下命令进行下载。
# gpt-oss-20b
lms get openai/gpt-oss-20b
# gpt-oss-120b
lms get openai/gpt-oss-120b
  • 如果需要下载原尺寸模型,您可以直接从 Hugging Face CLI下载Hugging Face Hub中的模型权重:
# gpt-oss-120b
huggingface-cli download openai/gpt-oss-120b --include "original/*" --local-dir gpt-oss-120b/

# gpt-oss-20b
huggingface-cli download openai/gpt-oss-20b --include "original/*" --local-dir gpt-oss-20b/
OpenAI 开源了!本地免费部署ChatGPT,普通电脑也能轻松跑, GPT-OSS 最强版媲美 o3 模型!附最新下载安装教程!支持Windows、macOS、Linux!-MOHE素材库-设计行业的乐园,各类素材的矿山!
OpenAI 开源了!本地免费部署ChatGPT,普通电脑也能轻松跑, GPT-OSS 最强版媲美 o3 模型!附最新下载安装教程!支持Windows、macOS、Linux!
此内容为免费资源,请登录后查看
0积分
OpenAI 本周发布了名为 gpt-oss 的开源模型家族(包含 gpt-oss-20b 与 gpt-oss-120b),并放出了权重、模型卡与参考代码,采用 Apache-2.0 类似的开放许可与使用指南,明确支持开发者在本地下载、运行与微调。简单来说:现在可以在自己的电脑/私有服务器上跑近似 ChatGPT 能力的模型,而无需付费调用云端接口。
免费资源
已售 5
© 版权声明
THE END
喜欢就支持一下吧
点赞3 分享
评论 抢沙发

请登录后发表评论

    请登录后查看评论内容