Hugging Face 发布新功能,让开发者可在 VS Code 的 GitHub Copilot Chat 中直接接入 Inference Providers。借助这一更新,Kimi K2、DeepSeek V3.1、GLM 4.5 等开源大语言模型如今可以直接在 VS Code 编辑器内调用和测试,开发者无需再频繁切换平台或工具。
整个工作流程设计得非常简洁。开发者只需安装 Hugging Face Copilot Chat 插件,打开 VS Code 的聊天界面,选择 Hugging Face 提供方,输入 Hugging Face 的 token,然后添加想要使用的模型。完成连接后,便可以通过熟悉的模型选择器在不同提供方和模型之间自由切换。
社区很快注意到一个细节:这一功能需要最新版的 VS Code 支持。正如 AI 研究员 Aditya Wresniyandaka 在 LinkedIn 上指出的:
文档里没写:这个集成并不是所有版本都支持,你得升级到 2025 年 8 月的 VS Code 1.104.0 才行。
长期以来,GitHub Copilot Chat 一直依赖封闭的专有模型。此次与 Hugging Face Inference Providers 网络的打通,让开发者能够使用更多类型的 AI 工具,包括实验性和高度专业化的开源模型。
Muhammad Arshad Iqbal 则兴奋地评价道:
喜欢这个更新!我们现在可以在 VS Code 里直接用那些开源的 AI 编程助手,再也不用为了试试 Qwen3-Coder 这种模型而来回切换窗口了。
这项集成为开发者打开了更多可能性,他们能够在 Copilot Chat 中调用针对特定编程任务、行业或研究领域优化的模型,而不再局限于默认选项。这一功能由 Hugging Face Inference Providers 服务提供支持,开发者只需一个统一 API 就能访问数百种机器学习模型。
这项服务的最大价值在于“统一”:开发者不必再处理多个 API 的差异和不稳定性,而是能通过一致的接口调用来自不同提供方的模型。Hugging Face 特别强调了几大优势:
即时访问最前沿的模型,远超单一厂商目录能提供的范围。
避免厂商锁定,开发者几乎无需修改代码就能自由切换提供方。
面向生产环境的性能保障,提供高可用性和低延迟推理。
为开发者提供便捷的集成方式,可直接兼容 OpenAI Chat Completions API,并附带 Python 与 JavaScript 客户端 SDK。
在定价方面,Hugging Face 也尽量降低门槛。开发者每月可获得一定的免费推理额度,Pro、Team 和 Enterprise 用户则可享受更大容量及按需付费的灵活方案。Hugging Face 强调,开发者支付的费用与模型提供方实际收费完全一致,不会额外加价。
原文链接: