Trae调用本地大模型

你的运行环境(版本号「点击帮助-关于-复制」):

TRAE
版本: 3.5.38
VSCode 版本: 1.107.1
提交: cce6734c02342b6c1520037c4eda59b354011bf4
日期: 2026-03-14T05:19:16.467Z
Electron: 39.2.7-release.1.26.3 (aha)
Node.js: 22.21.1
V8: 14.2.231.23-electron.0
OS: Windows_NT x64 10.0.19045
构建版本: 2.3.13960
设备ID: 458e63df7668bdf97d9013c97687ce261a89d7eddbc402febb1bed2f7fb5199a
Device Id: 7620441704184858113

问题描述(你遇到了什么问题?):

如何调用本地部署的大模型

复现步骤(如何才能重现这个 Bug/问题?):
1.使用Ollama部署qwen3:8b大模型(window10笔记本)
2.使用TRAE-Ollama-Bridge-main进行中转
3.正常添加,厂商选择OpenAI,模型选自定义,最终添加成功

4.执行时选择该自定义模型,Trae最终无任何报错,仅显示下图状态

报错信息或截图(如有):

请在此处粘贴截图或日志代码

2 个赞

本地模型要企业版

1 个赞

目前不支持中转的,不支持调用本地模型。

2 个赞

好的,谢谢

2 个赞

本地模型还是不支持吗,我和你一样,使用ollama-bridge里测试本地模型成功了。但是在trae添加自定义模型失败,想请教下你添加自定义模型是怎么成功的

2 个赞

是永远不支持?还是暂时不支持?

1 个赞

关注官网的通知哦

1 个赞

使用本地模型是个新方向。虽然本地部署的一般都是小模型,但抗不住大家试错的热情

1 个赞

添加成功也没有太大意义,无法调用工具,只能当作对话窗口

1 个赞

真的坑,原本是本地调用你们一发帖子。直接云端中转。本地hosts 直接拉闸。

1 个赞

原本可以通过hosts 绕过的。现在云端帮你中转。

1 个赞