LM Studio API 对接测试诊断程序 OpenAI 兼容接口 API通讯检测工具

文章目录(快捷跳转)

简介说明
LM Studio API 对接测试诊断程序 API通讯检测工具

这个小工具专门用于排查 到底是 LM Studio 配置问题,还是你的 API 应用接入问题。

现在仓库里有两个版本:

LmStudioProbe:控制台版
LmStudioProbe.Gui:Windows 桌面界面版

它会依次检测:

- `GET /v1/models`
- `GET /api/v1/models`
- `POST /v1/chat/completions`

如果 `OpenAI 兼容接口` 正常,但你的业务程序仍报错,通常就说明更像是你的应用参数、模型名或请求体有问题。

1. 先准备 LM Studio

根据 LM Studio 官方文档:

在 `Developer` 页面打开 `Start server`
默认地址是 `http://localhost:1234`
OpenAI 兼容接口的 `base URL` 要写成 `http://localhost:1234/v1`
如果开启了 `Require Authentication`,请求必须带 `Authorization: Bearer `

官方文档:

https://lmstudio.ai/docs/developer/core/server
https://lmstudio.ai/docs/developer/openai-compat
https://lmstudio.ai/docs/developer/core/authentication

2. 安装 .NET SDK

本程序是 `net8.0` 控制台项目,需要先安装 .NET 8 SDK:

https://dotnet.microsoft.com/download/dotnet/8.0

 

3. 运行方式

在当前目录执行:

```powershell
dotnet run --project .\LmStudioProbe\LmStudioProbe.csproj
```

运行图形界面版:

```powershell
dotnet run --project .\LmStudioProbe.Gui\LmStudioProbe.Gui.csproj
```

只检测并列出模型名:

```powershell
dotnet run --project .\LmStudioProbe\LmStudioProbe.csproj -- --list-models
```

如果你还想看 `/v1/models` 的原始 JSON:

```powershell
dotnet run --project .\LmStudioProbe\LmStudioProbe.csproj -- --list-models --raw-models
```

指定模型:

```powershell
dotnet run --project .\LmStudioProbe\LmStudioProbe.csproj -- --model qwen/qwen3-14b
```

自定义地址和 Token:

```powershell
dotnet run --project .\LmStudioProbe\LmStudioProbe.csproj -- `
--base-url http://localhost:1234/v1 `
--api-key 你的token `
--model 你的精确模型标识
```

4. 参数说明

`--base-url`:默认 `http://localhost:1234/v1`
`--api-key`:可选。如果 LM Studio 开启认证,就必须提供
`--model`:可选。建议填 `GET /v1/models` 返回的精确 `id`
`--prompt`:可选,自定义测试问题
`--timeout`:可选,默认 `60`
`--list-models`:只请求 `/v1/models`,列出当前可用模型名
`--raw-models`:配合 `--list-models` 使用,额外输出原始 JSON

## 5. 常见结论怎么理解

- `两个 models 接口都连不上`
- 通常是 LM Studio 没启动,或端口不对
- `native /api/v1/models 能通,但 /v1/models 不通`
- 通常是 OpenAI 兼容接口路径写错
- `401 / 403`
- 通常是开启了认证,但没带 token 或 token 错了
- `models 能列出来,但 chat/completions 400`
- 通常是模型名不对,或者请求体字段不兼容
- `全部成功,但你的业务程序仍失败`
- 更像是你业务程序自己的接入代码有问题

6. 一个最容易踩的坑

模型名必须和 `/v1/models` 返回的 `id` 完全一致。

也就是说,LM Studio 里“检测模型名字”的接口本身就是:

```http
GET http://localhost:1234/v1/models
```

如果开启了认证,请带上:

```http
Authorization: Bearer
```

比如你的模型可能在 LM Studio 里实际叫:

```text
qwen/qwen3-14b
```

或者:

```text
Qwen/Qwen3-14B-GGUF
```

而不是你自己手写一个:

```text
qwen3.5
```

很多“模型不存在”或 `400` 报错,都是这里导致的。

使用方式
解压后yunx
LmStudioProbe.Gui.exe

图片预览

LM Studio API 对接测试诊断程序 OpenAI 兼容接口 API通讯检测工具 - .NET 8.0 开发工具, API 通讯错误排查, C# 开源诊断程序

下载地址

https://pan.baidu.com/s/1q4nUHvhgSXjRFpzfJitg2w?pwd=dv9e 提取码: dv9e

https://pan.quark.cn/s/dec499bc6edb

未经允许不得转载:网站源码、软件资源与技术教程分享 - 今夕资源网 » LM Studio API 对接测试诊断程序 OpenAI 兼容接口 API通讯检测工具
扫码在手机上阅读本页
赞(0)

评论抢沙发

评论前必须登录!