文档中心 星流平台 模型API服务 最佳实践 在JetBrains系列产品中使用ProxyAI接入模型API服务

在JetBrains系列产品中使用ProxyAI接入模型API服务

最近更新时间:2026-04-16 10:20:11

本文介绍如何在 JetBrains 系列编辑器(如 PyCharm)中,通过安装和配置 ProxyAI 插件,接入星流平台的模型 API 服务进行 AI 辅助编程。本实践以 Python 开发为例。

准备工作

操作步骤

安装ProxyAI插件

打开PyChom插件商店,搜索并安装 ProxyAI。

配置 ProxyAI 插件

  1. 插件安装完成后,在 Settings(或 Preferences)> Tools 中找到 Proxy AI,选择 Custom OpenAI

  2. 参考以下说明,设置各项参数。

    • Preset template :设置为 OpenAI

    • Custom provider name :可自由设置,易于识别即可。

    • API key :填入在星流平台获取的 API Key(该 Key 需已赋予对应模型的权限)。

    • 选择 Chat Completion

      • URL: 填入https://kspmas.ksyun.com/v1/chat/completions

      • 选择 body 后,找到 model 参数,将其值修改为星流平台对应的模型名称。已支持的模型可在模型广场进行查看。

  3. 点击 Test,显示成功后保存配置。

  4. 在编辑器侧边栏或插件窗口的模型选项中,切换至刚刚创建并配置好的模型。

验证功能

使用插件的对话或代码补全功能,测试模型效果及输出。

后续操作

通过以上步骤,您可以将星流平台的多个模型添加至 JetBrains 编辑器。其他 JetBrains 系列产品(如 IntelliJ IDEA、WebStorm 等)的操作步骤与此一致。


上一篇:将金山云星流平台模型API能力接入Cursor
下一篇:相关协议
以上内容是否对您有帮助?
有帮助
没帮助