全部文档
当前文档

暂无内容

如果没有找到您期望的内容,请尝试其他搜索词

文档中心

在JetBrains系列产品中使用ProxyAI接入模型API服务

最近更新时间:2026-04-16 10:20:11

本文介绍如何在 JetBrains 系列编辑器(如 PyCharm)中,通过安装和配置 ProxyAI 插件,接入星流平台的模型 API 服务进行 AI 辅助编程。本实践以 Python 开发为例。

准备工作

操作步骤

安装ProxyAI插件

打开PyChom插件商店,搜索并安装 ProxyAI。

配置 ProxyAI 插件

  1. 插件安装完成后,在 Settings(或 Preferences)> Tools 中找到 Proxy AI,选择 Custom OpenAI

  2. 参考以下说明,设置各项参数。

    • Preset template :设置为 OpenAI

    • Custom provider name :可自由设置,易于识别即可。

    • API key :填入在星流平台获取的 API Key(该 Key 需已赋予对应模型的权限)。

    • 选择 Chat Completion

      • URL: 填入https://kspmas.ksyun.com/v1/chat/completions

      • 选择 body 后,找到 model 参数,将其值修改为星流平台对应的模型名称。已支持的模型可在模型广场进行查看。

  3. 点击 Test,显示成功后保存配置。

  4. 在编辑器侧边栏或插件窗口的模型选项中,切换至刚刚创建并配置好的模型。

验证功能

使用插件的对话或代码补全功能,测试模型效果及输出。

后续操作

通过以上步骤,您可以将星流平台的多个模型添加至 JetBrains 编辑器。其他 JetBrains 系列产品(如 IntelliJ IDEA、WebStorm 等)的操作步骤与此一致。


文档导读
纯净模式常规模式

纯净模式

点击可全屏预览文档内容
文档反馈