FastGPTFastGPT
模型配置方案

模型配置说明

FastGPT 模型配置说明

介绍

FastGPT 借助AI Proxy服务,可以连接到不同的模型提供商。同时AI Proxy还提供了负载均衡、模型日志、数据看板等能力,方便检测模型调用情况。

🤖

注意事项:

  1. 目前语音识别模型仅会生效一个,所以配置时候,只需要配置一个即可。
  2. 系统至少需要一个语言模型和一个索引模型才能正常使用。

运行流程图

alt text

模型类型

  1. 语言模型 - 进行文本对话,多模态模型支持图片识别。
  2. 索引模型 - 对文本块进行索引,用于相关文本检索。
  3. 重排模型 - 对检索结果进行重排,用于优化检索排名。
  4. 语音合成 - 将文本转换为语音。
  5. 语音识别 - 将语音转换为文本。

特殊术语介绍

  • 模型 ID:接口请求时候,Body 中model字段的值,全局唯一。
  • 模型名: 用于展示的模型名称,可以自定义。
  • 模型渠道:不同的模型提供商协议,例如 OpenAI、Anthropic、Google 等。大部分自建渠道都遵守 OpenAI 的协议。一个模型可以在配置在不同渠道中,实现负载均衡。
  • 自定义请求地址/Key:如果需要绕过模型渠道,可以设置自定义请求地址和 Token。一般情况下不需要。(不推荐使用,不方便管理)

添加渠道/模型

可以 FastGPT 中账号-模型提供商页面中进行模型配置。

1. 创建渠道

切换到模型渠道标签页。 注意,这里只能增加模型配置里有的模型,系统仅内置了主流的模型,如果需要增加其他模型,需要先在模型配置中增加。

aiproxy1

点击右上角的“新增渠道”,即可进入渠道配置页面

alt text

以阿里百炼的模型为例,进行如下配置

alt text

  1. 渠道名:展示在外部的渠道名称,仅作标识;
  2. 协议类型:模型对应的协议类型,一般哪家提供的模型就选对于服务商即可。大多数都提供了 OpenAI 的协议,也可以选择 OpenAI 协议类型。
  3. 模型:当前渠道具体可以使用的模型,系统内置了主流的一些模型,如果下拉框中没有想要的选项,可以点击“新增模型”,增加自定义模型;
  4. 模型映射:将 FastGPT 请求的模型,映射到具体提供的模型上。例如:
{
  "gpt-4o-test": "gpt-4o"
}

FatGPT 中的模型为 gpt-4o-test,向 AI Proxy 发起请求时也是 gpt-4o-test。AI proxy 在向上游发送请求时,实际的modelgpt-4o

  1. 代理地址:不要填完整的模型请求地址,要填写BaseUrl,注意是否需要增加/v1
  2. API 密钥:从模型厂商处获取的 API 凭证。注意部分厂商需要提供多个密钥组合,可以根据提示进行输入。

最后点击“新增”,就能在“模型渠道”下看到刚刚配置的渠道

aiproxy4

2. 渠道测试

然后可以对渠道进行测试,确保配置的模型有效

aiproxy5

点击“模型测试”,可以看到配置的模型列表,点击“开始测试”

aiproxy6

等待模型测试完成后,会输出每个模型的测试结果以及请求时长

aiproxy7

3. 启用模型

系统内置了目前主流厂商的模型,如果你不熟悉配置,直接点击启用即可。模型 ID是和模型渠道中的模型一致。

点击启用模型,即可使用。

启用模型模型ID映射说明
alt textalt text

4. 测试模型

FastGPT 页面上提供了每类模型的简单测试,可以初步检查模型是否正常工作,会实际按模板发送一个请求。

alt text

模型配置

修改模型配置

点击模型右侧的齿轮即可进行模型配置,不同类型模型的配置有区别。

alt textalt text

新增自定义模型

如果系统内置的模型无法满足你的需求,你可以添加自定义模型。如果模型 ID与系统内置的模型 ID 重复,则会被认为是修改系统模型,而不是新增模型。

  1. 通过表单添加模型
alt textalt text
  1. 通过配置文件配置

如果你觉得通过页面配置模型比较麻烦,你也可以通过配置文件来配置模型。或者希望快速将一个系统的配置,复制到另一个系统,也可以通过配置文件来实现。

alt textalt text

其他

渠道优先级

范围1~100。数值越大,越容易被优先选中。

aiproxy9

启用/禁用渠道

在渠道右侧的控制菜单中,还可以控制渠道的启用或禁用,被禁用的渠道将无法再提供模型服务

aiproxy10

模型调用日志

通过渠道调用的模型,可以在 调用日志 页面,会展示发送到模型处的请求记录,包括具体的输入输出 tokens、请求时间、请求耗时、请求地址等等。错误的请求,则会详细的入参和错误信息,方便排查,但仅会保留 1 小时(环境变量里可配置)。

aiproxy11

私有部署模型

点击查看部署 ReRank 模型教程

自定义请求地址说明

如果填写了该值,则可以允许你绕过模型渠道,直接向自定义请求地址发起请求。需要填写完整的请求地址,例如:

  • LLM: [host]/v1/chat/completions
  • Embedding: [host]/v1/embeddings
  • STT: [host]/v1/audio/transcriptions
  • TTS: [host]/v1/audio/speech
  • Rerank: [host]/v1/rerank

自定义请求 Key,则是向自定义请求地址发起请求时候,携带请求头:Authorization: Bearer xxx 进行请求。

所有接口均遵循 OpenAI 提供的模型格式,可参考 OpenAI API 文档 进行配置。

由于 OpenAI 没有提供 ReRank 模型,遵循的是 Cohere 的格式。点击查看接口请求示例

添加模型预设

你可以在FastGPT-plugin项目中modules/model/provider目录下,找对应模型提供商的配置文件,并追加模型配置。请自行全文检查,model字段,必须在所有模型中唯一。具体配置字段说明,参考模型配置字段说明

从 OneAPI 迁移到 AI Proxy

对于旧版使用 OneAPI 的用户,可以通过脚本将 OneAPI 里的渠道配置迁移到 AI Proxy。

可以从任意终端,发起 1 个 HTTP 请求。其中 {{host}} 替换成 AI Proxy 地址,{{admin_key}} 替换成 AI Proxy 中 ADMIN_KEY 的值。

Body 参数 dsn 为 OneAPI 的 mysql 连接串。

curl --location --request POST '{{host}}/api/channels/import/oneapi' \
--header 'Authorization: Bearer {{admin_key}}' \
--header 'Content-Type: application/json' \
--data-raw '{
    "dsn": "mysql://root:s5mfkwst@tcp(dbconn.sealoshzh.site:33123)/mydb"
}'

执行成功的情况下会返回 "success": true

脚本目前不是完全准,仅是简单的做数据映射,主要是迁移代理地址模型API 密钥,建议迁移后再进行手动检查。

在 GitHub 上编辑

文件更新时间