Skip to content

Lobe Chat 配置教程

Lobe Chat 是一款开源的现代化 AI 聊天应用,支持自部署和云端版本。本教程介绍如何在 Lobe Chat 中接入源力AI。

适用版本

本教程适用于:

  • Lobe Chat 云端版chat.lobehub.com
  • 自部署版:通过 Docker 或 Vercel 部署的私有实例

方法一:通过界面设置(推荐)

第一步:进入模型设置

  1. 打开 Lobe Chat
  2. 点击左下角 头像设置 图标
  3. 进入 设置 页面
  4. 在左侧菜单选择 AI 模型语言模型

第二步:配置 OpenAI 兼容服务商

  1. 找到 OpenAI自定义接口 选项
  2. 开启 OpenAI 服务
  3. 填写以下信息:
配置项填写内容
API Keysk-xxxxxxxxxxxxxxxxxxxxxxxx
API 代理地址https://bww.letcareme.com/v1
  1. 点击 检查 验证连接
  2. 保存配置

第三步:选择模型开始对话

  1. 返回主对话界面
  2. 点击对话输入框上方的模型选择器
  3. 选择已配置的模型(如 gpt-4o
  4. 开始对话

方法二:自部署版环境变量配置

如果你自部署了 Lobe Chat,可以通过环境变量预置 API 配置:

Docker 部署

bash
docker run -d \
  --name lobe-chat \
  -p 3210:3210 \
  -e OPENAI_API_KEY=sk-xxxxxxxxxxxxxxxxxxxxxxxx \
  -e OPENAI_PROXY_URL=https://bww.letcareme.com/v1 \
  lobehub/lobe-chat

docker-compose.yml

yaml
version: '3.8'

services:
  lobe-chat:
    image: lobehub/lobe-chat
    container_name: lobe-chat
    ports:
      - "3210:3210"
    environment:
      - OPENAI_API_KEY=sk-xxxxxxxxxxxxxxxxxxxxxxxx
      - OPENAI_PROXY_URL=https://bww.letcareme.com/v1
      # 允许使用的模型列表(可选)
      - OPENAI_MODEL_LIST=gpt-4o,gpt-4o-mini,o1,claude-3-5-sonnet-20241022,deepseek-chat
    restart: unless-stopped

Vercel 环境变量

在 Vercel 项目设置 → 环境变量中添加:

OPENAI_API_KEY = sk-xxxxxxxxxxxxxxxxxxxxxxxx
OPENAI_PROXY_URL = https://bww.letcareme.com/v1

添加多个模型服务商

Lobe Chat 支持同时配置多个 AI 服务商。你可以同时配置:

服务商API 地址说明
源力AI (OpenAI 兼容)https://bww.letcareme.com/v1统一接入所有模型

推荐方案

使用源力AI 作为统一入口,通过不同的模型 ID 调用 GPT、Claude、Gemini 等所有模型,只需管理一个 API Key,更简洁方便。

进阶功能

配置助手预设

  1. 进入 助手市场自定义助手
  2. 创建新助手,设置:
    • 名称和描述
    • 系统提示词
    • 默认使用的模型(选择源力AI 的模型)
    • Temperature 等参数

启用插件

Lobe Chat 支持多种插件扩展功能:

  • 联网搜索
  • 代码执行
  • 图像生成(使用 dall-e-3

在插件设置中启用所需插件,图像生成插件会自动使用已配置的 API Key。

文件上传与分析

配置好 gpt-4o 后,可以直接在对话中上传图片进行视觉分析,拖拽图片到对话框即可。

常见问题

Q: 设置了 API Key 但模型列表为空

A: 在 API 代理地址设置后,点击右侧的刷新按钮或"获取模型列表",等待列表加载完成。

Q: 代理地址应该填带 /v1 还是不带?

A: 填写带 /v1 的完整路径:https://bww.letcareme.com/v1

Q: 对话响应非常慢

A: 可以在模型设置中开启 流式输出(Stream),可以更快看到回复内容逐字显示。

Q: 如何限制用户可以使用的模型(自部署版)

A: 通过环境变量 OPENAI_MODEL_LIST 设置允许的模型列表,用逗号分隔:

bash
OPENAI_MODEL_LIST=gpt-4o,gpt-4o-mini,claude-3-5-sonnet-20241022

Q: 如何查看当前消耗了多少 token

A: 登录 源力AI 控制台 可以查看详细的用量统计和余额记录。

按量计费 · 即开即用 · 稳定可靠