本文最后更新于145 天前,其中的信息可能已经过时,如有错误请发送邮件到2778680280@qq.com
前提:部署AstrBot并进入管理面板
1.创建目录并进入
plaintext
mkdir astrbot && cd astrbot
2. Docker部署容器
plaintext
sudo docker run -itd -p 6180-6200:6180-6200 -p 11451:11451 -v $PWD/data:/AstrBot/data --name astrbot soulter/astrbot:latest
3. 查看日志获取管理面板链接
plaintext
sudo docker logs -f astrbot
复制日志中的管理面板链接(通常为 http://服务器IP:6180 ),浏览器打开即可进入。
二、LLM配置步骤(支持多服务商/本地模型)
- 进入LLM配置页面
管理面板左侧栏点击「配置」→ 切换至「服务提供商」选项卡 → 点击页面「+」号,选择需配置的LLM服务商/模型类型(如硅基流动、OpenAI、Ollama、Gemini等)。
- 不同类型LLM核心配置参数
(1)在线模型(以硅基流动/OpenAI为例)
plaintext
硅基流动配置
- 服务商选择:硅基流动
- 核心参数:填写API Key(硅基流动官网申请获取)
- 额外设置:默认模型可按需选择,无需修改Base URL
OpenAI/第三方兼容OpenAI接口配置
- 服务商选择:OpenAI
- 核心参数:API Key(OpenAI官网/第三方平台获取)、Base URL(第三方接口需填写对应地址,官网默认无需改)
- 额外设置:默认模型选gpt-3.5-turbo/gpt-4等,按需求勾选启用
(2)本地模型(以Ollama为例)
plaintext
Ollama本地模型配置
- 服务商选择:Ollama
- 核心参数:本地服务地址(默认http://localhost:11434,本地部署无需修改;跨设备需填服务器IP:11434)
- 额外设置:选择已拉取的本地模型(如llama3、qwen等),保存后自动适配
(3)其他在线模型(Gemini等)
plaintext
Gemini配置
- 服务商选择:Gemini
- 核心参数:API Key(Google AI Studio申请)
- 额外设置:选择模型版本(如gemini-pro),启用后保存
- 保存配置并测试
填写参数后点击右下角「保存」,AstrBot自动重启应用配置;重启完成后,通过面板「WebChat」发送消息,或对接的QQ/微信私聊机器人,测试LLM是否正常响应。
三、补充操作
- 切换模型/调整参数
- 切换模型:重新进入「服务提供商」,选择对应服务商修改默认模型,保存重启即可;
- 调整参数(温度值、最大 tokens 等):在对应服务商配置项中找到「采样参数」,修改 temperature(0-1,越低越严谨)、max_tokens 等,保存生效。
- 常见问题
- 配置后无响应:检查API Key是否正确、Base URL是否可访问,本地Ollama需确认服务已启动(终端执行 ollama serve );
- 端口不通:服务器安全组放行6180-6200、11451、11434(Ollama用)端口









