AstrBot LLM配置指南
本文最后更新于145 天前,其中的信息可能已经过时,如有错误请发送邮件到2778680280@qq.com

前提:部署AstrBot并进入管理面板

1.创建目录并进入

plaintext

mkdir astrbot && cd astrbot

2. Docker部署容器

plaintext

sudo docker run -itd -p 6180-6200:6180-6200 -p 11451:11451 -v $PWD/data:/AstrBot/data --name astrbot soulter/astrbot:latest

3. 查看日志获取管理面板链接

plaintext

sudo docker logs -f astrbot
 

复制日志中的管理面板链接(通常为  http://服务器IP:6180 ),浏览器打开即可进入。

二、LLM配置步骤(支持多服务商/本地模型)

  1. 进入LLM配置页面

管理面板左侧栏点击「配置」→ 切换至「服务提供商」选项卡 → 点击页面「+」号,选择需配置的LLM服务商/模型类型(如硅基流动、OpenAI、Ollama、Gemini等)。

  1. 不同类型LLM核心配置参数

(1)在线模型(以硅基流动/OpenAI为例)

plaintext

硅基流动配置

  • 服务商选择:硅基流动
  • 核心参数:填写API Key(硅基流动官网申请获取)
  • 额外设置:默认模型可按需选择,无需修改Base URL

OpenAI/第三方兼容OpenAI接口配置

  • 服务商选择:OpenAI
  • 核心参数:API Key(OpenAI官网/第三方平台获取)、Base URL(第三方接口需填写对应地址,官网默认无需改)
  • 额外设置:默认模型选gpt-3.5-turbo/gpt-4等,按需求勾选启用
     

(2)本地模型(以Ollama为例)

plaintext

Ollama本地模型配置

  • 服务商选择:Ollama
  • 核心参数:本地服务地址(默认http://localhost:11434,本地部署无需修改;跨设备需填服务器IP:11434)
  • 额外设置:选择已拉取的本地模型(如llama3、qwen等),保存后自动适配
     

(3)其他在线模型(Gemini等)

plaintext

Gemini配置

  • 服务商选择:Gemini
  • 核心参数:API Key(Google AI Studio申请)
  • 额外设置:选择模型版本(如gemini-pro),启用后保存
     
  1. 保存配置并测试

填写参数后点击右下角「保存」,AstrBot自动重启应用配置;重启完成后,通过面板「WebChat」发送消息,或对接的QQ/微信私聊机器人,测试LLM是否正常响应。

三、补充操作

  1. 切换模型/调整参数
  • 切换模型:重新进入「服务提供商」,选择对应服务商修改默认模型,保存重启即可;
  • 调整参数(温度值、最大 tokens 等):在对应服务商配置项中找到「采样参数」,修改 temperature(0-1,越低越严谨)、max_tokens 等,保存生效。
  1. 常见问题
  • 配置后无响应:检查API Key是否正确、Base URL是否可访问,本地Ollama需确认服务已启动(终端执行  ollama serve );
  • 端口不通:服务器安全组放行6180-6200、11451、11434(Ollama用)端口
文末附加内容
暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇