欢迎来到MY_QBOT项目!这是一个基于Python的QQ机器人后端服务,提供了一系列自动化和交互功能。
- AI聊天,角色扮演
- 群聊
- 从pixiv获取并发送涩图()
- 指定关键词发送或者随机涩图
- AI绘画
- AI生成语音
目前仅在Windows端Llonebot上测试过,理论上所有支持oneonev11协议的消息平台都可以用,不过http对接配置可能要麻烦一点
-
先运行如下命令建立相关目录与文件:
mkdir bot && cd bot mkdir config && cd config vim config.json
打开config.json文件,按i进入输入模式,按需填入以下配置:
{ "openai_api_key": "",#你的apikey "model": "gpt-3.5-turbo",#默认3.5 "nicknames": [""],#当消息中出现nickname时自动触发对话 "self_id": 123,#修改为机器人QQ号 "admin_id": 456,#修改为管理员QQ号 "report_secret": "123456",#http上报密钥,见下文Llonebot配置 "proxy_api_base": "https://api.openai.com/v1",#api请求地址,默认为官方 "system_message": { "character": "",#人设,最重要 "order": "",#不重要 "impression": ""#不重要 }, "reply_probability": 0.5#群聊中没有nickname时触发主动聊天的概率 }
填完后按下esc退出输入,再输入
:wq
回车保存 回到上一级目录vim docker-compose.yaml
新建docker-compose.yaml文件,将项目内的复制过去,或者直接下载项目内的,copy到服务器上,执行
docker-compose up -d
即可,记得放行3001端口,用于跟QQ通信
-
- 安装Python环境:确保您的系统上安装了Python 3.11或更高版本(低版本还没有测试过)。
- 克隆本项目
git clone https://github.com/syuchua/MY_QBOT.git
- 进入项目目录
cd MY_QBOT
- 创建虚拟环境(可选):
python -m venv venv source venv/bin/activate # 对于Windows使用 venv\Scripts\activate
- 安装依赖:
pip install -r requirements.txt
在config.json
文件中配置机器人的设置,包括但不限于:
openai_api_key
: 你的openai_api_keymodel
: 使用的模型,默认为gpt-3.5-turboself_id
:机器人的QQ号。admin_id
:管理员的QQ号。nicknames
:机器人的昵称列表。system_message
:系统消息配置,最重要的是character
,相当于机器人的人格。report_secret
: http事件上传密钥。proxy_api_base
: openai_api_key请求地址,默认为https://api.openai.com/v1reply_probability
: 当收到的消息中没有nickname时的回复频率,1为每一条都回复,0为仅回复带有nickname的消息,默认0.5r18
: 0为关闭r18,1开启r18,2为随机发送(慎选)audio_save_path
: 语音文件保存地址voice_service_url
: 语音接口地址cha_name
:语音接口指定角色- 建议查看官方文档
在终端中执行以下命令启动机器人:
python main.py
- 直接对话即可
- 发送
发一张
,来一张
+关键词即可自定义发送涩图,比方说发一张卡芙卡
- 发送
来份涩图
,来份色图
,再来一张
即可发送随机涩图 - 发送
画一张
,生成一张
即可发送AI绘画 - R-18? 该接口的涩图数量足有十几万,其中r18占27.8%,建议公共场合尽量设置为0,2的话,还是不要太相信自己的运气了(问就是惨痛的教训)
机器人支持以下命令:
/help
:显示帮助信息。/reset
:重置当前会话。/character
:输出config.json
中的character
值,也即当前的人设。
-
基本的消息接收和发送功能
-
命令交互
-
配置文件读取和解析
-
接入ChatGPT
-
接入DALLE
-
接入图片接口
-
自定义人格
-
接入语音接口
-
接入其他大模型 #理论上只要符合openai api格式都可以,不过目前只涵盖了gemini,claude和kimi,其他的可以仿照
config/model.json
里的models
配置自己写,记得下方model的值要在上方的available_models
里。 -
新增图片识别功能,需要模型为
GPT4
系列或在model.json
里设置vision
为true
如果您有任何建议或想要贡献代码,请提交Pull Request或创建Issue。
本项目采用MIT许可。