基于大型语言模型(LLMs)的 AI 机器人非常神奇。然而,它们的行为可能是随机的,不同的机器人在不同的任务上表现也有差异。如果你想获得最佳体验,不要一个一个尝试。ChatALL(中文名:齐叨)可以把一条指令同时发给多个 AI,帮助您发现最好的回答。
AI 机器人 | 网页访问 | API |
---|---|---|
ChatGPT | 支持 | 支持 |
Bing Chat | 支持 | 无 API |
文心一言 | 否 | 支持 |
Bard | 支持 | 无 API |
Poe | 即将推出 | 即将推出 |
MOSS | 支持 | 无 API |
通义千问 | 即将推出 | 即将推出 |
得到学习助手 | 即将推出 | 无 API |
讯飞星火 | 支持 | 即将推出 |
Alpaca | 支持 | 无 API |
Vicuna | 支持 | 无 API |
ChatGLM | 支持 | 无 API |
Claude | 支持 | 无 API |
Gradio 用于 Hugging Face space 或自己部署的模型 | 支持 | 无 API |
HuggingChat | 支持 | 无 API |
更多...
- 快问模式:不需要等待前面的请求完成,就可以发下一条指令
- 对话历史保存在本地,保护你的隐私
- 高亮喜欢的答案,删除不需要的答案
- 自动保持 ChatGPT 不掉线
- 随时启用/禁用任何机器人
- 在一列、两列或三列视图之间切换
- 支持多语言(中文,英文)
- [TODO] 推荐最佳答案
ChatALL 是一个客户端,而不是代理。因此,您必须:
- 拥有可以访问这些 AI 的帐号,或 API token。
- 与 AI 网站有可靠的网络连接。
- 如果是通过 VPN 访问,那么必须设置为系统/全局代理。
从 https://github.com/sunner/ChatALL/releases 下载
直接下载 *-win.exe 安装文件并运行之。
对于苹果硅芯片 Mac(M1,M2 CPU),请下载 *-mac-arm64.dmg 文件。
对于其他 Mac,下载 *-mac-x64.dmg 文件。
下载 .AppImage 文件,将其设置为可执行,然后双击就可运行。
这份文档能提供一些帮助。
npm install
npm run electron:serve
为您当前的平台构建:
npm run electron:build
为所有平台构建:
npm run electron:build -- -wml --x64 --arm64
- GPT-4 贡献了大部分代码
- ChatGPT,Bing Chat 和 Google 提供了许多解决方案(排名分先后)
- 受 ChatHub 启发。致敬!