anything-llm 介绍
了解项目的详细信息和使用方法
AnythingLLM: 你一直在寻找的全能 AI 应用。
与文档对话,使用 AI 代理,超高配置能力,支持多用户,无需繁琐的设置。
👉 专为桌面(Mac,Windows 和 Linux)打造的 AnythingLLM! 立即下载
这个全栈应用程序可以将任何文档、资源或内容转换成 LLM 在聊天时可参考的上下文。这个程序让你可以选择希望使用的 LLM 或者向量数据库,同时支持多用户管理和权限设置。
产品概述
AnythingLLM 是一个全栈应用,您可以使用商用现成的大语言模型或流行的开源大语言模型以及 vectorDB 解决方案来构建一个您可以本地运行的独立 ChatGPT,同时您也可以远程托管,能够智能聊天与您提供的任何文档。
AnythingLLM 将文档分成称为 工作区
的对象。工作区功能很像一个线程,但增加了文档的容器化。工作区可以共享文档,但它们不会相互通话,因此您可以保持每个工作区内容的清晰性。
AnythingLLM 的酷炫功能
- 🆕 自定义 AI 代理
- 🖼️ 多模块支持(包括封闭和开源的大语言模型!)
- 👤 支持多用户实例和权限管理 仅限 Docker 版本
- 🦾 工作区内的代理(浏览网页、运行代码等)
- 💬 为您的网站定制的嵌入式聊天小工具 仅限 Docker 版本
- 📖 多文档格式支持(PDF, TXT, DOCX 等)
- 简洁的聊天界面,支持拖放功能和清晰的引文。
- 100% 准备好的云部署。
- 支持所有热门的 封闭和开源大语言模型提供商。
- 相比其他聊天界面内置更节省成本和时间的大文档管理措施。
- 完整开发者 API,支持自定义集成!
- 更多功能等待您安装后发现!
支持的大语言模型、嵌入模型、语音模型和向量数据库
大语言模型 (LLMs):
- 任何兼容 llama.cpp 的开源模型
- OpenAI
- OpenAI (Generic)
- Azure OpenAI
- AWS Bedrock
- Anthropic
- NVIDIA NIM (聊天模型)
- Google Gemini Pro
- Hugging Face (聊天模型)
- Ollama (聊天模型)
- LM Studio (所有模型)
- LocalAi (所有模型)
- Together AI (聊天模型)
- Fireworks AI (聊天模型)
- Perplexity (聊天模型)
- OpenRouter (聊天模型)
- DeepSeek (聊天模型)
- Mistral
- Groq
- Cohere
- KoboldCPP
- LiteLLM
- Text Generation Web UI
- Apipie
- xAI
- Novita AI (聊天模型)
嵌入模型:
音频转录模型:
- AnythingLLM 内置功能 (默认)
- OpenAI
文本转语音 (TTS) 支持:
- 内置浏览器 (默认)
- PiperTTSLocal - 浏览器运行
- OpenAI TTS
- ElevenLabs
- 任何兼容 OpenAI 的 TTS 服务。
语音转文本 (STT) 支持:
- 内置浏览器 (默认)
向量数据库:
技术概述
这个多资源库由三个主要部分组成:
frontend
: 一个基于 viteJS + React 的前端,您可以使用它轻松创建和管理所有 LLM 可用的内容。server
: 一个 NodeJS express 服务器,负责处理所有交互并进行向量数据库管理和 LLM 交互。collector
: 处理和解析来自 UI 文档的 NodeJS express 服务器。docker
: Docker 说明和构建过程 + 从源构建信息。embed
: 用于生成和创建 网页嵌入小工具 的子模块。browser-extension
: 用于 chrome 浏览器扩展 的子模块。
🛳 自托管
Mintplex Labs 及其社区维护了许多部署方法、脚本和模板,您可以用来在本地运行 AnythingLLM。请参考下表了解如何在您的首选环境中进行部署或自动部署。
Docker | AWS | GCP | Digital Ocean | Render.com |
---|---|---|---|---|
在 Docker 上部署 | 在 AWS 上部署 | 在 GCP 上部署 | 在 DigitalOcean 上部署 | 在 Render.com 上部署 |
Railway | RepoCloud | Elestio |
---|---|---|
在 Railway 上部署 | 在 RepoCloud 上部署 | 在 Elestio 部署 |
或无需 Docker 设置生产 AnythingLLM 实例 →
如何进行开发设置
- 使用
yarn setup
以便在每个应用部分(从仓库的根目录)中填充所需的.env
文件。- 请在继续之前填写这些内容。确保
server/.env.development
已填写,否则可能导致运行出错。
- 请在继续之前填写这些内容。确保
- 使用
yarn dev:server
本地启动服务器(从仓库的根目录)。 - 使用
yarn dev:frontend
本地启动前端(从仓库的根目录)。 - 使用
yarn dev:collector
然后运行文档收集器(从仓库的根目录)。
外部应用与集成
这些应用不是由 Mintplex Labs 维护的,但与 AnythingLLM 兼容。列出这些应用并不代表对其认可。
- Midori AI 子系统管理器 - 使用 Docker 容器技术高效部署 AI 系统的简化方式。
- Coolify - 一键部署 AnythingLLM。
- GPTLocalhost for Microsoft Word - 可以在 Microsoft Word 中使用 AnythingLLM 的本地 Word 插件。
遥测与隐私
Mintplex Labs Inc 开发的 AnythingLLM 包含一个收集匿名使用信息的遥测功能。
关于 AnythingLLM 的遥测与隐私的更多信息
为什么?
我们使用这些信息帮助我们了解 AnythingLLM 的使用方式,确定新功能和错误修复的优先级,并改进 AnythingLLM 的性能和稳定性。
如何选择退出
在服务器或 Docker 的 .env 设置中,将 DISABLE_TELEMETRY
设置为 "true" 以退出遥测。您也可以在应用内通过打开侧边栏 > Privacy
并禁用遥测来实现。
我们具体会追踪哪些内容?
我们只追踪有助于我们进行产品和路线图决策的使用细节,具体包括:
- 您的安装类型(Docker 或桌面版)
- 何时添加或删除文档。我们不会记录关于文档的任何信息,仅记录事件的发生。这让我们了解使用情况。
- 所用的向量数据库类型。告诉我们哪个向量数据库提供商最受欢迎,以便在该提供商更新时优先进行更改。
- 所用的大语言模型类型。告诉我们最受欢迎的选择,并在该提供商更新时优先进行更改。
- 聊天开始。这是最常见的“事件”,让我们了解这个项目在所有安装中的每日活动。再次强调,我们只记录事件 - 而对聊天内容本身的信息一无所知。
您可以通过寻找所有调用 Telemetry.sendTelemetry
的位置来验证这些声明。此外,如果启用,您还可以在输出日志中查看发送的具体数据。我们不会收集 IP 或其他可识别的信息。遥测提供商是 PostHog,一个开源遥测收集服务。
版权所有 © 2025 [Mintplex Labs][https://github.com/mintplex-labs]。 该项目采用 MIT 协议授权。