Perplexica 介绍
了解项目的详细信息和使用方法
🚀 Perplexica - 一款由 AI 驱动的搜索引擎🔎
概述
Perplexica 是一个开源,由 AI 驱动的搜索工具或搜索引擎,通过深入互联网查找答案。受 Perplexity AI 启发,它不仅搜索网络,还能理解你的问题。它使用先进的机器学习算法,例如相似性搜索和嵌入技术,来优化结果,并提供带有来源引用的明确答案。
使用 SearxNG 保持最新信息和完全开源,Perplexica 确保在不妥协隐私的情况下,您始终可以获得最新的信息。
想了解更多关于其架构和工作原理?你可以阅读 这里。
预览
特性
- 本地大语言模型(LLMs): 你可以使用 Ollama 利用本地的大语言模型,如 Llama3 和 Mixtral。
- 两种主要模式:
- Copilot 模式: (开发中)通过生成不同的查询来提升搜索效果,找到更多相关的互联网资源。类似正常搜索,除了使用 SearxNG 提供的上下文,它还访问最匹配的资源,直接从页面中找到与用户查询相关的来源。
- 正常模式: 处理你的查询并执行网络搜索。
- 专注模式: 为特定类型的问题提供更好的答案。Perplexica 目前有 6 种专注模式:
- 全部搜索模式: 搜索整个网络以找到最佳结果。
- 写作助手模式: 有助于不需要网络搜索的写作任务。
- 学术搜索模式: 查找文章和论文,理想的学术研究工具。
- YouTube 搜索模式: 基于搜索查询查找 YouTube 视频。
- Wolfram Alpha 搜索模式: 使用 Wolfram Alpha 回答需要计算或数据分析的查询。
- Reddit 搜索模式: 搜索 Reddit 上的讨论和意见,相关于查询。
- 最新信息: 一些搜索工具因为使用爬虫数据并将其转换成嵌入存储在索引中,可能会给你过时的信息。而 Perplexica 使用 SearxNG 元搜索引擎获取结果并重新排序,找到最相关的来源,确保你始终获得最新的信息,无需每日数据更新的负担。
- API: 将 Perplexica 集成到你的现有应用程序中,利用其强大的搜索功能。
Perplexica 还有许多功能,如图像和视频搜索。更多计划中的功能请见即将推出的功能。
安装
安装 Perplexica 主要有两种方式 - 使用 Docker 和不用 Docker。强烈推荐使用 Docker。
使用 Docker 快速开始(推荐)
-
确保你的系统上已安装并运行 Docker。
-
克隆 Perplexica 仓库:
bash1git clone https://github.com/ItzCrazyKns/Perplexica.git
-
克隆完成后,导航到包含项目文件的目录。
-
将
sample.config.toml
文件重命名为config.toml
。对于 Docker 设置,你只需填写以下字段:-
OPENAI
: 你的 OpenAI API 密钥。只有在你希望使用 OpenAI 的模型时才需要填写。 -
OLLAMA
: 你的 Ollama API URL。应填写为http://host.docker.internal:PORT_NUMBER
。例如,如果你在端口 11434 上安装了 Ollama,使用http://host.docker.internal:11434
。若使用其他端口,请相应调整。希望使用 Ollama 的模型而非 OpenAI 的模型时,需要填写。 -
GROQ
: 你的 Groq API 密钥。只有在希望使用 Groq 托管的模型时才需填写。 -
ANTHROPIC
: 你的 Anthropic API 密钥。只有希望使用 Anthropic 模型时才需填写。注意: 启动 Perplexica 后,从设置对话框中也可以更改这些内容。
-
SIMILARITY_MEASURE
: 要使用的相似性测量(默认为已填好;若不确定可以保持默认)。
-
-
确保位于包含
docker-compose.yaml
文件的目录,并执行:bash1docker compose up -d
-
等待几分钟,设置完成后,你可以在浏览器中访问 Perplexica,网址为 http://localhost:3000。
注意: 容器建立后,不需打开终端即可直接从 Docker 启动 Perplexica。
非 Docker 安装
- 安装 SearXNG,并在 SearXNG 设置中允许
JSON
格式。 - 克隆仓库,并将
sample.config.toml
文件重命名为项目根目录下的config.toml
文件,确保填写所有必填字段。 - 将
ui
文件夹中的.env.example
文件重命名为.env
并填写必要的信息。 - 填写配置和环境文件后,在
ui
文件夹和项目根目录中分别运行npm i
。 - 安装依赖并在
ui
文件夹和项目根目录中分别执行npm run build
。 - 最后,通过分别运行
npm run start
启动前端和后端。
注意: 推荐使用 Docker,因为它简化了设置过程,特别是在管理环境变量和依赖项方面。
查看安装文档获取更多信息,如如何向网络公开等。
Ollama 连接错误
如果遇到 Ollama 连接错误,可能是由于后端无法连接到 Ollama 的 API。要解决此问题,你可以:
-
检查 Ollama API URL: 确保在设置菜单中正确设置了 API URL。
-
根据操作系统更新 API URL:
- Windows: 使用
http://host.docker.internal:11434
- Mac: 使用
http://host.docker.internal:11434
- Linux: 使用
http://<host 私有 IP>:11434
如果使用不同的端口号,请相应调整。
- Windows: 使用
-
Linux 用户 - 向网络公开 Ollama:
-
在
/etc/systemd/system/ollama.service
内添加Environment="OLLAMA_HOST=0.0.0.0"
。然后通过systemctl restart ollama
重启 Ollama。更多信息参见 Ollama 文档。 -
确保端口(默认 11434)未被防火墙阻止。
-
作为搜索引擎使用
如果你希望将 Perplexica 作为 Google 或 Bing 的替代搜索引擎使用,或添加快捷方式以便从浏览器的搜索栏快速访问,请按照以下步骤操作:
- 打开浏览器设置。
- 导航到‘搜索引擎’部分。
- 使用以下 URL 添加新网站搜索:
http://localhost:3000/?q=%s
。将localhost
替换为你的 IP 地址或域名,如果 Perplexica 不是本地托管的,还需要替换 3000 端口号。 - 点击添加按钮。现在你可以直接从浏览器搜索栏使用 Perplexica 了。
使用 Perplexica 的 API
Perplexica 还为开发者提供了 API,便于将其强大的搜索引擎集成到自己的应用程序中。你可以运行搜索、使用多种模型并获取查询的答案。
欲了解更多详情,请查看完整文档 这里。
向网络公开 Perplexica
你可以按照我们的网络指南,通过家庭网络访问 Perplexica,相关指南请见 这里。
一键部署
即将推出的功能
- 添加设置页面
- 增加对本地大语言模型(LLM)的支持
- 历史记录保存功能
- 引入各种专注模式
- 添加 API 支持
- 添加发现页面
- 完成 Copilot 模式