Home
开源技术本页大模型应用
lanarky
The web framework for building LLM microservices
标签:
fastapi
llmops
microservices
python3
web
lanarky基本信息
开源许可:
MIT License
点赞数:976stars
库分叉数:74forks
库观察者数:15watching最近更新时间:2024/07/06, 14:20
最新版本:v0.8.8
lanarky介绍
Lanarky是一个用于构建成熟的LLM(语言-语言-模型)应用程序的FastAPI框架。它提供了一个无偏见的框架,可以为Python用户构建和部署LLM应用程序。
Lanarky具有以下特点:
- 多模式令牌流
- 用于快速原型设计的Gradio插件
- 支持LangChain
- 多个LLM缓存策略
Lanarky利用FastAPI作为基础,确保使用它构建的应用程序已经准备好投入生产,并可以在任何云提供商上无缝部署。
使用pip可以从PyPI安装该库。你可以在https://lanarky.readthedocs.io/en/latest/找到完整的文档。
示例代码:
from dotenv import load_dotenv
from fastapi import FastAPI
from langchain import ConversationChain
from langchain.chat_models import ChatOpenAI
from lanarky import LangchainRouter
load_dotenv()
app = FastAPI()
langchain_router = LangchainRouter(
langchain_url="/chat",
langchain_object=ConversationChain(
llm=ChatOpenAI(temperature=0), verbose=True
),
streaming_mode=0
)
app.include_router(langchain_router)
Lanarky的路线图包括以下内容:
- 添加对LangChain的支持
- 添加Gradio用于快速原型设计
- 添加对内存、Redis和GPTCache LLM缓存的支持
- 添加对LlamaIndex的支持
- 添加对Guidance的支持
- 添加SQL数据库集成
- 添加对Rebuff的支持
如果你发现这个项目有用,请给它一个⭐。
你可以通过创建问题或提交拉取请求在GitHub上贡献代码。参与贡献的人可以在GitHub上找到。
Lanarky在MIT许可证下发布。如果你对与我们一起构建LLM应用程序感兴趣,欢迎通过Twitter @lanarky_io与我们联系。让我们连接起来,探索一起使用Lanarky创建令人惊奇的LLM应用程序的可能性!
免责声明:本站大资源来自网络收集整理,小部分资源来自原创,如有侵权等,请联系处理。
AI惊奇站是一个汇聚人工智能工具、资源和教程的导航网站。
在这里,你可以发现最新的AI技术、工具和应用,学习如何使用各种AI平台和框架,获取丰富的AI资源。
欢迎广大AI爱好者加入我们的社区,开启你的AI之旅!
Copyright © 2024 AI奇想空间.微信