Home
开源技术本页大模型应用开源技术
llama2-webui
Run any Llama 2 locally with gradio UI on GPU or CPU from anywhere (Linux/Windows/Mac). Use llama2-wrapper
as your local llama2 backend for Generative Agents/Apps.
标签:
llama-2
llama2
llm
llm-inference
llama2-webui基本信息
开源许可:
MIT License
点赞数:1964stars
库分叉数:202forks
库观察者数:24watching最近更新时间:2024/02/14, 15:50
最新版本:v0.1.14 Release
llama2-webui介绍
llama2-webui
llama2-webui是一个使用Gradio Web UI在GPU或CPU上运行Llama 2的项目。它可以在Linux、Windows和Mac上运行,支持所有的Llama 2模型(7B, 13B, 70B, GPTQ, GGML, CodeLlama),并支持8位和4位模式。您还可以使用llama2-wrapper作为本地的Llama 2后端,用于生成代理/应用程序。您可以在colab中找到示例。此外,您还可以在Llama2模型上使用OpenAI兼容的API。
该项目的特性包括:
- 各种Llama 2模型的支持,包括transformers、bitsandbytes(8位推理)、AutoGPTQ(4位推理)和llama.cpp等后端。
- 提供了一些演示例子,比如在MacBook Air上运行Llama2和在自由的Colab T4 GPU上运行Llama2。
- 您可以使用llama2-wrapper作为您的本地Llama 2后端,并进行配置。
- 您可以使用提供的API作为OpenAI兼容的API。
具体内容包括安装方法、用法、基准测试、Llama-2模型下载方法和技巧等。您可以根据需要选择安装方法,运行相应的UI,使用api进行推理。如果您的设备性能如何,也可以进行基准测试。如果遇到安装或运行问题,请查看常见问题解答或与我们联系。
该项目的许可证为MIT许可证,并且非常欢迎您的贡献。
免责声明:本站大资源来自网络收集整理,小部分资源来自原创,如有侵权等,请联系处理。
AI惊奇站是一个汇聚人工智能工具、资源和教程的导航网站。
在这里,你可以发现最新的AI技术、工具和应用,学习如何使用各种AI平台和框架,获取丰富的AI资源。
欢迎广大AI爱好者加入我们的社区,开启你的AI之旅!
Copyright © 2024 AI奇想空间.微信