从浏览器查询本地模型。
使用我们先进的 Chrome 扩展程序提升您的浏览体验,该扩展程序旨在与您自己的服务器上托管的本地模型无缝交互。此扩展允许您在浏览器中轻松、精确地释放查询本地模型的能力。
我们的扩展与 Llama CPP 和 .gguf 模型完全兼容,为您提供满足您所有建模需求的多功能解决方案。首先,只需访问我们的最新版本,其中包括一个示例 Llama CPP Flask 服务器,以方便您使用。您可以在我们的 GitHub 存储库中找到此服务器:
GitHub 存储库 - 本地 Llama Chrome 扩展:
https://github.com/mrdiamonddirt/local-llama-chrome-extension
要设置服务器,请使用以下命令安装服务器的 pip 软件包:
````
pip 安装本地 llama
````
然后,只需运行:
````
本地骆驼
````
只需几个简单的步骤,您就可以利用此扩展的功能。运行提供的 Python 脚本,安装扩展,并立即获得轻松查询本地模型的能力。立即体验基于浏览器的模型交互的未来。