We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Distributed Smart Maps Assistant
llama.cpp
text-davinci-002
The text was updated successfully, but these errors were encountered:
Sorry, something went wrong.
Raspberry Pi 4 Model B 8GBで、llama.cpp を使い llama-2-7b.Q4_K_M.gguf を動かしてみました。
llama-2-7b.Q4_K_M.gguf
結論から言うと メチャクチャ遅い です。 Overpass API Queryを生成するプロンプトの推論に6分間も掛かります。 同じプロンプトをノートPCで試してみましたが、GPUの支援無しだと、やはり1分~2分掛かってしまいます。
ちょっと見込みが甘かったと思います。。
llama.cppのOpenMPI実装も試してみましたが、
という状態です。
GPU付きのマシンでリクエストを捌くような仕組みを作れないと、結局llama.cppをWebアプリケーションの基盤にすることは難しそうだ、という感触です。
ollamaのような技術も出てきたので、一旦閉じます
hfu
yuiseki
No branches or pull requests
text-davinci-002
モデルを利用しているllama.cpp
によってtext-davinci-002
モデルよりも遥かに賢いモデルを、Raspberry Pi 4 Model Bですら、動かすことができるllama.cpp
は、HTTP サーバーとしての機能も持つllama.cpp
が動作するRaspberry Pi 4 Model Bは、Smart Maps Assistantの各メンバーの自宅で動作する想定であるThe text was updated successfully, but these errors were encountered: