ウェブサイト • ドキュメント • Discord • YouTube チュートリアル
GPT4All は、日常のデスクトップおよびラップトップ上で大規模言語モデル (LLM) をプライベートに実行します。
API 呼び出しや GPU は必要ありません。アプリケーションをダウンロードするだけで開始できます。
最新情報についてはブログをご覧ください。
ニュースレターを購読する
GPT4All は、コンピューティング パートナーの Paperspace によって可能になりました。
— Ubuntu インストーラー —
Windows および Linux には、Intel Core i3 第 2 世代 / AMD Bulldozer 以降が必要です。 x86-64 のみ、ARM なし。
macOS には、Monterey 12.6 以降が必要です。 Apple Silicon M シリーズプロセッサで最高の結果が得られます。
詳細については、完全なシステム要件を参照してください。
Flathub (コミュニティが維持されています)
gpt4all
使用すると、Python クライアントを使用してllama.cpp
実装を使用して LLM にアクセスできます。
Nomic はllama.cpp
のようなオープン ソース ソフトウェアに貢献して、LLM をすべての人がアクセスでき効率的にできるようにしています。
pip install gpt4all
from gpt4all import GPT4All
model = GPT4All ( "Meta-Llama-3-8B-Instruct.Q4_0.gguf" ) # downloads / loads a 4.66GB LLM
with model . chat_session ():
print ( model . generate ( "How can I run LLMs efficiently on my laptop?" , max_tokens = 1024 ))
?? Langchain ?️ Weaviate Vector Database - モジュールドキュメント ? OpenLIT (OTel ネイティブ モニタリング) - ドキュメント
GPT4All は、オープンソース コミュニティからの貢献、参加、議論を歓迎します。 CONTRIBUTING.md を参照し、問題、バグ レポート、PR マークダウン テンプレートに従ってください。
重複作業を避けるために、プロジェクト所有者との、または既存の問題/PR を通じてプロジェクトの不一致を確認します。上記のすべてに関連するプロジェクト ID を必ずタグ付けしてください。タグ付けしないと、投稿が失われる可能性があります。タグの例: backend
、 bindings
、 python-bindings
、 documentation
など。
このリポジトリ、モデル、またはデータを下流プロジェクトで利用する場合は、次のように引用することを検討してください。
@misc{gpt4all,
author = {Yuvanesh Anand and Zach Nussbaum and Brandon Duderstadt and Benjamin Schmidt and Andriy Mulyar},
title = {GPT4All: Training an Assistant-style Chatbot with Large Scale Data Distillation from GPT-3.5-Turbo},
year = {2023},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {url{https://github.com/nomic-ai/gpt4all}},
}