AI サービスの構築を簡素化する Python フレームワーク
ホームページ • API プレイグラウンド • 例 • ドキュメント • CLI リファレンス • Twitter • ブログ
LeptonAI Python ライブラリを使用すると、Python コードから AI サービスを簡単に構築できます。主な機能は次のとおりです。
Photon
。数行のコードで研究コードとモデリング コードをサービスに変換できます。以下を使用してライブラリをインストールします。
pip install -U leptonai
これにより、 leptonai
Python ライブラリとコマンドライン インターフェイスlep
がインストールされます。次に、1 行のコードで HuggingFace モデル、たとえばgpt2
起動できます。
lep photon runlocal - - name gpt2 - - model hf : gpt2
Llama2 モデルにアクセスでき (ここでアクセスを申請)、適切なサイズの GPU がある場合は、次のコマンドで起動できます。
# hint: you can also write `-n` and `-m` for short
lep photon runlocal - n llama2 - m hf : meta - llama / Llama - 2 - 7 b - chat - hf
(Llama2 には、ハグフェイス パイプラインと互換性のある-hf
バージョンを必ず使用してください。)
その後、次のコマンドを使用してサービスにアクセスできます。
from leptonai . client import Client , local
c = Client ( local ( port = 8080 ))
# Use the following to print the doc
print ( c . run . __doc__ )
print ( c . run ( inputs = "I enjoy walking with my cute dog" ))
フルマネージドの Llama2 モデルと CodeLlama モデルはプレイグラウンドで見つけることができます。
多くの標準的な HuggingFace パイプラインがサポートされています。詳細については、ドキュメントを参照してください。ただし、HuggingFace モデルの多くにはカスタム コードが含まれており、標準パイプラインではないため、すべての HuggingFace モデルがサポートされているわけではありません。サポートしたい人気モデルを見つけた場合は、Issue または PR を開いてください。
サンプル リポジトリからさらに多くのサンプルを見つけることができます。たとえば、次のようにして Stable Diffusion XL モデルを起動します。
git clone [email protected]:leptonai/examples.git
cd examples
lep photon runlocal - n sdxl - m advanced / sdxl / sdxl . py
サービスが実行されたら、次のコマンドでアクセスできます。
from leptonai . client import Client , local
c = Client ( local ( port = 8080 ))
img_content = c . run ( prompt = "a cat launching rocket" , seed = 1234 )
with open ( "cat.png" , "wb" ) as fid :
fid . write ( img_content )
または、http://localhost:8080/ui でマウントされた Gradio UI にアクセスします。詳細については、README ファイルを確認してください。
フルマネージド SDXL は、API アクセスを備えて https://dashboard.lepton.ai/playground/sdxl でホストされています。
独自のフォトンの作成は簡単です。Python Photon クラスを作成し、 @Photon.handler
で関数を装飾します。入力と出力が JSON シリアル化可能であれば、問題なく使用できます。たとえば、次のコードは単純なエコー サービスを起動します。
# my_photon.py
from leptonai . photon import Photon
class Echo ( Photon ):
@ Photon . handler
def echo ( self , inputs : str ) -> str :
"""
A simple example to return the original input.
"""
return inputs
その後、次のコマンドを使用してサービスを起動できます。
lep photon runlocal -n echo -m my_photon.py
その後、次のようにサービスを使用できるようになります。
from leptonai . client import Client , local
c = Client ( local ( port = 8080 ))
# will print available paths
print ( c . paths ())
# will print the doc for c.echo. You can also use `c.echo?` in Jupyter.
print ( c . echo . __doc__ )
# will actually call echo.
c . echo ( inputs = "hello world" )
詳細については、ドキュメントと例を確認してください。
貢献と協力は歓迎されており、高く評価されています。参加方法については、寄稿者ガイドをご覧ください。
Lepton AI Python ライブラリは、Apache 2.0 ライセンスに基づいてリリースされています。
開発者向けメモ: LeptonAI の初期開発は別のモノリポジトリにあったため、 leptonai/lepton
リポジトリからのコミットが表示される場合があります。私たちは今後、このオープンソース リポジトリを真実の情報源として使用する予定です。