Der offizielle Python-Client für den Huggingface Hub.
Englisch | Deutsch | हिंदी | 한국어 | 中文 (简体)
Dokumentation : https://hf.co/docs/huggingface_hub
Quellcode : https://github.com/huggingface/huggingface_hub
Die Bibliothek huggingface_hub
ermöglicht Ihnen die Interaktion mit dem Hugging Face Hub, einer Plattform, die Open-Source-Maschinelles Lernen für Entwickler und Mitarbeiter demokratisiert. Entdecken Sie vorab trainierte Modelle und Datensätze für Ihre Projekte oder experimentieren Sie mit den Tausenden von Apps für maschinelles Lernen, die auf dem Hub gehostet werden. Sie können auch Ihre eigenen Modelle, Datensätze und Demos erstellen und mit der Community teilen. Die Bibliothek huggingface_hub
bietet eine einfache Möglichkeit, all diese Dinge mit Python zu erledigen.
Installieren Sie das Paket huggingface_hub
mit pip:
pip install huggingface_hub
Wenn Sie möchten, können Sie es auch mit Conda installieren.
Um das Paket standardmäßig minimal zu halten, enthält huggingface_hub
optionale Abhängigkeiten, die für einige Anwendungsfälle nützlich sind. Wenn Sie beispielsweise ein vollständiges Erlebnis für Inferenz haben möchten, führen Sie Folgendes aus:
pip install huggingface_hub[inference]
Weitere Informationen zur Installation und zu optionalen Abhängigkeiten finden Sie im Installationshandbuch.
Laden Sie eine einzelne Datei herunter
from huggingface_hub import hf_hub_download
hf_hub_download ( repo_id = "tiiuae/falcon-7b-instruct" , filename = "config.json" )
Oder ein ganzes Repository
from huggingface_hub import snapshot_download
snapshot_download ( "stabilityai/stable-diffusion-2-1" )
Dateien werden in einen lokalen Cache-Ordner heruntergeladen. Weitere Details finden Sie in diesem Leitfaden.
Der Hugging Face Hub verwendet Token zur Authentifizierung von Anwendungen (siehe Dokumente). Um sich bei Ihrem Computer anzumelden, führen Sie die folgende CLI aus:
huggingface-cli login
# or using an environment variable
huggingface-cli login --token $HUGGINGFACE_TOKEN
from huggingface_hub import create_repo
create_repo ( repo_id = "super-cool-model" )
Laden Sie eine einzelne Datei hoch
from huggingface_hub import upload_file
upload_file (
path_or_fileobj = "/home/lysandre/dummy-test/README.md" ,
path_in_repo = "README.md" ,
repo_id = "lysandre/test-model" ,
)
Oder ein ganzer Ordner
from huggingface_hub import upload_folder
upload_folder (
folder_path = "/path/to/local/space" ,
repo_id = "username/my-cool-space" ,
repo_type = "space" ,
)
Einzelheiten finden Sie im Upload-Guide.
Wir arbeiten mit coolen Open-Source-ML-Bibliotheken zusammen, um kostenloses Modell-Hosting und Versionierung anzubieten. Die bestehenden Integrationen finden Sie hier.
Die Vorteile sind:
Wenn Sie Ihre Bibliothek integrieren möchten, können Sie gerne ein Problem eröffnen, um die Diskussion zu beginnen. Wir haben eine Schritt-für-Schritt-Anleitung mit ❤️ geschrieben, die zeigt, wie diese Integration durchgeführt wird.
Jeder ist willkommen, einen Beitrag zu leisten, und wir schätzen den Beitrag jedes Einzelnen. Code ist nicht die einzige Möglichkeit, der Community zu helfen. Das Beantworten von Fragen, das Helfen anderer, die Kontaktaufnahme und die Verbesserung der Dokumentationen sind für die Community von großem Wert. Wir haben einen Beitragsleitfaden geschrieben, um zusammenzufassen, wie Sie mit dem Beitragen zu diesem Repository beginnen können.