databricks llm prompt engineering
1.0.0
Ab dem 29.08.2023 finden Sie die folgenden Beispiele im Ordner notebooks
:
? Eute customer_service
Artefakt | Beschreibung |
---|---|
hf_mlflow_crash_course | ? Bietet ein grundlegendes Beispiel mit dem Umarmungsgesicht für das Training eines Absichtsklassifizierungsmodells mit distilbert-qa . Zeigt auch grundlegende Konzepte von MLFlow wie Experimentverfolgung, Artefaktprotokollierung und Modellregistrierung. |
primer | ? Meistens konzeptionelles Notizbuch. Enthält Erklärungen zum schnellen Engineering und grundlegende Konzepte wie Top -K -Probenahme, Top -P -Probenahme und Temperatur . |
basic_prompt_evaluation | ? Demonstriert das grundlegende Eingabeaufenthalts -Engineering mit leichten LLM -Modellen. Darüber hinaus präsentiert die neuesten LLM -Funktionen von Mlflow wie mlflow.evaluate() . |
few_shot_learning | ? Hier untersuchen wir nur wenige Schusslernen mit einem anleitungsbasierten LLM (MPT-7B-Instruct). |
active_prompting | In diesem Notebook werden wir aktive Aufforderungstechniken untersuchen. Darüber hinaus zeigen wir, wie VLLM nutzen kann, um 7x - 10x Inferenzlatenzverbesserungen zu erzielen. |
llama2_mlflow_logging_inference | Hier zeigen wir, wie Sie ein Lama V2 -Modell in MLFlow anmelden, registrieren und bereitstellen |
mpt_mlflow_logging_inference | Hier zeigen wir, wie Sie ein MPT-Instruct-Modell in MLFlow anmelden, registrieren und bereitstellen. Anders vom Beispiel Lama V2 laden wir hier Modellgewichte direkt in den Modell, das den Endpunkt bedient, wenn der Endpunkt initialisiert wird, ohne die Artefakte in das MLFlow -Modellregistrierung hochzuladen. |
frontend | ? End-to-End-Beispiel für eine Frontend-Demo-App, die eine der im vorherigen Notizbuch bereitgestellten Modelendpunkte mit Gradio verbindet, die im vorherigen Notizbuch bereitgestellt werden |
Um dieses Repo für Datenbanken zu verwenden, gibt es einige Voraussetzungen:
/Repos/[email protected]/databricks-llm-prompt-engineering/init/init.sh
accelerate==0.21.0
einops==0.6.1
flash-attn==v1.0.5
ninja
tokenizers==0.13.3
transformers==4.30.2
xformers==0.0.20
? Frontend -Web -App mit Gradio Modellbereitstellung und Echtzeitinferenz
? Abrufer Augmented Generation (LAG)
? ️ Mlflow ai Gateway