Phi-3-Kochbuch: Praktische Beispiele mit den Phi-3-Modellen von Microsoft
Phi ist eine Familie offener KI-Modelle, die von Microsoft entwickelt wurde. Phi-Modelle sind die leistungsfähigsten und kostengünstigsten verfügbaren Small Language Models (SLMs) und übertreffen Modelle derselben und nächstgrößeren Größe bei einer Vielzahl von Sprach-, Argumentations-, Codierungs- und Mathematik-Benchmarks. Die Phi-3-Familie umfasst Mini-, Small-, Medium- und Vision-Versionen, die auf der Grundlage unterschiedlicher Parametermengen trainiert werden, um verschiedene Anwendungsszenarien abzudecken. Ausführlichere Informationen zur Phi-Familie von Microsoft finden Sie auf der Seite „Willkommen bei der Phi-Familie“.
Befolgen Sie diese Schritte:
- Forken des Repositorys : Klicken Sie auf die Schaltfläche „Fork“ in der oberen rechten Ecke dieser Seite.
- Klonen Sie das Repository :
git clone https://github.com/microsoft/Phi-3CookBook.git
Inhaltsverzeichnis
Einführung
- Einrichten Ihrer Umgebung (✅)
- Willkommen in der Phi-Familie (✅)
- Schlüsseltechnologien verstehen (✅)
- KI-Sicherheit für Phi-Modelle (✅)
- Phi-3-Hardware-Support (✅)
- Phi-3-Modelle und plattformübergreifende Verfügbarkeit (✅)
- Verwendung von Guidance-ai und Phi(✅)
- GitHub Marketplace-Modelle
- Azure AI-Modellkatalog
Schnellstart
- Verwendung von Phi-3 im GitHub-Modellkatalog (✅)
- Verwendung von Phi-3 beim Umarmen des Gesichts (✅)
- Verwendung von Phi-3 mit OpenAI SDK(✅)
- Verwendung von Phi-3 mit HTTP-Anfragen (✅)
- Verwenden von Phi-3 in Azure AI Studio (✅)
- Verwenden der Phi-3-Modellinferenz mit Azure MaaS oder MaaP(✅)
- Verwendung von Phi-3 mit Azure Inference API mit GitHub und Azure AI
- Bereitstellen von Phi-3-Modellen als serverlose APIs in Azure AI Studio(✅)
- Verwendung von Phi-3 in Ollama(✅)
- Verwendung von Phi-3 in LM Studio(✅)
- Verwendung von Phi-3 im AI Toolkit VSCode(✅)
- Verwendung von Phi-3 und LiteLLM(✅)
Schlussfolgerung Phi-3
- Inferenz Phi-3 in iOS(✅)
- Inferenz Phi-3.5 in Android (✅)
- Inferenz Phi-3 in Jetson(✅)
- Inferenz Phi-3 im AI PC(✅)
- Inferenz Phi-3 mit Apple MLX Framework(✅)
- Inferenz Phi-3 im lokalen Server (✅)
- Inferenz Phi-3 im Remote-Server mit AI Toolkit (✅)
- Inferenz Phi-3 mit Rust(✅)
- Inferenz Phi-3-Vision in Lokal(✅)
- Inferenz Phi-3 mit Kaito AKS, Azure Containers (offizielle Unterstützung) (✅)
- Schlussfolgerung Ihrer Feinabstimmung des ONNX-Laufzeitmodells (✅)
Feinabstimmung von Phi-3
- Beispieldatensatz herunterladen und erstellen (✅)
- Feinabstimmungsszenarien(✅)
- Feinabstimmung vs. RAG(✅)
- Feinabstimmung Lassen Sie Phi-3 zum Branchenexperten werden (✅)
- Feinabstimmung von Phi-3 mit AI Toolkit für VS Code(✅)
- Feinabstimmung von Phi-3 mit Azure Machine Learning Service (✅)
- Feinabstimmung von Phi-3 mit Lora(✅)
- Feinabstimmung von Phi-3 mit QLora(✅)
- Feinabstimmung von Phi-3 mit Azure AI Studio(✅)
- Feinabstimmung von Phi-3 mit Azure ML CLI/SDK(✅)
- Feinabstimmung mit Microsoft Olive(✅)
- Feinabstimmung der Phi-3-Sicht mit Gewichtungen und Voreingenommenheit (✅)
- Feinabstimmung von Phi-3 mit Apple MLX Framework(✅)
- Feinabstimmung von Phi-3-Vision (offizieller Support)(✅)
- Feinabstimmung von Phi-3 mit Kaito AKS, Azure Containers (offizieller Support) (✅)
- Feinabstimmung von Phi-3 und 3.5 Vision(✅)
Bewertung Phi-3
- Einführung in verantwortungsvolle KI (✅)
- Einführung in Promptflow(✅)
- Einführung in Azure AI Studio zur Evaluierung (✅)
E2E-Beispiele für Phi-3-mini
- Einführung in End-to-End-Beispiele (✅)
- Bereiten Sie Ihre Branchendaten vor (✅)
- Verwenden Sie Microsoft Olive zur Architektur Ihrer Projekte (✅)
- Lokaler Chatbot auf Android mit Phi-3, ONNXRuntime Mobile und ONNXRuntime Generate API(✅)
- Hugging Face Space WebGPU und Phi-3-mini Demo – Phi-3-mini bietet dem Benutzer ein privates (und leistungsstarkes) Chatbot-Erlebnis. Du kannst es ausprobieren(✅)
- Lokaler Chatbot im Browser mit Phi3, ONNX Runtime Web und WebGPU(✅)
- OpenVino-Chat(✅)
- Multi-Modell – Interaktives Phi-3-mini und OpenAI Whisper(✅)
- MLFlow – Erstellen eines Wrappers und Verwenden von Phi-3 mit MLFlow(✅)
- Modelloptimierung – So optimieren Sie das Phi-3-min-Modell für ONNX Runtime Web mit Olive(✅)
- WinUI3-App mit Phi-3 mini-4k-instruct-onnx(✅)
- WinUI3 Multi Model AI Powered Notes App-Beispiel (✅)
- Feinabstimmung und Integration benutzerdefinierter Phi-3-Modelle mit Prompt Flow(✅)
- Feinabstimmung und Integration benutzerdefinierter Phi-3-Modelle mit Prompt Flow in Azure AI Studio(✅)
- Bewerten Sie das fein abgestimmte Phi-3-/Phi-3.5-Modell in Azure AI Studio und konzentrieren Sie sich dabei auf die verantwortungsvollen KI-Prinzipien von Microsoft (✅)
- Phi-3.5-Mini-Instruct-Sprachvorhersagebeispiel (Chinesisch/Englisch)(✅)
E2E-Beispiele für Phi-3-vision
- Phi-3-Vision-Bildtext zu Text(✅)
- Phi-3-vision-ONNX(✅)
- Phi-3-vision CLIP-Einbettung (✅)
- DEMO: Phi-3-Recycling(✅)
- Phi-3-vision – Visueller Sprachassistent mit Phi3-Vision und OpenVINO(✅)
- Phi-3 Vision Nvidia NIM(✅)
- Phi-3 Vision OpenVino(✅)
- Phi-3.5 Vision Multi-Frame- oder Multi-Image-Beispiel (✅)
E2E-Proben für Phi-3,5-MoE
- Phi-3.5 Mixture of Experts Models (MoEs) Social-Media-Beispiel(✅)
- Aufbau einer Retrieval-Augmented Generation (RAG)-Pipeline mit NVIDIA NIM Phi-3 MOE, Azure AI Search und LlamaIndex(✅)
Labore und Werkstätten testen Phi-3
- C# .NET Labs(✅)
- Erstellen Sie Ihren eigenen Visual Studio Code GitHub Copilot Chat mit der Microsoft Phi-3-Familie (✅)
- Lokale WebGPU Phi-3 Mini RAG Chatbot-Beispiele mit lokaler RAG-Datei (✅)
- Phi-3 ONNX-Tutorial(✅)
- Phi-3-vision ONNX-Tutorial(✅)
- Führen Sie die Phi-3-Modelle mit der ONNX Runtime-Generate()-API aus (✅)
- Phi-3 ONNX Multi Model LLM Chat UI, Dies ist eine Chat-Demo (✅)
- C# Hallo Phi-3 ONNX Beispiel Phi-3(✅)
- C# API Phi-3 ONNX-Beispiel zur Unterstützung von Phi3-Vision(✅)
- Führen Sie C# Phi-3-Beispiele in einem CodeSpace aus (✅)
- Verwendung von Phi-3 mit Promptflow und Azure AI Search(✅)
- Windows AI-PC-APIs mit Windows Copilot-Bibliothek
Phi-3.5 lernen
- Was ist neu in der Phi-3.5-Familie (✅)
- Quantifizierung der Phi-3.5-Familie (✅)
- Quantisierung von Phi-3.5 mit llama.cpp(✅)
- Quantisierung von Phi-3.5 mithilfe generativer KI-Erweiterungen für onnxruntime (✅)
- Quantisierung von Phi-3.5 mit Intel OpenVINO(✅)
- Quantisierung von Phi-3.5 mit dem Apple MLX Framework (✅)
- Phi-3.5-Anwendungsbeispiele
- Phi-3.5-Instruct WebGPU RAG Chatbot(✅)
- Erstellen Sie Ihren eigenen Visual Studio Code Chat Copilot Agent mit Phi-3.5 von GitHub Models(✅)
- Verwenden der Windows-GPU zum Erstellen einer Prompt-Flow-Lösung mit Phi-3.5-Instruct ONNX (✅)
- Verwenden von Microsoft Phi-3.5 tflite zum Erstellen einer Android-App (✅)
Verwendung von Phi-3-Modellen
Phi-3 auf Azure AI Studio
Sie können lernen, wie Sie Microsoft Phi-3 verwenden und E2E-Lösungen auf Ihren verschiedenen Hardwaregeräten erstellen. Um Phi-3 selbst zu erleben, spielen Sie zunächst mit dem Modell und passen Sie Phi-3 mithilfe von Azure AI Studio für Ihre Szenarien an. Weitere Informationen finden Sie unter „Erste Schritte mit Azure AI Studio“.
Spielplatz Jedes Modell verfügt über einen eigenen Spielplatz zum Testen des Modells Azure AI Playground.
Phi-3 auf GitHub-Modellen
Sie können lernen, wie Sie Microsoft Phi-3 verwenden und E2E-Lösungen auf Ihren verschiedenen Hardwaregeräten erstellen. Um Phi-3 selbst zu erleben, spielen Sie zunächst mit dem Modell und passen Sie Phi-3 mithilfe des GitHub-Modellkatalogs für Ihre Szenarien an. Weitere Informationen finden Sie unter „Erste Schritte mit dem GitHub-Modellkatalog“.
Spielplatz Für jedes Modell gibt es einen eigenen Spielplatz zum Testen des Modells.
Phi-3 auf Hugging Face
Sie finden das Modell auch auf dem Hugging Face
Spielplatz zum Umarmen. Chat-Spielplatz
Mehrsprachige Unterstützung
Hinweis: Diese Übersetzungen wurden automatisch mit dem Open-Source-Co-op-Übersetzer erstellt und können Fehler oder Ungenauigkeiten enthalten. Für wichtige Informationen wird empfohlen, sich auf das Original zu beziehen oder eine professionelle menschliche Übersetzung zu Rate zu ziehen. Wenn Sie eine Übersetzung hinzufügen oder aktualisieren möchten, schauen Sie bitte im Co-op-Translator-Repository nach, wo Sie mit einfachen Befehlen ganz einfach einen Beitrag leisten können.
Sprache | Code | Link zur übersetzten README-Datei | Zuletzt aktualisiert |
---|
Chinesisch (vereinfacht) | zh | Chinesische Übersetzung | 04.10.2024 |
Chinesisch (traditionell) | tw | Chinesische Übersetzung | 04.10.2024 |
Französisch | fr | Französische Übersetzung | 04.10.2024 |
japanisch | ja | Japanische Übersetzung | 04.10.2024 |
Koreanisch | ko | Koreanische Übersetzung | 04.10.2024 |
Spanisch | es | Spanische Übersetzung | 04.10.2024 |
Marken
Dieses Projekt kann Marken oder Logos für Projekte, Produkte oder Dienstleistungen enthalten. Die autorisierte Nutzung von Microsoft-Marken oder -Logos unterliegt den Marken- und Markenrichtlinien von Microsoft und muss diesen entsprechen. Die Verwendung von Microsoft-Marken oder -Logos in geänderten Versionen dieses Projekts darf keine Verwirrung stiften oder eine Sponsorschaft durch Microsoft implizieren. Jegliche Nutzung von Marken oder Logos Dritter unterliegt den Richtlinien dieser Drittanbieter.