Livre de recettes Phi-3 : exemples pratiques avec les modèles Phi-3 de Microsoft
Phi, est une famille de modèles d'IA ouverts développés par Microsoft. Les modèles Phi sont les petits modèles de langage (SLM) les plus performants et les plus rentables disponibles, surpassant les modèles de même taille et de taille supérieure dans une variété de tests de langage, de raisonnement, de codage et de mathématiques. La famille Phi-3 comprend des versions mini, petite, moyenne et vision, entraînées en fonction de différentes quantités de paramètres pour servir divers scénarios d'application. Pour des informations plus détaillées sur la famille Phi de Microsoft, veuillez visiter la page Bienvenue dans la famille Phi.
Suivez ces étapes :
- Fork the Repository : Cliquez sur le bouton "Fork" dans le coin supérieur droit de cette page.
- Cloner le référentiel :
git clone https://github.com/microsoft/Phi-3CookBook.git
Table des matières
Introduction
- Configurer votre environnement(✅)
- Bienvenue dans la famille Phi(✅)
- Comprendre les technologies clés (✅)
- Sécurité de l'IA pour les modèles Phi (✅)
- Prise en charge matérielle Phi-3 (✅)
- Modèles Phi-3 et disponibilité sur toutes les plateformes (✅)
- Utiliser Guidance-ai et Phi(✅)
- Modèles de marché GitHub
- Catalogue de modèles Azure AI
Démarrage rapide
- Utilisation de Phi-3 dans le catalogue de modèles GitHub (✅)
- Utiliser Phi-3 pour câliner le visage (✅)
- Utiliser Phi-3 avec le SDK OpenAI (✅)
- Utiliser Phi-3 avec des requêtes HTTP (✅)
- Utilisation de Phi-3 dans Azure AI Studio(✅)
- Utilisation de l'inférence de modèle Phi-3 avec Azure MaaS ou MaaP(✅)
- Utilisation de Phi-3 avec l'API Azure Inference avec GitHub et Azure AI
- Déploiement de modèles Phi-3 en tant qu'API sans serveur dans Azure AI Studio(✅)
- Utiliser Phi-3 dans Ollama (✅)
- Utiliser Phi-3 dans LM Studio(✅)
- Utilisation de Phi-3 dans AI Toolkit VSCode (✅)
- Utiliser Phi-3 et LiteLLM(✅)
Inférence Phi-3
- Inférence Phi-3 dans iOS (✅)
- Inférence Phi-3.5 dans Android (✅)
- Inférence Phi-3 dans Jetson(✅)
- Inférence Phi-3 dans AI PC (✅)
- Inférence Phi-3 avec Apple MLX Framework (✅)
- Inférence Phi-3 dans le serveur local (✅)
- Inférence Phi-3 dans un serveur distant à l'aide d'AI Toolkit (✅)
- Inférence Phi-3 avec Rust(✅)
- Inférence Phi-3-Vision en Local(✅)
- Inférence Phi-3 avec Kaito AKS, Azure Containers (support officiel)(✅)
- Inférence de votre modèle d'exécution ONNX de réglage fin (✅)
Affiner Phi-3
- Téléchargement et création d'un exemple d'ensemble de données (✅)
- Scénarios de réglage fin (✅)
- Réglage fin vs RAG (✅)
- Mise au point Laissez Phi-3 devenir un expert de l'industrie (✅)
- Affiner Phi-3 avec AI Toolkit pour VS Code (✅)
- Affiner Phi-3 avec Azure Machine Learning Service (✅)
- Affiner Phi-3 avec Lora(✅)
- Affiner Phi-3 avec QLora(✅)
- Affiner Phi-3 avec Azure AI Studio (✅)
- Affiner Phi-3 avec Azure ML CLI/SDK(✅)
- Mise au point avec Microsoft Olive(✅)
- Affiner la vision Phi-3 avec des poids et des biais (✅)
- Affiner Phi-3 avec Apple MLX Framework (✅)
- Affiner la vision Phi-3 (support officiel)(✅)
- Réglage fin de Phi-3 avec Kaito AKS, Azure Containers (support officiel)(✅)
- Réglage précis de la vision Phi-3 et 3.5 (✅)
Évaluation Phi-3
- Introduction à l'IA responsable(✅)
- Introduction à Promptflow(✅)
- Introduction à Azure AI Studio pour l'évaluation (✅)
Échantillons E2E pour Phi-3-mini
- Introduction aux échantillons de bout en bout (✅)
- Préparez vos données sectorielles(✅)
- Utilisez Microsoft Olive pour concevoir vos projets(✅)
- Chatbot local sur Android avec Phi-3, ONNXRuntime Mobile et ONNXRuntime Generate API(✅)
- Hugging Face Space WebGPU et Phi-3-mini Demo-Phi-3-mini offrent à l'utilisateur une expérience de chatbot privée (et puissante). Vous pouvez l'essayer (✅)
- Chatbot local dans le navigateur utilisant Phi3, ONNX Runtime Web et WebGPU(✅)
- Chat OpenVino (✅)
- Multi modèle - Phi-3-mini interactif et OpenAI Whisper (✅)
- MLFlow - Construire un wrapper et utiliser Phi-3 avec MLFlow(✅)
- Optimisation du modèle - Comment optimiser le modèle Phi-3-min pour ONNX Runtime Web avec Olive(✅)
- Application WinUI3 avec Phi-3 mini-4k-instruct-onnx (✅)
- Exemple d'application Notes multi-modèles WinUI3 alimenté par l'IA (✅)
- Affinez et intégrez des modèles Phi-3 personnalisés avec un flux rapide (✅)
- Affinez et intégrez des modèles Phi-3 personnalisés avec le flux d'invite dans Azure AI Studio (✅)
- Évaluez le modèle Phi-3 / Phi-3.5 affiné dans Azure AI Studio en vous concentrant sur les principes d'IA responsable de Microsoft (✅)
- Échantillon de prédiction de langue Phi-3.5-mini-instruct (chinois/anglais)(✅)
Échantillons E2E pour Phi-3-vision
- Phi-3-vision-Image texte en texte(✅)
- Phi-3-vision-ONNX(✅)
- Intégration CLIP Phi-3-vision (✅)
- DÉMO : Phi-3 Recyclage(✅)
- Phi-3-vision - Assistant de langage visuel avec Phi3-Vision et OpenVINO(✅)
- Phi-3 Vision Nvidia NIM(✅)
- Phi-3 Vision OpenVino(✅)
- Échantillon multi-images ou multi-images Phi-3.5 Vision (✅)
Échantillons E2E pour Phi-3.5-MoE
- Phi-3.5 Mélange de modèles d'experts (MoE) Échantillon de médias sociaux (✅)
- Création d'un pipeline de génération augmentée par récupération (RAG) avec NVIDIA NIM Phi-3 MOE, Azure AI Search et LlamaIndex (✅)
Échantillons de laboratoires et d'ateliers Phi-3
- Laboratoires C# .NET (✅)
- Créez votre propre conversation copilote Visual Studio Code GitHub avec la famille Microsoft Phi-3 (✅)
- Exemples de chatbot WebGPU Phi-3 Mini RAG local avec fichier RAG local (✅)
- Tutoriel Phi-3 ONNX (✅)
- Tutoriel Phi-3-vision ONNX (✅)
- Exécutez les modèles Phi-3 avec l'API ONNX Runtime generate() (✅)
- Phi-3 ONNX Multi Model LLM Chat UI, ceci est une démo de chat (✅)
- C# Bonjour Phi-3 Exemple ONNX Phi-3(✅)
- Exemple d'API C# Phi-3 ONNX pour prendre en charge Phi3-Vision (✅)
- Exécutez des exemples C# Phi-3 dans un CodeSpace (✅)
- Utiliser Phi-3 avec Promptflow et Azure AI Search(✅)
- API Windows AI-PC avec la bibliothèque Windows Copilot
Apprentissage de Phi-3.5
- Quoi de neuf Famille Phi-3.5(✅)
- Quantification de la famille Phi-3.5 (✅)
- Quantification de Phi-3.5 à l'aide de lama.cpp(✅)
- Quantification de Phi-3.5 à l'aide des extensions Generative AI pour onnxruntime(✅)
- Quantification de Phi-3.5 à l'aide d'Intel OpenVINO(✅)
- Quantification de Phi-3.5 à l'aide du framework Apple MLX (✅)
- Exemples d'applications Phi-3.5
- Phi-3.5-Instruire le chatbot WebGPU RAG (✅)
- Créez votre propre agent copilote de chat Visual Studio Code avec Phi-3.5 par GitHub Models (✅)
- Utilisation du GPU Windows pour créer une solution de flux d'invite avec Phi-3.5-Instruct ONNX (✅)
- Utilisation de Microsoft Phi-3.5 tflite pour créer une application Android (✅)
Utiliser des modèles Phi-3
Phi-3 sur Azure AI Studio
Vous pouvez apprendre à utiliser Microsoft Phi-3 et à créer des solutions E2E sur vos différents périphériques matériels. Pour découvrir Phi-3 par vous-même, commencez par jouer avec le modèle et personnalisez Phi-3 pour vos scénarios à l'aide d'Azure AI Studio, Azure AI Model Catalog. Vous pouvez en savoir plus dans Mise en route avec Azure AI Studio.
Terrain de jeu Chaque modèle dispose d'un terrain de jeu dédié pour tester le modèle Azure AI Playground.
Phi-3 sur les modèles GitHub
Vous pouvez apprendre à utiliser Microsoft Phi-3 et à créer des solutions E2E sur vos différents périphériques matériels. Pour découvrir Phi-3 par vous-même, commencez par jouer avec le modèle et personnalisez Phi-3 pour vos scénarios à l'aide du catalogue de modèles GitHub. Vous pouvez en savoir plus sur Premiers pas avec le catalogue de modèles GitHub.
Aire de jeux Chaque modèle dispose d'un terrain de jeu dédié pour tester le modèle.
Phi-3 sur le visage câlin
Vous pouvez également retrouver le modèle sur le Hugging Face
Aire de jeux Câlins Chat aire de jeux
Prise en charge multilingue
Remarque : Ces traductions ont été générées automatiquement à l'aide du traducteur coopératif open source et peuvent contenir des erreurs ou des inexactitudes. Pour les informations critiques, il est recommandé de se référer à l’original ou de consulter une traduction humaine professionnelle. Si vous souhaitez ajouter ou mettre à jour une traduction, veuillez vous référer au référentiel co-op-translator, où vous pouvez facilement contribuer à l'aide de commandes simples.
Langue | Code | Lien vers le README traduit | Dernière mise à jour |
---|
Chinois (simplifié) | zh | Traduction en chinois | 2024-10-04 |
Chinois (traditionnel) | deux | Traduction en chinois | 2024-10-04 |
Français | fr | Traduction française | 2024-10-04 |
japonais | oui | Traduction en japonais | 2024-10-04 |
coréen | ko | Traduction coréenne | 2024-10-04 |
Espagnol | es | Traduction en espagnol | 2024-10-04 |
Marques déposées
Ce projet peut contenir des marques ou des logos pour des projets, des produits ou des services. L'utilisation autorisée des marques ou logos Microsoft est soumise et doit respecter les directives relatives aux marques et aux marques de Microsoft. L'utilisation des marques ou logos Microsoft dans les versions modifiées de ce projet ne doit pas prêter à confusion ni impliquer le parrainage de Microsoft. Toute utilisation de marques ou de logos tiers est soumise aux politiques de ces tiers.