Livro de receitas Phi-3: exemplos práticos com modelos Phi-3 da Microsoft
Phi, é uma família de modelos abertos de IA desenvolvidos pela Microsoft. Os modelos Phi são os modelos de linguagem pequena (SLMs) mais capazes e econômicos disponíveis, superando modelos do mesmo tamanho e do tamanho seguinte em uma variedade de benchmarks de linguagem, raciocínio, codificação e matemática. A família Phi-3 inclui versões mini, pequena, média e de visão, treinadas com base em diferentes quantidades de parâmetros para atender a vários cenários de aplicação. Para obter informações mais detalhadas sobre a família Phi da Microsoft, visite a página Bem-vindo à família Phi.
Siga estas etapas:
- Fork the Repository : Clique no botão "Fork" no canto superior direito desta página.
- Clone o repositório :
git clone https://github.com/microsoft/Phi-3CookBook.git
Índice
Introdução
- Configurando seu ambiente(✅)
- Bem-vindo à Família Phi(✅)
- Compreendendo as principais tecnologias (✅)
- Segurança de IA para modelos Phi (✅)
- Suporte de hardware Phi-3(✅)
- Modelos Phi-3 e disponibilidade entre plataformas(✅)
- Usando Orientação-ai e Phi(✅)
- Modelos do GitHub Marketplace
- Catálogo de modelos de IA do Azure
Início rápido
- Usando Phi-3 no Catálogo de Modelos GitHub(✅)
- Usando Phi-3 no rosto de abraço (✅)
- Usando Phi-3 com OpenAI SDK(✅)
- Usando Phi-3 com solicitações HTTP (✅)
- Usando Phi-3 no Azure AI Studio(✅)
- Usando inferência de modelo Phi-3 com Azure MaaS ou MaaP(✅)
- Usando Phi-3 com API de Inferência do Azure com GitHub e Azure AI
- Implantando modelos Phi-3 como APIs sem servidor no Azure AI Studio(✅)
- Usando Phi-3 em Ollama(✅)
- Usando Phi-3 no LM Studio(✅)
- Usando Phi-3 no AI Toolkit VSCode(✅)
- Usando Phi-3 e LiteLLM(✅)
Inferência Phi-3
- Inferência Phi-3 no iOS(✅)
- Inferência Phi-3.5 no Android(✅)
- Inferência Phi-3 em Jetson (✅)
- Inferência Phi-3 em AI PC (✅)
- Inferência Phi-3 com Apple MLX Framework(✅)
- Inferência Phi-3 no servidor local (✅)
- Inferência Phi-3 em servidor remoto usando AI Toolkit(✅)
- Inferência Phi-3 com Ferrugem(✅)
- Inferência Phi-3-Vision em Local(✅)
- Inferência Phi-3 com Kaito AKS, Azure Containers(suporte oficial)(✅)
- Inferir seu modelo de tempo de execução ONNX de ajuste fino (✅)
Ajuste fino do Phi-3
- Baixando e criando conjunto de dados de amostra (✅)
- Cenários de ajuste fino(✅)
- Ajuste fino vs RAG (✅)
- Ajuste fino Deixe Phi-3 se tornar um especialista do setor(✅)
- Ajustando Phi-3 com AI Toolkit para VS Code (✅)
- Ajustando Phi-3 com Azure Machine Learning Service(✅)
- Ajustando Phi-3 com Lora (✅)
- Ajustando Phi-3 com QLora(✅)
- Ajustando Phi-3 com Azure AI Studio(✅)
- Ajustando Phi-3 com CLI/SDK do Azure ML(✅)
- Ajuste fino com Microsoft Olive(✅)
- Ajustando a visão Phi-3 com pesos e preconceitos (✅)
- Ajustando Phi-3 com Apple MLX Framework(✅)
- Ajuste fino do Phi-3-vision (suporte oficial)(✅)
- Ajuste fino de Phi-3 com Kaito AKS, Azure Containers (suporte oficial)(✅)
- Ajuste fino da visão Phi-3 e 3.5(✅)
Avaliação Phi-3
- Introdução à IA Responsável(✅)
- Introdução ao Promptflow(✅)
- Introdução ao Azure AI Studio para avaliação(✅)
Amostras E2E para Phi-3-mini
- Introdução às amostras de ponta a ponta (✅)
- Prepare os dados do seu setor (✅)
- Use o Microsoft Olive para arquitetar seus projetos(✅)
- Chatbot local no Android com Phi-3, ONNXRuntime Mobile e ONNXRuntime Generate API(✅)
- Hugging Face Space WebGPU e Phi-3-mini Demo-Phi-3-mini fornecem ao usuário uma experiência de chatbot privada (e poderosa). Você pode experimentar(✅)
- Chatbot local no navegador usando Phi3, ONNX Runtime Web e WebGPU(✅)
- Bate-papo OpenVino (✅)
- Multimodelo - Phi-3-mini interativo e OpenAI Whisper (✅)
- MLFlow - Construindo um wrapper e usando Phi-3 com MLFlow(✅)
- Otimização de modelo - Como otimizar o modelo Phi-3-min para ONNX Runtime Web com Olive (✅)
- Aplicativo WinUI3 com Phi-3 mini-4k-instruct-onnx(✅)
- Amostra de aplicativo WinUI3 Multi Model AI Powered Notes (✅)
- Ajuste e integre modelos Phi-3 personalizados com fluxo imediato (✅)
- Ajuste e integre modelos Phi-3 personalizados com fluxo de prompt no Azure AI Studio(✅)
- Avalie o modelo Phi-3/Phi-3.5 ajustado no Azure AI Studio com foco nos princípios de IA responsável da Microsoft(✅)
- Amostra de previsão de idioma Phi-3.5-mini-instruct (chinês/inglês)(✅)
Amostras E2E para visão Phi-3
- Phi-3-vision-Image texto para texto (✅)
- Phi-3-vision-ONNX(✅)
- Incorporação de CLIP Phi-3-vision (✅)
- DEMO: Reciclagem Phi-3(✅)
- Phi-3-vision - Assistente de linguagem visual com Phi3-Vision e OpenVINO(✅)
- Phi-3 Vision Nvidia NIM(✅)
- Phi-3 Vision OpenVino(✅)
- Amostra de vários quadros ou imagens múltiplas Phi-3.5 Vision (✅)
Amostras E2E para Phi-3.5-MoE
- Phi-3.5 Mistura de Modelos Especialistas (MoEs) Amostra de Mídia Social (✅)
- Construindo um pipeline de geração aumentada de recuperação (RAG) com NVIDIA NIM Phi-3 MOE, Azure AI Search e LlamaIndex(✅)
Amostras de laboratórios e workshops Phi-3
- Laboratórios C# .NET(✅)
- Crie seu próprio Visual Studio Code GitHub Copilot Chat com a família Microsoft Phi-3(✅)
- Amostras locais de WebGPU Phi-3 Mini RAG Chatbot com arquivo RAG local (✅)
- Tutorial Phi-3 ONNX(✅)
- Tutorial Phi-3-vision ONNX (✅)
- Execute os modelos Phi-3 com a API ONNX Runtime generate()(✅)
- UI de bate-papo Phi-3 ONNX Multi Model LLM, esta é uma demonstração de bate-papo (✅)
- Exemplo C# Hello Phi-3 ONNX Phi-3(✅)
- Exemplo C# API Phi-3 ONNX para suportar Phi3-Vision(✅)
- Execute amostras C# Phi-3 em um CodeSpace(✅)
- Usando Phi-3 com Promptflow e Azure AI Search(✅)
- APIs do Windows AI-PC com a Biblioteca Copilot do Windows
Aprendendo Phi-3.5
- O que há de novo Família Phi-3.5(✅)
- Quantificando a Família Phi-3.5(✅)
- Quantizando Phi-3.5 usando llama.cpp(✅)
- Quantizando Phi-3.5 usando extensões Generative AI para onnxruntime(✅)
- Quantizando Phi-3.5 usando Intel OpenVINO(✅)
- Quantizando Phi-3.5 usando Apple MLX Framework(✅)
- Amostras de aplicação Phi-3.5
- Phi-3.5-Instruir WebGPU RAG Chatbot(✅)
- Crie seu próprio agente copiloto de bate-papo do Visual Studio Code com Phi-3.5 por GitHub Models (✅)
- Usando GPU do Windows para criar solução de fluxo Prompt com Phi-3.5-Instruct ONNX (✅)
- Usando Microsoft Phi-3.5 tflite para criar aplicativos Android(✅)
Usando modelos Phi-3
Phi-3 no Azure AI Studio
Você pode aprender como usar o Microsoft Phi-3 e como construir soluções E2E em seus diferentes dispositivos de hardware. Para experimentar o Phi-3 por si mesmo, comece brincando com o modelo e personalizando o Phi-3 para seus cenários usando o Azure AI Studio, o Catálogo de Modelos do Azure AI. Você pode aprender mais em Introdução ao Azure AI Studio.
Playground Cada modelo possui um playground dedicado para testar o modelo Azure AI Playground.
Phi-3 em modelos GitHub
Você pode aprender como usar o Microsoft Phi-3 e como construir soluções E2E em seus diferentes dispositivos de hardware. Para experimentar o Phi-3 por si mesmo, comece brincando com o modelo e personalizando o Phi-3 para seus cenários usando o Catálogo de modelos do GitHub. Você pode aprender mais em Introdução ao Catálogo de modelos do GitHub
Playground Cada modelo possui um playground dedicado para testar o modelo.
Phi-3 no rosto abraçado
Você também pode encontrar o modelo no Hugging Face
Parque infantil Abraçando o bate-papo
Suporte multilíngue
Observação: essas traduções foram geradas automaticamente usando o tradutor cooperativo de código aberto e podem conter erros ou imprecisões. Para informações críticas, recomenda-se consultar o original ou consultar uma tradução humana profissional. Se você quiser adicionar ou atualizar uma tradução, consulte o repositório co-op-translator, onde você pode contribuir facilmente usando comandos simples.
Linguagem | Código | Link para o README traduzido | Última atualização |
---|
Chinês (simplificado) | z | Tradução Chinesa | 04/10/2024 |
Chinês (tradicional) | dois | Tradução Chinesa | 04/10/2024 |
Francês | franco | Tradução Francesa | 04/10/2024 |
japonês | sim | Tradução Japonesa | 04/10/2024 |
coreano | ko | Tradução Coreana | 04/10/2024 |
Espanhol | é | Tradução Espanhola | 04/10/2024 |
Marcas registradas
Este projeto pode conter marcas registradas ou logotipos de projetos, produtos ou serviços. O uso autorizado de marcas registradas ou logotipos da Microsoft está sujeito e deve seguir as Diretrizes de Marcas Registradas e Marcas da Microsoft. O uso de marcas registradas ou logotipos da Microsoft em versões modificadas deste projeto não deve causar confusão nem implicar patrocínio da Microsoft. Qualquer uso de marcas registradas ou logotipos de terceiros está sujeito às políticas desses terceiros.