Phi est une famille de modèles d'IA ouverts développés par Microsoft. Les modèles Phi sont les plus performants et les plus rentables parmi les petits modèles de langage (SLM) disponibles, surpassant les modèles de même taille et ceux de taille supérieure dans divers benchmarks de langage, de raisonnement, de codage et de mathématiques. La famille Phi-3 comprend des versions mini, petite, moyenne et vision, entraînées sur différentes quantités de paramètres pour répondre à divers scénarios d'application. Pour plus d'informations détaillées sur la famille Phi de Microsoft, veuillez visiter la page Bienvenue dans la famille Phi.
Suivez ces étapes :
- Forker le dépôt : Cliquez sur le bouton "Fork" en haut à droite de cette page.
- Cloner le dépôt :
git clone https://github.com/microsoft/Phi-3CookBook.git
-
Introduction
- Configurer votre environnement(✅)
- Bienvenue dans la famille Phi(✅)
- Comprendre les technologies clés(✅)
- Sécurité de l'IA pour les modèles Phi(✅)
- Support matériel pour Phi-3(✅)
- Modèles Phi-3 et disponibilité sur les plateformes(✅)
- Utiliser Guidance-ai et Phi(✅)
- Modèles du GitHub Marketplace(✅)
- Catalogue de modèles Azure AI(✅)
-
Démarrage rapide
- Utiliser Phi-3 dans le catalogue de modèles GitHub(✅)
- Utiliser Phi-3 dans Hugging Face(✅)
- Utiliser Phi-3 avec le SDK OpenAI(✅)
- Utiliser Phi-3 avec des requêtes HTTP(✅)
- Utiliser Phi-3 dans Azure AI Studio(✅)
- Utiliser l'inférence de modèle Phi-3 avec Azure MaaS ou MaaP(✅)
- Utiliser l'API d'inférence Azure avec GitHub et Azure AI
- Déployer des modèles Phi-3 en tant qu'APIs serverless dans Azure AI Studio(✅)
- Utiliser Phi-3 dans Ollama(✅)
-
- Inférence Phi-3 sur iOS(✅)
- Inférence Phi-3.5 sur Android(✅)
- Inférence Phi-3 sur Jetson(✅)
- Inférence Phi-3 sur PC AI(✅)
- Inférence Phi-3 avec Apple MLX Framework(✅)
- Inférence Phi-3 sur Serveur Local(✅)
- Inférence Phi-3 sur Serveur Distant avec AI Toolkit(✅)
- Inférence Phi-3 avec Rust(✅)
- Inférence Phi-3-Vision en Local(✅)
- Inférence Phi-3 avec Kaito AKS, Azure Containers (support officiel)(✅)
- Inférence de Votre Modèle Fine-tuning avec ONNX Runtime(✅)
-
Fine-tuning Phi-3
- Téléchargement & Création d'un Jeu de Données Exemple(✅)
- Scénarios de Fine-tuning(✅)
- Fine-tuning vs RAG(✅)
- Fine-tuning : Faire de Phi-3 un expert industriel(✅)
- Fine-tuning Phi-3 avec AI Toolkit pour VS Code(✅)
- Fine-tuning Phi-3 avec Azure Machine Learning Service(✅)
- Fine-tuning Phi-3 avec Lora(✅)
- Fine-tuning Phi-3 avec QLora(✅)
- Fine-tuning Phi-3 avec Azure AI Studio(✅)
- Fine-tuning Phi-3 avec Azure ML CLI/SDK(✅)
- Fine-tuning avec Microsoft Olive(✅)
- Fine-tuning avec Microsoft Olive Hands-On Lab(✅)
- Fine-tuning Phi-3-vision avec Weights and Bias(✅)
- Fine-tuning Phi-3 avec Apple MLX Framework(✅)
- Fine-tuning Phi-3-vision (support officiel)(✅)
-
Fine-Tuning Phi-3 avec Kaito AKS, Azure Containers (support officiel)(✅)
-
Évaluation Phi-3
-
Exemples E2E pour Phi-3-mini
- Introduction aux exemples de bout en bout(✅)
- Préparez vos données industrielles(✅)
- Utilisez Microsoft Olive pour architecturer vos projets(✅)
- Chatbot local sur Android avec Phi-3, ONNXRuntime Mobile et ONNXRuntime Generate API(✅)
- Démonstration Hugging Face Space WebGPU et Phi-3-mini - Phi-3-mini offre à l'utilisateur une expérience de chatbot privée (et puissante). Vous pouvez l'essayer(✅)
- Chatbot local dans le navigateur utilisant Phi3, ONNX Runtime Web et WebGPU(✅)
- Chat OpenVino(✅)
- Multi Modèle - Phi-3-mini interactif et OpenAI Whisper(✅)
- MLFlow - Construire un wrapper et utiliser Phi-3 avec MLFlow(✅)
- Optimisation de modèle - Comment optimiser le modèle Phi-3-min pour ONNX Runtime Web avec Olive(✅)
- Application WinUI3 avec Phi-3 mini-4k-instruct-onnx(✅)
- Exemple d'application de notes alimentée par l'IA WinUI3 Multi Modèle(✅)
- Affiner et intégrer des modèles Phi-3 personnalisés avec Prompt flow(✅)
- Affiner et intégrer des modèles Phi-3 personnalisés avec Prompt flow dans Azure AI Studio(✅)
- Évaluer le modèle Phi-3 / Phi-3.5 affiné dans Azure AI Studio en se concentrant sur les principes de l'IA Responsable de Microsoft(✅)
- Exemple de prédiction linguistique Phi-3.5-mini-instruct (Chinois/Anglais)(✅)
-
Exemples E2E pour Phi-3-vision
-
Exemples E2E pour Phi-3.5-MoE
-
Exemples de laboratoires et d'ateliers Phi-3
- Laboratoires C# .NET(✅)
- Construisez votre propre Visual Studio Code GitHub Copilot Chat avec Microsoft Phi-3 Family(✅)
- Exemples de chatbot Mini RAG WebGPU Phi-3 avec fichier RAG local(✅)
- Tutoriel Phi-3 ONNX(✅)
- Tutoriel Phi-3-vision ONNX(✅)
- Exécuter les modèles Phi-3 avec l'API generate() d'ONNX Runtime(✅)
- Interface de chat Multi Modèle LLM Phi-3 ONNX, Ceci est une démo de chat(✅)
- Exemple C# Hello Phi-3 ONNX Phi-3(✅)
- Exemple d'API C# Phi-3 ONNX pour supporter Phi3-Vision(✅)
- Exécuter des exemples C# Phi-3 dans un CodeSpace(✅)
- Utiliser Phi-3 avec Promptflow et Azure AI Search(✅)
- API Windows AI-PC avec la bibliothèque Windows Copilot
-
Apprentissage de Phi-3.5
- Quoi de neuf dans la famille Phi-3.5(✅)
- Quantification de la famille Phi-3.5(✅)
- Exemples d'applications Phi-3.5
- Chatbot RAG WebGPU Phi-3.5-Instruct(✅)
- Créez votre propre agent de chat Copilot Visual Studio Code avec Phi-3.5 via les modèles GitHub(✅)
- Utiliser le GPU Windows pour créer une solution de flux d'invite avec Phi-3.5-Instruct ONNX(✅)
- Utiliser Microsoft Phi-3.5 tflite pour créer une application Android(✅)
Vous pouvez apprendre à utiliser Microsoft Phi-3 et à créer des solutions E2E sur vos différents appareils matériels. Pour expérimenter Phi-3 par vous-même, commencez par jouer avec le modèle et personnaliser Phi-3 pour vos scénarios en utilisant le Azure AI Foundry Azure AI Model Catalog. Vous pouvez en savoir plus en démarrant avec Azure AI Studio
Playground Chaque modèle a un terrain de jeu dédié pour tester le modèle Azure AI Playground.
Vous pouvez apprendre à utiliser Microsoft Phi-3 et à créer des solutions E2E sur vos différents appareils matériels. Pour expérimenter Phi-3 par vous-même, commencez par jouer avec le modèle et personnaliser Phi-3 pour vos scénarios en utilisant le GitHub Model Catalog. Vous pouvez en savoir plus en démarrant avec GitHub Model Catalog
Playground Chaque modèle a un terrain de jeu dédié pour tester le modèle.
Vous pouvez également trouver le modèle sur Hugging Face
Playground Hugging Chat playground
Note: Ces traductions ont été générées automatiquement à l'aide de l'outil open-source co-op-translator et peuvent contenir des erreurs ou des inexactitudes. Pour des informations cruciales, il est recommandé de se référer à l'original ou de consulter une traduction humaine professionnelle. Si vous souhaitez ajouter ou mettre à jour une traduction, veuillez vous référer au dépôt co-op-translator, où vous pouvez facilement contribuer en utilisant des commandes simples.
Langue | Code | Lien vers le README traduit | Dernière mise à jour |
---|---|---|---|
Chinois (Simplifié) | zh | Traduction en chinois | 2024-11-29 |
Chinois (Traditionnel) | tw | Traduction en chinois | 2024-11-29 |
Français | fr | Traduction en français | 2024-11-29 |
Japonais | ja | Traduction en japonais | 2024-11-29 |
Coréen | ko | Traduction en coréen | 2024-11-29 |
Espagnol | es | Traduction en espagnol | 2024-11-29 |
Ce projet peut contenir des marques de commerce ou des logos pour des projets, produits ou services. L'utilisation autorisée des marques de commerce ou des logos de Microsoft est soumise aux Directives d'utilisation des marques et de la marque Microsoft. L'utilisation des marques de commerce ou des logos de Microsoft dans des versions modifiées de ce projet ne doit pas créer de confusion ou impliquer un parrainage de Microsoft. Toute utilisation de marques de commerce ou de logos de tiers est soumise aux politiques de ces tiers.
Avertissement: Ce document a été traduit en utilisant des services de traduction automatique basés sur l'IA. Bien que nous nous efforcions d'assurer l'exactitude, veuillez noter que les traductions automatiques peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue d'origine doit être considéré comme la source faisant autorité. Pour des informations critiques, il est recommandé de faire appel à une traduction humaine professionnelle. Nous ne sommes pas responsables des malentendus ou des interprétations erronées résultant de l'utilisation de cette traduction.