Skip to content

Latest commit

 

History

History
110 lines (64 loc) · 6.93 KB

AzureAIStudio_QuickStart.md

File metadata and controls

110 lines (64 loc) · 6.93 KB

Utilisation de Phi-3 dans Azure AI Foundry

Avec le développement de l'IA générative, nous espérons utiliser une plateforme unifiée pour gérer différents LLM et SLM, l'intégration des données d'entreprise, les opérations de fine-tuning/RAG, et l'évaluation de différentes entreprises après l'intégration des LLM et SLM, etc., afin que les applications intelligentes de l'IA générative soient mieux mises en œuvre. Azure AI Foundry est une plateforme d'application d'IA générative de niveau entreprise.

aistudo

Avec Azure AI Foundry, vous pouvez évaluer les réponses des grands modèles de langage (LLM) et orchestrer les composants d'application de prompt avec prompt flow pour de meilleures performances. La plateforme facilite l'évolutivité pour transformer les preuves de concepts en productions complètes avec facilité. La surveillance continue et l'affinement soutiennent le succès à long terme.

Nous pouvons rapidement déployer le modèle Phi-3 sur Azure AI Foundry à travers des étapes simples, puis utiliser Azure AI Foundry pour compléter les travaux liés à Phi-3 tels que Playground/Chat, Fine-tuning, évaluation et autres.

1. Préparation

Azure AI Foundry Starter

Ceci est un modèle Bicep qui déploie tout ce dont vous avez besoin pour commencer avec Azure AI Foundry. Comprend AI Hub avec les ressources dépendantes, projet AI, services AI et un point de terminaison en ligne.

Utilisation rapide

Si vous avez déjà installé le CLI Azure Developer sur votre machine, l'utilisation de ce modèle est aussi simple que d'exécuter cette commande dans un nouveau répertoire.

Commande Terminal

azd init -t azd-aistudio-starter

Ou Si vous utilisez l'extension azd VS Code, vous pouvez coller cette URL dans le terminal de commande de VS Code.

URL Terminal

azd-aistudio-starter

Création manuelle

Créez Azure AI Foundry sur Azure Portal

portal

Après avoir terminé le nommage du studio et défini la région, vous pouvez le créer

settings

Après une création réussie, vous pouvez accéder au studio que vous avez créé via ai.azure.com

page

Il peut y avoir plusieurs projets sur un AI Foundry. Créez un projet dans AI Foundry pour vous préparer.

proj

2. Déployer le modèle Phi-3 dans Azure AI Foundry

Cliquez sur l'option Explore du projet pour entrer dans le Catalogue de Modèles et sélectionnez Phi-3

model

Sélectionnez Phi-3-mini-4k-instruct

phi3

Cliquez sur 'Deploy' pour déployer le modèle Phi-3-mini-4k-instruct

Note

Vous pouvez sélectionner la puissance de calcul lors du déploiement

3. Playground Chat Phi-3 dans Azure AI Foundry

Allez sur la page de déploiement, sélectionnez Playground, et discutez avec Phi-3 d'Azure AI Foundry

chat

4. Déployer le modèle depuis Azure AI Foundry

Pour déployer un modèle depuis le Catalogue de Modèles Azure, vous pouvez suivre ces étapes :

  • Connectez-vous à Azure AI Foundry.
  • Choisissez le modèle que vous souhaitez déployer depuis le catalogue de modèles Azure AI Foundry.
  • Sur la page Détails du modèle, sélectionnez Deploy puis sélectionnez Serverless API avec Azure AI Content Safety.
  • Sélectionnez le projet dans lequel vous souhaitez déployer vos modèles. Pour utiliser l'offre Serverless API, votre workspace doit appartenir à la région East US 2 ou Sweden Central. Vous pouvez personnaliser le nom du déploiement.
  • Dans l'assistant de déploiement, sélectionnez Pricing and terms pour en savoir plus sur les prix et les conditions d'utilisation.
  • Sélectionnez Deploy. Attendez que le déploiement soit prêt et que vous soyez redirigé vers la page Déploiements.
  • Sélectionnez Open in playground pour commencer à interagir avec le modèle.
  • Vous pouvez retourner à la page Déploiements, sélectionner le déploiement, et noter l'URL cible du point de terminaison et la clé secrète, que vous pouvez utiliser pour appeler le déploiement et générer des complétions.
  • Vous pouvez toujours trouver les détails du point de terminaison, l'URL, et les clés d'accès en naviguant vers l'onglet Build et en sélectionnant Déploiements dans la section Composants.

Note

Veuillez noter que votre compte doit avoir les permissions de rôle Azure AI Developer sur le groupe de ressources pour effectuer ces étapes.

5. Utiliser l'API Phi-3 dans Azure AI Foundry

Vous pouvez accéder à https://{Votre nom de projet}.region.inference.ml.azure.com/swagger.json via Postman GET et le combiner avec Key pour en savoir plus sur les interfaces fournies

swagger

comme l'api d'accès score

score

Vous pouvez obtenir très facilement les paramètres de la requête, ainsi que les paramètres de réponse. Voici le résultat Postman

result

Avertissement: Ce document a été traduit en utilisant des services de traduction automatique basés sur l'IA. Bien que nous nous efforcions d'atteindre une précision maximale, veuillez noter que les traductions automatiques peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue d'origine doit être considéré comme la source faisant autorité. Pour des informations critiques, il est recommandé de faire appel à une traduction humaine professionnelle. Nous ne sommes pas responsables des malentendus ou des interprétations erronées résultant de l'utilisation de cette traduction.