Avec le développement de l'IA générative, nous espérons utiliser une plateforme unifiée pour gérer différents LLM et SLM, l'intégration des données d'entreprise, les opérations de fine-tuning/RAG, et l'évaluation de différentes entreprises après l'intégration des LLM et SLM, etc., afin que les applications intelligentes de l'IA générative soient mieux mises en œuvre. Azure AI Foundry est une plateforme d'application d'IA générative de niveau entreprise.
Avec Azure AI Foundry, vous pouvez évaluer les réponses des grands modèles de langage (LLM) et orchestrer les composants d'application de prompt avec prompt flow pour de meilleures performances. La plateforme facilite l'évolutivité pour transformer les preuves de concepts en productions complètes avec facilité. La surveillance continue et l'affinement soutiennent le succès à long terme.
Nous pouvons rapidement déployer le modèle Phi-3 sur Azure AI Foundry à travers des étapes simples, puis utiliser Azure AI Foundry pour compléter les travaux liés à Phi-3 tels que Playground/Chat, Fine-tuning, évaluation et autres.
Ceci est un modèle Bicep qui déploie tout ce dont vous avez besoin pour commencer avec Azure AI Foundry. Comprend AI Hub avec les ressources dépendantes, projet AI, services AI et un point de terminaison en ligne.
Si vous avez déjà installé le CLI Azure Developer sur votre machine, l'utilisation de ce modèle est aussi simple que d'exécuter cette commande dans un nouveau répertoire.
azd init -t azd-aistudio-starter
Ou Si vous utilisez l'extension azd VS Code, vous pouvez coller cette URL dans le terminal de commande de VS Code.
azd-aistudio-starter
Créez Azure AI Foundry sur Azure Portal
Après avoir terminé le nommage du studio et défini la région, vous pouvez le créer
Après une création réussie, vous pouvez accéder au studio que vous avez créé via ai.azure.com
Il peut y avoir plusieurs projets sur un AI Foundry. Créez un projet dans AI Foundry pour vous préparer.
Cliquez sur l'option Explore du projet pour entrer dans le Catalogue de Modèles et sélectionnez Phi-3
Sélectionnez Phi-3-mini-4k-instruct
Cliquez sur 'Deploy' pour déployer le modèle Phi-3-mini-4k-instruct
Note
Vous pouvez sélectionner la puissance de calcul lors du déploiement
Allez sur la page de déploiement, sélectionnez Playground, et discutez avec Phi-3 d'Azure AI Foundry
Pour déployer un modèle depuis le Catalogue de Modèles Azure, vous pouvez suivre ces étapes :
- Connectez-vous à Azure AI Foundry.
- Choisissez le modèle que vous souhaitez déployer depuis le catalogue de modèles Azure AI Foundry.
- Sur la page Détails du modèle, sélectionnez Deploy puis sélectionnez Serverless API avec Azure AI Content Safety.
- Sélectionnez le projet dans lequel vous souhaitez déployer vos modèles. Pour utiliser l'offre Serverless API, votre workspace doit appartenir à la région East US 2 ou Sweden Central. Vous pouvez personnaliser le nom du déploiement.
- Dans l'assistant de déploiement, sélectionnez Pricing and terms pour en savoir plus sur les prix et les conditions d'utilisation.
- Sélectionnez Deploy. Attendez que le déploiement soit prêt et que vous soyez redirigé vers la page Déploiements.
- Sélectionnez Open in playground pour commencer à interagir avec le modèle.
- Vous pouvez retourner à la page Déploiements, sélectionner le déploiement, et noter l'URL cible du point de terminaison et la clé secrète, que vous pouvez utiliser pour appeler le déploiement et générer des complétions.
- Vous pouvez toujours trouver les détails du point de terminaison, l'URL, et les clés d'accès en naviguant vers l'onglet Build et en sélectionnant Déploiements dans la section Composants.
Note
Veuillez noter que votre compte doit avoir les permissions de rôle Azure AI Developer sur le groupe de ressources pour effectuer ces étapes.
Vous pouvez accéder à https://{Votre nom de projet}.region.inference.ml.azure.com/swagger.json via Postman GET et le combiner avec Key pour en savoir plus sur les interfaces fournies
comme l'api d'accès score
Vous pouvez obtenir très facilement les paramètres de la requête, ainsi que les paramètres de réponse. Voici le résultat Postman
Avertissement: Ce document a été traduit en utilisant des services de traduction automatique basés sur l'IA. Bien que nous nous efforcions d'atteindre une précision maximale, veuillez noter que les traductions automatiques peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue d'origine doit être considéré comme la source faisant autorité. Pour des informations critiques, il est recommandé de faire appel à une traduction humaine professionnelle. Nous ne sommes pas responsables des malentendus ou des interprétations erronées résultant de l'utilisation de cette traduction.