Cet exemple de bout en bout (E2E) est basé sur le guide "Fine-Tune and Integrate Custom Phi-3 Models with Prompt Flow in Azure AI Foundry" de la Microsoft Tech Community. Il introduit les processus de fine-tuning, de déploiement et d'intégration des modèles Phi-3 personnalisés avec Prompt flow dans Azure AI Foundry. Contrairement à l'exemple E2E, "Fine-Tune and Integrate Custom Phi-3 Models with Prompt Flow", qui impliquait l'exécution du code localement, ce tutoriel se concentre entièrement sur l'affinement et l'intégration de votre modèle dans Azure AI / ML Studio.
Dans cet exemple E2E, vous apprendrez comment affiner le modèle Phi-3 et l'intégrer avec Prompt flow dans Azure AI Foundry. En tirant parti d'Azure AI / ML Studio, vous établirez un flux de travail pour déployer et utiliser des modèles d'IA personnalisés. Cet exemple E2E est divisé en trois scénarios :
Scénario 1 : Configurer les ressources Azure et se préparer pour l'affinage
Scénario 2 : Affiner le modèle Phi-3 et le déployer dans Azure Machine Learning Studio
Scénario 3 : Intégrer avec Prompt flow et discuter avec votre modèle personnalisé dans Azure AI Foundry
Voici un aperçu de cet exemple E2E.
-
Scénario 1 : Configurer les ressources Azure et se préparer pour l'affinage
-
Scénario 2 : Affiner le modèle Phi-3 et le déployer dans Azure Machine Learning Studio
-
Tapez azure machine learning dans la barre de recherche en haut de la page du portail et sélectionnez Azure Machine Learning parmi les options qui apparaissent.
-
Sélectionnez + Créer dans le menu de navigation.
-
Sélectionnez Nouvel espace de travail dans le menu de navigation.
-
Effectuez les tâches suivantes :
- Sélectionnez votre Abonnement Azure.
- Sélectionnez le Groupe de ressources à utiliser (créez-en un nouveau si nécessaire).
- Entrez le Nom de l'espace de travail. Il doit être unique.
- Sélectionnez la Région que vous souhaitez utiliser.
- Sélectionnez le Compte de stockage à utiliser (créez-en un nouveau si nécessaire).
- Sélectionnez le Key vault à utiliser (créez-en un nouveau si nécessaire).
- Sélectionnez les Insights d'application à utiliser (créez-en un nouveau si nécessaire).
- Sélectionnez le Registre de conteneurs à utiliser (créez-en un nouveau si nécessaire).
-
Sélectionnez Vérifier + Créer.
-
Sélectionnez Créer.
Dans ce tutoriel, vous apprendrez comment affiner et déployer un modèle Phi-3 en utilisant des GPU. Pour l'affinage, vous utiliserez le GPU Standard_NC24ads_A100_v4, qui nécessite une demande de quota. Pour le déploiement, vous utiliserez le GPU Standard_NC6s_v3, qui nécessite également une demande de quota.
Note
Seuls les abonnements Pay-As-You-Go (le type d'abonnement standard) sont éligibles pour l'allocation de GPU ; les abonnements bénéficiaires ne sont actuellement pas pris en charge.
-
Visitez Azure ML Studio.
-
Effectuez les tâches suivantes pour demander un quota pour la Standard NCADSA100v4 Family :
-
Sélectionnez Quota dans l'onglet de gauche.
-
Sélectionnez la famille de machines virtuelles à utiliser. Par exemple, sélectionnez Standard NCADSA100v4 Family Cluster Dedicated vCPUs, qui inclut le GPU Standard_NC24ads_A100_v4.
-
Sélectionnez Demander un quota dans le menu de navigation.
-
Dans la page Demander un quota, entrez la Nouvelle limite de cœurs que vous souhaitez utiliser. Par exemple, 24.
-
Dans la page Demander un quota, sélectionnez Soumettre pour demander le quota GPU.
-
-
Effectuez les tâches suivantes pour demander un quota pour la Standard NCSv3 Family :
- Sélectionnez Quota dans l'onglet de gauche.
- Sélectionnez la famille de machines virtuelles à utiliser. Par exemple, sélectionnez Standard NCSv3 Family Cluster Dedicated vCPUs, qui inclut le GPU Standard_NC6s_v3.
- Sélectionnez Demander un quota dans le menu de navigation.
- Dans la page Demander un quota, entrez la Nouvelle limite de cœurs que vous souhaitez utiliser. Par exemple, 24.
- Dans la page Demander un quota, sélectionnez Soumettre pour demander le quota GPU.
Pour affiner et déployer vos modèles, vous devez d'abord créer une Identité Gérée Assignée par l'Utilisateur (UAI) et lui attribuer les autorisations appropriées. Cette UAI sera utilisée pour l'authentification lors du déploiement.
-
Tapez managed identities dans la barre de recherche en haut de la page du portail et sélectionnez Identités Gérées parmi les options qui apparaissent.
-
Sélectionnez + Créer.
-
Effectuez les tâches suivantes :
- Sélectionnez votre Abonnement Azure.
- Sélectionnez le Groupe de ressources à utiliser (créez-en un nouveau si nécessaire).
- Sélectionnez la Région que vous souhaitez utiliser.
- Entrez le Nom. Il doit être unique.
-
Sélectionnez Vérifier + créer.
-
Sélectionnez + Créer.
-
Accédez à la ressource d'Identité Gérée que vous avez créée.
-
Sélectionnez Attributions de rôles Azure dans l'onglet de gauche.
-
Sélectionnez +Ajouter une attribution de rôle dans le menu de navigation.
-
Dans la page Ajouter une attribution de rôle, effectuez les tâches suivantes :
- Sélectionnez le Périmètre sur Groupe de ressources.
- Sélectionnez votre Abonnement Azure.
- Sélectionnez le Groupe de ressources à utiliser.
- Sélectionnez le Rôle sur Contributeur.
-
Sélectionnez Enregistrer.
-
Tapez storage accounts dans la barre de recherche en haut de la page du portail et sélectionnez Comptes de stockage parmi les options qui apparaissent.
-
Sélectionnez le compte de stockage associé à l'espace de travail Azure Machine Learning que vous avez créé. Par exemple, finetunephistorage.
-
Effectuez les tâches suivantes pour naviguer vers la page Ajouter une attribution de rôle :
- Accédez au compte de stockage Azure que vous avez créé.
- Sélectionnez Contrôle d'accès (IAM) dans l'onglet de gauche.
- Sélectionnez + Ajouter dans le menu de navigation.
- Sélectionnez Ajouter une attribution de rôle dans le menu de navigation.
-
Dans la page Ajouter une attribution de rôle, effectuez les tâches suivantes :
- Dans la page Rôle, tapez Lecteur de Données Blob de Stockage dans la barre de recherche et sélectionnez Lecteur de Données Blob de Stockage parmi les options qui apparaissent.
- Dans la page Rôle, sélectionnez Suivant.
- Dans la page Membres, sélectionnez Attribuer l'accès à Identité gérée.
- Dans la page Membres, sélectionnez + Sélectionner des membres.
- Dans la page Sélectionner des identités gérées, sélectionnez votre Abonnement Azure.
- Dans la page Sélectionner des identités gérées, sélectionnez l'Identité gérée sur Identité gérée.
- Dans la page Sélectionner des identités gérées, sélectionnez l'Identité Gérée que vous avez créée. Par exemple, finetunephi-managedidentity.
- Dans la page Sélectionner des identités gérées, sélectionnez Sélectionner.
-
Sélectionnez Vérifier + attribuer.
-
Tapez container registries dans la barre de recherche en haut de la page du portail et sélectionnez Registres de conteneurs parmi les options qui apparaissent.
-
Sélectionnez le registre de conteneurs associé à l'espace de travail Azure Machine Learning. Par exemple, finetunephicontainerregistry.
-
Effectuez les tâches suivantes pour naviguer vers la page Ajouter une attribution de rôle :
- Sélectionnez Contrôle d'accès (IAM) dans l'onglet de gauche.
- Sélectionnez + Ajouter dans le menu de navigation.
- Sélectionnez Ajouter une attribution de rôle dans le menu de navigation.
-
Dans la page Ajouter une attribution de rôle, effectuez les tâches suivantes :
- Dans la page Rôle, tapez AcrPull dans la barre de recherche et sélectionnez AcrPull parmi les options qui apparaissent.
- Dans la page Rôle, sélectionnez Suivant.
- Dans la page Membres, sélectionnez Attribuer l'accès à Identité gérée.
- Dans la page Membres, sélectionnez + Sélectionner des membres.
- Dans la page Sélectionner des identités gérées, sélectionnez votre Abonnement Azure.
- Dans la page Sélectionner des identités gérées, sélectionnez l'Identité gérée sur Identité gérée.
- Dans la page Sélectionner des identités gérées, sélectionnez l'Identité Gérée que vous avez créée. Par exemple, finetunephi-managedidentity.
- Dans la page Sélectionner des identités gérées, sélectionnez Sélectionner.
- Sélectionnez Vérifier + attribuer.
Pour télécharger les jeux de données nécessaires à l'affinage, vous allez configurer un environnement local.
Dans cet exercice, vous allez
- Créer un dossier pour travailler à l'intérieur.
- Créer un environnement virtuel.
- Installer les paquets requis.
- Créer un fichier download_dataset.py pour télécharger le jeu de données.
-
Ouvrez une fenêtre de terminal et tapez la commande suivante pour créer un dossier nommé finetune-phi dans le chemin par défaut.
mkdir finetune-phi
-
Tapez la commande suivante dans votre terminal pour naviguer vers le dossier finetune-phi que vous avez créé.
cd finetune-phi
-
Tapez la commande suivante dans votre terminal pour créer un environnement virtuel nommé .venv.
python -m venv .venv
-
Tapez la commande suivante dans votre terminal pour activer l'environnement virtuel.
.venv\Scripts\activate.bat
Note
Si cela a fonctionné, vous devriez voir (.venv) avant l'invite de commande.
-
Tapez les commandes suivantes dans votre terminal pour installer les paquets requis.
pip install datasets==2.19.1
Note
Structure complète du dossier :
└── YourUserName
. └── finetune-phi
. └── download_dataset.py
-
Ouvrez Visual Studio Code.
-
Sélectionnez Fichier dans la barre de menu.
-
Sélectionnez Ouvrir le dossier.
-
Sélectionnez le dossier finetune-phi que vous avez créé, situé à C:\Users\yourUserName\finetune-phi.
-
Dans le volet gauche de Visual Studio Code, cliquez avec le bouton droit et sélectionnez Nouveau fichier pour créer un nouveau fichier nommé download_dataset.py.
Dans cet exercice, vous allez exécuter le fichier download_dataset.py pour télécharger les jeux de données ultrachat_200k dans votre environnement local. Vous utiliserez ensuite ces jeux de données pour affiner le modèle Phi-3 dans Azure Machine Learning.
Dans cet exercice, vous allez :
- Ajouter du code au fichier download_dataset.py pour télécharger les jeux de données.
- Exécuter le fichier download_dataset.py pour télécharger les jeux de données dans votre environnement local.
-
Ouvrez le fichier download_dataset.py dans Visual Studio Code.
-
Ajoutez le code suivant dans le fichier download_dataset.py.
import json import os from datasets import load_dataset def load_and_split_dataset(dataset_name, config_name, split_ratio): """ Load and split a dataset. """ # Load the dataset with the specified name, configuration, and split ratio dataset = load_dataset(dataset_name, config_name, split=split_ratio) print(f"Original dataset size: {len(dataset)}") # Split the dataset into train and test sets (80% train, 20% test) split_dataset = dataset.train_test_split(test_size=0.2) print(f"Train dataset size: {len(split_dataset['train'])}") print(f"Test dataset size: {len(split_dataset['test'])}") return split_dataset def save_dataset_to_jsonl(dataset, filepath): """ Save a dataset to a JSONL file. """ # Create the directory if it does not exist os.makedirs(os.path.dirname(filepath), exist_ok=True) # Open the file in write mode with open(filepath, 'w', encoding='utf-8') as f: # Iterate over each record in the dataset for record in dataset: # Dump the record as a JSON object and write it to the file json.dump(record, f) # Write a newline character to separate records f.write('\n') print(f"Dataset saved to {filepath}") def main(): """ Main function to load, split, and save the dataset. """ # Load and split the ULTRACHAT_200k dataset with a specific configuration and split ratio dataset = load_and_split_dataset("HuggingFaceH4/ultrachat_200k", 'default', 'train_sft[:1%]') # Extract the train and test datasets from the split train_dataset = dataset['train'] test_dataset = dataset['test'] # Save the train dataset to a JSONL file save_dataset_to_jsonl(train_dataset, "data/train_data.jsonl") # Save the test dataset to a separate JSONL file save_dataset_to_jsonl(test_dataset, "data/test_data.jsonl") if __name__ == "__main__": main()
-
Tapez la commande suivante dans votre terminal pour exécuter le script et télécharger le jeu de données dans votre environnement local.
python download_dataset.py
-
Vérifiez que les jeux de données ont été enregistrés avec succès dans votre répertoire local finetune-phi/data.
Note
Dans ce tutoriel, vous utilisez seulement 1% du jeu de données (split='train[:1%]'
). Cela réduit considérablement la quantité de données, accélérant ainsi les processus de téléchargement et d'affinage. Vous pouvez ajuster le pourcentage pour trouver le bon équilibre entre le temps d'entraînement et la performance du modèle. Utiliser un sous-ensemble plus petit du jeu de données réduit le temps nécessaire pour l'affinage,
-
Visitez Azure ML Studio.
-
Sélectionnez Compute dans l'onglet de gauche.
-
Sélectionnez Compute clusters dans le menu de navigation.
-
Sélectionnez + New.
-
Effectuez les tâches suivantes :
- Sélectionnez la Region que vous souhaitez utiliser.
- Sélectionnez le Virtual machine tier sur Dedicated.
- Sélectionnez le Virtual machine type sur GPU.
- Sélectionnez le filtre Virtual machine size sur Select from all options.
- Sélectionnez la Virtual machine size sur Standard_NC24ads_A100_v4.
-
Sélectionnez Next.
-
Effectuez les tâches suivantes :
- Entrez un Compute name. Il doit être unique.
- Sélectionnez le Minimum number of nodes sur 0.
- Sélectionnez le Maximum number of nodes sur 1.
- Sélectionnez les Idle seconds before scale down sur 120.
-
Sélectionnez Create.
-
Visitez Azure ML Studio.
-
Sélectionnez l'espace de travail Azure Machine Learning que vous avez créé.
-
Effectuez les tâches suivantes :
- Sélectionnez Model catalog dans l'onglet de gauche.
- Tapez phi-3-mini-4k dans la barre de recherche et sélectionnez Phi-3-mini-4k-instruct parmi les options qui apparaissent.
-
Sélectionnez Fine-tune dans le menu de navigation.
-
Effectuez les tâches suivantes :
- Sélectionnez Select task type sur Chat completion.
- Sélectionnez + Select data pour télécharger les Traning data.
- Sélectionnez le type de téléchargement des données de validation sur Provide different validation data.
- Sélectionnez + Select data pour télécharger les Validation data.
[!TIP]
Vous pouvez sélectionner Advanced settings pour personnaliser des configurations comme learning_rate et lr_scheduler_type afin d'optimiser le processus de fine-tuning selon vos besoins spécifiques.
-
Sélectionnez Finish.
-
Dans cet exercice, vous avez affiné avec succès le modèle Phi-3 en utilisant Azure Machine Learning. Veuillez noter que le processus de fine-tuning peut prendre un temps considérable. Après avoir lancé le travail de fine-tuning, vous devez attendre qu'il se termine. Vous pouvez surveiller l'état du travail de fine-tuning en naviguant vers l'onglet Jobs sur le côté gauche de votre espace de travail Azure Machine Learning. Dans la prochaine série, vous déploierez le modèle affiné et l'intégrerez avec Prompt flow.
Pour intégrer le modèle Phi-3 affiné avec Prompt flow, vous devez déployer le modèle pour le rendre accessible pour une inférence en temps réel. Ce processus implique l'enregistrement du modèle, la création d'un point de terminaison en ligne et le déploiement du modèle.
Dans cet exercice, vous allez :
- Enregistrer le modèle affiné dans l'espace de travail Azure Machine Learning.
- Créer un point de terminaison en ligne.
- Déployer le modèle Phi-3 affiné enregistré.
-
Visitez Azure ML Studio.
-
Sélectionnez l'espace de travail Azure Machine Learning que vous avez créé.
-
Sélectionnez Models dans l'onglet de gauche.
-
Sélectionnez + Register.
-
Sélectionnez From a job output.
-
Sélectionnez le travail que vous avez créé.
-
Sélectionnez Next.
-
Sélectionnez Model type sur MLflow.
-
Assurez-vous que Job output est sélectionné ; il devrait être automatiquement sélectionné.
-
Sélectionnez Next.
-
Sélectionnez Register.
-
Vous pouvez voir votre modèle enregistré en naviguant dans le menu Models depuis l'onglet de gauche.
-
Naviguez vers l'espace de travail Azure Machine Learning que vous avez créé.
-
Sélectionnez Endpoints dans l'onglet de gauche.
-
Sélectionnez Real-time endpoints dans le menu de navigation.
-
Sélectionnez Create.
-
Sélectionnez le modèle enregistré que vous avez créé.
-
Sélectionnez Select.
-
Effectuez les tâches suivantes :
- Sélectionnez Virtual machine sur Standard_NC6s_v3.
- Sélectionnez le Instance count que vous souhaitez utiliser. Par exemple, 1.
- Sélectionnez Endpoint sur New pour créer un endpoint.
- Entrez un Endpoint name. Il doit être unique.
- Entrez un Deployment name. Il doit être unique.
-
Sélectionnez Deploy.
Warning
Pour éviter des frais supplémentaires sur votre compte, assurez-vous de supprimer le endpoint créé dans l'espace de travail Azure Machine Learning.
-
Naviguez vers l'espace de travail Azure Machine Learning que vous avez créé.
-
Sélectionnez Endpoints dans l'onglet de gauche.
-
Sélectionnez le endpoint que vous avez créé.
-
Sur cette page, vous pouvez gérer les endpoints pendant le processus de déploiement.
Note
Une fois le déploiement terminé, assurez-vous que Live traffic est réglé sur 100%. Si ce n'est pas le cas, sélectionnez Update traffic pour ajuster les paramètres de trafic. Notez que vous ne pouvez pas tester le modèle si le trafic est réglé sur 0%.
Scénario 3 : Intégrer avec Prompt flow et discuter avec votre modèle personnalisé dans Azure AI Foundry
Après avoir déployé avec succès votre modèle affiné, vous pouvez maintenant l'intégrer avec Prompt Flow pour utiliser votre modèle dans des applications en temps réel, permettant une variété de tâches interactives avec votre modèle Phi-3 personnalisé.
Dans cet exercice, vous allez :
- Créer Azure AI Foundry Hub.
- Créer Azure AI Foundry Project.
- Créer Prompt flow.
- Ajouter une connexion personnalisée pour le modèle Phi-3 affiné.
- Configurer Prompt flow pour discuter avec votre modèle Phi-3 personnalisé.
Note
Vous pouvez également intégrer avec Promptflow en utilisant Azure ML Studio. Le même processus d'intégration peut être appliqué à Azure ML Studio.
Vous devez créer un Hub avant de créer le Project. Un Hub agit comme un groupe de ressources, vous permettant d'organiser et de gérer plusieurs projets au sein d'Azure AI Foundry.
-
Visitez Azure AI Foundry.
-
Sélectionnez All hubs dans l'onglet de gauche.
-
Sélectionnez + New hub dans le menu de navigation.
-
Effectuez les tâches suivantes :
- Entrez un Hub name. Il doit être unique.
- Sélectionnez votre Subscription Azure.
- Sélectionnez le Resource group à utiliser (créez-en un nouveau si nécessaire).
- Sélectionnez la Location que vous souhaitez utiliser.
- Sélectionnez le Connect Azure AI Services à utiliser (créez-en un nouveau si nécessaire).
- Sélectionnez Connect Azure AI Search sur Skip connecting.
-
Sélectionnez Next.
-
Dans le Hub que vous avez créé, sélectionnez All projects dans l'onglet de gauche.
-
Sélectionnez + New project dans le menu de navigation.
-
Entrez un Project name. Il doit être unique.
-
Sélectionnez Create a project.
Pour intégrer votre modèle Phi-3 personnalisé avec Prompt flow, vous devez enregistrer le point de terminaison et la clé du modèle dans une connexion personnalisée. Cette configuration garantit l'accès à votre modèle Phi-3 personnalisé dans Prompt flow.
-
Visitez Azure ML Studio.
-
Naviguez vers l'espace de travail Azure Machine Learning que vous avez créé.
-
Sélectionnez Endpoints dans l'onglet de gauche.
-
Sélectionnez le point de terminaison que vous avez créé.
-
Sélectionnez Consume dans le menu de navigation.
-
Visitez Azure AI Foundry.
-
Accédez au projet Azure AI Foundry que vous avez créé.
-
Dans le projet que vous avez créé, sélectionnez Paramètres dans l'onglet de gauche.
-
Sélectionnez + Nouvelle connexion.
-
Sélectionnez Clés personnalisées dans le menu de navigation.
-
Effectuez les tâches suivantes :
- Sélectionnez + Ajouter des paires clé-valeur.
- Pour le nom de la clé, entrez endpoint et collez le point de terminaison que vous avez copié depuis Azure ML Studio dans le champ de valeur.
- Sélectionnez + Ajouter des paires clé-valeur à nouveau.
- Pour le nom de la clé, entrez key et collez la clé que vous avez copiée depuis Azure ML Studio dans le champ de valeur.
- Après avoir ajouté les clés, sélectionnez est secret pour empêcher que la clé soit exposée.
-
Sélectionnez Ajouter connexion.
Vous avez ajouté une connexion personnalisée dans Azure AI Foundry. Maintenant, créons un flux de prompt en suivant les étapes suivantes. Ensuite, vous connecterez ce flux de prompt à la connexion personnalisée pour pouvoir utiliser le modèle affiné dans le flux de prompt.
-
Accédez au projet Azure AI Foundry que vous avez créé.
-
Sélectionnez Flux de prompt dans l'onglet de gauche.
-
Sélectionnez + Créer dans le menu de navigation.
-
Sélectionnez Flux de chat dans le menu de navigation.
-
Entrez Nom du dossier à utiliser.
-
Sélectionnez Créer.
Vous devez intégrer le modèle affiné Phi-3 dans un flux de prompt. Cependant, le flux de prompt existant fourni n'est pas conçu pour cet usage. Par conséquent, vous devez redessiner le flux de prompt pour permettre l'intégration du modèle personnalisé.
-
Dans le flux de prompt, effectuez les tâches suivantes pour reconstruire le flux existant :
-
Sélectionnez Mode fichier brut.
-
Supprimez tout le code existant dans le fichier flow.dag.yml.
-
Ajoutez le code suivant au fichier flow.dag.yml.
inputs: input_data: type: string default: "Who founded Microsoft?" outputs: answer: type: string reference: ${integrate_with_promptflow.output} nodes: - name: integrate_with_promptflow type: python source: type: code path: integrate_with_promptflow.py inputs: input_data: ${inputs.input_data}
-
Sélectionnez Enregistrer.
-
-
Ajoutez le code suivant au fichier integrate_with_promptflow.py pour utiliser le modèle personnalisé Phi-3 dans le flux de prompt.
import logging import requests from promptflow import tool from promptflow.connections import CustomConnection # Logging setup logging.basicConfig( format="%(asctime)s - %(levelname)s - %(name)s - %(message)s", datefmt="%Y-%m-%d %H:%M:%S", level=logging.DEBUG ) logger = logging.getLogger(__name__) def query_phi3_model(input_data: str, connection: CustomConnection) -> str: """ Send a request to the Phi-3 model endpoint with the given input data using Custom Connection. """ # "connection" is the name of the Custom Connection, "endpoint", "key" are the keys in the Custom Connection endpoint_url = connection.endpoint api_key = connection.key headers = { "Content-Type": "application/json", "Authorization": f"Bearer {api_key}" } data = { "input_data": { "input_string": [ {"role": "user", "content": input_data} ], "parameters": { "temperature": 0.7, "max_new_tokens": 128 } } } try: response = requests.post(endpoint_url, json=data, headers=headers) response.raise_for_status() # Log the full JSON response logger.debug(f"Full JSON response: {response.json()}") result = response.json()["output"] logger.info("Successfully received response from Azure ML Endpoint.") return result except requests.exceptions.RequestException as e: logger.error(f"Error querying Azure ML Endpoint: {e}") raise @tool def my_python_tool(input_data: str, connection: CustomConnection) -> str: """ Tool function to process input data and query the Phi-3 model. """ return query_phi3_model(input_data, connection)
Note
Pour plus d'informations détaillées sur l'utilisation du flux de prompt dans Azure AI Foundry, vous pouvez consulter Flux de prompt dans Azure AI Foundry.
-
Sélectionnez Entrée de chat, Sortie de chat pour activer le chat avec votre modèle.
-
Maintenant, vous êtes prêt à discuter avec votre modèle personnalisé Phi-3. Dans le prochain exercice, vous apprendrez comment démarrer le flux de prompt et l'utiliser pour discuter avec votre modèle Phi-3 affiné.
Maintenant que vous avez affiné et intégré votre modèle personnalisé Phi-3 avec le flux de prompt, vous êtes prêt à commencer à interagir avec lui. Cet exercice vous guidera à travers le processus de configuration et de lancement d'une discussion avec votre modèle en utilisant le flux de prompt. En suivant ces étapes, vous serez en mesure de tirer pleinement parti des capacités de votre modèle Phi-3 affiné pour diverses tâches et conversations.
- Discutez avec votre modèle personnalisé Phi-3 en utilisant le flux de prompt.
-
Sélectionnez Démarrer les sessions de calcul pour démarrer le flux de prompt.
-
Sélectionnez Valider et analyser l'entrée pour renouveler les paramètres.
-
Sélectionnez la Valeur de la connexion à la connexion personnalisée que vous avez créée. Par exemple, connection.
-
Sélectionnez Chat.
-
Voici un exemple des résultats : Maintenant, vous pouvez discuter avec votre modèle personnalisé Phi-3. Il est recommandé de poser des questions basées sur les données utilisées pour l'affinage.
Avertissement: Ce document a été traduit à l'aide de services de traduction automatique basés sur l'IA. Bien que nous nous efforcions d'assurer l'exactitude, veuillez noter que les traductions automatisées peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue d'origine doit être considéré comme la source faisant autorité. Pour des informations critiques, une traduction humaine professionnelle est recommandée. Nous ne sommes pas responsables des malentendus ou des interprétations erronées résultant de l'utilisation de cette traduction.