Skip to content

Latest commit

 

History

History
69 lines (45 loc) · 3.53 KB

File metadata and controls

69 lines (45 loc) · 3.53 KB

RAG avec PromptFlow et AISearch

Dans cet exemple, nous allons implémenter une application de génération augmentée par récupération (RAG) en utilisant Phi3 comme SLM, AI Search comme vectorDB et Prompt Flow comme orchestrateur low-code.

Fonctionnalités

  • Déploiement facile avec Docker.
  • Architecture évolutive pour gérer les workflows d'IA.
  • Approche low-code utilisant Prompt Flow

Prérequis

Avant de commencer, assurez-vous de répondre aux exigences suivantes :

  • Docker installé sur votre machine locale.
  • Un compte Azure avec les permissions pour créer et gérer des ressources de conteneurs.
  • Des instances Azure AI Studio et Azure AI Search
  • Un modèle d'embedding pour créer votre index (peut être soit un embedding Azure OpenAI soit un modèle OS du catalogue)
  • Python 3.8 ou version ultérieure installé sur votre machine locale.
  • Un registre de conteneurs Azure (ou tout registre de votre choix)

Installation

  1. Créez un nouveau flux sur votre projet Azure AI Studio en utilisant le fichier flow.yaml.

  2. Déployez un modèle Phi3 depuis votre catalogue de modèles Azure AI et créez la connexion à votre projet. Déployer Phi-3 comme modèle en tant que service

  3. Créez l'index vectoriel sur Azure AI Search en utilisant tout document de votre choix Créer un index vectoriel sur Azure AI Search

  4. Déployez le flux sur un point de terminaison géré et utilisez-le dans le fichier prompt-flow-frontend.py. Déployer un flux sur un point de terminaison en ligne

  5. Clonez le dépôt :

    git clone [[https://github.com/yourusername/prompt-flow-frontend.git](https://github.com/microsoft/Phi-3CookBook.git)](https://github.com/microsoft/Phi-3CookBook.git)
    
    cd code/07.Lab/RAG with PromptFlow and AISearch
  6. Construisez l'image Docker :

    docker build -t prompt-flow-frontend.py .
  7. Poussez l'image Docker vers Azure Container Registry :

    az acr login --name yourregistry
    
    docker tag prompt-flow-frontend.py:latest yourregistry.azurecr.io/prompt-flow-frontend.py:latest
    
    docker push yourregistry.azurecr.io/prompt-flow-frontend.py:latest

Utilisation

  1. Exécutez le conteneur Docker :

    docker run -p 8501:8501 yourregistry.azurecr.io/prompt-flow-frontend.py:latest
  2. Accédez à l'application dans votre navigateur à l'adresse http://localhost:8501.

Contact

Valentina Alto - Linkedin

Article complet : RAG avec Phi-3-Medium comme modèle en tant que service depuis le catalogue de modèles Azure

Avertissement : Ce document a été traduit à l'aide de services de traduction automatisée par IA. Bien que nous nous efforcions d'assurer l'exactitude, veuillez noter que les traductions automatisées peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue d'origine doit être considéré comme la source faisant autorité. Pour des informations critiques, une traduction humaine professionnelle est recommandée. Nous ne sommes pas responsables des malentendus ou des interprétations erronées résultant de l'utilisation de cette traduction.