Skip to content

Latest commit

 

History

History
110 lines (64 loc) · 6.58 KB

AzureAIStudio_QuickStart.md

File metadata and controls

110 lines (64 loc) · 6.58 KB

Uso de Phi-3 en Azure AI Foundry

Con el desarrollo de la IA Generativa, esperamos usar una plataforma unificada para gestionar diferentes LLM y SLM, integración de datos empresariales, operaciones de ajuste fino/RAG, y la evaluación de diferentes negocios empresariales después de integrar LLM y SLM, etc., para que las aplicaciones inteligentes de IA generativa se implementen mejor. Azure AI Foundry es una plataforma de aplicaciones de IA generativa a nivel empresarial.

aistudo

Con Azure AI Foundry, puedes evaluar las respuestas de grandes modelos de lenguaje (LLM) y orquestar componentes de aplicación de prompts con prompt flow para un mejor rendimiento. La plataforma facilita la escalabilidad para transformar pruebas de concepto en producción completa con facilidad. El monitoreo y la refinación continuos apoyan el éxito a largo plazo.

Podemos desplegar rápidamente el modelo Phi-3 en Azure AI Foundry a través de pasos simples, y luego usar Azure AI Foundry para completar trabajos relacionados con Phi-3 como Playground/Chat, ajuste fino, evaluación y otros trabajos relacionados.

1. Preparación

Azure AI Foundry Starter

Esta es una plantilla Bicep que despliega todo lo que necesitas para comenzar con Azure AI Foundry. Incluye AI Hub con recursos dependientes, proyecto de IA, servicios de IA y un endpoint en línea.

Uso Rápido

Si ya tienes instalado el CLI de Azure Developer en tu máquina, usar esta plantilla es tan simple como ejecutar este comando en un nuevo directorio.

Comando de Terminal

azd init -t azd-aistudio-starter

O Si usas la extensión de azd para VS Code, puedes pegar esta URL en el terminal de comandos de VS Code.

URL de Terminal

azd-aistudio-starter

Creación Manual

Crea Azure AI Foundry en Azure Portal

portal

Después de completar el nombramiento del estudio y configurar la región, puedes crearlo.

settings

Después de la creación exitosa, puedes acceder al estudio que creaste a través de ai.azure.com

page

Puede haber múltiples proyectos en un AI Foundry. Crea un proyecto en AI Foundry para prepararte.

proj

2. Desplegar el modelo Phi-3 en Azure AI Foundry

Haz clic en la opción Explorar del proyecto para entrar en el Catálogo de Modelos y selecciona Phi-3.

model

Selecciona Phi-3-mini-4k-instruct.

phi3

Haz clic en 'Deploy' para desplegar el modelo Phi-3-mini-4k-instruct.

Note

Puedes seleccionar la potencia de cómputo al desplegar.

3. Playground Chat Phi-3 en Azure AI Foundry

Ve a la página de despliegue, selecciona Playground y chatea con Phi-3 de Azure AI Foundry.

chat

4. Desplegar el Modelo desde Azure AI Foundry

Para desplegar un modelo desde el Catálogo de Modelos de Azure, puedes seguir estos pasos:

  • Inicia sesión en Azure AI Foundry.
  • Elige el modelo que deseas desplegar desde el catálogo de modelos de Azure AI Foundry.
  • En la página de Detalles del modelo, selecciona Deploy y luego selecciona Serverless API con Azure AI Content Safety.
  • Selecciona el proyecto en el que deseas desplegar tus modelos. Para usar la oferta de API sin servidor, tu espacio de trabajo debe pertenecer a la región de East US 2 o Sweden Central. Puedes personalizar el nombre del Despliegue.
  • En el asistente de despliegue, selecciona el Precio y términos para conocer el precio y los términos de uso.
  • Selecciona Deploy. Espera hasta que el despliegue esté listo y seas redirigido a la página de Despliegues.
  • Selecciona Open in playground para comenzar a interactuar con el modelo.
  • Puedes regresar a la página de Despliegues, seleccionar el despliegue y anotar la URL del objetivo del endpoint y la Clave Secreta, que puedes usar para llamar al despliegue y generar completions.
  • Siempre puedes encontrar los detalles del endpoint, URL y claves de acceso navegando a la pestaña Build y seleccionando Despliegues en la sección de Componentes.

Note

Ten en cuenta que tu cuenta debe tener permisos de rol de Desarrollador de Azure AI en el Grupo de Recursos para realizar estos pasos.

5. Usar la API de Phi-3 en Azure AI Foundry

Puedes acceder a https://{Your project name}.region.inference.ml.azure.com/swagger.json a través de Postman GET y combinarlo con Key para conocer las interfaces proporcionadas.

swagger

como acceder a la API de score.

score

Puedes obtener los parámetros de solicitud muy convenientemente, así como los parámetros de respuesta. Este es el resultado de Postman.

result

Descargo de responsabilidad: Este documento ha sido traducido utilizando servicios de traducción automática basados en IA. Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o inexactitudes. El documento original en su idioma nativo debe considerarse la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de cualquier malentendido o interpretación errónea que surja del uso de esta traducción.