Skip to content

Latest commit

 

History

History
62 lines (36 loc) · 3.6 KB

EnvironmentSetup.md

File metadata and controls

62 lines (36 loc) · 3.6 KB

Comienza con Phi-3 localmente

Esta guía te ayudará a configurar tu entorno local para ejecutar el modelo Phi-3 usando Ollama. Puedes ejecutar el modelo de varias maneras, incluyendo el uso de GitHub Codespaces, Contenedores de Desarrollo de VS Code o tu entorno local.

Configuración del entorno

GitHub Codespaces

Puedes ejecutar esta plantilla virtualmente utilizando GitHub Codespaces. El botón abrirá una instancia de VS Code basada en la web en tu navegador:

  1. Abre la plantilla (esto puede tomar varios minutos):

    Open in GitHub Codespaces

  2. Abre una ventana de terminal

Contenedores de Desarrollo de VS Code

⚠️ Esta opción solo funcionará si tu Docker Desktop tiene asignados al menos 16 GB de RAM. Si tienes menos de 16 GB de RAM, puedes intentar la opción de GitHub Codespaces o configurarlo localmente.

Una opción relacionada son los Contenedores de Desarrollo de VS Code, que abrirán el proyecto en tu VS Code local utilizando la extensión de Dev Containers:

  1. Inicia Docker Desktop (instálalo si no está ya instalado)

  2. Abre el proyecto:

    Open in Dev Containers

  3. En la ventana de VS Code que se abre, una vez que los archivos del proyecto aparezcan (esto puede tomar varios minutos), abre una ventana de terminal.

  4. Continúa con los pasos de despliegue

Entorno Local

  1. Asegúrate de tener instaladas las siguientes herramientas:

Probar el modelo

  1. Pídele a Ollama que descargue y ejecute el modelo phi3:mini:

    ollama run phi3:mini

    Eso tomará unos minutos para descargar el modelo.

  2. Una vez que veas "success" en la salida, puedes enviar un mensaje a ese modelo desde el prompt.

    >>> Write a haiku about hungry hippos
  3. Después de varios segundos, deberías ver una respuesta del modelo.

  4. Para aprender sobre diferentes técnicas usadas con modelos de lenguaje, abre el cuaderno de Python ollama.ipynb y ejecuta cada celda. Si usaste un modelo diferente a 'phi3:mini', cambia el MODEL_NAME in the first cell.

  5. To have a conversation with the phi3:mini model from Python, open the Python file chat.py and run it. You can change the MODEL_NAME en la parte superior del archivo según sea necesario, y también puedes modificar el mensaje del sistema o agregar ejemplos de pocos disparos si lo deseas.

     **Descargo de responsabilidad**: 
     Este documento ha sido traducido utilizando servicios de traducción automática basados en IA. Aunque nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o inexactitudes. El documento original en su idioma nativo debe considerarse la fuente autorizada. Para información crítica, se recomienda una traducción humana profesional. No somos responsables de ningún malentendido o interpretación errónea que surja del uso de esta traducción.