Esta guía te ayudará a configurar tu entorno local para ejecutar el modelo Phi-3 usando Ollama. Puedes ejecutar el modelo de varias maneras, incluyendo el uso de GitHub Codespaces, Contenedores de Desarrollo de VS Code o tu entorno local.
Puedes ejecutar esta plantilla virtualmente utilizando GitHub Codespaces. El botón abrirá una instancia de VS Code basada en la web en tu navegador:
Una opción relacionada son los Contenedores de Desarrollo de VS Code, que abrirán el proyecto en tu VS Code local utilizando la extensión de Dev Containers:
-
Inicia Docker Desktop (instálalo si no está ya instalado)
-
Abre el proyecto:
-
En la ventana de VS Code que se abre, una vez que los archivos del proyecto aparezcan (esto puede tomar varios minutos), abre una ventana de terminal.
-
Continúa con los pasos de despliegue
-
Asegúrate de tener instaladas las siguientes herramientas:
-
Pídele a Ollama que descargue y ejecute el modelo phi3:mini:
ollama run phi3:mini
Eso tomará unos minutos para descargar el modelo.
-
Una vez que veas "success" en la salida, puedes enviar un mensaje a ese modelo desde el prompt.
>>> Write a haiku about hungry hippos
-
Después de varios segundos, deberías ver una respuesta del modelo.
-
Para aprender sobre diferentes técnicas usadas con modelos de lenguaje, abre el cuaderno de Python ollama.ipynb y ejecuta cada celda. Si usaste un modelo diferente a 'phi3:mini', cambia el
MODEL_NAME
in the first cell. -
To have a conversation with the phi3:mini model from Python, open the Python file chat.py and run it. You can change the
MODEL_NAME
en la parte superior del archivo según sea necesario, y también puedes modificar el mensaje del sistema o agregar ejemplos de pocos disparos si lo deseas.**Descargo de responsabilidad**: Este documento ha sido traducido utilizando servicios de traducción automática basados en IA. Aunque nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o inexactitudes. El documento original en su idioma nativo debe considerarse la fuente autorizada. Para información crítica, se recomienda una traducción humana profesional. No somos responsables de ningún malentendido o interpretación errónea que surja del uso de esta traducción.