Phi es una serie de modelos de inteligencia artificial de código abierto desarrollados por Microsoft.
Phi es actualmente el modelo de lenguaje pequeño (SLM) más potente y rentable, con muy buenos resultados en múltiples idiomas, razonamiento, generación de texto/chat, codificación, imágenes, audio y otros escenarios.
Puedes desplegar Phi en la nube o en dispositivos perimetrales, y puedes construir fácilmente aplicaciones de IA generativa con potencia computacional limitada.
Sigue estos pasos para empezar a usar estos recursos:
- Haz un fork del repositorio: Haz clic en
- Clona el repositorio:
git clone https://github.com/microsoft/PhiCookBook.git - Únete a la comunidad de Discord de Microsoft AI y conoce a expertos y otros desarrolladores
Árabe | Bengalí | Búlgaro | Birmano (Myanmar) | Chino (Simplificado) | Chino (Tradicional, Hong Kong) | Chino (Tradicional, Macao) | Chino (Tradicional, Taiwán) | Croata | Checo | Danés | Holandés | Estonio | Finlandés | Francés | Alemán | Griego | Hebreo | Hindi | Húngaro | Indonesio | Italiano | Japonés | Kannada | Jemer | Coreano | Lituano | Malayo | Malayalam | Marathi | Nepalí | Pidgin Nigeriano | Noruego | Persa (Farsi) | Polaco | Portugués (Brasil) | Portugués (Portugal) | Punjabi (Gurmukhi) | Rumano | Ruso | Serbio (Cirílico) | Eslovaco | Esloveno | Español | Swahili | Sueco | Tagalo (Filipino) | Tamil | Telugu | Tailandés | Turco | Ucraniano | Urdu | Vietnamita
¿Prefieres clonar localmente?
Este repositorio incluye más de 50 traducciones a distintos idiomas, lo que incrementa significativamente el tamaño de descarga. Para clonar sin las traducciones, usa sparse checkout:
Bash / macOS / Linux:
git clone --filter=blob:none --sparse https://github.com/microsoft/PhiCookBook.git cd PhiCookBook git sparse-checkout set --no-cone '/*' '!translations' '!translated_images'CMD (Windows):
git clone --filter=blob:none --sparse https://github.com/microsoft/PhiCookBook.git cd PhiCookBook git sparse-checkout set --no-cone "/*" "!translations" "!translated_images"Esto te proporciona todo lo necesario para completar el curso con una descarga mucho más rápida.
-
Introducción
-
Inferencia Phi en diferentes entornos
-
Familia de inferencia Phi
- Inferencia Phi en iOS
- Inferencia Phi en Android
- Inferencia Phi en Jetson
- Inferencia Phi en AI PC
- Inferencia Phi con Apple MLX Framework
- Inferencia Phi en servidor local
- Inferencia Phi en servidor remoto usando AI Toolkit
- Inferencia Phi con Rust
- Inferencia Phi—Visión en local
- Inferencia Phi con Kaito AKS, contenedores Azure (soporte oficial)
-
Evaluación Phi
-
RAG con Azure AI Search
-
Ejemplos de desarrollo de aplicaciones Phi
-
Aplicaciones de texto y chat
- Phi-4 Ejemplos
- Phi-3 / 3.5 Ejemplos
- Chatbot local en el navegador usando Phi3, ONNX Runtime Web y WebGPU
- Chat OpenVino
- Modelo múltiple - Phi-3-mini interactivo y OpenAI Whisper
- MLFlow - Construyendo un envoltorio y usando Phi-3 con MLFlow
- Optimización de modelos - Cómo optimizar el modelo Phi-3-min para ONNX Runtime Web con Olive
- Aplicación WinUI3 con Phi-3 mini-4k-instruct-onnx
- Aplicación de notas con múltiples modelos impulsada por IA con WinUI3 - Ejemplo
- Ajuste fino e integración de modelos Phi-3 personalizados con Prompt flow
- Ajuste fino e integración de modelos Phi-3 personalizados con Prompt flow en Microsoft Foundry
- Evaluar el modelo Phi-3 / Phi-3.5 afinado en Microsoft Foundry centrado en los principios de IA responsable de Microsoft
- [📓] Ejemplo de predicción de idioma Phi-3.5-mini-instruct (Chino/Inglés)
- Chatbot RAG Phi-3.5-Instruct WebGPU
- Uso de GPU de Windows para crear una solución Prompt flow con Phi-3.5-Instruct ONNX
- Uso de Microsoft Phi-3.5 tflite para crear una aplicación Android
- Ejemplo Q&A .NET usando modelo local ONNX Phi-3 con Microsoft.ML.OnnxRuntime
- Aplicación de chat de consola .NET con Semantic Kernel y Phi-3
-
Ejemplos basados en código del SDK Azure AI Inference
-
Ejemplos de razonamiento avanzado
-
Demostraciones
-
Ejemplos de Visión
- Ejemplos Phi-4
- Ejemplos Phi-3 / 3.5
- [📓]Phi-3-visión Imagen texto a texto
- Phi-3-visión ONNX
- [📓]Phi-3-visión CLIP Embedding
- DEMO: Reciclaje Phi-3
- Phi-3-visión - Asistente de lenguaje visual - con Phi3-Vision y OpenVINO
- Phi-3 Visión Nvidia NIM
- Phi-3 Visión OpenVino
- [📓]Ejemplo Phi-3.5 Visión multi-frame o multi-imagen
- Modelo local Phi-3 Visión ONNX usando Microsoft.ML.OnnxRuntime .NET
- Modelo local basado en menú Phi-3 Visión ONNX usando Microsoft.ML.OnnxRuntime .NET
-
Ejemplos Razonamiento-Visión
-
Ejemplos de matemáticas
- Ejemplos Phi-4-Mini-Flash-Reasoning-Instruct Demo de matemáticas con Phi-4-Mini-Flash-Reasoning-Instruct
-
Ejemplos de audio
-
Ejemplos MOE
-
Ejemplos de llamadas a funciones
-
Ejemplos de mezcla multimodal
-
-
Ajuste fino de ejemplos Phi
- Escenarios de ajuste fino
- Ajuste fino vs RAG
- Permitir que Phi-3 se convierta en un experto industrial
- Ajuste fino de Phi-3 con AI Toolkit para VS Code
- Ajuste fino de Phi-3 con Azure Machine Learning Service
- Ajuste fino de Phi-3 con Lora
- Ajuste fino de Phi-3 con QLora
- Ajuste fino de Phi-3 con Microsoft Foundry
- Ajuste fino de Phi-3 con Azure ML CLI/SDK
- Ajuste fino con Microsoft Olive
- Laboratorio práctico de ajuste fino con Microsoft Olive
- Ajuste fino de Phi-3-vision con Weights and Bias
- Ajuste fino de Phi-3 con Apple MLX Framework
- Ajuste fino de Phi-3-vision (soporte oficial)
- Ajuste fino de Phi-3 con Kaito AKS, Azure Containers (soporte oficial)
- Ajuste fino de Phi-3 y 3.5 Vision
-
Laboratorio práctico
-
Artículos de investigación académica y publicaciones
- Textbooks Are All You Need II: informe técnico phi-1.5
- Informe técnico Phi-3: un modelo de lenguaje altamente capaz localmente en tu teléfono
- Informe técnico Phi-4
- Informe técnico Phi-4-Mini: modelos de lenguaje multimodales compactos pero potentes mediante mezcla de LoRAs
- Optimizando modelos pequeños de lenguaje para llamadas de función en vehículos
- (WhyPHI) Ajuste fino de PHI-3 para preguntas de opción múltiple: metodología, resultados y desafíos
- Informe técnico Phi-4 razonamiento
- Informe técnico Phi-4-mini razonamiento
Puedes aprender cómo usar Microsoft Phi y cómo construir soluciones de principio a fin en tus diferentes dispositivos de hardware. Para experimentar Phi por ti mismo, comienza jugando con los modelos y personalizando Phi para tus escenarios utilizando el Catálogo de modelos Azure AI de Microsoft Foundry. Puedes aprender más en Comenzando con Microsoft Foundry
Playground
Cada modelo tiene un playground dedicado para probar el modelo Azure AI Playground.
Puedes aprender cómo usar Microsoft Phi y cómo construir soluciones de principio a fin en tus diferentes dispositivos de hardware. Para experimentar Phi por ti mismo, comienza jugando con el modelo y personalizando Phi para tus escenarios usando el Catálogo de modelos de GitHub. Puedes aprender más en Comenzando con Catálogo de modelos GitHub
Playground
Cada modelo tiene un playground dedicado para probar el modelo.
También puedes encontrar el modelo en Hugging Face
Playground
Playground de Hugging Chat
¡Nuestro equipo produce otros cursos! Explora:
Microsoft está comprometido en ayudar a nuestros clientes a usar nuestros productos de IA de manera responsable, compartiendo nuestros aprendizajes y construyendo asociaciones basadas en la confianza a través de herramientas como Notas de Transparencia y Evaluaciones de Impacto. Muchos de estos recursos se pueden encontrar en https://aka.ms/RAI.
El enfoque de Microsoft para la IA responsable se basa en nuestros principios de IA de equidad, confiabilidad y seguridad, privacidad y seguridad, inclusividad, transparencia y responsabilidad.
Los modelos de lenguaje, imagen y voz a gran escala, como los usados en este ejemplo, pueden comportarse de maneras que no son justas, confiables o que resultan ofensivas, causando daños. Por favor, consulta la Nota de Transparencia del servicio Azure OpenAI para estar informado sobre riesgos y limitaciones. El enfoque recomendado para mitigar estos riesgos es incluir un sistema de seguridad en su arquitectura que pueda detectar y prevenir comportamientos dañinos. Azure AI Content Safety proporciona una capa independiente de protección, capaz de detectar contenido dañino generado por usuarios y por IA en aplicaciones y servicios. Azure AI Content Safety incluye API de texto e imagen que permiten detectar material que es perjudicial. Dentro de Microsoft Foundry, el servicio Content Safety le permite ver, explorar y probar código de ejemplo para detectar contenido dañino en diferentes modalidades. La siguiente documentación de inicio rápido le guía para realizar solicitudes al servicio.
Otro aspecto a tener en cuenta es el rendimiento general de la aplicación. Con aplicaciones multimodales y multimodelos, consideramos que el rendimiento significa que el sistema funciona como usted y sus usuarios esperan, incluido no generar resultados dañinos. Es importante evaluar el rendimiento de su aplicación en general utilizando evaluadores de Rendimiento y Calidad y de Riesgo y Seguridad. También tiene la capacidad de crear y evaluar con evaluadores personalizados.
Puede evaluar su aplicación de IA en su entorno de desarrollo utilizando el Azure AI Evaluation SDK. Dado un conjunto de datos de prueba o un objetivo, las generaciones de su aplicación de IA generativa se miden cuantitativamente con evaluadores incorporados o evaluadores personalizados de su elección. Para comenzar con el azure ai evaluation sdk y evaluar su sistema, puede seguir la guía de inicio rápido. Una vez que ejecute una evaluación, puede visualizar los resultados en Microsoft Foundry.
Este proyecto puede contener marcas registradas o logotipos de proyectos, productos o servicios. El uso autorizado de las marcas o logotipos de Microsoft está sujeto a y debe seguir las Directrices de marcas registradas y marca de Microsoft. El uso de marcas o logotipos de Microsoft en versiones modificadas de este proyecto no debe causar confusión ni implicar patrocinio de Microsoft. Cualquier uso de marcas o logotipos de terceros está sujeto a las políticas de esos terceros.
Si se queda atascado o tiene alguna pregunta sobre la creación de aplicaciones de IA, únase a:
Si tiene comentarios sobre el producto o errores durante la creación, visite:
Aviso legal:
Este documento ha sido traducido utilizando el servicio de traducción automática Co-op Translator. Aunque nos esforzamos por la precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o inexactitudes. El documento original en su idioma nativo debe considerarse la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de ningún malentendido o interpretación errónea que surja del uso de esta traducción.
