Hugging Face acaba de publicar swift-transformers
1.0, una versión que marca estabilidad para desarrolladores que quieren correr modelos de lenguaje y modelos multimodales en dispositivos Apple. ¿Te imaginas ejecutar un LLM directamente en un iPhone sin depender de la nube? Esto se acerca cada vez más a la realidad. (huggingface.co)
¿Qué es swift-transformers
?
swift-transformers
es una librería en Swift diseñada para reducir la fricción de usar modelos locales en Apple Silicon, incluyendo iPhone y Mac. No es solo un wrapper: trae componentes que faltan en Core ML o MLX para que la inferencia local sea práctica. Entre sus piezas clave están Tokenizers
, un Hub
para descargar y cachear modelos, y módulos para Models
y Generation
que facilitan ejecutar modelos convertidos a Core ML. (huggingface.co)
¿Por qué importa esto? Porque convertir y preparar modelos para correr en dispositivo tiene detalles finos: tokenización, plantillas de chat y gestión de descargas. swift-transformers
se ocupa de eso para que tú puedas concentrarte en la experiencia de usuario.
Cómo lo usa la comunidad
La librería ya forma parte del ecosistema de apps y demos para Apple. Algunos proyectos que la utilizan son:
mlx-swift-examples
de Apple, que muestra cómo correr LLMs y VLMs con MLX.WhisperKit
, un framework de reconocimiento de voz optimizado para Apple Silicon, que usaHub
yTokenizers
.FastVLM
y demos como la app nativa SmolVLM2.
Estos ejemplos muestran que la adopción no es solo teórica: hay aplicaciones reales de voz, visión y texto que se benefician de la ejecución local. (huggingface.co)
Qué trae la versión 1.0
La 1.0 no es solo un número: significa API estable y limpieza para producción. Entre las novedades más relevantes están:
Tokenizers
yHub
ahora son módulos de primera clase; puedes depender solo de lo que necesitas.- Colaboración con John Mai para mejorar
swift-jinja
, la librería de plantillas de chat, con grandes ganancias en velocidad. - Adopción de las Modern Core ML APIs, con soporte para modelos con estado y
MLTensor
, lo que reduce código matemático personalizado. - Mejoras de tests, documentación y soporte completo para Swift 6.
Atención: v1.0 incluye cambios incompatibles. Si usas los componentes de Core ML conviene contactar al equipo y revisar la guía de migración que prepararán. (huggingface.co)
Ejemplo rápido
Aquí tienes un ejemplo condensado de cómo Tokenizers
puede formatear entrada con plantilla de herramientas para un LLM:
import Tokenizers
let tokenizer = try await AutoTokenizer.from(pretrained: "mlx-community/Qwen2.5-7B-Instruct-4bit")
let weatherTool = [
"type": "function",
"function": [
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": ["type": "object", "properties": ["location": ["type": "string"]], "required": ["location"]]
]
]
let tokens = try tokenizer.applyChatTemplate(
messages: [["role": "user", "content": "What's the weather in Paris?"]],
tools: [weatherTool]
)
Este tipo de ejemplos está disponible en el README y la carpeta de Examples del repositorio. (huggingface.co)
Qué viene después
El equipo dice que quiere profundizar en la integración con MLX y en casos agenticos, lo que implica exponer recursos del sistema a flujos de trabajo locales y facilitar pre y post procesamiento para LLMs y VLMs. En palabras sencillas: esperan que la experiencia para crear apps nativas que usen IA siga haciéndose más fluida. (huggingface.co)
Si eres desarrollador iOS o estás explorando IA en dispositivo, esto reduce muchas de las fricciones técnicas de antes. Si no eres desarrollador, significa más funciones inteligentes que pueden correr sin enviar tus datos a la nube.
La versión 1.0 de swift-transformers
es una señal clara: la ejecución local de IA en Apple no es ya un experimento, es una plataforma sobre la que se pueden construir productos. Si quieres probar, contribuye o seguir el progreso, revisa el repositorio y la documentación del proyecto en Hugging Face. (huggingface.co)