Hugging Face acaba de publicar swift-transformers 1.0, una versión que marca estabilidad para desarrolladores que quieren correr modelos de lenguaje y modelos multimodales en dispositivos Apple. ¿Te imaginas ejecutar un LLM directamente en un iPhone sin depender de la nube? Esto se acerca cada vez más a la realidad. (huggingface.co)
¿Qué es swift-transformers?
swift-transformers es una librería en Swift diseñada para reducir la fricción de usar modelos locales en Apple Silicon, incluyendo iPhone y Mac. No es solo un wrapper: trae componentes que faltan en Core ML o MLX para que la inferencia local sea práctica. Entre sus piezas clave están Tokenizers, un Hub para descargar y cachear modelos, y módulos para Models y Generation que facilitan ejecutar modelos convertidos a Core ML. (huggingface.co)
¿Por qué importa esto? Porque convertir y preparar modelos para correr en dispositivo tiene detalles finos: tokenización, plantillas de chat y gestión de descargas. swift-transformers se ocupa de eso para que tú puedas concentrarte en la experiencia de usuario.
Cómo lo usa la comunidad
La librería ya forma parte del ecosistema de apps y demos para Apple. Algunos proyectos que la utilizan son:
mlx-swift-examplesde Apple, que muestra cómo correr LLMs y VLMs con MLX.WhisperKit, un framework de reconocimiento de voz optimizado para Apple Silicon, que usaHubyTokenizers.FastVLMy demos como la app nativa SmolVLM2.
Estos ejemplos muestran que la adopción no es solo teórica: hay aplicaciones reales de voz, visión y texto que se benefician de la ejecución local. (huggingface.co)
Qué trae la versión 1.0
La 1.0 no es solo un número: significa API estable y limpieza para producción. Entre las novedades más relevantes están:
TokenizersyHubahora son módulos de primera clase; puedes depender solo de lo que necesitas.- Colaboración con John Mai para mejorar
swift-jinja, la librería de plantillas de chat, con grandes ganancias en velocidad. - Adopción de las Modern Core ML APIs, con soporte para modelos con estado y
MLTensor, lo que reduce código matemático personalizado. - Mejoras de tests, documentación y soporte completo para Swift 6.
Atención: v1.0 incluye cambios incompatibles. Si usas los componentes de Core ML conviene contactar al equipo y revisar la guía de migración que prepararán. (huggingface.co)
Ejemplo rápido
Aquí tienes un ejemplo condensado de cómo Tokenizers puede formatear entrada con plantilla de herramientas para un LLM:
import Tokenizers
let tokenizer = try await AutoTokenizer.from(pretrained: "mlx-community/Qwen2.5-7B-Instruct-4bit")
let weatherTool = [
"type": "function",
"function": [
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": ["type": "object", "properties": ["location": ["type": "string"]], "required": ["location"]]
]
]
let tokens = try tokenizer.applyChatTemplate(
messages: [["role": "user", "content": "What's the weather in Paris?"]],
tools: [weatherTool]
)
Este tipo de ejemplos está disponible en el README y la carpeta de Examples del repositorio. (huggingface.co)
Qué viene después
El equipo dice que quiere profundizar en la integración con MLX y en casos agenticos, lo que implica exponer recursos del sistema a flujos de trabajo locales y facilitar pre y post procesamiento para LLMs y VLMs. En palabras sencillas: esperan que la experiencia para crear apps nativas que usen IA siga haciéndose más fluida. (huggingface.co)
Si eres desarrollador iOS o estás explorando IA en dispositivo, esto reduce muchas de las fricciones técnicas de antes. Si no eres desarrollador, significa más funciones inteligentes que pueden correr sin enviar tus datos a la nube.
La versión 1.0 de swift-transformers es una señal clara: la ejecución local de IA en Apple no es ya un experimento, es una plataforma sobre la que se pueden construir productos. Si quieres probar, contribuye o seguir el progreso, revisa el repositorio y la documentación del proyecto en Hugging Face. (huggingface.co)
