Scaleway llega como proveedor de inferencia en Hugging Face

4 minutos
HUGGINGFACE
Scaleway llega como proveedor de inferencia en Hugging Face

Hugging Face anunció que Scaleway es ahora un Inference Provider soportado en el Hub, una integración que te permite ejecutar modelos abiertos y de terceros directamente desde las páginas de modelos y las SDK oficiales. La publicación oficial fue publicada el 19 de septiembre de 2025 y explica cómo esta alianza expande las opciones para hacer inferencia serverless con modelos de peso abierto y comercial. (huggingface.co)

¿Por qué importa esto para ti?

¿Tienes curiosidad por probar modelos grandes sin montar infraestructura propia? Ahora puedes elegir Scaleway como destino de inferencia desde la misma interfaz de Hugging Face o mediante las bibliotecas de cliente en Python y JavaScript. Esto simplifica mucho el flujo: empiezas en el Hub, seleccionas el proveedor y listo, sin cambiar demasiado tu código. (huggingface.co)

Además, Scaleway aporta una oferta centrada en Europa: infraestructura en datacenters ubicados en París que garantiza soberanía de datos y latencias bajas para usuarios europeos. Si tu app debe cumplir requisitos de residencia de datos o quieres reducir tiempos de respuesta, esa proximidad es relevante. (scaleway.com)

Cómo funciona en la práctica

En el Hub puedes configurar claves API propias para cada proveedor o dejar que Hugging Face rote las solicitudes por ti usando tu token de HF. Tienes dos modos:

  • Usar tu propia clave del proveedor (las llamadas van directo al proveedor y te facturan ellos).
  • Rutar por Hugging Face con tu token, en cuyo caso los cargos aparecen en tu cuenta de HF. (huggingface.co)

Desde el lado del desarrollador, Hugging Face incluye ejemplos con huggingface_hub en Python y @huggingface/inference en JS que muestran cómo seleccionar provider="scaleway" o pasar tu api_key. Con unos pocos cambios en el cliente puedes cambiar el backend sin reescribir la lógica de aplicación. (huggingface.co)

Ejemplo breve (conceptual)

client = InferenceClient(provider="scaleway", api_key=os.environ["HF_TOKEN"])

Este tipo de llamada permite que uses modelos como gpt-oss, Qwen3, DeepSeek R1 o Gemma 3 desde el Hub, y experimentar con ellos sin desplegar infraestructura localmente. (huggingface.co)

Precios, rendimiento y capacidades

Scaleway ofrece un modelo pay-per-token con precios competitivos por cada millón de tokens; por ejemplo, tarifas desde 0.20 euros por millón de tokens para ciertos modelos. También publican una capa gratuita inicial de 1,000,000 tokens para nuevos clientes. Estos números hacen que las pruebas y prototipos sean asequibles antes de escalar. (scaleway.com)

En latencia y experiencia interactiva, Scaleway anuncia tiempos por debajo de 200 ms para el primer token en sus endpoints serverless, lo que es útil para chatbots, asistentes y flujos que requieren respuesta inmediata. También soportan generación multimodal y salidas estructuradas (JSON), además de compatibilidad con técnicas como RAG (Retrieval Augmented Generation). (scaleway.com)

Facturación, créditos y límites

Si usas tu clave de Scaleway pagarás directamente a Scaleway. Si ruteas por Hugging Face, los cargos pasan por tu cuenta HF sin recargo adicional hoy. Hugging Face PRO además ofrece créditos mensuales de inferencia (por ejemplo, 2 USD en crédito de Inference para usuarios PRO) que puedes usar en proveedores soportados. Ten en cuenta que los detalles de precios y créditos pueden cambiar; revisa las páginas oficiales antes de un despliegue en producción. (huggingface.co)

Qué significa para proyectos pequeños y empresas

Para un emprendedor o un equipo pequeño esto baja la barrera de entrada: puedes experimentar con modelos de vanguardia sin contratar una GPU dedicada ni gestionar clusters. Para empresas, es una opción más dentro de la estrategia multi-cloud o de soberanía digital, especialmente si tu base de usuarios está en Europa. (scaleway.com)

Limitaciones y pasos a seguir

No es magia: sigue siendo crucial evaluar costos por token, condiciones de privacidad y el comportamiento del modelo en tu dominio. Prueba, mide latencias y compara resultados entre proveedores antes de decidir. Hugging Face pide retroalimentación de la comunidad para mejorar la experiencia y el listado de proveedores soportados seguirá creciendo. (huggingface.co)

Reflexión final

Esta integración es práctica: reduce fricción entre descubrir un modelo y ponerlo en producción, y ofrece una alternativa europea con foco en latencia y soberanía de datos. Si estás construyendo prototipos, vale la pena probar Scaleway desde el Hub y comparar resultados y costos con tus opciones actuales. ¿No es mejor experimentar primero y pagar después que diseñar infraestructura completa desde cero?

¡Mantente al día!

Recibe guías prácticas, hechos verificados y análisis de IA directo en tu correo, sin jerga técnica ni rodeos.

Tus datos están a salvo. Darse de baja es muy fácil en cualquier momento.