OpenAI presenta GPT‑OSS: modelos abiertos 120B y 20B

3 minutos
OPENAI
OpenAI presenta GPT‑OSS: modelos abiertos 120B y 20B

OpenAI da un paso grande hacia la IA abierta con GPT‑OSS, una familia de modelos de razonamiento que puedes descargar, ejecutar y ajustar a tu medida. ¿La promesa? Rendimiento cercano a sus modelos comerciales, pero con pesos abiertos y licencia flexible.

Lo esencial en 30 segundos

  • Dos modelos: gpt‑oss‑120b y gpt‑oss‑20b, con pesos abiertos bajo licencia Apache 2.0.
  • En razonamiento, el 120b roza a o4‑mini y el 20b se compara con o3‑mini en varias pruebas.
  • Diseñados para uso práctico: 120b puede correr en una sola GPU de 80 GB; 20b apunta a entornos con 16 GB de memoria.
  • 128k de contexto, herramientas (búsqueda web, Python), Structured Outputs y cadena de pensamiento (CoT) disponible para investigación y depuración.
  • Compatibles con la Responses API y pensados para flujos agentic. Publicación: 5 de agosto de 2025. (openai.com)

¿Qué cambia para ti?

Si eres desarrollador independiente, ya no necesitas una granja de GPUs para prototipar agentes que llamen funciones o ejecuten código. Puedes iterar localmente, reducir latencia y controlar tu pila.

Si lideras un equipo o startup, tienes más opciones para balancear costo, rendimiento y privacidad. ¿Necesitas on‑prem por datos sensibles? Este movimiento de OpenAI abre la puerta sin renunciar a buenas métricas de razonamiento.

En empresas y sector público, la ecuación de riesgo cambia: pesos abiertos significan auditabilidad y soberanía de datos, pero también responsabilidad de aplicar salvaguardas propias.

Cómo están construidos

Ambos modelos usan arquitectura Transformer con Mixture‑of‑Experts (MoE). El 120b tiene 36 capas y activa ~5.1B de parámetros por token (con 128 expertos, top‑4 activos por token); el 20b usa 24 capas y ~3.6B activos. Atención densa y de ventana alternadas, GQA agrupada, RoPE y contexto nativo de hasta 128k. También incorporan cuantización MXFP4 para ajustar memoria y velocidad, y un nuevo tokenizador abierto: o200k_harmony. (cdn.openai.com)

Traducción práctica: más cerebro cuando hace falta, menos cómputo cuando no; y suficiente eficiencia para correr en hardware alcanzable.

Rendimiento en evaluaciones

En AIME (2024 y 2025), MMLU, HLE y GPQA, el 120b supera a o3‑mini y se acerca a o4‑mini; el 20b compite sorprendentemente bien pese a su tamaño. En HealthBench, los gpt‑oss llegan a superar incluso a modelos propietarios en ciertos casos. Como siempre, no sustituyen criterio profesional. (openai.com, cdn.openai.com)

Seguridad y uso responsable

OpenAI sometió un 120b ajustado de forma adversaria a su Preparedness Framework (bio, ciber y auto‑mejora). Resultado: no alcanza el umbral de “Alta” capacidad en esas categorías; aun así, los pesos abiertos implican riesgos distintos y requieren controles adicionales del implementador. Además, aunque la CoT está disponible para investigación y monitoreo, no se recomienda mostrar cadenas de pensamiento a usuarios finales. (openai.com, cdn.openai.com)

Cómo probarlos hoy

  1. Lee el anuncio y la model card para conocer licencias, límites y buenas prácticas.
  2. Define el “esfuerzo de razonamiento” en tu sistema (low, medium, high) según la tarea: más velocidad o más precisión.
  3. Integra con la Responses API para flujos agentic (llamadas a herramientas, ejecución de código y salidas estructuradas).
  4. Evalúa localmente con tus propios datos y métricas; si vas on‑prem, prepara salvaguardas de seguridad y monitoreo. (openai.com)

Preguntas rápidas

  • ¿Es open source? Es “open‑weights” con licencia Apache 2.0: puedes descargar, usar y ajustar, pero recuerda las políticas de uso. (openai.com)
  • ¿Corre en mi equipo? El 20b está pensado para entornos con ~16 GB de memoria; el 120b para una GPU de 80 GB. Ajusta expectativas según tu hardware y latencia. (openai.com, cdn.openai.com)
  • ¿Y el tokenizador? o200k_harmony se libera junto a los modelos para facilitar compatibilidad y eficiencia. (cdn.openai.com)

Enlace y documentación oficial

Al final, GPT‑OSS aterriza una idea sencilla pero potente: más gente experimentando con IA de alto nivel, en sus propios términos. ¿La clave? Entender el poder que te da… y la responsabilidad que viene con él.

¡Mantente al día!

Recibe guías prácticas, hechos verificados y análisis de IA directo en tu correo, sin jerga técnica ni rodeos.

Tus datos están a salvo. Darse de baja es muy fácil en cualquier momento.