OpenAI lanzó dos modelos de razonamiento de peso abierto llamados gpt-oss-safeguard-120b y gpt-oss-safeguard-20b. ¿Qué los hace distintos? Están diseñados para clasificar contenido según una política proporcionada, son personalizables, generan chain-of-thought completo y funcionan bajo la licencia Apache 2.0. No son modelos pensados para sustituir la interacción directa con usuarios, sino para ser una capa de evaluación y moderación basada en reglas.
Qué son y para qué sirven
Estas variantes son post-entrenamientos de los modelos gpt-oss originales, afinadas específicamente para razonar a partir de una política dada y etiquetar contenido conforme a ella. Están listas para usarse con la Responses API y ofrecen opciones de esfuerzo de razonamiento (bajo, medio, alto) además de salidas estructuradas.
¿Y por qué eso importa? Porque te permiten automatizar decisiones de clasificación con una trazabilidad mayor: al dar completo, puedes ver el razonamiento que llevó a una etiqueta, útil para auditoría y ajuste de políticas.
