
🔍 THUDM lanza GLM-4-32B: el open-weight que planta cara a GPT-4o y DeepSeek V3
El 14 de abril de 2025 el laboratorio chino THUDM sorprendió con el lanzamiento de GLM-4-32B, un modelo de 32.000 millones de parámetros que, pese a su tamaño “compacto”, compite en rendimiento con gigantes como GPT-4o y DeepSeek V3 (671 B).

Su ficha en Hugging Face revela que fue pre-entrenado con 15 T de tokens de datos de alta calidad y afinado con técnicas de RLHF, rejection sampling y alineación de preferencias humanas.
En benchmarks como IFEval y BFCL-v3, GLM-4-32B alcanza un 87,6 % y 69,6 %, superando o igualando a GPT-4o-1120 y DeepSeek-V3-0324.
THUDM también presentó las variantes Z1 y Z1-Rumination, centradas en razonamiento profundo y escritura investigativa, que refinan aún más sus capacidades matemáticas y de resolución de problemas.

El repositorio oficial confirma licencia Apache-2.0 y soporte para despliegue local, lo que facilita integrarlo tanto en servidores propios como en edge devices GitHub.
¿Por qué es relevante?
- Eficiencia vs. tamaño
Con una décima parte de los parámetros de GPT-4o, obtiene resultados similares gracias a optimizaciones de entrenamiento y arquitectura. - Momento competitivo
OpenAI actualizó GPT-4o el 25 de abril con mejoras en memoria y STEM OpenAI Help Center, mientras que DeepSeek lanzó V3 en marzo con 37 B activos y 671 B totales, centrado en código y razonamiento PYMNTS.comRedblink.
GLM-4-32B ofrece ahora una tercera vía, totalmente abierta y sin coste por API. - Ecosistema abierto
Al estar en Hugging Face y GitHub, la comunidad puede ya probar quantizations, afinarlo para dominios específicos y montarlo en soluciones on-prem.
Cómo probarlo
- Descarga directa en Hugging Face (
THUDM/GLM-4-32B-0414
) con checkpoints en safetensors. - Ejemplo de inferencia con Transformers o vLLM disponible en el README.
- Para tareas de agente, prueba la versión Z1-Rumination que ya incluye function calling y búsqueda.
Reflexión final
El anuncio de GLM-4-32B confirma que 2025 es el año del “peso ligero super-dotado”: más allá del recuento de parámetros, la clave está en datos, alineación y tool-use. Con su licencia abierta y rendimiento de primera, GLM-4-32B promete acelerar la adopción de asistentes privados, agentes corporativos y proyectos edge donde GPT-4o o DeepSeek son inviables por coste o requisitos de hardware.
¿Lo probarás? Cuéntame en comentarios qué caso de uso te interesa y compartamos resultados.
Fuentes consultadas
- MarkTechPost – anuncio original de GLM-4 (14 abr 2025) MarkTechPost
- GitHub – Project Updates (14 abr 2025) GitHub
- Hugging Face – Model Card de GLM-4-32B-0414 Hugging Face
- Hugging Face – Evaluation Results (IFEval, BFCL-v3) Hugging Face
- OpenAI Help Center – mejoras GPT-4o (25 abr 2025) OpenAI Help Center
- PYMNTS – lanzamiento DeepSeek V3 (25 mar 2025) PYMNTS.com
- RedBlink – DeepSeek V3 especificaciones (abril 2025) Redblink