🔍 THUDM lanza GLM-4-32B: el open-weight que planta cara a GPT-4o y DeepSeek V3

🔍 THUDM lanza GLM-4-32B: el open-weight que planta cara a GPT-4o y DeepSeek V3

El 14 de abril de 2025 el laboratorio chino THUDM sorprendió con el lanzamiento de GLM-4-32B, un modelo de 32.000 millones de parámetros que, pese a su tamaño “compacto”, compite en rendimiento con gigantes como GPT-4o y DeepSeek V3 (671 B).

THUDM Releases GLM 4: A 32B Parameter Model Competing Head-to-Head with GPT-4o and DeepSeek-V3
THUDM Releases GLM 4: A 32B Parameter Model Competing Head-to-Head with GPT-4o and DeepSeek-V3

Su ficha en Hugging Face revela que fue pre-entrenado con 15 T de tokens de datos de alta calidad y afinado con técnicas de RLHF, rejection sampling y alineación de preferencias humanas.
En benchmarks como IFEval y BFCL-v3, GLM-4-32B alcanza un 87,6 % y 69,6 %, superando o igualando a GPT-4o-1120 y DeepSeek-V3-0324.
THUDM también presentó las variantes Z1 y Z1-Rumination, centradas en razonamiento profundo y escritura investigativa, que refinan aún más sus capacidades matemáticas y de resolución de problemas.

THUDM/GLM-4-32B-0414 · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

El repositorio oficial confirma licencia Apache-2.0 y soporte para despliegue local, lo que facilita integrarlo tanto en servidores propios como en edge devices GitHub.

¿Por qué es relevante?

  1. Eficiencia vs. tamaño
    Con una décima parte de los parámetros de GPT-4o, obtiene resultados similares gracias a optimizaciones de entrenamiento y arquitectura.
  2. Momento competitivo
    OpenAI actualizó GPT-4o el 25 de abril con mejoras en memoria y STEM OpenAI Help Center, mientras que DeepSeek lanzó V3 en marzo con 37 B activos y 671 B totales, centrado en código y razonamiento PYMNTS.comRedblink.
    GLM-4-32B ofrece ahora una tercera vía, totalmente abierta y sin coste por API.
  3. Ecosistema abierto
    Al estar en Hugging Face y GitHub, la comunidad puede ya probar quantizations, afinarlo para dominios específicos y montarlo en soluciones on-prem.

Cómo probarlo

  • Descarga directa en Hugging Face (THUDM/GLM-4-32B-0414) con checkpoints en safetensors.
  • Ejemplo de inferencia con Transformers o vLLM disponible en el README.
  • Para tareas de agente, prueba la versión Z1-Rumination que ya incluye function calling y búsqueda.

Reflexión final

El anuncio de GLM-4-32B confirma que 2025 es el año del “peso ligero super-dotado”: más allá del recuento de parámetros, la clave está en datos, alineación y tool-use. Con su licencia abierta y rendimiento de primera, GLM-4-32B promete acelerar la adopción de asistentes privados, agentes corporativos y proyectos edge donde GPT-4o o DeepSeek son inviables por coste o requisitos de hardware.

¿Lo probarás? Cuéntame en comentarios qué caso de uso te interesa y compartamos resultados.

Fuentes consultadas

  1. MarkTechPost – anuncio original de GLM-4 (14 abr 2025) MarkTechPost
  2. GitHub – Project Updates (14 abr 2025) GitHub
  3. Hugging Face – Model Card de GLM-4-32B-0414 Hugging Face
  4. Hugging Face – Evaluation Results (IFEval, BFCL-v3) Hugging Face
  5. OpenAI Help Center – mejoras GPT-4o (25 abr 2025) OpenAI Help Center
  6. PYMNTS – lanzamiento DeepSeek V3 (25 mar 2025) PYMNTS.com
  7. RedBlink – DeepSeek V3 especificaciones (abril 2025) Redblink
Te suscribiste correctamente a The Dave Stack
¡Excelente! A continuación, complete el proceso de pago para acceder a The Dave Stack
¡Dar una buena acogida! Has iniciado sesión correctamente.
¡Éxito! Su cuenta está completamente activada, ahora tiene acceso a todo el contenido.
¡Éxito! Su información de facturación está actualizada.
Error al actualizar la información de facturación.