Parecía que GPT-5 iba a ser un éxito rotundo. Hasta que demasiadas personas echaron de menos la calidez de GPT-4o

Parecía que GPT-5 iba a ser un éxito rotundo. Hasta que demasiadas personas echaron de menos la calidez de GPT-4o

GPT-5 no ha caído de pie. Forbes recoge testimonios de usuarios con nombre y rostro que, según cuentan, lloraron cuando se enteraron de que GPT-4o estaba siendo retirado del selector de modelos de ChatGPT. Y amigos que vomitaron.

Qué ha ocurrido. OpenAI lanzó GPT-5 el jueves y eliminó los modelos previos, entre ellos 4o, sin opción de volver atrás. También murió otro modelo muy popular, el razonador o3. GPT-5 aplica razonamiento o no, y escoge sub-modelos específicos más o menos avanzados, en función de la consulta y de si el usuario paga mucho, poco o nada.

La respuesta fue inmediata y 24 horas después el propio Sam Altman tuvo que calmar a las masas diciendo que estaban valorando devolver 4o a los suscriptores Plus. En X y en Reddit llegaron las amenazas de cancelación de la suscripción.

Por qué es importante. Esto nos recuerda una verdad incómoda de la IA: el rendimiento técnico no lo es todo. Muchos usuarios han desarrollado vínculos emocionales con modelos específicos. Con su tono, su ritmo, su forma de «pensar».

GPT-4o tenía fama de ser cálido, conversacional, juguetón. OpenAI lo había programado con una personalidad «excesivamente aduladora», según admitieron después. Un mayordomo.
GPT-5, diseñado para ser menos «servil» y más como «un amigo útil con inteligencia de doctorado», ha resultado frío y mecánico para algunos.

Entre bambalinas. El lanzamiento tuvo más problemas. El sistema de enrutamiento automático —que decide si una respuesta necesita más tiempo para «pensar»— falló durante horas, haciendo que GPT-5 pareciera «mucho más tonto», según dijo Altman.

También están las ya famosas gráficas tramposas: durante la presentación, OpenAI usó visualizaciones de datos mal hechas, con barras más altas para valores menores.

El contraste. Algo llamativo: OpenAI presumió de mejoras en razonamiento y programación tirando de benchmarks, pero muchos usuarios lamentaban la pérdida de algo intangible: la conexión emocional. La que muchos han desarrollado con modelos concretos y por tanto les dificulta encajar su pérdida:

OpenAI hizo que GPT-4o escribiera su propio obituario durante la presentación del jueves, algo que no gustó a sus entusiastas.
Unos días antes, cientos de personas se reunieron en San Francisco para celebrar el funeral de Sonnet 3, modelo retirado por Anthropic hace unos días.

Y ahora qué. Altman ha prometido duplicar los límites de uso para usuarios Plus y mejorar la transparencia sobre qué modelo responde cada consulta. El CEO ha reconocido que «subestimaron cuánto importaban a la gente algunas cosas que les gustan de GPT-4o, aunque GPT-5 funcione mejor en la mayoría de aspectos». Admisión, pero con recadito.

La disponibilidad a largo plazo de GPT-4o dependerá del uso real que le den los usuarios. Por ahora, los suscriptores Plus tienen lo mejor de ambos mundos: GPT-5 para capacidad máxima, GPT-4o para cuando quieren una voz que les resulte más familiar y agradable.

No es el primer caso que vemos en esta línea. El lanzamiento de Llama 4 fue decepcionante y obligó a Meta a tomar medidas.
Aunque vuelva GPT-4o, no será para siempre y nadie sabe cuánto durará.

OpenAI ha aprendido una lección por las malas: una gran tecnológica difícilmente puede cambiar de la noche a la mañana algo con lo que millones de personas interactúan diariamente sin provocar una rebelión.

Sobre todo cuando desarrollan una relación personal con esa tecnología.

Imagen destacada | Xataka con Mockuuups Studio

En Xataka | Buenas noticias, ya no tienes que elegir modelo utilizando GPT-5. Malas noticias, es GPT-5 quien lo elige sin avisarte


La noticia

Parecía que GPT-5 iba a ser un éxito rotundo. Hasta que demasiadas personas echaron de menos la calidez de GPT-4o

fue publicada originalmente en

Xataka

por
Javier Lacort

.