Logo MLA NowAI

Publicado el: 10/08/2025

OpenAI rectifica: vuelve 4o, suben los límites y habrá más transparencia en ChatGPT

Tras un arranque “bacheado” de GPT-5, Sam Altman ha anunciado tres movimientos clave: (1) más límite de uso —especialmente en razonamiento— para usuarios Plus, (2) vuelta de modelos “legacy” como GPT-4o mediante un ajuste en Settings, y (3) cambios en la UI para mostrar claramente qué modelo responde y para activar el “Thinking” de forma manual. Además, OpenAI prepara un documento de trade-offs de capacidad (ChatGPT vs API, usuarios actuales vs nuevos, investigación vs producto) y admite que el enrutador automático que decide qué variante de GPT-5 usar tuvo un fallo que lo hizo parecer “más tonto” durante parte del día del lanzamiento.


Un giro de timón en tiempo real

OpenAI ha reaccionado en cuestión de horas a una oleada de feedback intensa y, en algunos casos, muy crítica, tras el despliegue de GPT-5. La compañía sube límites, recupera modelos anteriores y promete más control y visibilidad. En palabras de Altman, el objetivo inmediato es estabilizar y hacer más transparente el comportamiento del sistema, después de reconocer públicamente que el autoswitcher —el componente que decide si una consulta merece una respuesta rápida o un razonamiento profundo— falló durante parte del lanzamiento, lo que deterioró la percepción de calidad.


Lo más tangible para los usuarios Plus llega en forma de incrementos de límites de uso. Altman se comprometió a “duplicar” la capacidad en GPT-5 para Plus “mientras finaliza el despliegue”. A la vez, anunció que permitirán seguir usando GPT-4o y que observarán el uso para decidir “cuánto tiempo” mantener los modelos heredados, una señal clara de que la compañía ha escuchado el clamor por continuidad en flujos de trabajo que dependían de 4o.


Este paso atrás táctico —y a la vez paso adelante operativo— se lee como una rectificación responsable: menos fricción para los usuarios que valoraban la “personalidad” y latencia de 4o, más músculo para quienes exigen razonamiento de alto nivel, y más claridad para todos en cuanto a qué modelo está respondiendo en cada momento. Modelos antiguos vuelven a estar disponibles a través de la opción “Show legacy models” en la configuración de ChatGPT.


Qué cambia hoy si usas ChatGPT


1) Más límite de uso (especialmente en razonamiento)

  • Plus: Altman dijo que duplicarán los límites de uso de GPT-5 para Plus mientras terminan el despliegue. En paralelo, se apunta a que OpenAI ajustará dinámicamente el uso cuando se alcance el límite, activando variantes “mini” para mantener la sesión viva, y que GPT-5 Thinking aparece con cupos semanales específicos. Algunos reportes mencionan un tope de 200 mensajes/semana para el modo “Thinking” en ciertas cuentas durante el fin de semana de lanzamiento (puede variar según tramo y momento de despliegue).
  • Todos los usuarios: OpenAI ha reiterado que el despliegue es masivo y que la estabilidad irá a más conforme se normalice el tráfico. Altman señaló que el tráfico de la API se duplicó en 24 horas, un indicador de pico de adopción y de la presión de capacidad que explica parte de los límites y de la necesidad de políticas claras de trade-off.


2) Vuelve GPT-4o (opcional) mediante “Show legacy models”

Si echabas de menos 4o, puedes reactivarlo: entra en Settings → activa “Show legacy models” y te aparecerá en el selector de modelos. Este paso no desactiva GPT-5: simplemente te deja elegir. La compañía usará los datos de uso para decidir “cuánto tiempo” seguir ofreciendo modelos antiguos; dicho de otro modo, no hay garantía de permanencia indefinida, pero sí un periodo de convivencia mientras observan comportamientos reales.


3) UI más clara: qué modelo está respondiendo y botón para “Thinking”

OpenAI destaca dos cambios de interfaz: (a) una etiqueta visible indicando qué modelo está actuando en cada respuesta y (b) un control manual para forzar “Thinking” cuando lo necesites (casos con múltiples dependencias, decisiones complejas, análisis comparativos, etc.). Es un gesto que devuelve al usuario agencia frente al enrutamiento automático.


El trasfondo: router, “baches” y por qué 4o importaba tanto

El router —o “autoswitcher”— es la pieza que decide cuánta “cabeza” pone el sistema en cada consulta. Si el router se equivoca (o directamente cae), te puede contestar una variante rápida pero superficial justo cuando necesitabas la profunda… y la sensación subjetiva es la de un modelo “más tonto”. Eso fue exactamente lo que reconoció Altman: el día del lanzamiento, el autoswitcher estuvo fuera de combate durante un rato y GPT-5 pareció peor de lo que realmente es. El equipo ya ha desplegado ajustes en el “decision boundary” para atinar mejor con el modelo adecuado y evitar ese “efecto ascensor” de subir y bajar de nivel sin motivo.


Además, 4o no era sólo “otro modelo”: para un porcentaje relevante de usuarios representaba tono, calidez y latencia concretas; para muchos equipos, compatibilidad con prompts, evaluaciones y workflows ya afinados. La reacción al retirar 4o y el selector tradicional fue rápida y ruidosa. A 48 horas, OpenAI reincorpora 4o como opción opt-in y sube límites en GPT-5. Rectificar a tiempo también es buena ingeniería de producto.


Lo que viene: “trade-offs” de capacidad y más control para el usuario

Altman adelanta que, entre mañana y el martes, OpenAI compartirá su marco de decisión para asignar capacidad durante los próximos meses: ChatGPT vs API, usuarios actuales vs nuevos, investigación vs producto, etc. La compañía ya habla abiertamente de “capacity crunch” a corto plazo y promete ser transparente con los sacrificios que toque hacer.

También han prometido hacer visible qué variante está en juego en cada turno y dar un gatillo manual para activar “Thinking”. Para empresas y creadores de producto, esto simplifica QA (sabes lo que está ocurriendo) y reduce regresiones (puedes “fijar” comportamiento cuando el router no atina).


Implicaciones prácticas (y cómo aprovechar el momento)

Para usuarios Plus y power users

  1. Más margen de experimentación. Con límites superiores, puedes stress-testear GPT-5 en casos complejos: auditorías, cadenas de análisis, what-ifs con múltiples variables. Si necesitas razonamiento denso, activa manualmente “Thinking” cuando llegue el nuevo control.
  2. Plan B con 4o. Si tu tono preferido, tu latencia o un flujo concreto iba mejor con 4o, vuelve a activarlo y compáralo con GPT-5 en tareas reales (no sólo benchmarks). Documenta diferencias: claridad, citas, riesgos de alucinación, guardrails. Eso te dará una línea base para cuando OpenAI vuelva a ajustar la cartera de modelos.
  3. Evalúa el coste de alternar. Cambiar de modelo no es neutro: prompts, evaluaciones, tests y métricas suelen requerir ajustes. Nuestro consejo: mantén escenarios gemelos (4o y 5) durante algunas semanas, con KPIs comparables (fidelidad factual, tiempo a respuesta, % de re-ediciones).


Para equipos de producto y API

  1. Capacidad y SLOs. Si OpenAI prioriza ChatGPT en horas punta, tu API podría resentir latencia o capacidad. Diseña colas de trabajo, estrategias de retardo y degradaciones elegantes (p. ej., bajar a variante “mini” con disclaimers) para cumplir SLOs. El propio Altman habla de picos de tráfico y doble de carga en 24h, así que prepárate para elasticidad.
  2. Telemetría de modelo. Loguea qué modelo respondió cada request. Cuando llegue la etiqueta en UI y la señal equivalente en API, úsala para auditar resultados y atribuir errores a la variante correcta. Esto reduce ruido en post-mortems y mejora triage.
  3. Canal dual: 4o y 5. Si tu mercado valora consistencia (finanzas, salud, legal), ofrece un “modo estable” (4o) y un “modo avanzado” (GPT-5/Thinking) con avisos de alcance. Minimiza sorpresas y da control al usuario final.


Comunidad dividida… y por qué eso no es necesariamente malo

La recepción de GPT-5 ha sido mixta: hay quien ve un salto claro en razonamiento y factualidad, y quien echa de menos el carácter y la espontaneidad de 4o. Lo relevante aquí no es escoger “bando”, sino reconocer la diversidad de casos de uso: no existe un único modelo que optimice a la vez tono, velocidad, coste y rigor para todos. La vuelta de 4o como opción y la subida de límites en GPT-5 son, precisamente, la aceptación de esa realidad.


También hay lecciones de producto: retirar de golpe el selector de modelos y confiar todo a un router opaco generó ansiedad. Abrir visibilidad (qué modelo responde) y dar controles (forzar “Thinking”) reduce incertidumbre. Y reconocer errores (el fallo del autoswitcher) ayuda a reconstruir confianza.


Línea temporal de los hechos clave

  • 7 de agosto (jueves, PT): lanzamiento de GPT-5 con router y variantes; primeras quejas de calidad/consistencia; fallo del autoswitcher parte del día.
  • 8 de agosto (viernes): Altman admite un inicio “más bacheado de lo esperado”, promete duplicar límites para Plus, más transparencia y contemplar el retorno de 4o.
  • 8–9 de agosto: vuelve 4o como modelo “legacy” (opt-in desde Settings).
  • 9–10 de agosto: Altman y el equipo insisten en que habrá UI para etiquetar el modelo activo y botón para “Thinking”; hablan de capacity crunch y de un documento próximo de trade-offs. Se reporta doble de tráfico API en 24h.


Qué significa para pymes y equipos que dependen de ChatGPT (mi lectura desde Utilia)

  1. Estrategia de doble carril. Mantén dos planes:
  • Estabilidad: 4o para flujos probados y sensibles.
  • Desempeño: GPT-5/Thinking para problemas complejos donde el razonamiento compensa latencia y coste.
  • El propio movimiento de OpenAI de traer de vuelta 4o sugiere que convivirán perfiles de uso diferentes por un tiempo.
  1. Observabilidad primero. Si puedes ver qué modelo responde, puedes medir y mejorar. Diseña paneles que comparen calidad, latencia, re-ediciones y coste por acierto entre 4o y 5. Evita decisiones por “sensaciones” y decide con datos.
  2. Protocolos de degradación. En picos o si llegan límites, activa automáticamente un fallback (variantes “mini” o colas de reintentos) con mensajería honesta al usuario final. Lo anuncian desde OpenAI: habrá semanas con tensión de capacidad y es responsable prepararlo.
  3. Gobernanza de prompts. Documenta versiones por modelo, crea tests de regresión y usa sets de evaluación propios. Cada cambio de enrutamiento o variante puede moverte el suelo; la mejor defensa es un cinturón de métricas que te avise a tiempo.


Opinión personal

Lo que estamos viendo no es una simple polémica de features; es la tensión normal entre innovación y confianza. OpenAI ha apostado por un sistema unificado con router inteligente y razonamiento on demand. La idea tiene sentido: menos fricción para la mayoría y más potencia cuando toca. Pero si ese router falla o si el usuario no ve qué está pasando, la promesa se te vuelve en contra.


Aplaudo dos cosas: que suban límites rápido (porque el uso real es lo que te enseña) y que devuelvan 4o (porque escuchar a la comunidad siempre es buena estrategia de producto). También celebro el compromiso con transparencia (saber qué modelo responde) y el gatillo manual de “Thinking” (la agencia del usuario no se negocia).


¿Mi consejo a empresas y profesionales? No dramatizar y hacer ingeniería:

  • Define cuándo necesitas la fineza de “Thinking” y cuándo te compensa la rapidez de 4o.
  • Mide todo: calidad, latencia, coste por tarea y reproducibilidad.
  • Construye rampas de degradación.
  • Mantén dos modos de operación mientras dure el baile.


En Utilia trabajamos justo en eso: democratizar la IA con soluciones que no rompan el día a día del cliente, que crezcan con su negocio y que respeten su ritmo. La lección de OpenAI esta semana no es “no cambies”; es “cambia con responsabilidad, mostrando el camino y ofreciendo alternativas”. Ahí es donde se gana la confianza.


Ficha útil (para guardar)

  • Cómo reactivar 4o: SettingsShow legacy models → selecciona GPT-4o cuando lo necesites.
  • Qué esperar de la UI: etiqueta visible del modelo activo y botón para forzar Thinking.
  • Qué va a publicar OpenAI: una explicación de trade-offs de capacidad (ChatGPT vs API, usuarios actuales vs nuevos, investigación vs producto) para los próximos meses.
  • Contexto de carga: OpenAI reportó pico de tráfico API x2 en 24h tras el lanzamiento.