www.zonamovilidad.es
Por Federica Estrella
x
Infozonamovilidades/4/4/18
viernes 13 de febrero de 2026, 16:00h

Escucha la noticia

OpenAI ha dado un paso más en su estrategia de herramientas para desarrolladores con el lanzamiento de GPT-5.3-Codex-Spark, su primer modelo orientado a la codificación en tiempo real. La compañía lo presenta como una versión optimizada para ofrecer respuestas “ultrarrápidas”, con una capacidad de generación que supera los 1.000 tokens por segundo.

La nueva propuesta llega apenas una semana después de la presentación de GPT-5.3-Codex, el modelo avanzado que, según la firma, participó incluso en su propio desarrollo. Ahora, con Codex-Spark, el objetivo es distinto: priorizar la velocidad y la interacción inmediata frente a la ejecución de procesos más pesados.

GPT-5.3-Codex-Spark está diseñado para permitir a los usuarios editar código, ajustar lógica o refinar interfaces en tiempo real, con respuestas prácticamente inmediatas. Una de sus principales características es que el desarrollador puede interrumpir el proceso, modificar la solicitud mientras el modelo trabaja y seguir recibiendo resultados al instante.

Para lograr esta latencia reducida, el sistema realiza ediciones mínimas y específicas, y no ejecuta pruebas automáticamente salvo que el usuario lo indique. Este enfoque prioriza la agilidad en la iteración, algo especialmente útil en fases de prototipado o depuración rápida.

El modelo cuenta con una ventana de contexto de 128K tokens, limitada a texto, lo que le permite manejar proyectos relativamente amplios sin perder coherencia en las instrucciones.

Según OpenAI, Codex-Spark ha demostrado un rendimiento destacado en pruebas como SWE-Bench Pro y Terminal-Bench 2.0, centradas en evaluar habilidades de ingeniería de software. En estos entornos, el modelo completa tareas en menos tiempo que GPT-5.3-Codex, gracias precisamente a su optimización para baja latencia.

Detrás de esta mejora hay un componente clave: la colaboración con Cerebras. El modelo se ejecuta sobre el motor Wafer Scale Engine 3, un acelerador de inteligencia artificial diseñado para inferencia de alta velocidad, que permite reducir la latencia y priorizar la rapidez en la entrega de resultados.

Disponibilidad

GPT-5.3-Codex-Spark se ha lanzado como vista previa de investigación para usuarios de ChatGPT Pro dentro de las versiones más recientes de la aplicación Codex. Durante esta fase, OpenAI ha advertido que el modelo tendrá límites de velocidad independientes, que podrán ajustarse en función de la demanda.

Con este movimiento, la compañía refuerza su apuesta por convertir la IA en un asistente de programación cada vez más interactivo, donde la colaboración humano-máquina se acerca a la dinámica de trabajo en directo. El foco ya no está solo en que el modelo escriba código, sino en que lo haga al ritmo del desarrollador.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios