Los esfuerzos de OpenAI para desarrollar su próximo gran modelo, GPT-5, están retrasados, con resultados que aún no justifican los enormes costos, según un nuevo informe en El periodico de Wall Street.
Esto resuena un informe anterior en The Information sugiriendo que OpenAI está buscando nuevas estrategias como Es posible que GPT-5 no represente un gran avance como los modelos anteriores. Pero la historia del WSJ incluye detalles adicionales sobre el desarrollo de 18 meses de GPT-5, cuyo nombre en código es Orion.
Según se informa, OpenAI ha completado al menos dos grandes ejecuciones de entrenamiento, cuyo objetivo es mejorar un modelo entrenándolo con enormes cantidades de datos. Una ejecución de entrenamiento inicial fue más lenta de lo esperado, lo que sugiere que una ejecución más grande consumiría mucho tiempo y sería costosa. Y aunque, según se informa, GPT-5 puede funcionar mejor que sus predecesores, aún no ha avanzado lo suficiente como para justificar el costo de mantener el modelo en funcionamiento.
El WSJ también informa que, en lugar de depender únicamente de datos disponibles públicamente y acuerdos de licencia, OpenAI también ha contratado personas para crear datos nuevos escribiendo código o resolviendo problemas matemáticos. También utiliza datos sintéticos creados por otro de sus modelos, o1.
OpenAI no respondió de inmediato a una solicitud de comentarios. La compañía dijo anteriormente no lanzaría un modelo con el nombre en código Orion este año.




