OpenAI ha anunciado nuevas versiones de sus modelos GPT-3.5-turbo y GPT-4, introduciendo una característica denominada “llamada de función”. Esta noción permite a los desarrolladores describir funciones de programación a los modelos, y que estos generen código para llevar a cabo dichas funciones. Esto es especialmente útil para la creación de chatbots que responden preguntas utilizando herramientas externas, la conversión de lenguaje natural a consultas de base de datos, y la extracción de datos estructurados a partir de texto. Los modelos han sido afinados para detectar cuándo se necesita invocar una función para responder con JSON, que a su vez se adhiere a la firma de la función.
Además de la “llamada de función”, OpenAI está lanzando una versión de GPT-3.5-turbo con una ventana de contexto considerablemente ampliada. La ventana de contexto, medida en tokens o fragmentos de texto, se refiere al texto que el modelo considera antes de generar cualquier texto adicional. Esto ayuda a los modelos a mantener la coherencia de las conversaciones, evitando desviarse del tema. El nuevo GPT-3.5-turbo ofrece una longitud de contexto cuatro veces mayor.
OpenAI también ha reducido el precio del GPT-3.5-turbo original en un 25%, lo que significa que los desarrolladores pueden usar el modelo a un costo de aproximadamente 700 páginas por dólar. Asimismo, se ha reducido el precio de text-embedding-ada-002, uno de los modelos de incrustación de texto más populares de OpenAI, que ahora cuesta un 75% menos gracias a mejoras en la eficiencia de sus sistemas.
Estas actualizaciones se producen tras el lanzamiento de GPT-4 en marzo. OpenAI ha señalado que prefiere mejorar los modelos existentes en lugar de desarrollar nuevos modelos desde cero. En una conferencia reciente, el CEO de OpenAI, Sam Altman, reafirmó que la compañía aún no ha comenzado a formar el sucesor de GPT-4, indicando que aún queda mucho trabajo por hacer antes de dar ese paso.