Tras lanzar GPT-4 hace unos meses, OpenAI anuncia ahora una versión mejorada a la que bautizan como GPT-4 Turbo. Entre otras cosas, el nuevo Turbo añade conocimientos más actuales con fecha de abril de este año, pero hay más novedades.
GPT-4 Turbo con conocimientos más recientes y admitiendo más tokens
Una de las grandes quejas surgidas en torno a GPT-4 radicaba en la longitud del contexto que era capaz de abarcar, con 32K y en que sus conocimientos se seguían quedando a finales de 2021. Pues bien, son estos los dos principales puntos débiles que ataca GPT-4 Turbo.
Por un lado, como ya decíamos al inicio, GPT-4 tiene conocimientos, como mínimo, hasta abril de este año. Sobra decir la gran utilidad que supone esto de cara a contextualizar acontecimientos que han sucedido en el año y medio que separaba GPT-3.5 y GPT-4 de este nuevo ‘Turbo’.
Además, desde OpenAI prometen poner empeño en que «no vuelva a estar desactualizado»
Respecto a la longitud del contexto, decir que GPT-4 Turbo admite una longitud de contexto de 128K, lo cual equivale a 300 páginas de un libro estándar.
Esto hace referencia a la cantidad de palabras que podemos utilizar en un prompt sin que el modelo de lenguaje se pierda, pudiendo entender e interpretar todo a la hora de ofrecer su respuesta.
También hay buenas noticias en lo que a rebajas de precio por tokens se refiere, tal y como podemos ver ya en la web de OpenAI. Actualmente los tokens de entrada se sitúan en 0,01 dólares para cada 1.000 tokens, dejando en 0,03 dólares los 1.000 tokens de salida.
También hay mejoras para usuarios avanzados que interactúan con elementos JSON en la API de GPT-4 Turbo.
Esto hace especial referencia a lo que se conoce como llamadas de funciones, permitiendo que, por ejemplo, se puedan solicitar acciones como «abrir la ventana del coche y apagar el aire acondicionado» sin necesidad de que esto requiera diferentes tokens de entrada y salida.
Otra novedad anunciada que no podíamos pasar por alto es la relacionada con DALL-E 3, el modelo de inteligencia artificial capacitado para generar imágenes y que ya se podía usar en variantes de ChatGPT como Bing Chat.
Desde OpenAI afirman que los usuarios de ChatGPT Plus y Enterprise podrán integrarlo directamente en sus aplicaciones a través de la API.
Para finales de este mes de noviembre, OpenAI pretende también lanzar una tienda con la que distribuir chatbots personalizados.
Los han llamado ‘GPT’ y la idea es «apoyar a investigadores para crear un gran modelo personalizado y diseñado especialmente para ellos«, ayudándose así de las herramientas que posee la propia OpenAI.
Respecto a esta tienda, no se han arrojado demasiados detalles y mucho menos de precios, pero dejan caer que no será algo barato.
De hecho, afirman que «inicialmente no podrán hacer esto con muchas empresas» y de hecho es entendible si tenemos en cuenta el elevado nivel de trabajo y costes de operativa que esto supondrá.
Fuente: Xataka.
ADEMÁS EN NEA HOY:
Los mejores “prompts” o entradas de texto para aprovechar al máximo el poder de ChatGPT
ChatGPT vs. Bard: ¿Qué diferencia al chatbot de OpenAI con el de Google?