Anthropic ha lanzado Claude 2.1, una importante actualización de su LLM diseñada para hacer frente a lo que ofrece OpenAI. Esta nueva versión ostenta la impresionante cifra de 200.000 ventanas de contexto, eclipsando las 8.000 de la GPT-4 estándar de OpenAI y las 32.000 fichas de contexto de la GPT-4 ampliada. Una ventana de contexto es crucial, ya que determina la cantidad de tokens de datos sobre los que se entrena el LLM, lo que afecta a su capacidad para analizar texto y replicar respuestas similares a las humanas.
Se espera que la gran ventana de contexto de Claude 2.1, equivalente a más de 150.000 palabras o 500 páginas, duplique la precisión del modelo Claude. En particular, también hace que la herramienta sea más eficaz para procesar documentos más extensos. La actualización aporta una mejora significativa de la honestidad y una reducción del 30% de las alucinaciones en las respuestas. Además, la capacidad de resumen del chatbot ha mejorado en precisión, por lo que es menos probable que extraiga conclusiones incorrectas de los documentos.
Los usuarios de Claude 2.1 pueden ahora cargar diferentes tipos de contenidos en su herramienta, incluidos estados financieros, documentación técnica y obras literarias. Aunque la ventana completa de 200.000 contextos es exclusiva de los usuarios con suscripción, el modelo actualizado también impulsa la interfaz de chat de Anthropic en su sitio web.
Fundada en 2021 por antiguos empleados de OpenAI, entre ellos Dario Amodei, Anthropic se centra en desarrollar LLM con mayor escala y seguridad. Los avances de la empresa en la tecnología LLM reflejan una tendencia más amplia de la industria hacia una mayor precisión. Diversas investigaciones sugieren que en los próximos 10 a 30 años podrían lograrse LLM con una precisión de hasta el 99%, lo que llevaría a la IA a sustituir determinados puestos de trabajo o equipos, trascendiendo así su papel actual como herramienta de colaboración humana.
Ilustración: Diario TI vía Midjourney