Snowflake presentó su nuevo modelo de lenguaje de gran tamaño (LLM), Arctic, que es igual o más efectivo que el último modelo de Meta, Llama 3, en tareas empresariales.
Entre estas últimas actividades se puede mencionar la instrucción de SQL y generación de código, además de tener un coste de formación bajo.
La compañía de almacenamiento de datos en la nube recordó que habitualmente, crear herramientas con Inteligencia Artificial (IA) usando LLM para empresas “es costoso y requiere muchos recursos”.
UN SISTEMA QUE REDUCE EL COSTE DE CAPACITACIÓN
En base a ello, han trabajado en un sistema que reduzca significativamente el coste de la capacitación y la inferencia de los LLM, y para que sea una tecnología más accesible y rentable.
En este marco, los miembros del equipo de Snowflake AI Research presentaron Arctic, un LLM “de primer nivel” enfocado a su uso en empresas.
Es “eficientemente inteligente y verdaderamente abierto”, ya que, por un lado, sobresale en tareas como la generación, codificación e instrucción de SQL; y por otro, utiliza la licencia Apache 2.0.
ARCTIC TIENE MEJORES CAPACIDADES QUE LOS MODELOS DE META
Según indicó la compañía en su blog, las capacidades de Arctic están “a la par o mejor” que los modelos de IA recientemente presentados de Meta, Llama 3 8B y Llama 2 70B.
Puntualmente, ofrece ventajas en lo relacionado a las métricas empresariales de capacitación e inferencia, utilizando menos de la mitad del presupuesto de computación.
Concretamente, según se apuntó, se utiliza un presupuesto de computación 17 veces menor que Llama 3 70B.
No obstante, eso no le impide alcanzar el mismo nivel de resultados en instrucción de SQL (puntuación de 79,0 de Arctic, frente a 80,2 de Llama 3 70B).
Tampoco le prohíbe alcanzar un seguimiento de instrucciones con una puntuación de 57,4 de Arctic, que supera a la puntuación de 43,6 que consigue el modelo de Meta.
ALTA EFICIENCIA DE ENTRENAMIENTO
Asimismo, Snowflake ha asegurado que, aunque utiliza menos presupuesto, lo hace “sin dejar de ser competitivo en cuanto a rendimiento general”.
Siguiendo esta línea, la tecnológica destacó que la “alta eficiencia de entrenamiento” de Arctic también permite entrenar modelos personalizados más asequiblemente.
En este sentido, para lograr esta eficiencia en la capacitación, la compañía ha explicado que utiliza una arquitectura de transformador híbrido de Mezcla de Expertos (MoE) denso.
UN TRANSFORMADOR DE 10B Y UN MLP MOE RESIDUAL DE 128 X 3,66B
Así, combina un modelo de transformador denso de 10B, con un MLP MoE residual de 128 x 3,66B.
Esto, según ha dicho, da como resultado un total de 480B y 17B de parámetros activos “elegidos mediante una puerta de 2 niveles”.
Es decir, el modelo escoge y activa 17.000 millones de parámetros de entre sus 480.000 millones de parámetros a la vez, lo que asegura más eficiencia.
UN LLM VERDADERAMENTE ABIERTO
Además de todo ello, se trata de un LLM “verdaderamente abierto” debido a que Snowflake publica los pesos de Arctic a través de la licencia Apache 2.0.
Dicha acción permite compartir detalles sobre la investigación de la IA y la metodología de entrenamiento del modelo.
Asimismo, permite utilizar Arctic tanto para fines comerciales como para investigación.
LAS PLATAFORMAS DONDE ESTARÁ DISPONIBLE
Con todo ello, Snowflake ha señalado que el LLM Arctic está disponible en las plataformas Hugging Face, Replicate y el catálogo de API de Nvidia.
Además, estará disponible en Amazon AWS, Microsoft Azure, Lamini o Perplexity “en los próximos días”.
Fuente: EP.