OpenELM consta de ocho modelos con cuatro tamaños de parámetros diferentes (270M, 450M, 1,1B y 3B), todos ellos entrenados en conjuntos de datos públicos.
La familia de modelos está optimizada para su uso en dispositivos, lo que permite realizar tareas basadas en IA sin depender de servidores en la nube.
OpenELM supera ligeramente a otros modelos de código abierto comparables, como OLMo, a pesar de requerir el doble de datos de entrenamiento.
También es de código abierto CoreNet, la biblioteca utilizada para entrenar OpenELM, junto con modelos que permiten “una inferencia y un ajuste eficientes en los dispositivos Apple”.
Esta familia de modelos de lenguaje es ligera, potente y, lo creas o no, de código abierto!
Están optimizados para no depender de servidores externos.
¿Significa esto el adiós a la nube?
Puede ser.
Y ojo, que esto es solo un adelanto de lo que Apple nos podría revelar en su próximo WWDC.
Respuestas