Apple trabaja para impulsar las funciones de Inteligencia Artificial (IA) de iOS 18 con un modelo de lenguaje de gran tamaño (LLM) de desarrollo propio integrado en los ‘smartphones’ iPhone.
De esta manera, se procesarán en el propio dispositivo y no necesitarán acceder a la nube, priorizando la privacidad.
La tecnológica estadounidense está desarrollando nuevas características basadas en IA de cara al lanzamiento de su próxima gran actualización de sistema operativo iOS 18.
APPLE SUMA LA IA PARA MEJORAR FUNCIONES
Así, según se pudo conocer en marzo, los de Cupertino estarían negociando con Google para sumar el motor de IA generativa que desarrolla, Gemini, en sus iPhone mediante actualizaciones de ‘software’.
Sin embargo, la compañía pretende introducir mejoras enfocadas a las funciones que se pueden aprovechar en sus dispositivos, en lugar de aquellas que trabajan con la nube.
Por tanto, su intención es que la IA sea capaz de, por ejemplo, crear imágenes o escribir ensayos basados en indicaciones sencillas desde el propio dispositivo.
UN MODELO LLM DE DESARROLLO PROPIO
Ahora, según compartió el analista de Bloomberg Mark Gurman, Apple pretende impulsar las funciones de IA de iOS 18 con un modelo LLM de desarrollo propio.
Este último es capaz de funcionar de forma integrada procesando las funciones directamente desde el dispositivo y sin necesidad de utilizar la nube.
Según se informó, al funcionar ‘offline’ las funciones de IA podrán llevarse a cabo de forma privada y segura en el iPhone, ya que la información y los datos utilizados no saldrán del dispositivo.
MAYOR VELOCIDAD EN LAS FUNCIONES
Igualmente, las funciones se podrán ejecutar con más velocidad, ya que no dependerán de otras conexiones.
En este marco, se en julio pasado que la compañía trabaja en un ‘chatbot’ al que llama Ajax, con el que espera desafiar a otras compañías dedicadas a esta tecnología, como Google y OpenAI.
En septiembre, medios como The Information recogieron que la unidad de Apple que trabaja en IA ‘Foundational Models’ continuaba trabajando en el desarrollo de herramientas conversacionales.
COMPRENSIÓN DE REFERENCIAS AMBIGUAS
Entre estas, se encuentran una dedicada a la inteligencia visual y el ‘chatbot’ Ajax, destinando para ello millones de dólares al día.
Siguiendo esta línea, recientemente se conoció que investigadores de Apple desarrollaron un modelo de lenguaje que, según detallan, tiene menos parámetros que GPT4 (desarrollado por OpenAI).
No obstante, ofrece un rendimiento similar a este en la comprensión de referencias ambiguas cuando interactúa con el usuario.
MEJORAR LA NATURALIDAD DE LA CONVERSACIÓN
Es RealLM (Resolución de referencia como modelado de lenguaje). Este mejora la naturalidad de la conversación al permitir que la IA comprenda las referencias ambiguas del lenguaje humano.
Por ejemplo, al referirse a algo como “eso” o “este”, se podrá comprender por el contexto, algo que los asistentes conversacionales de IA no pueden comprender.
Precisaron que los LLM integrados en dispositivos pueden sufrir algunas carencias, como no contar con tantos parámetros de entrenamiento como los modelos que se procesan en la nube.
DONDE PRESENTARÁ APPLE SUS NOVEDADES RESPECTO A IA
Sin embargo, Apple puede hacer uso de estas nuevas herramientas y tecnologías, en las que está trabajando actualmente, para implementar funciones de IA procesadas directamente desde los iPhone.
No obstante, expondrá sus novedades respecto a la IA y a sus modelos de lenguaje en su próxima Conferencia Mundial de Desarrolladores (WWDC) de 2024, que será del 10 al 14 de junio.
Fuente: EP.