Apple está disfrutando de su pastel de IA generativa y comiéndoselo también. Apple Intelligence, presentada hoy en la WWDC 2024, es en gran parte un producto de modelos generativos locales de diversos tamaños, pero incluso el potente chip A17 Pro no siempre es suficiente para manejar todas tus consultas sustantivas. A veces, Apple tendrá que recurrir a la nube. No a cualquier nube, sino a su propia Private Compute Cloud, donde tus datos están protegidos de maneras que, según Apple, no lo estarían en otros sistemas de IA generativa basados en la nube.
En una sesión detallada posterior al discurso de apertura de la WWDC 2024, Craig Federighi, Vicepresidente Senior de Ingeniería de Software de Apple, y John Giannandrea, Vicepresidente Senior de Estrategia de Aprendizaje Automático e IA de Apple, explicaron exactamente cómo Apple Intelligence y los sistemas que soportará, como el nuevo Siri, decidirán cuándo mantener tus consultas en el dispositivo, cuándo recurrir a la Private Compute Cloud de Apple y cómo Apple Intelligence decide qué compartir con esa nube.
“Estamos en las primeras etapas aquí”, dijo Federighi mientras explicaba el viaje de la IA, los desafíos que Apple enfrentó, cómo los resolvieron y el camino por delante.
Lo que Apple está haciendo aquí no es poca cosa, y podría decirse que Apple cavó el hoyo en el que se encuentra. Apple Intelligence es esencialmente una serie de modelos de IA generativa de diversos tamaños que ven profundamente dentro de tu iPhone para conocerte. Conocerte significa que pueden ayudarte de maneras que otros modelos de LLM y IAs generativas probablemente no puedan. Es como cómo tu pareja o tus padres pueden consolarte porque saben todo sobre ti, mientras que un extraño solo puede adivinar qué podría reconfortarte, pero es igual de probable que se equivoque. Conocerte a ti y todos los datos en tu teléfono es el superpoder y la posible debilidad de Apple Intelligence, especialmente cuando se trata de privacidad.
Federighi explicó que Apple creó una solución de dos partes para mitigar este problema y evitar desastres.
Primero, la inteligencia a bordo decide qué partes de todos tus datos son cruciales para derivar la respuesta correcta. Luego, solo envía esos datos (encriptados y anonimizados) a la Private Compute Cloud.
La segunda parte de la solución es cómo se construye la nube y cómo gestiona los datos. Esta es una nube que funciona con el eficiente Apple Silicon pero no tiene almacenamiento permanente. Los investigadores de seguridad tienen acceso al servidor pero no a tus datos para realizar auditorías de privacidad. El iPhone no enviará estos fragmentos de datos a un servidor que no haya sido verificado públicamente. Federighi lo comparó con las llaves y tokens encontrados en los servidores de criptomonedas.
“Nadie, ni Apple ni nadie más, tendría acceso a tus datos”, añadió Federighi.
Para ser claros, tus datos en el dispositivo están en el corazón de lo que Apple está haciendo con Apple Intelligence y el nuevo Siri. Es una “comprensión rica de lo que hay en tu dispositivo”, y esa base de conocimiento es una “que solo se enriquecerá con el tiempo”, dijo Giannandrea.
También obtuvimos información sobre cómo el índice semántico de Siri, que puede mirar datos de todo el teléfono, incluida la información meta en fotos y videos, se potencia cuando se combina con los modelos de Apple Intelligence. Todo esto ayuda a reunir una comprensión de a qué te refieres, dijo Federighi.
Apple ha estado trabajando en el índice semántico durante años. “Así que realmente es una historia de nosotros construyendo durante muchos, muchos años hacia una capacidad realmente poderosa en el dispositivo.”
El dúo también aclaró qué modelos estarás usando y cuándo. Resulta que los locales, a menos que solicites, por ejemplo, ChatGPT, son todos de Apple.
“Es importante reiterar que Apple Intelligence y las experiencias de las que hablamos están construidas sobre los modelos creados por Apple”, añadió Federighi.
Como es habitual, Apple entrenó estos modelos con datos. Algunos provienen de la web pública (basado en el proyecto continuo de Apple en la búsqueda web), aunque Giannandrea dijo que los editores pueden optar por no incluir sus datos. Apple también licenció datos de archivos de noticias e incluso aplicó algunos datos internos a su modelo de difusión.
El dúo también confirmó que Apple Intelligence solo funcionará en iPhones con el chip A17 Pro. Como explicación, Giannandrea dijo, “los modelos fundamentales requieren una enorme cantidad de computación.” Federighi añadió que el último motor neural A17 Pro es “el doble de potente que la generación anterior” y que tiene una arquitectura avanzada para soportar la IA de Apple. Todo lo cual probablemente no consuele a los propietarios de iPhone 15 (A16 Bionic) y iPhone 14 (Pro y estándar).
En cuanto a cómo Apple Intelligence trabajará con modelos de terceros, Federighi señaló que algunos de ellos tienen experiencia que podrías no encontrar en sus modelos, como responder a la pregunta, “¿Qué puedo hacer con estos ingredientes?” Luego, Federighi añadió algo que podría poner la plataforma de OpenAI en una luz no intencionada, “Incluso las alucinaciones son útiles; terminas con una comida extraña.”