
Apple está decidida a conquistar el terreno de la inteligencia artificial sin renunciar a uno de sus principios más inquebrantables: la privacidad del usuario. Mientras otras compañías recopilan masivamente datos personales para entrenar sus modelos de lenguaje, Apple ha optado por un enfoque radicalmente distinto que ha sido desvelado recientemente en una publicación de su blog oficial de investigación en Machine Learning.En dicha publicación, se explica cómo Apple está llevando a cabo este proceso, y la manera en que lo están haciendo es, cuanto menos, ingeniosa.
¿Cómo entrena Apple su inteligencia artificial?
El reto es complejo: mejorar funciones como la escritura inteligente, los resúmenes automáticos o la generación de Genmoji sin acceder a información sensible de los usuarios. Para lograrlo, Apple se ha apoyado en técnicas como la privacidad diferencial y el uso de datos sintéticos, un enfoque que permite estudiar patrones de uso sin necesidad de identificar a nadie de forma individual. Es decir, sí, Apple necesita datos para entrenar su IA, pero no los recoge directamente de tus correos o tus conversaciones.
El sistema funciona de una forma tan sofisticada como cuidadosa. Apple genera correos electrónicos ficticios con temas comunes, como una invitación a jugar al tenis a las 15:00, y los convierte en “embeddings”, que son representaciones numéricas del contenido que resumen aspectos como el tema, el lenguaje utilizado o la longitud. Esos embeddings se envían a un pequeño grupo de usuarios que tienen activada la opción de Análisis del dispositivo. El iPhone de cada uno de esos usuarios compara esos correos sintéticos con muestras reales que tiene almacenadas localmente, y determina cuál se parece más.
La clave está en que la selección del correo más parecido se hace en el propio dispositivo, sin que Apple vea jamás el contenido real. A partir de ahí, mediante privacidad diferencial, que es una técnica que introduce contenido aleatorio para proteger los datos personales, Apple puede saber qué correos sintéticos han sido seleccionados más veces en conjunto, lo que le permite deducir cómo se expresan habitualmente los usuarios sin haber leído ni uno solo de sus mensajes.
Apple piensa en el usuario
Esta información se utiliza después para entrenar modelos que mejoran funciones como los resúmenes de correos, la redacción automática o las respuestas inteligentes. Y todo esto sucede sin comprometer la privacidad del usuario, ya que los datos recogidos no están vinculados a un dispositivo, ni a una cuenta, ni siquiera a una dirección IP. Lo mismo ocurre con los Genmoji: Apple solo analiza patrones que hayan sido utilizados por cientos de personas y se asegura de que ninguna solicitud sea única o identificable.
Este proceso no solo demuestra hasta qué punto Apple lleva su promesa de privacidad por bandera, sino que también revela un nivel de sofisticación técnica que podría marcar el camino a seguir en el desarrollo de inteligencia artificial de manera ética.
Además, este método no se quedará ahí. Apple ya ha confirmado que extenderá estas técnicas a más herramientas de Apple Intelligence como Image Playground, Creación de Recuerdos, Herramientas de Escritura o Inteligencia Visual.
Eso sí, para que estos procesos funcionen es necesario que el usuario tenga activada la opción de compartir análisis del dispositivo. Si no te convence la idea, puedes desactivar esta función en los ajustes de privacidad. Pero si decides participar, estarás ayudando a entrenar una IA más útil y potente… sin renunciar a tu privacidad.
La entrada ¿Usa Apple tus datos para entrenar su inteligencia artificial? Este es el método que no quieren que sepas se publicó primero en La Manzana Mordida.