Siri con Gemini: Apple prepara un doble salto de su asistente con apoyo de Google

Publicado el

Ilustración minimalista y surrealista de una cabeza de cristal con ondas de voz flotantes en colores pastel, representando la comunicación por voz con un asistente de inteligencia artificial como Claude. Fondo blanco, estilo futurista y abstracto para uso en artículos sobre IA conversacional.

Durante años, Siri ha sido como ese ayudante amable que entiende lo que le pides… hasta que llega el momento de ejecutar tareas un poco más complejas y se queda a medio camino. Según ha publicado TechCrunch, citando información de Bloomberg firmada por Mark Gurman, Apple planea presentar en la segunda mitad de febrero una nueva versión del asistente impulsada por los modelos Gemini de Google. La promesa: que el asistente deje de ser solo una voz que responde y pase a convertirse en una herramienta capaz de actuar sobre lo que el usuario tiene en su iPhone, incluyendo datos personales y lo que aparece en pantalla.

La clave de esta noticia no es solo la colaboración con Google, sino el momento. Se interpreta como el primer resultado visible de la estrategia de Apple Intelligence anunciada en junio de 2024, cuando Apple adelantó capacidades más proactivas y contextualizadas. La sensación, vista desde fuera, es que la compañía quiere que esa visión deje de sonar a demo de escenario y se convierta en una función cotidiana.

Lo que se anunciaría en febrero y por qué importa

El movimiento previsto para febrero apunta a un cambio muy concreto: una Siri que entienda el contexto del usuario y pueda completar tareas “de punta a punta”. En la práctica, la idea es que el asistente no se limite a abrir una app o a lanzar un comando, sino que pueda encadenar acciones con información del propio dispositivo. Imagina que Siri se comporta como un buen administrativo: mira tu calendario, entiende un correo, detecta una dirección en una conversación y, con tu permiso, prepara una acción sin que tengas que dictarle cada paso.

Ese acceso a contenido en pantalla y a información personal es el tipo de capacidad que marca la diferencia entre un asistente decorativo y uno útil. También es el tipo de capacidad que pone nervioso a cualquiera que se preocupe por la privacidad, porque para que el sistema sea realmente práctico necesita leer señales de contexto. Apple siempre ha hecho bandera de que el iPhone es “tuyo” y que los datos se quedan contigo; por eso, el cómo y el dónde se procesa la información será casi tan relevante como la función en sí.

Qué aporta Gemini al rompecabezas de Apple Intelligence

Aquí entra Gemini, la familia de modelos de IA generativa de Google. Según lo descrito en el reporte, Apple los usaría para darle a Siri la capa de “entendimiento” y “razonamiento” que hace falta para manejar peticiones ambiguas, redactar, interpretar y decidir qué pasos ejecutar. Dicho de forma sencilla: Siri ya tenía manos para tocar botones (acciones del sistema), pero le faltaba cabeza para saber qué botón tocar en situaciones reales.

Un ejemplo cotidiano lo ilustra bien. Pedir “resérvame un sitio para cenar cerca del hotel y avisa a Ana” parece una frase normal, pero es un pequeño dominó de decisiones: cuál es el hotel, a qué hora, qué significa “cerca”, qué preferencias tienes, qué app usar, cómo redactar el mensaje. Los modelos tipo Gemini brillan cuando tienen que rellenar huecos de contexto y convertir intenciones humanas en una secuencia de acciones coherente.

Si Apple consigue que esa “cabeza” funcione sin sacrificar sus estándares de privacidad, el salto para el usuario puede sentirse como pasar de un mando a distancia (órdenes sueltas) a un copiloto (tareas con contexto). Si no lo consigue, el resultado se quedará en respuestas bonitas, pero con poca capacidad práctica.

El segundo acto: una Siri más conversacional en junio

El reporte de Gurman también dibuja un plan de dos tiempos. Tras el anuncio de febrero, Apple tendría previsto presentar en junio, durante la WWDC, una actualización todavía mayor: una Siri más conversacional, con un estilo cercano al de chatbots como ChatGPT. Esto apunta a interacciones menos rígidas, en las que puedas hablar de un tema, corregir sobre la marcha, pedir matices y mantener el hilo sin repetir el contexto cada dos frases.

Hay un detalle especialmente llamativo: esta versión podría ejecutarse directamente sobre infraestructura en la nube de Google. En otras palabras, parte del cerebro de Siri viviría en servidores ajenos a Apple, algo que habría sido difícil de imaginar hace unos años dada la rivalidad histórica entre ambas empresas. Esta posibilidad abre una puerta técnica clara —más potencia, modelos más grandes, respuestas más ricas—, aunque también obliga a explicar con lupa cómo se protegen los datos personales y qué parte del procesamiento se hace en el dispositivo.

Para entenderlo con una metáfora sencilla: es como cocinar en casa frente a encargar un plato a un restaurante. En casa (en el iPhone) controlas ingredientes y cocina, pero estás limitado por el tamaño de tu cocina. En un restaurante (la nube) tienes chefs y maquinaria, pero tienes que confiar en cómo manejan lo que les envías. Apple tendrá que convencer de que mantiene el control, aunque el fogón esté fuera.

La trastienda: señales de que Apple necesitaba reenfocar

La noticia llega después de meses de rumores sobre dificultades internas para encarrilar la estrategia de IA. El propio Gurman había informado previamente sobre tensiones, y según su reporte, Mike Rockwell —una figura de Apple vinculada a equipos de base— llegó a desacreditar con dureza una de esas informaciones durante el verano. A esto se suma un cambio relevante en la cúpula: la salida del jefe de IA de Apple, John Giannandrea, que se interpreta como un síntoma de reorganización y búsqueda de un rumbo más claro.

En ese contexto, el acuerdo con Google funciona como un atajo estratégico. En lugar de esperar a que sus modelos internos alcancen el rendimiento necesario para competir con los mejores del sector, Apple puede integrar una tecnología ya madura y dedicar su energía a lo que mejor se le da: la integración profunda en el sistema operativo, la experiencia de usuario y un marco de privacidad que no asuste al gran público.

La pregunta inevitable: qué pasa con la privacidad

Cuando un asistente puede “ver” tu pantalla y usar tu información, el beneficio y el riesgo crecen a la vez. Es el clásico dilema del buen mayordomo: cuanto más sabe de tu casa, mejor te ayuda; cuanto más sabe, más importante es confiar en él. Apple suele insistir en el procesamiento local y en la minimización de datos, mientras que la nube ofrece capacidad y rapidez para modelos grandes.

Si parte de la nueva Siri depende de la infraestructura de Google, Apple tendrá que explicar con precisión qué se envía, cómo se anonimiza, si hay consentimiento granular, cuánto tiempo se conserva y qué barreras existen para que esos datos no se usen con otros fines. El usuario medio no quiere leer una tesis sobre cifrado, pero sí quiere una respuesta clara: “¿Mis cosas salen del teléfono? ¿Puedo impedirlo? ¿Qué pierdo si lo impido?”

Qué cambia para el usuario común y para el ecosistema

Si el plan se cumple, el impacto más visible será el paso de comandos sueltos a acciones encadenadas. Una Siri con contexto podría convertirse en la forma más rápida de manejar tareas pequeñas que hoy requieren abrir varias apps. Para perfiles menos técnicos, la IA generativa puede ser el puente que convierte el teléfono en algo más accesible, como cuando un buen GPS te quita la carga mental de planificar el camino.

Para desarrolladores, el escenario también es interesante: Apple suele aprovechar la WWDC para redefinir qué pueden hacer las apps y cómo se conectan al sistema. Una Siri realmente capaz puede empujar nuevas integraciones, aunque el éxito dependerá de que Apple ofrezca controles, permisos y herramientas claras para que el usuario sienta que manda, no que el asistente improvisa.