- Apple transformará Siri en un chatbot integrado en iOS 27, iPadOS 27 y macOS 27 con nombre en clave "Campos".
- El nuevo Siri usará modelos personalizados basados en Google Gemini, con un acuerdo que rondaría los 1.000 millones de dólares anuales.
- El asistente podrá conversar por voz y texto, entender el contenido en pantalla y actuar sobre apps y datos personales del usuario.
- Antes del gran salto, iOS 26.4 traerá una Siri mejorada con Apple Intelligence, pero aún sin interfaz completa de chatbot.

Durante años, Siri ha sido el asistente de voz de Apple que respondía a órdenes breves, ponía alarmas y abría aplicaciones, pero sin la fluidez ni la conversación natural que hoy se espera de un chatbot moderno. Eso está a punto de cambiar: la compañía trabaja en una transformación profunda que convertirá a Siri en un chatbot integrado en todo el sistema, muy en la línea de lo que ya ofrecen ChatGPT o Gemini.
Este giro no se limitará a un pequeño lavado de cara. Apple planea que la nueva Siri se convierta en uno de los ejes centrales de sus próximos sistemas operativos, con una presencia constante en iPhone, iPad y Mac. La idea es que pase de ser un asistente que responde a comandos aislados a un sistema conversacional capaz de entender contexto, manejar información personal y ejecutar acciones complejas sobre el propio dispositivo.
«Campos»: el proyecto que jubilará a la Siri clásica
Según varias filtraciones coincidentes, la gran renovación de Siri responde a un proyecto interno con nombre en clave «Campos». Este desarrollo sustituirá la interfaz actual del asistente por una experiencia de chatbot integrada a fondo en iOS 27, iPadOS 27 y macOS 27. No se tratará de una aplicación aparte, sino de una nueva capa conversacional del sistema.
Los usuarios seguirán activando Siri como hasta ahora, ya sea diciendo el comando de voz «Siri» o manteniendo pulsado el botón lateral del iPhone o el iPad, pero a partir de ahí la experiencia cambiará por completo: el asistente permitirá interactuar mediante voz o texto, en una conversación continua en la que se podrán encadenar peticiones y matizar respuestas.
Internamente, Apple prueba incluso una versión de Campos como app independiente similar a las de ChatGPT o Gemini, aunque la intención no es lanzarla al público, sino fundir el chatbot con el sistema operativo como ya ocurre con la Siri actual. La versión final convivirá con las funciones clásicas, pero con un enfoque mucho más cercano a los modelos conversacionales de última generación.
La compañía planea presentar esta nueva etapa de Siri en su próxima Conferencia Mundial de Desarrolladores (WWDC), con el objetivo de tener listo el lanzamiento junto a iOS 27 a finales de año. De cumplirse el calendario previsto, el salto llegará a los usuarios de forma generalizada, no como una función experimental limitada.
Del asistente de comandos al chatbot conversacional
El nuevo Siri dará un salto en capacidades respecto a lo que se conoce hoy. La versión chatbot permitirá buscar información en la web, generar contenido, crear imágenes, redactar textos complejos, sugerir código y resumir documentos o páginas de forma similar a como ya hacen ChatGPT o Gemini. La diferencia clave estará en cómo se integra todo esto con el dispositivo.
La plataforma será capaz de apoyarse en los datos personales del usuario para completar tareas: podrá localizar correos concretos, mensajes, eventos del calendario, notas, canciones o fotos y utilizarlos dentro de la conversación. Por ejemplo, se podrá pedir que busque una foto a partir de su descripción y que la edite siguiendo instrucciones detalladas sobre recortes o color.
Otra pieza relevante será la capacidad de analizar el contenido que aparece en pantalla. Siri podrá ver las ventanas abiertas y el contexto actual para sugerir acciones, automatizar pasos y controlar funciones del dispositivo sin que el usuario tenga que cambiar constantemente de aplicación. Esa lectura del entorno permitirá, por ejemplo, contestar un correo largo con un resumen generado al vuelo o rellenar un formulario basándose en datos ya almacenados.
Apple también pretende integrar el chatbot en el núcleo de sus principales apps: Correo, Mensajes, Música, Podcasts, TV, Fotos o incluso herramientas de desarrollo como Xcode. De este modo, bastará con formular una petición en lenguaje natural para que Siri ejecute acciones dentro de cada aplicación, desde crear un borrador de email hasta generar una lista de reproducción adaptada al estado de ánimo del usuario.
Entre los cambios que se barajan internamente figura la posible sustitución de Spotlight, el buscador del sistema, por esta nueva capa de IA conversacional. La idea sería que el chatbot asuma tanto las búsquedas internas como gran parte de las consultas que hoy se hacen a través del cuadro de búsqueda tradicional.
La alianza con Google Gemini: cerebro externo, cara Apple
Para dar vida a este nuevo Siri, Apple ha optado por un movimiento poco habitual en su historia reciente: apoyarse de forma explícita en modelos de inteligencia artificial de Google. Después de los problemas y retrasos de Apple Intelligence, la compañía cerró un acuerdo plurianual para basar sus llamados Apple Foundation Models en la familia Gemini.
La primera gran parada será iOS 26.4, una actualización intermedia que llegará antes del verdadero salto al chatbot. Esa versión hará uso de Apple Foundation Models 10, un sistema desarrollado junto a Google que funciona con alrededor de 1,2 billones de parámetros. Servirá para mejorar la comprensión de la pantalla, la personalización de respuestas y la calidad de las búsquedas web, pero manteniendo la interfaz actual de Siri.
El cambio estructural llegará con Campos, que se sostendrá sobre una evolución superior de ese modelo, internamente conocida como Apple Foundation Models 11 y comparable a Gemini 3 en prestaciones. Este modelo será el que aporte las capacidades avanzadas de lenguaje, razonamiento y generación de contenido necesarias para que Siri se comporte como un chatbot completo.
Según las estimaciones filtradas, Apple pagará a Google del orden de 1.000 millones de dólares anuales por el acceso a estos modelos y por el uso de la infraestructura en la nube basada en chips TPU (Tensor Processing Units). Es una cifra relevante, aunque muy inferior a lo que Google abona cada año para seguir siendo el motor de búsqueda por defecto en Safari.
Al mismo tiempo, Apple diseña el sistema de forma modular para poder cambiar de proveedor de modelos de IA si lo considera oportuno en el futuro. La empresa ya ha hecho pruebas con modelos desarrollados en China, pensando en un despliegue en ese mercado donde las restricciones regulatorias obligan a usar tecnologías locales y donde Apple Intelligence todavía no se ha estrenado.
Privacidad, memoria y dudas sobre un posible modelo de pago
Una de las cuestiones más sensibles del nuevo Siri tiene que ver con la memoria del chatbot. Herramientas como ChatGPT, Claude o Copilot pueden recordar conversaciones anteriores y detalles personales para ajustar mejor sus respuestas, pero ese enfoque choca con el discurso de Apple centrado en la privacidad y el procesamiento local.
Por ahora, la compañía se plantea limitar de forma considerable qué puede guardar el asistente y durante cuánto tiempo, priorizando los datos en el dispositivo y reduciendo al mínimo la información que se conserva en la nube. Este equilibrio entre personalización y privacidad marcará buena parte de la experiencia final para los usuarios europeos, acostumbrados además a un marco regulatorio más estricto en materia de protección de datos.
El otro gran interrogante es si todo este despliegue seguirá siendo completamente gratuito. El uso masivo de modelos avanzados y de infraestructura de terceros tiene un coste significativo, y casi todos los competidores directos ofrecen versiones de pago con funciones adicionales. ChatGPT, Gemini, Claude o Perplexity ya cuentan con suscripciones mensuales que dan acceso a modelos más potentes y a límites más amplios.
En este contexto, varias fuentes apuntan a que Apple podría explorar un esquema mixto: una Siri básica mejorada incluida de serie con iOS 26.4 para todos los usuarios, y una capa de chatbot más avanzada disponible mediante suscripción a partir de iOS 27. La compañía ya ha empezado a experimentar con servicios premium de IA en otros ámbitos, como el paquete Apple Creative Studio para iPad y Mac, que reservará determinadas funciones inteligentes para quienes paguen por ellas.
Por el momento, no hay confirmación oficial sobre precios ni sobre un posible nivel «Pro» del chatbot de Siri, pero el movimiento encajaría con la tendencia del sector y con la necesidad de hacer sostenible el uso intensivo de modelos de gran tamaño a escala global.
Una carrera por no quedarse atrás en la IA generativa
El giro hacia Siri como chatbot llega después de un periodo en el que Apple ha sido percibida como más lenta que otros gigantes tecnológicos en la adopción de la IA generativa. Mientras OpenAI, Google, Microsoft o Samsung llevaban meses mostrando integraciones profundas de chatbots en sus productos, la primera oleada de Apple Intelligence en 2024 fue recibida con cierta tibieza por parte del sector.
En paralelo, compañías rivales han ido reforzando sus propuestas: Samsung ya ofrece funciones avanzadas de IA en sus móviles más recientes, Google ha integrado Gemini en Android y en sus Pixel, y varios fabricantes chinos han desplegado asistentes conversacionales muy agresivos en precios y prestaciones. Este entorno presionaba a Apple a dar un paso más claro hacia un asistente realmente competitivo.
El contexto competitivo se ha visto además agitado por movimientos de talento. OpenAI ha fichado en los últimos meses a varias decenas de ingenieros procedentes de Apple, algo que habría generado inquietud dentro de la compañía y reforzado la sensación de que era necesario acelerar sus propios desarrollos en IA.
A nivel interno también se han producido cambios organizativos. El antiguo responsable de IA, John Giannandrea, ha sido desplazado y Craig Federighi, vicepresidente senior de ingeniería de software, ha asumido mayor control sobre la estrategia. Bajo su paraguas, Apple ha incorporado a Amar Subramanya, exresponsable de ingeniería de Gemini en Google, como nuevo vicepresidente de IA, reforzando el vínculo entre Cupertino y Mountain View en esta etapa.
Este cambio de rumbo contrasta con declaraciones recientes del propio Federighi, que llegó a afirmar que «lanzar un chatbot» no era el objetivo de la compañía. La evolución del mercado y el riesgo de quedar descolgados frente a la competencia parecen haber pesado más que esa postura inicial.
Calendario: de iOS 26.4 al despliegue de iOS 27
La transición hacia Siri como chatbot integrado se hará en dos pasos. Primero, Apple lanzará una actualización intermedia con iOS 26.4, prevista para los próximos meses. Esta versión mantendrá la interfaz actual del asistente, pero incorporará mejoras anunciadas tiempo atrás, como una mejor comprensión del contenido en pantalla, más personalización y respuestas más ricas dentro del marco de Apple Intelligence.
Esta primera fase servirá para asentar los Apple Foundation Models 10 y probar a gran escala las capacidades de los modelos desarrollados en colaboración con Google, pero sin introducir todavía la experiencia de chat completa.
El verdadero cambio llegará con iOS 27, iPadOS 27 y macOS 27. En ese momento, Siri adoptará la interfaz de chatbot basada en Campos, con modo de voz y modo de texto, y pasará a ser la «principal novedad» de la nueva generación de sistemas operativos de Apple. Más allá del asistente, el resto de cambios de software serán relativamente modestos y se centrarán en mejorar el rendimiento y corregir errores.
Se espera que Apple detalle oficialmente las funciones de la nueva Siri durante la WWDC, el evento anual para desarrolladores que suele celebrarse en junio. Tras esa presentación, las versiones beta empezarán a llegar a desarrolladores y usuarios avanzados antes del lanzamiento general en otoño, coincidiendo con la nueva familia de iPhone.
Mientras tanto, el sector observa con atención cómo Apple intenta combinar su enfoque tradicional en privacidad y control del ecosistema con la potencia de modelos de IA externos. Si la apuesta sale bien, Siri dejará de ser el asistente al que muchos usuarios apenas recurren para convertirse en una pieza central de la experiencia en iPhone, iPad y Mac, un chat siempre disponible y profundamente integrado en el sistema, capaz de rivalizar con los grandes nombres de la inteligencia artificial conversacional.
