Las 5 grandes actualizaciones de Apple Intelligence que puedes probar ahora mismo en la beta pública de iOS 26
Tu iPhone ahora es más inteligente
Apple ha lanzado las versiones beta públicas de todo su software más reciente, que saldrá a la venta a finales de este año, y ahora puedes disfrutar de todo lo que iOS 26 tiene para ofrecer.
Aunque la característica más destacada será Liquid Glass, un rediseño completo de la experiencia de usuario del iPhone, al instalar iOS 26 también tendrás acceso a algunas novedades de Apple Intelligence que podrían mejorar tu vida de forma sutil, pero significativa.
He reducido la lista de nuevas funciones basadas en IA que llegarán con iOS 26 (y iPadOS 26) y he seleccionado mis cinco favoritas. Desde la traducción dentro de las aplicaciones hasta las nuevas capacidades de Apple Intelligence en Shortcuts, hay muchas razones para estar entusiasmado con la versión beta pública de iOS 26.
1. Traducción en vivo
Después de usar la versión beta para desarrolladores de iOS 26 durante más de un mes, he descubierto que Live Translation es mi nueva función favorita de Apple Intelligence.
Integrada en Mensajes, FaceTime y la aplicación Teléfono, Live Translation te permite traducir automáticamente los mensajes, añadir subtítulos traducidos en directo a FaceTime y, en una llamada telefónica, la traducción se leerá en voz alta durante toda la conversación, eliminando por completo las barreras lingüísticas gracias a la inteligencia artificial.
He escrito sobre cómo Live Translation ha mejorado drásticamente mi capacidad para comunicarme con mis suegros italianos, y créeme, si hablas varios idiomas habitualmente, también descubrirás que esta nueva función de Apple Intelligence supone un gran cambio.
2. Actualizaciones de Genmoji e Image Playground
Apple lanzó Genmoji e Image Playground como parte de la primera ola de funciones de Apple Intelligence, y ahora la empresa ha mejorado sus herramientas de imágenes generadas por IA.
Regístrese para recibir noticias de última hora, reseñas, opiniones, ofertas de alta tecnología y más.
Los usuarios ahora pueden convertir descripciones de texto en emojis, así como mezclar emojis y combinarlos con descripciones para crear algo nuevo. También pueden cambiar expresiones y ajustar atributos personales de los Genmojis creados a partir de fotos de amigos y familiares.
Image Playground también cuenta con el soporte de ChatGPT para permitir a los usuarios acceder a estilos completamente nuevos, como la pintura al óleo y el arte vectorial. Apple afirma que «los usuarios siempre tienen el control y nada se comparte con ChatGPT sin su permiso».
He disfrutado utilizando ChatGPT en Image Playground. Aunque todavía no es tan bueno como otros generadores de imágenes con IA, mejora la experiencia de Image Playground y es un paso en la dirección correcta para la herramienta creativa de IA de Apple.
3. Visual Intelligence ahora puede ver tu pantalla

La Inteligencia Visual ya era posiblemente la mejor función de Apple Intelligence, pero ahora la herramienta exclusiva de IA del iPhone 16 es aún mejor.
En iOS 26, la Inteligencia Visual ahora puede escanear tu pantalla, lo que permite a los usuarios buscar y realizar acciones sobre cualquier cosa que estén viendo en las aplicaciones.
Puedes hacer preguntas a ChatGPT sobre el contenido de tu pantalla a través de Apple Intelligence, y se puede acceder a esta nueva función haciendo una captura de pantalla. Al utilizar los mismos botones que para hacer una captura de pantalla en iOS 26, ahora se te pregunta si deseas guardar, compartir la captura de pantalla o explorar más con Visual Intelligence.
Si eres como yo y haces capturas de pantalla con regularidad para recordar información, Visual Intelligence en iOS 26 podría ser la función de Apple Intelligence que estabas esperando.
4. Las aplicaciones de terceros tienen acceso a Apple Intelligence
Aunque esta entrada no es una función en sí misma, esta novedad de iOS 26 es muy importante para el futuro de Apple Intelligence: los desarrolladores ahora tienen acceso a los modelos básicos de Apple.
¿Qué significa eso exactamente? Pues bien, los desarrolladores de aplicaciones ahora pueden «aprovechar Apple Intelligence para ofrecer a los usuarios nuevas experiencias inteligentes, disponibles cuando están desconectados y que protegen su privacidad, utilizando inferencias de IA sin coste alguno».
Apple presentó en la WWDC 2025 un ejemplo de una aplicación educativa que utiliza el modelo Apple Intelligence para generar un cuestionario a partir de tus notas, sin ningún coste de API.
Este marco podría cambiar por completo la forma en que los usuarios interactuamos con nuestras aplicaciones de terceros favoritas, ahora con la posibilidad de aprovechar los modelos de IA de Apple y hacer que la experiencia del usuario sea aún más intuitiva.
5. Atajos basados en inteligencia artificial
Por último, pero no menos importante, Apple Intelligence ya está disponible en la aplicación Atajos. Se trata de una importante actualización de una de las mejores aplicaciones de los dispositivos Apple, que permite a los usuarios «aprovechar acciones inteligentes, un conjunto completamente nuevo de atajos habilitados por Apple Intelligence».
He probado los atajos impulsados por Apple Intelligence y, al igual que la aplicación Atajos, el verdadero poder aquí dependerá de las creaciones de los usuarios y de cómo aprovechen esta nueva capacidad. Como usuario diario de Atajos, estoy muy emocionado por ver cómo la fantástica comunidad de personas que crean potentes atajos y los comparten en línea aprovechará las capacidades de Apple Intelligence.
No se trata de una mejora de la IA que todo el mundo vaya a utilizar, pero si decides adentrarte en el mundo de la aplicación Atajos y aprender a sacarle el máximo partido, esta nueva incorporación de iOS 26 podría ser la mejor de todas.
Editor en TechRadar España de día, guitarrista de blues y friki de los cómics de noche. ¿O era al revés?
- John-Anthony DisottoSenior Writer AI
