Las funciones de IA del iPhone 16 podrían basarse en Google Gemini

iPhone 15 review images
The iPhone 15 (Crédito de imagen: Future / Lance Ulanoff)

Llevamos tiempo escuchando que Apple está trabajando duro para llevar funciones de IA a la línea 16 del iPhone, pero en lugar de desarrollarlas desde cero parece que Apple podría basarse, al menos parcialmente, en los modelos de IA de Google.

Esto es según un informe de Bloomberg (según 9to5Google), que afirma que Apple está en "negociaciones activas" para licenciar Google Gemini, el último gran modelo de lenguaje (LLM) y chatbot de IA de Google.

No está claro exactamente para qué funciones utilizaría Apple Google Gemini, pero el informe pone como ejemplo la generación de texto e imágenes, lo que podría significar cosas como fondos de pantalla generados por IA o resúmenes de artículos.

La misma IA en todas partes

Si Apple obtiene la licencia de Gemini, podríamos encontrarnos con que todas las principales marcas de smartphones tienen funciones de IA similares, ya que además de utilizar su propia IA en la línea Google Pixel 8, Google Gemini también se utiliza para algunas de las funciones de IA de la serie Samsung Galaxy S24.

Eso ha dado lugar a características de IA casi idénticas que se ofrecen en el Pixel 8 y el Galaxy S24, con algunas incluso compartiendo la misma marca, como Circle to Search, que está disponible en ambas líneas.

Sin embargo, parece poco probable que Apple ofrezca las mismas funciones con la misma marca; más bien, esperaríamos que la compañía aprovechara Google Gemini para potenciar herramientas de IA de su propia creación.

Y eso si esta asociación sigue adelante: Apple también ha mantenido conversaciones con OpenAI, por lo que podría utilizar un LLM diferente.

La IA de Apple

En cualquier caso, es probable que Apple no dependa por completo de los modelos de IA de otra empresa, ya que la compañía está gastando más de 1.000 millones de dólares al año en el desarrollo de IA; y, como ha descubierto Thurrott, la compañía ha revelado recientemente que ha estado trabajando en un conjunto de LLM llamado MM1, diseñado para la inferencia del lenguaje natural, responder a preguntas basadas en imágenes y subtitular imágenes.

Así que, aunque Apple aún no ha anunciado ninguna función importante de IA, parece que ha estado trabajando discretamente en algunas, aunque si también se está acercando a Google y OpenAI, quizá no esté tan avanzado como Google.

Puede que tengamos una idea más clara en el evento para desarrolladores WWDC 2024 de Apple, que probablemente se celebre en junio y que probablemente incluya el anuncio de iOS 18. O, en su defecto, deberíamos conocer más detalles. O, en su defecto, deberíamos ver algo de lo que Apple ha estado trabajando junto al anuncio de la línea iPhone 16, que esperamos que se produzca en septiembre.

También te gustará...

Antonio Romero

Editor en TechRadar España de día, guitarrista de blues y friki de los cómics de noche. ¿O era al revés?


Aportaciones de