Apple quiere que puedas controlar el iPhone con tus pensamientos - y hay una muy buena razón para ello
Los dispositivos controlados por el cerebro y la inteligencia artificial pueden conectar a las personas con discapacidad con el mundo.

- Apple ha anunciado planes para investigar el control de las interfaces cerebro-ordenador.
- La herramienta haría que dispositivos como los iPhones y los auriculares Vision Pro fueran accesibles para personas con enfermedades como la ELA.
- Combinadas con la función Personal Voice de Apple, impulsada por la IA, las interfaces cerebro-ordenador podrían permitir a las personas pensar palabras y oírlas pronunciadas en una versión sintética de su voz.
Nuestros teléfonos inteligentes y otros dispositivos son fundamentales para muchas tareas personales y profesionales a lo largo del día. Utilizarlos puede resultar difícil o directamente imposible para los enfermos de ELA y otras afecciones. Apple cree tener una posible solución: el pensamiento. En concreto, una interfaz cerebro-ordenador (BCI) creada con la empresa australiana de neurotecnología Synchron que podría proporcionar versiones manos libres y controladas por el pensamiento de los sistemas operativos de iPhones, iPads y los auriculares Vision Pro.
Un implante cerebral para controlar el teléfono puede parecer extremo, pero podría ser la clave para que las personas con lesiones medulares graves o lesiones relacionadas se relacionen con el mundo. Apple apoyará el Control por Botón para quienes tengan el implante cerca de la corteza motora del cerebro. El implante capta las señales eléctricas del cerebro cuando una persona piensa en moverse. Traduce esa actividad eléctrica y la transmite al software Switch Control de Apple, convirtiéndola en acciones digitales como seleccionar iconos en una pantalla o navegar por un entorno virtual.
Implantes cerebrales, voces de IA
Por supuesto, aún es pronto para este sistema. Puede ser lento comparado con el tapping, y los desarrolladores tardarán en crear mejores herramientas de BCI. Pero la velocidad no es lo importante ahora. Lo importante es que la gente pueda utilizar el implante cerebral y un iPhone para interactuar con un mundo del que, de otro modo, estaría excluida.
Las posibilidades son aún mayores si se observa cómo podría encajar con los clones de voz personal generados por IA. La función de voz personal de Apple permite a los usuarios grabar una muestra de su propia voz para que, si pierden la capacidad de hablar, puedan generar una voz sintética que siga sonando como ellos. No es indistinguible de la voz real, pero está cerca, y es mucho más humana que la imitación robótica familiar de las películas y series de televisión antiguas.
En la actualidad, esas voces se activan mediante el tacto, el seguimiento ocular u otras tecnologías de asistencia. Pero con la integración de la BCI, esas mismas personas podrían «pensar» su voz. Podrían hablar simplemente con la intención de hacerlo, y el sistema haría el resto. Imagínese a alguien con ELA no sólo manejando su iPhone con el pensamiento, sino también hablando a través del mismo dispositivo "escribiendo" frases para que las diga su clon de voz sintético.
Aunque es increíble que un implante cerebral permita a alguien controlar un ordenador con la mente, la IA podría llevarlo a otro nivel. No sólo ayudaría a las personas a utilizar la tecnología, sino también a ser ellas mismas en un mundo digital.
También te gustará...
- Los mejores teléfonos plegables del 2025: los mejores móviles plegables tipo libro y tipo concha
- Google Gemini explicado: Todo lo que necesitas saber sobre la IA de nueva generación de Google
- He probado a utilizar estas 5 aplicaciones de Google con Gemini y ahora las utilizo con AI todo el tiempo
Regístrese para recibir noticias de última hora, reseñas, opiniones, ofertas de alta tecnología y más.
Editor en TechRadar España de día, guitarrista de blues y friki de los cómics de noche. ¿O era al revés?
- Eric Hal SchwartzContributor