Contrôler votre iPhone et votre iPad avec vos yeux : c'est ce que permettent les prochaines fonctions d'accessibilité d'Apple
À l'occasion de la Journée mondiale de sensibilisation à l'accessibilité, Apple présente en avant-première de nouvelles fonctionnalités telles que le suivi des yeux, les raccourcis vocaux et l'haptique musicale, qui arriveront dans le courant de l'année.
Avant la Journée mondiale de l'accessibilité le 16 mai 2024, Apple a dévoilé un certain nombre de nouvelles fonctionnalités d'accessibilité pour l'iPhone, l'iPad, le Mac et le Vision Pro. Le suivi oculaire est en tête de liste des nouvelles fonctionnalités, permettant de contrôler l'iPhone et l'iPad en bougeant les yeux.
Le suivi oculaire, les raccourcis vocaux, les haptiques musicales et les indications de mouvement des véhicules arriveront sur les appareils Apple éligibles plus tard cette année. Ces nouvelles fonctionnalités d'accessibilité seront très probablement publiées avec iOS 18, iPadOS 18, VisionOS 2 et la prochaine version de macOS.
Ces nouvelles fonctionnalités d'accessibilité sont devenues une tradition annuelle pour Apple. Le rideau est généralement levé quelques semaines avant la WWDC, la conférence mondiale des développeurs, qui débutera le 10 juin 2024. Cet événement devrait être l'occasion pour Apple de présenter la prochaine génération de ses principaux systèmes d'exploitation et ses avancées en intelligence artificielle.
Le suivi oculaire d’Apple semble sérieusement impressionnant
Le suivi oculaire semble sérieusement impressionnant et est un moyen clé de rendre l'iPhone et l'iPad encore plus accessibles. Comme indiqué dans le communiqué et capturé dans une vidéo, il est possible de naviguer dans iPadOS – ainsi que dans iOS – ouvrir des applications et même contrôler des éléments uniquement avec les yeux. Cela utilise la caméra frontale, l'intelligence artificielle et l'apprentissage automatique local tout au long de l'expérience.
Il est possible de regarder autour de l'interface et d'utiliser le "contrôle par fixation" pour interagir avec un bouton ou un élément. Les gestes seront également gérés uniquement par le mouvement des yeux. Cela signifie qu'il est possible de regarder Safari, Téléphone ou une autre application, de maintenir ce regard, et celle-ci s'ouvrira.
Surtout, toutes les données de configuration et d'utilisation sont conservées localement sur l'appareil, de sorte qu'il suffira d'avoir son iPhone. Aucun accessoire n'est nécessaire pour utiliser le suivi oculaire. Cette fonctionnalité est conçue pour les personnes atteintes de handicaps physiques et repose sur d'autres moyens accessibles de contrôler un iPhone ou un iPad.
Raccourcis vocaux, haptiques musicales et sous-titres en direct sur Vision Pro
Une autre nouvelle fonctionnalité d'accessibilité est les raccourcis vocaux, conçus pour les utilisateurs d'iPad et d'iPhone atteints de SLA (sclérose latérale amyotrophique), de paralysie cérébrale, d'AVC ou de "conditions acquises ou progressives affectant la parole". Cela permettra de configurer un son personnalisé que Siri pourra apprendre et identifier pour lancer un raccourci spécifique ou effectuer une tâche. Cette fonctionnalité s'accompagne de "Écoute de la parole atypique", conçue pour les mêmes utilisateurs, afin d'ouvrir la reconnaissance vocale à un plus grand nombre de personnes.
Get the best Black Friday deals direct to your inbox, plus news, reviews, and more.
Sign up to be the first to know about unmissable Black Friday deals on top tech, plus get all your favorite TechRadar content.
Ces deux fonctionnalités s'appuient sur certaines introduites dans iOS 17, il est donc réjouissant de voir Apple continuer à innover. Avec "Parole atypique", Apple utilise spécifiquement l'intelligence artificielle pour apprendre et reconnaître différents types de parole.
Les haptiques musicales sur l'iPhone sont conçues pour permettre aux utilisateurs malentendants ou sourds de ressentir la musique. Le moteur taptic intégré, qui alimente les haptiques de l'iPhone, jouera différentes vibrations, comme des tapotements et des textures, qui ressemblent à l'audio d'une chanson. Lors du lancement, cette fonctionnalité fonctionnera avec "des millions de chansons" sur Apple Music, et une API ouverte sera disponible pour les développeurs afin de rendre la musique provenant d'autres sources accessible.
De plus, Apple propose des aperçus de quelques autres fonctionnalités et mises à jour. Les indications de mouvement des véhicules seront disponibles sur iPhone et iPad et visent à réduire le mal des transports avec des points animés à l'écran qui changent en fonction du mouvement du véhicule détecté. Cela est conçu pour aider à réduire le mal des transports sans bloquer ce qui est vu à l'écran.
Une addition majeure pour VisionOS – le logiciel qui alimente Apple Vision Pro – sera les sous-titres en direct sur l'ensemble du système. Cela permettra de voir des sous-titres pour les dialogues parlés dans les conversations FaceTime et l'audio des applications directement devant soi. Apple indique que cela a été conçu pour les utilisateurs sourds ou malentendants, mais comme toutes les fonctionnalités d'accessibilité, cela se trouve dans les paramètres.
Étant donné qu'il s'agit de sous-titres en direct sur un Apple Vision Pro, il est possible de déplacer la fenêtre contenant les sous-titres et d'en ajuster la taille comme n'importe quelle autre fenêtre. L'accessibilité de la vision dans VisionOS bénéficiera également de la réduction de la transparence, de l'inversion intelligente et de la diminution des lumières clignotantes.
Concernant la date de sortie de ces fonctionnalités, Apple indique dans le communiqué que les "nouvelles fonctionnalités d'accessibilité arriveront plus tard cette année". Il faudra surveiller cela de près et il est probable que ces fonctionnalités seront disponibles avec la prochaine génération de systèmes d'exploitation comme iOS 18 et iPadOS 18, ce qui signifie que ceux ayant un compte développeur pourront peut-être tester ces fonctionnalités dans les prochaines versions bêta.
Étant donné que certaines de ces fonctionnalités sont alimentées par l'apprentissage automatique et l'intelligence artificielle sur l'appareil, l'aide aux fonctionnalités d'accessibilité est un moyen pour Apple de montrer que l'IA peut avoir un impact. On peut s'attendre à ce que le géant technologique partage davantage de ses réflexions sur l'IA et les fonctionnalités prêtes à l'emploi lors de la WWDC 2024.
Quand je ne suis pas en train de plonger dans le monde fascinant de la finance et des nouvelles technologies, vous me trouverez probablement en train de parcourir le globe ou de conquérir de nouveaux mondes virtuels sur ma console de jeux.
- Jacob KrolUS Managing Editor News