Customize this title in frenchApple présente des fonctionnalités d’accessibilité utiles à venir sur iOS 17

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Apple aujourd’hui a prévisualisé certaines nouvelles fonctionnalités d’accessibilité qui apparaîtront dans iOS 17. Assistive Access filtre certaines applications jusqu’à leurs « fonctionnalités essentielles » pour aider ceux qui ont des troubles cognitifs. Avec l’accès assisté, les expériences personnalisées de téléphone, FaceTime, messages, appareil photo, photos et musique sont toutes combinées dans une seule application d’appels. Des boutons à contraste élevé et de grandes étiquettes de texte sont utilisés.
Pour les utilisateurs d’iPhone qui préfèrent communiquer visuellement, l’application Messages comprend un QWERTY emoji uniquement et la possibilité d’enregistrer un message vidéo à envoyer à leurs proches. De plus, avec Assistive Access, les utilisateurs peuvent choisir entre une disposition d’écran d’accueil basée sur une grille qui est plus visuelle et une disposition basée sur des lignes pour ceux qui trouvent qu’il est plus facile de traiter le texte.

Avec Live Speech, qui sera disponible sur iPhone, iPad et Mac, pendant les appels téléphoniques et les appels FaceTime, un utilisateur peut taper ce qu’il veut dire et le faire dire à haute voix par son appareil afin qu’il puisse être entendu par les autres parties sur l’appel vocal ou vidéo. Les phrases souvent répétées par l’utilisateur peuvent être enregistrées et rapidement insérées dans des conversations avec des amis, la famille et des collègues. Apple souligne que Live Speech est « conçu pour soutenir des millions de personnes dans le monde qui ne peuvent pas parler ou qui ont perdu la parole au fil du temps ».

Pour ceux qui risquent de perdre la voix (comme le note Apple, il peut s’agir d’une personne qui a récemment reçu un diagnostic de SLA (sclérose latérale amyotrophique) ou d’une maladie qui rend progressivement la parole plus difficile, une fonctionnalité appelée Personal Voice les fera lire un ensemble aléatoire de texte pendant environ 15 minutes sur un iPhone ou un iPad. Cette fonctionnalité s’intègre au Live Speech susmentionné afin qu’un utilisateur d’iPhone ou d’iPad qui a perdu sa voix puisse toujours parler avec d’autres en utilisant une version enregistrée de leur voix .

Une autre fonctionnalité d’accessibilité appelée « Pointer et parler dans la loupe » aide les personnes ayant une déficience visuelle à lire les étiquettes de texte sur les boutons utilisés pour faire fonctionner les articles ménagers. À l’aide de la caméra arrière, du scanner LiDAR et de l’apprentissage automatique sur l’appareil, l’utilisateur peut focaliser la caméra de son iPhone sur le panneau de commande d’un four à micro-ondes par exemple, et lorsque l’utilisateur déplace ses doigts sur l’image d’un bouton sur l’écran tactile, l’iPhone annoncera le texte associé à ce bouton. Cela aidera ceux qui ne voient pas bien à garder le contrôle sur certaines parties de leur vie.

Ce sont toutes des fonctionnalités utiles dont nous pourrions entendre parler quand Apple prévisualisera iOS 17 à la WWDC le 5 juin. Le PDG d’Apple, Tim Cook, a déclaré : « Chez Apple, nous avons toujours cru que la meilleure technologie est une technologie conçue pour tout le monde. Aujourd’hui, nous sommes ravis de partager de nouvelles fonctionnalités incroyables qui s’appuient sur notre longue histoire de rendre la technologie accessible, afin que tout le monde a la possibilité de créer, de communiquer et de faire ce qu’il aime. »

Source link -57