Customize this title in frenchWWDC 2023 : Apple présente en avant-première de nouvelles fonctionnalités d’accessibilité et de reconnaissance vocale sur iPhone, iPad et Mac

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsApple a présenté un large éventail de nouvelles fonctionnalités d’accessibilité avant sa conférence mondiale des développeurs le mois prochain.Les mises à jour, qui seront disponibles plus tard cette année, incluent celles pour l’accessibilité cognitive, visuelle, auditive et de mobilité, ainsi que les derniers outils pour aider ceux qui ne parlent pas ou risquent de perdre leur capacité à parler, le l’entreprise a déclaré mercredi.Ils seront disponibles sur les iPhone, iPad et Mac d’Apple. Apple devrait présenter les nouvelles fonctionnalités à la WWDC, qui se déroule du 5 au 9 juin à son siège de Cupertino, en Californie. »Apple travaille en étroite collaboration avec des groupes communautaires représentant un large éventail d’utilisateurs handicapés pour développer des fonctionnalités d’accessibilité qui ont un impact réel sur la vie des gens », a déclaré la société.Plus d’un milliard de personnes vivent avec une forme de handicap, ce qui correspond à environ 15 % de la population mondiale. Ils sont considérés comme la plus grande minorité du monde, selon l’Organisation mondiale de la santé.La technologie peut les aider considérablement à communiquer et à mener à bien leur vie quotidienne, a-t-il déclaré. Des entreprises comme Apple ont mené des recherches et intégré la technologie accessible de nouvelle génération dans leurs appareils. »La meilleure technologie est une technologie conçue pour tout le monde », a déclaré le directeur général d’Apple, Tim Cook.Les services d’accessibilité de l’entreprise « s’appuient sur notre longue histoire de rendre la technologie accessible, afin que chacun ait la possibilité de créer, de communiquer et de faire ce qu’il aime », a-t-il déclaré.Accès assisté pour les utilisateurs souffrant de troubles cognitifsL’accès assisté offrira une expérience personnalisée lors d’un appel ou sur l’application FaceTime, qui ont été combinées en une seule application nommée Appels. Il sera également présenté sur les messages, l’appareil photo, les photos et la musique.La fonctionnalité offre une interface distincte avec des boutons à contraste élevé et de grandes étiquettes de texte, ainsi que des outils pour aider « les supporters de confiance à adapter l’expérience à la personne qu’ils soutiennent ».Par exemple, sur Messages, si un utilisateur privilégie la communication visuelle, il peut utiliser un clavier uniquement emoji ou enregistrer un message vidéo.Faites-leur entendre ce que vous tapez avec Live SpeechLe guide de contrôle vocal d’Apple propose des conseils et astuces sur l’utilisation des commandes vocales comme alternative au toucher et à la saisie sur iPhone, iPad et Mac. Photo : Pomme Live Speech permettra aux utilisateurs de taper un message puis de le faire prononcer sur les appels téléphoniques et FaceTime. Les phrases couramment utilisées peuvent être enregistrées afin qu’elles puissent être facilement consultées et envoyées pendant les conversations.Personal Voice, quant à lui, s’adresse aux utilisateurs risquant de perdre leur capacité à parler ou à d’autres conditions pouvant progressivement affecter leur capacité à parler. Les utilisateurs peuvent créer une « voix personnelle » en lisant un ensemble de texte aléatoire pour enregistrer 15 minutes d’audio sur un iPhone ou un iPad.Apple a déclaré que ces outils utilisent l’apprentissage automatique pour garder les informations des utilisateurs privées et sécurisées, et qu’ils ont été conçus « pour soutenir des millions de personnes dans le monde qui ne peuvent pas parler ou qui ont perdu la parole au fil du temps ».Mode de détection pour les utilisateurs ayant des problèmes de visionPour les personnes ayant une déficience visuelle, Apple a introduit le pointer et parler sur sa fonction de loupe, qui permet aux utilisateurs d’interagir avec des objets physiques qui ont plusieurs étiquettes de texte.Citant un exemple de four à micro-ondes, Apple a déclaré que le point-and-speak combine l’entrée de la caméra, le scanner de détection de lumière connu sous le nom de Lidar et l’apprentissage automatique pour annoncer le texte sur chaque bouton lorsque les utilisateurs déplacent leur doigt sur le clavier.Le point-and-speak peut également être utilisé avec d’autres fonctionnalités d’accessibilité, notamment la voix off, la détection de personnes, la détection de porte et les descriptions d’images pour aider les utilisateurs à naviguer dans leur environnement physique.D’autres nouvelles fonctionnalités annoncées incluent la possibilité de coupler des appareils auditifs conçus pour iPhone directement à Mac, et un moyen plus simple d’ajuster la taille du texte dans certaines applications et des suggestions phonétiques sur le contrôle vocal qui permettent aux utilisateurs de choisir le bon mot parmi plusieurs qui peuvent sembler. ressemblent.De plus, les utilisateurs souffrant de handicaps physiques et moteurs qui utilisent le contrôle de commutateur peuvent transformer n’importe quel commutateur en contrôleur de jeu virtuel pour jouer à des jeux sur un iPhone ou un iPad, tandis que ceux qui sont sensibles aux animations rapides peuvent automatiquement mettre en pause les images avec des éléments mobiles, tels que les GIF, dans Messages et Safari.Apple a également dévoilé plusieurs nouvelles fonctionnalités d’accessibilité sur ses appareils l’année dernière visant à aider les utilisateurs à mobilité réduite.Mis à jour: 17 mai 2023, 08h55 !function(f,b,e,v,n,t,s) {if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(‘script’);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.appendChild ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘797427810752825’); fbq(‘track’, ‘PageView’);

Source link -57