Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsQuand j’étais un enfant sourd qui grandissait dans les années 1990, j’avais deux fantasmes récurrents. La première était que davantage de personnes entendantes apprendraient la langue des signes américaine. L’autre était qu’un jour, le monde entier serait sous-titré, tout comme les émissions de télévision et les films. J’imaginais enfiler des lunettes de science-fiction élégantes, et voilà : L’enchevêtrement de mots prononcés autour de moi se démêlait en un anglais magnifique, lisible et écrit.La deuxième de mes rêveries d’enfance m’est revenue récemment lorsque je me suis assis dans un atrium tranquille sur le campus de Harvard avec Alex et Marilyn Westner, les co-fondateurs de la start-up Xander de la région de Boston, qui m’avaient invité à discuter autour d’un café après m’avoir vu cité dans un article de journal sur les lunettes de sous-titrage en direct à réalité augmentée de leur entreprise. Ils ont fait glisser un prototype volumineux sur la table et j’ai mis les lunettes sur mon visage. Immédiatement, des mots écrits ont défilé sur une boîte numérique translucide au-dessus de mon œil droit. »Comment ça se sent? » J’ai vu les mots sous-titrés juste après qu’Alex les ait prononcés. Parce que j’ai toujours regardé des vidéos avec des sous-titres, j’ai d’abord pensé qu’il était sorti d’un écran de télévision pour me parler.Ouah, ai-je pensé, sentant notre conversation s’éloigner de la lecture labiale – qui, comme je l’ai expliqué ailleurs, n’est pas vraiment de la « lecture » – et vers quelque chose de plus proche de la lecture réelle.Rachel Kolb : Comment le masquage a changé mon expérience d’être sourdBien que ce soit la première fois que j’essayais des lunettes sous-titrées – une forme encore naissante de technologie de réalité augmentée que des entreprises telles que XRAI Glass et Google sont également en concurrence pour développer – j’observe depuis des années maintenant les possibilités d’un sous-titrage en direct monde ont avancé. Regardez autour de vous et vous trouverez des sous-titres automatisés partout, sur YouTube et Instagram Reels, sur Google Meet, Zoom et FaceTime. Comme d’autres outils générés par l’IA, ces sous-titres ne sont pas parfaits et ne constituent pas une solution miracle pour l’accessibilité, mais pour certaines utilisations, ils sont étonnamment bons.. Dans ma discussion avec les fondateurs de Xander, nous nous sommes principalement concentrés sur des sujets sur le fonctionnement des lunettes – une conversation bien ciblée est généralement plus facile à suivre – mais les sous-titres en direct ont facilité la conjecture de discuter avec mes deux compagnons de café entendants.Quiconque a activé les sous-titres automatisés au cours de la dernière décennie sait que la précision n’est pas toujours son point fort. J’ai sauté sur les conférences Zoom et j’ai vu des murs de texte opaques sans ponctuation et sans vocabulaire technique massacrés au-delà de toute reconnaissance. Je suis allé à l’église sans interprète, où j’ai fixé mes yeux sur une application de sous-titrage en direct qui m’a plongé dans des non-séquences sur le « désert de cyanure » (pas étonnant que ces Israélites aient été si mécontents), ou sur Abraham utilisant son « téléphone » (au lieu de son fils ?) en sacrifice au « Seigneur Clearview » (qui que ce soit). Après la fin de ces sermons, ma tête battait. Je n’ai pas pu m’empêcher de penser à tous les gens dispersés après la chute de Babel, brouillés dans toutes leurs langues. Comme ces anciens, nous devons nous rappeler que l’innovation technologique, à elle seule, ne peut pas nous transporter vers les cieux. Encore faut-il choisir quand et comment l’utiliser.Pendant un certain temps, comme Rikki Poynter et de nombreux autres défenseurs des sourds, j’ai associé les sous-titres automatiques aux #craptions, c’est-à-dire des sous-titres si mauvais qu’ils étaient moins susceptibles de raconter une histoire compréhensible que de faire en sorte que l’utilisateur libère des flux de blasphèmes. (Et pour une bonne raison : parfois, des dialogues non obscènes apparaissent à l’écran sous forme de gros mots étoilés.) un compagnon auditif naïf a mentionné des sous-titres générés automatiquement. C’était un signe qu’ils ne comprenaient pas à quel point la qualité de ces sous-titres était faible.Lorsque j’ai commencé mes études supérieures en 2015, j’ai vu une administratrice académique s’excuser à juste titre devant une grande assemblée après avoir joué un Harry Potter clip vidéo pour nous pendant l’orientation. Elle avait oublié de vérifier si le dialogue était accessible à tous les spectateurs, et elle aurait pu supposer que les sous-titres automatiques de YouTube seraient tout aussi bons que les sous-titres qui accompagnaient la vidéo originale.Ils ne l’étaient pas. Harry, Ron et Hermione tombèrent bientôt dans de tels flots de jurons et d’absurdités qu’on aurait pu penser qu’ils avaient été ensorcelés.Pendant que je m’effondrais dans mon siège, les élèves entendants éclatèrent de rire collectif face aux sous-titres ratés. À son crédit, l’administrateur a rapidement arrêté la vidéo. Elle m’a exprimé ses regrets ainsi qu’à mon interprète ASL au premier rang. Puis elle a réprimandé les autres : « Aimeriez-vous avoir ce pour votre accès ? »La pièce devint silencieuse. L’administrateur avait identifié un manque fondamental d’équité communicative. Au moins c’est mieux que rien— c’était souvent ce que les entendants me disaient à propos des sous-titres automatiques, mais qu’étais-je censé faire, me contenter de miettes ? Moi aussi, j’ai trouvé certaines erreurs amusantes, mais je les ai surtout considérées comme des ordures.Au début de la pandémie, cependant, ma relation avec le sous-titrage automatique avait commencé à changer. Coincé à la maison et confronté à l’isolement physique et aux masques qui rendaient la lecture labiale impossible, j’ai soupiré lorsque des amis entendants m’ont suggéré d’essayer des applications de transcription vocale et des appels vidéo avec sous-titrage automatique. Je me souviens m’être connecté provisoirement à Google Meet pour la première fois, sans savoir si je verrais quelque chose comme mon vieux rêve de belles légendes écrites ou leur cousin mutilé.Deux de mes amis entendants, qui signent un peu mais pas beaucoup, sont entrés dans le chat vidéo. L’un d’eux a dit : « Hey, Rachel, c’est si bon de te voir. »La légende disait: « Hey, Rachel, c’est si bon de te voir. »Waouh.Nous avons continué, soulagés de nous revoir. Les sous-titres comportaient encore quelques erreurs, mais ils ont largement suivi. J’ai senti que le jeu venait de changer.Pendant la pandémie, j’ai bavardé par vidéo avec bonheur avec des amis sourds et signataires – les sous-titres n’étaient pas nécessaires – mais je me suis également senti plus libre de participer à des discussions spontanées avec des personnes entendantes non-signataires. Les sous-titres automatiques sont devenus une bouée de sauvetage inattendue. Je les ai utilisés pour le travail informel et les appels sociaux, et je les ai vus apparaître avec une plus grande précision sur davantage de contenu en ligne. Dans le même temps, de plus en plus de personnes entendantes autour de moi ont commencé à utiliser régulièrement des sous-titres pour regarder des films, des émissions de télévision et des vidéos. Cette vie sous-titrée était soudainement partout.Les personnes sourdes et handicapées ont toujours été des pirates de la vie suprêmes, et j’ai appris à adopter les sous-titres automatiques comme un outil de piratage de communication au quotidien. Je les aime pour les petites discussions, où mes compagnons en ligne et moi nous délectons de l’acte mutuel de façonner le sens. Nous nous arrêtons pour des éclaircissements. Nous faisons des gestes ou tapons les uns aux autres dans la boîte de discussion. La technologie de transcription vocale a encore du mal avec le vocabulaire spécialisé et certaines voix, y compris ma propre voix sourde, mais, au mieux, les sous-titres peuvent transformer des échanges fragmentaires en paragraphes vivants, cohérents et facilement lisibles.Le sous-titrage automatique de haute qualité, aussi merveilleux soit-il, ne crée pas automatiquement l’accès. Toutes les personnes sourdes ne préfèrent pas rencontrer des conversations à travers des sous-titres, d’une part. Communiquer par ASL, pour beaucoup d’entre nous, est encore plus facile et permet une plus grande fluidité expressive. Et emmenez les sous-titres automatiques dans le monde vaste et bruyant, dans des événements professionnels plus importants ou des conférences ou des interactions multi-personnes, et ils peuvent rapidement devenir précaires. Nous activerons les sous-titres en direct pour vous ! entendre les gens dire. Mais les gens qui ne se fient pas à ces sous-titres pour comprendre pourraient ne pas réaliser à quelle fréquence ils laissent encore certains d’entre nous bloqués dans le désert de cyanure. L’interprétation par des professionnels humains n’est en…
Source link -57