Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsDüsseldorf Il y a quelques mois, Yu Takagi a repris son souffle. Les photos sur son écran semblaient si convaincantes. Le chercheur japonais est allé dans la salle de bain, s’est regardé dans le miroir et s’est dit : « D’accord, le reflet a l’air normal. Peut-être que je ne deviens pas fou après tout. »La raison de la consternation : un modèle d’IA avait traduit les signaux cérébraux des sujets de test en images – et elles étaient étonnamment similaires aux photos précédemment vues. « Je ne m’attendais vraiment pas à ça », déclare le neuroscientifique et futur professeur à l’université d’Osaka.Le domaine scientifique est appelé « décodage neuronal ». L’intelligence artificielle (IA) peut utiliser les activités cérébrales des personnes pour reconstruire non seulement des images précédemment vues, mais également de la musique ou des paroles entendues. « Les progrès sont exponentiels », déclare Sead Ahmetovic, responsable de We Are Developers, la plus grande plateforme de développeurs en Europe.Partout dans le monde, non seulement les informaticiens et les neuroscientifiques apportent de plus en plus d’améliorations au processus. Des start-up comme Neuralink ou Kernel et des entreprises technologiques sont également impliquées – même si les applications commerciales sont encore loin dans le futur. Il s’agit de la communication ultime entre l’homme et la machine. Takagi a été inondé de demandes après la publication de son étude en septembre 2022. Les sociétés de marketing en particulier souhaitaient utiliser la technologie pour étudier la qualité de la réception de leur publicité. Des compagnies de défense étaient également présentes, explique le Japonais. Mais: « Ce n’est pas possible pour des raisons éthiques, tout le monde doit accepter une enquête – même si c’est l’ennemi. » Expérience de Yu Takagi Ci-dessus, les images visionnées par les participants au test. Vous trouverez ci-dessous ce que la machine a lu à partir des signaux cérébraux des sujets. (Photo : jeu de données MS COCO/Flickr) L’intérêt des entreprises ou des capital-risqueurs pour l’étude de Takagi intitulée « Reconstruction d’images à haute résolution avec des modèles de diffusion latente à partir de l’activité cérébrale humaine » est compréhensible compte tenu des nombreuses applications potentielles.Takagi et son collègue Shinji Nishimoto ont réalisé la « reconstruction d’images haute résolution » des activités cérébrales avec le programme Stable Diffusion, qui a été développé au LMU Munich et mis sur le marché par la start-up anglaise Stable AI.>> Lire aussi : Neuro puces – Le matériel du futur pour l’IA pourrait venir d’Europe « Je suis surpris des différentes applications réalisées avec une diffusion stable », déclare Björn Ommer, professeur d’informatique au LMU Munich. Le modèle d’apprentissage en profondeur est principalement là pour générer des images à partir de la saisie de texte. Takagi et son collègue ont mis une sorte de traducteur devant Stable Diffusion qui rend les signaux cérébraux compréhensibles pour l’IA. « Il ne peut certainement pas lire dans les pensées », déclare Ommer. « Mais c’est excitant que ça marche. »reconstruire la parole entendueAussi excitants que soient les résultats, beaucoup de choses restent floues. « Nous ne savons pas exactement comment le cerveau crée des formes ou des couleurs », explique Thirza Dado, neuroscientifique cognitive à l’Université Radbout de Nimègue. « Mais l’IA s’améliore de plus en plus pour reconnaître les modèles. »Personne ne connaît tous les détails de ce qui se passe à la fois dans le cerveau et les réseaux de neurones – mais les résultats sont très bons. Dans une étude publiée il y a quelques jours, des chercheurs de l’Université du Texas ont laissé trois volontaires écouter des podcasts et de longs reportages radio pendant 16 heures. Un modèle de parole a évalué les signaux lus par le MRT. Thirza Dado Le neuroscientifique mène des recherches aux Pays-Bas. (Photo: Privé) Le transformateur – une IA similaire à celle de ChatGPT d’OpenAI ou de Bard de Google – n’était pas toujours capable de décoder correctement les signaux cérébraux en utilisant les modèles, mais il était étonnamment précis. Par exemple, un participant a entendu la phrase « Je n’ai pas encore de permis de conduire ». L’IA l’a lu comme ceci : « Il a recommencé à apprendre à conduire. »En tant qu’étudiante, on a demandé à Thirza Dado ce qu’elle voulait faire plus tard. « Je veux construire une machine de rêve », a-t-elle déclaré en 2008, plus pour s’amuser. Aujourd’hui, la trentenaire est plus proche de cette vision qu’elle ne l’aurait jamais cru. Elle fait des recherches au Neural Coding Lab de l’Université Radbout et, comme son collègue Takagi au Japon, utilise des modèles d’IA pour reconstruire des images. souvenirs de visages Expérience de Thirza Dado : la première ligne montre la photo réelle, les deux autres lignes montrent ce que l’IA a lu à partir des ondes cérébrales des participants. (Photo : Thirza Dado) Le Neural Coding Lab, dirigé par le Dr. Umut Güclü utilise déjà la méthode pour reconstituer des films qu’elle a vus. La prochaine étape serait de reconstruire les images que les humains ne font qu’imaginer. Après cela, on pourrait théoriquement enregistrer et évaluer les rêves. Selon le chercheur, c’est encore loin dans le futur. Mais même si c’était le cas, vous ne saurez probablement jamais avec certitude si c’était vraiment notre rêve.Les neuroscientifiques mesurent les activités cérébrales avec un soi-disant fMRT – le « tomographe à résonance magnétique fonctionnelle ». Lorsque le cerveau devient actif dans certaines zones, il a besoin d’oxygène. Le sang coule dans ces zones et les chercheurs suivent son mouvement en utilisant le fer présent dans les globules rouges. « Une mesure directe des activités neuronales par un implant conduirait à des résultats beaucoup plus précis », précise le doctorant. « Mais cela reste très dangereux pour les humains. »Le Neuralink d’Elon Musk subit des tests cliniquesCependant, certaines personnes pourraient être prêtes à prendre le risque si elles sont atteintes de sclérose latérale amyotrophique (SLA), par exemple. Il s’agit d’une maladie incurable et grave du système nerveux. Il y a quelques jours, Neuralink, la société de biotechnologie fondée par le patron de Tesla Elon Musk en 2016, a reçu l’approbation de l’autorité sanitaire américaine pour un test clinique d’implant – une étape majeure qu’aucune société de biotechnologie n’a réussi à ce jour. Neuralink veut utiliser une soi-disant « Brain Computer Interface » (BCI) pour le patient. L' »interface cerveau-ordinateur » s’appelle N1 et écoute les signaux électriques des cellules nerveuses en 1024 points – ou, au contraire, les stimule avec des impulsions électriques. Ce texte fait partie du grand spécial du Handelsblatt sur l’intelligence artificielle. Êtes-vous intéressé par ce sujet? Tous les textes déjà parus dans le cadre de notre semaine thématique Vous trouverez ici. Le N1 a un diamètre d’environ 2,5 centimètres et fonctionne sans fil. Des expériences avec des macaques sont en cours depuis 2019. Par exemple, les singes peuvent utiliser un BCI pour contrôler un jeu vidéo de ping-pong. Cependant, le professeur Ommer met également en garde : « Neuralink est un leader dans les communications de relations publiques, mais pas nécessairement dans la recherche scientifique. »L’intervention chirurgicale comporte des risques que le chercheur juge inacceptables chez les personnes en bonne santé. Par conséquent, de nombreuses entreprises et chercheurs travaillent sur de nouveaux capteurs et technologies capables de mesurer l’activité cérébrale avec moins d’effort. Par exemple, la « spectroscopie proche infrarouge », où les sujets de test portent juste un type de casquette connectée à l’ordinateur.A quoi pense le chat Lolo ?Selon Takagi de l’Université d’Osaka, il faudra au moins une décennie avant que des méthodes commercialement viables puissent être attendues. Un des espoirs du joueur de 34 ans : décoder les activités cérébrales des animaux. « J’aimerais savoir quelles images mon chat Lolo a en tête quand il me voit », dit Takagi. Son espoir : Lolo voit son visage tel qu’il est. Sa peur : L’IA se montre un régal.Plus: Comment j’ai essayé de devenir immortel grâce à l’IA.
Source link -57