Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Au cours des dernières années, 10 000 à 20 000 applications ont fait irruption dans le domaine de la santé mentale, proposant de « perturber » la thérapie traditionnelle. Avec la frénésie autour des innovations de l’IA comme ChatGPT, l’affirmation selon laquelle les chatbots peuvent fournir des soins de santé mentale se profile à l’horizon.
Les chiffres expliquent pourquoi : le stress pandémique a conduit des millions d’autres personnes à se faire soigner. Dans le même temps, il y a longtemps eu une pénurie de professionnels de la santé mentale aux États-Unis ; la moitié de tous les comtés manquent de psychiatres. Compte tenu du mandat de la loi sur les soins abordables selon lequel les assureurs offrent la parité entre la couverture de santé mentale et physique, il existe un gouffre béant entre la demande et l’offre.
Pour les entrepreneurs, c’est une aubaine du marché. Au SXSW en mars, où un certain nombre de startups de la santé ont présenté leurs produits, il y avait une conviction quasi religieuse que l’IA pouvait reconstruire les soins de santé, offrant des applications et des machines capables de diagnostiquer et de traiter toutes sortes de maladies, remplaçant les médecins et les infirmières.
Malheureusement, dans le domaine de la santé mentale, les preuves d’efficacité ne sont pas encore là. Peu des nombreuses applications sur le marché ont des recherches indépendantes sur les résultats montrant qu’elles aident ; la grande majorité n’a pas été examinée du tout par la Food and Drug Administration. Bien que commercialisés pour traiter des conditions telles que l’anxiété, le TDAH et la dépression, ou pour prédire les tendances suicidaires, de nombreux utilisateurs avertissent (en petits caractères) qu’ils ne sont «pas destinés à être des services médicaux, de santé comportementale ou d’autres soins de santé» et «pas un FDA autorisé produit. »
Il y a de bonnes raisons d’être prudent face à ce mastodonte du marketing.
Il y a des décennies, Joseph Weizenbaum, un professeur du MIT considéré comme l’un des pères de l’intelligence artificielle, a prédit que l’IA ne ferait jamais un bon thérapeute, bien qu’elle puisse en ressembler. En fait, son programme d’IA original, créé dans les années 1960, était un psychothérapeute nommé ELIZA, qui utilisait la reconnaissance de mots et de formes combinée à la programmation en langage naturel pour ressembler à un thérapeute :
Femme : Eh bien, mon petit ami m’a fait venir ici.
ELIZA : Votre copain vous a fait venir ici ?
Femme : Il dit que je suis déprimée la plupart du temps.
ELIZA : Je suis désolée d’apprendre que tu es déprimée.
Femme : C’est vrai, je suis malheureuse.
ELIZA : Penses-tu que venir ici t’aidera à ne pas être malheureuse ?
Bien que salué comme un triomphe de l’IA, le « succès » d’ELIZA a terrifié Weizenbaum, que j’ai interviewé une fois. Il a dit que les étudiants interagissaient avec la machine comme si Eliza était une vraie thérapeute, alors que ce qu’il avait créé était « un truc de fête », a-t-il dit.
Il prévoyait l’évolution de programmes beaucoup plus sophistiqués comme ChatGPT. Mais « les expériences qu’un ordinateur pourrait acquérir dans de telles circonstances ne sont pas des expériences humaines », m’a-t-il dit. « L’ordinateur, par exemple, ne connaîtra pas la solitude dans le sens où nous le comprenons. »
Il en va de même pour l’anxiété ou l’extase, des émotions si complexes sur le plan neurologique que les scientifiques n’ont pas été en mesure d’identifier leurs origines neurales. Un chatbot peut-il réaliser le transfert, le flux empathique entre le patient et le médecin qui est au cœur de nombreux types de thérapie ?
« Le principe fondamental de la médecine est qu’il s’agit d’une relation entre l’humain et l’humain – et l’IA ne peut pas aimer », déclare Bon Ku, responsable du Health Design Lab de l’Université Thomas Jefferson et pionnier de l’innovation médicale. « J’ai un thérapeute humain et cela ne sera jamais remplacé par l’IA. »
Au lieu de cela, il aimerait voir l’IA utilisée pour réduire les tâches des praticiens comme la tenue de registres et la saisie de données afin de « libérer plus de temps pour que les humains se connectent ».
Bien que certaines applications de santé mentale puissent finalement s’avérer utiles, il existe des preuves que certaines peuvent faire du mal. Un chercheur a noté que certains utilisateurs reprochaient à ces applications leur « nature scénarisée et leur manque d’adaptabilité au-delà des cas classiques d’anxiété et de dépression légères ».
Il sera tentant pour les assureurs de proposer des applications et des chatbots pour répondre à l’exigence de parité en santé mentale. Après tout, ce serait une solution simple et bon marché, comparée à la difficulté de proposer un panel de vrais thérapeutes, d’autant plus que beaucoup ne prennent pas d’assurance car ils jugent les paiements des assureurs trop bas.
Voyant peut-être le flot d’IA frapper le marché, le ministère du Travail a annoncé l’année dernière qu’il intensifiait ses efforts pour assurer une meilleure conformité des assureurs à l’exigence de parité en matière de santé mentale.
La FDA a également déclaré à la fin de l’année dernière qu’elle « avait l’intention d’exercer son pouvoir discrétionnaire en matière d’application » sur une gamme d’applications de santé mentale, qu’elle examinera en tant que dispositifs médicaux. Mais jusqu’à présent, aucun n’a été approuvé. Et seuls quelques-uns ont obtenu la désignation d’appareil révolutionnaire de l’agence, qui accélère l’examen et les études sur les appareils qui présentent un potentiel.
Ces applications offrent principalement ce que les thérapeutes appellent une thérapie structurée – où les patients ont des problèmes spécifiques et l’application peut répondre avec une approche semblable à un classeur. Par exemple, Woebot combine des exercices de pleine conscience et de soins personnels (avec des réponses écrites par des équipes de thérapeutes) pour la dépression post-partum. Wysa, une autre application qui a reçu une désignation d’appareil révolutionnaire, propose une thérapie cognitivo-comportementale pour l’anxiété, la dépression et la douleur chronique.
Mais la collecte de données scientifiques fiables sur le bon fonctionnement des traitements basés sur les applications prendra du temps. « Le problème est qu’il y a très peu de preuves maintenant pour que l’agence tire des conclusions », a déclaré le Dr Kedar Mate, directeur de l’Institute of Healthcare Improvement, basé à Boston.
Jusqu’à ce que nous ayons cette recherche, nous ne savons pas si les soins de santé mentale basés sur des applications font mieux que ELIZA de Weizenbam. L’IA peut certainement s’améliorer au fil des années, mais pour l’instant, nous ne devrions pas permettre aux assureurs de prétendre que fournir l’accès à une application est proche de répondre à l’exigence de parité en matière de santé mentale.
Élisabeth Rosenthal, médecin, est rédacteur en chef de KFF Health News et auteur de « An American Sickness: How Healthcare Became Big Business and How You Can Take It Back ».