Customize this title in frenchChatGPT est plus empathique que les vrais médecins, disent les experts

Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words

  • 78,6% des experts médicaux ont préféré les réponses de ChatGPT à celles d’un médecin, selon une nouvelle étude.
  • Les experts ont trouvé que les réponses du chatbot aux questions des patients étaient de meilleure qualité et plus empathiques.
  • ChatGPT peut encore commettre de graves erreurs médicales, mais cette étude suggère que l’IA pourrait améliorer la manière dont un médecin est au chevet du patient.

Selon une nouvelle étude, ChatGPT pourrait être aussi efficace que les médecins, sinon mieux, pour répondre aux questions médicales des patients.

Des chercheurs de l’Université de Californie à San Diego ; John Hopkins; et d’autres universités ont posé les 195 questions ChatGPT d’OpenAI publiées sur le forum AskDocs de Reddit, et ont comparé à la fois la qualité et l’empathie des réponses du chatbot aux réponses de médecins vérifiés sur Reddit.

Une équipe d’experts en soins de santé, comprenant des professionnels travaillant en médecine interne, en pédiatrie, en oncologie et en maladies infectieuses, a noté à la fois les réponses du bot et les réponses humaines sur une échelle de cinq points, évaluant la « qualité de l’information » et « l’empathie ou la manière de chevet  » fourni.

Dans l’étude, les cliniciens ont préféré la réponse du chatbot à celle du médecin dans 78,6 % des 585 scénarios. Les réponses du chatbot ont été jugées 3,6 fois plus qualitatives et 9,8 fois plus empathiques que celles des médecins.

Les médecins restent brefs – tandis que ChatGPT répond longuement

L’une des principales raisons pour lesquelles ChatGPT a remporté l’étude est que les réponses du bot aux questions étaient plus longues et plus personnalisées que les réponses brèves et rapides des médecins.

Par exemple, lorsqu’on lui a demandé s’il était possible de devenir aveugle après avoir reçu de l’eau de Javel dans l’œil, ChatGPT a répondu « Je suis désolé d’apprendre que vous avez reçu de l’eau de Javel dans l’œil » et a proposé quatre phrases supplémentaires d’explication, avec des instructions spécifiques sur la façon dont pour le nettoyer.

Le médecin a simplement dit : « On dirait que tout ira bien » et a brièvement conseillé au patient de « rincer l’œil » ou d’appeler le centre antipoison.

La question d’un autre patient concernant une « bosse dure sous la peau du pénis » a donné une réponse « pas une urgence » du médecin, qui a alors conseillé au patient de prendre rendez-vous pour le « premier créneau disponible » avec son médecin ou son urologue. ChatGPT, d’autre part, a offert une réponse en trois paragraphes beaucoup plus explicative détaillant la possibilité d’un cancer du pénis.

« Il est important de se rappeler que la grande majorité des bosses ou des bosses sur le pénis sont bénignes et ne sont pas cancéreuses », a déclaré le chatbot. « Cependant, il est important de faire évaluer toute bosse ou bosse nouvelle ou inhabituelle. »

Des réponses similaires ont été générées pour le traitement d’une toux persistante, des conseils pour se rendre aux urgences après un coup à la tête et des inquiétudes concernant la recherche de traces de sang dans les selles.

ChatGPT n’est pas vraiment capable de diagnostiquer tout seul

Ne laissez pas les performances de ChatGPT dans cette étude vous tromper. Ce n’est toujours pas un médecin.

ChatGPT ne suggérait que des conseils et des diagnostics potentiels pour les patients écrivant des questions de santé sur Reddit. Aucun examen physique ou suivi clinique n’a été effectué pour déterminer la précision des pouvoirs de diagnostic du chatbot ou si les correctifs suggérés fonctionnaient.

Pourtant, ces résultats suggèrent que les médecins pourraient utiliser des assistants IA comme ChatGPT pour « débloquer une productivité inexploitée » en libérant du temps pour des « tâches plus complexes », ont déclaré les auteurs de l’étude. Les chatbots d’IA pourraient « réduire les visites cliniques nécessaires » et « favoriser l’équité des patients » pour les personnes confrontées à des obstacles à l’accès aux soins de santé, ont ajouté les auteurs.

Les chatbots pourraient être plus transparents sur la prise en compte et l’explication de tous les diagnostics différentiels possibles pour les symptômes d’un patient, ce qui pourrait entraîner moins d’erreurs de diagnostic et plus d’éducation du patient.

Le Dr Teva Brender, stagiaire en médecine à l’Université de Californie à San Diego, a récemment dit à peu près la même chose dans un éditorial de JAMA Internal Medicine expliquant comment les chatbots d’IA pourraient aider les médecins à gagner un temps précieux au travail en les aidant à notifier les résultats des tests pour les patients. instructions ou un dossier médical de routine.

Et le Dr Isaac Kohane, médecin et expert en informatique à Harvard qui n’a pas participé à cette étude, a récemment déclaré que GPT-4 – le dernier modèle de langage de ChatGPT – peut offrir des conseils aux médecins sur la façon de parler aux patients avec clarté et compassion.

« Il devrait être évident que l’un des secrets de bons soins pour le patient est de prendre soin du patient », un autre médecin a déclaré sur Twitter après la publication de la nouvelle étude. « En réflexion, je pourrais faire un meilleur travail dans ce domaine. »

Mais ChatGPT peut toujours faire des erreurs et poser des diagnostics erronés, c’est pourquoi les médecins sont prudents lorsqu’il s’agit de le laisser aux patients à la maison.

Comme l’ont récemment écrit les auteurs du nouveau livre « The AI ​​Revolution in Medicine », GPT-4 « est à la fois plus intelligent et plus stupide que n’importe quelle personne que vous ayez jamais rencontrée ». Il peut être capable de traduire ou de résumer des informations médicales pour les patients, mais ne fonctionnera pas de manière fiable sans une assistance humaine formée en clinique.



Source link -57