Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Berlin (dpa) – Le ministre fédéral de la Santé, Karl Lauterbach, voit des opportunités dans l’utilisation de chatbots artificiellement intelligents tels que ChatGPT dans le système de santé, mais met également en garde contre des dangers tels que des diagnostics erronés. « Il y aura bientôt des programmes dans lesquels un patient explique verbalement les symptômes, les résultats et les traitements antérieurs, puis obtient une évaluation de sa maladie et même d’éventuelles suggestions de thérapie de l’IA », a déclaré le politicien du SPD aux journaux du groupe de médias Funke.
ChatGPT fournit déjà de telles informations dans un dialogue écrit. En mars, le rapport d’un propriétaire de chien via Twitter a attiré beaucoup d’attention, selon lequel le successeur du programme, GPT-4, aurait correctement diagnostiqué la maladie de son ami à quatre pattes sur la base, entre autres, de valeurs de laboratoire qui un vétérinaire n’avait pas reconnu auparavant. Cependant, les chatbots peuvent également diffuser des informations inventées sans que cela ne soit apparent au premier coup d’œil.
Lauterbach a demandé que l’utilisation de systèmes d’IA tels que ChatGPT soit réglementée dans le secteur de la santé. « Ils doivent être testés et fiables », a déclaré le ministre aux journaux. En outre, il convient de s’assurer que les données ne peuvent pas être utilisées à mauvais escient.
En principe, cependant, il considère l’utilisation de l’intelligence artificielle (IA) dans le système de santé comme positive. À l’avenir, les chatbots pourraient théoriquement parcourir les thérapies et répondre aux questions sur l’efficacité des médicaments pour un patient spécifique. Selon Lauterbach, l’IA peut déjà parfois être meilleure qu’un spécialiste expérimenté. « Mais les meilleurs résultats sont obtenus avec la combinaison de l’intelligence artificielle et d’un médecin. »
© dpa-infocom, dpa:230423-99-417092/2