Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words GPT-4 est la dernière technologie d’IA publiée par OpenAI. Il est plus avancé que GPT-3 et peut aider à traduire, résumer et traiter les informations médicales. Les experts en technologie disent que cela pourrait aider à sauver des vies, mais ne devrait pas être utilisé sans supervision humaine. Chargement Quelque chose est en cours de chargement. Merci pour l’enregistrement! Accédez à vos sujets favoris dans un flux personnalisé lorsque vous êtes en déplacement. télécharger l’application GPT-4 est la version la plus récente et la plus avancée d’un modèle d’intelligence artificielle disponible auprès d’OpenAI – les fabricants du produit ChatGPT au succès retentissant – et les médecins disent qu’il pourrait bouleverser la médecine telle que nous la connaissons. Alors que nous savions déjà que les versions précédentes de GPT 3.0 et 3.5 pouvaient obtenir des scores solides sur les MCAT, les experts disent maintenant que GPT-4 peut également être capable de sauver des vies humaines dans le monde réel, en traitant les patients des urgences rapidement et avec finesse.Dans le livre à paraître « The AI Revolution in Medicine », disponible sous forme de livre électronique le 15 avril ou en version imprimée le 3 mai, un expert en informatique de Microsoft, un médecin et un journaliste s’associent pour tester GPT-4 et comprendre ses capacités médicales. . (Microsoft a investi des milliards dans OpenAI, bien que les auteurs de ce livre disent qu’il a été écrit avec une indépendance éditoriale.)Les trois experts – le vice-président de la recherche de Microsoft Peter Lee, le journaliste Carey Goldberg et l’informaticien et médecin de Harvard Isaac Kohane, disent que cette nouvelle IA, qui n’est disponible que pour les abonnés payants pour l’instant, est plus avancée et moins idiote que le précédent chatbot . Et il est si bon pour digérer, traduire et synthétiser les informations qu’ils disent qu’il pourrait être utilisé dans les salles d’urgence pour gagner du temps et sauver des vies – aujourd’hui. « Nous devons commencer à comprendre et à discuter du potentiel de l’IA pour le bien et le mal maintenant », exhortent les auteurs du livre. En fait, suggèrent-ils, il est probablement déjà utilisé dans certains milieux médicaux, que nous le sachions ou non.Comment GPT-4 pourrait sauver une vie Sur une photo du vendredi 6 mai 2016, le médecin résident, le Dr Cameron Collier, informe un groupe de médecins résidents et d’étudiants en médecine alors qu’ils rendent visite à un patient. Gérald Herbert/AP Images Dans les premières pages du livre, les auteurs proposent une interaction hypothétique – mais tout à fait possible – entre un résident en médecine et le GPT-4 comme preuve que la technologie sera très certainement bientôt utilisée par les médecins et les patients. Cela commence par un patient imaginaire en détresse critique, son rythme cardiaque s’accélérant, sa tension artérielle s’effondrant, son visage devenant pâle, puis bleu, alors qu’il suffoque. Son équipe soignante insère « seringue après seringue » dans son intraveineuse, essayant d’augmenter sa tension artérielle et d’améliorer sa fonction cardiaque, mais rien ne semble fonctionner.Une résidente en médecine de deuxième année sort son téléphone et ouvre l’application GPT-4, demandant conseil à l’IA. Elle explique au bot que ce patient « ne répond pas » à l’assistance tensionnelle et mentionne son récent traitement pour une infection du sang. Enfin, elle plaide auprès de l’intelligence artificielle, « je ne sais pas ce qui se passe et quoi faire ». Instantanément, le bot répond par un paragraphe cohérent expliquant pourquoi le patient pourrait s’effondrer, mentionnant des recherches récentes pertinentes et suggérant un traitement par perfusion stimulant les globules blancs. Le résident se rend compte que l’IA implique que ce patient pourrait être atteint d’une septicémie potentiellement mortelle. Si c’est le cas, il a besoin de ce médicament, rapidement. La résidente commande rapidement la perfusion suggérée par l’IA à la pharmacie de l’hôpital, puis – de manière critique – vérifie à nouveau ce que le bot lui a dit, en disant « montre-moi » l’étude dans son téléphone. « Elle avait en quelque sorte l’impression qu’un mentor-serviteur bienveillant ayant accès à presque toutes les connaissances médicales du monde lui tenait la main », imaginent les auteurs dans le livre. Une fois que le médecin résident a rempli l’ordonnance du patient, il utilise à nouveau l’IA pour automatiser les documents requis pour son assurance, un gain de temps considérable. « De presque toutes les manières que vous pouvez nommer, du diagnostic aux dossiers médicaux en passant par les essais cliniques, son impact sera si large et profond que nous pensons que nous devons commencer à lutter maintenant avec ce que nous pouvons faire pour l’optimiser », dit le livre de GPT. -4. Au cours des dernières semaines, d’autres experts ont exprimé une nouvelle excitation similaire, associée à la terreur, à l’idée que l’IA soit utilisée dans tous les domaines de la médecine. »C’est en effet une période très excitante en médecine, où le terme » révolution « est une réalité en devenir », a écrit le médecin Eric Topol sur son blog lorsqu’il a passé en revue le nouveau livre. Le GPT-4 n’est pas toujours fiable en milieu médical GPT-4 peut sembler être l’avenir de la médecine, mais il y a un hic. GPT-4 peut encore faire des erreurs, et parfois ses réponses incluent des inexactitudes subtiles dans des conseils médicaux par ailleurs judicieux. Les experts soulignent qu’il ne doit jamais être utilisé sans surveillance humaine.Les mauvaises réponses données par l’IA « semblent presque toujours correctes », indique le livre, et pourraient être perçues comme convaincantes et raisonnables pour un œil non averti – mais pourraient finalement blesser les patients. Le livre est rempli d’exemples d’erreurs du GPT-4. Les auteurs remarquent que GPT-4 invente encore des choses quand il ne sait pas trop quoi faire. »Il est à la fois plus intelligent et plus stupide que n’importe quelle personne que vous ayez jamais rencontrée », écrivent-ils. GPT-4 fait également des erreurs d’écriture, comme copier des choses mal ou faire des erreurs mathématiques simples. Parce que GPT-4 est un système d’apprentissage automatique et n’a pas été activement programmé par des humains, il nous est impossible de savoir exactement quand et pourquoi il se trompe. Une contre-vérification potentielle que les auteurs suggèrent aux lecteurs pour aider à combattre les erreurs dans le système est de demander à GPT-4 de vérifier son propre travail, une tactique qui fonctionne parfois pour révéler des erreurs. Une autre consiste à ordonner au bot de vous montrer son travail, afin que vous puissiez vérifier ses calculs, à la manière humaine, ou demander au bot de vous montrer les ressources qu’il a utilisées pour prendre sa décision, comme l’a fait l’étudiant en médecine dans la situation hypothétique. « Ce n’est encore qu’un système informatique », concluent les auteurs, « fondamentalement pas mieux qu’un moteur de recherche Web ou un manuel. »
Source link -57