Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsSi vous passez du temps sur Internet, vous êtes probablement maintenant familiarisé avec les captures d’écran gris et bleu sarcelle du texte généré par l’IA. Au début, ils étaient destinés à illustrer la compétence surprenante de ChatGPT à générer une prose à consonance humaine, puis à démontrer les réponses parfois troublantes qui ont émergé une fois que le grand public a pu le bombarder d’invites. OpenAI, l’organisation qui développe l’outil, décrit ainsi l’un de ses plus gros problèmes : « ChatGPT écrit parfois des réponses plausibles mais incorrectes ou absurdes ». En termes simples, le chatbot invente des trucs. Alors que des services similaires, tels que Google’s Bard, ont précipité leurs outils dans les tests publics, leurs captures d’écran ont démontré la même capacité à fabriquer des personnes, des événements historiques, des citations de recherche, etc., et à rendre ces mensonges dans la même prose confiante et ordonnée.Ce penchant apparemment systémique pour l’inexactitude est particulièrement inquiétant, compte tenu de l’intention des entreprises technologiques d’intégrer ces outils dans les moteurs de recherche dès que possible. Mais un problème plus important pourrait résider dans un aspect différent des résultats de l’IA, plus précisément dans la manière polie, professionnelle et sereinement insipide dont les chatbots formulent leurs réponses. C’est le style en prose du travail de bureau et des emplois de courrier électronique, des publicistes d’entreprise à la mode et des influenceurs LinkedIn avec des MBA d’écoles privées. Le style sonne de la même manière – agréable, mesuré, autoritaire – peu importe si la source (qu’elle soit humaine ou informatique) essaie d’être utile ou ment entre ses dents ou ne dit rien de cohérent du tout.Lire : La recherche par IA est un désastreAux États-Unis, c’est le style d’écriture de l’autorité institutionnelle, et les chatbots IA sont jusqu’à présent parfaitement capables de reproduire sa voix, tout en fournissant des informations manifestement peu fiables. Sur le plan pratique, cela posera des défis aux personnes qui doivent naviguer dans un monde où ce type de technologie est soudainement introduit. Nos raccourcis mentaux utilisés pour évaluer la crédibilité de la communication à la volée ont toujours été loin d’être parfaits, et la nature même d’Internet rend déjà de tels appels de jugement plus difficiles et nécessaires. L’IA pourrait les rendre presque impossibles.ChatGPT et ses semblables sont construits à l’aide de ce que l’on appelle les grands modèles de langage, ou LLM. Cela signifie qu’ils récupèrent de très grandes quantités de langage écrit en ligne, puis, très grossièrement parlant, analysent cet ensemble de données pour déterminer quels mots seraient probablement assemblés dans quel ordre pour créer une réponse réussie. Ils génèrent un texte optimisé pour la plausibilité, pas pour la véracité. Avoir raison n’est pas le but, du moins pas maintenant ; sondage le droit est. Pour toute requête particulière, il y a beaucoup plus de réponses qui sonnent juste que de réponses qui sont vraies. Les LLM ne mentent pas intentionnellement – ils ne sont pas vivants et ne peuvent pas produire de résultats significativement similaires à la pensée humaine. Et ils n’ont pas été créés pour tromper leurs utilisateurs. Après tout, les chatbots génèrent fréquemment des réponses à la fois plausibles et correct, même si toute véracité est accessoire. Ils sont, en d’autres termes, les maîtres de la connerie – un discours persuasif dont l’essence « est juste ce manque de connexion à un souci de vérité – cette indifférence à la réalité des choses », a écrit le philosophe Harry Frankfurt dans son essai sur ce sujet. sorte de rhétorique.A lire : Elon Musk, roi des balivernesCe que les LLM sont actuellement capables de produire, ce sont des conneries de qualité industrielle à l’échelle industrielle. C’est gênant pour de nombreuses raisons, dont la moindre n’est pas que les humains ont suffisamment de mal à discerner la variété artisanale séculaire. Chaque être humain est tenu de prendre un million de petites décisions chaque jour pour savoir si une idée qui lui est présentée doit être crue, et il a rarement l’occasion ou le désir de s’arrêter, de rassembler toutes les informations pertinentes et de raisonner ces décisions à partir des premiers principes. . Cela arrêterait à peu près l’interaction humaine telle que nous la connaissons, et même essayer vous rendrait assez ennuyeux.Ainsi, les gens s’appuient plutôt sur des heuristiques cognitives, qui sont de petits raccourcis qui, dans ce cas, nous aident à nous diriger vers la croyance ou l’incrédulité dans des situations où tous les faits sont inconnus ou inconnaissables. Lorsque vous prenez l’avis médical de votre médecin, vous avez employé un heuristique d’autorité, qui accorde la confiance aux sources qui, selon vous, possèdent des connaissances et une expertise spécialisées. Lorsque vous décidez que quelque chose est probablement vrai parce que c’est devenu le consensus parmi votre famille et vos amis, c’est le heuristique en marche au travail. Même les meilleures heuristiques ne sont pas parfaites : votre médecin pourrait ne pas croire vos symptômes signalés et vous diagnostiquer à tort, ou votre cercle social pourrait être truffé de personnes qui pensent que la Terre est plate. Mais selon Miriam Metzger, professeur à l’UC Santa Barbara qui étudie comment les gens évaluent la crédibilité en ligne, bon nombre de ces raccourcis sont, dans l’ensemble, largement judicieux et extrêmement utiles. La plupart des gens dans la plupart des situations, par exemple, seraient bien servis d’écouter leur médecin au lieu de prendre les conseils médicaux de leur étrange cousin.La croissance d’Internet a posé toutes sortes de problèmes pour l’utilisation précise de l’heuristique de crédibilité, m’a dit Metzger. Il existe trop de sources potentielles d’informations qui se disputent directement votre attention, et trop peu de moyens d’évaluer rapidement ces sources ou leurs motivations. Maintenant, votre étrange cousin publie des choses sur Facebook, ainsi que tous ses amis étranges, et leurs amis aussi. « L’environnement numérique nous donne une multitude d’informations dans lesquelles il est simplement plus difficile pour les consommateurs de savoir à qui et à quoi faire confiance », a déclaré Metzger. « Cela impose une plus grande charge aux individus de faire leur propre évaluation de crédibilité pratiquement chaque fois qu’ils sont confrontés à de nouvelles informations. »Aux États-Unis, cette fragmentation informationnelle est généralement vue à travers le prisme de la politique, mais elle s’est également infiltrée dans des aspects plus banals de la vie. Sur internet, tout le monde peut théoriquement accéder à une expertise sur tout. Cette liberté présente d’énormes avantages, en particulier pour les personnes qui tentent de résoudre de petits problèmes gérables : il existe suffisamment de vidéos pédagogiques sur YouTube et de fils Reddit pour faire de vous votre propre agent de voyage, mécanicien, plombier et physiothérapeute. Dans de nombreux autres scénarios, cependant, porter un jugement sur le conglomérat Internet de connaissances d’origine douteuse et peut-être de fausses expertises peut avoir des conséquences réelles. Nous n’avons souvent aucune information à proximité des informations dont nous aurions besoin pour évaluer la crédibilité d’une source, et lorsque cela se produit, nous commençons généralement à fouiller dans notre sac d’heuristiques jusqu’à ce que nous en trouvions une qui fonctionne avec n’importe quel contexte. Ce avec quoi nous nous retrouvons pourrait bien être le heuristique de la fluidité- c’est-à-dire le sentiment que certains modèles de communication sont intrinsèquement crédibles.Dans la culture américaine dominante, une bonne grammaire, une orthographe précise et un vocabulaire large et varié sans jurons, insultes ou argot sont tous des conditions préalables à la crédibilité, et leur absence peut être utilisée pour discréditer les challengers de l’autorité existante et calomnier les personnes avec moins d’éducation ou d’origines culturelles différentes. Cette heuristique peut également être facilement utilisée contre les personnes qui l’utilisent : plus l’e-mail de phishing ressemble et ressemble à une véritable communication de votre banque, plus les escrocs de comptes peuvent s’écouler.C’est là que le langage d’entreprise soigné et professionnel des LLM bien formés a un sérieux potentiel de provoquer un chaos informationnel, a déclaré Metzger. Selon un rapport récent de Le Washington Post. Ce sont juste le type de source qui emploierait un style de communication précis et hautement éduqué. ChatGPT et d’autres chatbots similaires sont des machines de génération de texte qui inventent des faits et séparent les informations de leur source. Ce sont aussi des machines de simulation d’autorité qui découragent les lecteurs de douter d’eux en premier lieu.
Source link -57