Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Json histoire commence le 27 août 2019, lorsque Roberto Mata était passager sur un vol Avianca 670 d’El Salvador à New York et qu’un chariot de nourriture et de boissons en métal se serait blessé au genou. Comme c’est le cas aux États-Unis, Mata a dûment poursuivi Avianca et la compagnie aérienne a répondu en demandant que l’affaire soit classée parce que « le délai de prescription avait expiré ». Les avocats de Mata ont fait valoir le 25 avril que le procès devait être poursuivi et ont joint une liste de plus d’une demi-douzaine d’affaires judiciaires antérieures qui ont apparemment établi des précédents à l’appui de leur argumentation.
Les avocats d’Avianca et le juge P Kevin Castel se sont alors consciencieusement lancés dans un examen de ces « précédents », pour constater que aucun des décisions ou des citations judiciaires citées et résumées dans le mémoire existaient.
Pourquoi? Parce que ChatGPT les avait inventés. Sur quoi, comme le New York Times rapport le dit, « l’avocat qui a créé le dossier, Steven A Schwartz du cabinet Levidow, Levidow & Oberman, s’est jeté à la merci du tribunal… disant dans un affidavit qu’il avait utilisé le programme d’intelligence artificielle pour faire ses recherches juridiques – « une source qui s’est révélée peu fiable ».
Ce Schwartz, soit dit en passant, n’était pas une recrue tout droit sortie de la faculté de droit. Il a pratiqué le droit dans la fosse aux serpents qu’est New York pour trois decennies. Mais il n’avait, apparemment, jamais utilisé ChatGPT auparavant, et « donc ignorait la possibilité que son contenu puisse être faux ». Il avait même demandé au programme de vérifier que les cas étaient réels, et il avait dit « oui ». Oh zut.
On se souvient de cette vieille histoire du bonhomme qui, ayant abattu son père et sa mère, se jette alors à la merci du tribunal sous prétexte qu’il est maintenant orphelin. Mais l’affaire Mata n’est qu’une autre illustration de la folie autour de l’IA qui règne actuellement. J’ai perdu le compte du nombre d’humains apparemment sensibles qui sont sortis ensorcelés de conversations avec des « chatbots » – le terme poli pour « perroquets stochastiques » qui ne font rien d’autre que faire des prédictions statistiques du mot le plus susceptible d’être ajouté à la phrase ils sont à ce moment en train de composer.
Mais si vous pensez que le spectacle d’humains ostensiblement intelligents pris en charge par des perroquets robotiques est bizarre, alors prenez un moment pour réfléchir aux événements positivement surréalistes dans d’autres parties de la forêt de l’IA. Cette semaine, par exemple, un grand nombre de sommités technologiques ont signé une déclaration selon laquelle « l’atténuation du risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire ». Beaucoup de ces personnes sont d’éminents chercheurs dans le domaine de l’apprentissage automatique, dont un certain nombre sont des employés de grandes entreprises technologiques. Quelque temps avant la sortie, trois des signataires – Sam Altman d’OpenAI, Demis Hassabis de Google DeepMind et Dario Amodi d’Anthropic (une société formée par les « décrocheurs » d’OpenAI) – ont été invités à la Maison Blanche pour partager avec le président et le vice -président leurs craintes quant aux dangers de l’IA, après quoi Altman a fait son discours au Sénat américain, affirmant que « l’intervention réglementaire des gouvernements sera essentielle pour atténuer les risques de modèles de plus en plus puissants ».
Prenez du recul par rapport à cela un instant. Nous avons ici des hauts représentants d’une industrie puissante et démesurément riche – ainsi que leurs partisans et collègues dans des laboratoires de recherche d’élite à travers le monde – qui sont d’une part fascinés par les défis techniques de la construction d’une technologie qui, selon eux, pourrait être une menace existentielle pour l’humanité, tout en appelant les gouvernements à la réglementer. Mais la pensée qui ne semble jamais entrer dans ce qu’on pourrait appeler leur esprit est la question que tout enfant se poserait : si c’est si dangereux, pourquoi continuez-vous à le construire ? Pourquoi ne pas arrêter et faire autre chose ? Ou à tout le moins, arrêter de relâcher ces produits dans la nature ?
Les regards vides que l’on reçoit de la foule de la technologie lorsque ces questions simples sont posées révèlent la vérité gênante à propos de ce genre de choses. Aucun d’entre eux – quel que soit leur niveau de responsabilité – ne peut l’arrêter, car ils sont tous au service d’IA qui sont encore plus puissantes que la technologie : les entreprises pour lesquelles ils travaillent. Ce sont les machines véritablement superintelligentes sous la domination desquelles nous vivons, travaillons et avons tous maintenant notre être. Comme l’IA démoniaque de fabrication de trombones de Nick Bostrom, de telles superintelligences existent pour atteindre un seul objectif : la maximisation de la valeur actionnariale ; si des scrupules humanistes mesquins s’opposent à cet objectif, tant pis pour l’humanité. Vraiment, vous ne pouviez pas l’inventer. ChatGPT pourrait, cependant.
Ce que j’ai lu
Rester lo-tech
Tim Harford a écrit une chronique typiquement réfléchie pour le Financial Times sur ce que les néo-luddites ont raison – et tort – à propos de la grande technologie.
Reste éveillé
Substack de Margaret Wertheim présente un article de blog très perspicace sur l’IA en tant que symptôme et rêve.
Beaucoup manqué
Martin Amis sur Jane Austen sur le site Literary Hub est un joli rappel (à partir de 1996) du romancier en tant que critique.