Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Ja Bible soutient que « la course n’est pas au rapide, ni la bataille au fort », mais, comme disait Damon Runyon, « c’est ainsi qu’il faut parier ». En tant qu’espèce, nous adoptons le même point de vue, c’est pourquoi nous sommes obsédés par les «races». Le journalisme politique, par exemple, couvre principalement les courses de chevaux – coureurs et coureurs, favoris, outsiders, paris à sens unique, etc. Et lorsque nous entrons dans la géopolitique et les relations internationales, nous trouvons un domaine obsédé par les « courses » aux armements.
Ces derniers temps, un nouveau type d’armement – vaguement appelé « IA » – est entré dans la course. En 2021, nous avons découvert tardivement à quel point le gouvernement américain était inquiet à ce sujet. Une commission de sécurité nationale sur l’intelligence artificielle a été convoquée sous la présidence d’Eric Schmidt, l’ancien président de Google. Dans son rapport, publié en mars de cette année-là, la commission a averti : que la Chine pourrait bientôt remplacer les États-Unis en tant que « superpuissance IA » mondiale ; que les systèmes d’IA seront utilisés (surprise, surprise !) dans la « poursuite du pouvoir » ; et que « l’IA ne restera pas dans le domaine des superpuissances ou dans le domaine de la science-fiction ». Il a également exhorté le président Biden à rejeter les appels à une interdiction mondiale des armes autonomes très controversées alimentées par l’IA, affirmant qu’il était peu probable que la Chine et la Russie respectent les traités qu’elles ont signés.
C’était la plus forte indication à ce jour de l’anxiété hégémonique qui s’empare des États-Unis face à l’affirmation croissante de la Chine sur la scène mondiale. Cela explique également pourquoi une lettre ouverte signée par de nombreux chercheurs appelant tous les laboratoires d’IA à suspendre immédiatement pendant au moins six mois la formation de systèmes d’IA plus puissants que GPT-4 (et ajoutant que « si une telle pause ne peut pas être décrétée rapidement, les gouvernements devrait intervenir et instituer un moratoire ») est tombé dans les oreilles fermées à Washington et dans la Silicon Valley.
Pour un aperçu des inquiétudes qui étreignent les États-Unis, le premier chapitre de 2034 : Un roman de la prochaine guerre mondiale, co-écrit par un auteur de thrillers et un ancien amiral américain, pourrait être éclairant. Un groupe aéronaval américain en mer de Chine méridionale se porte au secours d’un bateau de pêche chinois en feu. Le bateau s’avère avoir un kit électronique intéressant à bord. Les Chinois exigent la libération immédiate du navire, auquel cas les Américains, qui ne sont pas disposés à s’exécuter, découvrent que tous de leurs systèmes électroniques se sont éteints et qu’ils sont entourés par un groupe de navires de guerre chinois dont ils ignoraient totalement la proximité. C’est ce à quoi ressemble l’infériorité technologique si vous êtes une superpuissance.
La lettre de «pause» bien intentionnée mais vaine était motivée par la crainte que la technologie d’apprentissage automatique ait franchi un seuil significatif sur la voie de l’IAG (intelligence générale artificielle), c’est-à-dire des machines superintelligentes. Cela n’est plausible que si vous croyez – comme le font certains dans le monde de l’apprentissage automatique – que l’expansion massive des LLM (grands modèles de langage) nous mènera finalement à l’AGI. Et si cela devait arriver (c’est ce que dit le raisonnement paniqué), cela pourrait être une mauvaise nouvelle pour l’humanité, à moins que les machines ne se contentent de garder les humains comme animaux de compagnie.
Pour l’establishment de la politique étrangère à Washington, cependant, la perspective que la Chine puisse accéder à l’AGI avant les États-Unis ressemble à une menace existentielle pour l’hégémonie américaine. Les géants locaux de la technologie qui dominent la technologie attisent assidûment ces peurs existentielles. Et ainsi le monde pourrait être confronté à une nouvelle « course aux armements » alimentée par les générations futures de la technologie qui nous a apporté ChatGPT, avec tout le gaspillage et la corruption que de telles dépenses entraînent dans leur sillage.
Cette ligne de pensée repose sur deux piliers qui semblent assez fragiles. Le premier est un article de foi ; la seconde est une idée fausse sur la nature de la concurrence technologique. L’article de foi est une croyance selon laquelle l’expansion accélérée de la technologie d’apprentissage automatique produira éventuellement l’IAG. Cela ressemble à une hypothèse assez héroïque. Comme le philosophe Kenneth A Taylor l’a souligné avant sa mort prématurée, la recherche sur l’intelligence artificielle se présente sous deux formes : l’IA en tant qu’ingénierie et l’IA en tant que science cognitive. L’émergence des LLM et des chatbots montre que des progrès significatifs ont été réalisés du côté de l’ingénierie, mais dans le domaine cognitif, nous sommes encore loin des avancées équivalentes. Pourtant, c’est là que des avancées spectaculaires sont nécessaires pour que les machines à raisonnement soient une proposition viable.
L’idée fausse est qu’il y a des gagnants clairs dans les courses aux armements. Comme Scott Alexander l’a noté l’autre jour, les victoires dans de telles courses ont tendance à être éphémères, même si parfois un avantage technologique peut suffire à faire pencher la balance dans un conflit – comme les armes nucléaires l’étaient en 1946. Mais c’était une situation binaire, où l’on soit avait des armes nucléaires ou on n’en avait pas. Ce n’était pas le cas avec d’autres technologies – l’électricité, les voitures ou même les ordinateurs. Ce ne serait pas non plus le cas avec AGI, si jamais nous y arrivions. Et pour le moment, nous avons suffisamment de mal à essayer de gérer la technologie dont nous disposons sans être obsédé par un avenir spéculatif et lointain.
Ce que j’ai lu
Retour vers le futur
Philip K Dick and the Fake Humans est une belle Critique de Boston essai d’Henry Farrell, affirmant que nous vivons dans le futur de Philip K Dick, pas dans celui de George Orwell ou d’Aldous Huxley.
Conscient de l’image
Comment l’IA transformera-t-elle la photographie ? est un essai d’ouverture stimulant de Charlotte Kent.
Les transformateurs
Le fascinant fil Twitter de Nick St Pierre sur comment les invites modifient les sorties AI génératives.