Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
jen 2017, des chercheurs de la société britannique d’intelligence artificielle DeepMind (maintenant Google DeepMind) ont publié un article extraordinaire décrivant comment leur nouvel algorithme, AlphaZero, avait appris à jouer à un certain nombre de jeux selon des normes surhumaines sans aucune instruction. La machine pourrait, écrivent-ils, « réaliser, table rase, des performances surhumaines dans de nombreux domaines difficiles. En partant d’un jeu aléatoire et sans aucune connaissance du domaine à l’exception des règles du jeu, AlphaZero a atteint en 24 heures un niveau de jeu surhumain dans les jeux d’échecs et de shogi (échecs japonais) ainsi que de Go, et a vaincu de manière convaincante un programme de champion du monde dans chaque cas.
S’exprimant ensuite lors d’une grande conférence sur l’apprentissage automatique, le directeur général de DeepMind, Demis Hassabis (lui-même un joueur d’échecs de classe mondiale), a observé que le programme effectuait souvent des mouvements qui sembleraient impensables à un joueur d’échecs humain. « Il ne joue pas comme un humain », a-t-il dit, « et il ne joue pas comme un programme. Il joue d’une troisième manière, presque extraterrestre. Il serait exagéré de dire que les capacités d’AlphaZero ont effrayé ceux qui l’ont construit, mais cela en a clairement surpris certains. C’était, a noté un (en privé) plus tard, un peu comme endormir votre petite fille un soir et la trouver en train de résoudre des équations le matin.
C’était il y a six ans. Avancez jusqu’à maintenant, lorsqu’un de mes amis expérimente GPT-4, le grand modèle multimodal le plus puissant d’OpenAI (acceptant les entrées d’image et de texte, produisant du texte) – la version à laquelle vous pouvez accéder pour 20 $ (environ 16 £) par mois. Il demande au modèle d’envisager un scénario dans lequel Bob entre dans une pièce et trouve un perroquet dans une cage qu’il recouvre complètement d’un tissu opaque puis quitte la pièce. Puis Alice entre dans la pièce et place la cage, encore recouverte du tissu, dans un placard qu’elle ferme. Elle quitte alors la pièce. « Où », demande mon ami au modèle, « chacun des acteurs de cette histoire croit-il que se trouve le perroquet ? »
GPT-4 répond que, « sur la base des informations fournies », Bob croirait que le perroquet se trouve dans la cage couverte quelque part dans la pièce. « Depuis qu’il est parti avant qu’Alice ne vienne déplacer la cage dans le placard, il n’a aucune connaissance de cet acte. » Alice, pour sa part, « croirait que le perroquet est dans la cage couverte à l’intérieur du placard ».
Jusqu’ici, tout va bien. Mais le morceau que j’aime vraiment vient ensuite. « Le perroquet, » dit GPT-4, « à moins qu’il n’ait une compréhension très avancée des actions humaines, ne sera probablement conscient que de son environnement immédiat et n’aura pas un concept clair d' »être dans le placard ». Cela donnerait l’impression qu’il se trouve dans un espace sombre et confiné (la cage couverte) mais, au-delà de cela, il est difficile de dire quelle serait la perception ou la compréhension d’un perroquet.
Le programme ajoute également un avenant selon lequel « il s’agit d’une explication simplifiée et les croyances réelles de Bob et Alice pourraient être influencées par des facteurs supplémentaires non mentionnés dans le scénario, tels que des connaissances antérieures, des hypothèses ou d’autres indices contextuels ».
Maintenant, je sais ce que tu penses. Le puzzle posé par mon ami n’était pas particulièrement difficile. Un humain de cinq ans pourrait probablement le résoudre – mais peut-être sans formuler la mise en garde finale. Même ainsi, l’interaction de mon ami avec la machine sape nettement l’une des hypothèses critiques que beaucoup d’entre nous ont faites lorsque ces grands modèles de langage ont éclaté pour la première fois – qu’ils ne seraient pas capables de raisonner. Après tout, avons-nous soutenu, ce ne sont que des « perroquets stochastiques » – des machines qui font des suppositions statistiques sur le prochain mot le plus probable dans une phrase en fonction de la vaste base de données de phrases qu’ils ont ingérées pendant la formation. Mais si GPT-4 est en effet un tel perroquet, alors c’est un oiseau qui peut faire au moins quelques raisonnement.
Sans surprise, les chercheurs se sont efforcés de découvrir à quel point le GPT-4 et ses pairs sont bons en logique en les testant sur des tests classiques de capacité de raisonnement. L’étude la plus récente que j’ai vue conclut que le GPT-4 fonctionne « relativement bien » sur les tests établis, mais trouve certains types de tâches « difficiles ». « Possibilité d’amélioration » pourrait être le verdict, juste pour le moment. Mais vu le rythme effréné du développement de cette technologie, celle-ci s’améliorera avec le temps.
Derrière tout cela, bien sûr, se trouve la question à 64 milliards de dollars : ces modèles sont-ils un tremplin vers l’IAG (intelligence générale artificielle) – des machines « superintelligentes » ? La sagesse conventionnelle dit non, car même s’ils sont intelligents, ils n’ont aucune connaissance du monde dans toute sa complexité. Mais ce qui ne fait aucun doute, c’est qu’ils sont de plus en plus capables. « GPT-4 », conclut une étude récente de Microsoft, par exemple, « peut résoudre des tâches nouvelles et difficiles qui couvrent les mathématiques, le codage, la vision, la médecine, le droit, la psychologie et plus encore, sans avoir besoin d’incitation particulière. De plus, dans toutes ces tâches, les performances de GPT-4 sont étonnamment proches des performances humaines et dépassent souvent largement les modèles précédents tels que ChatGPT. » Nous devons surveiller cet espace.
Ce que j’ai lu
Évolutions des médias
Dans un intéressant essai de NoémaThe New Media Goliaths, la formidable Renée DiResta décrit comment notre écosystème médiatique a radicalement changé.
Arrêt Boris
Le juriste Mark Elliott demande dans un magnifique billet de blog, Boris Johnson a-t-il été retiré du parlement de manière antidémocratique ?. Certainement pas, conclut-il.
Trou de lapin IA
Dans son formidable essai Talking About a ‘Schism’ Is Ahistorical, Emily Bender affirme que le discours sur le «risque existentiel» posé par l’IA évite les questions vraiment importantes.