Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Une disposition clé du règlement européen sur l’IA visant à évaluer les risques des modèles de fondation tels que ChatGPT pourrait devenir obsolète d’ici un an en raison du rythme de développement des technologies, ont déclaré des experts à Euractiv.
La loi de l’UE sur l’IA est le premier règlement complet au monde visant à réglementer l’intelligence artificielle. Il le fait en fonction de sa capacité à causer du tort. Après des années d’intenses négociations, le projet a obtenu l’approbation finale du Parlement européen à une écrasante majorité, mercredi 13 mars.
L’AI Act distingue les risques posés par les modèles de fondation en fonction de la puissance de calcul utilisée pour les former. Les modèles de base, également appelés IA à usage général, sont particulièrement puissants en raison de leurs multiples utilisations.
La loi définit un seuil de 10^25 opérations en virgule flottante par seconde (FLOP), une mesure des performances d’un ordinateur. Les produits d’IA qui dépassent ce seuil sont considérés comme présentant un « risque systémique » et sont réglementés plus strictement.
La technologie dépasse la réglementation
Cependant, Dragoș Tudorache, un député européen qui a agi en tant que co-rapporteur sur le dossier, a déclaré que les règles pourraient bientôt devenir obsolètes.
« Au moment où les règles relatives aux modèles de fondations seront applicables [12 months from now] soit il y aura quatre ou cinq gros modèles qui passeront ce seuil […] ou un nouveau saut technologique [will bring down the computational requirements for powerful foundation models]», a-t-il déclaré à Euractiv.
À l’heure actuelle, seuls les derniers modèles ChatGPT de Google et d’OpenAI dépassent probablement ce seuil, a déclaré Tudorache.
Dans un entretien séparé avec Euractiv, Sandra Wachter, professeur de technologie et de réglementation à l’Oxford Internet Institute, a souscrit à cette évaluation.
Compte tenu de la vitesse vertigineuse à laquelle la technologie de l’IA se développe, la loi sur l’IA s’accompagne d’une certaine flexibilité, y compris en ce qui concerne les modèles de base, a déclaré Tudorache.
Le seuil des échecs « confond calcul et risque », qui sont des choses distinctes, a déclaré Wachter à Euractiv. Quelle que soit leur taille, ces modèles comportent toutes sortes de risques en matière de biais, de désinformation, de protection des données et d’hallucinations, a-t-elle déclaré.
Entre-temps, les ingénieurs de la Silicon Valley et d’ailleurs s’efforcent de réduire la lourde charge de calcul, principalement encouragés non pas par la loi sur l’IA, mais par le contrôle des coûts.
L’influente société américaine de capital-risque a16z a qualifié la formation de ces modèles de « l’une des tâches les plus intensives en calcul que l’humanité ait entreprises jusqu’à présent ». C’est pourquoi les entreprises tentent de réduire les coûts énormes associés à la canalisation de ce type de puissance de calcul.
L’avenir du seuil
La classification des échecs n’est considérée qu’une première étape et peut être révisée par la Commission avec d’autres définitions et catégorisations de la loi sur l’IA. Il n’y a pas de calendrier prédéterminé pour réexaminer le critère des échecs, c’est à la Commission de le faire par le biais d’un acte délégué.
Cependant, le chemin vers la révision ne sera pas facile.
L’inclusion des modèles de fondations dans la législation n’était pas initialement envisagée, mais est devenue impérative avec l’explosion du ChatGPT en 2022. La manière de les réglementer a été un sujet de vive controverse, à tel point que les négociations ont failli s’arrêter en novembre 2023 sur cette question. .
La partie de la loi sur l’IA relative aux modèles de base « est le résultat d’un lobbying » et son impact est encore inconnu, a déclaré à Euractiv Merve Hickok, président et directeur de recherche du Centre pour l’IA et la politique numérique.
[Edited by Nathalie Weatherald]