Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Les trois plus grandes économies européennes se sont opposées à la réglementation des types d’intelligence artificielle les plus puissants, mettant en jeu le sort de la loi pionnière sur l’intelligence artificielle du bloc.
La France, l’Allemagne et l’Italie bloquent les négociations sur une section controversée du projet de loi de l’UE sur l’IA afin que cela n’entrave pas le développement par l’Europe de « modèles de base », une infrastructure d’IA qui sous-tend des modèles à grand langage comme le GPT d’OpenAI et le Bard de Google.
Les responsables gouvernementaux affirment que l’imposition de restrictions sévères à ces nouveaux modèles nuirait aux champions de l’UE dans la course à l’exploitation de la technologie de l’IA.
Dans un document commun partagé avec d’autres gouvernements de l’UE, obtenu par POLITICO, les trois poids lourds européens ont déclaré que l’Europe a besoin d’un « cadre réglementaire qui favorise l’innovation et la concurrence, afin que les acteurs européens puissent émerger et porter notre voix et nos valeurs dans la course mondiale à l’IA ». » Le document suggère des modèles de fondations autorégulées par le biais d’engagements et de codes de conduite des entreprises.
La charge franco-germano-italienne les oppose aux législateurs européens, qui souhaitent fermement freiner les modèles de fondations.
« C’est une déclaration de guerre », a déclaré un membre de l’équipe de négociation du Parlement européen, qui a requis l’anonymat en raison du caractère sensible des négociations.
L’impasse pourrait même signifier la fin des négociations sur la loi sur l’intelligence artificielle. Les négociations interinstitutionnelles sur la loi sont au point mort au niveau de l’UE après que des membres du personnel parlementaire ont quitté une réunion avec des représentants gouvernementaux du Conseil de l’UE et des responsables de la Commission européenne à la mi-novembre, en réponse à la résistance des trois pays à réglementer. modèles de fondation.
Les pourparlers sont soumis à une pression intense, alors que les négociateurs sont confrontés à la date limite du 6 décembre. Le Parlement européen étant réélu en juin 2024, la fenêtre d’opportunité pour adopter la loi se referme rapidement.
Un acte anti-européen
La volonté de réduire le modèle réglementaire européen est surprenante car elle rompt avec la pensée traditionnelle du continent selon laquelle le secteur technologique a besoin d’une réglementation plus forte.
De plus, cela arrive à un moment où les principaux chefs de file de l’industrie de l’intelligence artificielle ont appelé à une réglementation stricte de leur technologie et où des pays comme les États-Unis – un partisan de longue date des lois sur les technologies légères – déploient leur propre programme de réglementation via un Décret exécutif radical sur l’IA.
Ignorer les modèles fondamentaux (et par conséquent les plus avancés d’entre eux, appelés « modèles frontières » par les initiés de l’industrie) serait « fou » et risquerait de faire de la loi européenne sur l’IA « la loi de la jungle », a déclaré l’informaticien canadien Yoshua Bengio, une voix de premier plan en matière de politique en matière d’IA, a déclaré dans une interview la semaine dernière.
« Nous pourrions nous retrouver dans un monde où les systèmes d’IA inoffensifs sont fortement réglementés dans l’UE… et où les plus grands systèmes, les plus dangereux, les plus potentiellement nuisibles, ne sont pas réglementés », a ajouté Bengio.
L’Union européenne soutient largement l’interdiction et les règles strictes concernant les applications de l’IA basées sur leur utilisation dans des scénarios sensibles comme l’éducation, l’immigration et le lieu de travail. Les modèles de fondation peuvent effectuer plusieurs tâches, ce qui rend difficile la prévision de leur niveau de risque.
Dans leur proposition, les parlementaires européens prévoyaient d’ajouter des obligations pour les développeurs de modèles de fondation, indépendamment de l’utilisation prévue du système, y compris des tests obligatoires de modèles par des experts tiers. Certaines obligations ne s’appliqueraient qu’aux modèles dotés d’une plus grande puissance de calcul, créant ainsi un ensemble de règles à deux niveaux que les trois gouvernements ont explicitement rejetées dans leur document.
Alors que d’autres pays de l’UE – notamment l’Espagne, qui assure la présidence tournante du Conseil – sont favorables à l’élargissement du champ d’application de la loi sur l’IA pour couvrir les modèles de fondations, le Conseil a désormais peu de marge pour s’écarter de la position des Trois Grands.