Customize this title in frenchAI Act : Construire une gouvernance agile qui suit le rythme de l’innovation

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Les modèles de fondation, la gouvernance et la concentration du marché figurent en bonne place sur la liste des préoccupations des parties prenantes alors que les décideurs politiques de l’UE se préparent à finaliser la première loi mondiale sur l’IA.

L’AI Act est une initiative législative phare visant à réglementer l’intelligence artificielle en fonction de son potentiel nuisible. Tous les regards sont actuellement tournés vers les négociations dites de « trilogue » entre la Commission européenne, le Conseil et le Parlement, qui devraient clôturer le dossier.

Dans le même temps, les parties prenantes ont souligné plusieurs préoccupations liées à la loi sur l’IA, allant de la pérennité de sa structure de gouvernance à la tendance à la concentration du marché et à la réglementation des modèles d’IA les plus puissants.

Gouvernance

« Je pense que l’accent doit être mis sur la construction d’une gouvernance agile capable de suivre le rythme de l’innovation », a déclaré Paula Gürtler, assistante de recherche au groupe de réflexion CEPS, lors d’un événement organisé par Euractiv la semaine dernière.

Pour Gütler, la gouvernance mondiale de l’IA est un espace encombré, citant les principes de l’OCDE sur l’IA de 2019, le processus du G7 d’Hiroshima, la déclaration des dirigeants du G20 d’Osaka et les recommandations de l’UNESCO sur l’IA.

Selon Gütler, il s’agit d’une opportunité pour « un plus grand potentiel de coopération internationale en matière d’IA », principalement sur trois axes : le partage des connaissances, la gestion des effets extraterritoriaux de la réglementation de l’IA et le partage des bénéfices entre les communautés.

Concentration du marché

« Il existe une très forte possibilité et un très fort risque d’oligopoles extrêmes » sur le marché de l’IA, a prévenu Marco Bianchini, économiste et coordinateur de l’Initiative mondiale Digital for SME à l’OCDE, lors du même panel.

C’est une source d’inquiétude, explique Gütler : « La fracture algorithmique est un sujet à surveiller », affirmant qu’à terme, l’IA devrait être considérée non seulement sous l’angle des risques, mais aussi en termes de catalyseurs de l’IA, afin que la technologie puisse profite à tout le monde.

Modèles de fondation

En regardant le secteur de l’IA sous cet angle, certains intervenants ont exprimé leur scepticisme à l’égard de l’approche d’autorégulation préconisée par la France, l’Allemagne et l’Italie pour les modèles d’IA les plus puissants.

« Je pense que je suis généralement plutôt sceptique à l’égard du code de conduite et de l’autorégulation », a déclaré Gütler.

Selon elle, on ne peut pas faire confiance aux entreprises pour s’autoréguler car leur objectif principal est de maximiser les profits. Il a appelé à la création d’un organisme chargé de superviser les sociétés de développement.

Bianchini a déclaré que le débat au sein de l’UE était polarisé sur la réglementation des modèles de fondation, le Parlement européen poussant en faveur d’un régime beaucoup plus strict que les codes de conduite demandés aux trois plus grandes économies européennes.

Cependant, ce débat sur l’opportunité et la manière de réglementer les modèles de fondations a également lieu dans d’autres parties du monde, citant le Canada et les États-Unis, a déclaré Bianchini.

L’eurodéputé Ibán García del Blanco a ajouté : « Je suis également sceptique quant à l’autorégulation, mais je pense que nous pouvons créer les conditions dans lesquelles nous pourrions encourager l’autorégulation d’une manière qui serait plus rentable qu’improbable. »

García del Blanco a poussé à introduire dans la loi sur l’IA certains principes généraux pour tous les modèles d’IA destinés à guider l’utilisation éthique de l’IA.

Gütler a réagi en disant qu’elle n’était pas convaincue, expliquant que des concepts généraux comme l’égalité d’équité laissent beaucoup de place à l’interprétation, ce qui peut être préjudiciable pour les utilisateurs finaux. Elle a suggéré d’avoir des systèmes de certification, qui laissent beaucoup moins de place à l’interprétation.

Bianchini a ajouté que l’innovation en matière d’IA se produisait dans « les deux sens », expliquant que l’on pourrait créer des modèles de fondation pour surveiller la conformité réglementaire d’autres modèles de fondation.

[Edited by Luca Bertuzzi/Nathalie Weatherald]

En savoir plus avec EURACTIV



Source link -57