[ad_1]
Les États-Unis font pression pour une définition plus étroite de l’intelligence artificielle, une exemption plus large pour l’IA à usage général et une évaluation des risques individualisée dans la loi sur l’IA, selon un document obtenu par EURACTIV.
Le document informel est daté d’octobre 2022 et a été envoyé à des responsables gouvernementaux ciblés dans certaines capitales de l’UE et à la Commission européenne. Il suit une grande partie des idées et du libellé des premières réactions envoyées aux législateurs de l’UE en mars dernier.
« Beaucoup de nos commentaires sont motivés par notre coopération croissante dans ce domaine dans le cadre du Conseil du commerce et de la technologie (TTC) États-Unis-UE et par des inquiétudes quant à savoir si la loi proposée soutiendra ou restreindra la coopération continue », indique le document.
Le document est une réaction aux progrès réalisés par la présidence tchèque du Conseil de l’UE sur le règlement sur l’IA le mois dernier. Un porte-parole de la mission américaine auprès de l’Union européenne a refusé la demande de commentaires d’EURACTIV.
Définition de l’IA
Alors que les Américains ont montré leur soutien aux changements apportés par la présidence tchèque pour clarifier la définition de l’intelligence artificielle, ils ont averti que la définition « inclut toujours des systèmes qui ne sont pas assez sophistiqués pour mériter une attention particulière dans le cadre d’une législation axée sur l’IA, comme des règles élaborées à la main ». des systèmes basés sur les .
Pour éviter une trop grande inclusion, le non-document suggère d’utiliser une définition plus étroite qui capture l’esprit de celle fournie par l’Organisation de coopération et de développement économiques (OCDE) et clarifie ce qui est inclus et ce qui n’est pas inclus.
IA à usage général
Le non-document recommande d’avoir des règles de responsabilité différentes pour les fournisseurs de systèmes d’IA à usage général, de grands modèles qui peuvent être adaptés pour effectuer diverses tâches, et les utilisateurs de ces modèles qui pourraient les utiliser pour des applications à haut risque.
La présidence tchèque a proposé que la Commission adapte ultérieurement les obligations du règlement sur l’IA aux spécificités de l’IA à usage général par le biais d’un acte d’exécution.
En revanche, l’administration américaine prévient que l’imposition d’obligations de gestion des risques à ces prestataires pourrait s’avérer « très lourde, techniquement difficile et dans certains cas impossible ».
De plus, le non-document va à l’encontre de l’idée que les fournisseurs d’IA à usage général devraient coopérer avec leurs utilisateurs pour les aider à se conformer à la loi sur l’IA, y compris la divulgation d’informations commerciales confidentielles ou de secrets commerciaux, mais avec les garanties appropriées.
Les principaux fournisseurs de systèmes d’IA à usage général sont de grandes entreprises américaines comme Microsoft et IBM.
Systèmes à haut risque
En classant un cas d’utilisation comme à haut risque, l’administration américaine a plaidé pour une évaluation des risques plus individualisée qui devrait tenir compte des sources de menace, des vulnérabilités, de l’occurrence probable du dommage et de son importance.
En revanche, les droits de l’homme ne doivent être évalués que dans des contextes particuliers. Ils ont également plaidé en faveur d’un mécanisme d’appel pour les entreprises qui pensent avoir été classées à tort comme à haut risque.
Pour la coopération internationale, Washington souhaite que les normes du National Institute of Standards and Technology (NIST) puissent être un moyen de conformité alternatif aux auto-évaluations mandatées par le règlement sur l’IA.
Le non-document indique également que « dans les domaines considérés comme « à haut risque » en vertu de la loi, de nombreuses agences gouvernementales américaines cesseront probablement de partager plutôt que de risquer que des méthodes étroitement détenues soient divulguées plus largement qu’elles ne le souhaitent ».
Bien que le document exprime son soutien à l’approche de la présidence tchèque consistant à ajouter une couche supplémentaire pour la classification des systèmes à haut risque, il avertit également qu’il pourrait y avoir des incohérences avec le régime réglementaire du règlement sur les dispositifs médicaux.
Gouvernance
Les États-Unis font pression pour un rôle plus substantiel pour le Conseil de l’IA, qui rassemblera collectivement les autorités nationales compétentes de l’UE, par rapport à l’autorité de chaque pays. Ils proposent également un sous-groupe permanent au sein du conseil d’administration avec des représentants des parties prenantes.
Étant donné que le Conseil sera chargé de donner des conseils sur les spécifications techniques, les normes harmonisées et l’élaboration de lignes directrices, Washington aimerait voir une formulation permettant aux représentants de pays partageant les mêmes idées, au moins dans ce sous-groupe.
La Commission européenne a de plus en plus fermé la porte aux pays non membres de l’UE en matière d’élaboration de normes, tandis que les États-Unis font pression pour davantage de coopération bilatérale.
Coopération internationale
Selon le non-document, le règlement pourrait empêcher la coopération avec des pays tiers car il couvre les autorités publiques extérieures à l’UE qui ont un impact sur le bloc, à moins qu’il n’existe un accord international pour l’application de la loi et la coopération judiciaire.
L’inquiétude est que l’administration américaine pourrait cesser de coopérer avec les autorités de l’UE pour la gestion du contrôle des frontières, que la loi sur l’IA considère comme distincte de l’application de la loi.
Un autre point soulevé est que la référence aux « accords » est jugée trop étroite, car des accords contraignants sur la coopération en matière d’IA pourraient prendre des années à être conclus. Même la coopération existante en matière d’application de la loi pourrait en pâtir puisqu’elle se déroule également en dehors d’accords formels.
En outre, le document officieux suggère une exemption plus flexible pour l’utilisation des technologies de reconnaissance biométrique dans les cas où il existe une menace « crédible », telle qu’une attaque terroriste, car une formulation stricte pourrait empêcher une coopération pratique pour assurer la sécurité des grands événements publics .
Code source
En mai, la présidence française a inclus la possibilité pour les autorités de surveillance du marché de se voir accorder un accès complet au code source des systèmes à haut risque lorsque « nécessaire » pour évaluer leur conformité avec le règlement sur l’IA.
Pour Washington, ce qui est « nécessaire » doit être mieux défini, une liste de critères transparents doit être appliquée pour éviter des décisions subjectives et incohérentes dans l’UE, et l’entreprise doit pouvoir faire appel de la décision.
[Edited by Nathalie Weatherald]
[ad_2]
Source link -42