L’UE et les États-Unis intensifient leur coopération en matière d’IA en période de crise politique

[ad_1]

Washington et Bruxelles intensifient leur coopération formelle sur la recherche en intelligence artificielle (IA) à un moment crucial pour les efforts de réglementation de l’UE sur la technologie émergente.

La Commission européenne et l’administration américaine ont signé un « accord administratif sur l’intelligence artificielle pour le bien public » lors d’une cérémonie virtuelle vendredi soir (27 janvier).

L’accord a été signé dans le cadre du Conseil UE-États-Unis sur le commerce et la technologie (TTC), lancé en 2021 en tant que plateforme permanente de coopération transatlantique dans plusieurs domaines prioritaires, de la sécurité de la chaîne d’approvisionnement aux technologies émergentes.

La dernière réunion de haut niveau du TTC s’est tenue aux États-Unis en décembre, et l’intelligence artificielle a été présentée comme l’un des domaines les plus avancés en termes de coopération.

En particulier, les deux blocs ont approuvé une feuille de route commune pour parvenir à une approche commune sur les aspects critiques de cette technologie émergente, tels que les métriques pour mesurer la fiabilité et les méthodes de gestion des risques.

« Sur la base de valeurs et d’intérêts communs, des chercheurs européens et américains uniront leurs forces pour développer des applications sociétales de l’IA et travailleront avec d’autres partenaires internationaux pour un impact véritablement mondial », a déclaré le commissaire au Marché intérieur Thierry Breton dans un communiqué.

Collaboration de recherche

S’appuyant sur la feuille de route sur l’IA, les branches exécutives des États-Unis et de l’UE intensifient leur collaboration pour identifier et développer la recherche sur l’IA qui a le potentiel de relever des défis mondiaux et sociétaux tels que le changement climatique et les catastrophes naturelles.

Cinq domaines prioritaires ont été identifiés : prévisions météorologiques et climatiques extrêmes, gestion des interventions d’urgence, amélioration de la santé et de la médecine, optimisation du réseau électrique et optimisation de l’agriculture. Ce type de collaboration était jusqu’à présent plus étroit et limité à des sujets plus spécifiques.

Bien que les deux partenaires construiront des modèles conjoints, ils ne partageront pas les ensembles de données de formation entre eux.

Les grands ensembles de données contiennent souvent des données personnelles difficiles à démêler du reste. Il n’existe actuellement aucun cadre juridique pour le partage de données personnelles outre-Atlantique en raison de la nature disproportionnée du régime de surveillance américain certifié en vertu du verdict Schrems II de la Cour de justice de l’UE.

« Les données américaines restent aux États-Unis et les données européennes y restent, mais nous pouvons construire un modèle qui parle aux données européennes et américaines, car plus il y a de données et plus elles sont diversifiées, meilleur est le modèle », a déclaré un haut responsable américain. Reuter.

La Commission a souligné que, dans le cadre de l’accord, les deux partenaires partageraient les conclusions et les ressources avec d’autres partenaires internationaux qui partagent leurs valeurs mais n’ont pas la capacité de résoudre ces problèmes.

Comme Washington et Bruxelles notent que l’accord s’appuie sur la Déclaration pour l’avenir de l’Internet, les signataires de la Déclaration sont des candidats probables qui pourraient bénéficier des résultats de cette recherche.

Cadre de gestion des risques

Alors que la collaboration UE-États-Unis sur l’IA a marqué une avancée, pour l’instant symbolique, avec l’accord administratif, Washington semble déterminé à mettre certaines de ses normes sur la carte à un moment où l’UE finalise le premier règlement mondial sur l’intelligence artificielle.

Jeudi dernier, la veille de l’annonce, le National Institute of Standards and Technology (NIST) du département américain du Commerce a publié son cadre de gestion des risques liés à l’intelligence artificielle, qui définit des lignes directrices pour les développeurs d’IA sur la cartographie, la mesure et la gestion des risques.

Ce cadre volontaire élaboré en concertation avec des entreprises privées et des administrations publiques représente bien l’approche américaine non contraignante des nouvelles technologies. Lorsqu’ils sont réglementés, cela se produit souvent au niveau de l’État en relation avec des secteurs spécifiques tels que les soins de santé.

En revanche, l’UE fait actuellement avancer les travaux sur la loi sur l’IA, une législation horizontale visant à réglementer tous les cas d’utilisation de l’IA en fonction de leur niveau de risque, comprenant notamment une liste de domaines à haut risque tels que la santé, l’emploi et l’application de la loi.

La loi sur l’IA devrait avoir une grande influence et éventuellement établir des normes internationales sur plusieurs aspects réglementaires via ce que l’on appelle l’effet de Bruxelles. Comme la plupart des principales entreprises mondiales dans le domaine sont américaines, il n’est pas surprenant que l’administration américaine ait tenté de le façonner.

En octobre, EURACTIV a révélé que Washington faisait pression pour que la catégorisation à haut risque soit basée sur une évaluation des risques plus individualisée. Il est important de noter que l’administration américaine a fait valoir que la conformité aux normes du NIST devrait être considérée comme un moyen alternatif de se conformer à l’auto-évaluation mandatée dans le projet de loi de l’UE sur l’IA.

La publication de ce cadre intervient à un moment critique pour la loi sur l’IA, alors que les législateurs de l’UE sont sur le point de finaliser leur position avant d’entamer des négociations interinstitutionnelles avec la Commission européenne et les États membres.

« Le cadre de gestion des risques de l’IA peut aider les entreprises et autres organisations de tous les secteurs et de toutes les tailles à démarrer ou à améliorer leurs approches de gestion des risques liés à l’IA », a déclaré la directrice du NIST, Laurie Locascio, dans un communiqué.

[Edited by Nathalie Weatherald]



[ad_2]

Source link -42