Customize this title in frenchLe sommet britannique sur la sécurité de l’IA devrait mettre en évidence le risque de perte du contrôle humain sur les modèles « frontières »

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Un premier projet de communiqué du sommet, consulté par Euractiv, considère la possibilité que des modèles d’IA hautement performants échappent au contrôle humain ou soient utilisés pour produire des dommages catastrophiques – par exemple pour produire des armes biologiques – parmi les risques les plus importants.

Le Royaume-Uni organise un sommet sur la sécurité de l’intelligence artificielle les 1er et 2 novembre. Ce rassemblement, le premier du genre, s’inscrit dans le cadre des efforts du Premier ministre britannique Rishi Sunak visant à placer le Royaume-Uni au centre de la course technologique mondiale et à se tailler une place dans la gouvernance internationale de l’IA.

Plus tôt cette semaine, le gouvernement britannique a publié le programme du sommet, fortement axé sur les modèles d’IA de pointe, un concept issu des principales entreprises technologiques actives dans ce domaine pour définir des modèles hautement performants pouvant être adaptés pour effectuer une variété de tâches.

Même s’il n’est pas encore clair qui, du côté de l’UE, participera, les représentants nationaux réunis au sein du groupe de travail Télécom, un organe technique du Conseil de l’UE, ont reçu lundi (16 octobre) une première ébauche du communiqué qui devrait être publié. adopté à l’issue du sommet.

Le Royaume-Uni accueillera le premier sommet mondial sur l’IA (Premier ministre Sunak)

La Grande-Bretagne accueillera le premier sommet mondial sur l’intelligence artificielle plus tard cette année, dans le but de négocier une approche commune entre les pays pour limiter les risques apocalyptiques potentiels de la technologie tout en exploitant son potentiel, a déclaré le Premier ministre Rishi Sunak mercredi 7 juin.

Cette deuxième version du projet de conclusions évoque les opportunités et les risques liés à l’IA, soulignant notamment le danger des modèles d’IA frontières, si complexes qu’ils pourraient devenir des acteurs indépendants et s’émanciper de la supervision humaine.

« Les plus importants de ces risques découlent d’une utilisation abusive intentionnelle ou de problèmes de contrôle, dans lesquels les systèmes d’IA peuvent chercher à accroître leur propre influence et à réduire le contrôle humain, et ces problèmes sont en partie dus au fait que ces capacités ne sont pas entièrement comprises », indique le texte. .

Le libellé confirme les rapports du Gardien celle attribuée aux inquiétudes de Downing Street selon lesquelles de puissants modèles d’IA pourraient être utilisés pour développer des armes biologiques ou échapper complètement à la surveillance humaine.

Le communiqué indique en particulier que ces risques concernent des domaines tels que la cybersécurité et la biotechnologie et pourraient conduire à des dommages délibérés ou non intentionnels pouvant atteindre une ampleur catastrophique.

« Compte tenu du rythme rapide et incertain de l’évolution de l’IA, et dans le contexte de l’accélération des investissements dans la technologie, nous affirmons qu’il est particulièrement urgent d’approfondir notre compréhension de ces risques potentiels et des actions pour y faire face », poursuit le document.

Le projet de conclusions engage les signataires à prendre des mesures internationales pour faire face aux risques liés à l’IA et à travailler avec tous les acteurs concernés pour garantir la sécurité de l’IA, tout en soulignant la responsabilité des développeurs de modèles frontières d’agir de manière transparente et responsable pour atténuer les risques.

Le document appelle également les pays à collaborer sur des mesures d’évaluation communes pour évaluer la sécurité de l’IA et à construire une compréhension commune fondée sur des preuves des risques potentiels de l’IA, notamment en établissant un réseau scientifique international pour la recherche sur la sécurité de l’IA aux frontières.

La conférence a lieu alors que les décideurs politiques de l’UE sont sur le point de finaliser leur approche réglementaire de cette technologie émergente dans le cadre de la loi sur l’IA, où la discussion sur la manière de gérer le modèle le plus puissant est encore ouverte.

[Edited by Nathalie Weatherald]

En savoir plus avec EURACTIV



Source link -57