Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
PARIS (AP) — Une proposition de loi française pour les JO de Paris 2024 qui, selon les critiques, ouvrira la porte à une technologie de vidéosurveillance qui viole la vie privée en France et ailleurs en Europe fait face à un obstacle important mardi, les législateurs devant voter à ce sujet.
Le projet de loi légaliserait l’utilisation temporaire de soi-disant systèmes de surveillance intelligents pour protéger les Jeux de Paris, qui se dérouleront l’année prochaine du 26 juillet au 26 août. 11, et les Paralympiques qui suivent. Les systèmes combinent des caméras avec un logiciel d’intelligence artificielle pour signaler les problèmes de sécurité potentiels, tels que les colis abandonnés ou les surtensions.. Les opérateurs humains décideraient si une action est nécessaire.
Les autorités françaises insistent sur le fait que la surveillance n’impliquerait pas la reconnaissance faciale. Les partisans du projet de loi soutiennent que la technologie pourrait aider à éviter des catastrophes comme l’écrasement mortel de la foule qui a tué près de 160 personnes lors des festivités d’Halloween en Corée du Sud en octobre.
« Il ne s’agit pas de reconnaître ‘M. X’ dans une foule », a déclaré le ministre de l’Intérieur Gérald Darmanin aux députés de l’Assemblée nationale la semaine dernière alors qu’ils débattaient des mesures. « Il s’agit de reconnaître les situations. »
Le Sénat a approuvé le projet à une écrasante majorité en janvier, par 245 voix contre 28. Si l’Assemblée nationale emboîte le pas mardi après-midi, le projet de loi devrait encore être peaufiné par les membres de l’Assemblée et les sénateurs avant son adoption finale, prévue en avril.
Les groupes de surveillance des droits numériques affirment que la France violera le droit international des droits de l’homme en devenant le premier des 27 pays de l’Union européenne à légaliser la surveillance alimentée par l’IA, même si ce n’est que temporairement. Le projet de loi indique que la technologie peut être utilisée à titre expérimental jusqu’à la fin de 2024 pour protéger les événements sportifs et culturels en France qui risquent particulièrement d’être la cible d’attentats terroristes.
L’utilisation de la technologie « risque de transformer définitivement la France en un État de surveillance dystopique » et « conduira à une attaque totale contre les droits à la vie privée, à la manifestation et à la liberté de réunion et d’expression », a déclaré Mher Hakobyan, conseiller d’Amnesty International sur l’IA. régulation.
« Il a également été bien documenté que les technologies de surveillance hostiles sont utilisées de manière disproportionnée pour cibler des groupes marginalisés, y compris les migrants et les personnes noires et brunes », a ajouté Hakobyan.
Même si le projet de loi stipule que les caméras n’utiliseront pas la reconnaissance faciale, elles sont toujours susceptibles d’examiner les traits physiques, y compris les postures, les marches et les gestes des personnes, affirment les critiques. Les opposants craignent également que la technologie ne se concentre sur les personnes qui passent beaucoup de temps dans les espaces publics, comme les sans-abri. Le projet de loi ouvre également la voie à l’utilisation de la technologie avec des caméras montées sur des drones.
Au cours des discussions de la semaine dernière à l’Assemblée nationale sur le projet de loi, la députée de l’opposition Sandra Regol a fait valoir qu’il transformerait les visiteurs olympiques en «cobayes» pour la surveillance alimentée par l’IA.
___
Plus de couverture AP des JO de Paris : https://apnews.com/hub/2024-paris-olympic-games et https://twitter.com/AP_Sports