Customize this title in frenchLutter pour les bonnes règles

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Statut : 13/04/2023 10h00

L’UE et les États-Unis cherchent la bonne façon de traiter l’intelligence artificielle – et les limites nécessaires. Lors des consultations à Los Angeles, une chose s’est surtout imposée : c’est compliqué.

Par Nils Dampz, ARD Studio Los Angeles

Une table ronde à la représentation de l’UE dans un immeuble de grande hauteur à San Francisco. Des experts en intelligence artificielle sont assis sur une petite scène. Tout le monde semble d’accord sur deux points : la technologie de l’intelligence artificielle (IA) se développe si rapidement que la réglementation ne peut tout simplement pas suivre.

« Nous sommes nettement en retard », a déclaré le panel d’experts. Et : établir des règles pour les applications d’IA est tout simplement compliqué.

Gilian Hadfield est professeur à l’Université de Toronto. Elle étudie à quoi pourraient ressembler les nouvelles règles de l’IA et conseille Open AI sur les questions réglementaires. C’est l’entreprise qui a inventé ChatGPT et GPT4 – les plateformes d’IA qui suscitent beaucoup d’enthousiasme depuis des mois.

« En ce qui concerne la réglementation, il y a beaucoup plus d’attention maintenant. C’est bien », a déclaré Hadfield. Parce que l’intelligence artificielle est une technologie qui modifie non seulement des domaines individuels, mais l’ensemble de l’économie – mais jusqu’à présent sans directives.

« Les règles doivent fonctionner dans tous les domaines »

Cela devrait changer. Le paquet, qui doit s’appliquer dans toute l’UE, est appelé « loi sur l’intelligence artificielle » ou « loi sur l’IA » en abrégé.

Lucilla Sioli, directrice de l’industrie numérique à la Commission européenne, travaille sur les lois. Elle explique pourquoi c’est si compliqué. Par exemple, parce que ce ne sont pas seulement des zones individuelles qui sont concernées. « Il ne s’agit pas seulement de soins de santé ou simplement du marché du travail. Les règles doivent fonctionner dans tous les domaines », prévient-elle.

Subdivision en catégories de risques

Le plan : les applications d’IA doivent être divisées en quatre catégories de risque : risque minimal, limité, élevé et inacceptable. Les jeux informatiques, par exemple, sont considérés comme présentant un risque minimal. L’IA pour la surveillance de masse ou la manipulation de personnes entre dans la catégorie inacceptable et devrait être interdite. Ce sont les cas clairs.

Des applications comme ChatGPT luttent. Le bot vocal est-il une application à haut risque car il pourrait propager de la désinformation ? Ou moins risqué ? La catégorie dans laquelle sont classées les candidatures est importante, souligne Sioli, car « les règles de la loi IA ne s’appliquent qu’aux candidatures à haut risque ». Ce qui signifie : plus le risque est faible, moins il y a de règles.

Selon l’organisation non gouvernementale Corporate Europe Observatory, des entreprises telles que Microsoft et Google s’efforcent donc de faire en sorte que leurs propres produits tombent dans une catégorie inférieure. Dans le même temps, des patrons de la technologie comme Sam Altman d’OpenAI ou Mark Zuckerberg de Meta appellent publiquement à une réglementation. C’est juste compliqué.

La législation européenne entrera en vigueur en 2025

Les règles de l’UE devraient être en place d’ici la fin de l’année et entreront en vigueur en 2025. Des représentants américains discutent également au sein de la représentation de l’UE à San Francisco. Rebecca Bauer-Kahan siège au parlement de l’État de Californie et souligne : « Que ce soit l’UE ou les États-Unis », quiconque fait des lois sur l’IA est toujours confronté au défi de ne pas empêcher les innovations et en même temps de protéger les personnes et la démocratie.

Il n’est pas encore prévisible quand des règles complètes sur l’IA arriveront aux États-Unis. L’experte en intelligence artificielle Pamela Samuelson de l’Université de Berkley estime qu' »une catastrophe majeure doit d’abord se produire aux États-Unis ». Ce n’est qu’alors qu’il sera réglementé.

« Nous sommes en retard » – Comment « l’IA » devrait-elle être réglementée ?

Nils Dampz, ARD Los Angeles, actuellement San Francisco, 13 avril 2023 06h53

Source link -57