Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLONDRES (AP) – Le développement époustouflant de l’intelligence artificielle a ébloui les utilisateurs en composant de la musique, en créant des images et en écrivant des essais, tout en suscitant des craintes quant à ses implications. Même les responsables de l’Union européenne travaillant sur des règles révolutionnaires pour régir la technologie émergente ont été pris au dépourvu par l’essor rapide de l’IA.Le bloc des 27 nations a proposé les premières règles d’IA du monde occidental il y a deux ans, en se concentrant sur la maîtrise des applications risquées mais étroitement ciblées. Les systèmes d’IA à usage général comme les chatbots étaient à peine mentionnés. Les législateurs travaillant sur la loi sur l’IA ont réfléchi à l’opportunité de les inclure, mais ne savaient pas comment, ni même si c’était nécessaire. « Puis ChatGPT a explosé en quelque sorte », a déclaré Dragos Tudorache, un membre roumain du Parlement européen co-dirigant la mesure. « S’il y en avait encore qui doutaient de savoir si nous avions besoin de quelque chose, je pense que le doute s’est rapidement dissipé. » La sortie de ChatGPT l’année dernière a attiré l’attention du monde entier en raison de sa capacité à générer des réponses humaines basées sur ce qu’il a appris en parcourant de grandes quantités de documents en ligne. Avec des inquiétudes émergentesles législateurs européens ont agi rapidement ces dernières semaines pour ajouter un libellé sur les systèmes généraux d’IA alors qu’ils mettaient la touche finale à la législation.La loi sur l’intelligence artificielle de l’UE pourrait devenir la norme mondiale de facto en matière d’intelligence artificielle, les entreprises et les organisations décidant potentiellement que la taille même du marché unique du bloc faciliterait la conformité plutôt que de développer différents produits pour différentes régions. »L’Europe est le premier bloc régional à tenter de manière significative de réglementer l’IAce qui est un énorme défi compte tenu du large éventail de systèmes que le terme général « IA » peut couvrir », a déclaré Sarah Chander, conseillère politique principale au sein du groupe de droits numériques EDRi.Les autorités du monde entier s’efforcent de comprendre comment contrôler cette technologie en évolution rapide pour s’assurer qu’elle améliore la vie des gens sans menacer leurs droits ou leur sécurité. Les régulateurs s’inquiètent des nouveaux risques éthiques et sociétaux posés par ChatGPT et d’autres systèmes d’IA à usage général, qui pourraient transformer la vie quotidienne, de l’emploi à l’éducation au droit d’auteur et à la vie privée.La Maison Blanche a récemment introduit les chefs d’entreprises technologiques travaillant sur l’IA, dont Microsoft, Google et le créateur de ChatGPT, OpenAI, pour discuter des risques, tandis que la Federal Trade Commission a averti qu’elle n’hésiterait pas à sévir. La Chine a publié un projet de réglementation imposant des évaluations de sécurité pour tous les produits utilisant des systèmes d’IA génératifs comme ChatGPT. L’organisme britannique de surveillance de la concurrence a ouvert un examen du marché de l’IAtandis que l’Italie a brièvement interdit ChatGPT sur une atteinte à la vie privée. Les réglementations radicales de l’UE – couvrant tout fournisseur de services ou de produits d’IA – devraient être approuvées par une commission du Parlement européen jeudi, puis entamer des négociations entre les 27 pays membres, le Parlement et la Commission exécutive de l’UE.Les règles européennes influençant le reste du monde – le soi-disant effet de Bruxelles – se sont déjà jouées après que l’UE a renforcé la confidentialité des données et câbles de recharge de téléphone communs obligatoiresbien que de tels efforts aient été critiqués pour avoir étouffé l’innovation. Les attitudes pourraient être différentes cette fois. Les leaders technologiques, dont Elon Musk et le co-fondateur d’Apple, Steve Wozniak, ont appelé à une pause de six mois pour examiner les risques. Geoffrey Hinton, un informaticien connu sous le nom de « Parrain de l’IA », et son collègue pionnier de l’IA, Yoshua Bengio, ont exprimé leurs inquiétudes la semaine dernière sur le développement incontrôlé de l’IA. Tudorache a déclaré que de tels avertissements montrent que la décision de l’UE de commencer à élaborer des règles sur l’IA en 2021 était « la bonne décision ». Google, qui a répondu à ChatGPT avec son propre chatbot Bard et déploie des outils d’IA, a refusé de commenter. L’entreprise a déclaré à l’UE que « l’IA est trop importante pour ne pas être réglementée ». Microsoft, un bailleur de fonds d’OpenAI, n’a pas répondu à une demande de commentaire. Il a salué l’effort de l’UE comme une étape importante « vers l’établissement d’une IA digne de confiance comme la norme en Europe et dans le monde ». Mira Murati, directrice de la technologie chez OpenAI, a déclaré dans une interview le mois dernier qu’elle croyait que les gouvernements devraient être impliqués dans la réglementation de la technologie de l’IA. Mais demandé si certains des outils d’OpenAI devrait être classé comme présentant un risque plus élevé, dans le contexte des règles européennes proposées, elle a dit que c’était « très nuancé ». « Cela dépend en quelque sorte de l’endroit où vous appliquez la technologie », a-t-elle déclaré, citant comme exemple un « cas d’utilisation médicale ou un cas d’utilisation légale à très haut risque » par rapport à une application comptable ou publicitaire. Le PDG d’OpenAI, Sam Altman, prévoit des arrêts à Bruxelles et dans d’autres villes européennes ce mois-ci dans le cadre d’une tournée mondiale pour parler de la technologie avec les utilisateurs et les développeurs.Des dispositions récemment ajoutées à la loi sur l’IA de l’UE exigeraient que les modèles d’IA « de base » divulguent le matériel protégé par le droit d’auteur utilisé pour former les systèmes, selon une récente ébauche partielle de la législation obtenue par l’Associated Press.Les modèles de base, également connus sous le nom de grands modèles de langage, sont une sous-catégorie d’IA à usage général qui comprend des systèmes comme ChatGPT. Leurs algorithmes sont formés sur de vastes bassins d’informations en lignecomme les articles de blog, les livres numériques, les articles scientifiques et les chansons pop. « Vous devez faire un effort important pour documenter le matériel protégé par le droit d’auteur que vous utilisez dans la formation de l’algorithme », ouvrant la voie aux artistes, écrivains et autres créateurs de contenu pour demander réparation, a déclaré Tudorache. Les responsables qui élaborent les réglementations sur l’IA doivent équilibrer les risques que pose la technologie avec les avantages transformateurs qu’elle promet. Les grandes entreprises technologiques développant des systèmes d’IA et les ministères nationaux européens cherchant à les déployer « cherchent à limiter la portée des régulateurs », tandis que les groupes de la société civile font pression pour plus de responsabilité, a déclaré Chander d’EDRi. « Nous voulons plus d’informations sur la manière dont ces systèmes sont développés – les niveaux de ressources environnementales et économiques qui y sont investies – mais aussi comment et où ces systèmes sont utilisés afin que nous puissions les défier efficacement », a-t-elle déclaré. Dans le cadre de l’approche basée sur les risques de l’UE, les utilisations de l’IA qui menacent la sécurité ou les droits des personnes sont soumises à des contrôles stricts. Reconnaissance faciale à distance on s’attend à ce qu’il soit interdit. Il en va de même pour les systèmes gouvernementaux de « notation sociale » qui jugent les gens en fonction de leur comportement. Le « grattage » aveugle des photos d’Internet utilisées pour la correspondance biométrique et la reconnaissance faciale est également un non-non. Police prédictive et la technologie de reconnaissance des émotions, en dehors des utilisations thérapeutiques ou médicales, sont également sorties. Les infractions pourraient entraîner des amendes pouvant atteindre 6 % du chiffre d’affaires annuel mondial d’une entreprise. Même après avoir obtenu l’approbation finale, attendue d’ici la fin de l’année ou début 2024 au plus tard, la loi sur l’IA n’entrera pas en vigueur immédiatement. Il y aura une période de grâce pour que les entreprises et les organisations déterminent comment adopter les nouvelles règles.Il est possible que l’industrie demande plus de temps en faisant valoir que la version finale de la loi sur l’IA va plus loin que la proposition initiale, a déclaré Frederico Oliveira Da Silva, juriste principal du groupe européen de consommateurs BEUC. Ils pourraient faire valoir qu’« au lieu d’un an et demi à deux ans, nous avons besoin de deux à trois ans », a-t-il déclaré. Il a noté que ChatGPT n’a été lancé qu’il y a six mois et qu’il a déjà soulevé une foule de problèmes et d’avantages pendant cette période. Si la loi sur…
Source link -57