Customize this title in french N’attendez pas un scandale semblable à celui de la Poste pour réglementer l’IA, ont déclaré les ministres | Intelligence artificielle (IA)

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Les ministres ont été mis en garde contre l’attente d’un scandale semblable à celui de la Poste impliquant l’intelligence artificielle avant d’intervenir pour réglementer cette technologie, après que le gouvernement a déclaré qu’il ne se précipiterait pas pour légiférer.

Le gouvernement reconnaîtra mardi que des mesures contraignantes pour superviser le développement de l’IA de pointe seront nécessaires à un moment donné – mais pas immédiatement. Au lieu de cela, les ministres exposeront « une réflexion initiale sur les futures exigences contraignantes » pour les systèmes avancés et en discuteront avec des experts techniques, juridiques et de la société civile.

Le gouvernement donne également 10 millions de livres sterling aux régulateurs pour les aider à lutter contre les risques liés à l’IA, et leur demande de définir leur approche de la technologie d’ici le 30 avril.

Cependant, l’Institut Ada Lovelace, un organisme indépendant de recherche sur l’IA, a déclaré que le gouvernement ne devrait pas attendre une impasse avec les entreprises technologiques ou des erreurs de l’ampleur du scandale de la Poste avant d’agir.

Michael Birtwistle, directeur associé de l’institut, a déclaré : « Nous ne devrions pas attendre que les entreprises cessent de coopérer ou qu’un scandale de type Post Office permette au gouvernement et aux régulateurs de réagir. Il existe un risque très réel qu’un nouveau retard dans la législation laisse le Royaume-Uni impuissant à prévenir les risques liés à l’IA – ou même à réagir efficacement après coup.

Le potentiel d’utilisation abusive de la technologie et son impact sur la vie des gens ont été mis en évidence par le scandale Horizon, où des centaines d’opérateurs de bureaux de poste ont été poursuivis à tort devant les tribunaux en raison d’un système informatique défectueux.

Le gouvernement a jusqu’à présent eu recours à une approche volontaire pour réglementer les systèmes les plus avancés. En novembre, il a annoncé lors d’un sommet mondial sur la sécurité de l’IA qu’un groupe de grandes entreprises technologiques, dont le développeur ChatGPT OpenAI et Google, avait convenu avec l’UE et 10 pays, dont les États-Unis, le Royaume-Uni et la France, de coopérer pour tester leurs systèmes les plus sophistiqués. Modèles d’IA.

Dans sa réponse à une consultation sur le livre blanc sur la réglementation de l’IA, le gouvernement s’en tient à son cadre de régulateurs établis – tels que l’organisme de surveillance des communications, l’Ofcom, et le régulateur des données, le Bureau du commissaire à l’information – réglementant l’IA en référence à cinq principes fondamentaux. : sécurité, transparence, équité, responsabilité et capacité des nouveaux arrivants à défier les acteurs établis de l’IA.

« L’IA évolue rapidement, mais nous avons montré que les humains peuvent évoluer tout aussi vite », a déclaré la secrétaire à la technologie, Michelle Donelan. « En adoptant une approche agile et spécifique à un secteur, nous avons commencé à maîtriser immédiatement les risques, ce qui à son tour ouvre la voie au Royaume-Uni pour devenir l’un des premiers pays au monde à récolter les bénéfices de l’IA en toute sécurité. »

Le gouvernement devrait également confirmer que les discussions entre les détenteurs de droits d’auteur et les entreprises technologiques sur le traitement des matériaux protégés par le droit d’auteur pour créer des outils d’IA n’ont pas abouti à un accord. L’Office de la propriété intellectuelle, l’agence gouvernementale chargée de superviser le régime britannique des droits d’auteur, avait tenté d’élaborer un code de bonnes pratiques, mais n’était pas parvenu à parvenir à un accord. L’échec des négociations a été rapporté pour la première fois par le Financial Times.

L’utilisation de contenus protégés par le droit d’auteur dans la création d’outils d’IA tels que les chatbots et les générateurs d’images, qui sont « formés » sur de grandes quantités de données extraites d’Internet, est devenue l’un des aspects les plus controversés sur le plan juridique de l’essor de l’IA générative. terme désignant une technologie qui produit instantanément un texte, une image et un son convaincants à partir d’invites saisies à la main.

Matthew Holman, associé du cabinet d’avocats britannique Cripps, a déclaré : « En fin de compte, les développeurs d’IA ont besoin de clarté de la part du gouvernement britannique sur la manière dont ils peuvent procéder en toute sécurité à la collecte de données et à la formation des systèmes sans être constamment exposés au risque de réclamation pour droits d’auteur de la part d’innombrables titulaires de droits.

« Dans le même temps, les titulaires de droits d’auteur ont besoin d’aide pour protéger leur précieuse propriété intellectuelle, qui est régulièrement copiée sans autorisation. »

Source link -57