Customize this title in french La répression de l’IA en Europe semble vouée à être vaincue par le pouvoir de lobbying de la Silicon Valley | John Naughton

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

WMercredi sera un jour fatidique à Bruxelles, une ville lointaine dont la Grande-Bretagne post-Brexit sait peu de choses et s’en soucie moins. C’est le jour où les propositions de l’UE en matière d’IA entrent dans les dernières étapes d’un processus législatif tortueux. Le projet de loi constitue une tentative historique (la première au monde) visant à réglementer sérieusement l’intelligence artificielle (IA) en fonction de sa capacité à causer des dommages. Il en sera bientôt à la phase finale du processus législatif – appelé « trilogues » – au cours duquel l’UE le parlement, la commission et le conseil décident du contenu du projet de loi et doivent donc faire partie du droit européen. En d’autres termes, grand jour, enjeux élevés.

Cependant, le projet de loi est désormais en suspens en raison de désaccords internes sur certains aspects clés de la législation proposée, en particulier ceux relatifs à la réglementation des modèles d’IA « de base » qui sont formés sur des ensembles de données massifs. Dans le langage européen, il s’agit de systèmes « d’IA à usage général » (GPAI) – capables d’effectuer une série de tâches générales (synthèse de texte, manipulation d’images, génération audio, etc.) – tels que GPT-4, Claude, Llama, etc. Ces systèmes sont étonnamment coûteux à former et à construire : les salaires des geeks qui y travaillent commencent au niveau des attaquants de Premier League et montent à des niveaux stratosphériques (avec des options d’achat d’actions supplémentaires) ; une seule carte Nvidia Hopper H100 de 80 Go – un composant clé du matériel d’apprentissage automatique – coûte 26 000 £, et vous en avez besoin de milliers pour construire un système respectable. Il n’est donc pas surprenant qu’une vingtaine d’entreprises seulement dans le monde puissent se permettre de jouer à ce jeu. Et ils ont de l’argent à dépenser.

Pourquoi ces modèles de fondation sont-ils importants ? L’indice réside dans le nom : ils sont devenus la base sur laquelle se construit la prochaine phase de l’avenir technologique – tout comme le World Wide Web est devenu au début des années 1990 la fondation sur laquelle notre monde en ligne actuel a été construit. Les GPAI constitueront ainsi la base d’innombrables nouvelles applications – créées pour la plupart par de petites entreprises et des startups – ce qui implique que tout « problème » (failles, vulnérabilités de sécurité, algorithmes manipulateurs, etc.) dans les modèles de fondation se répercutera inévitablement et infectera le monde en réseau.

En termes métaphoriques, c’est comme si nous construisions un nouveau système mondial d’approvisionnement en eau potable. Les GPAI sont des réservoirs géants à partir desquels nous – entreprises et particuliers – obtiendrons notre eau potable. Et jusqu’à présent, tous les réservoirs appartiennent et sont contrôlés par des sociétés américaines. Nous avons donc un intérêt vital à savoir comment l’eau entrant dans les réservoirs est filtrée, purifiée, valorisée. Quels additifs, conservateurs, microbes, suppléments ont été ajoutés par les propriétaires du réservoir ?

Au cœur des débats qui se déroulent actuellement à Bruxelles, il y a le fait que les grandes entreprises technologiques – les propriétaires de ces réservoirs métaphoriques – n’apprécient pas l’idée que les régulateurs puissent inspecter ce qu’ils font à l’eau. Mais jusqu’à récemment, il semblait que de nombreux membres du Parlement européen – le seul organe démocratique central de l’UE – étaient déterminés à inclure ce niveau de contrôle dans la législation sur l’IA.

Et puis quelque chose a changé. Soudainement, les gouvernements français, allemand et italien se sont unis pour prôner une réglementation moins intrusive des modèles de fondations. Selon ces trois mousquetaires, ce dont l’Europe a besoin, c’est d’un « cadre réglementaire qui favorise l’innovation et la concurrence, afin que des acteurs européens puissent émerger et porter notre voix et nos valeurs dans la course mondiale à l’IA ». La bonne approche n’est donc pas d’imposer une réglementation juridique aux entreprises (principalement américaines) qui dominent le racket de l’IA, mais de permettre l’autorégulation par le biais « d’engagements et de codes de conduite des entreprises ».

Hein ? Se pourrait-il qu’aucun haut responsable de ces trois pays n’ait suivi le comportement des entreprises technologiques américaines depuis l’aube du Web ? Espérer un comportement éthique de la part de tels groupes, c’est comme prier pour la conversion de la Chine au catholicisme. Plus précisément, n’ont-ils pas remarqué ce qui s’est passé l’autre jour lorsque le conseil d’administration d’OpenAI, apparemment chargé de veiller à ce que les modèles fondateurs de l’entreprise soient bons pour l’humanité, a été soudainement remplacé par des personnes ayant des objectifs moins élevés, à savoir la maximisation de la valeur actionnariale.

Malheureusement, le franco-germano-italien volte-face Il y a une explication plus simple, plus sordide : le pouvoir du lobbying des entreprises qui s’exerce sur tout le monde à Bruxelles et dans les capitales européennes en général. Et dans ce contexte, n’est-il pas intéressant de découvrir (grâce à une enquête menée par Temps que tandis que Sam Altman (à l’époque et aujourd’hui encore directeur général d’OpenAI après avoir été licencié et réembauché) avait passé des semaines à parcourir le monde pour parler de la nécessité d’une réglementation mondiale de l’IA, dans les coulisses, son entreprise avait fait pression pour « des éléments importants de l’IA de l’UE ». « La loi doit être édulcorée de manière à réduire le fardeau réglementaire pesant sur l’entreprise », et il a même rédigé un texte qui a trouvé sa place dans une récente version du projet de loi.

Alors, l’UE va-t-elle rester ferme et empêcher les entreprises d’IA de noter leurs propres devoirs ? J’espère ardemment que ce sera le cas. Mais seul un optimiste incurable parierait là-dessus.

Ce que j’ai lu

Des invités indésirables
Un bel essai sur le site Internet de Cambridge University Press sur le dilemme auquel étaient confrontés les propriétaires juifs de l’hôtel Kaiserhof lorsque Hitler l’a choisi comme base à Berlin avant de devenir chancelier.

Maître de l’univers
En 2016, le New yorkais a dressé un profil prémonitoire de Sam Altman, le directeur général d’OpenAI, ce qui rend la lecture intéressante maintenant.

Travaux légers
Un bel essai de réflexion d’Ed Simon sur le site Millions sur l’invention et le développement de la photographie.

Source link -57