Après la réélection de Donald Trump, la Silicon Valley anticipe des changements favorables aux entreprises en IA et en cryptomonnaie, avec un assouplissement des régulations. Trump prévoit de démanteler le cadre actuel sur l’IA et ses alliés veulent faire des États-Unis un leader mondial. Cependant, la transparence des données d’entraînement des modèles d’IA pose problème, suscitant des préoccupations sur leur impartialité et l’utilisation des droits d’auteur, ce qui pourrait affecter la création artistique future.
Suite à la réélection de l’ancien président Donald Trump, les acteurs de la Silicon Valley s’interrogent sur la façon dont la nouvelle administration pourrait mettre en place des politiques plus favorables aux entreprises dans le domaine de l’intelligence artificielle (IA) et de la cryptomonnaie. En effet, un assouplissement des régulations est l’une des raisons principales pour lesquelles de nombreux investisseurs et entrepreneurs de la tech, qui ont déjà engagé des milliards dans l’IA générative, ont choisi de soutenir le candidat républicain, un choix qu’ils avaient précédemment évité.
Les Perspectives de l’IA sous Trump
Selon des analyses, une majorité d’électeurs américains semble pencher pour un environnement où l’IA pourrait se développer sans contraintes excessives. Bien que la réputation de Trump soit celle d’un homme de pouvoir, sa victoire pourrait favoriser un climat où l’IA se développe sans régulations strictes. Les alliés de Trump ont déjà esquissé des plans pour positionner l’Amérique comme le leader mondial de l’IA, notamment en abrogeant les régulations jugées trop lourdes imposées par l’administration Biden.
Trump lui-même a exprimé son intention de démanteler dès le premier jour le cadre réglementaire actuel sur l’IA, en s’associant avec des personnalités influentes qui critiquent toute forme de réglementation, à l’exception des plus légères. De plus, l’Institut de sécurité de l’IA des États-Unis, créé par le département du Commerce, a pour mission d’évaluer les risques associés aux systèmes d’IA, et certains estiment que les exigences en matière de transparence imposées par l’administration Biden pourraient freiner l’innovation.
Les Défis de la Transparence dans l’IA
Si la nouvelle administration opte pour une approche laxiste concernant la régulation de l’IA, il sera difficile de connaître les données utilisées pour entraîner les modèles de langage avancés tels que ChatGPT d’OpenAI ou Gemini de Google. Bien que la Californie ait mis en place une loi obligeant les entreprises d’IA à clarifier les sources de leurs données d’entraînement, l’ordre exécutif de Biden ne prévoyait pas de telles obligations.
La nécessité de connaître ces informations est cruciale, surtout si ces modèles deviennent les principales sources d’information pour le grand public. Une telle opacité pourrait entraîner une méfiance quant à la véracité et l’impartialité des réponses fournies. Les titulaires de droits d’auteur se plaignent également de l’utilisation non autorisée de leur contenu, affirmant que leurs œuvres ont été utilisées sans compensation, ce qui a conduit à des poursuites contre des entreprises d’IA comme OpenAI.
Une étude récente de Ziff Davis a révélé que les grandes entreprises d’IA, telles qu’OpenAI et Google, s’appuient davantage sur le contenu d’éditeurs premium pour entraîner leurs modèles que ce qu’elles ne l’admettent. Les enjeux autour de l’utilisation des données d’entraînement et des droits d’auteur sont donc d’une importance capitale, notamment pour les futures générations d’écrivains et d’artistes.