Customize this title in frenchL’IA révèle qui a vraiment le pouvoir dans la Silicon Valley

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLa Silicon Valley produit tout le temps de nouveaux produits, mais on reçoit rarement le niveau de battage médiatique qui a entouré la sortie de GPT-4. Le suivi de ChatGPT peut réussir des tests standardisés, vous dire pourquoi un mème est drôle et même vous aider à faire vos impôts. Depuis que la start-up de San Francisco OpenAI a introduit la technologie au début du mois, elle a été qualifiée de « remarquable mais troublante » et a conduit à des déclarations grandioses sur la façon dont « les choses ne seront plus jamais pareil.”Mais en fait, essayer ces fonctionnalités par vous-même – ou du moins celles qui ont déjà été rendues publiques – n’est pas bon marché. Contrairement à ChatGPT, qui a captivé le monde parce qu’il était gratuit, GPT-4 n’est actuellement disponible que pour les non-développeurs via un service premium qui coûte 20 $ par mois. OpenAI a récemment pris d’autres mesures pour tirer profit de ses produits. Le mois dernier, il a annoncé un partenariat avec la société de conseil Bain & Company pour aider à automatiser les campagnes marketing et les opérations de service client pour ses clients. Et il y a quelques semaines à peine, la start-up a annoncé un service payant qui permettrait à d’autres entreprises d’intégrer sa technologie dans leurs propres produits, et Instacart, Snapchat et Shopify l’ont déjà fait.D’ici l’année prochaine, OpenAI – une entreprise qui était pratiquement inconnue en dehors de la technologie il y a quelques mois à peine – s’attend à récolter 1 milliard de dollars de revenus annuels. Et ce n’est pas la seule entreprise à voir des signes de dollar pendant cette ruée vers l’or de l’IA. Des start-up relativement nouvelles telles qu’Anthropic ont maintenant des valorisations d’un milliard de dollars, tandis qu’Alphabet et Meta vantent à bout de souffle leurs investissements dans l’IA. Chaque entreprise veut une IA qui lui appartienne, tout comme elle voulait des réseaux sociaux il y a dix ans ou des moteurs de recherche dans la décennie précédente. Et comme ces technologies antérieures, les outils d’IA ne peuvent pas être entièrement attribués aux ingénieurs logiciels d’entreprise avec des salaires à six chiffres. Certains de ces produits nécessitent une main-d’œuvre inestimable de la part de travailleurs étrangers qui gagnent beaucoup, beaucoup moins, et chaque chatbot est créé en ingérant des livres et du contenu qui ont été publiés sur Internet par un grand nombre de personnes. Donc, dans un sens, ces outils ont été construits par nous tous.Le résultat est une disparité inconfortable entre qui fait le travail qui permet à ces modèles d’IA de fonctionner et qui peut les contrôler et en tirer profit. Ce type de disparité n’a rien de nouveau dans la Silicon Valley, mais le développement de l’IA éloigne davantage le pouvoir de ceux qui sont en bas à un moment où les licenciements ont déjà entraîné un sentiment de précarité généralisée pour l’industrie technologique. Les travailleurs à l’étranger ne récolteront aucun de ces bénéfices, pas plus que les personnes qui pourraient voir certains aspects de leur travail, voire l’intégralité de leur travail, remplacés par l’IA, même si leurs publications Reddit et leurs entrées Wikipédia ont été introduites dans ces chatbots. Les techniciens bien payés pourraient également être perdants, compte tenu des capacités de codage de l’IA. Au cours des quelques mois qui ont suivi l’explosion d’OpenAI, elle a rappelé à la Silicon Valley une vérité fondamentale que les avantages de bureau et les options d’achat d’actions n’auraient jamais dû être en mesure de dissimuler : les travailleurs de la technologie ne sont que des travailleurs.L’industrie technologique dans son ensemble peut être résolument axée sur le profit malgré sa rhétorique noble, mais OpenAI ne l’était pas au début. Lorsque la start-up a été fondée en décembre 2015, elle était délibérément structurée comme une organisation à but non lucratif, puisant dans une idée utopique de la technologie de construction d’une manière qui était, disons, ouverte. L’énoncé de mission de l’entreprise exprime que son objectif est « de bénéficier à l’humanité dans son ensemble », notant que « puisque notre recherche est exempte d’obligations financières, nous pouvons mieux nous concentrer sur un impact humain positif ».L’objectif aurait pu être louable, compte tenu de tout ce qui pouvait mal tourner avec une véritable intelligence artificielle, mais cela n’a pas duré. En 2019, invoquant la nécessité de lever plus d’argent pour ses inventions, OpenAI s’est reconfigurée en une entreprise à «profit plafonné» – un hybride difficile entre à but lucratif et à but non lucratif dans lequel tous les bénéfices sont plafonnés à 100 fois leur investissement initial. Elle a depuis agi comme n’importe quelle autre start-up avide de croissance, soucieuse d’augmenter sa valorisation à chaque tournant. En janvier, Microsoft a versé 10 milliards de dollars dans OpenAI dans le cadre d’un accord qui donne à Microsoft une licence pour utiliser sa technologie (bonjour, Bing), tout en fournissant à la start-up les immenses ressources informatiques nécessaires pour alimenter ses produits. Cette somme crée une tension inhérente entre l’engagement déclaré d’OpenAI et le désir des investisseurs de rentabiliser leurs investissements. La rhétorique originale de l’entreprise sur la création de « biens publics » ressemble peu à un partenariat Bain axé sur la « création de contenu hyper-efficace ». (Lorsqu’il a été contacté pour commenter, un porte-parole d’OpenAI n’a pas répondu à ma question sur la façon dont les dernières initiatives de l’entreprise s’inscrivent dans sa mission plus large.)Cette orientation vers le profit ne pouvait pas compenser tout le travail qui a contribué aux produits d’OpenAI. Si les résultats de grands modèles de langage tels que GPT-4 nous semblent intelligents et familiers, c’est parce qu’ils sont dérivés du même contenu que nous avons nous-mêmes utilisé pour donner un sens au monde, et peut-être même contribué à créer. De véritables réalisations techniques sont entrées dans le développement de GPT-4, mais la technologie résultante serait fonctionnellement inutile sans l’entrée d’un ensemble de données qui représente une tranche de la perspicacité, de la créativité et de la stupidité combinées de l’humanité. De cette manière, la recherche moderne sur l’IA ressemble à une « enceinte numérique des biens communs », dans laquelle le patrimoine informationnel de l’humanité – un trésor collectif qui ne peut vraiment appartenir à personne – est considéré par les entreprises principalement comme une source de profit potentiel. Voici le modèle de la Silicon Valley en quelques mots : Google organise les informations mondiales d’une manière qui lui permet de récolter d’énormes profits en nous montrant des publicités ; Facebook fait de même pour nos interactions sociales. C’est un arrangement que la plupart d’entre nous acceptons simplement : en échange de nos données, nous obtenons des plateformes gratuites.Mais même si nos publications sur Internet sont désormais des données qui peuvent être transformées en profit pour les entreprises d’IA, les personnes qui ont contribué plus directement ont été plus directement exploitées. Alors que certains chercheurs d’OpenAI ont gagné près de 2 millions de dollars par an, OpenAI aurait payé des travailleurs externalisés au Kenya moins de 2 dollars de l’heure pour identifier les éléments toxiques dans les données de formation de ChatGPT, les exposant à un contenu potentiellement traumatisant. Le porte-parole d’OpenAI m’a signalé une déclaration antérieure à Temps Cela dit, « Notre mission est de garantir que l’intelligence artificielle générale profite à toute l’humanité, et nous travaillons dur pour construire des systèmes d’IA sûrs et utiles qui limitent les préjugés et les contenus préjudiciables. »Certes, ces disparités mondiales en matière de main-d’œuvre ne sont pas propres à OpenAI ; des critiques similaires des pratiques d’externalisation ont été adressées à d’autres start-ups d’IA, en plus d’entreprises, telles que Meta, qui s’appuient sur la modération de contenu pour les données générées par les utilisateurs. Il ne s’agit pas non plus d’un phénomène spécifique à la technologie : le travail considéré comme simple est sous-traité à des sous-traitants du Sud travaillant dans des conditions qui ne seraient pas tolérées par les salariés de l’Ouest.Reconnaître que ces problèmes sont plus importants que n’importe quelle entreprise, ce n’est pas laisser OpenAI s’en tirer ; c’est plutôt un signe que l’industrie et l’économie dans son ensemble reposent sur une répartition inégale des récompenses. Les immenses profits de l’industrie technologique ont toujours été canalisés vers le haut, au lieu de refléter toute l’étendue de qui fait le travail. Mais les développements récents de l’IA sont particulièrement préoccupants compte tenu des applications…

Source link -57