Customize this title in frenchLa débâcle de l’IA « réveillée » de Google montre que sa mission principale échoue, affirment les critiques

Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words

  • Google a pour mission d’organiser l’information mondiale depuis le premier jour.
  • La crainte que son IA puisse perturber cette mission augmente.
  • Les erreurs commises par son modèle d’IA Gemini ont fait craindre une censure.

Depuis sa création, Google a un énoncé de mission qui est désormais pratiquement inscrit dans la tradition : « Organiser l’information mondiale et la rendre accessible et utile ».

Google affirme qu’il est aussi ferme dans cet énoncé de mission aujourd’hui qu’il l’était en 1998, lorsque les cofondateurs Larry Page et Sergey Brin travaillaient dans un garage à Menlo Park.

Mais alors que Google entre dans une nouvelle ère de l’IA, les craintes grandissent de voir le déploiement de cette technologie perturber cette mission principale.

Selon les critiques, son IA risque de supprimer des informations en étant trop « éveillée ».

Les problèmes de l’IA de Google

Google détient plus de 90 % du marché de la recherche, ce qui lui confère un contrôle dominant sur le flux mondial d’informations en ligne.

Alors que son IA devient un outil de plus en plus important pour aider les utilisateurs à trouver des informations, l’entreprise joue un rôle majeur pour garantir que les faits soient présentés avec précision.

Mais on craint de plus en plus que le modèle d’IA de Google ait été neutralisé d’une manière qui l’amène à générer des inexactitudes et à retenir des informations.

Les premiers signes majeurs de ce problème sont apparus la semaine dernière, lorsque les utilisateurs du modèle d’IA de Google Gemini ont signalé des problèmes avec sa fonction de génération d’images après qu’il n’ait pas réussi à représenter avec précision les images qui lui étaient demandées.

Un utilisateur, par exemple, a demandé à Gemini de générer des images des pères fondateurs de l’Amérique. Au lieu de cela, il a produit des images « historiquement inexactes » d’eux en « mettant en valeur la diversité de genre et d’origine ethnique » des dirigeants du XVIIIe siècle. Google a suspendu la fonctionnalité pendant qu’elle travaille sur un correctif.

Cependant, les problèmes ne se limitent pas à la génération d’images.

Comme le note mon collègue Peter Kafka, Gemini a, par exemple, eu du mal à répondre aux questions de savoir si Adolf Hitler ou Elon Musk avaient causé plus de tort à la société. Les tweets d’Elon sont « insensibles et nuisibles », a déclaré Gemini, tandis que « les actions d’Hitler ont conduit à la mort de millions de personnes ».

David Sacks, un investisseur en capital-risque chez Craft Ventures, pointe du doigt la culture de Google pour les problèmes de Gemini.

« La mission initiale était d’indexer toutes les informations du monde. Maintenant, ils suppriment l’information. Le problème est la culture », a-t-il déclaré lors d’un podcast la semaine dernière.

Les critiques ont blâmé la culture parce qu’elle peut jouer un rôle dans la manière dont les modèles d’IA sont construits.

Les modèles comme Gemini absorbent généralement les préjugés des humains et les données utilisées pour les former. Ces préjugés peuvent être liés à des questions culturelles sensibles telles que la race et le sexe.

Les robots IA d’autres entreprises ont le même problème. Le PDG d’OpenAI, Sam Altman, a reconnu au début de l’année dernière que ChatGPT « présente des lacunes en matière de préjugés » après avoir signalé qu’il générait des réponses racistes et sexistes aux invites des utilisateurs.

Sam Altman est assis devant un fond bleu, regardant sur le côté.

Sam Altman a déjà reconnu des problèmes de biais avec ChatGPT.
Andrew Caballero-Reynolds/AFP/Getty Images

Peut-être plus que toute autre entreprise, Google a été au cœur du débat sur la manière de lutter contre ces préjugés. Son déploiement plus lent de l’IA par rapport à ses concurrents reflète une culture hyper-centrée sur les tests de sécurité des produits avant de les lancer.

Mais comme l’a montré la saga Gemini de la semaine dernière, ce processus peut conduire à des situations dans lesquelles des informations précises ne sont pas divulguées.

« Les gens sont (à juste titre) furieux de la censure et des préjugés de Google », a écrit dimanche Bilal Zuberi, associé général de Lux Capital, dans un article X. « Il n’est pas nécessaire d’être un génie pour réaliser que de tels préjugés peuvent aller dans toutes sortes de directions et blesser beaucoup de gens en cours de route. »

Brad Gerstner, fondateur d’Altimeter Capital – une société d’investissement technologique qui détient une participation dans le rival de Google, Microsoft – a également décrit le problème comme un « gâchis culturel ». Elon Musk a qualifié ce gâchis de « goutte bureaucratique réveillée ».

L’explication de Google sur les raisons pour lesquelles certains problèmes de Gemini se sont produits donne du poids à certaines des critiques qui lui sont adressées.

Dans un blog publié vendredi, le vice-président de Google, Prabhakar Raghavan, a reconnu que certaines des images générées par Gemini se sont révélées « inexactes, voire offensantes ».

Cela s’est produit, a-t-il expliqué, parce que le modèle a été optimisé pour éviter les erreurs commises par les générateurs d’images d’IA existants, telles que « la création d’images violentes ou sexuellement explicites, ou de représentations de personnes réelles ». Mais dans ce processus de réglage, Gemini a surcorrigé.

Raghavan a ajouté que les Gémeaux sont également devenus « beaucoup plus prudents » que prévu.

Si Google veut rester fidèle à son énoncé de mission, ce sont des erreurs que Gemini 2.0 ne peut tout simplement pas se permettre de commettre.

Source link -57