Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Il était une fois, comme il y a deux ans en 2021, Alphabet Inc. — société mère de Google LLC — s’est engagé à étudier l’éthique de l’IA. Eh bien, un groupe dédié à l’éthique en matière d’IA déjà existaient chez Google et ils se sont efforcés de fournir des commentaires sur la moralité des produits de l’entreprise.
Ainsi, avant mars 2023 – qui marque la libération de Bard à un groupe ou à des individus fermés – le «comité» d’éthique travaillait dur pour convaincre Google que Bard n’était pas exactement prêt pour un déploiement même limité.
Malgré cela, cependant, la société a procédé comme prévu et a publié Bard, apparemment avec le seulement viser d’avoir un concurrent existant pour ChatGPT et OpenAI de Microsoft. Ceci, à son tour, a laissé le groupe d’éthique démoralisé et en ruine, car de nombreux acteurs clés gauche Google peu de temps après.
Google a-t-il renoncé à l’éthique juste pour libérer Bard plus tôt ?
Bard peut faire beaucoup plus que bavarder et fournir des informations. Composition, codage et rendu d’image font partie de ses nombreux talents.
Bloomberg rapporte que Google a apparemment fourni des informations de mauvaise qualité à Bard juste pour qu’il puisse les dévoiler plus tôt. Cette information est étayée par certains examinés, mais non spécifiéles documents internes de l’entreprise et les paroles des membres actuels et anciens du groupe d’éthique.
Naturellement, le Big G n’a pas pris cela par terre. Il affirme que l’éthique est toujours une priorité absolue concernant Bard et l’IA en général. Et cela n’a de sens, étant donné que Google a hésité à se lancer dans l’IA pendant des années, exactement à cause de les dilemmes moraux.
Pourtant, il a apparemment fallu la condition d’une concurrence croissante pour que l’entreprise change sa position globale sur la manière. ChatGPT et OneAI — et n’importe quel autre IA d’ailleurs – n’existerait pas sans les propres recherches de Google, alors est-ce mal de vouloir un morceau du délicieux gâteau, si tu as grandi les ingrédients pour cela?
Google’s Bard : menteur pathologique ou apprenant vite ?
Maintenant, imaginez un Pixel X Pro avec des tonnes de fonctionnalités exclusives, alimenté par Bard. N’est-ce pas un produit ?
Et Google croit fermement que tous les contrôles de sécurité ont été mis en place, avant de publier Bard… en tant que expérience et pas un produit. Ce label est-il une forme de prévention des risques ? Et si c’est le cas, comment est-il possible que nous attendions de nombreuses fonctionnalités pour des services tels que Docs, Slides, Gmail et YouTube – qui sont effectivement autonomes des produits – alimenté par ladite expérience ? Est ce éthique?
Le groupe d’éthique de Google a une réponse et c’est hésitation. L’hésitation à s’exprimer et à discuter, car ils auraient reçu un « Vous essayez juste de ralentir le processus » en réponse. L’éthique a-t-elle pris le pas sur les entreprises commerciales ? Nourriture pour pensée.
Avant de lancer Bard en mars, Google a accordé l’accès à l’IA en interne à ses employés afin de recueillir des commentaires. Voici quelques extraits de ce que les employés de Google avaient à dire à propos de Bard :
- Menteur pathologique
- Digne de grincer des dents
- Fourni des conseils qui se termineraient en catastrophe
- « … pire qu’inutile : s’il vous plait ne vous lancez pas »
Google a quand même lancé Bard. Mais voici une perspective différente : un accès limité, mais toujours public, est un opportunité pour que Bard apprenne et se corrige. Après tout, Google est prolifique en termes d’algorithmes, il est donc exagéré d’imaginer une réalité où tout cela fait partie d’un véritable plan pour laisser Bard apprendre et grandir, juste comme ChatGPT avait fait dans le passé ?
Encore: nourriture pour pensée.