Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsIl s’est avéré que les employés de Google n’étaient pas du tout satisfaits du chatbot Bard, que la société a présenté le mois dernier. Les employés ne voulaient pas que le bot soit mis en ligne, le décrivant comme « menteur » et « pire qu’inutile », selon les messages obtenus par Bloomberg. Google a lancé un nouveau chat bot ces dernières semaines.bardeIl avait franchi une étape importante dans la course à l’intelligence artificielle en introduisant « ». Ce modèle, tout comme ChatGPT, pourrait répondre aux questions posées par les utilisateurs sur n’importe quel sujet. Mais après l’introduction du modèle, des événements intéressants se sont produits. Une rumeur il y a quelques semaines prétendait que Bard avait été formé avec ChatGPT, alors un développeur de Google a démissionné. D’autre part, Google a nié ces allégations. Alors que les discussions sur cette question se poursuivent, de nouveaux développements sont apparus concernant la crise créée par Bard dans l’entreprise. Ainsi, les salariés issus du modèle de l’intelligence artificielle pas satisfait du tout. Les employés ont traité Bard de « menteur » et ont supplié Google de ne pas supprimer le chatbot Selon un rapport de Bloomberg, les employés de Google ont sévèrement critiqué Bard. Selon le rapport, qui se base sur des messages internes de 18 anciens ou actuels employés de Google, ces personnes ont utilisé le chatbot de l’entreprise »pire qu’inutile » Et « menteur pathologique » Il a décrit. Dans les messages, un employé a noté que Bard donnait souvent aux utilisateurs des conseils dangereux sur la façon d’atterrir un avion ou de faire de la plongée sous-marine. Un autre est « Bard est encore pire qu’inutile. Merci de ne pas publier” Il a souligné que le modèle de l’entreprise était très mauvais et a presque supplié qu’il ne soit pas publié. NOUVELLES CONNEXES Google et OpenAI entrent en collision : Bard aurait été formé avec ChatGPT ! Bloomberg dispose également d’un rapport fourni par l’équipe de sécurité de l’entreprise. même rejeter l’évaluation des risques dit. Apparemment, l’équipe a souligné dans cette évaluation des risques que Bard n’est pas prêt pour une utilisation générale ; cependant, la société a néanmoins ouvert le chatbot à un accès anticipé en mars. Lors des essais, on a vu que bien que Bard soit plus rapide que ses concurrents, il était moins utile et donnait des informations moins précises. Les allégations montrent que Google essaie de suivre le rythme de ses concurrents, en mettant de côté les préoccupations éthiques et de sécurité. Le rapport révèle que Google a essayé de suivre des rivaux comme Microsoft et OpenAI, mettant de côté les préoccupations éthiques et de sécurité, et a publié à la hâte le chatbot. Le porte-parole de Google, Brian Gabriel, a déclaré à Blomberg que les préoccupations éthiques concernant l’IA sont la priorité absolue de l’entreprise. Il y a beaucoup de débats sur le déploiement des modèles d’IA malgré les risques Certains dans le monde de l’intelligence artificielle disent que ce n’est pas grave, qu’ils sont créés par des utilisateurs pour permettre à ces systèmes de se développer. il faut tester et peut affirmer que les dommages connus des chatbots sont minimes. Comme vous le savez, ces modèles présentent de nombreux défauts controversés, tels que donner de fausses informations ou des réponses biaisées. Nous le voyons non seulement dans Google Bard, mais aussi dans OpenAI et les chatbots de Microsoft. De même, une telle désinformation Il peut être trouvé en naviguant sur Internet.. Cependant, selon ceux qui soutiennent l’opinion contraire, ce n’est pas le vrai problème ici. En redirigeant l’utilisateur vers une mauvaise source d’information directement par l’intelligence artificielle de la désinformation Il y a une différence importante à donner Les informations fournies à l’utilisateur par l’intelligence artificielle permettent à l’utilisateur de moins se poser de questions et d’utiliser ces informations. accepter le droit peut causer. Par exemple, lors d’une expérience il y a quelques mois, ChatGPT « Quel est le plus d’articles de tous les temps ?» était une question. Le modèle a répondu à cela par un article, suivi du fait que la revue publiée et les auteurs sont réels ; mais l’article c’est totalement faux était apparu. NOUVELLES CONNEXES Wikipédia deviendra-t-il une plateforme écrite par ChatGPT ? Déclaration du fondateur D’autre part, le mois dernier, on a vu que Bard avait donné de fausses informations sur le télescope James Webb. Dans un GIF partagé par Google, Model l’a interrogée sur les découvertes de James Webb. « Le télescope a pris la première image d’une planète en dehors du système solaire » avait donné la réponse. Cependant, par la suite, de nombreux astronomes que c’est faux et a souligné que la première photo avait été prise en 2004. De telles situations, qui ont de nombreux autres exemples, sont l’utilisation de chatbots. faire croire répondre avec des informations suscite des inquiétudes. Dans la course effrénée à l’intelligence artificielle, nous verrons comment les entreprises apporteront des solutions à ces problèmes à l’avenir. Source : https://www.bloomberg.com/news/features/2023-04-19/google-bard-ai-chatbot-raises-ethical-concerns-from-employees?leadSource=uverify%20wall $(function(){ //facebook window.fbAsyncInit = function() FB.init( appId : ‘1037724072951294’, xfbml : true, version : ‘v2.5’ ); ; (function(d, s, id) var js, fjs = d.getElementsByTagName(s)[0]; if (d.getElementById(id)) return; js = d.createElement(s); js.id = id; js.src = « https://connect.facebook.net/tr_TR/sdk.js »; fjs.parentNode.insertBefore(js, fjs); (document, ‘script’, ‘facebook-jssdk’)); $(‘body’).on( click: function() // facebook save button ajax FB.XFBML.parse(); , ‘.facebook-save’); // share scroll if ($(‘.content-sticky’).length > 0) { if ($(window).width() >= 768) { $(window).on(‘scroll’, function () { var scrollTop = $(this).scrollTop(); $(‘article’).each(function () if (scrollTop >= ($(this).find(‘.content-body’).offset().top – 76)) $(this).find(‘.content-sticky’).addClass(‘sticky’); if (scrollTop >= ($(this).find(‘.content-body’).offset().top + $(this).find(‘.content-body’).height() – ($(this).find(‘.content-sticky’).height() + 92))) $(this).find(‘.content-sticky’).removeClass(‘sticky’); $(this).find(‘.content-sticky’).css(‘bottom’: ‘0px’, ‘top’: ‘auto’); else $(this).find(‘.content-sticky’).addClass(‘sticky’).css( ‘bottom’: ‘initial’, ‘top’: ’76px’ ); else $(this).find(‘.content-sticky’).removeClass(‘sticky’).css(‘bottom’: ‘auto’, ‘top’: ‘0’); ); }); } } // share click $(‘body’).on({ click: function (){ var $this = $(this), dataShareType = $this.attr(‘data-share-type’), dataType = $this.attr(‘data-type’), dataId = $this.attr(‘data-id’), dataPostUrl = $this.attr(‘data-post-url’), dataTitle = $this.attr(‘data-title’), dataSef = $this.attr(‘data-sef’); switch(dataShareType) case ‘facebook’: FB.ui( method: ‘share’, href: dataSef, , function(response) if (response && !response.error_message) updateHit(); ); break; case ‘twitter’: shareWindow(‘https://twitter.com/intent/tweet?via=webtekno&text= »+encodeURIComponent(dataTitle) + » %E2%96%B6 ‘ + encodeURIComponent(dataSef)); updateHit(); break; case ‘gplus’: shareWindow(‘https://plus.google.com/share?url= » + encodeURIComponent(dataSef)); updateHit(); break; case « mail’: window.location.href= »https://www.webtekno.com/mailto:?subject= » + encodeURIComponent(dataTitle) +’&body=’+ encodeURIComponent(dataSef); //updateHit(); break; case ‘whatsapp’: window.location.href= »whatsapp://send?text= » + encodeURIComponent(dataTitle) +’ %E2%96%B6 ‘+ encodeURIComponent(dataSef); updateHit(); break; function shareWindow (url) window.open(url, « _blank », « toolbar=yes, scrollbars=yes, resizable=yes, top=500, left=500, width=400, height=400 »); function updateHit () { $.ajax({ type: « POST », url: dataPostUrl, data: contentId: dataId, contentType: dataType, shareType: dataShareType, success: function(data) if ($(‘.video-showcase’).length > 0) var $container = $(‘.video-showcase’); else if ($(‘article[data-id= »‘ + dataId + ‘ »]’).length > 0) var $container = $(‘article[data-id= »‘ + dataId + ‘ »]’); else if ($(‘.wt-share-item[data-id= »‘ + dataId + ‘ »]’).length > 0) var $container = $(‘.wt-share-item[data-id= »‘ + dataId + ‘ »]’); else $container = null; //var $container = dataType == ‘video’ ? $(‘.video-showcase’) : $(‘article[data-id= »‘ + dataId + ‘ »]’); if ( $container != null && $container.length > 0 ) dataShareType == ‘twitter’)) if ($badged.hasClass(‘is-visible’)) //$badged.html(data); else //$badged.addClass(‘is-visible’).html(data); }); } } }, ‘.wt-share-button’) });
Source link -57