Customize this title in frenchChatbot avec des « valeurs fondamentales socialistes »

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words arrière-plan Statut : 11/04/2023 19h47 Le géant chinois de la technologie Alibaba veut s’impliquer dans le secteur de l’intelligence artificielle. Dans le même temps, Pékin prépare les exigences de l’État. Mais les gouvernements occidentaux doivent aussi se demander : de combien de règles la technologie a-t-elle besoin ? Par Antonia Mannweiler, tagesschau.de C’était une grande annonce pour le géant chinois de l’internet Alibaba. La division cloud du groupe de commerce en ligne a présenté aujourd’hui un concurrent au robot textuel ChatGPT : le logiciel de langage « Tongyi Qianwen », qui signifie quelque chose comme « la vérité parmi mille questions », qui utilise également l’intelligence artificielle (IA). Mais peu de temps après, la joie des développeurs aurait dû recevoir un fort bémol. Dans le même temps, le régulateur chinois de l’Internet, la « Cyberspace Administration of China », a publié le premier projet de réglementation prévue pour les services d’IA. En 21 points, l’autorité présente les éventuelles exigences auxquelles les entreprises chinoises et les développeurs de modèles de langage d’IA pourraient bientôt être confrontés. Selon Pékin, le contenu doit refléter les « valeurs fondamentales du socialisme ». En outre, aucune information ne peut être diffusée qui pourrait perturber l’ordre économique et social. Lors du développement des algorithmes, il convient également de veiller à prévenir la discrimination fondée sur le sexe ou l’âge. Bot avec « hallucinations » Un problème pour les développeurs devrait également être la règle selon laquelle tout le contenu doit être véridique. Le développement de modèles de langage d’IA en est encore à ses débuts. Dans de nombreux cas, le logiciel fonctionne encore de manière imprécise et est assez sujet aux erreurs. Google, par exemple, a commis une erreur embarrassante en présentant son chatbot « Bard », qui a donné la mauvaise réponse sur le télescope James Webb lors de sa première apparition publique. Le chatbot d’Alibaba, quant à lui, est initialement orienté vers la vie professionnelle et est destiné à rédiger des documents ou des e-mails, par exemple. Cependant, il reste à voir dans quelle mesure le bot s’en sortira face à la concurrence, déclare George Karapetyan, spécialiste de l’IA au cabinet de conseil LPA. tagesschau.de. « De plus, selon les premiers rapports des utilisateurs, le bot d’Alibaba avait déjà des ‘hallucinations’, ce qui signifie finalement qu’il donne en toute confiance de mauvaises réponses. » L’autorité de régulation chinoise veut désormais mettre un terme à ces faux contenus. Les commentaires et suggestions sur le catalogue des règlements peuvent être soumis jusqu’au 10 mai. « Alors que le gouvernement chinois commence à réglementer et à imposer ce que ces bots peuvent et ne peuvent pas dire, cela pourrait présenter un obstacle supplémentaire dans le compromis entre innovation et conformité », a déclaré Karapetyan. La technologie évolue-t-elle trop vite ? D’un autre côté, du point de vue de l’expert, l’introduction précoce de règles claires pour les entreprises peut également être utile pour réduire le risque de résultats imprévus. « Si la Chine réussit à définir des lignes directrices claires à un stade précoce, cela recèle également des opportunités. » Cependant, il peut être difficile de réglementer une technologie qui se développe si rapidement et qui est si intelligente. Chaque jour, il est rapporté comment les internautes contournent les mécanismes de protection utilisés pour contrôler les bots. Alibaba n’est que le dernier exemple d’une entreprise chinoise avec son propre robot de texte. Juste un jour plus tôt, la société d’IA basée à Hong Kong SenseTime a présenté son chatbot « SenseChat » dans une démo en direct, à laquelle le marché boursier a réagi avec une forte hausse des prix. Et last but not least, le moteur de recherche chinois Baidu a également fait la démonstration de son chatbot « Ernie Bot », qui a cependant provoqué moins d’enthousiasme et une baisse du cours de l’action. « Les bots chinois sont encore à la traîne pour le moment et se concentrent principalement sur la langue chinoise », explique le spécialiste de l’IA Karapetyan. À l’heure actuelle, ChatGPT, le logiciel conçu par la start-up OpenAI et soutenu par Microsoft, est le « leader incontesté du marché et l’étalon-or » parmi les chatbots. Comment les gouvernements réagissent-ils ? Les rivaux de l’industrie technologique Microsoft et ChatGPT ont subi des pressions pour faire progresser leur activité d’intelligence artificielle, même si le produit est encore immature. Dans le même temps, compte tenu de l’évolution rapide, la pression sur les gouvernements du monde entier pour trouver des réponses à la question de savoir comment le législateur devrait réagir s’accroît. Aux États-Unis, l’autorité informatique NTIA (« National Telecommunications and Information Administration ») a annoncé aujourd’hui des consultations publiques sur d’éventuelles mesures gouvernementales. « Tout comme la nourriture et les voitures n’entrent sur le marché que lorsqu’elles sont sûres, les systèmes d’IA devraient rassurer le public, le gouvernement et les entreprises sur le fait qu’ils sont adaptés à leur objectif », a-t-il déclaré dans un communiqué. En fin de compte, l’autorité pourrait recommander des évaluations de sécurité ou la certification de l’intelligence artificielle aux politiciens. L’Italie fixe une date limite à ChatGPT Des réglementations gouvernementales pour la nouvelle technologie sont également recherchées dans l’UE. Plus récemment, l’autorité italienne de protection des données avait fait sensation en bloquant pour l’instant ChatGPT dans le pays. Les principales préoccupations concernaient la collecte massive de données personnelles et la protection des mineurs. L’Italie a donné à OpenAI 20 jours pour informer des nouvelles mesures de l’entreprise. Sinon, il pourrait y avoir une amende pouvant aller jusqu’à 20 millions d’euros ou quatre pour cent des ventes annuelles. Il y a deux ans, la Commission européenne a présenté un projet de règlement sur l’IA qui pourrait entrer en vigueur cette année. Une réglementation est également nécessaire de toute urgence dans ce domaine, déclare Paul Lukowicz, chef du département de recherche sur l’intelligence embarquée au Centre allemand de recherche sur l’intelligence artificielle (DFKI). tagesschau.de. La technologie changera le monde d’une manière qui ne peut même pas être imaginée aujourd’hui. Par conséquent, on ne peut pas simplement les laisser courir dans le sens d’une « croissance sauvage ». « Filigrane » possible pour les bots Des règles plus strictes sont nécessaires là où la vie, la santé ou la liberté humaines sont affectées, estime Lukowicz – mais pas dans d’autres domaines où la technologie ne cause aucun dommage. Le problème n’est pas la recherche ou le développement, mais la question de savoir où une technologie est utilisée. A terme, Lukowicz pourrait imaginer une sorte de « filigrane » pour les contenus créés par les bots. En ce qui concerne les règles de l’intelligence artificielle, l’expert établit des parallèles avec l’industrie pharmaceutique : même avec les médicaments, très peu de gens savent comment ils fonctionnent, mais qu’ils fonctionnent. Des études sont nécessaires pour les médicaments, il existe des processus d’approbation stricts – et toujours des cas de dommages causés. Du point de vue de Lukowicz, l’essentiel est une analyse coûts-avantages équilibrée.

Source link -57