Customize this title in frenchLe PDG de Google, Sundar Pichai, déclare que l’IA est « trop ​​importante pour ne pas être bien réglementée » dans un contexte de problèmes de sécurité croissants

Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words

  • Le PDG de Google a écrit un article pour le Financial Times sur l’engagement de l’entreprise envers la sécurité de l’IA.
  • Sundar Pichai a souligné qu’à mesure que l’IA se développe, elle devient « trop ​​importante pour ne pas bien réglementer ».
  • Pichai s’est récemment rendu à la Maison Blanche pour discuter de la sécurité de l’IA avec le vice-président Kamala Harris.

Le PDG d’Alphabet, Sundar Pichai, a déclaré que la société restait déterminée à développer l’IA de manière responsable alors que les problèmes de sécurité augmentaient face à la croissance rapide de la technologie.

Dans un article du Financial Times publié mardi, Pichai – qui est devenu le PDG du géant de la technologie en 2015 – s’est dit optimiste quant à l’avenir de l’IA, la qualifiant de « technologie la plus profonde sur laquelle l’humanité travaille aujourd’hui », mais a noté que certaines entreprises sont bloquées. une course pour devenir les premiers à entrer dans l’espace, ce qui signifie que la sécurité est négligée.

« Alors que certains ont essayé de réduire ce moment à une simple course d’IA compétitive, nous le voyons bien plus que cela », a écrit Pichai dans l’article.

« Chez Google, nous intégrons l’IA dans nos produits et services depuis plus d’une décennie et nous les mettons à la disposition de nos utilisateurs. Nous nous soucions profondément de cela. Pourtant, ce qui compte encore plus, c’est la course pour développer l’IA de manière responsable et faire sûr qu’en tant que société, nous faisons les choses correctement. »

Pichai a souligné comment la mise en œuvre de l’IA dans les produits de Google tels que Gmail, Google Maps et Google Search a profité aux utilisateurs en donnant un exemple de la façon dont les conducteurs à travers l’Europe sont capables de trouver des itinéraires plus économes en carburant en utilisant sa technologie.

Il a également fait référence aux principes d’intelligence artificielle de Google publiés en 2018, affirmant que l’entreprise croit au développement de la technologie « de manière responsable » tout en « évitant les applications nuisibles ».

Il a ajouté que « l’IA est trop importante pour ne pas être réglementée, et trop importante pour ne pas être bien réglementée ».

Pichai s’est récemment rendu à la Maison Blanche pour discuter de la sécurité de l’IA avec le vice-président Kamala Haris aux côtés de grandes entreprises d’IA telles que Microsoft, OpenAI et Anthropic. Google vient de sortir son chatbot IA Bard, en mars.

Les inquiétudes concernant les éventuels effets négatifs de l’IA ont été amplifiées lorsque le PDG milliardaire Elon Musk a signé une lettre ouverte aux côtés de puissants leaders technologiques et d’experts en IA, appelant à une pause dans le développement d’une IA plus puissante que le GPT-4 d’OpenAI en raison des dangers potentiels qu’elle pose. à l’humanité.

Google a été critiqué pour son développement rapide de l’IA. Une ancienne informaticienne de l’entreprise spécialisée dans l’IA, Timnit Gebru, a affirmé avoir été licenciée en 2020 après avoir souligné les biais des outils d’IA.

Gebru a déclaré au Guardian dans une interview que des entreprises comme Google sont prises dans la « ruée vers l’or » de l’IA, ce qui signifie qu’elles ne « s’autoréglementeront pas » à moins qu’elles ne subissent des pressions.

Google n’a pas immédiatement répondu à une demande de commentaire supplémentaire d’Insider.

Source link -57