Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Le fabricant de ChatGPT OpenAI ainsi que d’autres fabricants de chatbots d’intelligence artificielle tels que Google et Microsoft pourraient bientôt laisser des milliers de pirates informatiques tester les limites de l’intelligence artificielle.
Les gros bonnets de l’IA d’aujourd’hui se coordonneraient avec l’administration Biden pour provoquer un tel événement.
« C’est pourquoi nous avons besoin de milliers de personnes », a déclaré Rumman Chowdhury, coordinateur de l’événement de piratage de masse prévu pour la convention de hackers DEF CON de cet été à Las Vegas, qui devrait attirer plusieurs milliers de personnes, cité par Associated Press.
« Nous avons besoin de beaucoup de personnes avec un large éventail d’expériences vécues, d’expertise en la matière et d’expériences pour pirater ces modèles et essayer de trouver des problèmes qui peuvent ensuite être résolus. »
Les utilisateurs de ChatGPT, du chatbot Bing de Microsoft ou de Bard de Google en sont venus à découvrir la tendance de l’IA à fabriquer des informations présentées avec confiance comme des faits. Ces systèmes, construits sur ce que l’on appelle de grands modèles linguistiques, imitent également les préjugés culturels qu’ils ont appris en étant formés sur d’énormes trésors de ce que les gens ont écrit en ligne.
REGARDER AUSSI | « Un peu effrayé »: le PDG d’OpenAI déclare que ChatGPT pourrait anéantir les emplois actuels
L’idée d’un piratage de masse a attiré l’attention des responsables du gouvernement américain en mars lors du festival South by Southwest à Austin, au Texas, où Sven Cattell, fondateur du village AI de longue date de DEF CON, et Austin Carson, président de l’association à but non lucratif responsable de l’IA SeedAI, a aidé à diriger un atelier invitant les étudiants des collèges communautaires à pirater un modèle d’IA, a ajouté le rapport de l’Associated Press.
Cette année, l’événement sera à une échelle beaucoup plus grande. C’est le premier à s’attaquer aux grands modèles linguistiques qui ont suscité un regain d’intérêt public et d’investissements commerciaux depuis la sortie de ChatGPT à la fin de l’année dernière.
Certains détails sont encore en cours de négociation. Mais les entreprises qui ont accepté de fournir leurs modèles pour les tests incluent OpenAI, Google, le fabricant de puces Nvidia et les startups Anthropic, Hugging Face et Stability AI.
« Alors que ces modèles de fondation deviennent de plus en plus répandus, il est vraiment essentiel que nous fassions tout notre possible pour assurer leur sécurité », a déclaré le PDG de Scale, Alexandr Wang, à l’Associated Press. « Vous pouvez imaginer que quelqu’un d’un côté du monde lui demande des informations très sensibles. ou des questions détaillées, y compris certaines de leurs informations personnelles. Vous ne voulez pas que ces informations soient divulguées à un autre utilisateur. »
Le co-fondateur d’Anthropic, Jack Clark, a déclaré que l’événement DEF CON sera, espérons-le, le début d’un engagement plus profond de la part des développeurs d’IA pour mesurer et évaluer la sécurité des systèmes qu’ils construisent.
« Notre point de vue de base est que les systèmes d’IA auront besoin d’évaluations tierces, à la fois avant le déploiement et après le déploiement. L’équipe rouge est un moyen de le faire », a déclaré Clark à l’Associated Press. « Nous devons nous entraîner à comprendre comment faire cela. Cela n’a pas vraiment été fait auparavant. »
(Avec les contributions des agences)
Tu peux maintenant écrire pour wionews.com et faire partie de la communauté. Partagez vos histoires et opinions avec nous ici.