Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
San Francisco (dpa) – Des pirates informatiques affiliés au gouvernement de Chine, d’Iran, de Corée du Nord et de Russie ont utilisé la technologie derrière le chatbot ChatGPT comme clients pour améliorer leurs attaques. En coopération avec Microsoft, les comptes de cinq groupes de hackers ont été fermés, a déclaré la société de développement ChatGPT OpenAi.
Les pirates ont principalement utilisé la technologie de l’intelligence artificielle pour automatiser le développement de logiciels. Certains membres du groupe l’ont également utilisé pour traduire de la documentation technique et rechercher des informations accessibles au public. Les pirates informatiques iraniens et nord-coréens ont également demandé à l’IA d’écrire des textes pour des attaques de phishing. Dans de telles attaques, les victimes sont amenées à saisir leurs informations de connexion sur de faux sites Web de pirates informatiques en utilisant des e-mails qui semblent trompeusement réels.
Dans le même temps, OpenAI a déclaré que la découverte confirme l’évaluation selon laquelle la technologie actuelle de l’IA n’est que partiellement plus utile pour développer des cyberattaques que les outils conventionnels. Microsoft a également souligné qu’il n’avait encore constaté aucune nouvelle attaque utilisant l’IA.
ChatGPT a déclenché le battage médiatique autour de l’intelligence artificielle il y a un peu plus d’un an. Ces chatbots IA sont formés avec d’énormes quantités d’informations et peuvent formuler des textes au niveau linguistique d’un humain, écrire du code logiciel et résumer des informations. Le principe est qu’ils estiment, mot par mot, comment doit se poursuivre une phrase. L’inconvénient est que le logiciel peut parfois donner des réponses complètement fausses, même si elles se basent uniquement sur des informations correctes. Cependant, le développement de logiciels est désormais souvent automatisé avec succès grâce à l’IA.
© dpa-infocom, dpa:240215-99-993687/4