Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsUN Le chercheur a obtenu l’accès plus tôt cette année par la société mère de Facebook, Meta, à un logiciel d’intelligence artificielle incroyablement puissant – et l’a divulgué au monde. En tant qu’ancien chercheur sur l’intégrité civique de Meta et les équipes d’IA responsables, je suis terrifié par ce qui pourrait arriver ensuite.Bien que Meta ait été violé par la fuite, il est sorti vainqueur : des chercheurs et des codeurs indépendants se précipitent maintenant pour améliorer ou s’appuyer sur le dos de LLaMA (Large Language Model Meta AI – la version de marque Meta d’un grand modèle de langage ou LLM, le type de logiciel sous-jacent à ChatGPT), beaucoup partageant ouvertement leur travail avec le monde.Cela pourrait positionner Meta en tant que propriétaire de la pièce maîtresse de la plate-forme d’IA dominante, de la même manière que Google contrôle le système d’exploitation Android open source qui est construit et adapté par les fabricants d’appareils dans le monde. Si Meta devait assurer cette position centrale dans l’écosystème de l’IA, il aurait un effet de levier pour façonner l’orientation de l’IA à un niveau fondamental, en contrôlant à la fois les expériences des utilisateurs individuels et en fixant des limites à ce que les autres entreprises pourraient et ne pourraient pas faire. De la même manière que Google récolte des milliards grâce à la publicité, aux ventes d’applications et aux transactions Android, cela pourrait préparer Meta à une période très rentable dans l’espace de l’IA, dont la structure exacte n’a pas encore émergé.La société a apparemment émis des avis de retrait pour mettre hors ligne le code divulgué, car il était censé n’être accessible qu’à des fins de recherche, mais à la suite de la fuite, le scientifique en chef de l’IA de la société, Yann LeCun, a déclaré : « La plate-forme qui gagnera sera l’open », suggérant que l’entreprise pourrait simplement utiliser le modèle open source comme stratégie concurrentielle.Bien que Bard de Google et ChatGPT d’OpenAI soient gratuits, ils ne sont pas open source. Bard et ChatGPT s’appuient sur des équipes d’ingénieurs, de modérateurs de contenu et d’analystes des menaces travaillant pour empêcher que leurs plates-formes ne soient utilisées à des fins nuisibles – dans leurs itérations actuelles, ils (espérons-le) ne vous aideront pas à construire une bombe, à planifier une attaque terroriste ou à fabriquer de faux contenu conçu pour perturber une élection. Ces personnes et les systèmes qu’elles construisent et entretiennent maintiennent ChatGPT et Bard alignés sur des valeurs humaines spécifiques.Cependant, le LLaMA semi-open source de Meta et ses grands modèles de langage descendants (LLM) peuvent être exécutés par toute personne disposant d’un matériel informatique suffisant pour les prendre en charge – la dernière progéniture peut être utilisée sur des ordinateurs portables disponibles dans le commerce. Cela donne à n’importe qui – des consultants politiques sans scrupules à l’agence de renseignement GRU bien dotée en ressources de Vladimir Poutine – la liberté de faire fonctionner l’IA sans aucun système de sécurité en place.De 2018 à 2020, j’ai travaillé dans l’équipe d’intégrité civique de Facebook. J’ai consacré des années de ma vie à lutter contre l’ingérence en ligne dans la démocratie à partir de nombreuses sources. Mes collègues et moi avons joué de longs jeux de taupe avec des dictateurs du monde entier qui ont utilisé un « comportement inauthentique coordonné », engageant des équipes de personnes pour créer manuellement de faux comptes afin de promouvoir leurs régimes, surveiller et harceler leurs ennemis, fomenter des troubles et même promouvoir le génocide. »Après plusieurs séries de licenciements, je crains que la capacité de Meta à lutter contre les » opérations d’influence « ait été entravée. » Photographie : ZUMA Press, Inc./Alamy Stock Photo/Alamy Live News.Je suppose que l’équipe de Poutine est déjà à la recherche d’excellents outils d’IA pour perturber l’élection présidentielle américaine de 2024 (et probablement celles d’autres pays également). Je peux penser à peu de meilleurs ajouts à son arsenal que l’émergence de LLM librement disponibles tels que LLaMA, et la pile logicielle qui se construit autour d’eux. Il pourrait être utilisé pour rendre le faux contenu plus convaincant (une grande partie du contenu russe déployé en 2016 présentait des déficits grammaticaux ou stylistiques) ou pour en produire beaucoup plus, ou il pourrait même être réutilisé comme un «classificateur» qui analyse les plateformes de médias sociaux pour contenu particulièrement incendiaire de vrais Américains à amplifier avec de faux commentaires et réactions. Il pourrait également écrire des scripts convaincants pour des deepfakes qui synthétisent des vidéos de candidats politiques disant des choses qu’ils n’ont jamais dites.L’ironie de tout cela est que les plateformes de Meta (Facebook, Instagram et WhatsApp) seront parmi les plus grands champs de bataille sur lesquels déployer ces « opérations d’influence ». Malheureusement, l’équipe d’intégrité civique sur laquelle je travaillais a été fermée en 2020, et après plusieurs séries de licenciements, je crains que la capacité de l’entreprise à lutter contre ces opérations n’ait été entravée.Ce qui est encore plus inquiétant, cependant, c’est que nous sommes maintenant entrés dans «l’ère du chaos» des médias sociaux, et la prolifération de plates-formes nouvelles et croissantes, chacune avec des équipes «d’intégrité» ou de «confiance et sécurité» distinctes et beaucoup plus petites, peut même être moins bien placé que Meta pour détecter et arrêter les opérations d’influence, en particulier dans les derniers jours et heures des élections, où la vitesse est la plus critique.Mais mes préoccupations ne s’arrêtent pas à l’érosion de la démocratie. Après avoir travaillé dans l’équipe d’intégrité civique de Facebook, j’ai ensuite dirigé des équipes de recherche travaillant sur l’IA responsable, relatant les méfaits potentiels de l’IA et cherchant des moyens de la rendre plus sûre et plus juste pour la société. J’ai vu comment les propres systèmes d’IA de mon employeur pouvaient faciliter la discrimination en matière de logement, créer des associations racistes et empêcher les femmes de voir les offres d’emploi visibles pour les hommes. En dehors des murs de l’entreprise, les systèmes d’IA ont injustement recommandé des peines de prison plus longues pour les Noirs, n’ont pas reconnu avec précision les visages des femmes à la peau foncée et ont causé d’innombrables incidents supplémentaires, dont des milliers sont répertoriés dans la base de données des incidents de l’IA.La partie effrayante, cependant, est que les incidents que je décris ci-dessus étaient, pour la plupart, les conséquences involontaires de la mise en œuvre de systèmes d’IA à grande échelle. Lorsque l’IA est entre les mains de personnes qui en abusent délibérément et avec malveillance, les risques de désalignement augmentent de façon exponentielle, encore aggravés à mesure que les capacités de l’IA augmentent.Il serait juste de se demander : les LLM ne vont-ils pas inévitablement devenir open source de toute façon ? Depuis la fuite de LLaMA, de nombreuses autres entreprises et laboratoires ont rejoint la course, certains publiant des LLM qui rivalisent avec LLaMA au pouvoir avec des licences open source plus permissives. Un LLM construit sur LLaMA vante fièrement sa nature « non censurée », citant son manque de contrôles de sécurité comme une fonctionnalité, pas un bogue. Meta semble cependant aujourd’hui seul pour sa capacité à continuer à sortir des modèles de plus en plus puissants combinés à sa volonté de les mettre entre les mains de qui le veut. Il est important de se rappeler que si des acteurs malveillants peuvent mettre la main sur le code, il est peu probable qu’ils se soucient de ce que dit le contrat de licence.Nous vivons un moment d’accélération si rapide des technologies d’IA que même le fait de retarder leur publication – en particulier leur version open source – pendant quelques mois pourrait donner aux gouvernements le temps de mettre en place des réglementations critiques. C’est ce que réclament des PDG tels que Sam Altman, Sundar Pichai et Elon Musk. Les entreprises technologiques doivent également mettre en place des contrôles beaucoup plus stricts sur qui se qualifie en tant que « chercheur » pour un accès spécial à ces outils potentiellement dangereux.Les plus petites plates-formes (et les équipes évidées des plus grandes) ont également besoin de temps pour que leurs équipes de confiance et de sécurité/intégrité rattrapent les implications des LLM afin qu’elles puissent construire des défenses contre les abus. Les entreprises d’IA générative et les plateformes de communication doivent travailler ensemble pour déployer le filigrane pour identifier le contenu généré par l’IA, et les signatures numériques pour vérifier…
Source link -57