Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
L’IA joue déjà plusieurs rôles au sein des services RH de nombreuses entreprises. Une enquête récente menée auprès de plus de 250 responsables RH aux États-Unis a révélé que 73 % d’entre eux utilisent l’IA dans les processus de recrutement et d’embauche. Dans un prochain sondage commandé par Indeed, 8 % des responsables canadiens des ressources humaines et de l’acquisition de talents ont déclaré que leurs équipes n’utilisent pas actuellement d’outils d’IA.
Aujourd’hui, les outils d’IA peuvent être utilisés pour faciliter l’examen des CV et la notation des candidats, la recherche de talents pour les postes vacants, la rédaction de descriptions de poste, l’identification des opportunités de promotion des employés et même l’envoi de messages automatisés aux candidats.
« Vous l’appelez, et un outil d’IA est en cours de construction aujourd’hui pour y travailler », a déclaré Trey Causey, responsable de l’IA responsable et directeur principal de la science des données chez Indeed.
L’IA a le potentiel de réduire les préjugés humains, en particulier lors du recrutement, en créant de meilleures opportunités pour les travailleurs tout en rationalisant les tâches répétitives afin que les professionnels des ressources humaines puissent se concentrer sur les aspects les plus humains de leur rôle. Mais l’IA peut également perpétuer, voire amplifier les préjugés inhérents – et faire perdre du temps et de l’argent. Les organisations doivent être conscientes de l’éventail des risques liés à l’utilisation de l’IA et élaborer des stratégies pour l’utiliser de manière responsable.
Voici quatre façons dont les organisations peuvent identifier les risques et garantir que leur utilisation de l’IA est équitable, éthique et efficace.
1. Évaluez les risques et les récompenses pour votre organisation
Les systèmes d’IA peuvent étendre les processus, tels que l’identification et la notation d’un plus grand nombre de candidats que ce qui pourrait être traité manuellement.
Cependant, « vous pouvez également multiplier les erreurs, car aucun système n’est parfait », a déclaré Jey Kumarasamy, associé chez Luminos.Law, un cabinet d’avocats axé sur l’IA. « Même si vous avez une précision de 90 %, ce qui est généreux, si vous traitez des milliers de candidatures, il y aura un nombre important de candidatures qui auront été mal évaluées. »
Le point de départ de l’évaluation des outils RH basés sur l’IA doit être de comprendre que ces outils sont imparfaits. « Les préjugés sont inévitables, les entreprises devront donc déterminer comment elles envisagent d’y remédier ou d’accepter qu’elles courent des risques », a déclaré Causey.
Alors que certaines entreprises acceptent le risque en raison de l’augmentation de la productivité, d’autres peuvent estimer que la marge d’erreur potentielle compromet leurs valeurs ou crée trop de complexité face aux pressions réglementaires accrues.
Si vous avancez avec l’IA, choisissez judicieusement vos outils. L’IA qui fournit des transcriptions d’entretiens, par exemple, est généralement une application à relativement faible risque (même si elle peut avoir de mauvais résultats lorsqu’elle est utilisée avec des discours de locuteurs non natifs). En revanche, l’IA qui évalue et note les candidats en fonction de leurs performances lors des entretiens vidéo « est probablement le domaine le plus problématique car il existe de nombreux risques et façons dont cela peut mal tourner », a déclaré Kumarasamy.
En fin de compte, l’IA devrait augmenter et améliorer les processus humains, et non les remplacer. Avant d’adopter des outils d’IA, assurez-vous que votre équipe RH dispose de suffisamment de personnel pour que les humains puissent examiner chaque étape de tout processus automatisé par l’IA. Laissez les questions RH critiques aux personnes, telles que les décisions finales d’embauche, les promotions et le soutien des employés.
2. Filtrez les fournisseurs tiers qui fournissent des outils basés sur l’IA
Une fois que vous avez décidé quel type d’outils d’IA répondent le mieux aux besoins de votre organisation, vous pouvez poser des questions spécifiques aux fournisseurs potentiels, par exemple s’ils sont conformes aux réglementations actuelles et émergentes. « J’ai parlé avec un fournisseur l’année dernière et je lui ai demandé s’il se conformait à une réglementation spécifique, et il n’en avait jamais entendu parler auparavant », a déclaré Causey. « Non seulement c’était un signal d’alarme, mais cela avait clairement un impact direct sur leur produit. »
Il est également important de demander à des fournisseurs tiers s’ils se conformeront aux audits d’IA que vous effectuez. « Lorsque vous effectuez un audit d’IA, vous avez probablement besoin de l’aide d’un fournisseur – et ce n’est généralement pas le meilleur moment pour découvrir que votre fournisseur ne veut pas coopérer avec vous ou vous fournir de la documentation ou des résultats », a déclaré Kumarasamy.
Voici d’autres questions que vous devriez vous poser ainsi qu’aux fournisseurs tiers qui fournissent des outils basés sur l’IA :
- Comment auditent-ils leur système ? À quand remonte la dernière fois qu’il a été testé et quelles mesures ont été utilisées ?
- Les tests ont-ils été effectués en interne ou par un groupe externe ?
- Comment les biais sont-ils atténués ? S’ils prétendent que leur système présente un biais minime, qu’est-ce que cela signifie et comment ce biais est-il mesuré ?
- Existe-t-il des mesures de test que vous pouvez examiner en tant que client potentiel ?
- Si les performances du modèle se dégradent, les fournisseurs fournissent-ils des services post-déploiement pour aider à former vos employés à la configuration et à la maintenance du système ?
3. Identifier et surveiller les préjugés
Les algorithmes d’IA sont aussi impartiaux que les données utilisées pour les entraîner. Bien que les employeurs ne puissent pas modifier la façon dont les algorithmes sont développés, ils peuvent courir le risque de s’exposer à une responsabilité potentielle en vertu des lois canadiennes sur les droits de la personne. Celles-ci interdisent la discrimination dans l’emploi fondée sur certains motifs protégés, tels que la race, l’origine ethnique, l’identité de genre et l’âge. Il existe des moyens de tester les outils avant de les mettre en œuvre, par exemple en effectuant un audit de biais par un tiers avant de lancer l’IA à des fins d’embauche.
Lorsque vous mettez en œuvre des systèmes d’IA, assurez-vous de les surveiller en permanence pour identifier et corriger tout modèle discriminatoire lorsqu’ils émergent, tout en restant informé de l’évolution de la recherche sur la science des données et l’IA. « Lorsque des humains prennent des décisions, il est difficile de savoir s’ils sont biaisés », a déclaré Causey. « Vous ne pouvez pas entrer dans le cerveau de quelqu’un pour lui demander pourquoi il a dit oui à tel candidat mais non à tel autre; alors qu’avec un modèle, nous pouvons le faire. »
Il n’existe pas de suite standard de tests pour évaluer les biais des outils RH. Au minimum, les employeurs doivent clairement comprendre comment l’IA est utilisée au sein de l’organisation, ce qui pourrait inclure la tenue d’un inventaire de tous les modèles d’IA utilisés. Les organisations doivent documenter quels outils ont été fournis par quel fournisseur, ainsi que les cas d’utilisation de chaque outil.
4. Gardez une longueur d’avance sur l’évolution de la législation
Les risques potentiels des outils RH automatisés ne sont pas seulement réputationnels et financiers : ils sont également juridiques. Des lois émergent rapidement en réponse à la prolifération de l’IA sur le lieu de travail.
Dans l’Union européenne, le projet de loi sur l’IA vise à attribuer des niveaux de risque aux applications d’IA en fonction de leur potentiel dangereux ou discriminatoire, puis à les réglementer en fonction de leur classement. La proposition actuelle considère les applications d’IA qui analysent les CV comme des applications à haut risque qui seraient soumises à des exigences de conformité strictes.
Au Canada, le gouvernement a fait le premier pas vers la réglementation de l’IA en déposant la Loi sur l’intelligence artificielle et les données (AIDA) en 2022. À l’instar de l’UE, la loi se concentre sur la réglementation des risques liés à la conception, au développement et à la commercialisation de l’IA. technologies au Canada.
De plus, de nombreuses lois existantes, comme la LPRPDE, s’appliquent aux décisions d’emploi prises par l’IA. « Il existe une idée fausse selon laquelle si une loi ne traite pas directement des systèmes d’IA, elle n’affecte pas un système d’IA », a déclaré Kumarasamy. « Ce n’est pas vrai, surtout quand on parle d’emploi. » Que votre résultat professionnel soit attribué à un être humain ou à un système d’IA, l’organisation est responsable de tout parti pris.
Bien que les audits constituent un bon point de départ, la meilleure façon de se préparer aux exigences réglementaires émergentes et de garantir que votre IA fonctionne de manière efficace et équitable est d’élaborer un programme de gouvernance de l’IA plus vaste.
Les systèmes de gouvernance documentent les principes de l’organisation en matière d’IA et créent des processus pour évaluer en permanence les outils, détecter les problèmes et corriger tout problème. Par exemple, Indeed a développé et publié publiquement ses propres principes pour l’utilisation éthique et bénéfique de l’IA au sein de l’entreprise. Indeed a également créé une équipe interfonctionnelle d’éthique de l’IA qui crée des outils, des systèmes et des processus pour garantir que la technologie est utilisée de manière responsable.
Même avec des garde-fous, la nouvelle génération d’outils d’IA est complexe et faillible. Cependant, s’efforcer de les utiliser de manière responsable ouvre la porte à la création de meilleurs processus. L’IA peut aider les humains à être plus efficaces et moins biaisés, mais seulement si les humains assurent la surveillance nécessaire. Il existe un réel potentiel d’égalisation des règles du jeu grâce à l’IA pour les demandeurs d’emploi », a déclaré Causey. L’embauche basée sur les compétences peut être moins biaisée que le fait de s’appuyer sur les noms d’écoles ou d’entreprises – quelque chose sur lequel l’IA peut être adaptée d’une manière que les humains pourraient ne pas l’être.
Apprenez-en davantage sur la plateforme de mise en relation et de recrutement d’Indeed ici.
Cet article a été créé par Indeed avec Studios d’initiés.