L’IA amène un certain nombre de dangers pour les RH, dont voici une liste non exhaustive.
Un risque de non-pertinence des réponses générées
Bien qu’elles puissent fournir des réponses rapidement, les IA génératives ne divulguent pas souvent leurs sources. Cette opacité quant à la provenance des informations crée un obstacle à la confiance dans les résultats produits. Sans une transparence suffisante, il est difficile pour les professionnels des RH de déterminer la fiabilité et la crédibilité des réponses générées par ces systèmes.
Ensuite, les IA génératives sont sujettes à des phénomènes d’« hallucination ». Il arrive parfois que ces systèmes produisent des réponses inexactes, voire trompeuses, sans reconnaissance de leur propre erreur. Cela peut être perçu comme des failles majeures dans la capacité des IA à fournir des informations précises et pertinentes. Et peut compromettre leur utilité dans les processus décisionnels des RH.
De plus, le taux de précision des IA génératives, s’échelonne de 70 à 90 %. Ce qui laisse encore de la place aux erreurs. Celles-ci restent un sujet de préoccupation pour les professionnels des RH, en particulier lorsqu’ils doivent prendre des décisions critiques basées sur les informations fournies par ces systèmes.
Pour surmonter ce défi de non-pertinence des réponses générées, les professionnels des RH peuvent exiger davantage de transparence quant à la provenance des informations générées. Une façon ensuite d’évaluer de manière critique la fiabilité et la crédibilité de ces informations avant de les utiliser dans leurs processus décisionnels et opérationnels.
Des soucis de stabilité et d’explicabilité des modèles
Un autre défi majeur rencontré par les ressources humaines dans l’utilisation de l’intelligence artificielle réside dans la stabilité et l’explicabilité des modèles utilisés.
La stabilité des modèles d’IA est en effet une préoccupation importante. Il est fréquent que l’IA réponde de façon parfois totalement différente à la même question, en fonction du contexte ou de l’évolution du modèle. Cette variabilité peut semer la confusion parmi les utilisateurs et compromettre la confiance dans les résultats produits par les systèmes d’IA. Les RH ont en effet besoin de modèles stables et fiables pour prendre des décisions éclairées concernant la gestion des talents, le recrutement et d’autres aspects importants concernant leur domaine.
En outre, l’explicabilité des modèles d’IA, c’est-à-dire leur capacité à mettre en relation et à rendre compréhensible les éléments pris en compte pour la production d’un résultat, pose également un défi significatif. Il est souvent difficile pour les RH de comprendre comment les modèles d’IA arrivent à leurs conclusions. Cela peut rendre difficile l’évaluation de la validité et de la pertinence des recommandations fournies par ces systèmes.
Pour remédier à ce problème, certains experts recommandent l’intégration d’outils de classification des compétences propres à chaque organisation, tels que Neobrain. Ces outils permettent d’ajuster les modèles d’IA pour qu’ils tiennent compte des règles spécifiques et des contextes uniques de l’organisation, améliorant ainsi la stabilité et l’explicabilité des modèles.
Des risques de confidentialité et de sécurité des données
L’intégration de l’intelligence artificielle dans les processus RH expose les organisations à des risques importants en matière de confidentialité et de sécurité des données. Ce risque est multifacette et peut avoir des conséquences importantes pour les entreprises.
L’utilisation de l’IA implique la manipulation de vastes quantités de données sensibles sur les employés, telles que les informations personnelles, les évaluations de performance et les données de rémunération. Ces données doivent être protégées contre les violations de la confidentialité et les cyberattaques. Cependant, les systèmes d’IA peuvent être vulnérables aux failles de sécurité et aux intrusions malveillantes, exposant ainsi les informations confidentielles à un risque accru de divulgation non autorisée.
De plus, les processus d’apprentissage automatique utilisés par les systèmes d’IA peuvent entraîner une exposition involontaire de données sensibles. Par exemple, les modèles d’IA peuvent apprendre des informations sensibles à partir des données d’entraînement, ce qui pourrait compromettre la confidentialité des employés.
Par ailleurs, les algorithmes d’IA peuvent également être sujets à des attaques malveillantes visant à manipuler les résultats ou à compromettre l’intégrité des données. Ces attaques peuvent avoir des conséquences dévastatrices pour les organisations, allant de la perte de confiance des employés à des violations réglementaires graves.
En outre, la conformité aux réglementations sur la protection des données telles que le RGPD (Règlement Général sur la Protection des Données) ou le CCPA (California Consumer Privacy Act) représente un défi supplémentaire pour les entreprises utilisant l’IA dans leurs processus RH. Ces réglementations exigent des entreprises qu’elles garantissent la confidentialité et la sécurité des données personnellesToutes informations liées à une personne physique identifiée ou qui pourrait être identifiée via des éléments qui lui sont propres. de leurs employés, sous peine de lourdes amendes et de répercussions juridiques.