Si l’IA peut être un puissant levier de progrès, son utilisation soulève également des interrogations cruciales sur les biais et les discriminations qu’elle pourrait perpétuer. Quels usages font les entreprises de l’IA dans leurs process de recrutements ? Avec quels effets ?
Par Chloé Consigny
L’IA générative est aujourd’hui une réalité. Si toutes les entreprises françaises s’intéressent à cette technologie, le niveau d’adoption diffère selon les fonctions dans l’entreprise. Ce sont les directions marketing et relations clients qui sont en tête des adoptions, avec plus 70 % d’entre elles déclarant faire de l’intégration de l’IA dans leurs process une priorité, selon une étude PwC. Du côté des directions ressources humaines, l’adoption est bien moins rapide. Selon une étude menée par iCIMS, éditeur de logiciel SaaS de recrutement, si 57 % des DRH prévoient d’intégrer l’IA dans leurs process, à ce jour, seul·es 39 % l’utilisent réellement.
Prudence chez les recruteurs
Au sein de la population des spécialistes du recrutement qui ont adopté l’IA, la fonction « Résumer des CV », arrive en première position (citée par 38% des répondants dans l’étude iCIMS). Une fonctionnalité qui existe en réalité depuis de nombreuses années. « Avant, cela ne se disait pas trop. Dans les recrutements, on cachait l’usage de la technologie par le mot « algorithme ». Néanmoins, la démarche est la même : lorsqu’un poste s’ouvre, le premier réflexe des directions RH est de faire une requête par mots clés dans la base de données candidat·es de l’entreprise », explique Olivier Bonnefous, créateur de la newsletter Recrutement & IA. Ces requêtes sont aujourd’hui boostées par l’IA. Prudence cependant, met en garde Tania Ocana, formatrice à l’école du recrutement : « si l’on travaille en open source, c’est-à-dire avec des outils tels que ChatGPT, il est essentiel de rendre anonymes les CV que l’on envoie à l’IA ». Il s’agit là d’un élément légal : lorsqu’un·e candidat·e postule directement via la plateforme d’une entreprise (ATS – Applicant Tracking System) il ou elle donne l’autorisation d’exploiter ses données. Ce n’est pas le cas lorsque la personne adresse sa candidature par d’autres canaux (envoi d’un CV par exemple).
Biais et stéréotypes
Reste que les résultats pour le tri des CV par une IA peuvent être décevants et passer à côté de talents intéressants. D’où l’importance de travailler à la structuration de la donnée. Plus la documentation fournie à l’IA est structurée et triée en amont, plus les résultats seront précis. « L’utilisation meta de l’IA, pose la question de la provenance de la donnée. Si la source principale de données est Internet, alors, vous retrouverez exactement les mêmes biais et les mêmes stéréotypes que ceux qui circulent en ligne », souligne Olivier Bonnefous. « Il ne faut pas compter sur une IA pour réaliser seule un sourcing plus varié de candidat·e », abonde Maud Grenier, formatrice et cofondatrice du Temple RH. « La tech est un monde normé, à dominante masculine. Les algorithmes viennent de cette norme et reproduisent donc les mêmes biais ».
Enfin, derniers freins à l’utilisation de l’IA et non des moindres : les biais algorithmiques et les hallucinations ; ces situations où l’IA va générer des informations erronées ou sans fondements. Pour les chasser, il convient de « débiaiser l’IA » en travaillant à lui donner matière à voir le monde différemment.
Générateur d’inclusion
Les experts du recrutement qui utilisent régulièrement l’IA s’accordent à dire qu’ils considèrent leur IA comme un assistant qui peut être très utile, mais à qui il est nécessaire de tout expliquer. « Je considère mon IA comme un alternant ou un stagiaire. Je prends le temps de bien lui décrire ma requête et je garde en tête que, comme un collègue, elle ne détient pas la vérité absolue », explique Olivier Bonnefous. Même son de cloche pour Tania Ocana pour qui « une IA ne doit jamais être à l’origine d’une décision de recrutement ». L’IA Act – réglementation européenne qui vise à encadrer le développement et l’utilisation de l’intelligence artificielle, adoptée à l’été 2024 – met l’accent sur la nécessité d’une supervision humaine ; les prises de décisions ne pouvant pas être automatisées.
Pour les recruteurs qui savent manier l’outil, l’assistance de l’IA constitue un assistant particulièrement efficace. Dans ChatGPT, la fonctionnalité « mes GPT » permet de préenregistrer des prompts. « Je me suis créé un générateur d’inclusion », explique Maud Grenier. « C’est-à-dire que sur ChatGPT, j’ai préenregistré une requête type avec une annonce inclusive. Je fais ensuite retravailler les offres de l’emploi en demandant à l’IA de vérifier que la nouvelle annonce respecte bien les éléments d’inclusion », explique Maud Grenier. Un usage qui se généralise chez les recruteurs. « L’IA permet d’apporter un autre regard. En lui donnant à relire une offre d’emploi, elle est à même de trouver des mots épicènes, de reformuler des phrases trop peu inclusives. C’est finalement un regard supplémentaire », détaille Olivier Bonnefous.
The Devil you don’t know
Reste la question des candidat·es. Quel est leur accueil de l’IA ? Le règlement RGPD impose que chaque postulant·e soit informé·e de l’utilisation qui est faite de ses données. Reste qu’en réalité, rares sont les personnes à lire en détail les mentions légales.
Une étude australienne a récemment dressé le constat suivant : les personnes discriminées préfèrent être recrutées par une IA que par un être humain. « L’étude s’intitule « Better the devil you don’t know ». Ce qui est en français signifie préférer un diable inconnu. Cela signifie que les personnes discriminées sont lasses des représentations qui leur collent à la peau. Elles préfèrent donc s’en remettre à l’IA en se disant qu’elles ne seront pas moins bien traitées », conclut Tania Ocana.