Notebookcheck Logo

Recrutement basé sur l'IA : Une expérience révèle le racisme du GPT de l'OpenAI

Discrimination dans l'évaluation et la sélection des emplois par les GPT-3 et GPT-4 d'OpenAI (image symbolique : DALL-E / AI, édité)
Discrimination dans l'évaluation et la sélection des emplois par les GPT-3 et GPT-4 d'OpenAI (image symbolique : DALL-E / AI, édité)
Une étude récente montre que les programmes de recrutement automatisés GPT-3 et GPT-4 de l'OpenAI sont gravement discriminatoires à l'égard de certains groupes de personnes. Une vaste expérience menée par Bloomberg a montré que les programmes de recrutement basés sur l'IA discriminent les candidats sur la base de leur nom et de leur appartenance ethnique, entre autres.

Les programmes d'embauche automatisés basés sur le GPT d'OpenAi sont utilisés par les entreprises pour sélectionner les candidats aux postes annoncés. Les recruteurs utilisent cet outil pour gagner du temps, mais comme l'a montré une expérience de Bloomberg inspirée par des études de référence ( ), l'intelligence artificielle est biaisée lorsqu'elle évalue et sélectionne les candidats l'intelligence artificielle est biaisée lorsqu'elle évalue et sélectionne les candidats.

Le problème est que le modèle d'IA sous-jacent tire ses informations de vastes quantités de données telles que des articles, des commentaires en ligne et des messages sur les médias sociaux, qui peuvent contenir des propos racistes, misogynes et bien d'autres contenus discriminatoires. Par exemple, l'étude approfondie a utilisé des noms fictifs (et des CV) associés à une ethnie particulière pour postuler à un emploi réel.

Les noms choisis étaient ceux de femmes et d'hommes noirs, blancs, hispaniques ou asiatiques. L'expérience a été menée 1 000 fois pour un emploi réel d'analyste financier ( ) avec des centaines de noms et de combinaisons de noms différents, puis elle a été répétée pour quatre autres emplois d'ingénieurs logiciels et d'autres groupes professionnels et d'autres groupes professionnels.

Les noms de certains groupes démographiques ont été clairement favorisés par le GPT-3. Par exemple, les noms de femmes américaines d'origine asiatique ont été les mieux classés pour un poste d'analyste financier, tandis que les noms indiquant clairement des hommes noirs ont été les moins bien classés, mais les noms indiquant des femmes noires n'ont également été classés comme meilleurs candidats pour un poste d'ingénieur logiciel qu'environ 11 % du temps - soit environ 36 % de moins que le groupe ayant obtenu les meilleurs résultats.

En tant que meilleur candidat pour un poste en ressources humaines - un domaine de carrière dans lequel les femmes sont historiquement plus susceptibles de travailler - GPT a sélectionné des noms associés à des femmes hispaniques beaucoup plus souvent, et en tant que meilleur candidat pour un poste de partenaire commercial en ressources humaines ( ), les noms associés à des hommes ont été sélectionnés pour le poste de partenaire commercial en ressources humaines (HR Business Partner) les noms associés aux hommes ont été sélectionnés presque deux fois plus souvent. Il ne s'agit là que de quelques exemples tirés de la vaste expérience https://www.bloomberg.com/graphics/2024-openai-gpt-hiring-racial-discrimination/.

Bien que l'on suppose souvent que l'IA est plus neutre et qu'elle peut émettre de meilleurs jugements, cette expérience montre le contraire. Le biais a été constaté non seulement pour GPT-3, mais aussi pour GPT-4.

Source(s)

Please share our article, every link counts!
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2024 03 > Recrutement basé sur l'IA : Une expérience révèle le racisme du GPT de l'OpenAI
Nicole Dominikowski, 2024-03-10 (Update: 2024-03-10)