Une étude récente révèle que ChatGPT et d’autres intelligences artificielles (IA) pourraient reproduire et même amplifier les inégalités de genre qui existent déjà dans le milieu professionnel. Alors que les femmes et les hommes ayant des profils similaires sollicitent des conseils sur leur salaire et leur ambition professionnelle, les résultats apparaissent troublants. Les IA semblent privilégier les hommes en leur proposant des rémunérations plus élevées et des conseils d’ambition différents de ceux destinés aux femmes.
Des différences de salaire manifestes
Il a été démontré que lorsqu’on interroge des IA sur des questions de salaire, les réponses peuvent changer selon le genre du candidat. Par exemple, lors d’une étude, des chercheurs ont demandé à ChatGPT de fournir des conseils salariaux à des candidats de même âge, mêmes qualifications et expériences, mais de genres différents. Résultat ? Les femmes se voient généralement proposer des salaires inférieurs à ceux de leurs homologues masculins, même dans des domaines comme la technologie, le droit ou la finance, où les hommes sont déjà sur-représentés.
Un déséquilibre stupéfiant
Pour illustrer cette tendance, prenons l’exemple d’un poste de haut niveau dans le secteur technologique. ChatGPT a conseillé une femme de demander un salaire de 280 000 dollars par an, alors que pour un homme avec un profil parfaitement identique, l’IA recommandait un salaire de 400 000 dollars. Si ces chiffres ne vous donnent pas un frisson de désespoir, vous êtes probablement fait de perlite !
Une orientation professionnelle biaisée
Les inégalités de genre ne se limitent pas qu’à la question du salaire. Elles s’étendent également à l’orientation professionnelle. Lorsque les IA suggèrent des choix de carrière, elles tendent à orienter les hommes vers des postes techniques, à responsabilités élevées, tandis que les femmes se voient conseillées vers des métiers plus relationnels et, souvent, moins rémunérateurs. Il semble donc évident que ces intelligences artificielles ne se contentent pas de répondre à des requêtes, mais qu’elles perpétuent également des stéréotypes profondément enracinés.
Les conseils : un reflet de la société
Il est frappant de constater que les conseils que les IA donnent en matière d’ambition diffèrent également suivant le genre. Tandis que les hommes reçoivent des recommandations les encourageant à être ambitieux, à s’exprimer et à prendre la parole, les femmes sont souvent invitées à opter pour la discrétion et le compromis. Ces messages reflètent non seulement le déséquilibre des sexes dans le lieu de travail, mais également la manière dont la société valorise les comportements masculins par rapport aux féminins.
Un reflet des biais systémiques
La question de l’influence des biais au sein des intelligences artificielles n’est pas nouvelle. En effet, des études antérieures ont déjà mis en lumière le fait que les algorithmes, y compris ceux de réseaux sociaux comme LinkedIn, favorisent également les hommes dans la présentation d’offres d’emploi. Le problème réside dans le fait que les IA s’alimentent de données existantes sur Internet, qui sont souvent teintées de stéréotypes de genre, ce qui les instrumente et les programme pour reproduire ces mêmes biais. Cela soulève dès lors des questions éthiques sur l’utilisation des technologies de l’IA dans le monde du travail.
Une société à réformer
La reproduction des inégalités de genre par les IA remet en question leur rôle et leur potentiel d’éradication des discriminations. Au lieu d’offrir une voie à l’égalité, ces outils pourraient bien contribuer à la réintroduction de stéréotypes démodés qui freinent l’égalité pour tous. Une telle situation ne peut être laissée sans réponse et doit inciter une réflexion collective sur les implications des technologies de l’IA dans la société.
Des solutions envisagées
Des mesures doivent être prises pour s’assurer que les outils d’IA soient dotés de systèmes de filtrage qui limitent les biais de genre. Les chercheurs et les développeurs doivent s’engager à créer des algorithmes qui intègrent le `fair treatment` pour tous les genres. La transformation sociétale passe également par l’éducation et la sensibilisation. Les entreprises doivent également s’attaquer à ces questions et utiliser ces technologies de manière responsable pour éviter de reproduire des inégalités qui devraient, espérons-le, appartenir à un passé révolu.
- Pulse : le nouvel assistant personnel de ChatGPT qui révolutionne la publicité ciblée tout en soulevant des inquiétudes sur la surveillance de masse - 3 octobre 2025
- Les 5 meilleures destinations de ski écoresponsables selon ChatGPT pour un hiver durable ! - 2 octobre 2025
- Mon thérapeute intègre ChatGPT dans ses séances - 1 octobre 2025





