L'intelligence artificielle reproduit-elle des biais sexistes ? Mais au fait, qu'est-ce que l'IA exactement ? Et comment peut-elle, ou non, avoir un impact négatif ? Dans cet article, je propose de déconstruire certains mythes entourant l'IA et d'explorer
Poser ce genre de question, c’est finalement encore tendre à anthropomorphiser1 l’IA qui n’est pour l’instant qu’un bête amas de statistiques. Pourtant, l’interrogation est légitime : les IA discriminent-elles les personnes de genre féminin ?
Avant de répondre à la question en quoi « l’IA serait-elle sexiste », il faudrait déjà comprendre un peu mieux ce qu’est l’IA, l’acronyme pour « intelligence artificielle ». Et définir l’IA, ce n’est pas gagné. Le concept est fuyant. C’est pourquoi certaines personnes comme l’un des concepteurs de Siri vont jusqu’à affirmer haut et fort qu’elle n’existe pas.
Pour commencer, il est ardu de cerner ce que le terme « intelligence » recouvre. Alors, parler d’« intelligence artificielle », c’est encore plus périlleux. Pourtant, l’IA court aujourd’hui dans de nombreuses bouches. Dans les publicités, l’IA, contenu dans tel ou tel produit, augmentera nos performances. La Gen AI (ou l’IA générative) est citée un peu partout et plusieurs prix Nobel ont été attribués à des chercheurs du domaine. C’est donc bien que quelque chose se joue.
Reprenons alors la définition donnée en 1956 par John McCarthy : « C’est la science et l’ingénierie de la fabrication de machines intelligentes [...] mais l’IA ne doit pas se limiter aux méthodes qui sont biologiquement observables ». Ces propos nous sortent de l’impasse du terme « intelligence ». Peu importe ce que ce concept renferme, il s’agit d’imiter par l’intermédiaire de logiciels un comportement vu comme « intelligent », c’est tout.
Depuis, l’IA a évolué et, pour atteindre ce but, nous avons eu recours à plusieurs techniques. Aujourd’hui, nous nous tournons vers l’apprentissage machine.
L’apprentissage machine ou « machine learning » pour parler comme nos amis d’Outre-manche, c’est le fait pour une application d’effectuer une action sans qu’on le lui ait explicitement définie. Dans le fond, c’est surtout passer d’une programmation déterministe à une programmation probabiliste. Et il faut bien reconnaître que de nombreuses avancées ont eu lieu en la matière grâce à ce système. L’ordinateur lit des données en masse, puis en dégage une structure qu’il compile sous la forme d’une formule. Et paf, ça fait ChatGPT, les moteurs de recommandation, les retouches automatiques de photos, etc.
Si on résume, l’IA, c’est aujourd’hui un domaine de l’informatique qui repose principalement sur des statistiques.
Les IA sexistes existent. L’un des exemples les plus flagrants est celui des IA de recrutement dans le domaine de la technologie. Il suffit de jeter un simple coup d’œil pour se rendre compte que les femmes sont sous-représentées dans ce secteur. Seraient-elles moins compétentes ? Et pourtant, les premiers codeurs étaient bien souvent des codeuses. Cependant, les hommes se sont progressivement emparés du sujet. Et certains d’entre eux ont voulu présélectionner des CV avec l’IA, histoire de gagner du temps. Bien que ce ne soit pas une mauvaise initiative de base, l’algorithme analyse les données, remarque l’absence ou la rareté des personnes de genre féminin dans l’informatique et les écarte de facto. Il fait de même avec les personnes handicapées et les personnes racisées. Alors, que faire ?
Pourrions-nous envisager de masquer les prénoms, les images, tous les indices révélateurs de genre ? Cette suggestion pourrait sembler judicieuse, mais nos activités, nos études, nos diplômes nous trahissent encore. L’IA n’est pas dupe et prend en compte ces éléments dans son évaluation. Bref, c’est un casse-tête sans fin.
Mais, en fait d’où vient le problème ? Et est-il récurrent ?
Le problème provient surtout des données qui servent à alimenter l’IA. Celles-ci doivent être conséquentes pour que les petits programmes informatiques en tirent quelque chose.
Alors qu’un enfant peut reconnaître un chat avec seulement deux ou trois photos, une IA en a besoin de milliers. Cette matière, on doit bien la trouver quelque part. Une bonne partie est issue du Web empreint de préjugés. Il faut donc le trier, ce qui représente une tâche colossale. Il est fréquent que des individus, communément appelés « annotateurs » ou « annotatrices », soient responsables de cette tâche. Ces personnes peuvent elles-mêmes être sujettes à des stéréotypes et biais, pouvant ainsi altérer les données d’une manière défavorable.
En réalité, ce tas de matière est notre monde, que nous codifions sous forme numérique.
Par conséquent, on pourrait s’attendre à ce que l’intelligence artificielle ne soit pas plus problématique que notre société contemporaine. Hélas, c’est plus compliqué.
Tout d’abord, il est important de noter que le sexisme, s’il est avéré, est illégal lorsqu’il est commis par des êtres humains. En contrepartie, nous sommes prompts à excuser les comportements inappropriés des machines. De plus, les algorithmes utilisés pour l’apprentissage automatique simplifient souvent la complexité de la réalité, ce qui peut entraîner une mauvaise compréhension des groupes minoritaires. Par conséquent, il est crucial de reconnaître que, bien que certaines femmes puissent être considérées comme étant « hors normes » dans certains domaines, cela ne signifie pas nécessairement qu’elles ne méritent pas leur place.
Ainsi, les données sont biaisées, et la nature même des statistiques accentue ce fait.
Et d’ailleurs, est-ce la volonté des développeurs et développeuses de remédier à ce problème ? Seulement 15% des emplois dans le secteur technologique sont actuellement détenus par des femmes. Cette proportion diminue encore lorsqu’on examine les postes de direction. Ce sont eux qui, de par la nature de leur travail, choisissent quelle orientation donner à une IA ou pas. Or, sans les stigmatiser, force est de constater que penser en dehors de sa sphère s’avère plus difficile.
Plus les équipes sont diversifiées, plus les chances de repérer un danger plus tôt augmentent. Malheureusement, les femmes sont souvent confrontées à la discrimination. Elles seront donc plus à même de remarquer un éventuel souci avant qu’il ne soit trop tard et que l’application soit déployée.
Effectivement, une meilleure représentation chez les dirigeants et dirigeantes devrait a priori tendre vers des outils plus égalitaires.
Cependant, il faut aussi reconnaître que la quête d’équité dans les IA pose un problème. Jusqu’à présent, nous n’avons abordé que deux genres. Pourtant, nous savons que la réalité est plus complexe. Que faire des personnes se situant dans le vaste spectre de la transidentité et de la fluidité des genres ?
Il serait possible d’effectuer des tests pour évaluer le respect des femmes, mais ce serait restrictif.
Alors, devons-nous abandonner toute tentative d’équité ? Non, mais il est crucial de garder à l’esprit les limites majeures de l’IA et éviter de recréer des genres et des races qui ne représentent que partiellement notre société.
Peut-être devrions-nous tout simplement envisager d’utiliser l’IA avec plus de discernement et la réserver à des contextes spécifiques. L’IA est un outil formidable, mais ce n’est pas une baguette magique. Elle comporte de nombreuses failles qui peuvent se révéler désastreuses si nous faisons semblant de ne pas les voir.
Pratique qui consiste à attribuer des caractéristiques propres à l'espèce humaine à des entités tels que les animaux, les objets ou encore les IA. Revenir au note n°1