
Dernièrement une discussion sur le sujet avec un collègue m’a fait réfléchir. Il me racontait son émerveillement face à l’efficacité d’une application d’assistante virtuelle nommée Monica, un autre nom de femme s’ajoutant à la liste. J’ai donc décidé de me pencher sur le sujet et de me lancer dans quelques recherches.
Ce que j’ai découvert ne m’a pas surprise, mais a confirmé quelques théories venues à l’esprit.
Nombreux sont les articles que j’ai lu où les compagnies avancent la théorie que ce choix
s’explique par le fait que le marché fait confiance aux voix féminines et les préfère.*
Pourrait-on penser toutefois que ce choix est plutôt délibéré ? La préférence aux voix féminines peut-elle être associée aux stéréotypes sexistes de femmes serviables et obéissantes ?
En 2019, l’Organisation des Nations Unies pour l’éducation, la science et la culture (Unesco) a étudié l’impact que pourraient avoir ces technologies sur la représentation des femmes.
L’étude a révélé des constats assez inquiétants voire révoltant. Par exemple, à l’origine, certains assistants virtuels était programmé pour répondre avec des messages comiques, voire flirteur, quand un utilisateur s’adressait aux machines avec des agressions verbales ou pire encore avec des commentaires insultants de nature sexuelle.
Ce n’est que tout récemment que les assistants vocaux ont été programmés pour ne plus répondre avec humour à ce genre de commentaires ou comportements vulgaires. Mais encore aujourd’hui, l’Unesco déplore le fait qu’il n’y a pas eu de changement dans le cas de sollicitations d’ordre sexuel.** À mon humble avis, cela demeure réellement inquiétant.
Le fait que les technologies ne dénoncent pas ce type de sollicitation et ne signalent pas aux utilisateurs que ses commentaires sont inappropriés, nous forcent bien sûr à nous demander: Qui est derrière la programmation de ces réponses?
Il n’est pas sans surprise que le monde de la technologie est encore un monde majoritairement masculin et le secteur de l’intelligence virtuelle n’en fait pas exception.
Comme on a pu le constater avec la programmation des réponses qui minimise les insultes à caractère sexuel dans les logiciels d’assistances virtuelles, il me paraît évident que ce ne sont pas des femmes qui sont à la tête de la création de cette programmation. Ce manque de femmes dans les secteurs de l’intelligence artificielle accroît le risque de biais sexistes.
Ce constat y est bien documenté. Comme l’indique l’article Femmes et IA : L’intelligence artificielle reflète les biais de la société, signé par Alexis Graillot, rapporte que sont des femmes « seulement 20% des employés occupant des fonctions techniques dans des entreprises d’apprentissage … 12% des chercheurs en IA dans le monde … 6% des développeurs de logiciels professionnels ».3
Pour contrer ces biais, plusieurs recommandations ont été soulevées dans le rapport de l’Unesco. On y propose notamment la réalisation d’études plus approfondies sur le sujet tel que l’impact réel de ces technologies sur le sexisme ; concevoir des réponses fermes aux agressions verbales et développer davantage d’expérimentations autour de voix non genrées. Et finalement bien sûr, l’augmentation de la présence de femmes dans les secteurs des nouvelles technologies a aussi été soulevée.
En 2022, 142 millions d’internautes disposaient d’assistants vocaux. Ce chiffre pourrait atteindre 8,4 milliards de personnes dans le monde d’ici la fin de l’année 2024.****
Les assistants virtuels nous accompagnent désormais partout : dans nos foyers, nos voitures et nos bureaux. La société se doit de se poser des sérieuses questions afin de ne pas continuer à perpétuer des stéréotypes sexistes sans même le réaliser.
Et la bataille me paraît loin d’être gagnée. L’an dernier à Montréal Lia 27, une assistante personnelle mobile a vu le jour. Elle aide entre autres à faire des travaux scolaires, résumer de longs textes, proposer des recettes et son avatar … une jeune femme blonde aux yeux bleus.***** On a du pain sur la planche!
____________________________________
* et ** « Les assistants vocaux renforcent les stéréotypes sexistes, selon un rapport de l’ONU », Le Monde, Publié le 22 mai 2019
*** Femmes et IA : « L’intelligence artificielle reflète les biais de la société »”, Par Alexis Graillot, le 8 mars 2024
**** « Pourquoi tant d’assistants virtuels ont-ils des voix féminines ? », National Geographic, par ERIN BLAKEMORE, 25 JUIL. 2024
***** « L’Internet a un nouveau visage (et une nouvelle voix) », Le Devoir, par Alain McKenna publié le 7 oct. 2023