Computer algorithm on laptop display and some other objects on table on background of technicians discussing principles of work

Les algorithmes s’immiscent désormais dans nos actions quotidiennes, lorsqu’on candidate à un poste, pose une demande de crédit, interpelle un assistant vocal… et non, parfois, sans véhiculer de sacrés stéréotypes sexistes. Karen Tatarian, chercheuse en robotique à l’Université de la Sorbonne et au sein de Softbank Robotics, analyse ce phénomène

« Il y a quelques années, certaines réactions d’algorithmes ont choqué. Par exemple, au niveau des assistants vocaux. Siri, qui de l’usage général est plutôt féminine, répondait ainsi « I’d blush if i could » (Je rougirais si je pouvais) lorsque la personne faisait des commentaires sexuels ou du type « you’re a bitch ».

Cela a engendré une prise de conscience sur le machisme de certains algorithmes. De premières études ont été lancées ainsi par l’Unesco, qui en 2019, a publié un rapport intitulé justement « I’d blush if i could ». Il dénonce le fait que la plupart des assistants vocaux soient dotés de noms et de voix de femmes ainsi que d’une « personnalité soumise et docile ».

Le rapport montre aussi à quel point les femmes sont peu présentes dans les métiers de l’Intelligence artificielle*. C’est en effet l’une des raisons de ces biais machistes, mais pas seulement. Ces technologies ont été conçues au départ dans des pays européens et américains par un public d’homme blancs. La majorité des données qu’ils avaient sous la main concernait cette population présente dans leurs propres sociétés. Quand, par exemple, les ingénieurs d’Amazon ont fait un algorithme pour recruter des ingénieurs, parmi les « candidats parfaits » n’apparaissaient que des hommes blancs.

« Tout ne peut pas être de la responsabilité des ingénieurs »

Tout ne peut pas être cependant de la responsabilité des ingénieurs. Les données intégrées se calquent sur une réalité, par exemple les différences de salaires entre hommes et femmes. Cela est assez flagrant aux États-Unis où il n’y a pas de lois sur la question de l’égalité des salaires. Dans ce cas, l’algorithme est juste le reflet d’une réalité qui n’est pas parfaite. La solution serait surtout de prendre le problème à la base, en créant des lois sur la parité de salaires et en parallèle en encourageant les femmes à s’orienter vers le secteur de l’Intelligence artificielle.

Sur ce dernier point, les mentalités ont commencé à changer malgré des réticences comme on a pu en voir au sein de la Silicon Valley. Les questions d’éthique, que ce soit au niveau des recrutements ou par des formations, sont de plus en plus présentes dans l’IA.

L’Union européenne, même si elle est seule à le faire dans le monde, a commencé à faire des lois sur ces questions éthiques, sur la protection des données personnelles… Moi, lorsque je fais passer des tests d’interaction entre un robot et des usagers, je dois indiquer la composition du public. S’il n’y a pas de parité, je présente mes résultats comme « limités » par cette sous-représentation de l’un ou de l’autre sexe.

« Ces algorithmes ont malheureusement un effet amplificateur »

C’est un enjeu très important car ces technologies sont désormais partout et intégrées à notre quotidien, leur influence est grande mais aussi parce que ces algorithmes ont malheureusement un effet amplificateur. Cela peut créer un effet « boule de neige » si nous ne sommes pas aujourd’hui attentifs à ces stéréotypes. Par exemple, un logiciel, pour traduire le mot « docteur », d’une langue « neutre » comme le Turc, le mettait automatiquement au masculin dans une autre langue. Quand en effet l’algorithme cherche des données sur les sites, il va en effet plus souvent trouver « docteur » au masculin et va donc trancher dans ce sens. Il faut donc construire des algorithmes pour tout le monde, pas pour 50% du peuple, avec des ingénieur(e)s conscients des discriminations de notre société.

Dans mon domaine, la robotique, la question se pose, à la marge, de concevoir des robots qui interagiraient avec uniquement tel ou tel sexe. Actuellement, la majorité des robots commercialisés sont neutres, sans sexe. Seule l’Asie s’est lancée dans la conception sexuée. Je ne connais pas l’avenir de ce marché mais je n’en vois pas l’intérêt. Il me semble plus intéressant d’arriver à concevoir des robots capables d’interagir avec tous et de ne pas créer de différenciation qui pourrait être source d’éventuelle discrimination. »

 

(*) Selon cette étude, aujourd’hui seulement 12% des chercheurs qui travaillent dans le domaine de l’intelligence artificielle sont des femmes. Elles ne représentent que 6% des développeurs de logiciels et sont amenées à déposer 13 fois moins de brevet dans le domaine des technologies de l’information et de la communication que leurs confrères masculins.

 

Propos recueillis
par Marianne Peyri

Fermer la popup
?>