Un sujet (enfin) pris en compte par les GAFA
Le sujet de la discrimination lors de l’utilisation d’IA est à raison au cœur de l’actualité. Google a annoncé en 2018 avoir développé un outil d’IA permettant de détecter d’éventuels préjugés. Facebook a communiqué en avril sur le sujet lors d’une de ses conférences annuelles (F8, dédiée au développement). L’entreprise souhaite que ces outils utilisant l’IA puissent détecter et éviter tous types de biais sexistes et racistes.
L’IA, un outil plus qu’une réponse à toute question
De fait, les résultats issus de travaux de machine learning ne font que reproduire les comportements humains, sans distinction aucune. Ces biais observés dans les résultats ne sont que le reflet des biais inclus dans les données traitées. Certains raccourcis sont utilisés dans la presse pour évoquer des dérapages d’IA. Le cas du chatbot Microsoft est flagrant. Celui-ci a fini par tenir des propos racistes sur Twitter car les tweets qui lui étaient adressé (les données entrantes) étaient eux même racistes. Le machine learning et l’IA de manière générale ne restent que des outils de calcul.
Les biais ressortent de manière directe et indirecte
Cette problématique s’amplifie quand ces notions (de sexe, d’orientation sexuelle, de religion ou autre) ne sont pas présentes dans les données entrantes mais que les résultats peuvent contenir des biais. Google s’est rendu compte que les résultats lors de la recherche « médecin » dans la section image ne comportaient exclusivement que des hommes. Pourtant cela ne relève pas d’une démarche pro-active de Google, ni de son algorithme de référencement. Arriver à détecter des biais reste complexe également dans l’analyse de texte, utilisant des métaphores et de nombreuses conventions.
Règle 1 : tout le monde se met autour de la table
La base de tous processus de machine learning commence par une phase de cadrage : on y définit les valeurs cibles à atteindre, les bases à utiliser ainsi que les hypothèses et biais à identifier. Cette phase et plus particulièrement ce dernier point tend à être souvent oublié – nombreux sont ceux voulant révolutionner leur business avec de l’IA sans pour autant modifier la manière de collecter les données, voir de changer de mode de fonctionnement.
Cela requiert de mettre autour de la table des responsables data, des l’UX/UI, du marketing digital mais également des responsables offlines (de magasins dans le cas du retail par exemple). Collecter des données en minimisant les biais est complexe et requière souvent de revoir l’intégralité du parcours client.
Règle 2 : évitez la solution unique à des problématiques complexes
La recherche s’oriente vers des systèmes hybrides, intégrant des algorithmes de plusieurs sortes. Des systèmes intégrant machine learning et système expert permettent d’établir des règles réduisant les biais. Les systèmes experts sont une des branches de l’IA, très utilisés dans les années 80, car moins gourmands en puissance de calcul. Ils sont aujourd’hui peu en vue mais permettent de facilement garder le contrôle sur le type d’analyse que l’on souhaite effectuer. Au niveau Business cela permet dans de nombreux cas d’obtenir des résultats probants, en couplant un système expert à une simple régression linéaire.
Règle 3 : le jugement humain reste imbattable
La plus simple des méthodes reste de ne pas retirer en totalité l’expertise humaine de la décision. Cela se traduit par des méthodes de contrôle qualité des résultats d’algorithme, similaires aux contrôles qualité effectués sur des chaînes automatisées en industrie. Dans le cadre de chatbots basés sur de l’IA, ceux-ci peuvent traiter rapidement plus de 90% des cas. Mais il est judicieux qu’un téléconseiller reprenne la main en cas de demandes complexes ou ambiguës. La méthode est simple à mettre en place, et permet d’éviter toute réponse erronée ou impliquant des biais.
Le sujet reste néanmoins complexe à traiter. Il est crucial d’être méthodique quand on manipule les données car il est difficile de savoir si on est en train d’effacer un biais ou d’en introduire d’autres. Les solutions d’Intelligence Artificielle doivent intégrer les aspects sociaux, sociétaux et environnementaux, c’est en tout cas un prérequis dans nos travaux chez Keley.
Sources :
Gender Bias in Artificial Intelligence: The Need for Diversity and Gender Theory in Machine Learning - Susan Leavy - University College Dublin (lien)
Intelligence Artificielle et Sexisme - Politiqu'Elles (lien)
Google : un outil pour combattre le racisme et le sexisme des IA – Bastien L (lien)
Facebook adopte de nouvelles règles pour lutter contre les biais sexistes et racistes des IA – Nelly Lesage (lien)