Microsoft accusé de racisme à cause de son logiciel de reconnaissance faciale
La réaction de Microsoft et les impacts dans son logiciel de reconnaissance faciale
Tout a commencé par une étude réalisée en février dernier par le MIT Media Lab. Celle-ci avait démontré que le logiciel de reconnaissance faciale développé par Microsoft identifiait de façon erronée le visage des femmes ainsi que des individus non blancs. Certains avaient alors accusé l’éditeur d’être raciste.
Face à cette pression populaire, les équipes de Microsoft n’ont pas tardé à réagir. En effet, le logiciel de reconnaissance ne pouvait plus être tenu pour responsable de ce genre d’erreur. Microsoft affirme désormais que le taux d’imprécisions à été divisé par 20 pour les individus à la peau mate. Et par 9 pour les femmes par rapport à l’étude réalisée par le MIT.
La méthode employée par la firme est simple. Son logiciel de reconnaissance faciale possède la caractéristique d’apprendre et donc de s’améliorer grâce à sa base de données. En augmentant donc le nombre de visages de femmes ou à la peau foncée, le logiciel a pu affiner ses résultats.
L’intelligence artificielle et l’éthique
Le cas du logiciel de reconnaissance faciale de Microsoft est représentatif de l’importance de l’éthique qui doit nécessairement accompagner le développement de l’intelligence artificielle et des enjeux qui en découlent. Ainsi, certains accusent Microsoft d’avoir agit de manière délibérée dans cette affaire et donc d’être ouvertement raciste.
Si il semble bien prématuré et dangereux de tirer de telles conclusions, il faut tout même reconnaître qu’il est tout à fait possible pour une société d’influencer nos décisions et notre mode de pensée à travers l’intelligence artificielle. Sommes-nous réellement prêts à « entraîner » des logiciels intelligents sur la base de nos propres comportements violents ou xénophobes ? Finalement les logiciels de ce genre ne sont qu’un reflet des actions (positives ou négatives) humaines. Un autre exemple illustre lui aussi parfaitement ce propos. Un chat bot avait été mis en place par une société sur Twitter. Celui-ci se nourrissait des commentaires des followers (donc des humains). Mais a rapidement dérivé vers des propos contre la population juive notamment.
Cette question est prise très au sérieux au sein des équipes d’ingénieurs. Nombreuses sont celles qui collaborent avec des spécialistes du domaine éthique pour tenter d’obtenir un fonctionnement parfait. A l’avenir, l’intervention d’organismes externes (tels le MIT) et indépendants devra permettre un contrôle des résultats fournis par les logiciels dotés d’intelligence artificielle.