Pourquoi la reconnaissance de visage est dangereuse

NumeriCube est une société spécialisée en computer vision. Pourtant, nous refusons régulièrement des missions qui impliquent des sujets de détection faciale. Pourquoi ?

De nombreux projets liés à la vision par ordinateur incluent une dimension de reconnaissance faciale. Sur le papier, les promesses sont intéressantes :

  • Reconnaissance d'un utilisateur d'après son visage pour lui apporter de nouveaux services
  • Authentification automatique — comme sur l'iPhone X
  • Nouveaux services à l'usage des services marketing, comme la détection d'émotions

Analyse faciale

Néanmoins, nous sommes excessivement prudents face à l'usage de ces technologies.

 C'est parti !

Une valeur technique contestable

Premièrement, l'intérêt technologique de ces applications n'est pas évident. La complexité pour construire un modèle de reconnaissance faciale efficace est telle qu'il faut un jeu de données colossal pour parvenir à un niveau de détection satisfaisant.

Même en utilisant des moyens importants, comme peuvent se permettre les principaux acteurs du Cloud, il subsiste d'important biais notamment de race et de genre.

Ainsi, ces technologies ne peuvent s'utiliser qu'en se basant sur des briques fournies par des géants de l'informatique (Amazon Rekognition ou Azure Face API), lesquelles sont livrées "prêtes à l'emploi", sans aucun accès au dataset d'entrainement ni de mesure standardisée pour les qualifier. Il ne s'agit donc pas tant de projets de Computer Vision que d'intégration pure et simples d'APIs disponibles dans le cloud.

Cela implique aussi que tous les visages de vos utilisateurs sont partagés avec un tiers qui n'a parfois pas de réelle implantation en Europe...

Une législation complexe et RGPD

https://www.cnil.fr/fr/definition/reconnaissance-facialeUn autre problème, plus spécifiquement européen, concerne la réglementation associée à ces technologies. Cette réglementation est complexe ethttps://www.cnil.fr/fr/definition/reconnaissance-faciale avant de faire l'objet d'un projet concret.

Cette législation protège le citoyen qui souhaite rester anonyme même en environnement ouvert. Même si des expérimentations ont lieu dans certaines villes (Nice par exemple) pour tester la reconnaissance faciale sur voie publique, ces expérimentations sont strictement encadrées et limitées. Et pour la plupart restent dans le domaine de la sécurité, ce qui nous amène au point suivant...

Confiriez-vous cet outil à un autre ?

Pour avoir travaillé un temps dans le domaine de la sécurité, nous sommes conscients que beaucoup d'outils, suivant leur destination, peuvent devenir des armes. Même des algorithmes peuvent être considérés comme des armes !

La question de l'usage se pose donc. Est-ce qu'un "banal" panneau d'affichage dans lequel est intégré une caméra qui détecte le regard ou les émotions des patients doit être considéré comme inoffensif, si, entre de mauvaises mains, il se transforme en une arme de surveillance massive ?

Que penser de l'utilisation de tels systèmes dans des pays qui ne sont pas forcément réputés pour leur strict respect de la vie privée ?

Nous ne souhaitons pas que nous outils soient détournés de leur usage (autre que ludique !), et c'est la raison pour laquelle nous avons décidé de ne pas donner suite à ces requêtes, fréquentes, d'équiper un lieu ou un objet de caméras qui seraient connectés à un système d'identification biométrique, quel qu'il soit.

La reconnaissance visuelle et les humains

Est-ce à dire que nous ne travaillons jamais avec des images qui contiennent des humains ? Pas du tout ! Simplement nous nous assurons de ne jamais développer d'outil qui puisse être détourné facilement de son usage. Voici quelques exemples

Floutage en temps-réel

Nous avons développé un algorithme de floutage en temps-réel pour nos applications impliquant une prise de vue par caméra. L'intérêt, c'est qu'aucun visage n'est enregistré "en clair", les visages sont floutés avant même d'être analysés ou enregistrés. Cela fonctionne évidemment sur les plaques de rues et les plaques d'immatriculation.

Compter les humains, pas les dévisager

Nous savons développer des systèmes de comptage de foule qui, une fois le flux flouté, ne prennent pas en compte les visages des humains mais uniquement leur silhouette — empêchant par là-même toute dérive.

À bas les biais

Nous prenons soin, lorsque nous constituons des datasets pour nos clients, d'appliquer des méthodes rigoureuses pour limiter les risques de biais de nos algorithmes. Envie d'en savoir plus ? Et si l'on parlait de vos projets ?

 C'est parti !