Actualités

Technologies d'estimation de l'âge

Écrit par Matthew Houliston | 16 novembre 2023, 16 h 46

Nous entrons dans une période passionnante au Royaume-Uni, où la technologie est sur le point de transformer le paysage du commerce de détail et de changer notre approche des processus de vérification de l'âge, tant en magasin qu'en ligne. Luciditi lance la première carte d'identité numérique accréditée PASS niveau 5 (découvrez comment nous soutenons leur lancement ici : https://luciditi.co.uk/uks-first-pass-approved-digital-proof-of-age-card-set-to-reduce-fraud-and-retailer-prosecution), la technologie d'estimation de l'âge (AE) activement utilisée par certains détaillants en ligne, ainsi que les changements législatifs à venir concernant la vente d'alcool, nous nous attendons à ce que ce marché explose très prochainement. Comme toujours, Serve Legal s'engage à aider ses clients dans tous les domaines liés à la conformité et aux risques. Voici donc notre point de vue sur les technologies à venir, en mettant l'accent sur l'estimation de l'âge pour les détaillants :

 

Avantages de la technologie d'estimation de l'âge

  1. Amélioration du parcours client.

Nous avons tous déjà été dans une situation où nous espérions pouvoir effectuer un achat rapide et sans encombre à la caisse en libre-service, mais où le voyant rouge s'est allumé et où nous nous sommes retrouvés coincés dans une situation frustrante, à attendre que la transaction soit approuvée. Cette technologie devrait permettre de supprimer une grande partie des autorisations requises pour les produits soumis à une restriction d'âge, ne laissant que les chanceux qui ont l'air d'avoir moins de 25 ans et les malheureux qui se retrouvent avec le redoutable message « article inattendu dans la zone d'emballage » à traiter par leurs collègues, ce qui améliorerait considérablement l'expérience de la plupart des clients.

  2. Réduire les points de friction/confrontation

Il peut être compréhensible qu'un jeune de 18 ans qui fait ses premiers pas dans le monde du travail ait du mal à interpeller un client qu'il estime potentiellement plus âgé que lui, mais qui n'atteint pas l'âge fixé par la politique de l'entreprise Think25. La situation peut s'aggraver si le client n'a pas de pièce d'identité et que nous risquons de voir la transaction refusée, ce qui crée un conflit. AE fournit une clause de sortie pratique, « l'ordinateur dit non », pour le membre du personnel et veille à ce qu'il ne se détourne pas de la politique de l'entreprise. Vous trouverez ci-dessous des exemples de commentaires tirés du site thestudentroom.co.uk qui reflètent l'anxiété ressentie par certains jeunes lorsqu'ils doivent demander une pièce d'identité aux clients :

« C'est peut-être juste le trac du premier jour, j'espère que ça ira mieux. Mais je déteste vraiment servir les clients, surtout parce que j'ai peur de devoir leur demander leur carte d'identité. »

«Je travaille actuellement dans un supermarché et nous appliquons la politique « challenge/think 25», mais cela me cause beaucoup d'anxiété car j'ai du mal à savoir si quelqu'un a moins de 25 ans. »

  3. Éliminer les interprétations humaines et les préjugés

Comme pour tout, nos interprétations individuelles diffèrent et ce qu'une personne considère comme un client âgé de plus de 25 ans peut être perçu par une autre comme un client potentiellement mineur. Nous savons également, grâce à des centaines de milliers d'audits Serve Legal, que l'âge et le sexe des membres du personnel peuvent influencer les performances en matière de conformité et que l'expérience ou les préjugés personnels ont un impact supplémentaire. L'AE garantit un certain niveau de cohérence dans l'ensemble de l'entreprise. Cependant, cela ne signifie pas que la technologie est parfaite et exempte de préjugés. Vous devrez en tenir compte lors du choix de votre outil AE.

 

Points à prendre en considération

  1. Préoccupations relatives à la confidentialité :

Il existe certaines idées fausses dans le monde de la reconnaissance vocale qui l'associent injustement à la reconnaissance faciale (RF), ce qui suscite des inquiétudes chez les utilisateurs finaux, les déployeurs et même les gouvernements quant à la capture et au stockage des images faciales. L'AVPA, dont nous sommes membres, fait un excellent travail pour démystifier cette idée reçue et expliquer comment la technologie reconnaît les modèles sans stocker d'images. Cependant, les entreprises qui choisissent la technologie AE doivent s'assurer que les fournisseurs qu'elles ont sélectionnés peuvent le démontrer et devront rassurer leurs clients en leur expliquant qu'il ne s'agit pas d'une extension du contrôle exercé par « Big Brother ».

  2. Les préjugés dans le domaine technologique

Les préjugés peuvent souvent être considérés comme une simple caractéristique humaine fondée sur nos expériences et les facteurs qui nous influencent, mais ils peuvent également exister dans le domaine technologique. Qu'il s'agisse de préjugés algorithmiques, où la technologie peut perpétuer des préjugés/discriminations, ou de préjugés liés aux données, où les algorithmes ont été entraînés sur des ensembles de données biaisés. Il existe des exemples de préjugés liés au genre et à l'origine ethnique qui se perpétuent dans l'IA, ce qui a eu des conséquences néfastes pour les utilisateurs de cette technologie, notamment en termes de réputation. Les détaillants doivent s'assurer que les fournisseurs d'AE peuvent démontrer une formation solide, notamment :

  • Séparer les ensembles de données d'entraînement, de questions-réponses et de test : vous ne pouvez pas tester votre outil en utilisant les mêmes données que celles utilisées pour l'entraîner.
  • Ensembles de données diversifiés
  • Les ensembles de données de questions-réponses et de tests (en particulier) sont extrêmement précis, exempts de doublons, validés et vérifiés. Dans le cas d'AE, cela signifie que chaque image a été correctement marquée avec l'âge de la personne et confirmée par une pièce d'identité.
  • Vérification indépendante de l'exactitude et de l'impartialité (pas de notation de vos propres devoirs !)
  3. Risque

N'oubliez pas que le risque lié à la licence incombe au détaillant/déployeur de la technologie, et non au fournisseur de la technologie. Les détaillants devront être en mesure de démontrer aux principales parties prenantes de l'entreprise que la technologie a été :

  • Mis en œuvre correctement et que les résultats de laboratoire sont reproduits dans le monde réel.
  • Fonctionne in situ, avec tous les facteurs externes susceptibles d'influencer les résultats (éclairage, positionnement, présentation au client, etc.)
  • Les performances dépassent celles des transactions similaires effectuées par des humains.
  • Les clients ne font l'objet d'aucune discrimination.
  • Le fournisseur peut démontrer qu'il protège contre les tentatives d'usurpation d'identité.
  • Les ensembles de données ont été collectés dans le respect du RGPD, ce qui est particulièrement important pour les outils conçus pour estimer l'âge des mineurs.
  4. Réglementation

Nous ne voulons pas que la réglementation étouffe l'innovation, et pour l'instant, la réglementation est très en retard sur l'innovation : la loi européenne sur l'IA est toujours en cours de discussion et le Royaume-Uni travaille sur un livre blanc. Cependant, la réglementation est en passe d'être adoptée, ce qui pourrait avoir un impact sur les outils utilisés en fonction des résultats. Il faut donc tenir compte de la longévité des solutions d'IA. Nos principales conclusions après avoir évalué les différentes législations relatives à l'IA, que les technologies d'AE utilisent pour former leurs modèles, sont que tout outil utilisant l'IA qui présente un risque de discrimination fondée sur une caractéristique protégée (âge, sexe, origine ethnique, etc.) serait classé comme « à haut risque » et devrait démontrer sa précision, mettre en place des mesures d'atténuation des biais et faire l'objet d'une surveillance continue pour pouvoir être utilisé (afin d'éviter l'introduction d'inexactitudes ou de biais par le biais d'un développement continu).

Il convient de noter que de nombreux fournisseurs d'AE font preuve de diversité selon l'échelle de Fitzpatrick. Cependant, comme l'a montré une étude de l'université de Durham évaluant les préjugés cachés dans la reconnaissance faciale, la couleur de peau ne suffit pas pour analyser les préjugés raciaux. Par conséquent, ces mesures pourraient ne pas être suffisantes pour atténuer les préjugés liés à la caractéristique ethnique protégée.

(Yucer, S., Tekras, F., Al Moubayed, N., & Breckon, T. (2022). Mesurer les préjugés cachés dans la reconnaissance faciale à l'aide de phénotypes raciaux. https://openaccess.thecvf.com/content/WACV2022/papers/Yucer_Measuring_Hidden_Bias_Within_Face_Recognition_via_Racial_Phenotypes_WACV_2022_paper.pdf

 

Guide des meilleures pratiques pour les détaillants

  1. Transparence envers les clients

Assurez-vous que les clients sont pleinement informés de la technologie mise en place et de la manière dont leurs données seront traitées et stockées (ou non). Les clients auront besoin d'un certain temps pour s'adapter à ce nouveau parcours client, et certains utilisateurs finaux auront besoin d'être rassurés quant à l'intention de la technologie.

  2. Audits et tests réguliers

Nous recommandons de surveiller en permanence cette technologie afin que les détaillants et les entreprises puissent conserver des preuves de leur diligence raisonnable en cas d'audit des normes commerciales, et afin de rassurer les parties prenantes sur le fait que la qualité n'est jamais compromise.

Les détaillants devraient être en mesure de démontrer que la nouvelle technologie est plus performante qu'une transaction humaine similaire.

  3. Recueillir des preuves des mesures prises pour atténuer les préjugés

Comme nous l'avons vu plus haut, la technologie mise en œuvre doit être irréprochable du point de vue de la réglementation, du RGPD et de la réduction des biais. Assurez-vous que les fournisseurs disposent d'un programme continu de test et de surveillance de leur outil, afin de garantir que tous les utilisateurs sont traités de manière égale, qu'aucun biais n'est introduit par inadvertance dans le cadre du développement continu et qu'ils sont au fait de toutes les exigences réglementaires.

 

Si vous souhaitez discuter des différentes façons dont nous pouvons vous aider à choisir une technologie d'estimation de l'âge, veuillez contacter info@servelegal.co.uk ou visiter notre site Web à l'adresse www.servelegal.co.uk/services/facial-biometric-accuracy-and-fairness-auditing/.