Le paysage de la vérification de l'âge (AV) semble être à l'aube d'un changement radical vers une prise de décision assistée par la technologie et une prise de décision automatisée à plus long terme basée sur l'IA. Le marché regorge désormais de fournisseurs de technologies proposant des solutions impressionnantes, notamment des technologies d'estimation de l'âge (AE) et d'identification numérique.
Alors que le gouvernement annonce une consultation prochaine sur la loi de 2003 relative aux licences d'alcool, nous avons l'impression d'être à l'aube d'un changement radical dans le monde de l'alcool. Nous pensons qu'à l'issue de cette consultation, l'acceptation de l'identité numérique pour la vente d'alcool sera ratifiée et, si tel est le cas, l'adoption à grande échelle de l'identité numérique devrait commencer. Nos recherches montrent que 94 % des jeunes préféreraient une solution d'identification numérique et que le principal facteur favorisant l'adoption de cette technologie est son acceptation pour tous les cas d'utilisation.
Le Telegraph a récemment publié un titre qui, selon nous, visait à provoquer une certaine hystérie collective : « Une entreprise impliquée dans le scandale des passeports électroniques va vendre des scanners faciaux ». Mais ce n'est pas le moment de céder à l'hystérie. Non seulement cette technologie fonctionne, mais elle présente également un énorme potentiel pour nous faciliter la vie. L'heure est venue d'apprendre, de réfléchir et de veiller à ce que les actions d'aujourd'hui ne reflètent pas celles du passé.
Pour nous, le scandale Horizon sert d'avertissement : les nouvelles technologies peuvent déresponsabiliser les individus, et lorsque ceux qui utilisent ces technologies ne comprennent pas les mécanismes qui déterminent les résultats, cela comporte un risque.
Nous ne pensons pas que toutes les personnes impliquées dans ce triste événement aient eu des intentions malveillantes, mais nous pensons toutefois que certaines n'étaient tout simplement pas suffisamment informées sur la technologie utilisée pour pouvoir percevoir les erreurs qu'elle pouvait commettre.
Le texte final de la loi européenne sur l'IA stipule que les systèmes d'IA classés comme présentant un risque élevé ne peuvent être considérés comme tels si « la tâche effectuée par le système d'IA vise à améliorer le résultat d'une activité humaine déjà accomplie... Compte tenu de ces caractéristiques, le système d'IA ne fait qu'apporter un complément à une activité humaine, ce qui réduit d'autant le risque ». La réglementation applicable à ces systèmes peut donc être considérablement allégée.
Au vu des événements récents, est-il toujours vrai que l'ajout d'une couche supplémentaire à une activité humaine réduit le risque ? Ou cela signifie-t-il que les humains accordent moins de rigueur à la tâche ? Et si tel est le cas, quel degré de contrôle et de précision doit être appliqué à la couche supplémentaire avant que nous puissions nous y fier ? Nous voulons définir les critères de référence qui donneront confiance au secteur. Avec 17 ans de données comparatives sur les performances humaines en matière de véhicules autonomes, nous sommes parfaitement placés pour créer un indicateur de performance robuste et fondé sur des données qui démontrera clairement si le niveau de risque est réduit grâce à l'utilisation de cette technologie. Le fait que cette technologie soit considérée comme présentant un faible risque par les régulateurs présente de nombreux avantages, car elle peut supprimer beaucoup de formalités administratives, mais, à l'inverse, si elle n'est pas autorégulée de manière efficace, elle peut également augmenter involontairement le risque pour le titulaire de la licence, le détaillant ou le fournisseur de contenu en supprimant la responsabilité des personnes.
Si nous avons appris quelque chose, c'est bien que les systèmes qui ont une incidence sur les droits d'une personne doivent être testés de manière rigoureuse et indépendante, que nous devons les essayer de manière approfondie et écouter les commentaires et les préoccupations des utilisateurs finaux, et qu'il doit être clair dès le départ où se situe la responsabilité de la prise de décision correcte. Il convient de reconnaître que bon nombre des grands acteurs du secteur, tels que Yoti, publient déjà leurs résultats de tests internes, ainsi que les résultats indépendants obtenus grâce à des cadres de test tels que celui fourni par le National Institute of Standards and Technology (NIST).
Chez Serve Legal, nous souhaitons apporter un soutien supplémentaire au secteur en répondant aux préoccupations soulevées par certaines des questions posées dans cet article. Nous travaillons avec les fournisseurs de nouvelles technologies audiovisuelles et les détaillants qui les mettent en œuvre afin d'éviter les écueils potentiels.