Réflexions de notre directeur technique : La mise en place de normes pour les modèles d'IA stimulera l'innovation et l'adoption
Si les normes industrielles ajoutent 8,2 milliards de livres sterling au PIB chaque année, l'absence de normes pour l'intelligence artificielle (IA) freine-t-elle le développement de cette technologie ?
Bien que l'IA existe en tant que concept depuis 70 ans, qu'elle soit commercialisée depuis une vingtaine d'années et que les GPT (transformateurs génératifs pré-entraînés) soient omniprésents depuis 2023, ce n'est que le 16 janvier 2024 que la première norme mondialement reconnue relative à l'IA a été publiée, grâce au British Standards Institute (BSI). La norme BS ISO/IEC 42001 définit un cadre certifiable pour les systèmes de gestion de l'IA, dans lequel les produits d'IA peuvent être développés dans le cadre d'un écosystème d'assurance de l'IA.
Quel impact ces normes peuvent-elles avoir sur l'évolution de l'IA ?
Pour répondre à cette question, cet article passera en revue l'impact historique des normes sur des facteurs tels que l'innovation et l'adoption afin d'évaluer si l'IA est susceptible de bénéficier ou d'être entravée par l'émergence de normes.
La législation britannique en matière de consommation stipule que « les produits ne peuvent être vendus que si leur conformité aux réglementations en matière de sécurité des produits a été démontrée de manière appropriée ». En outre, « les réglementations générales de 2005 relatives à la sécurité des produits (GPSR) exigent que tous les produits soient sûrs dans le cadre d'une utilisation normale ou raisonnablement prévisible, et les autorités chargées de l'application de la loi ont le pouvoir de prendre les mesures appropriées lorsque cette obligation n'est pas respectée ». (Source : https://www.gov.uk/guidance/product-safety-advice-for-businesses)
Il est clair que l'objectif est de protéger les consommateurs contre les produits de mauvaise qualité, voire dangereux. Le respect de ces normes est obligatoire, et l'autorité de régulation peut infliger des amendes en cas de non-respect. Cependant, comme nous le verrons, les normes ne nécessitent pas nécessairement un cadre réglementaire pour être bénéfiques, et elles ne profitent pas uniquement aux consommateurs.
En 1903, le BSI a publié son premier rapport, BS1, intitulé « Rolled Steel Sections for Structural Purposes » (Profilés en acier laminé à usage structurel). Cette norme a été élaborée afin de promouvoir l'interopérabilité, permettant ainsi aux ingénieurs et aux fournisseurs de communiquer avec précision sur les exigences et les méthodes de mesure. Les ingénieurs pouvaient inviter plusieurs fournisseurs à soumissionner pour un contrat d'approvisionnement conforme à cette norme et avoir l'assurance que les profilés en acier fournis seraient adaptés, favorisant ainsi l'efficacité et l'innovation de plusieurs façons :
- Les fournisseurs savaient qu'en respectant la norme BS1, ils pouvaient accéder à un marché préexistant pour les profilés en acier.
- La concurrence entre les fournisseurs les inciterait à améliorer leurs processus afin de fournir des produits à des prix plus avantageux ou d'une qualité supérieure.
- La réduction des risques, l'accélération et la diminution du coût des profilés en acier permettent aux ingénieurs de repousser leurs limites et d'augmenter la demande.
Avance rapide de près de 50 ans jusqu'en 1950, où le concept d'IA commence à émerger.
Alan Turing, mathématicien britannique, a défini un cadre logique pour le développement et le test de machines intelligentes. Cependant, ce n'est qu'en 1955 que la première preuve de concept a été développée par Allen Newell, Cliff Shaw et Herbet Simon. Le coût de la puissance de calcul constituait un obstacle majeur au progrès et ce n'est que dans les années 1980 que des investissements importants ont été réalisés, le gouvernement japonais ayant investi 400 millions de dollars entre 1982 et 1990. Malgré cet investissement, le gouvernement japonais n'a pas obtenu le succès escompté.
En 1997, Deep Blue d'IBM a battu le champion du monde d'échecs Gary Kasparov, et Dragon Systems a lancé un logiciel de reconnaissance vocale. Depuis lors, grâce à la baisse des coûts de calcul et de stockage, les limites des possibilités de l'IA n'ont cessé d'être repoussées et appliquées dans des domaines tels que la publicité, le traitement du langage naturel, la classification d'images, la biométrie et, plus récemment, l'IA générative comme ChatGPT.
Malgré ces progrès rapides réalisés au cours des 25 dernières années dans le domaine de l'IA et malgré les nombreux articles publiés récemment sur la réglementation de l'IA, il n'existait aucune norme mondialement reconnue à laquelle les modèles d'IA et les systèmes connexes devaient se conformer.
L'UE a présenté la loi européenne sur l'IA et les États-Unis sont également en train de définir leur propre cadre réglementaire, les principales préoccupations portant sur des questions telles que l'exactitude, l'équité, la confidentialité et la transparence, mais il n'existe pas de normes mondialement acceptées sur lesquelles ces préoccupations puissent s'appuyer.
La technologie IA a prouvé à maintes reprises qu'elle pouvait résoudre un large éventail de problèmes concrets, souvent avec une précision et une efficacité supérieures à celles d'un être humain. La loi de Moore s'étant remarquablement bien vérifiée, le coût de l'informatique et du stockage a non seulement facilité le développement de modèles IA efficaces, mais aussi l'adoption de ces modèles IA, car les modèles de rentabilité des entreprises considèrent désormais que l'adoption de l'IA est une activité créatrice de valeur et non plus un simple projet vaniteux.
Mais dans l'état actuel des choses, les développeurs d'IA ne disposent pas d'une bibliothèque de normes établies auxquelles ils peuvent se conformer et se référer pour garantir la qualité et instaurer la confiance dans leurs solutions. Les dirigeants d'entreprise ne peuvent pas se référer à des normes lorsqu'ils achètent des systèmes d'IA, ce qui les expose à divers risques. Cette absence de normes crée un espace propice à la propagation de fausses informations. D'une part, cet espace permet à des produits de qualité inférieure de conquérir des parts de marché en étant moins chers que leurs concurrents de qualité supérieure. D'autre part, cela signifie que des commentaires alarmistes, exagérés et trompeurs peuvent se répandre rapidement, ternissant globalement la réputation de technologies fondamentalement bonnes.
La biométrie faciale constitue un cas particulièrement intéressant à cet égard. Ces technologies alimentent des applications telles que la reconnaissance faciale et l'estimation de l'âge. Elles ont connu des progrès et des avancées rapides ces dernières années, mais malgré ces avancées, il n'existe toujours pas de normes universellement reconnues en matière de précision et d'équité.
Cette absence de normes représente un risque pour l'adoption et l'innovation.
Nous disposons de la technologie et des scientifiques nécessaires pour perfectionner les modèles d'IA et en développer de nouveaux, mais un modèle d'IA n'est en soi qu'une pièce du puzzle. L'IA doit être intégrée dans un système plus large et ce système doit être déployé dans un cas d'utilisation particulier pour créer de la valeur, que cette valeur se traduise par des gains financiers, des vies sauvées ou des gains d'efficacité.
Imaginez que vous soyez le directeur général d'une grande entreprise, d'un hôpital ou d'une école. Vous avez constaté les avantages que l'IA peut apporter à votre organisation, mais vous savez également que l'IA n'est pas parfaite, qu'elle ne peut pas l'être et qu'elle n'a jamais été conçue pour l'être. En l'absence de normes, comment gérez-vous le risque lié à cette imperfection ? Quels sont les pires scénarios auxquels vous pouvez raisonnablement vous attendre en raison de ces imperfections ? Comment déterminer quelle technologie d'IA est appropriée et sûre pour l'utilisation que vous envisagez ?
Entre 2012 et 2020, la chaîne de pharmacies américaine Rite Aid a tenté d'identifier les voleurs à l'étalage potentiels à l'aide d'une technologie de reconnaissance faciale basée sur l'IA. En l'absence de normes applicables, Rite Aid semble avoir fait l'acquisition d'un système de reconnaissance faciale qui « ne donne aucune garantie quant à l'exactitude et à la fiabilité du produit dans l'exécution de ses capacités de reconnaissance faciale ».
La Commission fédérale du commerce (FTC), une agence gouvernementale américaine, affirme :
- Rite Aid n'a pas pris en compte les risques que les faux positifs faisaient peser sur les consommateurs, notamment les risques d'erreurs d'identification fondées sur la race ou le sexe.
- Rite Aid n'a pas testé la précision du système.
- Rite Aid n'a pas appliqué les contrôles de qualité d'image
- Rite Aid n'a pas surveillé, testé ou vérifié l'exactitude des résultats.
La FTC allègue, entre autres, que ces manquements ont porté préjudice aux consommateurs, qui ont été humiliés et expulsés des magasins sans pouvoir récupérer leurs médicaments sur ordonnance. Le règlement proposé par la FTC comprend une ordonnance interdisant à Rite Aid d'utiliser la technologie de reconnaissance faciale pendant cinq ans. (Source : https://www.ftc.gov/business-guidance/blog/2023/12/coming-face-face-rite-aids-allegedly-unfair-use-facial-recognition-technology)
L'émergence de tels cas rend encore plus difficile pour les entreprises d'adopter ces nouvelles technologies en l'absence de normes. Ils démontrent que des poursuites peuvent être intentées et le seront si une entreprise est reconnue coupable d'utiliser une technologie qui n'est pas « suffisamment bonne », la définition de « suffisamment bonne » n'étant pas clairement établie et laissant donc la décision aux tribunaux.
La réticence à déployer ces technologies se traduit finalement par un ralentissement de leur adoption et une diminution des fonds consacrés à leur recherche et développement, ce qui freine l'innovation.
En 2022, le ministère britannique des Affaires, de l'Énergie et de la Stratégie industrielle a publié un rapport intitulé « Le rôle de la normalisation dans le soutien aux technologies émergentes au Royaume-Uni ». Ce rapport examine les effets secondaires positifs et négatifs potentiels de la normalisation, et les événements observés depuis sa rédaction viennent étayer les arguments respectifs. Concernant les effets bénéfiques de la normalisation, le rapport indique :
« Définir des niveaux minimaux de qualité – cela peut contribuer à instaurer la confiance parmi les premiers utilisateurs. des technologies émergentes et éviter les incidents qui sapent la confiance dans les nouveaux produits, comme ainsi que la loi de Gresham (selon laquelle les produits de mauvaise qualité peuvent évincer les produits de haute qualité sur les marchés où il existe des niveaux élevés d'asymétrie d'information) ». (Source : https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/1080614/role-of-standardisation-in-support-of-emerging-technologies-uk.pdf)
L'affaire opposant la FTC à Rite Aid aura très certainement un impact négatif sur la confiance dans les technologies biométriques faciales, alors que des niveaux de qualité minimaux auraient pu éviter cela. Il est également assez facile de comprendre comment des produits de mauvaise qualité pourraient évincer les produits de haute qualité dans le domaine de la biométrie faciale. L'un des aspects les plus difficiles et les plus coûteux de la mise en place de systèmes biométriques faciaux fonctionnant de manière précise et équitable consiste à constituer des ensembles de données précis, diversifiés et classifiés à grande échelle.
Les produits biométriques faciaux dont les ensembles de données sont moins diversifiés et moins précis pourraient être proposés sur le marché à un prix que les concurrents supérieurs ne jugeraient pas viable. En l'absence de normes facilitant la comparaison des produits, un PDG qui achète un tel système n'aurait aucun moyen facile de comparer les performances relatives des autres offres, ce qui rendrait plus difficile de justifier le paiement d'un prix plus élevé. Conformément au phénomène des « citrons » d'Akerlof, les produits d'IA de meilleure qualité peuvent être évincés du marché par des produits de moindre qualité en raison de l'asymétrie d'information entre le vendeur et l'acheteur. Dans le cas extrême, si les produits de mauvaise qualité deviennent majoritaires, les performances seront naturellement inférieures à la norme et le marché finira par s'effondrer, car le public perdra confiance dans la technologie.
L'idée selon laquelle les normes créent de la valeur est étayée par des données empiriques. En 2015, le Centre for Economics and Business Research (CEBR) a rédigé un rapport pour le compte du BSI intitulé « The Economic Contribution of Standards to the UK Economy » (La contribution économique des normes à l'économie britannique). Ce rapport indique que :
« D'après nos calculs, les normes semblent avoir contribué à hauteur de 37,4 % à la croissance annuelle de la productivité. À titre d'illustration, en 2013, cela se traduirait par une augmentation de 8,2 milliards de livres sterling du PIB grâce à la bonne utilisation des normes. » (Source : https://www.bsigroup.com/siteassets/pdf/en/about-us/bsi-the-economic-contribution-of-standards-to-the-uk-economy-uk-en.pdf)
Compte tenu des conclusions de Rite Aid, le rapport souligne notamment que « en termes d'impact des normes sur la qualité, 70 % des personnes interrogées ont déclaré que les normes avaient contribué à améliorer leur chaîne d'approvisionnement en améliorant la qualité des produits et services des fournisseurs ».
Alors que la réglementation en matière d'IA s'accélère, il est important de garder à l'esprit que si les normes et la réglementation sont complémentaires, elles constituent néanmoins des outils très différents. Un marché particulier, par exemple le Royaume-Uni, l'Union européenne ou les États-Unis, peut imposer aux entreprises des exigences réglementaires les obligeant à respecter certaines normes. Cependant, même en l'absence d'organisme de réglementation, le respect volontaire des normes présente l'avantage d'instaurer la confiance, de réduire les risques et d'encourager l'adoption.
Le rapport du BSI examine certains des mécanismes par lesquels les normes améliorent la compétitivité des entreprises et conclut que « le mécanisme le plus important est la contribution de la normalisation à l'amélioration du statut des entreprises, citée par 84 % des répondants. Les normes peuvent contribuer à l'avantage concurrentiel des entreprises en démontrant au marché que leurs produits et services sont de haute qualité. Ce mécanisme était encore plus important pour les grandes entreprises, 92 % d'entre elles ayant déclaré qu'il s'agissait d'un facteur déterminant, contre 83 % des PME. »
En ce qui concerne l'impact que les normes peuvent avoir sur l'innovation, il suffit de citer l'exemple de Tim Berners-Lee, qui a inventé le World Wide Web (WWW) en 1989, l'a ouvert au public en 1991 et a fondé le W3C (World Wide Web Consortium) en 1994. C'est le W3C qui élabore les normes sur lesquelles le Web a été construit. Bien qu'elles ne soient pas dictées par les régulateurs, ces normes définies dès les débuts du Web ont permis aux entreprises et aux particuliers du monde entier de créer des pages Web interopérables, puis des applications Web, puis des appareils intelligents, et ainsi de suite, donnant naissance à de multiples industries gigantesques qui allaient changer le visage des économies modernes.
Cependant, ce n'est qu'en 2010, lorsque la loi britannique sur l'égalité (Equality Act) est entrée en vigueur, interdisant aux propriétaires de sites Web toute discrimination fondée sur le handicap, que le BSI a publié la norme BS8878, qui s'appuie sur l'initiative pour l'accessibilité du Web du W3C et définit comment adopter une stratégie d'accessibilité du Web au sein d'une organisation. Non seulement cette norme a amélioré l'expérience en ligne des groupes de personnes handicapées, tels que les aveugles, mais elle a également permis à tous les utilisateurs de bénéficier d'une meilleure expérience en ligne, car les tâches courantes, telles que le déplacement dans les formulaires web à l'aide de la touche de tabulation et la lecture de texte, ont été standardisées et simplifiées pour tous, à tel point qu'aujourd'hui, même les applications complexes, telles que les tableurs et les logiciels de comptabilité, sont couramment déployées via des interfaces web.
Avec la mise en place de normes, l'innovation rapide et des milliards de personnes dans le monde qui utilisent Internet dans leur vie quotidienne, les régulateurs commencent à appliquer ces normes afin de représenter les personnes qui risquent d'être laissées pour compte par les progrès technologiques. À ce stade, les normes passent de codes de pratique volontaires à des exigences légales. Ceux qui ont été à l'avant-garde de la définition et de l'adoption de ces normes observent que leurs concurrents non conformes font l'objet d'une surveillance réglementaire.
Au Royaume-Uni, par exemple, le ministère du Travail et des Retraites a été condamné à verser 7 000 £ de dommages et intérêts pour avoir discriminé des personnes aveugles et malvoyantes enregistrées en ne communiquant pas de manière accessible. De même, la Student Loans Company a été condamnée à verser 5 000 £ de dommages et intérêts pour ne pas avoir fourni de formulaire de prêt accessible aux personnes aveugles. Aux États-Unis, Disney, Netflix et Target ont fait l'objet de recours collectifs dont certains ont coûté des millions de dollars.
Alors que la rédaction des lignes directrices réglementaires relatives à l'IA s'accélère en Europe, aux États-Unis et dans le monde entier, il convient d'examiner attentivement la maturité des normes applicables à l'IA. Comme l'a démontré l'évolution rapide du World Wide Web, l'élaboration précoce de normes solides, acceptées à l'échelle mondiale mais volontaires, s'est avérée extrêmement efficace. Ces normes ont influencé l'évolution réglementaire qui allait voir le jour plusieurs années plus tard.
Avec l'IA, ce processus risque d'être exécuté à l'envers, avec un paysage normatif encore aride, mais un développement réglementaire qui s'accélère. Cela présente un risque de rédaction d'une mauvaise réglementation fondée sur de mauvaises hypothèses, car il n'existe pas de normes établies, testées et affinées pour étayer ces hypothèses.
Le défi lié à l'élaboration de normes en matière d'IA se résume souvent à la question des données. Les modèles d'IA nécessitent d'énormes quantités de données pour être entraînés et testés. Pour de nombreux fournisseurs, cela peut constituer un défi suffisamment important en soi, mais celui-ci devient encore plus difficile lorsqu'il s'agit de vérifier de manière indépendante un modèle d'IA par rapport à ces normes à l'aide de données inédites. Cela nécessite un ensemble de données supplémentaire, détenu par un tiers indépendant, d'une taille, d'une précision et d'une diversité appropriées, ce qui signifie que ce type de test de conformité indépendant n'est pas bon marché.
En nous appuyant sur l'histoire, nous devons maximiser l'innovation et l'adoption de l'IA en encourageant les investissements dans l'élaboration de normes en matière d'IA et la curation de jeux de données de haute qualité. Il est rassurant de constater que la loi européenne sur l'IA, bien qu'elle soit arrivée avant ces normes, semble convenir que « la normalisation devrait jouer un rôle clé pour fournir des solutions techniques aux fournisseurs afin de garantir la conformité avec le présent règlement, conformément à l'état de l'art, afin de promouvoir l'innovation ainsi que la compétitivité et la croissance dans le marché unique ».
