Parlons RIA, règlement sur l’Intelligence Artificielle | Les pratiques interdites

Dans ce troisième épisode de la série de podcasts Parlons RIA, règlement sur l’Intelligence Artificielle, les experts de TNP Trust abordent la notion de pratiques interdites en matière d’intelligence artificielle, au cœur de l’article 5 du Règlement IA (RIA ou AI Act).

À travers l’éclairage de Florence Bonnet, Partner chez TNP, et Jahnika Colmar, consultante et ancienne avocate, cet épisode vous invite à mieux comprendre :

  • Pourquoi certaines pratiques sont interdites par le RIA ;
  • Ce que recouvrent les notions de manipulation, de tromperie et d’exploitation préjudiciable ;
  • Quels types de techniques sont concernées (subliminales, délibérément manipulatrices ou trompeuses) ;
  • Dans quelles conditions une pratique est considérée comme interdite : objectif ou effet d’altération du comportement, existence d’un dommage substantiel, lien de causalité plausible ;
  • Et enfin, comment les valeurs fondamentales européennes (dignité humaine, non-discrimination, liberté d’expression…) sont au cœur de ces interdictions.

Un épisode essentiel pour saisir les limites posées par le Règlement européen en matière d’IA et anticiper les impacts sur les projets utilisant des systèmes d’intelligence artificielle.

Bonjour à toutes et à tous, et bienvenue dans ce nouvel épisode de Parlons RIA !

Un podcast dédié au cadre réglementaire de l’IA, pour comprendre les enjeux du Règlement IA, ses impacts opérationnels et les clefs d’une gouvernance conforme.

Je suis Florence BONNET, Partner chez TNP consultants.

Aujourd’hui, je suis avec Jahnika Colmar ancienne avocate et consultante dans l’équipe TNP TRUST pour discuter des pratiques interdites en matière d’IA.

Jahnika : Bonjour Florence, bonjour à toutes et à tous !

Florence : Le RIA est basé sur une approche par les risques, une classification des risques du plus élevés au plus bas que l’on schématise généralement par une pyramide.

Visualisons la pyramide de Khéops (sous le soleil d’Egypte) : ce dont nous parlerons aujourd’hui, à savoir, les pratiques interdites, ne correspondent qu’à la pointe de cette pyramide.

Ces cas sont donc limités, disons-le : le RIA n’a pas vocation à interdire massivement l’usage des systèmes d’IA.

Alors, Jahnika, pourquoi certaines pratiques en matière d’IA sont-elles néanmoins interdites ?

Jahnika : D’une part, dans cette logique d’approche par les risques, certains risques ont été qualifiés d’inacceptables, la conséquence étant l’interdiction de ces pratiques inhérentes à ces risques.

D’autre part, il est important de comprendre que les risques inacceptables le sont par rapport  à des valeurs européennes, telles que le respect de la dignité humaine, la démocratie, l’état de droit, et à certains droits fondamentaux (Charte des droits fondamentaux de l’Union européenne) comme le droit à la non-discrimination, à l’égalité, à la protection des données ou encore à un droit faisant débat dans l’actualité internationale en ce moment, le droit à la liberté d’expression et d’information.

Florence : Les valeurs sont étroitement liées au contexte culturel, historique, politique, économique. Il est difficile de trouver des valeurs universelles. Si ces notions d’IA de confiance et d’IA responsable dépassent le cadre de l’Union Européenne, elles ne recouvrent pas toujours exactement la même chose. C’est aussi la raison pour laquelle l’IA est au coeur des réflexions des autorités et des législateurs dans la plupart des régions du monde.

Récemment la Commission européenne a publié des lignes directrices pour nous éclairer sur l’article 5 du RIA à savoir les pratiques interdites.

Ces Guidelines ne sont pas contraignantes (c’est ce qu’on appelle la soft law ou droit mou) mais elles permettent de clarifier, d’interpréter, d’illustrer les dispositions du Règlement sur l’intelligence artificielle. Elles permettent également d’assurer une application effective et homogène du RIA.

En vertu de l’article 5 du RIA, une liste limitative des systèmes d’IA sont visés par une interdiction de mise sur le marché, de mise en service ou d’utilisation.

Jahnika, je te propose de revenir plus en détail sur ces pratiques interdites en matière d’IA.

Jahnika : très bien, alors commençons par : LA MANIPULATION, LA TROMPERIE ET L’EXPLOITATION PRÉJUDICIABLE

Le RIA parle de système d’IA ayant recours à des « techniques subliminales, au-dessous du seuil de conscience d’une personne, ou à des techniques délibérément manipulatrices ou trompeuses »

1/Les techniques subliminales consistent à influencer de façon inconsciente les décisions d’une personne par l’utilisation de stimuli audio, visuel, tactile.

Florence : L’utilisation de messages subliminaux est utilisée depuis de très nombreuses années dans le marketing notamment.

Jahnika: Oui mais ici nous parlons de techniques beaucoup plus intrusives.

Par exemple, un casque de jeu qui détecte l’activité cérébrale (technologies neurologiques, interfaces machine-cerveau) qui serait utilisé pour entraîner le cerveau de l’utilisateur subrepticement donc sans qu’il en ait conscience, pour révéler ou déduire à partir des données neuronales, des informations qui intrusives et sensibles (informations bancaires, intimes, etc.)

Florence : Les techniques délibérément manipulatrices vont exploiter les biais cognitifs, les vulnérabilités psychologiques ou les facteurs situationnels.

Jahnika : Oui par exemple, un système d’IA qui déploie des sons ou images en arrière-plan pour modifier l’humeur des utilisateurs, en augmentant l’anxiété et la détresse mentale, et en influant sur leur comportement.

Tandis que les techniques trompeuses vont présenter des informations fausses ou trompeuses. Par exemple, un Chatbot qui se fait passer pour l’ami d’une personne ou un parent avec une voix synthétique, ce qui entraîne des escroqueries et des préjudices importants.

Florence : dans le cas de techniques trompeuses, l’objectif ou l’effet est donc d’influencer les décisions ou comportements d’un individu en portant atteinte à son autonomie individuelle ou à son libre choix.

Il n’est pas nécessaire que le fournisseur ou le déployeur, ou le système lui-même, qui déploie les techniques de manipulatrices aient également l’intention de causer un préjudice.

Jahnika : C’est exact.

2/Les techniques doivent avoir pour objectif ou pour effet de d’altérer substantiellement le comportement d’une personne

L’interdiction couvre les techniques qui ont « pour objectifs » mais aussi les pratiques qui ont « pour effet » de provoquer une distorsion matérielle : c’est-à-dire une atteinte considérable à la capacité de prendre une décision éclairée, amenant la personne (raisonnablement susceptible d’amener la personne) à prendre une décision qu’elle n’aurait pas prise autrement.

3/ Aussi, ces techniques doivent causer ou être raisonnablement susceptibles de causer un dommage qu’il soit physique, psychologique, financier et économique.

Il peut être nécessaire de faire une analyse au cas par cas. Des cas particuliers peuvent être examinés en présence d’individus spécifiques en évaluant l’impact sur leur autonomie individuelle dans des cas concrets.

4/Le préjudice doit être important. Cela va au-delà des dommages mineurs ou négligeables.

Dans de nombreux cas ce seuil ne sera pas atteint même en présence de techniques subliminales, délibérément manipulatrices ou trompeuses. Les systèmes d’IA manipulateurs, trompeurs et exploitants qui ne sont pas susceptibles de causer un préjudice important sont en principe exclus du champ d’application des interdictions.

5/Enfin, il doit exister un lien de causalité plausible/raisonnablement probable entre la technique subliminale, délibérément manipulatrice ou trompeuse déployée par le système d’IA et ses effets préjudiciables sur le comportement.

Il convient d’évaluer :

  • Si le fournisseur ou le déployeur aurait pu raisonnablement prévoir le préjudice important qui est raisonnablement susceptible de résulter des techniques déployées
  • Et s’ils ont mis en œuvre des mesures de prévention et d’atténuation appropriées pour éviter ou atténuer le risque de tels préjudices importants.

Il est essentiel de comprendre la combinaison des dommages pour en évaluer efficacement l’importance.

Florence : Ensuite, “la manipulation, la tromperie et l’exploitation préjudiciable” comprend les systèmes d’IA qui « exploitent les vulnérabilités dues à l’âge, au handicap ou à une situation socio-économique particulière »

Ces vulnérabilités peuvent être cognitives, émotionnelles, physiques etc. dès lors qu’elles affectent la capacité d’une personne (ou d’un groupe de personnes) à prendre des décisions éclairées ou influencent leur comportement d’une manière ou d’une autre.

Jahnika : Oui cette interdiction n’a pas vocation à s’appliquer aux systèmes ciblant des consommateurs sur la base de variables qui ne sont pas directement liées à des groupes vulnérables (marque d’un téléphone, ville dans laquelle une personne vit), quand bien même il s’agirait par exemple d’une personne âgée ou handicapée.

Florence : Et que recouvre la notion de vulnérabilité du fait d’une situation socio-économique spécifique ?

Jahnika :  La catégorie vise à couvrir, en principe, des caractéristiques relativement stables et à long terme. Ex.

  • Personnes vivant dans l’extrême pauvreté
  • Minorités ethniques ou religieuses.

Cela peut aussi concerner des circonstances transitoires :

  • Chômage temporaire
  • Surendettement ou statut migratoire.

Florence : D’accord.

Il faut aussi ajouter que l’interdiction vise les systèmes d’IA doivent qui ont pour objectif ou effet de fausser matériellement le comportement. Dans ce cas, il n’est pas nécessaire qu’i y ait eu une intention.

Ensuite les systèmes d’IA doivent être raisonnablement susceptibles de causer un préjudice important : ainsi les jouets, jeux, applications d’apprentissage ou autres applications utilisant l’IA et susceptibles d’apporter des avantages aux enfants ne sont pas concernés.

Mais un système d’IA simulant des réactions émotionnelles humaines dans ses interactions avec les enfants peut exploiter leurs vulnérabilités, générer un attachement malsain, entraver leur développement social et émotionnel (empathie, compréhension sociale, capacité d’adaptation) sera interdit.

Jahnika : Ces systèmes d’IA doivent aussi être raisonnablement susceptibles de causer un préjudice important. Ces préjudices peuvent être particulièrement graves et multiformes en raison de leur plus grande vulnérabilité à l’exploitation. Ce qui peut être considéré comme un risque acceptable de préjudice pour certaines personnes représente souvent un préjudice inacceptable pour des personnes vulnérables.

Florence : Petite question : quelle est la disposition applicable en cas d’Interaction entre les interdictions de l’article 5(1)(a) pratiques délibérément manipulatrices, trompeuses ou préjudiciables et 5(1) (b) (vulnérabilités d’une personne ou d’un groupe) du RIA ?

Jahnika : Dans le cas où les deux dispositions semblent applicables, le critère principal de différenciation devrait être l’aspect dominant de l’exploitation.

Si l’exploitation s’applique indépendamment des vulnérabilités spécifiques des personnes concernées (du fait de leur âge, handicap ou situation socio-économique), l’article 5 (1)(a) du RIA doit prévaloir.

On peut aussi ajouter qu’au vu de ces critères, les pratiques suivantes ne sont pas considérés comme une manipulation ou une exploitation des vulnérabilités :

  • A titre d’exemple, les pratiques commerciales courantes et légitimes, telles que la publicité, ne sont pas « en elles-mêmes » des pratiques manipulatrices, trompeuses ou d’exploitation de l’IA.
  • Les techniques publicitaires qui utilisent l’IA pour personnaliser le contenu en fonction des préférences de l’utilisateur ne sont pas « en elles-mêmes » manipulatrices
  • Les systèmes d’IA utilisés pour fournir des services bancaires, tels que des prêts, qui utilisent l’âge ou la situation socio-économique spécifique du client comme donnée d’entrée, conformément à la législation de l’Union, lorsqu’ils sont conçus pour protéger et soutenir les personnes identifiées comme vulnérables en raison de leur âge, d’un handicap ou de circonstances socio-économiques spécifiques et qu’ils sont bénéfiques pour ces groupes

Florence : après avoir parlé du cas de manipulation, de tromperie et d’exploitation préjudiciable, je te propose de nous parler de la 2ème pratique interdite avec de l’IA : Le SCORING SOCIAL

Jahnika : Dans ce cas, il s’agit de l’évaluation ou de la classification basée sur le comportement social ou sur les caractéristiques personnelles (connues, déduites ou prédites) ou sur la personnalité, et ce pendant une certaine période.

Le scoring social doit entrainer un traitement préjudiciable ou défavorable dans des contextes sociaux dissociés et/ou aboutir à un traitement injustifié ou disproportionné par rapport à la gravité du comportement social.

On voit que, les interdictions de l’article 5 sont très liées, aux valeurs que l’on souhaite défendre et permettent de voir où doit être positionné le curseur pour garantir la protection des individus, de la société et la sécurité de l’état. En Chine, par exemple il existe un système de crédit social tout à fait légal avec une notation / évaluation des citoyens en fonction de leurs comportements.

Florence : la notion de scoring est aussi liée à la notion de profilage et de décision individuelle automatisée

Jahnika :  Oui par exemple, dans un arrêt SCHUFA (CJUE, 07.12.2023), le « score » généré par un système de notation de la solvabilité utilisé en Allemagne, « valeur de probabilité » concernant la capacité d’une personne à respecter ses engagements de paiement, a été analysé du profilage au sens du RGPD (activité qualifiée en définitive de prise de décision individuelle automatisée). Plus précisément, le système établissait « un pronostic sur la probabilité d’un comportement futur d’une personne (score), tel que le remboursement d’un prêt, sur la base de certaines caractéristiques de cette personne. Cette forme de profilage peut également être considérée comme une évaluation des personnes sur la base de leurs caractéristiques personnelles au sens de l’article 5, paragraphe 1, point c), du RIA qui sera interdite si elle est effectuée au moyen de systèmes d’IA et si les autres conditions d’application de cette disposition sont remplies.

En principe, l’interdiction n’est pas applicable si :

  • La collecte des données personnelles utilisées pour le scoring n’est pas interdite
  • Tout traitement préjudiciable ou défavorable résultant de l’utilisation du score est justifié et proportionné à la gravité du comportement social
  • Le traitement est conforme au droit de l’UE (RGPD, protection des consommateurs, discrimination, LCB-FT…)

Florence : scoring et profilage sont deux notions étroitement liées mais pas identiques et ne doivent pas être confondues car le profilage n’est pas interdit en soi.

Il existe un certain nombre de pratiques légitimes du scoring :

  • Les systèmes de notation de crédit ou d’évaluation de solvabilité financière des créanciers et agences de notation basés sur les revenus et les dépenses du client et d’autres donnée financières et économiques
  • Évaluation des clients pour fraude financière basée sur des données pertinentes telles que l’historique des transactions et les métadonnées dans le contexte des services, les antécédents etc…
  • Les dispositifs télématiques de détection d’excès de vitesse ou de conduite dangereuses utilisés par des assureurs pour déterminer les tarifs d’un assuré si l’augmentation de la prime est proportionnelle au comportement à risque du conducteur.
  • La publicité ciblée lorsqu’elle est basée sur des données pertinentes (par exemple, les préférences des utilisateurs) et qu’elle n’entraîne pas une différenciation des prix abusive et injuste.
  • Le scoring par une plateforme d’achat en ligne qui offre des privilèges aux utilisateurs en fonction de leur historique d’achat et du faible taux de retour de produits.
  • L’évaluation et le scoring des individus par la police et d’autres autorités chargées du maintien de l’ordre public lorsque ces données sont pertinentes pour la prévention, la détection, la poursuite et la sanction d’infractions pénales.

Maintenant, parles nous de la 3ème pratique interdite : L’EVALUATION DES RISQUES INDIVIDUELS ET LA PREDICTION DES INFRACTIONS PENALES

Jahnika : L’interdiction porte sur le fait d’évaluer le risque ou de prédire le risque qu’une personne commette une infraction pénale :

  • Uniquement sur la base du profilage d’une personne physique
  • Ou uniquement à partir de l’évaluation de ses traits de personnalité et de ses caractéristiques (ex. nationalité, lieu de naissance, lieu de résidence, nombre d’enfants, niveau d’endettement ou le type de voiture)

Cela ne concerne donc pas les cas où des organisations privées n’ont pas été chargées par la loi de certaines tâches répressives spécifiques ou d’agir au nom des autorités répressives.

Par exemple, lorsqu’une entité privée établit le profil de ses clients dans le cadre de ses activités commerciales régulières et de sa sécurité ou pour détecter des irrégularités financières sans avoir pour objectif d’évaluer ou de prédire le risque que le client commette une infraction pénale spécifique.

Florence : Très bien, donc en 1/ les pratiques manipulatrices, trompeuses et l’exploitation préjudiciable, en 2/ le scoring social, en 3/ l’évaluation des risques ou la prédiction qu’une personne commette un délit

4ème pratique interdite : LE SCRAPING NON-CIBLE D’IMAGES FACIALES

Jahnika : Ici on vise les systèmes d’IA (i) utilisés pour créer ou développer des bases de données de reconnaissance faciale (ii) avec des techniques de scraping (moissonnage) non ciblés d’images faciales c’est-à-dire non spécifiquement concentrées sur un individu ou un groupe d’individus donné et avec l’objectif d’aspirer autant de données que possible, (iii) la source des données des images faciales pouvant être internet ou des images de vidéosurveillance.

Florence : Cette interdiction n’est donc pas, par exemple, applicable, au scraping utilisé pour trouver un criminel spécifique ou pour identifier un groupe de victimes, ou encore, aux bases de données d’images faciales qui ne sont pas utilisées pour la reconnaissance de personnes mais par exemple pour l’entraînement ou des tests de modèles d’IA, lorsque les personnes ne sont pas identifiées.

Jahnika : D’ailleurs en France la CNIL s’était déjà positionnée sur ce type de pratique sur le fondement du RGPD dans la délibération Clearview AI : cet IA aspirait les photographies et vidéos accessibles sur internet et réseaux sociaux, pour commercialiser l’accès à son moteur de recherche sur la base d’une photographie. La collecte et l’utilisation des données biométriques ont été jugées sans fondement juridique.

Florence : Passons maintenant à la 5ème pratique interdite : LA RECONNAISSANCE DES EMOTIONS i.e. les systèmes d’IA permettant « d’inférer les émotions » c’est-à-dire « permettant d’identifier ou de déduire des émotions ».

Jahnika : Cela doit s’entendre comme couvrant les systèmes de « reconnaissance » des émotions. Le concept d’émotions ou intentions doit être compris au sens large

Florence : par exemple, le bonheur, la tristesse, la colère, la surprise, le dégoût, l’embarras, l’excitation, la honte, le mépris, la satisfaction … ?

Jahnika : Exactement

Cela ne concerne pas les états physiques tels que la douleur ou la fatigue

Par exemple (technologie de l’affect):

  • Relation client : analyse du comportement, publicité ciblée et neuromarketing ;
  • Secteur de la santé : détection de la dépression, prévention du suicide ou détection de l’autisme
  • Secteur de l’éducation, surveillance de l’attention ou de l’engagement des apprenants (élèves et étudiants quel que soit leur âge) ;
  • Secteur de l’emploi : recrutement, surveillance des émotions ou de l’ennui des employés, applications de bien-être pour « rendre les travailleurs plus heureux ».

Ces systèmes doivent être basés sur des données biométriques, qu’il s’agisse de biométrie physiologique (exemples : empreintes digitales, dessin de l’iris, contours du visage, géométrie des veines, ADN, odeur), ou de biométrie comportementale qui surveille les caractéristiques distinctes des mouvements, gestes, capacités motrices des individus lorsqu’ils effectuent des tâches.

Florence : Ainsi, par exemple, cela ne concerne pas la simple détection d’expressions faciales de base, de gestes ou de mouvements facilement perceptibles (froncement de sourcils, sourire).

Par exemple : cela ne concerne pas la détection des émotions à partir d’un texte écrit (analyses de contenu/sentiment) pour définir le style ou le ton d’un article n’est pas basé sur des données biométriques

Jahnika : Oui et l’interdiction ne s’applique que dans les lieux de travail et dans les établissements d’enseignement. La notion de lieux de travail est comprise de façon large, aussi l’interdiction s’applique par exemple aux candidats au cours du processus de sélection, d’embauche, aux salariés durant la période d’essai.

Mais ne s’applique pas aux systèmes d’IA dont “l’objectif premier” n’est pas d’évaluer les personnes.

Ainsi, l’interdiction ne s’applique pas dans les cas suivants :

  • Les webcams et les systèmes de reconnaissance vocale utilisés par un centre d’appel pour suivre les émotions de ses employés, à des fins de formation personnelle (si les résultats ne sont pas communiqués aux responsables des ressources humaines et s’ils ne peuvent pas avoir d’incidence sur l’évaluation, la promotion, les relations de travail, etc. de la personne formée.)
  • Enfin, l’interdiction ne s’applique pas aux systèmes d’IA utilisés pour raisons médicales et de sécurité.

Florence : Bien, donc cela c’était pour la reconnaissance des émotions. Passons au 6ème cas d’usage interdit : LA CATEGORISATION BIOMETRIQUE POUR CERTAINES CARACTERISTIQUES “SENSIBLES »

L’interdiction concerne les processus consistant à déterminer si les données biométriques d’un individu appartiennent à un groupe présentant certaines caractéristiques prédéfinies (caractéristiques physique, l’ADN ou des aspects comportementaux).

Le système d’IA doit catégoriser individuellement sur la base des données biométriques.

Jahnika : en effet, l’objectif doit être de déduire ou inférer la race, les opinions politiques, l’appartenance syndicale, les croyances religieuses ou philosophiques, la vie ou l’orientation sexuelle.

Bien entendu, ne sont pas concernés les systèmes d’IA utilisés pour étiqueter ou filtrer des ensembles de données biométriques acquises légalement, par exemple, pour garantir que les données représentent de manière égale tous les groupes démographiques, par exemple, la catégorisation des patients à l’aide d’images en fonction de la couleur de leur peau ou de leurs yeux à des fins de diagnostic médical.

Florence : Pour finir Jahnika, parle nous du 7ème cas d’usage interdit : Les SYSTEMES D’IDENTIFICATION BIOMETRIQUE A DISTANCE (IBD) EN TEMPS REEL DANS DES ESPACES PUBLICS A DES FINS D’APPLICATION DE LA LOI

L’interdiction porte uniquement sur l’usage des technologies IBD

Les technologies d’IBD détectent, capturent et transforment des caractéristiques physiques mesurables (telles que la distance et la taille des yeux, la voix, la longueur du nez, etc.) ou comportementales.

Les technologies d’IBD permettent d’identifier des personnes physiques, sans leur participation active, généralement à distance, grâce à la comparaison automatisée des données biométriques d’une personne avec les données biométriques contenues dans une base de données de référence.

Jahnika : Oui On est par exemple, les systèmes d’IA utilisés pour suivre un suspect s’échappe, ou un système de reconnaissance biométrique pour traiter (sans contact) les empreintes digitales, démarche, voix, ADN, frappes au clavier et d’autres signaux comportementaux (biométriques).

Le système doit fonctionner en temps réel (i.e. simultanément ou presque simultanément) et l’utilisation doit avoir lieu dans un espace (public ou privé) accessible au public pour l’application de la loi (par exemple, la recherche, la détection et la poursuite d’infractions pénales, les activités liées à la prévention des infractions pénales).

L’utilisation rétrospective de la technologie de reconnaissance faciale n’est pas interdite par le RIA, mais cette utilisation est considérée comme présentant un risque élevé.

Florence : Comme cela intéressera beaucoup de nos clients, j’indique que l’interdiction ne concerne pas :

  • Les systèmes d’IA de vérification biométrique (ou authentification), qui consistent à comparer les données présentées à un capteur avec un autre ensemble de données précédemment enregistrées et stockées sur un dispositif.
  • Ni l’utilisation de systèmes biométriques pour confirmer l’identité d’une personne physique dans le seul but d’avoir accès à un service ou à une zone réservée, de déverrouiller un appareil ou d’avoir un accès sécurisé à des locaux (ne sont pas « à distance »).

On l’aura aussi compris, ne sont ne sont pas visées les entités qui détectent et luttent contre des délits pour leur propre compte, comme par exemple les centres commerciaux utilisant l’IBD en temps réel pour repérer les voleurs à l’étalage.

Jahnika : De même ne sont pas interdits les systèmes IBD ayant pour strict objet par exemple, la recherche ciblée de certaines victimes d’infraction ou en cas de menace réelle d’attentats terroristes, en revanche l’utilisation des systèmes d’IBD « en temps réel » dans les espaces accessibles au public à des fins d’application de la loi n’est possible que s’il existe une loi au niveau national.

 Florence : On a donc fait le tour de ces pratiques interdites.

Je les récapitule :

1/ les pratiques manipulatrices, trompeuses et l’exploitation préjudiciable, soit à l’aide de techniques subliminales, soit qui exploitent es vulnérabilités dues à l’age, au handicap ou à une situation socio-économique particulière

2/ le scoring social,

3/ l’évaluation des risques ou la prédiction qu’une personne commette un délit,

4/Scraping social,

5/   la reconnaissance des emotions à partir de données biométriques

6/ la categorisation biometrique pour certaines caracteristiques “sensibles »

7/ les systemes d’identification biometrique à distance (IBD) en temps reel dans des espaces publics a des fins d’application de la loi

Jahnika, tu nous confirmes qu’elles sont déjà interdites à l’heure actuelle n’est-ce pas ?

Jahnika : Oui, on y est, l’interdiction de ces pratiques est visée à l’article du 5 RIA qui fait partie des articles qui entrent prioritairement en vigueur (le RIA est au 02 août 2026, à quelques exceptions près et notamment à l’article 5 applicable au 02 février 2025 en raison des risques inacceptables, les sanctions sera applicable au 02 aout 2025).

[Un aparté important, parmi les obligations entrées en vigueur au 02 février 2025, celle pour les fournisseurs et les utilisateurs de fournir un niveau suffisant de connaissances en matière d’IA à leur personnel et aux personnes chargées du fonctionnement et de l’utilisation des systèmes, ce qui rend la formation essentielle.]

Florence : Que dire en conclusion ? Tout d’abord, que toutes les pratiques avec de l’IA ne sont pas interdites, loin de là.

Le texte parait long et complexe mais cela s’explique par la volonté de limiter les pratiques interdites en en détaillant les critères

Il faudra aussi voir si les états disposent d’une marge de manœuvre dans l’application de l’article 5, affaire à suivre …

Enfin, il faut garder à l’esprit que même si une pratique ne répond pas à l’ensemble des critères de l’article 5 ou fait l’objet d’une exception à une interdiction visée à l’article 5, elle devrait être analysée comme un système à haut risque, dont nous parlerons dans le prochain épisode.

Florence BONNETPartner
Jahnika COLMARConsultante Confirmée