IA & Ethique
Intelligence Artificielle
L’« IA responsable »
L’ IA ne doit pas être une fin en soi mais un outil au service des individus et de la société. L’objectif est de garantir que les systèmes d’IA sont utilisés de manière transparente, équitable, sûre et efficace vis-à-vis des individus et de la société. Cela comprend notamment :
- La protection de la confidentialité et de la sécurité des données
- La prévention des préjugés dans les données et les algorithmes
- La garantie de la transparence des décisions prises par le système d’IA
- La lutte contre les inégalités socio-économiques
- La lutte contre la discrimination et la violation des droits fondamentaux
- La gestion d’autres risques
Il s’agit de respecter la réglementation applicable mais aussi les normes éthiques de conception, de développement et d’utilisation de l’IA.
Nos services
Par organisation
Sensibilisation IA & Ethique
- Présentation du règlement européen « AI Act »
- Présentation de la notion d’ « IA responsable »
AI & Ethics Maturity Assessment
- Evaluation du niveau de maturité de l’organisation concernant la conception, le développement et l’utilisation de systèmes d’IA au regard des règlementations applicables et de standards d’éthique
« Ethic by design »
- Définition d’une stratégie d’entreprise et d’une feuille de route sur l’IA et l’éthique
- Ressources : charte éthique, guidelines, outils d’analyse des risques, supports de formation
Par projet
- Analyse d’impact sur la protection des données (AIPD) sur les systèmes d’IA traitant de données personnelles
- Analyse des risques sur les systèmes d’IA
FAQ
Qu’est-ce que l’intelligence artificielle ?
Il existe de nombreuses définitions. L’une d’elle est la suivante : « L’IA désigne les systèmes qui font preuve d’un comportement intelligent qui se traduit par l’analyse de leur environnement et la prise de décisions avec un certain degré d’autonomie – pour atteindre des objectifs spécifiques. Les systèmes basés sur l’IA peuvent être purement logiciels, agissant dans le monde virtuel (par exemple, assistants vocaux, logiciels d’analyse d’images, moteurs de recherche, systèmes de reconnaissance de la parole et des visages) ou l’IA peut être intégrée dans des dispositifs matériels (ex. robots avancés, voitures autonomes, drones ou applications de l’IoT). »
(Source : Groupe d’experts de haut niveau sur l’intelligence artificielle).
Qu’est-ce qu’un « système d’IA » ?
Un système basé sur une machine qui est conçu pour fonctionner avec différents niveaux d’autonomie et qui peut faire preuve d’adaptabilité après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des données qu’il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer des environnements physiques ou virtuels. (Article 3 (1) de l’AI Act).
L’OCDE le définit comme un système basé sur une machine qui est capable d’influencer l’environnement en produisant un résultat (prédictions, recommandations ou décisions) pour un ensemble donné d’objectifs. Il utilise des données et des Inputs basés sur la machine et/ou sur l’homme, et bénéficie de degrés d’autonomie variés.
Que signifie « Foundation model » ?
Un modèle pré-entraîné à grande échelle pour les capacités de l’IA, telles que le language (LLM), la vision, la robotique, le raisonnement, la recherche ou l’interaction humaine, qui peut servir de base à d’autres applications. Le modèle est entraîné sur des ensembles de données étendus et diversifiés.
Quelle est la relation entre « Large Langage Model » (LLM) et « Foundation model » ?
Les LLM constituent une classe de « foundation model ». Les LLM sont des réseaux neuronaux qui peuvent traiter des quantités massives de texte non structuré et apprendre les relations entre les mots ou les parties de mots, connues sous le nom de tokens. Cela permet aux LLM de générer des textes en langue naturelle et d’effectuer des tâches telles que le résumé ou l’extraction de connaissances. Ex. LaMDA est le LLM qui se cache derrière Bard.
Quelles législations encadrent la conception et l’utilisation de systèmes d’IA ?
Le règlement européen sur l’intelligence artificielle (AI Act) porte sur les règles applicables aux systèmes d’IA utilisé sur le marché européen, à partir de leur classification fondée sur leur niveau de risques (minimal, limité, élevé, inacceptable). Le règlement prévoit des sanctions pouvant atteindre 7% du CA global de l’organisation ou 35 M€.
Les lois de protection des données encadrent les traitements de données personnelles réalisés à l’aide de systèmes d’IA. En Europe, le Règlement Général sur la Protection des données (« RGPD ») encadre les traitements automatisés de données personnelles, dont le profilage (article 22).
Qu’est-ce que la Gouvernance de l’IA ?
Il s’agit de définir une stratégie et de déterminer les processus, les politiques et les outils nécessaires pour concevoir, déployer, contrôler et maintenir la gestion des systèmes d’IA.
La Gouvernance de l’IA doit garantir notamment, l’inventaire des systèmes d’IA, l’identification et la gestion dynamique des risques, la conformité des systèmes d’IA ainsi que la documentation et la transparence.
Que dit l’ « Artificial Intelligence Act » quand un système d’IA présente un risque inacceptable ?
Tous les systèmes d’IA considérés comme une menace manifeste pour la sécurité, les moyens de subsistance et les droits des personnes seront interdits, qu’il s’agisse du marquage social par les gouvernements ou des jouets utilisant une assistance vocale qui encourage les comportements dangereux.
Quels sont les secteurs où l’utilisation de système d’IA est identifiée comme étant à haut risque d'après l'AI Act ?
- Les infrastructures critiques (par exemple, les transports)
- L’enseignement ou la formation professionnelle (par exemple, la notation des examens)
- Les composants de sécurité des produits (par exemple, l’application de l’IA dans la chirurgie assistée par robot)
- L’emploi, la gestion des travailleurs et l’accès au travail indépendant (par exemple, les logiciels de tri des CV pour les procédures de recrutement)
- Les services privés et publics essentiels (par exemple, l’évaluation du crédit refusant aux citoyens la possibilité d’obtenir un prêt)
- La gestion des migrations, des demandes d’asile et des contrôles aux frontières (par exemple, vérification de l’authenticité des documents de voyage)
- Identification biométrique à distance et catégorisation des individus
Les systèmes d’IA à haut risque seront soumis à des obligations strictes avant de pouvoir être commercialisés sur le marché européen.
Dans quelles conditions sera-t-il possible d’utiliser des systèmes d’IA à haut risques ?
Les systèmes d’IA à haut risque seront soumis à des obligations strictes avant de pouvoir être mis sur le marché : Evaluation des risques et mesures d’atténuation des risques, haute qualité des ensembles de données alimentant le système pour minimiser les risques et les résultats discriminatoires , mesures de traçabilité des résultats, documentation détaillée fournissant toutes les informations nécessaires sur le système et son objectif pour que les autorités puissent évaluer sa conformité, une information claire et adéquate des utilisateurs, des mesures de surveillance humaine appropriées pour minimiser les risques et un niveau élevé de robustesse, de sécurité et de précision.
Est-ce que l’utilisation de systèmes d’IA sera également soumise au respect de règles particulières ?
Outre le respect des législations sur la protection des données, l’« AI Act » prévoit une obligation de transparence renforcée pour la mise sur le marché de solutions telles que les Chatbot par exemple (Article 50 de l’AI Act).
Que signifie « une IA digne de confiance » ou « Trustworthy AI » ?
Il n’existe pas de cadre commun à une IA digne de confiance. L’OCDE a été la première en 2019 à définir des principes pour une IA digne de confiance, à un niveau intergouvernemental. En Europe, le groupe des experts de haut niveau a proposé que sur la base des droits fondamentaux et des principes éthiques, les systèmes d’IA devraient répondre à certaines exigences clés pour être dignes de confiance à savoir (liste non exhaustive) :
- L’action et le contrôle de l’homme y compris le respect des droits fondamentaux
- Robustesse technique et sécurité y compris l’exactitude, la fiabilité et la reproductibilité
- Protection de la vie privée et gouvernance des données
- Transparence y compris la traçabilité, l’explicabilité et la communication
- Diversité, non-discrimination et équité
- Bien-être sociétal et environnemental y compris la durabilité et le respect de l’environnement, l’impact social, la société et la démocratie
- Responsabilité y compris l’auditabilité, la minimisation et la notification de l’impact négatif
Existe-t-il des standards permettant d’évaluer les risques liés aux systèmes d’IA ?
Oui il en existe plusieurs. Citons l’ISO/CEI 23894 qui propose des orientations stratégiques pour la gestion des risques liés au développement et à l’utilisation de l’IA et sur la manière dont les organisations peuvent intégrer la gestion des risques dans leurs activités basées sur l’IA. Cette norme fournit une cartographie fonctionnelle des processus de gestion des risques tout au long du cycle de vie du système d’IA. Le NIST a également publié l’AI RFM, un cadre conçu pour doter les organisations et les individus – les acteurs de l’IA – d’approches permettant d’accroître la fiabilité des systèmes d’IA et de favoriser la conception, le développement, le déploiement et l’utilisation responsables des systèmes d’IA au fil du temps.
Quels sont les acteurs cités dans le règlement européen sur l'intelligence artificielle (AI Act) ?
Les acteurs cités dans le règlement européen sur l’intelligence artificielle (AI Act) incluent le fournisseur, le déployeur, l’importateur, le mandataire et le distributeur.