NOTRE ACTIVITE DE CONSEIL EN ETHIQUE DES DISPOSITIFS IA
Souvent invisibles, les algorithmes prennent une place de plus en plus importante au sein des entreprises, des services publics et dans notre quotidien.
Cela comprend notamment les relations commerciales avec les algorithmes décisionnels, le marketing et la communication avec les agents conversationnels et les publicités ciblées, le médical avec les diagnostics médicaux automatisés ou encore l’éducation avec les algorithmes d’évaluation et de sélection des candidatures.
Déléguer son pouvoir à un algorithme peut entraîner des risques touchant les droits fondamentaux, la santé et la sécurité.
Plus les IA progressent et plus ces questions prennent de l’importance. Ce phénomène s’accélère et nous invite à faire preuve de prudence sur l’utilisation des algorithmes. La question d’un recours éthique de l’IA réclame des réponses urgentes.
L’éthique peut être définie globalement comme un dispositif qui établit les valeurs d’une entreprise ainsi que les principes, les missions et les lignes de conduite de chaque corps de métier.
Mais chaque secteur d’activité et chaque métier va devoir décliner ces valeurs selon ses propres spécificités afin d’éviter des risques de pénalisation, d’exclusion, de discrimination ou d’intrusion dans notre vie privée.
Des biais peuvent survenir comme les biais cognitifs, conséquence des préjugés éventuels des concepteurs à l’origine des algorithmes ou les biais statistiques si les données utilisées pour concevoir et tester un algorithme ne sont pas représentatives de la réalité.
Le phénomène de boite noire s’amplifie avec, d’une part, le développement des nouvelles architectures de stockage et de traitement de données massives (Big data), et d’autre part, l’évolution des algorithmes de Deep Learning de plus en plus complexes.
Les réseaux de neurones profonds ont vu leur nombre de paramètres croître de manière exponentielle.
L’IA ACT, Règlement européen sur l’Intelligence Artificielle
Pour les entreprises, nous avons développé à partir de notre formation IA de A à Z, un programme d’acculturation spécifiquement axé sur l’IA ACT, disponible en français ou en anglais, délivrable en présentiel ou en distanciel, avec des formateurs experts du sujet. Ce programme permet de faciliter l’intégration du règlement dans l’entreprise.
La durée et les modalités pédagogiques sont adaptables selon le type d’apprenants (métiers, spécialistes de l’IA ou de la conformité), les besoins et les attentes de nos clients.
Des mises en situation permettent aux apprenants de mieux assimiler les éléments de contenu.
Les bases des éléments de contenu du programme :
I — Introduction à l’Intelligence Artificielle
1.1. Définition et rôle de l’IA : définitions top down et bottom up.
1.2. Importance des algorithmes : Machine Learning (ML) et Deep Learning (DL).
1.3. Architectures de données et Big Data.
II — IA Classique et IA Générative
2.1. IA Classique
- Présentation des algorithmes traditionnels : régressions linéaires, Random Forests, etc.
- Modèles supervisés basés sur des données annotées.
2.2. IA Générative ou IA à usage général
- Introduction des modèles génératifs (ex: GPT, Gemini, Llama, Dall-e, MidJourney,…).
- Capacité de ces IA à générer du texte, des images, et autres types de contenu via un apprentissage auto-supervisé.
III — Les Principaux risques liés à l’IA
3.1. Biais dans les modèles
- Biais structurels (interaction, facteur dominant, …).
- Exemple des biais culturels et impact sur la prise de décision (droits d’auteurs).
- Problèmes liés aux deepfakes et nécessité de contrôle.
3.2. Explicabilité des algorithmes
- Difficulté à comprendre les décisions complexes prises par les IA complexes.
- Présentation des outils d’explication comme SHAP et LIME.
IV — L’IA Act
4.1. Objectif (sécurité, santé et droits fondamentaux des personnes).
4.2. Périmètre couvert : définition de l’IA selon le règlement.
4.3. Qui est concerné : les différents statuts.
V — Le traitement des risques dans l’IA Act
5.1. Classification des risques. Explication des quatre niveaux de risque :
- Risque minimal : Exemptés de réglementation stricte.
- Risque limité : Exigence de conformité moins contraignante.
- Risque élevé : Concernant les infrastructures critiques, l’éducation, l’emploi, etc.
- Risque inacceptable : Technologies interdites, comme la surveillance de masse.
- Exemples dans chaque catégorie de risque.
5.2. Cas particuliers des IA génératives
- Dispositions relatives aux droits d’auteur : mise à disposition des sources.
- Garanties contre les contenus illicites.
- Documentations technique et énergétique.
- Evaluation du modèle de fondation.
- IA systémiques : seuil de déclenchement et normes additionnelles.
5.3. Normes harmonisées pour les risques élevés
- Objectifs et acteurs (Intérêt vs approche interne, CEN, CENELEC, …).
- Demandes de normalisation : groupes de travail.
- Spécificités sectorielles : normes existantes et complétion.
VI — Calendrier et gouvernance
6.1. Dates clefs
- Calendrier : étapes successives des mises en application.
- Rétroactivité: quid des IA existantes ?
6.2. Outils mis à disposition
- Vérificateur de conformité : proposé par la Commission Européenne.
- Bacs à sables : définition, objectif, calendrier.
6.3. Gouvernance
- Au sein de la CE.
- Dans les Etats membres : organismes notifiant.
- Dispositif de pénalités en cas de manquement : détail selon le type d’infraction.
VII — Aperçu d’outils d’évaluation et d’audit des conformités