Aller au contenu principal
MH
Retour a la veille

Veille IA & Réglementation — Semaine 9

La Commission européenne publie les premiers codes de conduite pour les systèmes d'IA à usage général. La CNIL précise sa doctrine sur les bases légales applicables à l'entraînement de modèles d'IA sur des données personnelles.

Codes de conduite AI Act : la Commission publie la version finale pour les modèles GPAI

La Commission européenne a publié la version finale des codes de conduite pour les fournisseurs de modèles d'IA à usage général (GPAI). Ces codes, prévus par l'article 56 de l'AI Act, définissent les obligations de transparence, de documentation technique et de gestion des risques systémiques. Ils s'appliquent dès le 2 août 2025 pour les modèles GPAI à risque systémique.

Impact pour les entreprises

Les entreprises utilisant des modèles GPAI comme fournisseurs ou déployeurs doivent vérifier la conformité de leurs fournisseurs à ces codes. Celles qui développent leurs propres modèles fondationnels doivent se mettre en conformité immédiatement.

CNIL : recommandation sur les bases légales pour l'entraînement de modèles d'IA

La CNIL a publié une recommandation détaillée sur les bases légales du RGPD applicables à l'entraînement de modèles d'IA sur des données personnelles. Elle distingue trois phases : collecte des données, entraînement proprement dit, et déploiement. L'intérêt légitime est considéré comme la base la plus adaptée pour la phase d'entraînement, sous réserve d'une analyse d'impact rigoureuse.

Impact pour les entreprises

Les entreprises entraînant des modèles sur des données personnelles disposent désormais d'un cadre clair. L'analyse d'impact (AIPD) devient un prérequis incontournable avant tout projet d'entraînement.

AI Office : lancement de la consultation publique sur la classification des risques

Le Bureau européen de l'IA a ouvert une consultation publique sur les lignes directrices de classification des systèmes d'IA à haut risque (Annexe III de l'AI Act). Cette consultation vise à clarifier les critères de classification pour les systèmes utilisés dans les domaines de l'emploi, de l'éducation, des services publics et de la justice.

Impact pour les entreprises

C'est l'occasion pour les entreprises de faire remonter leurs cas d'usage et d'influencer l'interprétation des critères de haut risque. Les réponses sont attendues avant le 15 avril 2026.

Anthropic publie son rapport de transparence sur la sécurité de Claude

Anthropic a publié son deuxième rapport de transparence détaillant les mesures de sécurité appliquées à Claude, incluant les résultats des évaluations de risques et les mécanismes de contrôle. Ce rapport s'inscrit dans la démarche des codes de conduite européens et pourrait servir de référence pour la documentation technique exigée par l'AI Act.

Impact pour les entreprises

Ce type de rapport de transparence devient un standard de marché. Les entreprises déployant des modèles GPAI devraient exiger des rapports similaires de leurs fournisseurs pour documenter leur conformité.

MHAnalyse MH Conseil

La convergence entre les codes de conduite européens et les pratiques de transparence des grands fournisseurs d'IA est un signal positif. Pour les entreprises, le message est clair : la conformité AI Act se prépare dès maintenant, en commençant par un inventaire des systèmes d'IA utilisés et une cartographie des risques associés. L'attentisme n'est plus une option.

Cette veille vous interesse ?

Discutons de votre conformite AI Act et de votre strategie IA.

Discutons de votre conformite AI Act