Transparence sur l'utilisation de l'Intelligence Artificielle - Ed.ai

Ed.ai utilise l'intelligence artificielle pour assister les enseignants. Cette page explique comment l'IA fonctionne dans nos services, quelles données elle traite, et quelles garanties nous mettons en place.

Comment l'IA intervient dans Ed.ai

Ed.ai propose trois services qui s'appuient sur l'intelligence artificielle :

Correction augmentée

L'enseignant photographie ou scanne les copies de ses élèves et les importe dans Ed.ai. L'IA analyse chaque copie au regard du barème et des critères d'évaluation définis par l'enseignant. Elle produit une proposition de correction comprenant une note, des annotations détaillées et des commentaires justifiés.

L'enseignant revoit l'intégralité de la proposition, la modifie s'il le souhaite, puis valide. Rien n'est communiqué à l'élève sans cette validation.

Analyse des apprentissages

À partir des évaluations corrigées, l'IA identifie les compétences acquises, les points de fragilité et les erreurs récurrentes, pour chaque élève et pour l'ensemble de la classe. L'enseignant obtient une vision synthétique exploitable pour ses conseils de classe et ses réunions pédagogiques.

Activités de remédiation

Sur la base des difficultés identifiées, l'IA génère des propositions d'activités de remédiation adaptées aux besoins de chaque élève. L'enseignant sélectionne, adapte et distribue les activités selon son jugement pédagogique.

Nos engagements sur l'IA

L'enseignant garde le contrôle

L'IA est un outil d'assistance. L'enseignant prend toutes les décisions pédagogiques finales. Aucune note, aucun commentaire, aucune activité n'est transmis à un élève sans validation explicite de l'enseignant.

Cela signifie qu'Ed.ai ne prend aucune "décision automatisée" au sens de l'article 22 du RGPD ayant un effet juridique ou significatif sur les élèves. La supervision humaine est systématique.

Pas d'entraînement sur les données scolaires

Les copies, les résultats et les données pédagogiques de vos élèves ne sont jamais utilisés pour entraîner, affiner (fine-tuner) ou améliorer des modèles d'intelligence artificielle, ni par Ed.ai, ni par nos fournisseurs de technologie IA.

Nos modèles d'IA sont entraînés sur des jeux de données pédagogiques spécifiquement constitués à cet effet (exercices et corrections issus de bases éducatives, rédigés ou validés par des enseignants), et non sur les productions de vos élèves.

Non-rétention des données par les fournisseurs IA

Les données transmises à nos moteurs d'IA pour traitement (contenu d'une copie à corriger, par exemple) ne sont pas conservées par nos fournisseurs au-delà du temps strictement nécessaire au traitement de la requête. Cette garantie est formalisée dans nos contrats de sous-traitance (DPA).

Minimisation et pseudonymisation

Nous appliquons le principe de minimisation : seules les données nécessaires au traitement sont transmises à l'IA. Avant la numérisation et la transcription des copies d'élèves, un modèle d'IA dédié applique des pixels blancs pour masquer les informations identifiantes (noms des élèves) sur les scans de copies. Ce processus de pseudonymisation par pixels blancs s'effectue AVANT la transcription numérique du contenu et AVANT son envoi au pipeline IA, garantissant que les modèles d'IA ne reçoivent jamais les identifiants originaux des élèves.

Conformité réglementaire

RGPD

Le traitement des données par l'IA respecte l'ensemble des principes du RGPD : licéité, loyauté, transparence, limitation des finalités, minimisation, exactitude, limitation de la conservation, intégrité et confidentialité.

Règlement européen sur l'Intelligence Artificielle (AI Act)

Le Règlement (UE) 2024/1689 sur l'intelligence artificielle prévoit des obligations spécifiques pour les systèmes d'IA utilisés dans le domaine de l'éducation, qui peuvent être classés comme systèmes à "haut risque" (Annexe III, point 3).

Ed.ai s'engage à respecter les obligations qui s'appliquent à ses systèmes, notamment :

  • Système de gestion des risques : identification et atténuation des risques liés à l'utilisation de l'IA dans un contexte éducatif.

  • Gouvernance des données : qualité et représentativité des données d'entraînement.

  • Documentation technique : documentation des caractéristiques, capacités et limites du système.

  • Transparence : information claire des utilisateurs sur le fonctionnement de l'IA et ses limites.

  • Supervision humaine : garantie que l'enseignant peut toujours comprendre, intervenir et corriger les résultats de l'IA.

  • Exactitude et robustesse : tests réguliers de la fiabilité du système.

AIPD (Analyse d'Impact sur la Protection des Données)

Conformément à l'article 35 du RGPD, Ed.ai a réalisé une Analyse d'Impact relative à la Protection des Données (AIPD) pour ses traitements impliquant l'IA. Ce document est disponible sur demande auprès de notre DPO : dpo@ed.ai.

Questions fréquentes

Les copies de mes élèves sont-elles lues par des humains chez Ed.ai ?

Le traitement des copies est automatisé via l'IA. Cependant, des membres habilités de l'équipe Ed.ai (support technique, ingénieurs, équipe assurance qualité) peuvent être amenés à consulter des copies dans le cadre du contrôle qualité de la transcription, notamment lorsqu'une alerte automatique signale un problème potentiel. Ces consultations s'effectuent toujours sur les copies post-pseudonymisation : les noms et informations identifiantes des élèves ont été masqués par pixels blancs avant toute consultation humaine. L'identité des élèves n'est donc pas visible par le personnel Ed.ai.

L'IA peut-elle se tromper ?

Oui. Comme tout outil, l'IA peut produire des erreurs. C'est pourquoi l'enseignant vérifie et valide systématiquement chaque résultat avant restitution. Ed.ai affiche un taux de fiabilité de 95% sur ses corrections.

Mes élèves sont-ils "profilés" par l'IA ?

L'IA analyse les productions scolaires pour identifier des compétences et des axes de progression, à la demande de l'enseignant et dans le cadre de sa mission pédagogique. Il ne s'agit pas d'un profilage au sens de l'article 4 du RGPD (pas de prédiction de comportement, pas de scoring utilisé en dehors du contexte pédagogique, pas de décision automatisée).

Quels modèles d'IA utilisez-vous ?

Ed.ai utilise des modèles de langage (LLM) fournis par : Azure OpenAI (Microsoft), Azure Claude (Anthropic via Microsoft Azure) et Azure Mistral (Mistral AI via Microsoft Azure). Ces modèles sont utilisés via des API sécurisées avec des engagements contractuels de non-rétention et de non-entraînement sur les données transmises. Tous les traitements s'effectuent dans la région Europe de Microsoft Azure.

Pour toute question sur l'utilisation de l'IA dans Ed.ai, contactez dpo@ed.ai.

Voir aussi