
Le SNIRS CFE-CGC a été reçu ce jeudi 16 avril par la mission d’information « Intelligence artificielle et protection des données personnelles » de l’Assemblée nationale pour présenter sa position sur les enjeux de l’intelligence artificielle. Laurent Coste, secrétaire général du SNIRS, y a présenté la position du syndicat.
L’intelligence artificielle est entrée dans nos vies personnelles et professionnelles. Comme pour toutes les innovations, les attitudes divergent, les utilisations diffèrent (IA prédictive vs IA générative, par exemple). Certains l’ont adopté avec enthousiasme, d’autres ne l’ont pas utilisé pour le moment, d’autres enfin font de l’objection de conscience face à cette nouvelle technologie très gourmande en énergie.
Dans le domaine de l’enseignement supérieur et de la recherche, force est de constater que les situations sont extrêmement variables d’une discipline à l’autre, d’un organisme de recherche à l’autre. Certains enseignants, certains chercheurs, certains étudiants utilisent l’intelligence artificielle générative pour faciliter leurs recherches ou pour répondre rapidement à une multitude de sollicitations (exposés, conférences, dossiers de financement), la recherche du moindre effort par l’être humain étant bien documentée par les psychologues et les neurologues. D’autres l’utilisent pour rédiger des cours, des articles, des examens, des comptes rendus, des rapports….
Si la CFE-CGC est attachée au principe de la liberté d’action des individus, elle ne peut rester insensible aux risques inhérents à la pratique régulière de l’IA, aux risques de dépendance, au contournement de pratiques éthiques. On ne compte plus les hallucinations, les fausses références créées par l’IA. Les propositions de l’IA doivent pouvoir être vérifiées, ce qui suppose des compétences solides et un sens aigu de l’esprit critique. Par ailleurs, il est clair que les modalités d’examens et de contrôle continu doivent s’adapter à cette nouvelle technologie.
Comme dans d’autres domaines, la réglementation va s’imposer peu à peu à nous. La jurisprudence n’est pas stabilisée. Le 8 octobre 2025, le tribunal administratif de Montreuil a validé les sanctions disciplinaires de l’université Sorbonne-Paris-Nord qui avait argumenté sa demande (génération par l’IA de l’université d’un plan et d’un mémoire presque identiques ; style rédactionnel inhabituel, soutenance ne montrant pas la maîtrise du sujet) tandis que les sanctions à l’encontre d’une étudiante de Paris1-Sorbonne ont été cassées par le tribunal administratif de Paris le 12 février dernier. En effet, faute de réglementation préalable, les juges ont considéré qu’il n’était pas possible de la sanctionner. Il nous semble que notre ministère doit aller dans deux directions :
1°permettre aux organismes de recherche, aux universités de former les enseignants, les chercheurs, les étudiants à une pratique responsable, éthique de l’intelligence artificielle générative. L’auto-formation est importante mais elle est freinée par les multiples tâches qui occupent les enseignants-chercheurs et les enseignants du Supérieur.
2° en incitant les écoles doctorales, et les différentes instances en charge de la recherche et de la formation, d’élaborer des chartes d’utilisation de l’IA. Celles-ci seraient spécifiques aux établissements, aux disciplines qui n’ont pas toutes les mêmes rapports à l’intelligence artificielle. Ceci impliquerait la signature de conventions particulières lors de co-direction et de co-tutelle entre établissements n’ayant pas les mêmes exigences. In fine, ces chartes sécuriseraient, juridiquement, les usages et mésusages.

Aucun commentaire jusqu'à présent.