Lista de secções

  • Les sessions PÉDAGOGIA 2025-2026

    • Accéder à PÉDAGOGIA #1 
      Enseigner à l’université à l’heure de l’IA : quelles transitions ?

      PÉDAGOGIA #1 – Enseigner à l’université à l’heure de l’IA

      📅 Date : 25 septembre 2025
      🎙️ Invitée : Matilde Alonso (UFR Langues)

      À retenir (lecture rapide)

      • L’IA générative transforme déjà les pratiques d’enseignement et d’évaluation.
      • L’enjeu n’est pas d’interdire, mais d’accompagner des usages éclairés.
      • L’IA soutient les étudiants en difficulté et fait gagner du temps aux enseignants.
      • Elle soulève des questions majeures d’éthique, d’équité et d’évaluation.
      📖 Lire le résumé détaillé de la session

      Ouverture de la session

      Cette première séance de PEDAGOGIA inaugure un rendez-vous mensuel consacré aux usages de l’intelligence artificielle dans l’enseignement à l’Université Lumière Lyon 2. Le cadre posé est celui d’un espace ouvert d’échanges, de retours d’expérience et de réflexion critique et éthique.

      Intervention de Matilde Alonso

      L’IA générative constitue une transformation majeure à laquelle l’université ne peut se soustraire. Sa démocratisation bouleverse les pratiques professionnelles et pédagogiques.

      L’introduction de l’IA dès le début du master, dans une logique d’exploration collective, permet de lever les tabous et d’intégrer l’IA comme objet et outil pédagogique.

      Les bénéfices (gain de temps, démocratisation des savoirs, soutien aux étudiants) coexistent avec des risques : dépendance, remise en cause de l’évaluation, enjeux d’éthique et de propriété intellectuelle.

      Échanges avec les participants

      • Suspicion accrue face à des travaux étudiants de qualité inhabituelle.
      • Transformation du rapport à l’aide (humaine → automatisée).
      • Inégalités de compétences dans l’usage des IA.
      • Nécessité d’une formation transversale à l’IA.

      Conclusion

      L’intégration de l’IA est inévitable. L’enjeu est de l’accompagner de manière réfléchie, éthique et pragmatique afin de développer l’esprit critique, la créativité et l’autonomie des étudiants.

      📝 Ressources

      Ministère de l’Éducation nationale, de l’Enseignement supérieur et de la Recherche (2025). L’IA en éducation : cadre d’usage.
      Accéder au document

    • Accéder à PÉDAGOGIA #2
      Rencontre avec un enseignant-chercheur en informatique de la faculté de droit Julie-Victoire Daubié

      PÉDAGOGIA #2 – Rencontre avec un enseignant-chercheur en informatique de la faculté de droit Julie-Victoire Daubié

      📅 Date : 14 octobre 2025
      🎙️ Invité :Mansour MAYAKI, Maître de conférences en informatique. Équipe IMAGINE (vision par ordinateur, apprentissage, reconnaissance de formes) du laboratoire LIRIS (UMR 5205, CNRS). Faculté de droit Julie-Victoire Daubié.

      À retenir (lecture rapide)

      • L’IA n’est pas une intelligence humaine mais un outil statistique.
      • Elle est particulièrement puissante dans les domaines fondés sur les textes, comme le droit.
      • Ses usages soulèvent des enjeux majeurs d’éthique, de responsabilité et d’environnement.
      • Former à l’IA, c’est avant tout développer une compréhension critique des outils.
      • L’IA ne remplace pas la relation pédagogique, qui reste centrale.
      📖 Lire le résumé détaillé de la session

      Positionnement de la session

      La session 2 de PEDAGOGIA s’est appuyée sur le témoignage de Mansour Mayaki, maître de conférences en informatique, récemment recruté à la Faculté de droit. Ce positionnement interdisciplinaire a permis d’éclairer les enjeux de l’IA dans un champ fortement structuré par les textes, les normes et la responsabilité humaine.

      Clarifier ce qu’est (et n’est pas) l’IA

      L’intervenant a rappelé qu’il n’existe pas de définition universelle de l’intelligence, humaine ou artificielle. Les systèmes d’IA actuels reposent sur des modèles statistiques entraînés à partir de grandes masses de données. Ils n’ont ni conscience, ni intention, ni compréhension du monde.

      Cette clarification est essentielle pour lutter contre les représentations fantasmées de l’IA et éviter une délégation aveugle aux outils.

      IA et droit : opportunités et limites

      Dans le champ juridique, l’IA peut assister la rédaction de documents, la synthèse de décisions ou l’analyse de vastes corpus textuels. Le droit apparaît ainsi comme l’un des domaines les plus directement impactés.

      Toutefois, ces usages posent des limites importantes : biais, erreurs factuelles, hallucinations et difficultés d’explicabilité. Dans ce domaine, la responsabilité et le jugement doivent impérativement rester humains.

      Enjeux environnementaux

      L’empreinte environnementale de l’IA constitue un enjeu éthique majeur. L’entraînement et l’utilisation des grands modèles mobilisent des ressources énergétiques et matérielles importantes. Les recherches actuelles visent à développer des modèles plus sobres et plus soutenables.

      Former étudiants et enseignants

      Former à l’IA ne signifie pas former des spécialistes techniques, mais permettre aux étudiants de comprendre les principes de fonctionnement, les limites et les biais des outils. Cette compréhension est indispensable pour développer un usage critique et raisonné.

      Les échanges ont également souligné la nécessité d’accompagner les enseignants par des repères partagés, des ressources communes et des espaces de réflexion collective.

      Ce que l’IA ne remplacera pas

      Un consensus fort s’est dégagé : la relation pédagogique, l’empathie, l’accompagnement individualisé et la construction du sens restent au cœur du métier d’enseignant. L’IA peut automatiser certaines tâches, mais ne peut ni créer du lien ni susciter l’engagement.

      ❓ Questions clés issues de la session

      • Quel est le rôle de l’université à l’ère de l’IA ?
      • Les formats pédagogiques traditionnels sont-ils encore adaptés ?
      • Faut-il interdire, encadrer ou accompagner les usages étudiants de l’IA ?
      • Quelles compétences critiques liées à l’IA développer chez les étudiants ?
      • Comment intégrer les enjeux éthiques et environnementaux dans les enseignements ?
      • Jusqu’où peut-on faire confiance à l’IA dans des domaines à forte responsabilité humaine ?

      📝 Ressources complémentaires

      Référencer le recours aux IA génératives (UNIGE) – Un guide pratique centré sur la transparence académique : il explique comment mentionner ou citer l’usage d’outils d’IA générative dans les travaux universitaires (texte, images, etc.), selon les normes de citation et les bonnes pratiques de référencement.

      Guide d’usages de l’IA générative pour des tâches pédagogiques (CPU – UdeM) – Un guide de référence présentant une trentaine d’usages pédagogiques de l’IA générative dans l’enseignement supérieur, avec des exemples concrets pour soutenir la préparation, l’enseignement, l’évaluation et la rétroaction, tout en respectant un cadre responsable d’intégration.

    • Accéder à PÉDAGOGIA #3
      Retour d’expérience – IA et travaux étudiants : un temps d’échange avec les étudiantes et étudiants du master ESS

      PÉDAGOGIA #3 – Retour d’expérience – IA et travaux étudiants : un temps d’échange avec les étudiantes et étudiants du master ESS

      📅 Date : 14 novembre 2025
      🎙️ Invités :Sylvain Celle, MCF en économie, responsable du M1 ESS et membre du COPIL de la mention ESS, Isabelle Garcia Piqueras, MCF en gestion, responsable du M2 ESS en formation Continue et membre du COPIL de la mention ESS, Fanny Lelong coordinatrice de la Chaire ESS - Chargée d'animation et d'ingénierie pédagogique de la Mention ESS. .

      À retenir (lecture rapide)

      L’usage de l’IA est aujourd’hui massif et banalisé chez les étudiants, notamment pour la rédaction, la recherche documentaire et la compréhension des contenus, mais il reste peu réflexif et très inégalement maîtrisé. Les ateliers menés ont mis en évidence une connaissance hétérogène des enjeux éthiques, environnementaux et sociaux, ainsi qu’un fort besoin de repères clairs et partagés. Face à l’impossibilité de contrôler techniquement les usages, l’équipe pédagogique s’oriente vers une régulation pédagogique fondée sur le dialogue, la déclaration des usages, et l’élaboration de chartes adaptées aux formations. Plus largement, l’IA interroge en profondeur les modalités d’évaluation, le sens des apprentissages et la responsabilité collective de l’institution.
      📖 Lire le résumé détaillé de la session

      1. Origine de la démarche

      La réflexion engagée par l’équipe pédagogique trouve son origine dans une expérience jugée frustrante à l’issue de l’année universitaire précédente : des mémoires ont été évalués sans que l’usage de l’intelligence artificielle par les étudiants ait été réellement anticipé ou encadré. L’IA était présente dans les productions, mais sans cadre explicite, ni réflexion collective en amont.

      Face à ce constat, l’équipe a fait le choix de ne pas subir les usages, mais au contraire de prendre le sujet à bras-le-corps en ouvrant un espace de dialogue structuré avec les étudiants.

      2. Mise en place d’ateliers dédiés

      Un programme d’ateliers a été conçu et déployé auprès de l’ensemble des étudiants, sous la forme de temps d’échange répartis sur environ 12 heures. Les ateliers, organisés par thématique, duraient en moyenne 1h30 et se déroulaient en petits groupes d’environ 15 étudiants.

      Chaque atelier était animé par un membre de l’équipe pédagogique et s’appuyait sur des ressources documentaires servant de support à la discussion.

      3. Objectifs des ateliers

      • Interroger les usages réels de l’IA chez les étudiants, en particulier les nouveaux entrants.
      • Mieux comprendre ce que font concrètement les étudiants avec ces outils dans leurs études.
      • Apporter des repères sur les enjeux éthiques, environnementaux, sociaux et pédagogiques liés à l’IA.

      4. Usages déclarés par les étudiants

      Les échanges ont confirmé un usage très répandu et largement banalisé de l’IA. Les principaux usages concernent :

      • L’aide à la rédaction : reformulation, structuration des idées, correction linguistique.
      • L’aide à la compréhension de notions complexes.
      • La recherche et la synthèse de ressources documentaires.
      • La préparation d’exposés et de travaux écrits.
      • Des usages plus problématiques, comme la synthèse d’entretiens de terrain ou certaines parties de mémoires.

      Les étudiants utilisent également l’IA pour la traduction, la transcription audio et des tâches quotidiennes comme la rédaction de courriels.

      5. Niveau de conscience des enjeux

      Les ateliers ont mis en évidence une grande hétérogénéité dans la connaissance des enjeux écologiques, sociaux, économiques et éthiques liés à l’IA, y compris à un niveau master.

      Une minorité d’étudiants adopte une posture critique et limite volontairement ses usages pour des raisons personnelles, politiques ou éthiques. À l’inverse, une majorité utilise l’IA sans réelle réflexivité, dans une logique d’efficacité et de conformité aux attentes académiques.

      6. L’IA dans les stages et l’alternance

      Les discussions ont également porté sur les usages de l’IA en contexte professionnel. Les retours sont contrastés :

      • Dans certaines structures, l’IA est largement intégrée aux pratiques professionnelles.
      • Dans d’autres, son usage est strictement interdit, pouvant aller jusqu’à des sanctions.

      Ces situations révèlent un décalage fort entre les pratiques universitaires, les discours critiques et les réalités du monde professionnel.

      7. Effets sur les pratiques pédagogiques

      Les échanges ont confirmé une attente forte des étudiants : l’IA ne peut pas être simplement interdite, mais elle doit être encadrée par des règles explicites.

      Pour l’équipe pédagogique, cela conduit à questionner :

      • Les modalités d’évaluation, notamment les écrits réalisés hors contrôle.
      • La place des mémoires et les critères d’évaluation des productions.
      • La faisabilité et la pertinence du contrôle des usages de l’IA.

      8. Premières réponses mises en œuvre

      Une charte d’usage de l’IA spécifique au master a été élaborée. Le travail collectif autour de cette charte a été considéré comme aussi important que le document final lui-même.

      Pour les évaluations, l’équipe s’oriente vers une logique de déclaration d’usage de l’IA par les étudiants (type d’outil, finalité, nature de l’aide), dans une démarche expérimentale.

      9. Vers une régulation plus large

      Enfin, la session a souligné la nécessité d’une réflexion à plusieurs niveaux :

      • Institutionnel, avec l’élaboration de lignes directrices communes.
      • Au niveau des composantes et des formations, pour adapter ces cadres aux contextes pédagogiques.
      • Au niveau des enseignants, dans le respect de la liberté pédagogique.

      L’IA apparaît ainsi comme un révélateur de tensions existantes dans l’enseignement supérieur : rapport à l’évaluation, aux apprentissages, aux exigences académiques et aux réalités professionnelles.

      ❓ Questions clés issues de la session

      • Quel est le rôle de l’université à l’ère de l’IA ?
      • Les formats pédagogiques traditionnels sont-ils encore adaptés ?
      • Faut-il interdire, encadrer ou accompagner les usages étudiants de l’IA ?
      • Quelles compétences critiques liées à l’IA développer chez les étudiants ?
      • Comment intégrer les enjeux éthiques et environnementaux dans les enseignements ?
      • Jusqu’où peut-on faire confiance à l’IA dans des domaines à forte responsabilité humaine ?
    • Accéder à PÉDAGOGIA #4 
      Informer, responsabiliser, accompagner les étudiants de l’Institut de Psychologie à l’ère de l’IA générative

      PÉDAGOGIA #4 – Informer, responsabiliser, accompagner les étudiants de l’Institut de Psychologie à l’ère de l’IA générative

      📅 Date : 16 décembre 2025
      🎙️ Invité :Tanguy Leroy, MCF en Psychologie Sociale, directeur de l’Institut de Psychologie de Lyon.

      À retenir (lecture rapide)

      • L’IA agit comme un révélateur des tensions actuelles de l’enseignement supérieur.
      • L’interdiction apparaît irréaliste ; la régulation explicite et transparente est privilégiée.
      • L’évaluation est au cœur des questionnements (notation, exigences, équité).
      • La transparence des usages protège l’intégrité académique mais soulève de nouveaux dilemmes.
      • L’IA invite à repenser les compétences visées et les formats pédagogiques.
      📖 Lire le résumé détaillé de la session

      Contexte et objectifs de la session

      La session PÉDAGOGIA #4 a été consacrée à la question de la régulation des usages de l’intelligence artificielle par les étudiants. Elle s’est ouverte par l’intervention de Tanguy Leroy, directeur de l’Institut de Psychologie de Lyon (IPsyL), qui a présenté le travail mené au sein de l’institut depuis 2022 pour encadrer ces usages.

      Constats partagés depuis 2022

      Les échanges se sont appuyés sur une série de constats désormais largement partagés : productions écrites formellement très correctes mais parfois atypiques, performances élevées dans les évaluations en ligne, écarts importants entre mémoires et soutenances, ou encore situations où des productions générées par l’IA semblent plus abouties que certains travaux étudiants.

      Ces évolutions ont installé une incertitude collective, touchant à la fois les étudiants, les enseignants, les évaluateurs et les responsables de formation, quant aux critères d’évaluation, aux compétences attendues et au sens même des apprentissages.

      Le choix de la régulation à l’IPsyL

      Face à ces enjeux, l’IPsyL a fait le choix d’une régulation explicite et assumée des usages de l’IA, plutôt qu’une interdiction jugée irréaliste. Cette régulation repose sur trois principes : intégrité scientifique, transparence et responsabilisation.

      Une note d’information adoptée en septembre 2025 précise les usages autorisés et interdits, rappelle les limites des outils d’IA (erreurs, hallucinations, biais) et impose une déclaration détaillée des usages, accompagnée d’une attestation sur l’honneur.

      Premiers retours et effets observés

      Les premiers retours font état d’une bonne appropriation formelle du cadre par les étudiants et d’usages globalement conformes aux règles fixées. Toutefois, la réflexion sur les enjeux épistémiques et éthiques reste encore limitée.

      Du côté des enseignants, le dispositif est perçu comme un appui structurant, mais il fait émerger de nouvelles tensions autour de l’évaluation, conduisant à interroger les modalités d’examen et à envisager des évolutions (présentiel, écrits longs, place accrue des soutenances).

      Principaux questionnements soulevés

      • L’adaptation des critères de notation et du niveau d’exigence à l’ère de l’IA.
      • La prise en compte des déclarations d’usage dans l’évaluation.
      • Les enjeux d’honnêteté académique, de transparence et d’équité.
      • Les limites du contrôle, de la détection et des sanctions.
      • Les compétences prioritaires à développer chez les étudiants.
      • La pertinence des formats pédagogiques traditionnels, notamment du cours magistral.

      Conclusion

      Les échanges de PÉDAGOGIA #4 ont montré que l’IA agit avant tout comme un révélateur des tensions structurelles de l’enseignement supérieur, en particulier autour de l’évaluation, de l’intégrité académique et des finalités de la formation.

      Plus que des réponses définitives, la session a souligné la nécessité de construire collectivement des repères partagés et évolutifs pour accompagner ces transformations, dans une approche éthique, responsable et centrée sur l’humain.

      ❓ Questions clés issues de la session

      Les échanges ont fait émerger plusieurs questionnements structurants, révélateurs des tensions actuelles autour des usages de l’IA dans l’enseignement supérieur.

      • Évaluation et exigences académiques
        Les modalités d’évaluation actuelles sont-elles encore adaptées à l’usage généralisé des IA génératives, et faut-il revoir le niveau d’exigence attendu des étudiants ?
      • Notation et transparence des usages
        Comment prendre en compte la déclaration d’un usage de l’IA dans la notation, sans pénaliser les étudiants qui jouent la transparence ?
      • Honnêteté académique et équité
        Comment maintenir l’intégrité académique tout en évitant des effets d’iniquité entre étudiants selon leur rapport à l’IA ?
      • Contrôle, détection et responsabilité
        Jusqu’où est-il possible — et souhaitable — de contrôler ou de détecter l’usage de l’IA, et sur quelles bases réglementaires et juridiques ?
      • Compétences à développer chez les étudiants
        Quelles compétences doivent être prioritairement travaillées (analyse critique, argumentation, posture réflexive, responsabilité) dans un contexte d’IA générative ?
      • Évolution des formats pédagogiques
        Les formes traditionnelles d’enseignement, notamment le cours magistral, conservent-elles leur pertinence à l’ère de l’IA ?
      • Positionnement institutionnel
        Faut-il interdire, encadrer ou accompagner les usages étudiants de l’IA, et comment construire des règles communes à l’échelle des formations et de l’université ?
      • Place de l’humain dans l’enseignement
        Que doit impérativement rester du ressort de l’enseignant, dans un contexte où certaines tâches peuvent être automatisées par l’IA ?
    • Accéder à PÉDAGOGIA #5
      Réinventer ses cours à l’ère de l’IA : ajuster ses enseignements

      PÉDAGOGIA #5 – Réinventer ses cours à l’ère de l’IA : ajuster ses enseignements

      📅 Date : 20 janvier 2026
      🎙️ Invitée :Martine Hennecart, PRAG de mathématiques, UFR SEG.

      À retenir (lecture rapide)

      • L’usage de l’IA par les étudiants est déjà massif et appelle des consignes claires et explicites.
      • Les étudiants attendent des cadres explicites.
      • Les balises IA permettent de clarifier si, comment et pourquoi l’IA peut être utilisée dans une activité donnée.
      • Il existe un continuum de niveaux d’usage (de l’interdiction à l’intégration complète), à choisir selon l’objectif pédagogique.
      • Il n’y a pas de bon ou de mauvais niveau, seulement un niveau cohérent par rapport à l'intention pédagogique de l'enseignant .
      • Une "bonne" balise IA sécurise à la fois les étudiants et l’enseignant et rend visible l’intention pédagogique.
      • L’enjeu n’est pas le contrôle, mais un usage raisonné et formateur de l’IA, au service des apprentissages.
      📖 Lire le résumé détaillé de la session

      Cette session de PÉDAGOGIA est consacrée à l’ajustement des pratiques pédagogiques face à l’usage croissant de l’intelligence artificielle générative par les étudiants. Les enquêtes internationales montrent que l’IA est déjà largement intégrée dans les pratiques d’étude, tandis que les attentes des étudiants portent avant tout sur des recommandations claires, explicites et cohérentes de la part des enseignants et des institutions.

      Pourquoi introduire des balises IA ?

      La multiplication des usages étudiants, le flou fréquent dans les consignes et les tensions autour de l’évaluation rendent nécessaire une clarification pédagogique. Les balises IA visent à aligner les attentes, sécuriser les étudiants et protéger les enseignants en rendant explicites les règles du jeu.

      Les niveaux d’usage de l’IA

      L’usage de l’IA peut être positionné sur un continuum allant de l’interdiction totale à une intégration complète dans les activités d’apprentissage et d’évaluation :

      • Niveau 0 : IA interdite, lorsque l’objectif est l’autonomie ou la maîtrise individuelle.
      • Niveau 1 : IA autorisée pour assister l’apprentissage (idéation, compréhension, reformulation), avec déclaration.
      • Niveau 2 : IA autorisée pour améliorer un travail existant (rétroaction, analyse, confrontation d’idées), avec déclaration.
      • Niveau 3 : IA autorisée pour produire des contenus qui seront retravaillés par l’étudiant, avec citation ou déclaration.
      • Niveau 4 : IA pleinement intégrée, sans restriction spécifique, sous réserve de transparence.

      Qu’est-ce qu’une balise IA ?

      Une balise IA est un court texte inséré dans une consigne ou un syllabus qui explicite les modalités d’usage de l’IA. Elle ne constitue ni une interdiction par défaut, ni un règlement disciplinaire, mais un outil pédagogique au service de l’apprentissage.

      Structure d’une balise IA efficace

      1. Identifier l’activité concernée, pour éviter les consignes trop générales.
      2. Définir le niveau d’usage de l’IA, en cohérence avec l’objectif visé.
      3. Expliciter l’intention pédagogique, afin de légitimer la consigne auprès des étudiants.
      4. Demander, si nécessaire, une trace ou une déclaration, dans une logique de transparence et non de contrôle.

      Points de vigilance

      Sont à éviter : les balises trop vagues, les consignes uniformes pour tout le cours, les formulations uniquement répressives et l’absence d’intention pédagogique.

      En conclusion

      Une bonne balise IA indique clairement ce qui est autorisé, pourquoi cela l’est et jusqu’où l’IA peut être mobilisée. L’enjeu est d’encourager un usage raisonné de l’IA, adapté aux objectifs d’apprentissage, et d’intégrer l’IA comme une composante possible des compétences visées, lorsque cela est pertinent.

      📝 Ressources complémentaires

      Présentation de Martine Hennecart

      Balises d'utilisation des outils d'intelligence artificielle générative (IAg) : ressource pédagogique destinée aux enseignants et responsables de formation pour les aider à encadrer de façon transparente et structurée l’usage des outils d’intelligence artificielle générative (IAg) dans leurs cours et évaluations.


      Ce que contient la ressource :

      📌 Balises d’utilisation des outils d’IAg
      Guide décrivant différents niveaux d’usage possibles selon les activités et objectifs pédagogiques (français et anglais).

      🖼️ Icônes associées aux niveaux d’usage
      Pictogrammes utilisables dans les plans de cours ou directives d’activités pour signaler visuellement les conditions d’usage de l’IAg.

      📝 Formulaire de déclaration d’utilisation d’IAg
      Grille permettant aux étudiants de déclarer comment l’IAg a été utilisée dans une production donnée.

      🔖 Modèles de citations d’IAg
      Exemples de formulations pour citer l’usage d’outils génératifs et garantir la transparence des sources.

      📚 Exemples d’intégration dans un plan de cours
      Modèles concrets de plans de cours intégrant les balises et icônes pour clarifier la politique d’usage de l’IAg.

    • Accéder à PÉDAGOGIA #6
      Plagiat et IA

      PÉDAGOGIA #6 – Plagiat et IA

      📅 Date : 25 février 2026
      🎙️ Invités : Arthur RAVIX et Jonathan BEL, Direction de la Formation.

      À retenir (lecture rapide)

      • Le plagiat est une fraude académique juridiquement encadrée à la fois par la loi (Code de la propriété intellectuelle et sanctions pénales), par le droit civil (dommages et intérêts), et par les règles internes de l' établissement.
      • L’usage d’une IA n’est pas en soi un plagiat, mais doit être transparent.
      • Les outils de détection de l’IA ne sont pas suffisamment fiables pour fonder une preuve d'usage.
      • L’enjeu principal est pédagogique : clarifier les règles et adapter les évaluations.
      • Il s’agit de préserver l’intégrité académique et la valeur des diplômes.
      📖 Lire le résumé détaillé de la session
      Cette séance de PÉDAGOGIA a permis d’examiner les enjeux juridiques, éthiques et pédagogiques du plagiat dans un contexte universitaire transformé par l’intelligence artificielle générative.

      1. Rappel du cadre juridique

      • Le plagiat est défini comme l’appropriation du travail d’autrui.
      • Il constitue une fraude académique pouvant relever du délit de contrefaçon.
      • Il est encadré par la loi, le Code de l’éducation et les règlements internes.
      • Les sanctions peuvent aller de l’avertissement à l’exclusion définitive.

      2. L’impact de l’IA générative

      • Les productions d’IA ne sont pas protégées par le droit d’auteur en tant que telles.
      • L’usage d’une IA n’est pas automatiquement un plagiat.
      • L’absence de transparence peut constituer une fraude académique.
      • Mentionner ses sources,y compris l’IA, est une obligation juridique, académique et éthique.

      3. Limites des outils de détection

      Les outils actuels de détection de textes générés par IA sont jugés insuffisamment fiables pour constituer des preuves disciplinaires robustes. Une approche exclusivement technologique apparaît donc inadaptée.

      4. Enjeux pédagogiques majeurs

      • Expliciter les attentes dans les consignes.
      • Clarifier les règles d’usage de l’IA.
      • Adapter les modalités d’évaluation.
      • Développer une culture critique et éthique des usages numériques.

      L’IA étant désormais largement utilisée par les étudiants, l’enjeu ne consiste pas uniquement à détecter ou sanctionner, mais à repenser les pratiques pédagogiques afin de préserver la valeur des diplômes et le sens des apprentissages.

      La réflexion se poursuivra lors des prochains ateliers PÉDAGOGIA.