Skip links

Écriture académique assistée par l’IA : recommandations d’usage éthique

Tu dois rendre un devoir demain. Ou plutôt, aujourd’hui. Il est 2 h du matin, et il est à rendre à 9 h. Tu en es à ta troisième tasse de café et tu fixes ce qui te semble être un brouillon très (très) approximatif. Tes idées sont là, mais c’est maladroit, et tu n’aimes pas la façon dont ça s’enchaîne. Tu n’as inclus aucune citation ni construit ta bibliographie. Tu n’as pas fait de correcteur orthographique ni relu. Et cet essai est long, donc tu en as pour des heures. Tu auras de la chance si tu dors un peu. Tu fixes l’écran en essayant de ne pas paniquer.

C’est à ce moment-là que tu envisages de faire quelque chose que tu ne ferais normalement jamais : utiliser l’IA. Tu lances un LLM, colles ton brouillon et lui demandes de le rendre « plus lisible », de vérifier les faits et de corriger les fautes de frappe et de grammaire. Ensuite, tu télécharges les sources que tu as décortiquées et tu demandes au LLM d’ajouter des citations structurées et une bibliographie au format APA. Quelques minutes plus tard, il te crache la version finale. Ta prose est plus claire et plus soignée, tout est entièrement cité et vérifié, ta structure est à la hauteur, tous les points sur les « i » sont mis et les barres sur les « t » tracées.

Voici la question :

Est-ce que tu viens de tricher ? Dois-tu en parler à quelqu’un ? Est-ce que ce que tu as fait est même autorisé ? Et si oui, où tracer exactement la ligne ?

Si tu t’es retrouvé dans cette situation, tu n’es pas seul. Et tu n’as certainement pas tort d’être incertain quant aux réponses. Pourquoi ? Parce que le monde universitaire est encore en train de définir les règles.

Aujourd’hui, nous examinons un article qui tente d’apporter un peu d’ordre dans ce bazar. Les auteurs sont des chercheurs en santé qui se sont retrouvés exactement dans la même situation que tout le monde : essayer de comprendre comment utiliser ces nouveaux outils puissants sans compromettre l’intégrité académique.

Ce qui rend cet article intéressant, c’est qu’ils n’ont pas seulement rédigé des lignes directrices, ils ont appliqué leurs propres recommandations. Ils ont effectivement utilisé ChatGPT pour les aider à écrire certaines parties de l’article, puis ont documenté précisément comment ils l’ont utilisé et ce qu’ils ont appris du processus. Et oui, c’est très méta. Ils ont utilisé un LLM pour les aider à écrire un article sur la façon d’utiliser les LLM pour vous aider à écrire des articles. Inception.

Allons-y.

Ils commencent par reconnaître que ces outils (les LLM) sont fondamentalement différents des logiciels qui les ont précédés. Les chercheurs utilisent depuis longtemps la technologie pour accomplir des tâches plus efficacement. C’est le statu quo. Des moteurs de recherche académiques qui t’évitent de fouiller les rayonnages de la bibliothèque, aux logiciels statistiques qui accélèrent les analyses complexes, aux correcteurs qui soulignent les fautes, aux gestionnaires de références qui organisent les citations, aux logiciels de transcription qui convertissent de vieilles interviews, émissions et discours en texte. Le consensus est que tout cela est acceptable. Ce n’est pas de la triche. Mais les outils d’IA générative ne se contentent pas de t’aider à accomplir des tâches. Ils produisent eux-mêmes du contenu écrit original, pour toi. Et pour beaucoup, cela semble être d’une toute autre nature. Ces capacités posent un défi que les notions traditionnelles d’intégrité académique n’étaient pas conçues pour gérer. La frontière entre « assistance » et « substitution » devient floue, très vite.

Alors, comment s’y retrouver ? Existe-t-il une façon structurée d’y réfléchir ? C’est précisément l’objectif de cet article : proposer un cadre (et des garde-fous) pour un sujet informe, gris et en rapide évolution. Pour commencer, les auteurs ont plongé dans la littérature et comparé ce que différents articles disaient sur le sujet. Ils en ont tiré un cadre qui organise l’usage de l’IA, conceptuellement, en trois niveaux éthiques, chacun avec des degrés d’acceptabilité et de précautions différents.

Le niveau 1 regroupe les usages les plus éthiquement acceptables. C’est lorsque tu utilises l’IA principalement pour restructurer un texte existant, plutôt que pour générer du contenu nouveau. Les outils de correction grammaticale et orthographique entrent ici. Cela couvre des outils comme Grammarly, mais aussi les correcteurs orthographiques et grammaticaux dopés à l’IA intégrés à ton traitement de texte. L’amélioration de la lisibilité appartient aussi au niveau 1, tant que les auteurs s’assurent que les modifications préservent leur voix et leur raisonnement originels. À ce niveau, le modèle doit affiner l’expression, pas changer le sens. Les outils de traduction complètent ce niveau, avec quelques réserves. Dans bien des cas, un traducteur IA fournit un point de départ, pas un produit final.

Le niveau 2 correspond aux usages « éthiquement contingents » qui exigent une manipulation prudente du contenu auto-généré. Cela inclut la génération de plans à partir d’un contenu existant, la synthèse de matériaux, l’amélioration de la clarté d’un texte existant ou le brainstorming d’idées. La distinction tient au fait de demander à l’IA de travailler à partir d’un apport substantiel, versus lui demander de créer du contenu à partir de presque rien. Autrement dit : lui fournis-tu du contenu pour qu’elle organise des concepts déjà présents ? Ou lui demandes-tu de créer un plan à partir d’un minimum d’éléments et de formuler elle-même les idées de base ? Le premier s’appuie sur les capacités d’organisation du LLM ; le second risque d’introduire des concepts qui ne sont pas les tiens et qui peuvent être inexacts.

Le niveau 3 regroupe les usages « éthiquement suspects ». À savoir : demander à l’IA de rédiger du texte original sans fournir un apport substantiel de contenu propre. Pourquoi ? Parce que cette approche contourne l’engagement intellectuel essentiel à une bonne recherche. Tu ne réfléchis pas, tu la laisses réfléchir pour toi. L’interprétation des données tombe également dans cette catégorie. Utiliser l’IA pour une analyse primaire court-circuite l’engagement profond avec les données qui mène à une véritable compréhension et à des insights. Les auteurs soutiennent que si tu analyses d’abord toi-même les données, tu acquiers une compréhension plus complète qui te permet ensuite de critiquer les interprétations de l’IA. Sans cet ancrage, tu confies ton analyse à la machine et tu passes à côté d’une part essentielle de l’expérience. Les revues de littérature posent des problèmes similaires. Les LLM sont notoirement peu fiables pour citer des références, donc pour l’instant ils ne conviennent pas à cette tâche.

Pour opérationnaliser ce cadre, ils proposent une liste de contrôle en quatre questions pour évaluer l’usage de l’IA générative.

·       Ai-je utilisé l’IA générative de manière à garantir que les idées, les intuitions, les interprétations et les analyses critiques principales sont les miennes ? Cette question touche à la propriété intellectuelle. L’IA doit renforcer ta réflexion, pas la remplacer.

·       Ai-je utilisé l’IA générative de manière à ce que les humains conservent leurs compétences de base en recherche et en rédaction ? Cela répond à la crainte des auteurs concernant l’atrophie des compétences. Une dépendance excessive à l’IA pour des tâches fondamentales comme l’idéation, la rédaction et l’analyse pourrait empêcher les chercheurs, surtout novices, de développer des capacités essentielles.

·       Ai-je vérifié que tout le contenu et toutes les références de mon manuscrit sont exacts, fiables et exempts de biais ? Cela reconnaît que, quel que soit l’usage de l’IA, les auteurs portent l’entière responsabilité de l’exactitude et de l’intégrité du manuscrit.

·       Ai-je divulgué exactement comment les outils d’IA générative ont été utilisés pour rédiger le manuscrit, et quelles parties ont impliqué une assistance de l’IA ? Cela garantit la transparence et permet aux lecteurs d’évaluer le travail de manière appropriée.

Les auteurs recommandent que même si les trois premières questions reçoivent une réponse affirmative, la quatrième reste obligatoire. La transparence (à leurs yeux) n’est pas optionnelle. Et cela vaut même pour un usage éthiquement sain de l’IA.

Mais comment divulguer ? Où et comment le faire ? Eh bien, si certaines revues, par exemple, autorisent des sections de « remerciements », les auteurs estiment que la section « méthodes » est l’endroit le plus transparent pour divulguer. Ils suggèrent de préciser quels outils d’IA ont été utilisés, pour quelles tâches, comment la production de l’IA a été traitée (relue, éditée, vérifiée) et comment le contenu a été intégré aux versions finales. En outre, pour les usages de traduction, ils recommandent que des locuteurs natifs de la langue cible relisent les manuscrits finaux.

Ils abordent aussi la question du développement académique. Leur préoccupation ne porte pas seulement sur la productivité immédiate, mais sur la croissance professionnelle et l’évolution des chercheurs dans leur domaine. Il s’agit de s’assurer que les chercheurs peuvent réfléchir en profondeur et de manière créative aux problèmes de recherche et aux données qui en résultent. Si les chercheurs novices ont le plus besoin de ces compétences, les chercheurs expérimentés bénéficient eux aussi d’une adaptation continue de leurs capacités à un paysage en évolution. La crainte est qu’une dépendance excessive aux LLM (pour l’idéation, la génération de contenu primaire et l’interprétation des données) crée une dépendance qui freine le développement. C’est pourquoi leur cadre met l’accent, avant tout, sur le maintien de la contribution intellectuelle humaine.

Cela dit, ce domaine évolue très vite. Certains problèmes (comme les hallucinations) pourraient s’atténuer avec le temps. D’autres (comme les biais) pourraient s’aggraver avant de s’améliorer. Aucun cadre ne durera très longtemps. Les conditions changent trop rapidement. Les auteurs sont fermes sur un point qui, selon eux, ne peut ni ne doit changer : au bout du compte, ce sont les auteurs d’un article qui portent la pleine responsabilité de l’originalité du manuscrit, de l’exactitude du contenu et des références appropriées. Que tu aies utilisé l’IA ou non. L’adoption généralisée de ces outils ne doit jamais servir d’excuse pour esquiver la responsabilité des erreurs ni éviter la culpabilité ou la responsabilité légale. C’est ton article, et c’est ton travail ; que tu l’aies écrit toi-même ou non.

Si tu veux approfondir leur analyse, explorer les exemples qu’ils ont étudiés ou obtenir plus de détails sur leur cadre, je te recommande vivement de télécharger l’article. C’est un guide utile, et leurs recommandations vont bien au-delà de ce que nous avons pu couvrir ici.

Source : https://advancesinsimulation.biomedcentral.com/articles/10.1186/s41077-025-00350-6

Leave a comment

Ce site web utilise des cookies pour améliorer votre expérience.