Utilisation des LLM (ChatGPT, Copilot, etc.) — règles strictes
Principe : ce cours évalue votre capacité à
concevoir et
écrire du code.
Un LLM peut aider à comprendre, mais ne doit pas écrire le projet à votre place.
Autorisé (aide à la compréhension) :
- explications de concepts (POO, DataFrames, récursivité, erreurs Python),
- aide au débogage : comprendre un message d’erreur + proposer des pistes,
- proposer des idées de tests / cas de test,
- améliorer le README (orthographe, structure, clarté).
Interdit (considéré comme triche) :
- demander du code complet ou des fichiers « prêts à rendre »,
- demander l’implémentation d’une fonction/classe du sujet (ex :
Token, Sentence, Corpus, lecture fichiers, DataFrames),
- copier-coller du code généré (même partiellement) sans le déclarer,
- utiliser un LLM pendant une évaluation surveillée (sauf autorisation explicite).
Obligatoire (transparence) :
Dans le rendu, ajoutez un fichier
LLM_USAGE.md contenant :
- l’outil utilisé,
- le but (ex : “comprendre
__iter__”, “comprendre une erreur pandas”),
- au maximum 3 prompts (copiés/collés) + un résumé des réponses,
- une phrase expliquant ce que vous avez appris.
Si vous utilisez du code généré par un LLM (exception) :
- vous devez le déclarer dans LLM_USAGE.md,
- indiquer précisément quels fichiers et/ou quelles fonctions sont concernés,
- ajouter un commentaire dans le code au-dessus du bloc :
# Généré/assisté par LLM (voir LLM_USAGE.md),
- et être capable d’expliquer ce code à l’oral.
Vérification :
Une courte discussion / question orale peut être faite pour vérifier la maîtrise du code.
Sanctions :
- absence de LLM_USAGE.md : −5 points,
- usage interdit / code généré non déclaré : note = 0 ou rendu refusé.
Astuce : si vous hésitez, posez une question de compréhension plutôt qu’une demande de code.