Quand on commence à utiliser Claude Code, Codex ou d’autres assistants de développement, on voit très vite surgir un vocabulaire qui peut sembler opaque : agent, sous-agent, skill, commande slash, CLAUDE.md, AGENTS.md, permissions, sandbox, worktree… Pour un projet web ou applicatif, cela peut donner une impression de complexité supplémentaire. Pourtant, le sujet est plus simple qu’il n’y paraît : il s’agit surtout d’organiser le travail de l’IA dans GitHub pour éviter l’improvisation permanente.

Ces outils ne sont pas magiques. Ils ne remplacent ni l’architecture, ni la qualité des issues, ni la discipline de review. En revanche, ils peuvent rendre un projet beaucoup plus fluide si les rôles sont clairs : qui explore, qui exécute, qui relit, qui valide les règles. Tant qu’on reste dans des prompts ponctuels, l’IA fait ce qu’elle peut avec le contexte de l’instant. Dès qu’on formalise les repères dans le dépôt, la qualité devient plus stable, plus reproductible, et donc plus utile.

C'est quoi, au juste, un agent ou un sous-agent ?

Le terme “agent” semble ambitieux, alors que son usage est souvent très pragmatique. Dans un repo, un agent est simplement un assistant à qui l’on confie une mission circonscrite : explorer sans modifier, analyser un bug, préparer un plan de correction, auditer un risque sécurité, relire un diff, ou vérifier une convention.

Le sous-agent va encore plus loin dans cette logique de séparation : il opère dans un cadre plus étroit, avec un objectif, un contexte et parfois des outils autorisés spécifiques. Cette séparation devient précieuse dès que la base de code grossit. On évite de tout mélanger dans une seule conversation : exploration du legacy, patch sur un service sensible, puis génération d’un résumé de PR. Chaque rôle travaille dans sa boîte, puis remonte un résultat exploitable.

L’idée importante : un agent n’est pas un “super prompt”. C’est un rôle de travail. Et comme pour une équipe humaine, la qualité dépend de la clarté de mission, des limites et du passage de relais.

Et une skill, c'est quoi alors ?

Une skill, c’est une procédure documentée pour l’IA. Là où l’agent décrit qui fait quoi, la skill décrit comment exécuter une tâche récurrente avec cohérence. Elle contient des étapes, des points de contrôle, des fichiers à consulter, des commandes à lancer, des erreurs fréquentes à éviter et un format de sortie attendu.

Concrètement, si vous répétez souvent les mêmes demandes (review de PR, triage d’issue, préparation de release, audit accessibilité), la skill vous évite de retaper à chaque fois une longue instruction. La méthode devient versionnée, visible, améliorable dans Git. L’équipe peut la relire comme n’importe quel composant du projet.

Le gain principal n’est pas “faire plus vite” ; c’est “faire de manière plus fiable”. Une bonne skill réduit la variabilité entre deux exécutions et transforme une bonne pratique implicite en standard explicite.

Les commandes slash dans tout ça ?

La commande slash est le point d’entrée ergonomique. Au lieu de rédiger un long prompt, vous lancez un raccourci comme /review, /fix-issue ou /ship-staging. Techniquement, elle déclenche un workflow déjà défini, souvent relié à une skill.

La différence paraît mineure, mais elle est essentielle à l’échelle d’un projet. Une commande slash bien nommée crée une interface stable entre l’humain et les procédures IA. Tout le monde appelle la même action, avec le même niveau d’exigence. Résultat : moins de dispersion, moins de formulations ambiguës, plus de continuité entre les sessions.

En pratique, retenez ceci : la commande slash n’est pas la logique métier. C’est la poignée. La logique doit rester dans des fichiers versionnés et relisibles.

Pourquoi tout cela finit dans GitHub

Ces concepts prennent de la valeur lorsqu’ils vivent dans le dépôt, pas dans une conversation isolée. GitHub joue alors le rôle d’ossature : issues pour cadrer le besoin, branches (ou worktrees) pour isoler l’exécution, pull requests pour relire et discuter, checks CI pour sécuriser la fusion.

Sans cette structure, on accumule des intentions. Avec elle, on construit une mémoire de décision. L’IA bénéficie directement de cette traçabilité : elle peut partir d’une issue claire, relier son travail à une PR, suivre des conventions explicites, et s’aligner sur des tests reproductibles.

Vue abstraite de branches Git convergeant, collaboration et flux de travail

Autrement dit, le vrai sujet n’est pas “quelle IA est la plus forte”. Le vrai sujet est “est-ce que notre repo permet un travail propre, traçable et amélioré dans le temps”.

À quoi ressemble un repo bien préparé pour Claude Code

Côté Claude Code, le point central est généralement CLAUDE.md. C’est la mémoire opérationnelle du projet : conventions critiques, commandes de test, attentes d’architecture, règles de réponse et garde-fous. Ce fichier doit rester court, concret et maintenu comme du code vivant.

Autour, le dossier .claude/ permet de répartir les responsabilités : des règles ciblées, des skills dédiées, des agents spécialisés et des réglages d’accès. Cette séparation évite les documents monolithiques illisibles et favorise une maintenance incrémentale.

Une structure saine n’a pas besoin d’être massive. Elle doit surtout répondre à une logique claire : un endroit pour les règles globales, un endroit pour les procédures répétées, un endroit pour les rôles spécialisés, et des permissions explicites sur ce qui est sensible.

Et côté Codex, comment on cadre le repo ?

Chez Codex, l’ancrage repose souvent sur AGENTS.md et les consignes locales. Le principe est simple : documenter dans le repo la manière de naviguer, tester, modifier et valider. Si plusieurs fichiers AGENTS.md existent, la portée dépend de l’arborescence : un fichier plus profond peut préciser les règles d’un sous-dossier.

Cette logique épouse très bien les grands monorepos : on garde des règles globales au niveau racine, puis des instructions plus précises dans des zones techniques spécifiques. Cela permet d’éviter l’ambiguïté et de réduire les erreurs de contexte quand l’IA travaille sur des composants très différents.

En résumé, Claude Code et Codex convergent sur l’essentiel : ce qui n’est pas écrit de façon claire dans le dépôt sera vite réinterprété. Ce qui est explicite et versionné devient un cadre fiable.

Schéma — Comparison Grid (Claude Code vs Codex)

Dimension Claude Code (.claude/) Codex (AGENTS.md)
Fichier central CLAUDE.md + règles spécialisées AGENTS.md (scope par dossier)
Conventions Rules, skills, agents dédiés Instructions hiérarchisées dans l’arborescence
Permissions Settings et restrictions explicites Contexte d’exécution + politiques d’approbation
Organisation cible Workflow centré commandes/skills Workflow centré tâche/branche/instructions locales

Une règle simple pour choisir entre agent, skill et commande

Pour éviter le sur-design, utilisez une règle en trois lignes :

Le repo GitHub reste la colonne vertébrale : c’est là que vivent l’historique, les conventions, les protections, et la qualité de collaboration.

Schéma — Concept Grid (Agent vs Skill vs Commande slash)

Élément Rôle Quand l’utiliser Exemple concret
Agent Porter une mission spécialisée Besoin d’isoler une analyse ou un audit Explorer le legacy sans modifier le code
Skill Formaliser une méthode répétable Même tâche répétée chaque semaine Checklist de review PR sécurité + tests
Commande slash Déclencher un workflow rapidement Usage fréquent par plusieurs contributeurs /ui-review avant merge front

Un exemple très concret sur un projet web

Imaginons un projet Astro ou React avec cette issue : “Ajouter un mode sombre sur les pages marketing et corriger les contrastes insuffisants”.

Étape 1 — Cadrage issue : la demande précise les pages concernées, les contraintes design, les critères d’acceptation et les tests attendus.

Étape 2 — Agent d’exploration : un agent cartographie les tokens de couleur, les layouts partagés, les composants déjà thémés, les snapshots visuels et les zones à risque.

Étape 3 — Skill d’exécution : une skill ui-review rappelle les garde-fous : contraste WCAG, non-duplication des variables, cohérence design system, responsive, dark/light parity.

Étape 4 — PR + review : le changement part en branche dédiée, passe par tests, review humaine + IA, puis fusion si la check-list qualité est validée.

Ce flux paraît simple, et c’est exactement le but. La sophistication doit rester dans la qualité d’exécution, pas dans l’empilement de concepts.

Schéma — Pipeline (issue → agent → skill → PR)

Phase Entrée Action IA Sortie
Issue GitHub Besoin produit + critères Compréhension du scope Plan d’attaque clair
Agent d’exploration Codebase + historique Cartographie technique Zones impactées + risques
Skill Procédure standardisée Exécution avec checklist Modifications cohérentes
Pull Request Diff + tests Review assistée + itérations Merge traçable

Les erreurs les plus fréquentes

La première erreur consiste à tout centraliser dans un seul fichier immense. À partir d’un certain volume, les instructions deviennent contradictoires et donc inefficaces. Mieux vaut plusieurs documents courts, chacun avec une fonction claire.

La deuxième erreur est de créer trop d’agents trop tôt. Beaucoup d’équipes ont besoin d’un ou deux rôles utiles, pas d’une taxonomie complète dès le départ.

Troisième erreur : ignorer les permissions. Si l’outil lit partout, écrit partout, exécute n’importe quelle commande et accède à des secrets par défaut, le risque opérationnel grimpe vite.

Enfin, erreur silencieuse mais fréquente : penser qu’un agent compensera un repo désorganisé. Sans issues claires, sans tests crédibles et sans discipline de review, l’IA va surtout accélérer la confusion.

Par quoi commencer sans transformer le repo en usine à gaz

Commencez minimaliste :

Avec ce socle, vous obtenez déjà 80 % de la valeur : meilleure qualité de contexte, moins de répétition, et une collaboration plus régulière entre humains et IA. Le reste se construit ensuite, au rythme des besoins réels du projet — pas avant.

Vous savez tout maintenant : à vos repos !