Le développeur face à l'IA : sommes-nous les tisserands de 1811 ?
“Claude Code c'est de l'héroïne pour programmeur.”
J'ai posté ça sur Mastodon début janvier 2026. Une formule volontairement provocante, mais qui résume assez bien mon année 2025. Une année où ma productivité a été multipliée par deux, peut-être par dix selon comment on compte.
Mais je me suis aussi demandé : est-ce que je ne serai pas en train de scier la branche sur laquelle je suis assis ?
Les fantômes des révolutions passées
Quand on parle d'IA et d'emploi, les comparaisons historiques fusent. “C'est comme l'arrivée de l'électricité !” “C'est comme Internet !” Soit. Mais si on gratte un peu, ces révolutions industrielles ont des leçons bien plus nuancées à nous offrir.
1811 : Les Luddites n'étaient pas des idiots
L'histoire officielle a fait des Luddites des technophobes arriérés, des casseurs de machines incapables de voir le progrès. C'est un mythe bien pratique.
En réalité, comme le rappelle le MIT Technology Review, les Luddites étaient des artisans qualifiés (tisserands, tricoteurs) qui voyaient très bien ce qui se passait. Ils n'étaient pas contre les machines. Ils étaient contre l'utilisation des machines pour dégrader leur travail et casser leurs salaires.
Leur leader, George Mellor, avait cette formule : “the tendency's all one way”, la tendance va dans un seul sens. Celui de la concentration des richesses au détriment des travailleurs.
Ça ne vous rappelle rien ?
40 ans de galère avant l'amélioration
Voici ce qu'on oublie souvent : pendant la première révolution industrielle en Angleterre, les salaires réels ont stagné pendant 40 ans alors que la productivité explosait. Quarante ans. Deux générations de travailleurs ont vu leur niveau de vie se dégrader pendant que les propriétaires d'usines s'enrichissaient.
Les choses se sont améliorées. Mais pas toutes seules. Il a fallu des grèves, des syndicats, des lois sociales arrachées de haute lutte. Le progrès technique n'a pas automatiquement ruisselé vers les travailleurs.
Ford et le paradoxe du salaire
Deuxième révolution industrielle, début du XXe siècle. Henry Ford installe ses chaînes de montage. Les ouvriers perdent toute autonomie : un geste, répété des centaines de fois par jour, sur un convoyeur qui impose le rythme.
Mais Ford fait quelque chose d'inattendu : il augmente les salaires. Pas par bonté d'âme mais pour fidéliser sa main-d'œuvre et surtout, transformer ses ouvriers en clients potentiels de ses voitures.
Le parallèle avec l'IA ? Les outils comme Claude Code ou Copilot sont accessibles aux développeurs individuels. Pour l'instant. La question est de savoir si cette démocratisation va durer, ou si on va vers une concentration où seules les grandes entreprises auront accès aux modèles les plus performants.
Les années 70 : la fin annoncée du travail de bureau
Troisième révolution, l'informatique. En 1970, l'invention du microprocesseur. Les ordinateurs personnels arrivent dans les bureaux. Les prédictions catastrophistes pleuvent : 47% des emplois américains seraient automatisables.
Résultat ? Le nombre d'emplois tertiaires a explosé. Les dactylos ont disparu, les développeurs sont apparus. Les comptables manuels ont laissé place aux experts-comptables assistés par logiciel.
La leçon : les métiers disparaissent rarement complètement. Ils se transforment.
2025 : Mon année avec les agents IA
Assez d'histoire. Parlons de ce qui m'est arrivé concrètement.
Le terminal est devenu mon assistant personnel
Depuis fin 2025, j'ai basculé. Mon IDE prend la poussière. Je passe mes journées dans un terminal avec Claude Code. Je décris ce que je veux, l'agent écrit le code, je supervise.
Le setup qui marche pour moi :
– Un fichier claude.md avec des guidelines détaillées sur mon projet
– Des skills personnalisés pour les tâches répétitives
– Une codebase propre (l'IA travaille mieux sur du code bien structuré)
– Docker Desktop pour les intégrations MCP
Coût : environ 1€ par heure de travail assisté, à mettre en parallèle avec la facturation d'un freelance qui tourne autour de 60€ par heure.
Ce que j'ai appris à mes dépens
L'IA est incompétente pour le debug. Vraiment. Elle peut écrire du code, refactorer, ajouter des fonctionnalités. Mais quand il s'agit de comprendre pourquoi ce foutu test échoue avec un message cryptique, elle tourne en rond. La supervision humaine reste indispensable sur les cas limites.
Les “Legacy Memories” sont un piège. Des années d'expérience m'ont appris des patterns, des réflexes. Certains sont devenus des boulets. L'IA ne fait pas les choses comme je les aurais faites et parfois, sa façon est meilleure. Désapprendre pour réapprendre, c'est le plus dur.
Un agent bien configuré, c'est zéro hallucination. J'ai commencé à ne plus relire certains outputs. Ça fait peur à écrire, mais c'est vrai. Avec Claude Code et Opus 4.5, sur une codebase propre avec des guidelines claires, les erreurs sont devenues rares.
L'analogie qui m'a convaincu
On ne relit pas l'assembleur généré par le compilateur. On fait confiance au compilateur. Personne ne vérifie ligne par ligne ce que GCC produit.
Sommes-nous en train de vivre la même transition avec le code généré par IA ?
Les mêmes peurs, vraiment ?
| Révolution | La peur | Ce qui s'est passé |
|---|---|---|
| 1ère (1780) | Chômage de masse | Nouveaux métiers, mais 40 ans de transition difficile |
| 2ème (1870) | Déshumanisation du travail | Classe moyenne, société de consommation |
| 3ème (1970) | Fin du travail de bureau | Explosion des emplois tertiaires |
| 4ème (2025) | Fin du développeur ? | En cours... |
Le World Economic Forum note que chaque révolution industrielle a créé plus d'emplois qu'elle n'en a détruits. Mais (et c'est un gros mais) les personnes qui perdent leur emploi ne sont pas forcément celles qui en trouvent un nouveau.
Les recherches historiques montrent que pendant la deuxième révolution industrielle, les jeunes travailleurs s'adaptaient en changeant de métier vers les secteurs en croissance. Les travailleurs plus âgés, eux, restaient coincés dans des emplois dévalorisés ou basculaient vers des postes non qualifiés.
Pattern inquiétant pour les développeurs de plus de 40 ans comme moi, surtout ceux que je vois refuser en bloc l'utilisation de ces outils.
La vraie question des Luddites
Comme le souligne TIME, la question n'a jamais été “la technologie va-t-elle nous remplacer ?” mais “qui contrôle la technologie et à qui profite-t-elle ?”
Aujourd'hui, les développeurs sont dans une position particulière. Nous sommes à la fois : – Les utilisateurs de ces outils (et nous en profitons) – Les créateurs de ces outils (certains d'entre nous) – Les potentielles victimes de ces outils (à terme ?)
Cette position ambiguë explique peut-être pourquoi le débat est si polarisé dans notre profession. Certains sont dans le déni (“l'IA ne pourra jamais faire ce que je fais”). D'autres dans l'euphorie aveugle (“plus besoin de développeurs dans 5 ans”). Les deux ont tort.
Ce qui me préoccupe (vraiment)
Je ne vais pas jouer les optimistes béats. Plusieurs choses m'inquiètent :
Le coût environnemental. Entraîner et faire tourner ces modèles consomme une énergie considérable. Mon gain de productivité a un coût carbone que je ne sais pas mesurer.
L'absence de régulation. On avance à toute vitesse sans cadre légal. Les révolutions industrielles précédentes ont fini par être encadrées: droit du travail, normes environnementales, régulation des monopoles. Pour l'IA, on n'en est nulle part.
La transition professionnelle. Je m'adapte parce que j'ai le luxe de pouvoir expérimenter. Qu'en est-il du développeur junior qui entre sur le marché ? Du senior qui a construit sa carrière sur une expertise que l'IA commoditise ?
Ni Luddite, ni techno-béat
Ma position, après quelques mois d'usage intensif : utiliser les outils sans naïveté.
J'utilise Claude Code tous les jours pour le pro bien sûr mais aussi pour le perso. Ma productivité a explosé et j'ai pu relancer moult projets persos qui stagnaient faute de temps.
Mais je ne suis pas dupe. Je milite pour une régulation de ces technologies. Je m'inquiète de leurs impacts environnementaux et sociaux. Je pense que la transition va faire des dégâts si elle n'est pas accompagnée.
Les Luddites avaient compris un truc essentiel : le progrès technique n'est pas neutre. Il peut servir à émanciper les travailleurs ou à les asservir. Ça dépend de choix politiques, pas de la technologie elle-même.
Et maintenant ?
Si vous êtes développeur, vous avez probablement déjà une opinion sur l'IA générative. Peut-être que vous l'utilisez quotidiennement. Peut-être que vous refusez d'y toucher. Peut-être que vous êtes quelque part entre les deux.
Mon conseil, pour ce qu'il vaut : expérimentez, mais gardez les yeux ouverts.
Apprenez à utiliser ces outils. Comprenez leurs limites. Maintenez vos compétences de supervision et d'architecture, ce que l'IA fait mal. Et surtout, participez au débat sur l'encadrement de ces technologies.
Les tisserands de 1811 ont perdu leur combat. Pas parce qu'ils avaient tort sur le fond, mais parce qu'ils n'avaient pas le rapport de force. Nous, développeurs de 2025, avons peut-être une fenêtre pour influencer la direction que prend cette révolution.
Ne la laissons pas passer.
Cet article s'appuie sur mes publications sur Mastodon et sur des recherches historiques. Les sources principales sont liées dans le texte.
Sources
- MIT Technology Review – What Luddites can teach us about resisting an automated future
- McKinsey – What can history teach us about technology and jobs?
- TIME – What the Luddites Can Teach Us About Artificial Intelligence
- World Economic Forum – The Fourth Industrial Revolution could spell more jobs
- Federal Reserve Bank of Chicago – Occupational Switching During the Second Industrial Revolution
- Cairn.info – Les impacts de l'automatisation du travail