
Je ne suis pas développeur. Je suis un retraité de 60 ans avec un DAH, un abonnement Claude et un projet que personne de sensé n’aurait tenté : transformer un profil Gene Keys en sons de bols tibétains et en figures de Chladni animées, le tout dans un navigateur web. Huit sessions de travail plus tard, l’outil existe. Il tourne. Les gens entrent leur date de naissance et entendent leur code.
Ce n’est pas un article sur le vibe coding. Ce n’est pas un tuto « crée ton app en 5 minutes ». C’est le journal de bord technique d’un projet qui a nécessité de la physique des vibrations, de la synthèse sonore, de la 3D et une API d’éphémérides astronomiques — et où l’IA a fait 90% du code mais 0% des décisions.
EXPÉRIENCE L’intégralité de ce récit est mon vécu. Les parties techniques sont étiquetées FACTUEL ou EXPLORATOIRE quand elles s’appuient sur des sources vérifiables.
Comment fonctionne la collaboration humain-IA sur un projet technique ?

Pas comme on l’imagine. L’image populaire c’est : tu décris ce que tu veux, l’IA code, tu appuies sur un bouton, c’est fini. Andrej Karpathy a inventé le terme « vibe coding » en février 2025 pour décrire cette approche — et lui-même l’a déclaré dépassé un an plus tard en proposant « agentic engineering », où l’humain orchestre et l’IA exécute sous supervision constante. FACTUEL
Mon expérience confirme cette évolution. Sur les 8 sessions du Code Sonore, le schéma était toujours le même : je définis le problème et les contraintes, Claude propose une architecture et code, je teste dans le navigateur, je donne un retour, Claude corrige. C’est du pair programming asynchrone.
EXPÉRIENCE Concrètement, le premier son que Claude a produit pour le bol tibétain était trop cristallin — un son de verre, pas de métal. Il a fallu que j’écoute, que je dise « non, ça ne sonne pas », que j’explique ce que j’attendais (« plus chaud, plus de sustain, des battements »), pour que la v2 soit convaincante. L’IA ne peut pas entendre. C’est une évidence, mais ça change tout dans un projet sonore.
L’étude METR de juillet 2025, menée sur 16 développeurs open-source expérimentés (repos à 22 000+ étoiles), a montré un résultat surprenant : avec les meilleurs outils IA disponibles (Cursor Pro + Claude Sonnet), ils ont mis 19% plus de temps pour compléter leurs tâches. Pire : ils étaient convaincus d’avoir été 20% plus rapides. FACTUEL
Ce n’est pas mon expérience. Mais je ne suis pas développeur. Pour quelqu’un qui ne sait pas coder, l’IA ne ralentit pas — elle rend possible. La vraie question n’est pas « l’IA vous rend-elle plus rapide ? » mais « l’IA vous permet-elle de faire ce que vous ne pouviez pas faire du tout ? ».
Qu’est-ce que WebAudio et pourquoi c’est accessible sans être développeur ?
WebAudio est une API standard du W3C, intégrée dans tous les navigateurs modernes depuis 2021. En clair : n’importe quel navigateur peut devenir un synthétiseur. Pas besoin d’installer un logiciel. Une URL suffit. FACTUEL
Le principe est simple : on crée des nœuds audio (oscillateurs, filtres, effets) et on les connecte entre eux comme des pédales de guitare. Un OscillatorNode génère un son. Un GainNode contrôle le volume. Un ConvolverNode ajoute de la réverbération. Le tout tourne à 44 100 échantillons par seconde. FACTUEL
Pour le Code Sonore, le défi était de synthétiser un bol tibétain. Un vrai bol, c’est un idiophone — son spectre est inharmonique, ce qui veut dire que les partiels ne suivent pas la série classique 1:2:3:4 comme un piano. Les bols produisent des rapports plus complexes : fondamentale, triton (×1.414), quinte (×1.5), et un transitoire de frappe métallique. Les battements caractéristiques viennent de l’interférence entre deux partiels très proches. FACTUEL
EXPÉRIENCE La Session B a été entièrement consacrée à ce son. Claude a empilé 4 couches d’oscillateurs avec des enveloppes ADSR individuelles, un burst de bruit filtré pour simuler la frappe du maillet, et une réverbération par convolution avec un impulse response synthétique. Le résultat de la v1 était propre techniquement mais plat à l’oreille. La v2, après mon feedback (« plus de tremolo, sustain plus long, plus chaud »), sonnait comme un bol. Ce moment-là — quand le son sort du navigateur et qu’on le reconnaît — c’est le moment où le projet passe de « démo technique » à « quelque chose qui existe ».
Comment les figures de Chladni sont devenues un moteur visuel dans le navigateur ?
Ernst Chladni, physicien allemand du XVIIIe siècle, a découvert que du sable posé sur une plaque métallique en vibration forme des motifs géométriques. Chaque fréquence produit un motif différent. En 1787, il publie 166 figures gravées. En 1808, sa démonstration devant Napoléon provoque le lancement d’un prix mathématique que Sophie Germain remporte en 1816 — première femme récompensée par l’Académie des Sciences de Paris. FACTUEL
L’équation que j’utilise dans le Code Sonore est une approximation de Paul Bourke (2003) : cos(nπx/L)·cos(mπy/L) − cos(mπx/L)·cos(nπy/L) = 0. Ce n’est pas l’équation complète de la physique des plaques vibrantes (qui nécessite l’équation biharmonique de Kirchhoff), mais c’est une approximation suffisante pour générer des motifs visuels convaincants dans un Canvas 2D. FACTUEL
Le moteur visuel fonctionne avec 2000 particules qui sont attirées vers les lignes nodales de l’équation — les zones où la plaque ne vibre pas, là où le sable s’accumule dans l’expérience réelle. Six paramètres (n,m) différents sont mappés sur les six fréquences Solfeggio. Quand l’hexagramme change, les particules migrent vers leur nouvelle position par interpolation, avec une durée proportionnelle à la distance de Hamming entre les deux hexagrammes binaires. EXPÉRIENCE
EXPÉRIENCE La Session D, celle du moteur Chladni, a produit la réaction la plus forte du projet. Les figures étaient belles immédiatement — « MA GNI FIQUE » dans le chat. Mais dans la même phrase, les problèmes d’UX sont apparus : l’animation était en bas de la page alors qu’elle était le cœur visuel, la navigation était confuse avec trois boutons « play » différents, et le layout en longueur ne fonctionnait pas. J’ai aussi découvert un bug que l’IA ne pouvait pas voir : sur 64 hexagrammes possibles, 33 affichaient le même motif visuel parce que la fonction de mapping ne regardait que la première ligne yang. Corrigé, ça a donné 33 patterns distincts — toujours pas 64, mais nettement mieux.
Quand l’IA a échoué — les moments où il faut reprendre la main

Addy Osmani, responsable de l’expérience développeur chez Chrome (Google), a formulé ce qu’il appelle le « problème des 70% » : l’IA produit rapidement 70% du code, mais les 30% restants — edge cases, sécurité, intégration — restent aussi difficiles qu’avant. EXPLORATOIRE
Mon expérience est légèrement différente. Sur le Code Sonore, l’IA a produit plus de 90% du code. Mais les moments où elle a échoué étaient systématiquement les mêmes :
Ce que l’IA fait bien : la structure du code, les algorithmes mathématiques (l’équation de Chladni a été implémentée correctement du premier coup), le CSS, les animations, le câblage d’événements JavaScript.
Ce que l’IA ne peut pas faire : entendre un son. Voir que 33 hexagrammes sur 64 produisent le même motif visuel. Savoir que le layout ne fonctionne pas tant qu’on ne l’a pas vu sur un vrai écran. Décider qu’un automate cellulaire « fait bidouillage » et qu’il vaut mieux le retirer.
EXPÉRIENCE Le pivot le plus important du projet a eu lieu en Session E. Le plan prévoyait un automate cellulaire I-Ching avec une grille 8×8 animée. L’automate fonctionnait techniquement — les règles tournaient, les cellules mutaient. Mais le résultat visuel ressemblait à du bruit. Le voisinage par trigrammes que j’avais imaginé oscillait dans 100% des cas au lieu de converger. J’ai remplacé par un voisinage de Moore calibré (plus classique, mais stable), et j’ai retiré la grille animée de l’interface. À la place : un brin ADN personnalisé avec les codons de Petoukhov, animé en rotation lente. Rigueur plutôt que bidouillage.
C’est ce type de décision que l’IA ne prend pas. Elle aurait continué à itérer sur la grille 8×8 indéfiniment si je ne l’avais pas arrêtée.
Comment organiser un projet IA en sessions quand on a un DAH ?
Le DAH (Différence Attentionnelle et Hyperactivité) est un mode de fonctionnement cérébral qui rend les projets longs particulièrement difficiles à tenir. La mémoire de travail est limitée, le contexte se perd, et le cerveau a une tendance naturelle à sauter d’un sujet à l’autre. En même temps, l’hyperfocus — cette capacité à plonger dans un sujet pendant des heures sans voir le temps passer — est un atout massif quand il se déclenche. Une étude de 2024 montre que 68% des adultes DAH expérimentent un hyperfocus fréquent, déclenché en priorité par les tâches professionnelles (35%) et les activités créatives (25%). FACTUEL
Le fractionnement en sessions courtes avec des livrables clairs est documenté comme efficace pour le DAH. Les études montrent des preuves modérées à fortes pour les techniques de timeboxing, avec des améliorations de performance de 22% pour les employés concernés. FACTUEL
EXPÉRIENCE Mon workflow était simple et rigide. Chaque session avait un prompt amorce structuré : le contexte de la session précédente, la liste des tâches, le fichier de départ, les skills à charger. Entre les sessions, un fichier d’état (`etat_site_courant.md`) servait de mémoire partagée — ce que j’ai fait, ce qui reste à faire, les bugs connus. Le plan complet tenait dans un document de 250 lignes avec un tableau par session.
Le changement de modèle Claude selon la complexité n’était pas du caprice. Sonnet pour le séquenceur et le formulaire (logique directe, bien cadrée). Opus pour le moteur Chladni et l’automate (raisonnement multi-domaine, physique + symbolique + design). Le coût n’est pas le même, donc je calibrais.
Ce qui est intéressant — et que je n’avais pas anticipé — c’est que l’IA a fonctionné comme un body double numérique. Le body doubling, c’est une technique connue pour le DAH : la simple présence d’une autre personne qui travaille à côté aide à maintenir l’attention. Pas besoin qu’elle fasse la même chose. Juste qu’elle soit là. Une étude d’Ara et al. (2025) a montré en VR que les body doubles IA produisent des résultats presque comparables aux body doubles humains pour le maintien de l’attention. EXPLORATOIRE
Avec Claude, le mécanisme est similaire : il y a un « partenaire » qui répond, qui relance, qui structure. Quand mon attention dérive vers un autre sujet (et avec un DAH, c’est fréquent), le prompt amorce de la session me ramène au point exact où j’avais laissé. La mémoire externalisée compense le déficit de mémoire de travail.
Le vibe coding a ses limites — et c’est là que ça devient intéressant
Le terme « vibe coding » inventé par Karpathy décrit l’approche où on accepte tout ce que l’IA propose sans lire le code. L’enquête Stack Overflow 2025 montre que 72% des développeurs professionnels déclarent que le vibe coding ne fait pas partie de leur travail. Et pourtant, 84% utilisent des outils IA au quotidien. FACTUEL
Ce que j’ai fait pendant 8 sessions n’est pas du vibe coding. C’est ce que Simon Willison (créateur de Django) décrit : l’IA écrit le code, mais l’humain a testé, compris les décisions et piloté l’architecture. La distinction est importante parce qu’elle détermine la qualité du résultat.
Le Code Sonore v4 fait environ 1300 lignes de HTML/CSS/JavaScript dans un seul fichier. Il inclut de la synthèse audio WebAudio à 4 couches, un moteur de particules Canvas 2D avec l’équation de Chladni, un automate cellulaire, un brin ADN 3D en Three.js r128, un appel API REST vers un serveur d’éphémérides astronomiques, un séquenceur musical avec crossfade, un drone à 4 fondamentales et un système de carte sonore exportable. EXPÉRIENCE
Est-ce que j’aurais pu construire ça sans IA ? Non. Est-ce que l’IA aurait pu construire ça sans moi ? Non plus. Le son du bol, le choix de retirer la grille 8×8, la décision de mettre le Chladni en haut de la page, le bug des patterns identiques, le système de sessions avec prompts amorce — tout ça vient de l’humain. Le code, les algorithmes, le CSS, les animations — tout ça vient de l’IA.
C’est peut-être ça, finalement, le modèle qui fonctionne : pas l’un ou l’autre, mais l’un et l’autre, chacun dans ce qu’il fait de mieux.
Ce qu’il faut retenir si vous envisagez un projet similaire
Pas de résumé. Juste quelques vérités de terrain après 8 sessions.
L’IA ne remplace pas la compétence métier. Elle remplace le savoir coder. Ce n’est pas du tout la même chose. Si vous ne savez pas ce que vous voulez, l’IA ne le saura pas non plus.
Fractionnez. Des sessions de 2-3 heures avec un livrable clair chacune fonctionnent mieux qu’un marathon de 12 heures. Surtout avec un DAH. Surtout avec une IA qui peut perdre le contexte.
Testez vous-même. Chaque session se terminait par moi qui ouvre le fichier dans un navigateur et qui clique sur tout. Les bugs que j’ai trouvés n’étaient jamais dans le code — ils étaient dans l’expérience. Le son trop cristallin. Le layout inversé. Les patterns identiques.
Documentez l’état entre les sessions. Sans le fichier d’état et les prompts amorce, j’aurais perdu le fil au bout de la troisième session. Le cerveau DAH a besoin de rails — et les rails, c’est vous qui les posez, pas l’IA.
Soyez honnête sur ce qui est symbolique. Le Code Sonore utilise des fréquences Solfeggio qui n’ont aucune origine médiévale (elles datent des années 1970), des correspondances I-Ching/ADN qui sont des analogies mathématiques EXPLORATOIRE et pas des faits biologiques, et des Gene Keys qui sont un cadre symbolique SYMBOLIQUE. L’outil est puissant précisément parce qu’il ne prétend pas être ce qu’il n’est pas. Le pont entre science et symbolique, c’est la transparence.
L’outil est là : un-finity.fr/code-sonore/. Le son est là. Les figures dansent. Et quelque part dans le navigateur, 2000 particules de sable numérique obéissent encore aux mêmes équations que Chladni observait en 1787.
Cet article est le premier du pilier IA & Automatisation d’un-finity.fr. Il documente un projet réel construit avec Claude (Anthropic) entre le 2 et le 5 avril 2026.
Articles liés :
I-Ching, ADN et son : quand trois systèmes à 64 éléments se rencontrent
Écoute ton code — Gene Keys, Solfeggio, cymatique et I-Ching en musique
Quand le cerveau fait des liens que personne ne demande — la pensée en arborescence
