Extension VS Code

WhytCard

Beyond the Code

We Architect your Dreams

Une methodologie qui transforme les agents IA en partenaires fiables grace a une memoire persistante, des regles zero hallucination et un apprentissage continu.

Le Probleme avec les Agents IA

Chaque developpeur utilisant des assistants IA fait face aux memes frustrations.

Amnesie Contextuelle

Nouvelle conversation = l'IA oublie tout de votre projet. Vous re-expliquez votre stack, decisions et contraintes a chaque fois.

Hallucinations

L'IA invente des APIs inexistantes, utilise des patterns deprecies, ou devine au lieu de verifier la documentation.

Erreurs Repetees

Memes bugs, memes corrections. L'IA n'apprend pas des erreurs passees et tombe dans les memes pieges.

La Methodologie WhytBrain

Un workflow strict qui assure la fiabilite de l'IA via des connaissances verifiees.

REGLE OBLIGATOIRE : Ne jamais ecrire de code sans consulter la base de connaissances d'abord.

1. Consulter Brain

Avant TOUTE action, appeler brainConsult pour charger les instructions et chercher la documentation.

brainConsult({ query: 'next.js app router' })

2. Verifier ou Importer

Si la documentation manque, la recuperer des sources officielles et la sauvegarder avec brainSave.

brainSave({ library: 'nextjs', title: '...', url: '...' })

3. Implementer avec Contexte

Seulement alors ecrire du code, en suivant les instructions chargees et evitant les pieges connus.

4. Capturer les Connaissances

Enregistrer les bugs resolus avec brainBug, les resumes de session avec brainSession. La base grandit.

brainBug({ symptom: 'TypeError...', solution: '...' })

Les 5 Outils MCP

WhytBrain expose 5 outils via Model Context Protocol pour Windsurf, Cursor et autres IDE IA.

brainConsultAPPELER EN PREMIER

Charger instructions + chercher docs + verifier pieges. C'est l'etape obligatoire avant toute tache.

brainSearch

Chercher dans la base par categorie : instructions, documentation ou docs specifiques au projet.

brainSave

Stocker une nouvelle documentation avec URL source. Requiert une URL valide pour la tracabilite.

brainBug

Enregistrer un symptome d'erreur et sa solution. L'IA apprend a eviter ce piege a l'avenir.

brainSession

Logger un resume de session avec decisions et prochaines etapes. Permet la recuperation de contexte.

L'Orchestrateur

Quand vous utilisez @brain dans VS Code, l'orchestrateur enrichit votre prompt automatiquement.

Detecter l'Etat Agent

Nouvelle conversation ? Gap de 30+ min ? Indicateurs de perte de contexte ? -> Injecter le snapshot projet complet.

Selectionner Instructions

Matching mots-cles + priorite + score d'efficacite -> Top 5 directives les plus pertinentes.

Chercher Connaissances

Trouver docs et pieges pertinents. Alerter si documentation manquante pour les librairies detectees.

Construire Prompt Enrichi

Combiner : Instructions + Contexte Projet + Docs + Pieges + Requete Utilisateur.

Mettre a Jour Feedback

Tracker l'efficacite des instructions, detecter nouveaux pieges, ameliorer qualite du contexte.

@brainpuisPrompt Enrichi

## INSTRUCTIONS A SUIVRE

+ TypeScript strict mode, ESLint 0 warnings...

## CONTEXTE PROJET

+ Stack: Next.js + TypeScript + Tailwind...

## PIEGES CONNUS

+ Eviter les styles inline, utiliser Tailwind...

4 Boucles de Feedback

WhytBrain s'ameliore continuellement via l'apprentissage automatique.

Efficacite des Instructions

Suit quelles instructions menent a des resultats reussis. Les instructions peu performantes sont retrogradees.

Pertinence Documentation

Monitore l'usage des docs. Les docs non utilisees sont archivees. Les docs frequentes ont plus de priorite.

Detection de Pieges

Cree automatiquement des entrees quand l'IA resout une erreur. Ne jamais repeter le meme bug.

Qualite du Contexte

Quand la recuperation de contexte echoue, enrichit le snapshot projet avec plus de details.

Plus vous utilisez WhytBrain, plus il devient intelligent.

Adoptez la Methodologie

Installez WhytBrain et imposez un developpement IA zero-hallucination.

100%

Stockage Local

<500ms

Temps de Reponse

Infini

Memoire Contexte

Compatible Avec

Groq Cloud~500ms
Ollama Local100% Prive

Disponible comme serveur MCP pour Windsurf/Cursor/Claude