Simon Paris
Je conçois des systèmes d'IA qui ne lâchent pas.
La plupart des systèmes LLM en production aujourd'hui sont des prototypes ingénieux rafistolés en production. Ils fonctionnent en démo. Ils tombent en panne de manières impossibles à reproduire. Les post-mortems se terminent par « le modèle a fait quelque chose d'étrange. »
J'ai grandi dans les systèmes backend — ceux où les pannes ont des conséquences. Quand les équipes ont commencé à me faire participer aux projets GenAI, j'ai constamment vu le même écart : des ingénieurs traitant les LLMs comme des fonctions déterministes, puis étonnés quand ce n'était pas le cas. Le cadre STATE est né de cet écart.

L'état bat l'intelligence.
Un modèle intermédiaire avec une gestion d'état appropriée surpasse un modèle frontier fonctionnant sans état — à chaque fois. Le modèle n'est pas votre problème de fiabilité. L'architecture qui l'entoure l'est.
Ce n'est pas une philosophie. C'est un ensemble de contraintes — pour les systèmes d'IA qui doivent fonctionner dans des contextes réglementés, critiques pour les revenus et orientés utilisateur où « ça marche généralement » n'est pas un standard de livraison.
Cinq piliers. Zéro ambiguïté.
Chaque opération initialise un objet d'état typé. La scène reflète toujours la position d'exécution actuelle.
Chaque appel LLM, appel API et transition de scène est journalisé avec tous les champs requis. Aucune boîte noire.
Toute décision automatisée affectant un individu comporte un dossier de décision. Conformité Loi 25, OSFI et IA Act de l'UE par construction.
Le flux de travail reprend à l'étape 6 après une panne à l'étape 6. Pas depuis l'étape 1. L'idempotence n'est pas optionnelle.
Chaque sortie LLM passe une porte de validation avant toute écriture. Sortie invalide → chemin d'erreur. Jamais de continuation silencieuse.
Cinq angles. Une colonne vertébrale.
L'état bat l'intelligence.Nommer et classer les modes de défaillance LLM avec précision. Ce sont toujours des défaillances d'état déguisées.
Démonstrations des piliers STATE dans des décisions d'architecture réelles. Comparaisons avant/après.
Motifs de conception qui rendent les systèmes d'IA tolérants par construction. Portes de validation, verrous, idempotence.
Comment j'utilise l'IA pour faire ce que la plupart des gens font manuellement — y compris déterminer quoi demander.
Loi 25 du Québec, OSFI, IA Act de l'UE comme exigences d'architecture, pas des cases à cocher de conformité.
Quatre façons d'entrer.
Notes du terrain.
Taxonomies de défaillances, motifs défensifs et décisions d'architecture pour les systèmes LLM qui doivent fonctionner. Pas de contenu tutoriel. Praticiens seulement.
Lire le blogue →Score de préparation STATE.
Évaluez votre système LLM sur les cinq piliers STATE. Prend 8 minutes. Vous indique exactement où votre architecture est exposée.
Évaluer mon système →No Stack Trace.
Une session en direct sur pourquoi les systèmes LLM échouent en production et comment construire la couche d'observabilité pour le découvrir. Pas de théorie uniquement sur diapositives.
S'inscrire gratuitement →Architecture LLM de niveau production.
Un programme de cohorte pratique. Vous construisez un système LLM avec état, observable et auditables de zéro. Conçu pour les équipes déjà en production.
Postuler à la cohorte →Commencer par le diagnostic.
Si vous faites tourner des pipelines LLM en production et que quelque chose semble anormal — c'est probablement le cas. Le Score STATE vous indique quoi corriger en premier.