Passer au contenu principal
Statut : Accepté (mars 2026) Contexte : Alors que les capacités des LLM évoluent rapidement, nous avons besoin d’un cadre pour décider où investir nos efforts d’ingénierie et où rester stable.

Décision

Nous classons chaque fonctionnalité selon sa relation avec la progression des LLM et allouons les efforts en conséquence.
CatégorieStratégieInvestissementExemples
OrthogonalL’amélioration des modèles ne diminue pas ces éléments — problèmes purs d’ingénierie/intégrationInvestissement completConnecteurs, identifiants, OAuth, audit, RBAC, sécurité, déploiement
TailwindL’amélioration des modèles rend ces éléments meilleurs, non redondants — relation symbiotiqueInvestir (les bénéfices se composent)Générateur de connecteurs IA (modèle plus intelligent = sortie de connecteur de meilleure qualité)
FigéDéjà livré, fonctionnant bien — mais les modèles absorbent ces capacitésMaintenir uniquement, pas de nouvelles fonctionnalitésBoucle ReAct, planification DAG, pipeline RAG, Mémoire, Génération ancrée
À considérerFournisseurs construisant nativement au niveau de la plateforme — risque élevé de redondanceReporté indéfinimentOrchestration multi-agents, mémoire sémantique, cycle de vie de la mémoire
Règle empirique : Si une fonctionnalité résout « comment rendre le modèle plus intelligent », elle est en cours d’absorption. Si elle résout « comment connecter le modèle au monde réel en toute sécurité », elle est orthogonale.

Analyse

Pourquoi la plateforme de connecteurs est complètement orthogonale

Les modèles ne feront jamais nativement :
  • Stocker et chiffrer les identifiants API (AES-GCM)
  • Gérer les flux OAuth (page d’autorisation → rappel → jeton d’actualisation)
  • Se connecter à la base de données ERP Kingdee/金蝶 d’un client
  • Envoyer des notifications à Lark/飞书 ou WeCom/企微
  • Appliquer le RBAC pour contrôler qui peut utiliser quel connecteur
  • Enregistrer chaque appel d’outil à des fins d’audit de conformité
Ce sont des problèmes d’ingénierie, pas des problèmes d’intelligence. Un modèle 10 fois plus intelligent ne peut toujours pas faire ces choses sans infrastructure.

Pourquoi le Générateur de Connecteur IA est « en croissance » et non « en cours d’absorption »

Le Générateur d’Agent utilise l’intelligence du modèle pour créer des entités de Connecteur gérées et persistantes — stockées en base de données, réutilisables entre agents, avec gestion des identifiants et pistes d’audit. La compréhension croissante des API du modèle fait que le Générateur produit des meilleurs connecteurs, et non que le Générateur devienne inutile. Analogie : Cursor utilise Claude pour écrire du code. Claude devenant plus intelligent rend Cursor meilleur, non redondant, car Cursor fournit une valeur d’ingénierie (gestion de projet, organisation des fichiers, contrôle de version) que le modèle ne remplace pas.

Pourquoi les fonctionnalités v0.1–v0.5 sont « gelées »

FonctionnalitéCe qui se passe dans l’industrie
Boucle ReActLes modèles ont l’appel d’outils natif (OpenAI, Anthropic). La boucle de raisonnement externe ajoute moins de valeur à mesure que les modèles l’internalisent.
Planification DAGLes capacités de raisonnement des modèles s’améliorent rapidement. La décomposition de tâches complexes qui nécessitait des planificateurs externes devient une capacité en une seule étape.
Gestion de la mémoireLes fenêtres de contexte augmentent rapidement (Gemini 2M+, Claude 200K+). Le besoin de gestion externe des fenêtres, de résumé et de compaction diminue.
Pipeline RAGLes fournisseurs intègrent la récupération dans leurs plateformes (OpenAI file_search, Google NotebookLM, Gemini Search Grounding). Pour les connaissances publiques, le pipeline traditionnel chunk-embed-retrieve est remplacé.
Génération ancréeLes modèles s’améliorent pour citer les sources nativement. Le pipeline de grounding en 5 étapes que nous avons construit ajoute une valeur décroissante.
Ces fonctionnalités ne sont pas mauvaises — elles ont été livrées, elles fonctionnent, elles rendent le produit fonctionnel aujourd’hui. La décision est simplement d’arrêter de les améliorer et de rediriger les efforts.

Pourquoi l’orchestration multi-agents a été reportée

Les fournisseurs de LLM construisent l’orchestration nativement :
  • OpenAI Swarm : Framework multi-agents avec protocoles de transfert
  • Anthropic Claude Code Teams : Pools d’agents Leader/Worker avec graphes de tâches
  • Google A2A (Agent-to-Agent) : Protocole de communication inter-agents
Construire une couche d’orchestration concurrente signifierait faire la course contre des implémentations propriétaires avec une intégration de modèle plus profonde. Ce n’est pas un différenciateur durable.

Pourquoi la mémoire sémantique et le cycle de vie de la mémoire ont été reportés

  • Les fenêtres de contexte augmentent rapidement, réduisant le besoin de récupération de mémoire entre sessions
  • Les fournisseurs ajoutent des fonctionnalités de mémoire natives (ChatGPT Memory, Claude Projects)
  • Le coût d’ingénierie de la construction d’un système de mémoire fiable (TTL, notation d’importance, récupération sémantique) est élevé par rapport à l’écart décroissant qu’il comble

Classification au niveau des fonctionnalités

Orthogonal (v0.6+)

FonctionnalitéVersionPourquoi orthogonal
Entité connecteur + CRUDv0.6.1Intégration d’entreprise, ingénierie pure
Identifiants par utilisateur (AES-GCM)v0.6.2Infrastructure de sécurité
Porte de confirmationv0.6.2Mécanisme de sécurité pour les opérations d’écriture
Export/Import/Fork de connecteurv0.7Mécanisme de distribution
OAuth 2.0v0.7Implémentation de protocole
Export de serveur MCPv0.7Interopérabilité (dépend de l’adoption de MCP)
Connecteur de base de donnéesv0.8Accès direct à la base de données, pools de connexion
Notification Pushv0.8Canaux de notification
RBACv0.8Contrôle d’accès, gouvernance
Journal d’audit des opérationsv0.8Conformité
Renforcement du bac à sablev0.9Isolation de sécurité
Observabilité (OTel, disjoncteur)v0.9Opérations de production
Analytique des connecteursv0.9Suivi d’utilisation
Docker Composev0.9Déploiement
Tableau de bord administrateurv1.0Interface de gestion
Tâches planifiées / Webhooksv1.0Déclencheurs d’automatisation
Exécution par lotv1.0Traitement à l’échelle de l’entreprise
Widget intégrable / iframev1.0Mode de livraison
Sécurité d’entreprisev1.0Conformité (chiffrement, liste blanche IP)

Tailwind

FonctionnalitéVersionRelation
Générateur de connecteur IAv0.6.3Modèles plus intelligents → meilleure sortie du générateur
Génération de connecteur IA (OpenAPI)v1.0Identique — les modèles comprennent mieux les spécifications API → génération automatique plus précise

Gelé (livré, maintenance uniquement)

FonctionnalitéVersionStatut
Agent ReActv0.1Livré, fonctionnel
Planification / Re-planification DAGv0.1, v0.5Livré, fonctionnel
Mémoire (Fenêtre, Résumé, Compact)v0.2, v0.5Livré, fonctionnel
Pipeline RAG (embedding, magasin vectoriel, chunking, récupération hybride)v0.5Livré, fonctionnel
Génération ancréev0.5Livré, fonctionnel
ContextGuard / Messages épinglésv0.5Livré, fonctionnel

À considérer (reporté indéfiniment)

FonctionnalitéVersion d’origineRaison du report
Orchestration multi-agentsv1.0Les fournisseurs construisent nativement
Magasin de mémoire sémantiqueBacklogLes fenêtres de contexte augmentent ; les fournisseurs ajoutent la mémoire native
Cycle de vie de la mémoireBacklogMême raison que ci-dessus

Implications

  1. Ne pas revenir aux fonctionnalités de v0.5. Les corrections de bugs oui, les nouvelles capacités non.
  2. La plateforme de connecteurs est l’investissement principal. Les versions v0.6–v0.8 doivent recevoir la majorité du temps d’ingénierie.
  3. L’ingénierie d’entreprise (RBAC, audit, sécurité, déploiement) est l’avantage concurrentiel. Ce sont des domaines peu attrayants mais défendables.
  4. Réévaluer annuellement. Si les progrès des modèles stagnent ou qu’une fonctionnalité « gelée » s’avère avoir encore des lacunes importantes, reconsidérer.