Darkwood Blog Blog
  • Articles
fr
  • de
  • en
Connexion
  • Blog
  • Articles

🐳 AI Tinkerers Paris Agentic Workflows avec Docker - vers des systĂšmes autonomes, sĂ©curisĂ©s et orchestrĂ©s

le 22 avril 2026

Lors de ce meetup organisé par GitGuardian et sponsorisé par Docker, plusieurs intervenants ont partagé leur vision des systÚmes agentiques modernes.

L’objectif est clair : passer de simples assistants IA Ă  de vĂ©ritables agents autonomes capables d’agir, collaborer et s’exĂ©cuter en production.

đŸŽ€ Introduction - SĂ©curitĂ© & contexte (GitGuardian)

La soirĂ©e s’ouvre dans les locaux parisiens de GitGuardian, qui rappelle un point souvent sous-estimĂ© dans les discussions autour des agents IA : avant mĂȘme de parler d’autonomie, il faut parler de sĂ©curitĂ© des accĂšs.

Le message est simple. Les secrets sont partout : API keys, JWT, tokens, credentials, ou toute information capable d’ouvrir un accĂšs Ă  une ressource, un service ou une infrastructure. Dans un contexte oĂč les agents interagissent de plus en plus avec du code, des dĂ©pĂŽts, des outils collaboratifs ou des systĂšmes connectĂ©s, la dĂ©tection et le contrĂŽle de ces secrets deviennent une couche critique.

GitGuardian se positionne prĂ©cisĂ©ment sur ce terrain : aider les dĂ©veloppeurs, Ă©quipes sĂ©curitĂ© et profils infra Ă  identifier les secrets exposĂ©s dans leurs environnements, qu’il s’agisse de dĂ©pĂŽts Git, de plateformes collaboratives comme Slack ou d’autres surfaces oĂč des informations sensibles peuvent fuiter.

Un autre signal intĂ©ressant ressort de cette introduction : la sĂ©curitĂ© des agents n’est plus un sujet thĂ©orique. Elle devient un besoin concret du marchĂ©, au point d’accompagner une phase de croissance active chez GitGuardian, qui indique recruter sur plusieurs profils, notamment des software engineers et des AI engineers.

👉 Point clĂ© :

Les agents ne doivent jamais exposer des secrets sensibles sans contrĂŽle strict.

đŸ„œ Speakers

La qualitĂ© de cette soirĂ©e tient aussi Ă  son casting. PlutĂŽt que d’aligner des profils purement thĂ©oriques, l’évĂ©nement rĂ©unissait des intervenants directement impliquĂ©s dans la construction d’outils, de runtimes et d’infrastructures liĂ©s aux workflows agentiques.

Sébastien Blanc - rendre les agents réellement déployables

SĂ©bastien Blanc, Technical Director chez Sciam, a prĂ©sentĂ© SAIL: Serverless Agentic Containers, une approche orientĂ©e exĂ©cution distribuĂ©e, oĂč les agents ne sont plus pensĂ©s comme de simples assistants locaux, mais comme des workloads capables de vivre dans un environnement serverless. Son intervention prolonge naturellement les discussions sur Kubernetes, Knative et les architectures orientĂ©es Ă©vĂ©nements, avec une question de fond : comment construire des systĂšmes agentiques robustes, scalables et Ă©conomes en ressources ?

Philippe CharriĂšre - explorer les limites et le potentiel des tiny LLMs

Philippe CharriĂšre, Principal Solutions Architect chez Docker, a proposĂ© une session intitulĂ©e Compose and Dragons: Tiny LLMs, sans doute l’une des plus expĂ©rimentales de la soirĂ©e. Son angle est particuliĂšrement intĂ©ressant : montrer que les petits modĂšles locaux ne sont pas seulement des curiositĂ©s techniques, mais qu’ils peuvent servir de base Ă  des systĂšmes multi-agents, Ă  condition d’accepter leurs contraintes de mĂ©moire, de performance et d’orchestration. Son travail met en lumiĂšre un futur possible oĂč les agents ne reposent pas uniquement sur des modĂšles gĂ©ants distants, mais aussi sur des briques locales, spĂ©cialisĂ©es et composables.

David Gageot - simplifier la crĂ©ation d’agents

David Gageot, Senior Principal Software Engineer chez Docker, est intervenu sur Docker Agent: No-Code AI Agents. Son propos s’inscrit dans une logique de simplification radicale : rĂ©duire la friction entre l’idĂ©e d’un agent et sa mise en Ɠuvre concrĂšte. L’intĂ©rĂȘt de son intervention ne rĂ©side pas seulement dans le “no-code”, mais dans la capacitĂ© Ă  rendre les agents plus accessibles, plus dĂ©claratifs, et plus faciles Ă  intĂ©grer dans des workflows rĂ©els.

Guillaume Lours - sĂ©curiser l’autonomie

Guillaume Lours, Staff Software Engineer chez Docker, a prĂ©sentĂ© Docker Sandboxes, probablement l’un des sujets les plus stratĂ©giques de la soirĂ©e. LĂ  oĂč beaucoup de discussions autour des agents se concentrent sur les modĂšles ou les prompts, son intervention remet le runtime au centre : si un agent doit agir, il doit ĂȘtre isolĂ©, observable et gouvernable. Les sandboxes Docker apportent ici une rĂ©ponse trĂšs concrĂšte aux questions d’exĂ©cution sĂ©curisĂ©e, de permissions rĂ©seau, de secrets et de contrĂŽle des accĂšs.

Djordje Lukic - penser l’agent comme un systùme, pas comme un gadget

Djordje Lukic, Principal Software Engineer chez Docker, partage avec David Gageot la prĂ©sentation autour de Docker Agent. Son apport est important dans la mesure oĂč il ancre le sujet dans une rĂ©flexion plus large sur les frameworks agentiques. DerriĂšre la promesse d’agents “simples Ă  crĂ©er”, il y a une ambition plus structurelle : fournir un cadre oĂč modĂšles, outils, instructions et orchestration peuvent ĂȘtre assemblĂ©s proprement, avec une vraie logique d’ingĂ©nierie derriĂšre.

🧠 David Gageot - Djordje Lukic - Docker Agents - de l’assistant au vĂ©ritable runtime agentique

La sĂ©quence Docker s’ouvre avec Georgi et son Ă©quipe, qui prĂ©sentent Docker Agent non pas comme un simple assistant de plus, mais comme ce qu’ils appellent eux-mĂȘmes un “Swiss Army Knife” des frameworks agentiques. L’idĂ©e est assez claire : sortir de l’usage ponctuel du modĂšle pour entrer dans une logique oĂč l’IA devient un composant d’exĂ©cution Ă  part entiĂšre. Leur point de dĂ©part n’est pas thĂ©orique. Ils expliquent que Docker travaille sur ces sujets depuis prĂšs de deux ans, notamment autour de Gordon, l’assistant intĂ©grĂ© Ă  Docker Desktop, et que Docker Agents est dĂ©sormais utilisĂ© en interne pour construire et faire Ă©voluer ses propres outils.

Ce qui ressort immĂ©diatement, c’est la volontĂ© de rendre les agents configurables, composables et exploitables en conditions rĂ©elles. Docker Agents peut se connecter Ă  diffĂ©rents modĂšles, locaux ou distants, s’intĂ©grer Ă  divers outils, et surtout ĂȘtre dĂ©crit de maniĂšre trĂšs lĂ©gĂšre, en YAML, sans devoir systĂ©matiquement passer par une implĂ©mentation complexe. C’est l’un des messages les plus forts de la dĂ©mo : l’entrĂ©e dans l’agentique ne commence pas forcĂ©ment par un SDK lourd ou une architecture distribuĂ©e, mais parfois par une simple dĂ©finition dĂ©clarative suffisamment claire pour produire un comportement utile.

La premiĂšre dĂ©monstration joue volontairement sur quelque chose d’absurde - un agent pirate - pour montrer Ă  quel point la barriĂšre d’entrĂ©e est basse. Avec un modĂšle et une instruction, l’équipe obtient dĂ©jĂ  un agent exploitable. La dĂ©monstration est lĂ©gĂšre, presque moqueuse, mais le sous-texte est important : un agent n’a pas besoin d’une Ă©norme infrastructure pour exister ; il a surtout besoin d’un cadre d’exĂ©cution clair. À partir de lĂ , Docker peut le faire Ă©voluer vers quelque chose de beaucoup plus sĂ©rieux.

C’est prĂ©cisĂ©ment ce qui arrive avec la seconde partie, beaucoup plus convaincante techniquement. L’équipe montre comment brancher une API existante Ă  un agent Ă  partir de sa dĂ©finition OpenAPI. Dans leur exemple, il s’agit d’une API PokĂ©mon - utilisĂ©e comme substitut volontairement ludique d’une API mĂ©tier plus classique - mais le message est limpide : dans un environnement d’entreprise, il serait possible de reprendre exactement le mĂȘme mĂ©canisme pour brancher des services internes, des bases de connaissance ou des outils spĂ©cialisĂ©s. L’OpenAPI spec est transformĂ©e en ensemble de tools, et l’agent peut alors interroger le systĂšme sans que l’utilisateur ait lui-mĂȘme Ă  manipuler directement les endpoints. Ce n’est plus l’humain qui navigue dans l’API : c’est l’agent qui se charge de la mĂ©diation.

La dĂ©mo souligne aussi un point d’architecture souvent sous-estimĂ© : la question n’est pas seulement de donner des tools Ă  un agent, mais de lui donner les bons tools. Lors des Ă©changes avec la salle, l’équipe reconnaĂźt qu’un agent surchargĂ© devient vite inefficace. MĂȘme si une spec OpenAPI peut exposer des dizaines voire une centaine d’outils, il est prĂ©fĂ©rable de filtrer fortement et de n’en garder qu’un sous-ensemble cohĂ©rent avec la tĂąche. L’idĂ©e importante ici n’est pas “plus d’outils = meilleur agent”, mais presque l’inverse : un agent spĂ©cialisĂ© fonctionne mieux avec un pĂ©rimĂštre rĂ©duit, lisible et intentionnel.

La partie la plus intĂ©ressante arrive ensuite avec les usages plus avancĂ©s. Docker Agents ne se limite pas Ă  une logique mono-agent pilotant quelques appels d’API. L’équipe montre un systĂšme Ă  plusieurs niveaux, avec un agent principal, des commandes dĂ©diĂ©es, puis des sub-agents ayant chacun leur propre rĂŽle, leurs instructions, leur modĂšle et Ă©ventuellement leurs propres outils. Le quiz interactif et la simulation de combat PokĂ©mon servent surtout Ă  illustrer une idĂ©e plus gĂ©nĂ©rale : l’agentique utile repose moins sur un “super-agent” unique que sur une orchestration de responsabilitĂ©s bien sĂ©parĂ©es. Le root agent coordonne, les sous-agents exĂ©cutent, et chacun opĂšre dans un contexte mieux dĂ©fini.

Les rĂ©ponses apportĂ©es pendant les questions renforcent ce point. Docker distingue notamment deux formes d’interactions inter-agents : d’un cĂŽtĂ© les sub-agents, qui reçoivent une tĂąche avec un contexte neuf ; de l’autre les mĂ©canismes de handoff, oĂč la conversation peut basculer d’un agent Ă  un autre. L’équipe Ă©voque Ă©galement la possibilitĂ© de partager certains outils de mĂ©moire ou de to-do entre plusieurs agents. LĂ  encore, on retrouve une idĂ©e structurante : l’agentique devient intĂ©ressante quand elle cesse d’ĂȘtre uniquement conversationnelle pour devenir organisationnelle. On ne demande plus seulement Ă  un modĂšle de rĂ©pondre ; on distribue du travail entre plusieurs entitĂ©s spĂ©cialisĂ©es.

🔐 Guillaume Lours - Docker Sandboxes - donner de l’autonomie sans abandonner le contrîle

La seconde partie complĂšte parfaitement la premiĂšre. AprĂšs avoir montrĂ© comment construire des agents, l’équipe Docker pose la vraie question : oĂč et comment les laisser agir ? C’est lĂ  qu’intervient la dĂ©monstration autour de Docker Sandboxes. Le constat de dĂ©part est trĂšs concret : tant qu’un agent doit lire des fichiers, installer des dĂ©pendances, lancer des commandes ou accĂ©der au rĂ©seau, il devient impossible de le faire travailler sĂ©rieusement directement sur la machine hĂŽte sans accepter un niveau de risque trop Ă©levĂ©. L’intervenant le dit de maniĂšre trĂšs directe : il n’est pas question de donner ce niveau d’accĂšs Ă  un agent sur son laptop.

La rĂ©ponse proposĂ©e par Docker est un environnement d’exĂ©cution isolĂ© sous forme de micro-VM, contenant son propre moteur Docker, dans laquelle vient tourner un conteneur hĂ©bergeant l’agent. C’est un changement de perspective important. Le problĂšme n’est pas seulement de “restreindre” l’agent, mais de crĂ©er un cadre oĂč l’on peut au contraire lui donner davantage d’autonomie, tout en conservant la capacitĂ© d’observer, de filtrer et d’interrompre ses actions. L’objectif n’est donc pas de rendre l’agent inoffensif en le bloquant partout, mais de lui donner assez de libertĂ© pour travailler rĂ©ellement, dans des limites explicites.

La dĂ©monstration est parlante : dans un projet web simple, l’agent peut installer seul les dĂ©pendances nĂ©cessaires, lancer des commandes de build ou exĂ©cuter des tests, y compris quand cela implique des opĂ©rations que l’on n’accepterait pas volontiers sur sa machine personnelle. Le point fort n’est pas seulement l’isolation technique ; c’est aussi la visibilitĂ©. Les sandboxes exposent une interface permettant de lister les environnements en cours, d’inspecter les processus actifs, d’observer le trafic rĂ©seau gĂ©nĂ©rĂ© par l’agent et, plus largement, de comprendre ce qu’il est rĂ©ellement en train de faire. On ne dĂ©lĂšgue donc pas Ă  l’aveugle : on dĂ©lĂšgue dans un espace instrumentĂ©.

La gestion rĂ©seau est probablement l’aspect le plus convaincant de cette partie. Docker montre plusieurs modes de politiques rĂ©seau, allant du refus total Ă  l’ouverture beaucoup plus permissive, avec une option intermĂ©diaire Ă©quilibrĂ©e. Surtout, l’intĂ©rĂȘt ne rĂ©side pas tant dans le nom des modes que dans la granularitĂ© qu’ils permettent ensuite. Un accĂšs bloquĂ© peut ĂȘtre visualisĂ© dans les logs rĂ©seau du sandbox, puis explicitement autorisĂ©. Cela transforme le comportement rĂ©seau de l’agent en politique observable et rĂ©glable, et non en permission globale accordĂ©e une fois pour toutes. Autrement dit : l’accĂšs au web ou Ă  un domaine prĂ©cis ne relĂšve plus d’une confiance implicite, mais d’une dĂ©cision explicite.

La mĂȘme logique est appliquĂ©e aux secrets. LĂ  aussi, Docker prend un parti intĂ©ressant : les secrets ne sont pas simplement “visibles” dans l’environnement de l’agent comme ils le seraient sur une machine mal configurĂ©e. Ils sont injectĂ©s au moment de la crĂ©ation du sandbox, avec une portĂ©e globale ou spĂ©cifique selon le besoin. Ce dĂ©tail a une vraie importance en production : cela signifie qu’un agent ne doit pas hĂ©riter par dĂ©faut de tout ce qui traĂźne sur la machine de dĂ©veloppement. Il n’opĂšre qu’avec ce qui lui a Ă©tĂ© fourni dans son environnement contrĂŽlĂ©. En pratique, cela fait des secrets une ressource explicitement provisionnĂ©e, et non un effet de bord de la session de l’utilisateur.

La dĂ©mo sur l’exposition de ports va dans le mĂȘme sens. Une application peut tourner dans le sandbox sans ĂȘtre immĂ©diatement visible depuis l’extĂ©rieur. Si l’on veut y accĂ©der, il faut publier le port concernĂ© ; si on le retire, l’application continue d’exister dans son environnement isolĂ©, mais redevient inaccessible depuis l’extĂ©rieur. LĂ  encore, Docker montre une sĂ©paration nette entre exĂ©cution et exposition, ce qui est exactement ce qui manque dans beaucoup de dĂ©mos agentiques trop rapides.

Enfin, la dĂ©monstration se termine sur un cas particuliĂšrement intĂ©ressant pour les workflows modernes : plusieurs agents travaillant sur le mĂȘme code source, mais sans se gĂȘner mutuellement. L’approche proposĂ©e repose sur la crĂ©ation automatique de branches ou de worktrees sĂ©parĂ©s, de sorte que chaque agent puisse opĂ©rer dans son propre espace de travail. Cette partie est importante, car elle montre que Docker ne pense pas seulement l’agent comme un assistant individuel, mais aussi comme un acteur parallĂšle dans un flux de dĂ©veloppement collaboratif. L’agent n’est plus seulement lĂ  pour rĂ©pondre, mais pour prendre en charge une partie du travail dans un espace contrĂŽlĂ©, isolĂ© et potentiellement concurrent.

La conclusion implicite de cette séquence est sans doute la plus utile de toute la soirée :

le vrai sujet n’est pas d’empĂȘcher les agents d’agir, mais de construire l’environnement dans lequel ils peuvent agir correctement.

Autrement dit, l’autonomie utile ne naĂźt pas de la confiance aveugle, mais d’un runtime bien conçu : isolation, politiques rĂ©seau fines, injection maĂźtrisĂ©e des secrets, observabilitĂ© et sĂ©paration des espaces de travail. C’est probablement lĂ  que cette proposition Docker devient la plus intĂ©ressante pour des stacks comme Darkwood, Flow ou toute architecture cherchant Ă  faire passer les agents du stade “dĂ©mo” au stade “systĂšme”.

🧠 Philippe CharriĂšre - les modĂšles locaux, entre promesse et pression mĂ©moire

Avec la prĂ©sentation de Philippe CharriĂšre, la soirĂ©e quitte un instant la question du framework agentique pour revenir Ă  quelque chose de beaucoup plus concret : ce que coĂ»te rĂ©ellement l’exĂ©cution locale d’un modĂšle. Son intervention a le mĂ©rite de ramener le sujet au niveau de la machine, de la RAM et des compromis techniques. DerriĂšre l’enthousiasme autour des “small models”, son constat est simple : oui, les modĂšles locaux sont intĂ©ressants, mais dĂšs qu’on veut faire plus qu’une dĂ©mo minimale, la contrainte dominante redevient immĂ©diatement celle des ressources, en particulier sur Mac.

Le point de friction principal, dans son retour d’expĂ©rience, n’est pas tant Docker lui-mĂȘme que la pression mĂ©moire gĂ©nĂ©rĂ©e par les modĂšles. Sur sa machine - un MacBook Pro M2 Max avec 32 Go de RAM - un modĂšle peut sembler “tenir” en thĂ©orie, puis devenir inutilisable en pratique dĂšs qu’on commence rĂ©ellement Ă  l’interroger. Philippe insiste sur un dĂ©tail important : une estimation de compatibilitĂ© n’est pas toujours une garantie d’usage confortable. Un modĂšle peut dĂ©marrer, rĂ©pondre une fois, puis dĂ©grader trĂšs vite la machine dĂšs que la charge augmente. Et si l’on ajoute un second modĂšle diffĂ©rent, ou simplement davantage de requĂȘtes, la situation se dĂ©tĂ©riore encore plus vite. Son retour terrain est presque brutal dans sa simplicitĂ© : pendant longtemps, ce qu’il prenait pour un problĂšme Docker Ă©tait en rĂ©alitĂ© un problĂšme de mĂ©moire.

Sa dĂ©monstration repose sur une stack relativement claire : Docker Model Runner, Docker Compose, et un ensemble de modĂšles locaux utilisĂ©s comme briques d’un systĂšme plus large. Lors des Ă©changes avec la salle, il prĂ©cise que Docker Model Runner s’appuie aujourd’hui sur des moteurs comme llama.cpp et vLLM, avec une ouverture possible vers MLX Ă  l’avenir. Il distingue aussi assez nettement les contextes d’usage : vLLM paraĂźt mieux adaptĂ© Ă  la production, tandis que llama.cpp reste plus pertinent pour des usages locaux ou d’expĂ©rimentation. LĂ  encore, l’idĂ©e importante n’est pas de sacraliser un backend unique, mais de reconnaĂźtre que le runtime des modĂšles est lui-mĂȘme un sujet d’architecture.

Mais l’intervention ne se limite pas Ă  un simple avertissement sur la RAM. Philippe montre aussi ce que l’on peut construire malgrĂ© ces contraintes, Ă  condition d’accepter de travailler avec des modĂšles petits, spĂ©cialisĂ©s et locaux. Son exemple prend la forme d’un projet de jeu en mode texte, une sorte de dungeon crawler orchestrĂ© par plusieurs composants. Ce choix peut sembler ludique, mais il sert surtout Ă  exposer une architecture intĂ©ressante : un serveur MCP pour gĂ©rer le donjon, les salles, les monstres et les rĂšgles ; un Dungeon Master comme agent principal ; plusieurs NPC agents exposant leur propre API ; et un boss final qui fonctionne lui aussi comme une entitĂ© autonome Ă  part entiĂšre. On n’est plus ici dans une simple dĂ©mo de prompting, mais dans une tentative de simulation multi-composants, oĂč chaque rĂŽle dispose de son propre pĂ©rimĂštre d’action.

Ce qui rend cette partie particuliĂšrement utile, c’est qu’elle montre que les modĂšles locaux ne sont pas seulement un sujet de coĂ»t ou de souverainetĂ©. Ils impliquent une maniĂšre diffĂ©rente de penser le systĂšme. Philippe explique par exemple qu’il rĂ©utilise le mĂȘme modĂšle pour plusieurs agents afin d’éviter d’exploser la mĂ©moire, plutĂŽt que de multiplier les instances hĂ©tĂ©rogĂšnes. Cette approche est importante : dans un environnement contraint, le bon design ne consiste pas forcĂ©ment Ă  choisir le meilleur modĂšle pour chaque agent, mais parfois Ă  concevoir l’ensemble du workflow autour d’un compromis matĂ©riel acceptable. Le systĂšme doit alors ĂȘtre pensĂ© en fonction de la machine disponible, pas seulement de l’idĂ©al fonctionnel.

Son projet “Compose and Dragons” illustre bien cette logique. La carte du donjon est gĂ©nĂ©rĂ©e Ă  l’avance, d’autres composants enrichissent ensuite l’expĂ©rience avec des descriptions, des NPCs et des interactions. Tout cela repose sur une orchestration combinant modĂšles locaux, services Docker et agents spĂ©cialisĂ©s. Ce n’est pas encore une dĂ©monstration de robustesse industrielle, mais c’est une preuve de faisabilitĂ© intĂ©ressante : mĂȘme avec des ressources limitĂ©es, il est possible de faire Ă©merger un systĂšme autonome relativement riche, Ă  condition d’accepter ses limites de latence, de mĂ©moire et de complexitĂ©. Philippe le dit d’ailleurs sans dĂ©tour pendant la dĂ©mo : sur petits modĂšles, certaines interactions restent lentes, certaines transitions Ă©chouent, et le systĂšme demande encore des ajustements. C’est prĂ©cisĂ©ment ce qui rend le retour crĂ©dible.

Enfin, un point plus discret mais trĂšs utile apparaĂźt en fin d’échange : cette architecture locale peut aussi ĂȘtre combinĂ©e avec les sandboxes Docker, Ă  condition d’ouvrir explicitement les bons ports pour joindre le model runner depuis l’environnement isolĂ©. LĂ  encore, on retrouve le fil rouge de toute la soirĂ©e : les agents, les modĂšles et les outils ne valent que par le runtime qui les relie correctement. Les modĂšles locaux ne sont donc pas une alternative “simple” au cloud ; ils dĂ©placent simplement le problĂšme vers un autre niveau, oĂč l’on doit arbitrer entre autonomie, performance, mĂ©moire et architecture d’exĂ©cution.

En résumé, la démonstration de Philippe CharriÚre rappelle une chose essentielle :

les modÚles locaux sont utiles, mais ils ne suppriment pas la complexité ; ils la rendent simplement plus visible.

☞ SĂ©bastien Blanc - Agents en production - Kubernetes & Knative

La derniĂšre intervention bascule clairement dans une logique production-ready. AprĂšs les agents, les modĂšles et les sandboxes, la question devient simple :

OĂč et comment faire tourner ces systĂšmes Ă  l’échelle ?

La réponse proposée est directe : Java + Kubernetes + Knative.

🚀 Une stack assumĂ©e

Le choix est volontairement tranché :

  • Java (Quarkus) pour la couche applicative
  • Docker pour le packaging
  • Kubernetes comme runtime principal
  • Knative pour introduire du serverless

Un positionnement clair est mĂȘme assumĂ© pendant le talk :

les workflows d’agents vont s’industrialiser, et Kubernetes restera leur systùme d’exploitation.

đŸ”„ De la dĂ©mo locale Ă  la prod

La démonstration suit un chemin trÚs concret, presque pédagogique :

  1. crĂ©ation d’un chatbot local branchĂ© sur un modĂšle via Docker Model Runner
  2. exposition via une simple API HTTP
  3. containerisation de l’application
  4. déploiement sur Kubernetes
  5. exécution dans un pod
 capable de dialoguer avec le modÚle local

👉 Point intĂ©ressant : le modĂšle reste accessible via une API compatible OpenAI, ce qui permet de rĂ©utiliser n’importe quelle librairie existante sans adaptation lourde.

⚡ Knative - le vrai game changer

Une fois l’application dĂ©ployĂ©e sur Kubernetes, la bascule vers Knative change complĂštement le modĂšle d’exĂ©cution.

Au lieu de gérer des pods en continu, on passe à un modÚle serverless natif Kubernetes :

  • aucun trafic → 0 pod
  • requĂȘte entrante → crĂ©ation automatique d’un pod
  • pic de charge → auto-scale massif
  • fin d’activitĂ© → retour Ă  zĂ©ro

👉 DĂ©monstration simple mais efficace :

  • un curl → dĂ©clenche la crĂ©ation d’un pod
  • la requĂȘte est traitĂ©e
  • quelques secondes plus tard → le pod disparaĂźt

On ne gĂšre plus des machines, mais uniquement des workloads Ă  la demande.

🧠 Le vrai problĂšme : la mĂ©moire des agents

Ce modÚle pose immédiatement une question critique :

que devient la mémoire quand tout scale à zéro ?

La réponse proposée est pragmatique :

  • rendre les agents stateless
  • externaliser l’état dans un systĂšme dĂ©diĂ©

👉 solution utilisĂ©e :

  • Redis comme mĂ©moire partagĂ©e
  • stockage de l’état des conversations / agents hors des pods

Résultat :

  • les agents peuvent ĂȘtre recréés Ă  la volĂ©e
  • la mĂ©moire persiste indĂ©pendamment de l’infrastructure
  • le systĂšme reste compatible avec le scaling agressif de Knative

đŸ§© Vers des systĂšmes agentiques distribuĂ©s

La conclusion ouvre une direction intéressante :

  • dĂ©ploiement d’agents via CRDs Kubernetes
  • communication entre agents
  • orchestration Ă  grande Ă©chelle
  • dĂ©clenchement via Ă©vĂ©nements (Kafka, HTTP
)

👉 En quelques lignes de YAML, on peut :

  • dĂ©ployer plusieurs agents
  • les faire communiquer
  • gĂ©rer leur cycle de vie automatiquement

💡 Takeaway

Cette partie change complĂštement de perspective :

un agent n’est plus un script ou un outil local, c’est une unitĂ© de calcul distribuĂ©e, Ă©phĂ©mĂšre, orchestrĂ©e par Kubernetes.

Et avec Knative + Redis, on obtient une architecture oĂč :

  • l’exĂ©cution est Ă©lastique
  • l’état est externalisĂ©
  • et les agents deviennent rĂ©ellement scalables en production

🧭 Vision globale

Les talks convergent vers une mĂȘme direction :

🔁 Avant

  • LLM = assistant
  • usage ponctuel

🚀 Maintenant

  • agents autonomes
  • multi-agents
  • orchestration
  • exĂ©cution rĂ©elle

đŸ§© Les briques clĂ©s

| Domaine | Solution | | ------------- | -------------------- | | Agents | Docker Agents | | Sécurité | Docker Sandbox | | ModÚles | Docker Model Runner | | Orchestration | YAML / multi-agents | | Infra | Kubernetes / Knative | | Mémoire | Redis |

🎯 Conclusion

Le vrai enjeu n’est pas de limiter les agents, mais :

leur donner un maximum d’autonomie dans un cadre strictement contrĂŽlĂ©

Les concepts clés :

  • sandboxing
  • policies rĂ©seau
  • injection sĂ©curisĂ©e des secrets
  • orchestration multi-agents
  • infra scalable

🚀 Takeaway

On passe de :

👉 “je demande Ă  une IA” Ă  👉 “je dĂ©lĂšgue Ă  un systĂšme autonome”

Site

  • Plan du Site
  • Contact
  • Mentions lĂ©gales

Network

  • Hello
  • Blog
  • Apps
  • Photos

Social

Darkwood 2026, tous droits réservés