đł AI Tinkerers Paris Agentic Workflows avec Docker - vers des systĂšmes autonomes, sĂ©curisĂ©s et orchestrĂ©s
le 22 avril 2026
Lors de ce meetup organisé par GitGuardian et sponsorisé par Docker, plusieurs intervenants ont partagé leur vision des systÚmes agentiques modernes.
Lâobjectif est clair : passer de simples assistants IA Ă de vĂ©ritables agents autonomes capables dâagir, collaborer et sâexĂ©cuter en production.
đ€ Introduction - SĂ©curitĂ© & contexte (GitGuardian)
La soirĂ©e sâouvre dans les locaux parisiens de GitGuardian, qui rappelle un point souvent sous-estimĂ© dans les discussions autour des agents IA : avant mĂȘme de parler dâautonomie, il faut parler de sĂ©curitĂ© des accĂšs.
Le message est simple. Les secrets sont partout : API keys, JWT, tokens, credentials, ou toute information capable dâouvrir un accĂšs Ă une ressource, un service ou une infrastructure. Dans un contexte oĂč les agents interagissent de plus en plus avec du code, des dĂ©pĂŽts, des outils collaboratifs ou des systĂšmes connectĂ©s, la dĂ©tection et le contrĂŽle de ces secrets deviennent une couche critique.
GitGuardian se positionne prĂ©cisĂ©ment sur ce terrain : aider les dĂ©veloppeurs, Ă©quipes sĂ©curitĂ© et profils infra Ă identifier les secrets exposĂ©s dans leurs environnements, quâil sâagisse de dĂ©pĂŽts Git, de plateformes collaboratives comme Slack ou dâautres surfaces oĂč des informations sensibles peuvent fuiter.
Un autre signal intĂ©ressant ressort de cette introduction : la sĂ©curitĂ© des agents nâest plus un sujet thĂ©orique. Elle devient un besoin concret du marchĂ©, au point dâaccompagner une phase de croissance active chez GitGuardian, qui indique recruter sur plusieurs profils, notamment des software engineers et des AI engineers.
đ Point clĂ© :
Les agents ne doivent jamais exposer des secrets sensibles sans contrĂŽle strict.
đ„œ Speakers
La qualitĂ© de cette soirĂ©e tient aussi Ă son casting. PlutĂŽt que dâaligner des profils purement thĂ©oriques, lâĂ©vĂ©nement rĂ©unissait des intervenants directement impliquĂ©s dans la construction dâoutils, de runtimes et dâinfrastructures liĂ©s aux workflows agentiques.
Sébastien Blanc - rendre les agents réellement déployables
SĂ©bastien Blanc, Technical Director chez Sciam, a prĂ©sentĂ© SAIL: Serverless Agentic Containers, une approche orientĂ©e exĂ©cution distribuĂ©e, oĂč les agents ne sont plus pensĂ©s comme de simples assistants locaux, mais comme des workloads capables de vivre dans un environnement serverless. Son intervention prolonge naturellement les discussions sur Kubernetes, Knative et les architectures orientĂ©es Ă©vĂ©nements, avec une question de fond : comment construire des systĂšmes agentiques robustes, scalables et Ă©conomes en ressources ?
Philippe CharriĂšre - explorer les limites et le potentiel des tiny LLMs
Philippe CharriĂšre, Principal Solutions Architect chez Docker, a proposĂ© une session intitulĂ©e Compose and Dragons: Tiny LLMs, sans doute lâune des plus expĂ©rimentales de la soirĂ©e. Son angle est particuliĂšrement intĂ©ressant : montrer que les petits modĂšles locaux ne sont pas seulement des curiositĂ©s techniques, mais quâils peuvent servir de base Ă des systĂšmes multi-agents, Ă condition dâaccepter leurs contraintes de mĂ©moire, de performance et dâorchestration. Son travail met en lumiĂšre un futur possible oĂč les agents ne reposent pas uniquement sur des modĂšles gĂ©ants distants, mais aussi sur des briques locales, spĂ©cialisĂ©es et composables.
David Gageot - simplifier la crĂ©ation dâagents
David Gageot, Senior Principal Software Engineer chez Docker, est intervenu sur Docker Agent: No-Code AI Agents. Son propos sâinscrit dans une logique de simplification radicale : rĂ©duire la friction entre lâidĂ©e dâun agent et sa mise en Ćuvre concrĂšte. LâintĂ©rĂȘt de son intervention ne rĂ©side pas seulement dans le âno-codeâ, mais dans la capacitĂ© Ă rendre les agents plus accessibles, plus dĂ©claratifs, et plus faciles Ă intĂ©grer dans des workflows rĂ©els.
Guillaume Lours - sĂ©curiser lâautonomie
Guillaume Lours, Staff Software Engineer chez Docker, a prĂ©sentĂ© Docker Sandboxes, probablement lâun des sujets les plus stratĂ©giques de la soirĂ©e. LĂ oĂč beaucoup de discussions autour des agents se concentrent sur les modĂšles ou les prompts, son intervention remet le runtime au centre : si un agent doit agir, il doit ĂȘtre isolĂ©, observable et gouvernable. Les sandboxes Docker apportent ici une rĂ©ponse trĂšs concrĂšte aux questions dâexĂ©cution sĂ©curisĂ©e, de permissions rĂ©seau, de secrets et de contrĂŽle des accĂšs.
Djordje Lukic - penser lâagent comme un systĂšme, pas comme un gadget
Djordje Lukic, Principal Software Engineer chez Docker, partage avec David Gageot la prĂ©sentation autour de Docker Agent. Son apport est important dans la mesure oĂč il ancre le sujet dans une rĂ©flexion plus large sur les frameworks agentiques. DerriĂšre la promesse dâagents âsimples Ă crĂ©erâ, il y a une ambition plus structurelle : fournir un cadre oĂč modĂšles, outils, instructions et orchestration peuvent ĂȘtre assemblĂ©s proprement, avec une vraie logique dâingĂ©nierie derriĂšre.
đ§ David Gageot - Djordje Lukic - Docker Agents - de lâassistant au vĂ©ritable runtime agentique
La sĂ©quence Docker sâouvre avec Georgi et son Ă©quipe, qui prĂ©sentent Docker Agent non pas comme un simple assistant de plus, mais comme ce quâils appellent eux-mĂȘmes un âSwiss Army Knifeâ des frameworks agentiques. LâidĂ©e est assez claire : sortir de lâusage ponctuel du modĂšle pour entrer dans une logique oĂč lâIA devient un composant dâexĂ©cution Ă part entiĂšre. Leur point de dĂ©part nâest pas thĂ©orique. Ils expliquent que Docker travaille sur ces sujets depuis prĂšs de deux ans, notamment autour de Gordon, lâassistant intĂ©grĂ© Ă Docker Desktop, et que Docker Agents est dĂ©sormais utilisĂ© en interne pour construire et faire Ă©voluer ses propres outils.
Ce qui ressort immĂ©diatement, câest la volontĂ© de rendre les agents configurables, composables et exploitables en conditions rĂ©elles. Docker Agents peut se connecter Ă diffĂ©rents modĂšles, locaux ou distants, sâintĂ©grer Ă divers outils, et surtout ĂȘtre dĂ©crit de maniĂšre trĂšs lĂ©gĂšre, en YAML, sans devoir systĂ©matiquement passer par une implĂ©mentation complexe. Câest lâun des messages les plus forts de la dĂ©mo : lâentrĂ©e dans lâagentique ne commence pas forcĂ©ment par un SDK lourd ou une architecture distribuĂ©e, mais parfois par une simple dĂ©finition dĂ©clarative suffisamment claire pour produire un comportement utile.
La premiĂšre dĂ©monstration joue volontairement sur quelque chose dâabsurde - un agent pirate - pour montrer Ă quel point la barriĂšre dâentrĂ©e est basse. Avec un modĂšle et une instruction, lâĂ©quipe obtient dĂ©jĂ un agent exploitable. La dĂ©monstration est lĂ©gĂšre, presque moqueuse, mais le sous-texte est important : un agent nâa pas besoin dâune Ă©norme infrastructure pour exister ; il a surtout besoin dâun cadre dâexĂ©cution clair. Ă partir de lĂ , Docker peut le faire Ă©voluer vers quelque chose de beaucoup plus sĂ©rieux.
Câest prĂ©cisĂ©ment ce qui arrive avec la seconde partie, beaucoup plus convaincante techniquement. LâĂ©quipe montre comment brancher une API existante Ă un agent Ă partir de sa dĂ©finition OpenAPI. Dans leur exemple, il sâagit dâune API PokĂ©mon - utilisĂ©e comme substitut volontairement ludique dâune API mĂ©tier plus classique - mais le message est limpide : dans un environnement dâentreprise, il serait possible de reprendre exactement le mĂȘme mĂ©canisme pour brancher des services internes, des bases de connaissance ou des outils spĂ©cialisĂ©s. LâOpenAPI spec est transformĂ©e en ensemble de tools, et lâagent peut alors interroger le systĂšme sans que lâutilisateur ait lui-mĂȘme Ă manipuler directement les endpoints. Ce nâest plus lâhumain qui navigue dans lâAPI : câest lâagent qui se charge de la mĂ©diation.
La dĂ©mo souligne aussi un point dâarchitecture souvent sous-estimĂ© : la question nâest pas seulement de donner des tools Ă un agent, mais de lui donner les bons tools. Lors des Ă©changes avec la salle, lâĂ©quipe reconnaĂźt quâun agent surchargĂ© devient vite inefficace. MĂȘme si une spec OpenAPI peut exposer des dizaines voire une centaine dâoutils, il est prĂ©fĂ©rable de filtrer fortement et de nâen garder quâun sous-ensemble cohĂ©rent avec la tĂąche. LâidĂ©e importante ici nâest pas âplus dâoutils = meilleur agentâ, mais presque lâinverse : un agent spĂ©cialisĂ© fonctionne mieux avec un pĂ©rimĂštre rĂ©duit, lisible et intentionnel.
La partie la plus intĂ©ressante arrive ensuite avec les usages plus avancĂ©s. Docker Agents ne se limite pas Ă une logique mono-agent pilotant quelques appels dâAPI. LâĂ©quipe montre un systĂšme Ă plusieurs niveaux, avec un agent principal, des commandes dĂ©diĂ©es, puis des sub-agents ayant chacun leur propre rĂŽle, leurs instructions, leur modĂšle et Ă©ventuellement leurs propres outils. Le quiz interactif et la simulation de combat PokĂ©mon servent surtout Ă illustrer une idĂ©e plus gĂ©nĂ©rale : lâagentique utile repose moins sur un âsuper-agentâ unique que sur une orchestration de responsabilitĂ©s bien sĂ©parĂ©es. Le root agent coordonne, les sous-agents exĂ©cutent, et chacun opĂšre dans un contexte mieux dĂ©fini.
Les rĂ©ponses apportĂ©es pendant les questions renforcent ce point. Docker distingue notamment deux formes dâinteractions inter-agents : dâun cĂŽtĂ© les sub-agents, qui reçoivent une tĂąche avec un contexte neuf ; de lâautre les mĂ©canismes de handoff, oĂč la conversation peut basculer dâun agent Ă un autre. LâĂ©quipe Ă©voque Ă©galement la possibilitĂ© de partager certains outils de mĂ©moire ou de to-do entre plusieurs agents. LĂ encore, on retrouve une idĂ©e structurante : lâagentique devient intĂ©ressante quand elle cesse dâĂȘtre uniquement conversationnelle pour devenir organisationnelle. On ne demande plus seulement Ă un modĂšle de rĂ©pondre ; on distribue du travail entre plusieurs entitĂ©s spĂ©cialisĂ©es.
đ Guillaume Lours - Docker Sandboxes - donner de lâautonomie sans abandonner le contrĂŽle
La seconde partie complĂšte parfaitement la premiĂšre. AprĂšs avoir montrĂ© comment construire des agents, lâĂ©quipe Docker pose la vraie question : oĂč et comment les laisser agir ? Câest lĂ quâintervient la dĂ©monstration autour de Docker Sandboxes. Le constat de dĂ©part est trĂšs concret : tant quâun agent doit lire des fichiers, installer des dĂ©pendances, lancer des commandes ou accĂ©der au rĂ©seau, il devient impossible de le faire travailler sĂ©rieusement directement sur la machine hĂŽte sans accepter un niveau de risque trop Ă©levĂ©. Lâintervenant le dit de maniĂšre trĂšs directe : il nâest pas question de donner ce niveau dâaccĂšs Ă un agent sur son laptop.
La rĂ©ponse proposĂ©e par Docker est un environnement dâexĂ©cution isolĂ© sous forme de micro-VM, contenant son propre moteur Docker, dans laquelle vient tourner un conteneur hĂ©bergeant lâagent. Câest un changement de perspective important. Le problĂšme nâest pas seulement de ârestreindreâ lâagent, mais de crĂ©er un cadre oĂč lâon peut au contraire lui donner davantage dâautonomie, tout en conservant la capacitĂ© dâobserver, de filtrer et dâinterrompre ses actions. Lâobjectif nâest donc pas de rendre lâagent inoffensif en le bloquant partout, mais de lui donner assez de libertĂ© pour travailler rĂ©ellement, dans des limites explicites.
La dĂ©monstration est parlante : dans un projet web simple, lâagent peut installer seul les dĂ©pendances nĂ©cessaires, lancer des commandes de build ou exĂ©cuter des tests, y compris quand cela implique des opĂ©rations que lâon nâaccepterait pas volontiers sur sa machine personnelle. Le point fort nâest pas seulement lâisolation technique ; câest aussi la visibilitĂ©. Les sandboxes exposent une interface permettant de lister les environnements en cours, dâinspecter les processus actifs, dâobserver le trafic rĂ©seau gĂ©nĂ©rĂ© par lâagent et, plus largement, de comprendre ce quâil est rĂ©ellement en train de faire. On ne dĂ©lĂšgue donc pas Ă lâaveugle : on dĂ©lĂšgue dans un espace instrumentĂ©.
La gestion rĂ©seau est probablement lâaspect le plus convaincant de cette partie. Docker montre plusieurs modes de politiques rĂ©seau, allant du refus total Ă lâouverture beaucoup plus permissive, avec une option intermĂ©diaire Ă©quilibrĂ©e. Surtout, lâintĂ©rĂȘt ne rĂ©side pas tant dans le nom des modes que dans la granularitĂ© quâils permettent ensuite. Un accĂšs bloquĂ© peut ĂȘtre visualisĂ© dans les logs rĂ©seau du sandbox, puis explicitement autorisĂ©. Cela transforme le comportement rĂ©seau de lâagent en politique observable et rĂ©glable, et non en permission globale accordĂ©e une fois pour toutes. Autrement dit : lâaccĂšs au web ou Ă un domaine prĂ©cis ne relĂšve plus dâune confiance implicite, mais dâune dĂ©cision explicite.
La mĂȘme logique est appliquĂ©e aux secrets. LĂ aussi, Docker prend un parti intĂ©ressant : les secrets ne sont pas simplement âvisiblesâ dans lâenvironnement de lâagent comme ils le seraient sur une machine mal configurĂ©e. Ils sont injectĂ©s au moment de la crĂ©ation du sandbox, avec une portĂ©e globale ou spĂ©cifique selon le besoin. Ce dĂ©tail a une vraie importance en production : cela signifie quâun agent ne doit pas hĂ©riter par dĂ©faut de tout ce qui traĂźne sur la machine de dĂ©veloppement. Il nâopĂšre quâavec ce qui lui a Ă©tĂ© fourni dans son environnement contrĂŽlĂ©. En pratique, cela fait des secrets une ressource explicitement provisionnĂ©e, et non un effet de bord de la session de lâutilisateur.
La dĂ©mo sur lâexposition de ports va dans le mĂȘme sens. Une application peut tourner dans le sandbox sans ĂȘtre immĂ©diatement visible depuis lâextĂ©rieur. Si lâon veut y accĂ©der, il faut publier le port concernĂ© ; si on le retire, lâapplication continue dâexister dans son environnement isolĂ©, mais redevient inaccessible depuis lâextĂ©rieur. LĂ encore, Docker montre une sĂ©paration nette entre exĂ©cution et exposition, ce qui est exactement ce qui manque dans beaucoup de dĂ©mos agentiques trop rapides.
Enfin, la dĂ©monstration se termine sur un cas particuliĂšrement intĂ©ressant pour les workflows modernes : plusieurs agents travaillant sur le mĂȘme code source, mais sans se gĂȘner mutuellement. Lâapproche proposĂ©e repose sur la crĂ©ation automatique de branches ou de worktrees sĂ©parĂ©s, de sorte que chaque agent puisse opĂ©rer dans son propre espace de travail. Cette partie est importante, car elle montre que Docker ne pense pas seulement lâagent comme un assistant individuel, mais aussi comme un acteur parallĂšle dans un flux de dĂ©veloppement collaboratif. Lâagent nâest plus seulement lĂ pour rĂ©pondre, mais pour prendre en charge une partie du travail dans un espace contrĂŽlĂ©, isolĂ© et potentiellement concurrent.
La conclusion implicite de cette séquence est sans doute la plus utile de toute la soirée :
le vrai sujet nâest pas dâempĂȘcher les agents dâagir, mais de construire lâenvironnement dans lequel ils peuvent agir correctement.
Autrement dit, lâautonomie utile ne naĂźt pas de la confiance aveugle, mais dâun runtime bien conçu : isolation, politiques rĂ©seau fines, injection maĂźtrisĂ©e des secrets, observabilitĂ© et sĂ©paration des espaces de travail. Câest probablement lĂ que cette proposition Docker devient la plus intĂ©ressante pour des stacks comme Darkwood, Flow ou toute architecture cherchant Ă faire passer les agents du stade âdĂ©moâ au stade âsystĂšmeâ.
đ§ Philippe CharriĂšre - les modĂšles locaux, entre promesse et pression mĂ©moire
Avec la prĂ©sentation de Philippe CharriĂšre, la soirĂ©e quitte un instant la question du framework agentique pour revenir Ă quelque chose de beaucoup plus concret : ce que coĂ»te rĂ©ellement lâexĂ©cution locale dâun modĂšle. Son intervention a le mĂ©rite de ramener le sujet au niveau de la machine, de la RAM et des compromis techniques. DerriĂšre lâenthousiasme autour des âsmall modelsâ, son constat est simple : oui, les modĂšles locaux sont intĂ©ressants, mais dĂšs quâon veut faire plus quâune dĂ©mo minimale, la contrainte dominante redevient immĂ©diatement celle des ressources, en particulier sur Mac.
Le point de friction principal, dans son retour dâexpĂ©rience, nâest pas tant Docker lui-mĂȘme que la pression mĂ©moire gĂ©nĂ©rĂ©e par les modĂšles. Sur sa machine - un MacBook Pro M2 Max avec 32 Go de RAM - un modĂšle peut sembler âtenirâ en thĂ©orie, puis devenir inutilisable en pratique dĂšs quâon commence rĂ©ellement Ă lâinterroger. Philippe insiste sur un dĂ©tail important : une estimation de compatibilitĂ© nâest pas toujours une garantie dâusage confortable. Un modĂšle peut dĂ©marrer, rĂ©pondre une fois, puis dĂ©grader trĂšs vite la machine dĂšs que la charge augmente. Et si lâon ajoute un second modĂšle diffĂ©rent, ou simplement davantage de requĂȘtes, la situation se dĂ©tĂ©riore encore plus vite. Son retour terrain est presque brutal dans sa simplicitĂ© : pendant longtemps, ce quâil prenait pour un problĂšme Docker Ă©tait en rĂ©alitĂ© un problĂšme de mĂ©moire.
Sa dĂ©monstration repose sur une stack relativement claire : Docker Model Runner, Docker Compose, et un ensemble de modĂšles locaux utilisĂ©s comme briques dâun systĂšme plus large. Lors des Ă©changes avec la salle, il prĂ©cise que Docker Model Runner sâappuie aujourdâhui sur des moteurs comme llama.cpp et vLLM, avec une ouverture possible vers MLX Ă lâavenir. Il distingue aussi assez nettement les contextes dâusage : vLLM paraĂźt mieux adaptĂ© Ă la production, tandis que llama.cpp reste plus pertinent pour des usages locaux ou dâexpĂ©rimentation. LĂ encore, lâidĂ©e importante nâest pas de sacraliser un backend unique, mais de reconnaĂźtre que le runtime des modĂšles est lui-mĂȘme un sujet dâarchitecture.
Mais lâintervention ne se limite pas Ă un simple avertissement sur la RAM. Philippe montre aussi ce que lâon peut construire malgrĂ© ces contraintes, Ă condition dâaccepter de travailler avec des modĂšles petits, spĂ©cialisĂ©s et locaux. Son exemple prend la forme dâun projet de jeu en mode texte, une sorte de dungeon crawler orchestrĂ© par plusieurs composants. Ce choix peut sembler ludique, mais il sert surtout Ă exposer une architecture intĂ©ressante : un serveur MCP pour gĂ©rer le donjon, les salles, les monstres et les rĂšgles ; un Dungeon Master comme agent principal ; plusieurs NPC agents exposant leur propre API ; et un boss final qui fonctionne lui aussi comme une entitĂ© autonome Ă part entiĂšre. On nâest plus ici dans une simple dĂ©mo de prompting, mais dans une tentative de simulation multi-composants, oĂč chaque rĂŽle dispose de son propre pĂ©rimĂštre dâaction.
Ce qui rend cette partie particuliĂšrement utile, câest quâelle montre que les modĂšles locaux ne sont pas seulement un sujet de coĂ»t ou de souverainetĂ©. Ils impliquent une maniĂšre diffĂ©rente de penser le systĂšme. Philippe explique par exemple quâil rĂ©utilise le mĂȘme modĂšle pour plusieurs agents afin dâĂ©viter dâexploser la mĂ©moire, plutĂŽt que de multiplier les instances hĂ©tĂ©rogĂšnes. Cette approche est importante : dans un environnement contraint, le bon design ne consiste pas forcĂ©ment Ă choisir le meilleur modĂšle pour chaque agent, mais parfois Ă concevoir lâensemble du workflow autour dâun compromis matĂ©riel acceptable. Le systĂšme doit alors ĂȘtre pensĂ© en fonction de la machine disponible, pas seulement de lâidĂ©al fonctionnel.
Son projet âCompose and Dragonsâ illustre bien cette logique. La carte du donjon est gĂ©nĂ©rĂ©e Ă lâavance, dâautres composants enrichissent ensuite lâexpĂ©rience avec des descriptions, des NPCs et des interactions. Tout cela repose sur une orchestration combinant modĂšles locaux, services Docker et agents spĂ©cialisĂ©s. Ce nâest pas encore une dĂ©monstration de robustesse industrielle, mais câest une preuve de faisabilitĂ© intĂ©ressante : mĂȘme avec des ressources limitĂ©es, il est possible de faire Ă©merger un systĂšme autonome relativement riche, Ă condition dâaccepter ses limites de latence, de mĂ©moire et de complexitĂ©. Philippe le dit dâailleurs sans dĂ©tour pendant la dĂ©mo : sur petits modĂšles, certaines interactions restent lentes, certaines transitions Ă©chouent, et le systĂšme demande encore des ajustements. Câest prĂ©cisĂ©ment ce qui rend le retour crĂ©dible.
Enfin, un point plus discret mais trĂšs utile apparaĂźt en fin dâĂ©change : cette architecture locale peut aussi ĂȘtre combinĂ©e avec les sandboxes Docker, Ă condition dâouvrir explicitement les bons ports pour joindre le model runner depuis lâenvironnement isolĂ©. LĂ encore, on retrouve le fil rouge de toute la soirĂ©e : les agents, les modĂšles et les outils ne valent que par le runtime qui les relie correctement. Les modĂšles locaux ne sont donc pas une alternative âsimpleâ au cloud ; ils dĂ©placent simplement le problĂšme vers un autre niveau, oĂč lâon doit arbitrer entre autonomie, performance, mĂ©moire et architecture dâexĂ©cution.
En résumé, la démonstration de Philippe CharriÚre rappelle une chose essentielle :
les modÚles locaux sont utiles, mais ils ne suppriment pas la complexité ; ils la rendent simplement plus visible.
âžïž SĂ©bastien Blanc - Agents en production - Kubernetes & Knative
La derniĂšre intervention bascule clairement dans une logique production-ready. AprĂšs les agents, les modĂšles et les sandboxes, la question devient simple :
OĂč et comment faire tourner ces systĂšmes Ă lâĂ©chelle ?
La réponse proposée est directe : Java + Kubernetes + Knative.
đ Une stack assumĂ©e
Le choix est volontairement tranché :
- Java (Quarkus) pour la couche applicative
- Docker pour le packaging
- Kubernetes comme runtime principal
- Knative pour introduire du serverless
Un positionnement clair est mĂȘme assumĂ© pendant le talk :
les workflows dâagents vont sâindustrialiser, et Kubernetes restera leur systĂšme dâexploitation.
đ„ De la dĂ©mo locale Ă la prod
La démonstration suit un chemin trÚs concret, presque pédagogique :
- crĂ©ation dâun chatbot local branchĂ© sur un modĂšle via Docker Model Runner
- exposition via une simple API HTTP
- containerisation de lâapplication
- déploiement sur Kubernetes
- exécution dans un pod⊠capable de dialoguer avec le modÚle local
đ Point intĂ©ressant : le modĂšle reste accessible via une API compatible OpenAI, ce qui permet de rĂ©utiliser nâimporte quelle librairie existante sans adaptation lourde.
⥠Knative - le vrai game changer
Une fois lâapplication dĂ©ployĂ©e sur Kubernetes, la bascule vers Knative change complĂštement le modĂšle dâexĂ©cution.
Au lieu de gérer des pods en continu, on passe à un modÚle serverless natif Kubernetes :
- aucun trafic â 0 pod
- requĂȘte entrante â crĂ©ation automatique dâun pod
- pic de charge â auto-scale massif
- fin dâactivitĂ© â retour Ă zĂ©ro
đ DĂ©monstration simple mais efficace :
- un
curlâ dĂ©clenche la crĂ©ation dâun pod - la requĂȘte est traitĂ©e
- quelques secondes plus tard â le pod disparaĂźt
On ne gĂšre plus des machines, mais uniquement des workloads Ă la demande.
đ§ Le vrai problĂšme : la mĂ©moire des agents
Ce modÚle pose immédiatement une question critique :
que devient la mémoire quand tout scale à zéro ?
La réponse proposée est pragmatique :
- rendre les agents stateless
- externaliser lâĂ©tat dans un systĂšme dĂ©diĂ©
đ solution utilisĂ©e :
- Redis comme mémoire partagée
- stockage de lâĂ©tat des conversations / agents hors des pods
Résultat :
- les agents peuvent ĂȘtre recréés Ă la volĂ©e
- la mĂ©moire persiste indĂ©pendamment de lâinfrastructure
- le systĂšme reste compatible avec le scaling agressif de Knative
𧩠Vers des systÚmes agentiques distribués
La conclusion ouvre une direction intéressante :
- dĂ©ploiement dâagents via CRDs Kubernetes
- communication entre agents
- orchestration à grande échelle
- dĂ©clenchement via Ă©vĂ©nements (Kafka, HTTPâŠ)
đ En quelques lignes de YAML, on peut :
- déployer plusieurs agents
- les faire communiquer
- gérer leur cycle de vie automatiquement
đĄ Takeaway
Cette partie change complĂštement de perspective :
un agent nâest plus un script ou un outil local, câest une unitĂ© de calcul distribuĂ©e, Ă©phĂ©mĂšre, orchestrĂ©e par Kubernetes.
Et avec Knative + Redis, on obtient une architecture oĂč :
- lâexĂ©cution est Ă©lastique
- lâĂ©tat est externalisĂ©
- et les agents deviennent réellement scalables en production
đ§ Vision globale
Les talks convergent vers une mĂȘme direction :
đ Avant
- LLM = assistant
- usage ponctuel
đ Maintenant
- agents autonomes
- multi-agents
- orchestration
- exécution réelle
𧩠Les briques clés
| Domaine | Solution | | ------------- | -------------------- | | Agents | Docker Agents | | Sécurité | Docker Sandbox | | ModÚles | Docker Model Runner | | Orchestration | YAML / multi-agents | | Infra | Kubernetes / Knative | | Mémoire | Redis |
đŻ Conclusion
Le vrai enjeu nâest pas de limiter les agents, mais :
leur donner un maximum dâautonomie dans un cadre strictement contrĂŽlĂ©
Les concepts clés :
- sandboxing
- policies réseau
- injection sécurisée des secrets
- orchestration multi-agents
- infra scalable
đ Takeaway
On passe de :
đ âje demande Ă une IAâ Ă đ âje dĂ©lĂšgue Ă un systĂšme autonomeâ