Darkwood Blog Blog
  • Articles
  • Auto
fr
  • de
  • en
Connexion
  • Blog
  • Articles
  • Auto

💡 Devoxx France 2026 - L'Ère de l'Agentique au Cœur de Paris

le 13 mai 2026

Bienvenue au Palais des Congrès pour une édition de Devoxx France 2026 qui marque un tournant historique dans notre industrie. Si les années précédentes étaient celles de l'expérimentation et de la fascination pour les LLM, 2026 est indéniablement celle de la concrétisation agentique.

Dans les allées de cette "conférence des développeurs pour les développeurs", le constat est clair : l'IA n'est plus un simple gadget de complétion de code, mais une couche structurelle de nos architectures. Avec 212 sessions passées au crible dans ce panorama, nous explorons comment la communauté a transcendé la peur du remplacement pour embrasser un rôle d'orchestrateur de systèmes intelligents.

De l'éthique nécessaire pour agir "avec raison dans l'incertain" aux protocoles techniques comme le MCP (Model Context Protocol), cet article vous propose une immersion dans les moments forts du track AI & Agentic Systems. Préparez-vous à découvrir comment l'automatisation et l'intelligence collaborative redéfinissent, sous nos yeux, le métier de développeur.

AI & Agentic Systems

L’IA au service du bien commun : Agir avec raison dans l'incertain

  • Speakers : Laurence Devillers
  • Type : Keynote
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 09:00 à 09:25 · Salle Amphi bleu

La présentation défend une IA outil de progrès, ni neutre ni consciente, mais amplificatrice des capacités humaines. Employée avec discernement et accompagnée d’éducation critique, elle peut soigner, anticiper, personnaliser et libérer du temps créatif, faisant de l’humain l’acteur central d’un futur orienté vers le bien commun.

L’IA au service du bien commun : Agir avec raison dans l'incertain

Dans un monde où l'intelligence artificielle (IA) s'intègre de plus en plus dans nos vies, la keynote de Laurence Devillers à la conférence sur les systèmes agentiques et l'IA aborde un sujet crucial : comment utiliser cette technologie pour le bien commun. En se basant sur la pensée de Blaise Pascal, Devillers nous invite à agir avec discernement face à l'incertitude que l'IA apporte.

Ce que présente le talk

Laurence Devillers défend l'idée que l'IA, loin d'être un outil neutre, amplifie nos capacités humaines. Elle n'est ni un ange ni un démon, mais un puissant levier qui peut améliorer notre compréhension du monde, anticiper des crises, personnaliser l'éducation et libérer du temps pour la créativité. L'éducation critique est essentielle pour naviguer dans cet environnement complexe, permettant de comprendre les biais et les limites de l'IA.

Points techniques importants

Nature de l'IA

  • Outil amplificateur : Devillers souligne que l'IA ne ressent rien et ne comprend pas. Elle reflète nos choix et nos biais, ce qui la rend non neutre.
  • Intégration dans la vie quotidienne : L'IA est omniprésente, mais son utilisation nécessite une vigilance pour éviter une dépendance aveugle.

Éducation et esprit critique

  • Importance de l'éducation : L'éducation est présentée comme la clé pour comprendre les capacités et les limites de l'IA. Devillers insiste sur la nécessité de former les futurs utilisateurs à la critique et à l'analyse des données générées par l'IA.
  • Démystification des mythes : Devillers propose de déconstruire des mythes autour de l'IA, comme l'idée qu'elle serait arrivée récemment ou qu'elle soit gratuite. Ces croyances peuvent mener à des attentes irréalistes et à des abus.

Mythes de l'IA

  1. L'IA est arrivée en 2022 : En réalité, ses racines remontent aux années 1950.
  2. L'IA est un pur esprit : Elle est ancrée dans des réalités écologiques et énergétiques.
  3. L'IA est neutre : Elle est influencée par les données sur lesquelles elle est formée, souvent biaisées.
  4. L'IA est gratuite : Son utilisation engendre des coûts cachés et des implications économiques.
  5. L'IA est notre amie : Elle n'a pas d'émotions et peut engendrer des dépendances.

Éthique et gouvernance

  • Questions éthiques : L'augmentation de la puissance de l'IA soulève des problèmes de gouvernance et de cybersécurité, qui doivent être abordés avec sérieux.
  • Systèmes de décision : Devillers évoque les systèmes de décision humains (Système 1 et Système 2), soulignant que l'IA ne peut remplacer la réflexion humaine.

Ce qu'il faut retenir

L'IA est un outil puissant qui, utilisée avec discernement, peut servir le bien commun. Cependant, son intégration dans nos vies nécessite une éducation critique pour éviter les dérives et les abus. La démystification des croyances populaires autour de l'IA est essentielle pour préparer un avenir où l'humain reste au centre des décisions.

Réflexions Darkwood

La keynote de Devillers s'inscrit dans une réflexion plus large sur l'évolution des systèmes logiciels et l'automatisation. Alors que l'IA continue de transformer nos workflows, il est crucial de développer une gouvernance éthique et responsable. Les agents IA, en tant qu'extensions de nos capacités, doivent être utilisés pour enrichir notre créativité et notre curiosité, tout en préservant notre esprit critique. L'avenir des architectures modernes repose sur notre capacité à intégrer ces technologies de manière réfléchie, en gardant à l'esprit que le progrès doit servir l'humanité dans son ensemble.

Fiche programme

2 ans après, les devs n'ont pas disparu : du coup l'IA ca sert à rien ?

  • Speakers : Matthieu Vincent (X · LinkedIn · Bluesky), Yann Gloriau (LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 10:30 à 11:15 · Salle Neuilly 252AB

Ce talk explore deux ans d’intégration de l’IA dans le développement logiciel : entre promesses et réalités, il analyse ses apports, ses limites et son impact sur les compétences, la sécurité et les pratiques. Avec humour et retour d’expérience, il montre comment l’IA transforme les développeurs sans les remplacer.

2 ans après, les devs n'ont pas disparu : du coup l'IA ça sert à rien ?

Dans un contexte où l'intelligence artificielle est souvent présentée comme la panacée capable de remplacer les développeurs, ce talk de Matthieu Vincent et Yann Gloriau, tous deux de Sopra Steria, remet en question cette vision. Deux ans après l'essor des outils d'IA dans le développement logiciel, il est temps d'explorer les véritables impacts de ces technologies sur les pratiques et les compétences des développeurs.

Ce que présente le talk

La session aborde les promesses et les réalités de l'intégration de l'IA dans le développement logiciel. À travers un retour d'expérience humoristique et pragmatique, les intervenants analysent les bénéfices et les limites des outils d'IA, tout en soulignant que les développeurs ne sont pas en voie de disparition. Au contraire, l'IA pourrait transformer leur rôle en les aidant à devenir plus efficaces, mais elle ne les remplace pas.

Points techniques importants

L'impact de l'IA sur les pratiques de développement

Les intervenants soulignent que, malgré les attentes élevées, l'IA n'a pas radicalement changé la manière dont les développeurs travaillent. Ils notent que les équipes continuent à produire des tests unitaires (TU) et à maintenir la documentation, mais que ceux qui ne le faisaient pas auparavant n'ont pas été incités à changer leurs pratiques. Cette observation met en lumière le fait que l'outil ne fait pas le projet ; c'est le projet qui détermine l'utilisation des outils.

Évolution des outils et des compétences

  • Modèles de raisonnement : Les intervenants évoquent les nouveaux types de modèles qui permettent de décomposer des problèmes complexes en sous-tâches, facilitant ainsi la gestion des projets.
  • MCP (Modèles de Communication de Protocole) : Ces serveurs permettent d'interfacer différents outils d'IA, mais leur sécurité est souvent mise en question. Les intervenants notent que ces outils, bien que prometteurs, ne sont pas encore prêts pour une utilisation à grande échelle dans un environnement de production.
  • Agents IA : L'évolution des agents, capables de planifier, de se souvenir des interactions et d'évaluer leurs réponses, est mise en avant comme un changement significatif dans la manière dont les développeurs peuvent interagir avec les systèmes d'IA.

Pratiques de "vibe coding"

Un concept intéressant introduit par les intervenants est celui de "vibe coding", qui consiste à coder sans utiliser le clavier, en laissant l'IA gérer des tâches simples. Cela soulève des questions sur la détachement des développeurs par rapport à leur code, ce qui pourrait avoir des implications sur la qualité et la responsabilité du travail produit.

Ce qu'il faut retenir

L'IA ne remplace pas les développeurs, mais elle les transforme. Les outils d'IA peuvent améliorer l'efficacité et la productivité, mais leur adoption dépend largement des pratiques et de la culture d'entreprise. Les développeurs doivent s'adapter à ces nouvelles technologies tout en maintenant des standards de qualité et de sécurité.

Réflexions Darkwood

L'intégration de l'IA dans le développement logiciel représente une étape importante dans l'évolution des systèmes. Alors que les outils d'IA continuent de se développer, il est crucial de réfléchir à leur impact sur les workflows et la gouvernance des projets. L'automatisation croissante pourrait conduire à une redéfinition des rôles et des compétences requises dans l'industrie. La clé sera de trouver un équilibre entre l'utilisation des outils d'IA et la préservation de la qualité du code, tout en veillant à ce que les développeurs restent au cœur du processus créatif.

Fiche programme

IA & jeux vidéo, des origines à nos jours : a (neural) link to the past

  • Speakers : Romain Benassi (LinkedIn)
  • Type : 2H Deep Dive
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 10:30 à 12:30 · Salle Neuilly 251

Cette présentation retrace l’évolution conjointe de l’IA et du jeu vidéo, de Pac‑Man aux jeux les plus modernes. Elle offre un panorama historique et ludique, évoquant certaines des franchises les plus emblématiques du domaine. Les apports récents liés à l'IA générative seront également discutés.

IA & Jeux Vidéo : Des Origines à Nos Jours

La session "IA & jeux vidéo, des origines à nos jours : a (neural) link to the past" présentée par Romain Benassi à Devox offre une plongée fascinante dans l'évolution conjointe de l'intelligence artificielle et des jeux vidéo. En retraçant cette histoire commune, l'intervenant illustre comment ces deux domaines ont interagi depuis les débuts de l'industrie vidéoludique jusqu'aux avancées modernes, notamment avec l'émergence de l'IA générative.

Ce que présente le talk

La présentation explore l'évolution des mécaniques d'IA dans les jeux vidéo, en commençant par des classiques comme Pac-Man et en se dirigeant vers des titres contemporains tels que The Last of Us. Romain Benassi met en lumière les différentes franchises emblématiques et discute des impacts récents de l'IA générative sur les mécaniques de jeu et l'expérience utilisateur.

Points techniques importants

Historique et Évolution

  • Origines de l'IA dans les jeux vidéo : Le talk débute avec Pong (1972), un jeu sans IA, et évolue vers Space Invaders (1978), où la notion d'intelligence artificielle commence à se manifester par des comportements d'accélération des ennemis.
  • Mécaniques de jeu : L'intervenant souligne l'importance des machines à états, un concept fondamental dans la conception des comportements des personnages non-joueurs (PNJ).

Mécanismes d'IA

  • Pac-Man et ses fantômes : L'analyse des comportements des fantômes dans Pac-Man illustre l'utilisation des machines à états. Chaque fantôme a des modes distincts (chasse, dispersion, fuite) qui modélisent des comportements simples mais efficaces.
  • Ciblage et Navigation : Les fantômes ciblent des cases spécifiques sur le damier du jeu, utilisant des algorithmes simples pour déterminer leur direction, ce qui crée une illusion d'intelligence.

IA Générative

  • Impact sur le design de jeux : Avec l'avènement de l'IA générative, les possibilités de création de contenu dynamique et adaptatif sont explorées. Cette technologie permet de générer des scénarios, des dialogues et des environnements de manière procédurale, enrichissant ainsi l'expérience de jeu.

Ce qu'il faut retenir

La session met en avant l'évolution des mécaniques d'IA dans les jeux vidéo, de simples comportements programmés à des systèmes complexes intégrant l'IA générative. Les concepts de machines à états et de ciblage sont essentiels pour comprendre comment les jeux ont su créer des expériences engageantes et immersives.

Réflexions Darkwood

L'interaction entre l'IA et les jeux vidéo illustre une tendance plus large dans l'évolution des systèmes logiciels. À mesure que les technologies d'IA se développent, nous assistons à une automatisation croissante des processus créatifs, permettant aux développeurs de se concentrer sur des aspects plus stratégiques et narratifs. Les agents intelligents, en tant que composants clés des architectures modernes, ouvrent la voie à des workflows plus flexibles et adaptatifs, redéfinissant ainsi la gouvernance des projets de développement. Cette dynamique pourrait bien transformer non seulement l'industrie du jeu vidéo, mais également d'autres secteurs où l'interaction humaine et machine est primordiale.

Fiche programme

Mesurer l’immesurable : Comment évaluer les systèmes à base d’IA générative ?

  • Speakers : Erin Pacquetet (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 10:30 à 11:15 · Salle Paris 143

Cette session explore l’évaluation des applications d’IA générative, entre créativité et fiabilité. Elle présente les limites des métriques classiques, l’usage du “LLM-as-a-judge”, l’importance du jugement humain et du suivi continu. Un cas de chatbot RAG illustre un pipeline d’évaluation complet et reproductible.

Mesurer l’immesurable : Comment évaluer les systèmes à base d’IA générative ?

L'évaluation des systèmes d'IA générative est un enjeu crucial dans un contexte où ces technologies prennent une place prépondérante dans la création d'applications variées. La session présentée par Erin Pacquetet lors de la conférence Devox aborde ce défi en profondeur, en explorant les paradoxes entre créativité et contrôle, tout en proposant des méthodologies d'évaluation adaptées.

Ce que présente le talk

La session met en lumière les difficultés inhérentes à l'évaluation des systèmes basés sur des modèles d'IA générative. Erin Pacquetet souligne que, bien que la création d'applications utilisant des LLM (Large Language Models) soit relativement simple, leur mise en production pose des questions complexes. L'accent est mis sur la nécessité d'une méthodologie d'évaluation robuste pour garantir la fiabilité des systèmes avant leur déploiement.

Points techniques importants

Limites des métriques classiques

Les métriques traditionnelles d'évaluation ne suffisent pas à capturer la complexité des systèmes génératifs. Erin évoque la nécessité de redéfinir les critères d'évaluation pour tenir compte des spécificités des LLM, qui sont à la fois créatifs et imprévisibles. Les questions de précision, de cohérence et de pertinence métier doivent être ajustées pour refléter la nature dynamique des outputs générés.

LLM-as-a-judge

Un concept clé abordé est l'utilisation des LLM comme juges dans le processus d'évaluation. Bien que cette approche puisse automatiser certaines tâches, elle introduit également des biais potentiels. Erin met en garde contre une dépendance excessive à cette méthode, soulignant l'importance du jugement humain dans l'évaluation des résultats.

Importance du jugement humain et suivi continu

Le jugement humain reste essentiel pour évaluer la qualité des outputs. Erin insiste sur la nécessité d'un suivi continu pour détecter les dérives et les effets secondaires des systèmes en production. Cela implique de mettre en place des mécanismes de feedback permettant d'ajuster les modèles en fonction des retours d'expérience des utilisateurs.

Cas d'étude : Chatbot RAG

Un exemple concret illustrant ces concepts est le développement d'un chatbot RAG (Retrieval-Augmented Generation) pour une entreprise d'assurance. Ce chatbot doit répondre à des questions des utilisateurs en s'appuyant sur une documentation existante. Erin décrit le pipeline d'évaluation mis en place pour garantir que le chatbot fonctionne correctement avant d'être mis à la disposition des clients.

Pipeline d'évaluation

  1. Simulation des inputs : Trois types de scénarios doivent être testés :

    • Scénarios idéaux : questions parfaitement formulées.
    • Scénarios réalistes : questions typiques des utilisateurs.
    • Scénarios adverses : tentatives de manipulation ou d'abus du système.
  2. Génération des outputs : Les réponses du chatbot sont collectées et évaluées.

  3. Évaluation des outputs : Deux axes sont considérés :

    • Qualité de l'output : pertinence et justesse des réponses.
    • Qualité opérationnelle : latence, coûts et stabilité du système.

Équilibre entre créativité et contrôle

Erin souligne le paradoxe de l'IA générative : la créativité des LLM doit être équilibrée avec un contrôle suffisant pour éviter les risques d'hallucination et de réponses inappropriées. Ce compromis est essentiel pour garantir la confiance des utilisateurs dans les systèmes déployés.

Ce qu'il faut retenir

L'évaluation des systèmes d'IA générative est un processus complexe qui nécessite une méthodologie rigoureuse. Il est crucial de redéfinir les critères d'évaluation, d'intégrer le jugement humain et de mettre en place un suivi continu. Le cas du chatbot RAG illustre l'importance d'un pipeline d'évaluation structuré pour garantir la fiabilité des systèmes avant leur mise en production.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures intégrant des agents d'IA générative soulève des questions fondamentales sur la gouvernance et l'automatisation. Alors que les LLM offrent des capacités créatives sans précédent, leur intégration dans des workflows critiques nécessite une attention particulière à l'évaluation et à la supervision. La mise en place de pipelines d'évaluation robustes devient un impératif pour naviguer dans ce paysage en constante évolution, où la confiance des utilisateurs repose sur la capacité à maîtriser la créativité tout en garantissant la sécurité et la pertinence des outputs. L'avenir des systèmes d'IA générative dépendra de notre capacité à équilibrer ces forces opposées, tout en adoptant des pratiques de développement agiles et responsables.

Fiche programme

🤖 Apprendre à notre IA à ... apprendre 🧠

  • Speakers : Stéphane Philippart (X · LinkedIn · Bluesky)
  • Type : 2H Deep Dive
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 10:30 à 12:30 · Salle Paris 241

Ce talk clarifie les notions clés de l’IA moderne — RAG, MCP, agents, fine‑tuning, etc. — pour aider les développeurs à comprendre leurs différences, avantages et limites. Il fournit des repères concrets pour choisir la bonne approche et intégrer efficacement l’intelligence artificielle dans leurs projets quotidiens.

🤖 Apprendre à notre IA à ... apprendre 🧠

L'intelligence artificielle (IA) est devenue un pilier incontournable dans le développement logiciel moderne. Avec la montée en puissance des modèles génératifs et des agents intelligents, il est crucial pour les développeurs de comprendre les nuances de ces technologies. La session présentée par Stéphane Philippart lors de la conférence Devox s'inscrit dans cette démarche, en clarifiant des concepts clés tels que RAG, MCP, et le fine-tuning, tout en fournissant des repères pratiques pour intégrer l'IA dans les projets quotidiens.

Ce que présente le talk

Ce talk s'articule autour de l'apprentissage des modèles d'IA et des différentes approches pour les intégrer efficacement dans des applications. Stéphane Philippart aborde les acronymes souvent rencontrés dans le domaine de l'IA, en les décomposant pour en expliquer les spécificités, les avantages et les limites. L'objectif est d'aider les développeurs à choisir la bonne méthode d'implémentation et à enrichir leurs solutions avec de l'IA pertinente.

Points techniques importants

Concepts fondamentaux de l'IA

  • RAG (Retrieval-Augmented Generation) : Ce modèle combine la génération de texte avec la récupération d'informations, permettant aux systèmes d'IA de fournir des réponses plus précises en s'appuyant sur des données externes.

  • MCP (Model, Context, Protocol) : Un cadre qui définit comment les modèles interagissent avec leur environnement, en tenant compte du contexte et des protocoles d'échange d'informations.

  • Agents : Des entités autonomes capables d'exécuter des tâches spécifiques, souvent en utilisant des modèles d'IA pour interagir avec les utilisateurs ou d'autres systèmes.

Approches d'apprentissage

  • Fine-tuning : Ce processus consiste à adapter un modèle pré-entraîné à un domaine spécifique en l'entraînant sur un ensemble de données plus restreint. Cela permet d'améliorer la pertinence des réponses fournies par le modèle.

  • Tooling et intégration : L'utilisation de bibliothèques et d'outils comme JBang pour simplifier le développement en Java. JBang permet de créer des scripts Java sans avoir à gérer des dépendances complexes, facilitant ainsi l'expérimentation avec des modèles d'IA.

Démonstration pratique

Stéphane présente un exemple concret en développant un chatbot. Ce cas d'utilisation permet d'illustrer comment enrichir un modèle d'IA avec des données spécifiques et comment utiliser des techniques de prompting pour améliorer la qualité des réponses.

Sécurité et gouvernance des données

Un point crucial abordé est la nécessité de comprendre la provenance des données utilisées pour entraîner les modèles. Les développeurs doivent être conscients des implications de l'utilisation de modèles open-source, notamment en ce qui concerne la transparence des données d'entraînement et les licences associées.

Ce qu'il faut retenir

  • La compréhension des acronymes et des concepts clés de l'IA est essentielle pour les développeurs souhaitant intégrer ces technologies dans leurs projets.
  • Le fine-tuning et l'utilisation de modèles comme RAG peuvent considérablement améliorer la pertinence des réponses générées par les systèmes d'IA.
  • L'intégration de l'IA dans des applications Java peut être facilitée par des outils comme JBang, qui simplifient la gestion des dépendances et des scripts.
  • La sécurité et la gouvernance des données doivent être au centre des préoccupations lors de l'utilisation de modèles d'IA, en particulier dans un contexte européen.

Réflexions Darkwood

La session de Stéphane Philippart met en lumière l'évolution des systèmes logiciels vers une intégration accrue de l'IA. L'automatisation des workflows et l'utilisation d'agents intelligents sont des tendances qui redéfinissent les architectures modernes. En plaçant le développeur au cœur de cette transformation, il devient possible de créer des solutions plus robustes et adaptées aux besoins spécifiques des utilisateurs. L'avenir du développement logiciel semble se diriger vers une orchestration harmonieuse entre l'humain et la machine, où la compréhension des données et des modèles d'IA sera essentielle pour garantir la sécurité et l'efficacité des systèmes.

Fiche programme

Dev agentique : Stitch et Jules dans l’Antigravité de la constellation Gemini

  • Speakers : Guillaume Laforge (X · LinkedIn · Bluesky · Mastodon)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 11:35 à 12:20 · Salle Neuilly 151

Présentation des nouveaux outils IA de Google : Antigravity (IDE à agents autonomes), Stitch (concepteur d’interfaces avec IA), Jules (agent GitHub automatisé) et Gemini CLI (assistant polyvalent). Le talk montre comment les exploiter efficacement et collaborer avec ces “agents” pour améliorer productivité et gestion des tâches.

Dev agentique : Stitch et Jules dans l’Antigravité de la constellation Gemini

La conférence présentée par Guillaume Laforge, développeur advocate chez Google, s'inscrit dans un contexte où l'intelligence artificielle et les systèmes agentiques prennent une place prépondérante dans le développement logiciel. Avec l'émergence d'outils tels qu'Antigravity, Stitch, Jules et Gemini CLI, il devient crucial pour les développeurs de comprendre comment tirer parti de ces technologies pour optimiser leur flux de travail et améliorer la productivité.

Ce que présente le talk

Guillaume Laforge nous introduit à une série d'outils IA développés par Google, chacun ayant un rôle spécifique dans le processus de développement. Le talk se concentre sur :

  • Antigravity : un IDE à agents autonomes.
  • Stitch : un concepteur d'interfaces assisté par IA.
  • Jules : un agent GitHub automatisé.
  • Gemini CLI : un assistant polyvalent intégré dans le terminal.

L'objectif est de comprendre comment ces outils peuvent être utilisés ensemble pour améliorer la gestion des tâches et la collaboration au sein des équipes de développement.

Points techniques importants

Architecture des outils

Les outils présentés s'inscrivent dans une architecture orientée agent, où chaque outil joue un rôle distinct mais complémentaire. Par exemple :

  • Antigravity propose un environnement de développement centré sur les agents, permettant aux développeurs de planifier et de superviser le travail des agents autonomes.
  • Stitch facilite la création d'interfaces utilisateur en générant des prototypes basés sur des spécifications fournies par l'utilisateur.

Patterns et workflows

La présentation souligne l'importance de la collaboration entre ces outils :

  • Prototypage avec Stitch et AI Studio : le processus commence par la création d'un prototype via Stitch, qui peut ensuite être intégré dans Antigravity pour le développement.
  • Développement avec Antigravity et Gemini CLI : une fois le prototype validé, les développeurs peuvent utiliser Antigravity pour coder, tandis que Gemini CLI permet d'interagir avec le code via la ligne de commande.

Intégration et interopérabilité

L'interopérabilité entre les outils est un point clé :

  • Support des standards : Antigravity et Gemini CLI supportent des formats de fichiers communs, facilitant ainsi la collaboration entre différents agents.
  • Gestion des tâches avec Jules : après le déploiement, Jules s'occupe de la maintenance en automatisant des tâches comme la gestion des bugs et les mises à jour de tests.

Performance et scalabilité

L'utilisation de ces outils peut également améliorer la performance :

  • Optimisation des tâches répétitives : Jules, en tant qu'agent GitHub, permet de déléguer des tâches ingrates, libérant ainsi du temps pour les développeurs.
  • Adaptation aux besoins de l'équipe : les outils sont conçus pour s'adapter à des équipes de différentes tailles, permettant une scalabilité fluide.

Ce qu'il faut retenir

La présentation de Guillaume Laforge met en avant l'importance d'adopter des outils agentiques pour optimiser le développement logiciel. Les points clés à retenir incluent :

  • L'intégration des outils IA dans le flux de travail des développeurs.
  • La collaboration entre agents pour améliorer la productivité.
  • L'importance de la standardisation pour faciliter l'interopérabilité.

Réflexions Darkwood

L'émergence d'outils comme ceux présentés dans cette conférence marque une évolution significative dans la manière dont nous concevons et développons des systèmes logiciels. L'automatisation des tâches répétitives et la collaboration avec des agents IA ouvrent la voie à des workflows plus efficaces et moins sujets à l'erreur humaine.

Cette tendance vers l'agentique pourrait également influencer la gouvernance des projets logiciels, en permettant une meilleure traçabilité des actions effectuées par les agents. À mesure que ces technologies continuent de se développer, il sera essentiel pour les équipes de développement de s'adapter à ces nouveaux paradigmes, intégrant des agents IA non seulement comme outils, mais comme partenaires actifs dans le processus de création.

Fiche programme

MCP en pratique : une application pour tout comprendre

  • Speakers : Bertrand Nau (LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 11:35 à 12:20 · Salle Maillot

Ce talk explore le Model Context Protocol (MCP) d’Anthropic, un protocole clé pour connecter LLM et systèmes externes. Après une introduction pratique, il détaille les mécanismes internes de MCP via un projet Python, offrant ainsi aux participants les bases pour intégrer MCP dans leurs propres projets.

MCP en pratique : une application pour tout comprendre

Le Model Context Protocol (MCP), développé par Anthropic, représente une avancée significative dans l'interconnexion des systèmes d'intelligence artificielle. Dans un écosystème où les modèles de langage (LLM) prennent de plus en plus d'importance, comprendre et maîtriser ce protocole est essentiel pour les développeurs souhaitant intégrer des capacités avancées dans leurs applications. Ce talk, présenté par Bertrand Nau, offre une plongée technique dans le fonctionnement de MCP, en se basant sur un projet Python concret.

Ce que présente le talk

La session explore le MCP, un protocole clé pour connecter des LLM à des systèmes externes. L'intervenant propose une introduction pratique suivie d'une démonstration de développement d'une application en Python, permettant ainsi aux participants de saisir les mécanismes internes de MCP et de se préparer à son intégration dans leurs projets.

Points techniques importants

Architecture de MCP

MCP repose sur une architecture simple mais efficace, composée de trois acteurs principaux :

  • Host : L'application que l'utilisateur manipule (ex. IDE, chatbot).
  • Client : Un ou plusieurs clients par host, établissant des connexions un à un.
  • Serveur : Le cœur du protocole, responsable de la gestion des données et des fonctionnalités.

Fonctionnalités du Serveur

Le serveur MCP propose trois primitives fondamentales :

  1. Tool : Permet au LLM d'appeler des outils externes ou d'accéder à des données en temps réel.
  2. Ressources : Sources de données qui peuvent être ajoutées comme des pièces jointes à un prompt.
  3. Prompt : Guide l'utilisateur sur les actions possibles dans une interface de chat, facilitant ainsi l'interaction.

Communication entre les Briques

La communication entre les différents composants de MCP s'effectue via gRPC, un protocole léger permettant des échanges bidirectionnels. Les échanges principaux incluent :

  • Initialisation : Handshake pour établir une session persistante.
  • Utilisation des fonctionnalités : Appels de fonctionnalités entre client et serveur.
  • Notifications : Mécanisme pour informer le client de changements côté serveur.

Transport des Données

MCP propose plusieurs modes de transport :

  • STDIO : Pour les applications desktop, permettant une exécution locale.
  • Streamable HTTP : Idéal pour des serveurs distants.
  • SSE (Server-Sent Events) : Pour des notifications en temps réel (bien que déprécié).

Démonstration Pratique

L'intervenant illustre la mise en œuvre de MCP à travers une application Python utilisant le framework Fast MCP. La démonstration comprend :

  • La création d'un tool pour rechercher des conférences techniques.
  • L'implémentation d'un prompt pour guider l'utilisateur.
  • L'exposition de ressources à partir d'un dossier local.

Ce qu'il faut retenir

MCP se présente comme un protocole versatile et puissant pour l'intégration de LLM dans des systèmes externes. Sa simplicité d'utilisation cache une architecture robuste, permettant des interactions complexes entre différents composants. Les développeurs peuvent tirer parti de ses primitives pour enrichir leurs applications et améliorer l'expérience utilisateur.

Réflexions Darkwood

L'émergence de protocoles comme MCP souligne une tendance vers une interopérabilité accrue entre les systèmes d'IA et les applications. À mesure que les LLM deviennent omniprésents, l'automatisation des workflows et l'orchestration des agents IA deviendront des enjeux cruciaux. MCP, en facilitant la connectivité et l'intégration des données, ouvre la voie à des architectures modernes où les systèmes peuvent collaborer de manière fluide, transformant ainsi le paysage du développement logiciel. La capacité à orchestrer ces interactions de manière efficace pourrait bien redéfinir les standards de l'industrie, en rendant les applications plus intelligentes et adaptatives.

Fiche programme

The evolution of Software engineering

  • Speakers : Theophane Gregoir (LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 11:35 à 12:20 · Salle Neuilly 153

L'évolution de l'ingénierie logicielle

Dans un contexte où l'automatisation et l'intelligence artificielle redéfinissent les pratiques de développement, la conférence présentée par Théophane Gregoir d'OpenAI explore comment des agents de codage comme Codex transforment le rôle des ingénieurs logiciels. Ce talk est particulièrement pertinent dans l'écosystème actuel, où la vitesse et l'efficacité sont primordiales pour la livraison de logiciels.

Ce que présente le talk

Théophane Gregoir met en lumière l'évolution de l'ingénierie logicielle, en se concentrant sur l'impact des agents de codage tels que Codex. L'objectif est de passer d'une approche où les développeurs écrivent manuellement du code à une orchestration d'équipes d'agents intelligents. Gregoir partage des insights sur les changements fondamentaux dans la manière dont les équipes de développement expédient leurs logiciels, en s'appuyant sur des expériences concrètes avec les clients d'OpenAI.

Points techniques importants

Codex : Un aperçu

Codex est présenté comme un modèle fondamental qui permet de comprendre et de générer du code. Gregoir explique que ce modèle repose sur une architecture à plusieurs niveaux :

  • Modèle fondamental : La couche d'intelligence qui comprend et génère du code.
  • Unified Agent Harness : Un cadre qui gère l'exécution des agents, l'environnement de configuration, et assure une exécution fiable.

Interactions avec Codex

Gregoir décrit trois principales interfaces pour interagir avec Codex :

  1. CLI : Une interface en ligne de commande qui attire les développeurs techniques.
  2. IDEs : Intégrations avec des environnements de développement comme Visual Studio.
  3. Codex App : Une application de bureau qui permet une gestion plus fluide des projets, facilitant le travail sur plusieurs dépôts et tâches simultanément.

Gestion des agents

L'un des points clés du talk est la gestion des équipes d'agents. Gregoir introduit plusieurs concepts :

  • agents.md : Un document d'onboarding pour les agents, leur fournissant une compréhension claire des objectifs et des outils à leur disposition.
  • Plugins : Des outils réutilisables et des connexions à des applications externes, permettant aux agents de s'intégrer facilement dans le flux de travail.
  • Exact Plans : Des documents de mission qui définissent les objectifs, les contraintes et les critères de succès pour les agents, transformant ces plans en mémoire institutionnelle après l'achèvement des tâches.

Revue de code automatisée

La fonctionnalité de revue de code, désormais accessible via divers canaux, permet d'obtenir un retour d'un ingénieur senior sur le code produit par les agents. Cela assure une qualité constante et une détection précoce des bogues.

Ce qu'il faut retenir

L'évolution de l'ingénierie logicielle, telle que présentée par Théophane Gregoir, souligne un changement de paradigme : les développeurs ne se contentent plus de coder, mais orchestrent des équipes d'agents intelligents. Les outils comme Codex permettent une gestion plus efficace des projets, tout en améliorant la qualité du code grâce à des revues automatisées.

Réflexions Darkwood

L'émergence d'agents intelligents dans le développement logiciel marque une étape cruciale dans l'évolution des systèmes logiciels. Ce passage vers une orchestration d'agents soulève des questions sur l'automatisation et la gouvernance des workflows. Alors que les équipes de développement adoptent ces nouvelles technologies, il est essentiel de réfléchir à l'impact sur la culture de travail, la collaboration entre humains et machines, et les implications éthiques de l'automatisation. À mesure que les agents IA deviennent des coéquipiers, la nécessité d'une supervision humaine et d'une gouvernance adéquate devient primordiale pour garantir une intégration harmonieuse dans les processus de développement.

Fiche programme

Construire des agents IA en Kotlin avec Koog

  • Speakers : Ghassane LATFI (LinkedIn)
  • Type : Lunch Talk
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 12:35 à 12:50 · Salle Neuilly 153

Construire des agents IA en Kotlin avec Koog

Dans un monde où l'intelligence artificielle (IA) devient omniprésente, la création d'agents autonomes capables d'interagir avec leur environnement est un enjeu majeur. La session présentée par Ghassane Latfi lors de ce lunch talk met en lumière Koog, un framework open-source développé par JetBrains, conçu pour faciliter la création d'agents IA en Kotlin. Ce sujet est particulièrement pertinent dans le contexte actuel où la demande pour des solutions d'IA intégrées dans les applications est en forte croissance.

Ce que présente le talk

La présentation se concentre sur Koog, un framework qui permet de construire des agents IA de manière maintenable et scalable. Latfi explique comment structurer un agent à l'aide de la Domain-Specific Language (DSL) de Koog, intégrer des outils externes et orchestrer des scénarios complexes. À travers un cas d'usage concret, il démontre les capacités de Koog à gérer des workflows sophistiqués tout en maintenant une architecture claire.

Points techniques importants

Architecture et Orchestration

Koog se distingue par sa capacité à orchestrer des agents IA à travers des nœuds d'exécution conditionnels et parallèles. Chaque agent peut être vu comme un graphe d'exécution, où chaque nœud représente une étape dans le traitement des données. Les nœuds peuvent être configurés pour exécuter des tâches spécifiques en fonction de conditions définies, ce qui permet une flexibilité et une réactivité accrues.

Gestion des LLMs

Un des avantages majeurs de Koog est sa couche d'abstraction pour les modèles de langage (LLM). Cela permet aux développeurs de créer des agents multi-LLM, où chaque tâche peut être associée au modèle le plus adapté. Cette approche réduit les dépendances directes et facilite la maintenance du code.

Types Complexes et Checkpoints

Koog gère également les types complexes, permettant aux développeurs de définir des classes ou des objets pour les entrées et sorties de chaque tâche. De plus, le framework offre la possibilité de créer des checkpoints, garantissant que l'exécution peut reprendre à partir du dernier état connu en cas d'erreur, ce qui est crucial pour la robustesse des systèmes en production.

Intégration et Monitoring

Le framework est conçu pour s'intégrer facilement dans des environnements variés, qu'il s'agisse de JVM, Android/iOS ou même de WebAssembly. Koog inclut par défaut des exportateurs pour des outils de monitoring tels qu'OpenTelemetry, ce qui facilite la traçabilité et l'analyse des performances des agents.

Exemple de Workflow

Latfi illustre la création d'un agent IA pour le support client dans le domaine des dispositifs médicaux. L'agent doit valider les demandes, générer des requêtes SQL et formater les réponses. Ce workflow complexe est géré par des nœuds interconnectés, chacun ayant des responsabilités spécifiques, ce qui démontre la puissance de l'approche de Koog pour orchestrer des processus métiers.

Ce qu'il faut retenir

Koog se positionne comme un outil puissant pour le développement d'agents IA en Kotlin, offrant une architecture flexible et scalable. Ses fonctionnalités d'orchestration, de gestion des LLMs et de monitoring en font un choix judicieux pour les développeurs souhaitant intégrer des agents IA dans leurs applications. L'approche par workflow permet de maintenir une clarté dans la logique métier tout en facilitant l'intégration de nouvelles fonctionnalités.

Réflexions Darkwood

La présentation de Koog s'inscrit dans une tendance plus large vers l'automatisation et l'orchestration des workflows dans le développement logiciel. À mesure que les systèmes deviennent plus complexes, la nécessité d'agents IA capables de gérer des tâches variées et d'interagir avec différents services devient cruciale. L'intégration de tels agents dans des architectures modernes pourrait transformer la manière dont les entreprises abordent la gestion des données et l'interaction client, rendant les processus plus efficaces et réactifs. Koog, avec sa conception orientée vers le développement multiplateforme et son approche modulaire, pourrait bien jouer un rôle clé dans cette évolution.

Fiche programme

Le vrai coût d'un token: la facture cachée de l’IA générative

  • Speakers : Pietro Mele
  • Type : Lunch Talk
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 13:00 à 13:15 · Salle Maillot

Cette session analyse le coût environnemental réel de l’IA générative — énergie, eau, déchets — au‑delà des métriques économiques. Elle propose des stratégies d’optimisation et d’architecture pour une « IA verte », plus efficace et durable, conciliant performance technologique et responsabilité écologique.

Le vrai coût d'un token : la facture cachée de l’IA générative

La session animée par Pietro Mele lors de la conférence aborde un sujet crucial et souvent négligé dans le développement de l'intelligence artificielle : le coût environnemental de l'IA générative. Alors que l'adoption de ces technologies s'accélère, il devient impératif de comprendre non seulement les implications économiques, mais aussi les impacts écologiques de ces systèmes.

Ce que présente le talk

Pietro Mele met en lumière le coût réel associé à l'utilisation de l'IA générative, qui ne se limite pas aux simples métriques financières. Il souligne l'importance de considérer les ressources énergétiques, hydriques et les déchets générés par ces technologies. La session propose également des stratégies pour optimiser l'architecture des systèmes d'IA afin de réduire leur empreinte écologique, tout en maintenant une performance technologique élevée.

Points techniques importants

Coût énergétique et environnemental

  • Consommation d'énergie : L'entraînement des modèles d'IA générative, comme GPT-5, consomme des quantités d'énergie astronomiques, estimées à environ 162 millions de kWh. Pour mettre cela en perspective, cette consommation équivaut à l'énergie nécessaire pour faire un aller-retour vers Jupiter en voiture.
  • Coût d'inférence : Une requête simple sur un modèle d'IA peut consommer jusqu'à 0,42 watt, soit dix fois plus qu'une recherche traditionnelle sur Google. Ce coût énergétique devient un enjeu majeur à mesure que l'utilisation des LLM (Large Language Models) se généralise.
  • Consommation d'eau : Les data centers, nécessaires au fonctionnement des modèles d'IA, consomment d'énormes quantités d'eau pour le refroidissement, avec des estimations variant entre 760 et 6600 milliards de litres.

Stratégies d'optimisation

  • Infrastructure écoresponsable : Concevoir des architectures optimisées et utiliser des infrastructures situées dans des régions où l'énergie est produite de manière durable, comme en France.
  • Optimisation des pipelines : Nettoyer les données en amont pour réduire le coût de l'entraînement, et utiliser des architectures comme "Mixture of Experts" pour économiser des ressources.
  • Approches sensibles au carbone : Utiliser des outils comme "Code Carbone" pour évaluer la consommation énergétique des applications et mettre en œuvre des techniques de "prompt caching" pour réduire les coûts d'inférence.
  • Autoscaling : Mettre en place des solutions d'autoscaling, comme HPA et Keda pour Kubernetes, pour ajuster dynamiquement les ressources en fonction de la demande, réduisant ainsi les coûts et l'impact environnemental.

Économie circulaire et durabilité

  • Réduction des déchets électroniques : L'impact environnemental des matériaux nécessaires à la production de GPU et de CPU est également un point de préoccupation. L'optimisation des cycles de vie des équipements peut contribuer à minimiser ces déchets.

Ce qu'il faut retenir

La session souligne l'importance de considérer le coût environnemental de l'IA générative, au-delà des simples métriques économiques. Les développeurs doivent être conscients des ressources nécessaires pour entraîner et utiliser ces modèles, et adopter des pratiques qui favorisent une IA plus durable. Les stratégies d'optimisation proposées permettent non seulement de réduire l'impact écologique, mais aussi de diminuer les coûts d'exploitation.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une conscience écologique est désormais inévitable. Alors que l'automatisation et l'IA continuent de transformer les workflows, il est essentiel d'intégrer des considérations environnementales dans la conception des architectures modernes. L'optimisation des ressources et la mise en œuvre de pratiques durables ne sont pas seulement des impératifs éthiques, mais également des leviers économiques. À mesure que l'industrie du développement progresse, la capacité à concilier performance technologique et responsabilité écologique deviendra un critère déterminant pour les entreprises souhaitant se démarquer dans un marché en constante évolution.

Fiche programme

Avec l’IA, la musique a-t-elle le blues ?

  • Speakers : Sébastien Moreno (LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 13:30 à 14:15 · Salle Neuilly 153

Cette session analyse le fonctionnement des IA génératives musicales, avec démonstration, comparant création traditionnelle et nouvelles méthodes hybrides. Elle décrypte l’évolution de l’industrie musicale, ses acteurs, les bouleversements induits par l’IA, et propose des scénarios d’avenir, entre opportunités, nouveaux modèles et défis juridiques ou culturels.

Avec l’IA, la musique a-t-elle le blues ?

La session animée par Sébastien Moreno, expert en plateformes chez Deezer, aborde un sujet d'actualité brûlant : l'impact de l'intelligence artificielle sur la création musicale. À l'heure où l'IA générative s'impose dans divers domaines, la musique ne fait pas exception. Ce talk offre une perspective sur l'évolution de l'industrie musicale face à ces nouvelles technologies, tout en proposant une démonstration pratique des capacités des IA musicales.

Ce que présente le talk

Le talk se concentre sur le fonctionnement des modèles génératifs appliqués à la musique, en les comparant aux méthodes de création traditionnelles. À travers une démonstration en direct, Sébastien Moreno illustre comment ces systèmes peuvent composer des morceaux de musique, tout en mettant en lumière les forces et les limites de l'IA musicale. En parallèle, il explore la chaîne de valeur de l'industrie musicale, ses acteurs clés, et les nouveaux modèles économiques qui émergent dans ce contexte de transformation.

Points techniques importants

Modèles génératifs et processus créatif

  • IA Générative : Les modèles génératifs, comme ceux utilisés par des outils tels que Suno, permettent de créer des compositions musicales à partir de simples instructions textuelles. Cette approche contraste avec le processus créatif traditionnel, qui implique souvent une collaboration humaine complexe.

  • Démonstration en direct : Sébastien a montré comment générer une chanson en temps réel, en choisissant des styles musicaux, des voix, et même des éléments audio préexistants. Cela illustre la rapidité et la flexibilité des outils d'IA dans la création musicale.

Évolution de l'industrie musicale

  • Chaîne de valeur : L'industrie musicale traditionnelle implique de nombreux acteurs, tels que les artistes, producteurs, labels, et distributeurs. L'IA promet de simplifier ce processus, mais soulève également des questions sur la répartition des rôles et des revenus.

  • Nouveaux modèles économiques : L'émergence de l'IA générative pourrait redéfinir les relations entre artistes et producteurs, ainsi que les mécanismes de distribution. Les artistes pourraient avoir plus de contrôle sur leur création, mais cela pourrait également entraîner des tensions avec les acteurs traditionnels de l'industrie.

Défis culturels et juridiques

  • Propriété intellectuelle : L'utilisation de l'IA pour générer de la musique pose des questions complexes sur la propriété des œuvres créées. Qui détient les droits d'une chanson générée par une IA ? Les artistes, les développeurs des outils, ou l'IA elle-même ?

  • Impact culturel : La démocratisation de la création musicale grâce à l'IA pourrait également entraîner une uniformisation des styles et des genres, remettant en question l'authenticité et la diversité culturelle de la musique.

Ce qu'il faut retenir

La session met en lumière le potentiel disruptif de l'IA dans le domaine musical. Les modèles génératifs offrent des opportunités sans précédent pour la création musicale, tout en soulevant des défis significatifs en matière de droits d'auteur et d'impact culturel. La transformation de l'industrie musicale est en marche, et les acteurs traditionnels doivent s'adapter à cette nouvelle réalité.

Réflexions Darkwood

L'essor des systèmes d'IA générative dans la musique est révélateur d'une tendance plus large dans l'évolution des systèmes logiciels. À mesure que l'automatisation et l'intelligence artificielle prennent de l'ampleur, les workflows créatifs sont redéfinis, et les rôles au sein des équipes de développement et de création évoluent. Cette dynamique soulève des questions essentielles sur la gouvernance des technologies, l'impact sur les métiers créatifs, et la nécessité d'une régulation adaptée pour équilibrer innovation et protection des droits. Les architectures modernes doivent intégrer ces considérations pour naviguer dans un paysage en constante mutation, où l'IA ne se contente pas de soutenir la création, mais devient un acteur à part entière de celle-ci.

Fiche programme

Standards et agents IA : un tour d’horizon de MCP, A2A, ADK et plus encore

  • Speakers : Guillaume Laforge (X · LinkedIn · Bluesky · Mastodon), Emmanuel Bernard (X · LinkedIn · Bluesky)
  • Type : 3H Deep Dive
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 13:30 à 16:30 · Salle Neuilly 251

Cette session propose un deep dive sur les protocoles clés des agents IA (MCP, A2A, ACP) et leurs frameworks associés (ADK, Arc, Quarkus, LangChain4j). À travers démos et constructions d’agents, elle explique leur rôle, leur fonctionnement et leur importance pour concevoir des systèmes multi-agents interopérables.

Standards et agents IA : un tour d’horizon de MCP, A2A, ADK et plus encore

La session présentée par Guillaume Laforge et Emmanuel Bernard lors de la conférence sur les systèmes agentiques et l'IA met en lumière les protocoles fondamentaux qui régissent les agents IA. Dans un écosystème technologique en constante évolution, comprendre ces standards est crucial pour les développeurs souhaitant intégrer des agents intelligents dans leurs systèmes.

Ce que présente le talk

Cette session de trois heures propose une exploration approfondie des protocoles clés comme MCP (Multi-Channel Protocol), A2A (Agent-to-Agent) et ACP (Agent Communication Protocol), ainsi que des frameworks associés tels qu'ADK (Agent Development Kit), Arc, Quarkus et LangChain4j. À travers des démonstrations pratiques et la construction d'agents, les intervenants expliquent leur fonctionnement et leur importance pour la création de systèmes multi-agents interopérables.

Points techniques importants

Protocoles et standards

  • MCP (Multi-Channel Protocol) : Permet aux agents de communiquer à travers différents canaux, facilitant ainsi l’interopérabilité.
  • A2A (Agent-to-Agent) : Focalisé sur la communication directe entre agents, ce protocole est essentiel pour la coordination et la collaboration entre plusieurs agents.
  • ACP (Agent Communication Protocol) : Un cadre pour structurer les échanges d’informations entre agents, garantissant que les messages sont compris et traités correctement.

Frameworks associés

  • ADK (Agent Development Kit) : Un framework open-source de Google qui simplifie le développement d'agents IA. Il offre des outils pour créer des agents capables d'interagir avec divers protocoles.
  • LangChain4j : Un projet open-source qui facilite l'intégration de LLM (Large Language Models) avec des agents, permettant ainsi de créer des applications plus intelligentes.
  • Quarkus : Un framework Java qui optimise le développement d'applications cloud-native, particulièrement adapté pour les systèmes basés sur des agents.

Architecture des agents IA

Les intervenants définissent un agent IA comme un système capable de percevoir son environnement et d'agir en conséquence. Ils soulignent quatre éléments clés nécessaires à la conception d'un agent :

  1. Cerveau (LLM) : Un modèle de langage qui permet à l'agent de comprendre et de générer du texte.
  2. Mémoire : Essentielle pour que l'agent puisse se souvenir des interactions passées et maintenir un contexte.
  3. Planification : La capacité de déterminer les actions à entreprendre en fonction des objectifs définis.
  4. Outils : Les agents doivent pouvoir utiliser des outils externes pour accomplir leurs tâches, qu'il s'agisse d'APIs ou d'autres services.

Phases d'interaction des agents

Les intervenants décrivent plusieurs phases dans le fonctionnement d'un agent :

  • Réflexion : Comprendre l'objectif à atteindre et les outils disponibles.
  • Planification : Déterminer les actions à entreprendre, que ce soit de manière déterministe ou émergente.
  • Action : Exécution des tâches via des appels à des APIs ou d'autres services.
  • Réflexion post-action : Évaluation des résultats obtenus et ajustement des actions si nécessaire.

Orchestration et multi-agents

L'importance de l'orchestration dans les systèmes multi-agents est également abordée. Les intervenants soulignent que la décomposition des tâches en agents spécialisés peut mener à des résultats plus efficaces qu'un agent omnipotent.

Ce qu'il faut retenir

  • La compréhension des protocoles comme MCP et A2A est essentielle pour développer des systèmes d'agents IA interopérables.
  • Les frameworks comme ADK et LangChain4j offrent des outils puissants pour faciliter le développement d'agents.
  • La conception d'agents IA doit prendre en compte non seulement leur capacité à agir, mais aussi leur mémoire, leur planification et leur utilisation d'outils externes.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures basées sur des agents IA représente une avancée significative dans le développement d'applications intelligentes. L'automatisation des workflows et la capacité des agents à interagir de manière autonome ouvrent de nouvelles perspectives pour la gouvernance des systèmes. L'intégration de protocoles standardisés comme MCP et A2A est cruciale pour garantir l'interopérabilité entre agents, ce qui pourrait transformer la manière dont les entreprises conçoivent et déploient des solutions basées sur l'IA. À mesure que ces technologies se développent, les défis liés à la sécurité et à la gestion des données deviendront encore plus pressants, nécessitant une réflexion approfondie sur les meilleures pratiques et les normes à adopter.

Fiche programme

Une approche bottom-up pour la construction d'une taxonomie produit

  • Speakers : Robin Vaysse (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 13:30 à 14:15 · Salle Paris 242AB

Mirakl conçoit une taxonomie produit émergente à partir des données réelles plutôt qu’imposée. En combinant embeddings et LLMs, les produits se regroupent automatiquement en catégories spécifiques à chaque domaine, garantissant couverture et pertinence. Le talk détaille l’architecture et les avantages de cette approche bottom-up multi-industries.

Une approche bottom-up pour la construction d'une taxonomie produit

Dans un contexte où la diversité des produits sur les marketplaces est en constante augmentation, la nécessité d'une taxonomie produit efficace et adaptable devient cruciale. La session présentée par Robin Vaysse chez Mirakl aborde cette problématique en proposant une approche innovante qui repose sur des données réelles plutôt que sur des structures imposées. L'utilisation conjointe d'embeddings et de modèles de langage (LLMs) permet de regrouper automatiquement les produits en catégories pertinentes, adaptées à chaque domaine. Ce talk met en lumière l'architecture et les choix techniques qui sous-tendent cette méthode bottom-up.

Ce que présente le talk

La présentation se concentre sur la création d'une taxonomie produit à partir de millions de données réelles. Contrairement à une approche top-down, qui impose des catégories prédéfinies, Mirakl adopte une méthode où la taxonomie émerge naturellement des produits eux-mêmes. Cette stratégie vise à garantir une couverture exhaustive et une pertinence accrue des catégories, tout en facilitant la maintenance et l'évolutivité.

Points techniques importants

Architecture et choix techniques

  1. Approche Bottom-Up

    • La méthode consiste à partir des produits pour créer la taxonomie, plutôt que de définir des catégories à l'avance. Cela permet d'assurer que chaque produit trouve sa place dans une catégorie existante ou en crée une nouvelle si nécessaire.
  2. Utilisation des Embeddings et LLMs

    • Les produits sont représentés par des embeddings, qui sont des vecteurs générés à partir de leurs descriptions. Ces embeddings permettent de mesurer la similarité entre les produits et d'identifier des catégories pertinentes.
    • Un LLM est utilisé pour déterminer si un produit appartient à une catégorie existante ou s'il faut en créer une nouvelle. Ce processus itératif permet d'affiner continuellement la taxonomie.
  3. Granularité et Couverture

    • Les critères de granularité sont cruciaux. La taxonomie doit être suffisamment précise pour être utile, mais pas trop pour éviter la confusion. LLMs sont guidés par des exemples de catégories existantes pour maintenir cette granularité.
    • La couverture est assurée par le fait que chaque catégorie est basée sur des produits réels, garantissant ainsi que tous les types de produits sont représentés.

Processus de Création de Taxonomie

  1. Collecte de Données

    • Mirakl a acquis environ 3 millions de produits uniques, en veillant à la diversité des catégories pour éviter des biais dans la création de la taxonomie.
  2. Normalisation des Données

    • Les données sont normalisées à l'aide d'un LLM qui agrège les informations provenant de différentes sources, produisant une fiche produit standardisée.
  3. Catégorisation

    • Le processus de catégorisation commence avec des produits sans catégories. À chaque itération, le LLM détermine si un produit doit être classé dans une catégorie existante ou si une nouvelle catégorie doit être créée.
  4. Asynchronisme et Scalabilité

    • Bien que le processus soit initialement séquentiel pour éviter les doublons, il devient possible de paralléliser les tâches une fois qu'un certain seuil de produits traités est atteint, améliorant ainsi l'efficacité du pipeline.

Extraction des Attributs

  • Après la création des catégories, les attributs pertinents pour chaque catégorie sont extraits et normalisés. Cela implique un processus de dé-duplication sémantique pour garantir que les attributs sont cohérents et pertinents.

Ce qu'il faut retenir

L'approche bottom-up présentée par Mirakl offre une solution flexible et évolutive pour la création de taxonomies produits. En s'appuyant sur des données réelles et des techniques avancées d'apprentissage automatique, cette méthode permet de surmonter les limitations des approches traditionnelles. Les points clés à retenir incluent :

  • L'importance de partir des données réelles pour construire des catégories pertinentes.
  • L'utilisation conjointe d'embeddings et de LLMs pour assurer une couverture et une granularité adéquates.
  • La possibilité d'automatiser et d'optimiser le processus de catégorisation grâce à un pipeline évolutif.

Réflexions Darkwood

Cette session soulève des questions intéressantes sur l'évolution des systèmes logiciels, notamment en matière d'automatisation et de gouvernance des données. L'approche bottom-up pourrait bien représenter un tournant dans la manière dont les entreprises abordent la classification et la gestion des produits. En intégrant des agents IA dans le processus de création de taxonomies, les organisations peuvent non seulement améliorer la pertinence de leurs catégories, mais aussi gagner en agilité face à un marché en constante évolution.

L'impact potentiel sur l'industrie du développement est significatif : la capacité à créer des taxonomies adaptatives et évolutives pourrait transformer la manière dont les marketplaces gèrent la diversité des produits, tout en offrant une meilleure expérience utilisateur. Cette réflexion sur l'orchestration des données et l'automatisation des workflows est essentielle pour les entreprises souhaitant rester compétitives dans un environnement numérique de plus en plus complexe.

Fiche programme

Comment Harness a aidé Docaposte à sécuriser code et supply chain

  • Speakers : David SEVIN
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 14:35 à 15:20 · Salle Paris 242AB

Docaposte présente un retour d’expérience sur une software factory « Human first, LLM proof », conçue pour rester maîtrisée face aux usages des LLM par les développeurs comme par les attaquants. Quatre axes : isolation, sanitation, supply chain et auditabilité, avec architecture déployée et incident réel.

Comment Harness a aidé Docaposte à sécuriser code et supply chain

Dans un contexte où les modèles de langage (LLM) sont de plus en plus intégrés dans les chaînes de développement, la question de la sécurité devient cruciale. La session présentée par David Sevin de Docaposte aborde cette problématique en proposant un retour d'expérience sur la mise en place d'une software factory résiliente et sécurisée. Ce talk est particulièrement pertinent pour les architectes et les DevSecOps, car il traite des défis actuels liés à l'intégration des LLM dans les processus de développement.

Ce que présente le talk

David Sevin expose la démarche adoptée par Docaposte pour sécuriser sa chaîne CI/CD face à l'utilisation croissante des LLM par les développeurs et les attaquants. L'approche "Human first, LLM proof" se concentre sur quatre axes : l'isolation, la sanitation, la supply chain et l'auditabilité. L'objectif est de concevoir un système robuste qui prend en compte les usages réels, qu'ils soient bénéfiques ou malveillants.

Points techniques importants

Architecture de la Software Factory

La solution retenue par Docaposte repose sur une architecture CI/CD sécurisée, intégrant des outils variés pour la détection et la remédiation des vulnérabilités. L'architecture est conçue pour être adaptable, permettant de gérer les menaces internes et externes.

Isolation et Sanitation

  • Isolation : Les processus de développement sont isolés pour minimiser les risques de contamination entre les différentes étapes. Cela inclut des environnements de test et de production distincts.
  • Sanitation : Les données et le code sont soumis à des processus de sanitation pour éliminer les vulnérabilités potentielles avant déploiement.

Supply Chain et Auditabilité

  • Supply Chain : L'intégration de bibliothèques et d'outils externes est soigneusement gérée pour éviter l'introduction de failles. Des outils comme Trivy sont utilisés pour scanner les dépendances et détecter les vulnérabilités.
  • Auditabilité : Chaque étape du pipeline est documentée, permettant une traçabilité complète des modifications et des décisions prises.

Outils et Workflow

David Sevin présente plusieurs outils intégrés dans leur pipeline CI/CD :

  • Kit Leak : Pour détecter les fuites de secrets.
  • Semgrep : Pour identifier les patterns de code dangereux.
  • Trivy : Pour vérifier la sécurité des bibliothèques et des conteneurs.
  • Checkov : Pour détecter les erreurs de configuration.

Ces outils sont orchestrés de manière à automatiser les tests de sécurité et à réduire le temps de feedback pour les développeurs.

Remédiation et Gouvernance

La plateforme Harness permet de générer des recommandations de remédiation basées sur l'IA, facilitant ainsi la correction des failles détectées. De plus, des règles de gouvernance peuvent être définies pour empêcher l'exécution de pipelines non conformes, assurant ainsi une conformité continue avec les standards de sécurité.

Ce qu'il faut retenir

La session met en lumière l'importance de concevoir des systèmes de développement qui intègrent la sécurité dès le départ. Les quatre axes présentés — isolation, sanitation, supply chain et auditabilité — constituent un cadre solide pour sécuriser les chaînes CI/CD face aux menaces contemporaines. L'utilisation d'outils variés et d'une approche proactive en matière de remédiation est essentielle pour maintenir la sécurité tout en permettant l'innovation.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une intégration accrue des LLM pose des défis sans précédent en matière de sécurité. Les approches telles que celle de Docaposte, qui privilégient une gouvernance rigoureuse et une orchestration intelligente des outils de sécurité, sont cruciales. L'automatisation des workflows de sécurité et l'utilisation d'agents IA pour la remédiation peuvent transformer la manière dont les équipes de développement abordent la sécurité. À mesure que les architectures modernes évoluent, il devient impératif d'intégrer ces considérations dès la phase de conception pour garantir la résilience face aux menaces potentielles.

Fiche programme

Serveurs MCP sécurisés avec Spring AI

  • Speakers : Daniel Garnier-Moiroux (LinkedIn · Bluesky · Mastodon)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 14:35 à 15:20 · Salle Neuilly 252AB

Cette présentation explique comment sécuriser des applications LLM connectées via MCP grâce à OAuth2. À travers un exemple pratique avec Spring AI et le SDK MCP, elle détaille l’ajout d’une couche d’accès sécurisé, les choix architecturaux à faire et l’impact sur les serveurs et applications.

Serveurs MCP sécurisés avec Spring AI

Dans un contexte où l'intégration des systèmes d'intelligence artificielle devient incontournable, la sécurisation des applications utilisant des modèles de langage (LLM) est un enjeu majeur. La session animée par Daniel Garnier-Moiroux aborde ce sujet en profondeur, en se concentrant sur la sécurisation des applications LLM via le Model Context Protocol (MCP) et OAuth2, tout en utilisant Spring AI comme cadre de développement.

Ce que présente le talk

La présentation explore comment sécuriser des applications LLM connectées via MCP en intégrant une couche de sécurité basée sur OAuth2. À travers un exemple pratique, Daniel démontre comment construire un serveur MCP avec Spring AI et le SDK MCP, tout en discutant des choix architecturaux et des implications sur les serveurs et applications.

Points techniques importants

Introduction à MCP et OAuth2

MCP, ou Model Context Protocol, est un protocole standardisé permettant de connecter des applications basées sur des LLM à des serveurs tiers. Il facilite l'interaction entre les LLM et des fonctionnalités externes, comme la prise de rendez-vous ou la gestion de notes de frais. Cependant, l'accès à ces serveurs doit être sécurisé, ce qui nécessite l'intégration d'OAuth2 pour gérer les autorisations et l'accès.

Architecture et choix techniques

  • OAuth2 : Le choix du type de "grant" OAuth2 est crucial. Daniel évoque les différentes options disponibles et comment elles impactent l'accès aux fonctionnalités. Par exemple, limiter certaines actions uniquement aux administrateurs est une pratique recommandée.

  • Spring AI : L'intégration de Spring AI dans le développement d'un serveur MCP est mise en avant. Daniel montre comment configurer une application Spring pour qu'elle agisse comme un serveur MCP, en ajoutant des dépendances spécifiques et en configurant des outils via des annotations.

Sécurisation des applications

  • Implémentation d'OAuth2 : La mise en place d'une couche de sécurité nécessite des intégrations côté client et serveur. Daniel présente un exemple de connexion à un serveur d'autorisation, illustrant comment gérer les sessions utilisateur et les permissions.

  • Gestion des outils MCP : La création d'outils MCP via des méthodes annotées permet d'exposer des fonctionnalités spécifiques aux LLM. Daniel montre comment définir des méthodes dans un service Spring et les annoter pour qu'elles soient reconnues comme des outils MCP.

Démonstration pratique

Daniel réalise une démonstration en temps réel, où il construit un serveur MCP et y intègre des outils. Il utilise un client MCP pour tester les appels aux outils, illustrant ainsi le flux de données entre l'application, le LLM et le serveur.

Ce qu'il faut retenir

  • L'intégration de MCP avec OAuth2 est essentielle pour sécuriser les applications LLM.
  • Les choix architecturaux, tels que le type de "grant" OAuth2 et la définition des outils MCP, influencent directement la sécurité et la fonctionnalité des applications.
  • Spring AI offre des mécanismes robustes pour construire des serveurs MCP sécurisés, facilitant l'intégration avec des systèmes tiers.

Réflexions Darkwood

La sécurisation des systèmes logiciels, notamment ceux intégrant des LLM, représente un défi croissant dans l'industrie du développement. L'automatisation des processus via des agents IA et des workflows orchestrés devient une nécessité pour garantir la sécurité tout en maintenant une expérience utilisateur fluide. L'intégration de protocoles comme MCP et OAuth2 dans des architectures modernes permet non seulement de répondre aux exigences de sécurité, mais aussi d'optimiser les interactions entre les différents composants d'un système. À l'avenir, l'évolution vers des architectures plus distribuées et sécurisées sera essentielle pour tirer pleinement parti des capacités des LLM tout en protégeant les données sensibles.

Fiche programme

Tatouage numérique pour l'IA générative

  • Speakers : Pierre Fernandez (X · LinkedIn), Tom Sander (X · LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 14:35 à 15:20 · Salle Paris 143

La présentation décrit Meta Seal, cadre open source pour intégrer des tatouages numériques invisibles et robustes (image, vidéo, audio, texte). Elle détaille ses modules (PixelSeal, AudioSeal, TextSeal), leur passage de la recherche à la production chez Meta, leurs limites actuelles et les perspectives de tatouage pour la traçabilité des contenus et données.

Tatouage numérique pour l'IA générative

La session intitulée "Tatouage numérique pour l'IA générative" présentée par Pierre Fernandez et Tom Sander de Meta aborde un sujet crucial dans le contexte actuel de l'IA générative : la nécessité d'assurer la traçabilité et l'authenticité des contenus générés. Alors que les technologies de génération de contenu se perfectionnent, les risques associés à leur utilisation augmentent, rendant les solutions de tatouage numérique indispensables pour garantir la transparence et la sécurité des informations.

Ce que présente le talk

La présentation introduit Meta Seal, un cadre open source conçu pour intégrer des tatouages numériques invisibles et robustes dans divers types de contenus, y compris les images, vidéos, audio et texte. Les intervenants détaillent les trois modules principaux de Meta Seal : PixelSeal pour les images et vidéos, AudioSeal pour le contenu audio, et TextSeal pour le texte. Ils discutent également du passage de ces technologies de la recherche à la production, des défis rencontrés et des perspectives d'avenir pour le tatouage numérique, notamment en ce qui concerne la traçabilité des données.

Points techniques importants

Architecture et Modules

  1. PixelSeal :

    • Conçu pour les images et vidéos, il utilise des réseaux de neurones pour intégrer des tatouages invisibles.
    • L'approche repose sur des techniques d'entraînement adversarial, garantissant une robustesse face aux modifications des images.
  2. AudioSeal :

    • Adapté pour le streaming audio en temps réel, il permet de tatouer des contenus audio sans affecter leur qualité perceptible.
  3. TextSeal :

    • Dédié au tatouage de texte, il vise à assurer l'intégrité des contenus textuels, notamment pour des applications de recherche.

Techniques de Watermarking

  • Post-Generation Watermarking :

    • Le tatouage est appliqué après la génération du contenu. Cette méthode, bien que simple, présente des limites en termes de robustesse et de traçabilité.
  • Watermarking à la Génération :

    • Intégration du tatouage directement lors de la génération du contenu, ce qui permet une meilleure imperceptibilité et robustesse.
  • Critères d'Évaluation :

    • Imperceptibilité : La modification doit être indétectable par l'œil humain.
    • Charge Utile : Capacité à intégrer un message binaire sans dégrader le contenu.
    • Robustesse : Capacité à récupérer le message même après des transformations (recadrage, compression).

Détection et Traçabilité

  • Fingerprinting :

    • Stockage d'empreintes digitales des contenus générés pour faciliter la détection. Cependant, cette méthode pose des défis en termes de scalabilité.
  • Content Authenticity Initiative :

    • Un consortium visant à standardiser les méthodes de tatouage numérique pour assurer la transparence des contenus sur les plateformes sociales.

Ce qu'il faut retenir

La session met en lumière l'importance croissante des tatouages numériques dans le paysage de l'IA générative. Les modules de Meta Seal offrent des solutions robustes pour garantir l'authenticité et la traçabilité des contenus, tout en soulignant les défis techniques associés à leur mise en œuvre. La nécessité d'une approche proactive dans la détection des contenus générés est également un point clé, surtout à l'ère de la désinformation.

Réflexions Darkwood

Le développement de solutions de tatouage numérique comme Meta Seal s'inscrit dans une tendance plus large vers l'automatisation et la gouvernance des contenus numériques. À mesure que les systèmes d'IA deviennent plus sophistiqués, la nécessité de mécanismes de traçabilité et d'authenticité se renforce. Cela soulève des questions sur l'avenir des workflows de création de contenu, où l'intégration de l'IA pourrait devenir la norme. Les implications pour l'industrie du développement sont profondes : la nécessité d'une gouvernance des contenus générés pourrait redéfinir les standards de qualité et de sécurité, tout en ouvrant la voie à de nouvelles architectures basées sur la transparence et la responsabilité.

Fiche programme

L'IA dans le cycle de vie logiciel : quelles opportunités, quelles limites ?

  • Speakers : Aissa Bouhadjar (LinkedIn), Raphaël UZAN (LinkedIn), Ghizlane Pacheco
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 15:40 à 16:25 · Salle Maillot

L’IA transforme l’ensemble du cycle de vie logiciel, de la conception au déploiement. À partir de l’expérience d’une grande banque, cette présentation partage approches, pratiques et enseignements pour intégrer l’IA dans les chaînes de développement et améliorer l’efficacité des équipes grâce à des outils concrets et des retours terrain.

L'IA dans le cycle de vie logiciel : quelles opportunités, quelles limites ?

L'intelligence artificielle (IA) est en train de redéfinir le paysage du développement logiciel. Dans un contexte où l'efficacité et l'innovation sont primordiales, la session présentée par Aissa Bouhadjar, Raphaël Uzan et Ghizlane Pacheco au Crédit Agricole explore comment l'IA peut transformer chaque phase du cycle de vie logiciel, de la conception à la maintenance. Cette réflexion est d'autant plus pertinente dans un secteur bancaire où la fiabilité et la sécurité sont des impératifs.

Ce que présente le talk

Le talk aborde les différentes manières dont l'IA peut être intégrée dans le cycle de vie logiciel, en mettant l'accent sur les pratiques adoptées par le Crédit Agricole. Les intervenants partagent des retours d'expérience concrets, des outils utilisés et les défis rencontrés lors de l'implémentation de l'IA dans leurs processus de développement. L'objectif est de fournir des repères pratiques pour les équipes de développement souhaitant adopter ces technologies.

Points techniques importants

1. Transformation du cycle de vie logiciel

L'IA est intégrée à chaque étape du cycle de vie logiciel, ce qui inclut :

  • Analyse : Utilisation d'agents IA pour générer des documents de spécifications (PRD, BRD) en posant des questions précises et en itérant avec des utilisateurs humains. Cela permet de clarifier les exigences et de réduire les ambiguïtés.

  • Design : L'IA aide à créer des designs fonctionnels et techniques adaptés aux besoins organisationnels. Les standards de l'entreprise sont pris en compte pour garantir que les solutions proposées soient viables et conformes aux attentes.

  • Développement : Les outils d'IA assistent les développeurs dans la création de code, en générant des scénarios de tests et en facilitant le refactoring des applications existantes.

  • Tests et Déploiement : L'IA permet d'automatiser les tests et d'optimiser les pipelines CI/CD, réduisant ainsi les erreurs humaines et améliorant la qualité des livrables.

  • Maintenance : Les systèmes d'IA peuvent analyser les performances des applications en production, identifier les problèmes et proposer des solutions proactives.

2. Outils et pratiques

Les intervenants mettent en avant plusieurs outils et pratiques :

  • Human in the Loop : Un processus itératif où l'IA génère des propositions et les utilisateurs humains affinent ces propositions, garantissant ainsi la qualité des livrables.

  • Templates de PRD : Utilisation de modèles standardisés pour structurer les documents de spécifications, facilitant ainsi la compréhension et l'alignement au sein des équipes.

  • Agents spécialisés : Développement d'agents IA adaptés à des domaines spécifiques (banque d'investissement, banque de détail) pour répondre aux besoins particuliers de chaque entité.

3. Défis et limites

Malgré les avantages, plusieurs défis sont soulevés :

  • Ambiguïté des exigences : Les exigences peuvent évoluer, rendant difficile la planification et la mise en œuvre.

  • Non-standardisation : L'hétérogénéité des pratiques de développement peut nuire à la qualité et à la maintenabilité des applications.

  • Dette technique : La complexité croissante des systèmes peut entraîner une accumulation de dette technique, rendant les refactorings difficiles.

Ce qu'il faut retenir

L'intégration de l'IA dans le cycle de vie logiciel offre des opportunités significatives pour améliorer l'efficacité des équipes de développement. Cependant, il est essentiel de rester conscient des défis associés, notamment en termes de standardisation et de gestion de la dette technique. Les pratiques partagées par le Crédit Agricole peuvent servir de guide pour d'autres organisations souhaitant adopter ces technologies.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une intégration accrue de l'IA souligne une tendance vers l'automatisation et l'orchestration des workflows. Dans un monde où les exigences changent rapidement, la capacité à s'adapter et à innover tout en maintenant la rigueur et la sécurité est cruciale. Les agents IA, en tant qu'outils d'assistance, pourraient transformer non seulement la manière dont les applications sont développées, mais aussi la façon dont les équipes collaborent et interagissent avec ces technologies. L'avenir du développement logiciel semble s'orienter vers une synergie entre l'humain et l'IA, où chaque acteur joue un rôle complémentaire dans la création de solutions robustes et fiables.

Fiche programme

Conception d'une IA de jeu vidéo avec l'apprentissage par renforcement

  • Speakers : Vincent Ogloblinsky (LinkedIn · Bluesky)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 17:00 à 17:30 · Salle Paris 141

Découvrez la conception d’une IA jouant à un jeu de palet grâce à l’apprentissage par renforcement et à l’architecture Actor-Critic. Le talk détaille l’implémentation technique, les défis rencontrés et les résultats, avec conseils pratiques pour développer des IA similaires dans les jeux vidéo à actions continues.

Conception d'une IA de jeu vidéo avec l'apprentissage par renforcement

L'essor des intelligences artificielles dans le domaine des jeux vidéo soulève des questions fascinantes sur la manière dont ces systèmes peuvent apprendre et s'adapter sans intervention humaine directe. La session animée par Vincent Ogloblinsky, de Orange Innovation, explore cette thématique à travers la conception d'une IA capable de jouer à un jeu de palet, en utilisant l'apprentissage par renforcement et l'architecture Actor-Critic. Ce talk s'inscrit dans une tendance croissante où l'IA ne se contente pas de suivre des règles prédéfinies, mais apprend par l'expérience, offrant ainsi une perspective enrichissante pour les développeurs souhaitant intégrer l'IA dans leurs projets.

Ce que présente le talk

Vincent Ogloblinsky partage son expérience de plusieurs mois consacrés à la création d'une IA pour un jeu de palet. L'objectif principal est d'entraîner cette IA à jouer contre un adversaire humain sans lui fournir de règles de stratégie explicites. Le talk aborde les défis techniques rencontrés, les différentes approches adoptées et les résultats obtenus, tout en fournissant des conseils pratiques pour ceux qui souhaitent développer des IA similaires dans des jeux à actions continues.

Points techniques importants

Apprentissage par renforcement

L'apprentissage par renforcement (RL) est présenté comme une méthode où l'IA apprend à partir de l'expérience, en recevant des récompenses pour ses actions. Vincent fait une analogie avec l'apprentissage d'un enfant à faire du vélo : sans explications théoriques, l'enfant apprend à travers des essais et des erreurs, tout comme l'IA.

Architecture Actor-Critic

L'architecture choisie pour ce projet est l'Actor-Critic, qui se compose de trois éléments principaux :

  • L'Acteur : Il décide des actions à entreprendre en fonction de l'état actuel du jeu.
  • Le Critique : Il évalue les actions de l'Acteur et fournit un retour sur leur efficacité.
  • Un Observateur : Il surveille l'état du jeu et aide l'Acteur à prendre des décisions informées.

Cette structure permet de réduire la variance et d'améliorer la stabilité de l'apprentissage, en fournissant un feedback plus granulaire et en favorisant une exploration plus efficace des stratégies.

Implémentation technique

Vincent a utilisé Playwright pour automatiser les sessions de jeu, permettant à l'IA d'interagir avec le jeu en temps réel. L'IA reçoit des informations sur l'état du jeu via des hooks JavaScript, et les actions sont pilotées par des valeurs continues, comme la force et l'angle de lancer. Ce choix technique permet une flexibilité dans l'apprentissage, mais nécessite également une gestion complexe des états et des récompenses.

Scalabilité et performance

Un des défis majeurs rencontrés était la scalabilité de l'entraînement. En optant pour une architecture sans rendu 3D, mais en se concentrant sur les calculs en Node.js, Vincent a réussi à paralléliser les sessions de jeu, augmentant ainsi la vitesse d'entraînement de manière significative. Il a rapporté des améliorations de performance allant jusqu'à 300 fois plus rapides que les méthodes précédentes, permettant ainsi des itérations d'apprentissage plus fréquentes.

Cycle d'apprentissage

Le cycle d'apprentissage est itératif et repose sur l'évaluation continue des actions de l'IA. Chaque partie de jeu est analysée, et les poids du modèle sont mis à jour en fonction des récompenses obtenues. Ce processus permet à l'IA de converger vers des stratégies optimales au fil du temps.

Ce qu'il faut retenir

  • L'apprentissage par renforcement permet à une IA d'apprendre sans règles explicites, en se basant sur des récompenses.
  • L'architecture Actor-Critic offre une approche robuste pour gérer l'apprentissage, en séparant les rôles d'action et d'évaluation.
  • L'implémentation technique nécessite une attention particulière à la scalabilité et à la performance, surtout pour des jeux à actions continues.
  • Le cycle d'apprentissage itératif est crucial pour affiner les stratégies de l'IA et améliorer ses performances.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures d'apprentissage par renforcement ouvre de nouvelles perspectives pour l'automatisation et l'orchestration des processus dans divers domaines. L'intégration d'agents IA dans des workflows complexes, comme ceux des jeux vidéo, démontre la capacité de ces systèmes à s'adapter et à optimiser leurs performances en temps réel. Cette approche pourrait également influencer la manière dont les développeurs conçoivent des applications, en mettant l'accent sur des objectifs plutôt que sur des règles rigides. À mesure que ces technologies se développent, il sera essentiel de considérer les implications éthiques et pratiques de leur utilisation, notamment en matière de gouvernance et de responsabilité.

Fiche programme

Du texte aux données structurées complexes : quand le prompt ne suffit plus

  • Speakers : Thomas Villaren (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 17:00 à 17:30 · Salle Neuilly 153

Chez PayFit, l’extraction automatisée de paramètres de paie via les LLMs s’appuie sur une boucle de feedback et une évaluation métier systématique pour fiabiliser la génération de données structurées. Ce retour d’expérience présente des méthodes concrètes pour dépasser le non‑déterminisme des LLMs et garantir le respect des contraintes métier.

Du texte aux données structurées complexes : quand le prompt ne suffit plus

Dans un monde où l'automatisation et l'intelligence artificielle redéfinissent les processus métier, la capacité à extraire des données structurées à partir de textes complexes est devenue cruciale. La session présentée par Thomas Villaren chez PayFit aborde ce défi en mettant en lumière l'utilisation des modèles de langage (LLMs) pour automatiser l'extraction de paramètres de paie, tout en garantissant la conformité aux contraintes métier. Ce retour d'expérience est particulièrement pertinent pour les développeurs et les architectes de systèmes qui cherchent à intégrer des solutions d'IA dans des environnements réglementés.

Ce que présente le talk

La présentation se concentre sur l'extraction automatisée de données de paie à partir de textes législatifs, un processus traditionnellement manuel et sujet à erreurs. Villaren explique comment PayFit a mis en place une boucle de feedback et une évaluation systématique pour fiabiliser cette extraction. L'objectif est de dépasser le non-déterminisme des LLMs et de s'assurer que les données générées respectent les contraintes métier.

Points techniques importants

Architecture et flux de travail

Le processus d'extraction repose sur une architecture en boucle de feedback qui permet d'interagir dynamiquement avec le LLM. Ce système est conçu pour valider à la fois la syntaxe et la sémantique des données extraites. La boucle de feedback est essentielle pour corriger les sorties du LLM en fonction des règles métier prédéfinies.

Utilisation des LLMs

Villaren aborde les défis liés à l'utilisation des LLMs, notamment leur nature probabiliste et non déterministe. Il souligne l'importance de structurer les prompts pour obtenir des résultats fiables. Les prompts sont divisés en deux parties :

  • Système prompt : Instructions de base fournies au LLM, incluant le schéma cible et les règles métier.
  • Prompt utilisateur : Contexte spécifique à la tâche, injecté lors de l'appel à l'API.

Validation des données

La validation des données générées est cruciale. Villaren présente deux niveaux de validation :

  1. Validation statique : Vérification de la conformité des données par rapport à un schéma prédéfini, utilisant des outils comme Zod pour Typescript.
  2. Validation dynamique : Application des règles métier pour s'assurer que les données respectent les contraintes spécifiques.

Feedback Loop

La boucle de feedback est un mécanisme programmatique qui permet de traiter les sorties du LLM. Lorsqu'une erreur est détectée, le système renvoie des informations au LLM pour améliorer les résultats futurs. Ce processus inclut :

  • Parsing des données extraites.
  • Vérification de la conformité aux schémas.
  • Application des règles métier.

Ce qu'il faut retenir

La session met en avant l'importance d'une approche systématique pour l'extraction de données à partir de textes complexes. Les points clés incluent :

  • La nécessité de structurer les prompts pour maximiser la fiabilité des sorties des LLMs.
  • L'importance d'une boucle de feedback pour corriger les erreurs et améliorer continuellement le processus.
  • La validation des données à deux niveaux pour garantir la conformité aux règles métier.

Réflexions Darkwood

L'intégration des LLMs dans des systèmes complexes soulève des questions sur l'évolution des architectures logicielles. À mesure que les entreprises adoptent des solutions d'IA, la nécessité d'automatiser les workflows tout en maintenant une supervision humaine devient cruciale. Les agents IA, comme ceux utilisés par PayFit, montrent comment l'orchestration des processus peut être améliorée grâce à des boucles de feedback efficaces. Cela pourrait transformer non seulement la manière dont les données sont traitées, mais aussi la façon dont les développeurs conçoivent des systèmes capables de s'adapter aux exigences réglementaires en constante évolution. L'avenir des systèmes logiciels réside dans cette capacité à allier automatisation et conformité, tout en garantissant une expérience utilisateur optimale.

Fiche programme

Listen to Production the Way It Deserves

  • Speakers : Poone Mokari (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : English
  • Créneau : 22/04/2026, 17:00 à 17:30 · Salle Paris 241

This talk reimagines software reliability through agentic AI. Moving beyond static alerts, AI agents can interpret production signals, detect weak issues early, and assist incident analysis. Drawing on SRE experience, it examines observability bottlenecks, the value and limits of AI in reliability, and the evolving partnership between humans and intelligent systems.

Listen to Production the Way It Deserves

Dans un monde où la fiabilité des logiciels est cruciale, la session animée par Poone Mokari, co-fondateur de la startup Awake, aborde une question centrale : comment réinventer la surveillance des systèmes de production grâce à l'IA agentique. Ce talk, bien que destiné à un public débutant, soulève des enjeux techniques profonds qui méritent une attention particulière dans l'écosystème actuel.

Ce que présente le talk

La présentation se concentre sur l'évolution nécessaire de la surveillance des systèmes de production, en passant d'une approche réactive à une écoute proactive des signaux de production. Mokari critique le modèle traditionnel basé sur des alertes statiques, souvent source de bruit et de fatigue opérationnelle, et propose l'utilisation d'agents IA capables d'interpréter ces signaux pour détecter des problèmes avant qu'ils ne deviennent critiques.

Points techniques importants

Limitations des alertes traditionnelles

Mokari souligne que les alertes sont souvent basées sur des hypothèses, ce qui les rend peu fiables. Par exemple :

  • Seuils arbitraires : Les alertes sont souvent définies par des seuils (comme un CPU supérieur à 80 %), qui ne reflètent pas nécessairement la réalité opérationnelle.
  • Fatigue d'alerte : Un trop grand nombre d'alertes peut entraîner une banalisation des notifications, rendant difficile la détection des problèmes réels.

Transition vers l'écoute active

La distinction entre "entendre" et "écouter" est cruciale :

  • Entendre : Passif, réactif, basé sur des alertes.
  • Écouter : Actif, proactif, impliquant une observation continue des systèmes.

Rôle des agents IA

Mokari introduit le concept d'agents IA SRE, qui peuvent :

  • Corréler des données : Analyser des logs, des métriques, et d'autres données pour identifier des problèmes.
  • Assistance à l'analyse des incidents : Aider à comprendre les causes profondes des problèmes.

Cependant, il met en garde contre les limitations des agents IA, notamment leur dépendance au contexte et leur incapacité à itérer sur leurs réponses.

Cartographer Agents

Pour surmonter les limitations des agents IA, Mokari propose l'utilisation de cartographer agents, qui :

  • Cartographient l'environnement de production : Ces agents apprennent continuellement sur la structure et le fonctionnement du système.
  • Améliorent la précision des agents IA : En fournissant un contexte enrichi, ils augmentent la capacité des agents à effectuer des analyses précises.

Ce qu'il faut retenir

La session met en lumière une transition nécessaire dans la manière dont nous surveillons et réagissons aux systèmes de production. L'utilisation d'agents IA, en particulier les cartographer agents, pourrait transformer notre approche de la fiabilité logicielle, en nous permettant d'écouter activement notre production plutôt que de simplement réagir à des alertes.

Réflexions Darkwood

L'évolution vers des systèmes logiciels plus intelligents et autonomes est inévitable. L'intégration d'agents IA dans les workflows de développement et d'exploitation représente une avancée significative vers l'automatisation et la réduction de la charge cognitive des ingénieurs. À mesure que ces technologies se développent, nous pourrions voir une redéfinition des rôles humains dans la gestion des incidents, avec une collaboration plus étroite entre l'homme et la machine. Cette dynamique pourrait également influencer les architectures modernes, en favorisant des systèmes plus résilients et adaptatifs, capables de s'ajuster en temps réel aux conditions changeantes de production.

Fiche programme

Montez votre Café IA : 10 conseils pour parler d'IA à tous

  • Speakers : Antonio Goncalves (X · LinkedIn · Bluesky), Cécile Ravaux (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 17:50 à 18:20 · Salle Paris 242AB

Cette conférence présente le dispositif Café IA, visant à sensibiliser 2 millions de citoyens à l’IA d’ici 2027 via des espaces conviviaux partout en France. Conseils pratiques pour créer et animer un Café IA, accessibles à tous, sans compétence technique requise, pour démocratiser l’IA auprès du grand public.

Montez votre Café IA : 10 conseils pour parler d'IA à tous

Dans un monde où l'intelligence artificielle (IA) s'impose de plus en plus dans nos vies, la compréhension de ses enjeux devient cruciale. La session "Montez votre Café IA" présentée par Antonio Goncalves et Cécile Ravaux s'inscrit dans cette dynamique, visant à démocratiser l'IA auprès du grand public. Ce talk, qui s'inscrit dans la track "AI & Agentic Systems", propose des conseils pratiques pour créer des espaces d'échange autour de l'IA, accessibles à tous, sans prérequis techniques.

Ce que présente le talk

La conférence met en avant le dispositif Café IA, une initiative nationale qui vise à sensibiliser 2 millions de citoyens aux enjeux de l'IA d'ici 2027. L'idée est de créer des espaces conviviaux où chacun peut découvrir, questionner et expérimenter l'IA. Les intervenants partagent leur retour d'expérience sur l'animation de ces cafés, en abordant des questions pratiques telles que le choix du lieu, l'engagement d'un public non technophile, et les formats d'animation.

Points techniques importants

Architecture du Café IA

Le concept de Café IA repose sur une architecture décentralisée. Chaque café peut être organisé par n'importe quel citoyen, sans nécessité d'expertise technique. Cela favorise la diversité des formats et des publics, permettant à chacun de s'impliquer selon ses propres compétences et intérêts.

Formats d'animation

Les intervenants évoquent plusieurs formats d'animation pour ces cafés :

  • Conférences : Une présentation sur un thème lié à l'IA suivie d'échanges.
  • Démonstrations : Utilisation d'outils IA en direct, comme des chatbots, pour illustrer leurs fonctionnalités.
  • Jeux de cartes : Activités ludiques pour engager les participants et faciliter la compréhension de concepts complexes.
  • Discussions libres : Encouragement à l'interaction entre participants, favorisant un échange démocratique.

Engagement du public

Un des défis majeurs est de toucher un public non averti, souvent craintif face à l'IA. Les intervenants insistent sur l'importance d'utiliser un vocabulaire accessible et de créer un environnement convivial. Cela permet de balayer les craintes et de démystifier l'IA, rendant la technologie plus humaine.

Ressources et outils

Les organisateurs de Café IA mettent à disposition des ressources open source pour aider les animateurs à structurer leurs rencontres. Cela inclut des guides, des jeux de cartes et des supports de présentation, facilitant ainsi l'organisation d'événements.

Ce qu'il faut retenir

  • Démocratisation de l'IA : Le Café IA vise à rendre l'IA accessible à tous, en créant des espaces d'échange sans prérequis techniques.
  • Formats variés : Les différents formats d'animation permettent d'adapter les rencontres aux besoins et aux niveaux de connaissance des participants.
  • Engagement communautaire : L'initiative repose sur la participation citoyenne, encourageant chacun à devenir acteur de la sensibilisation à l'IA.

Réflexions Darkwood

La création de Cafés IA s'inscrit dans une tendance plus large d'automatisation et de démocratisation des technologies. En favorisant des échanges conviviaux autour de l'IA, cette initiative contribue à une meilleure compréhension des enjeux technologiques, tout en renforçant le lien social. À l'heure où l'IA devient omniprésente, il est crucial de construire des ponts entre les experts et le grand public. Cela pourrait également influencer les futures architectures de systèmes logiciels, où l'interaction humaine et l'accessibilité joueront un rôle clé dans la conception des outils et des workflows. La gouvernance de l'IA, en tant que sujet de préoccupation croissant, pourrait également bénéficier de telles initiatives, en intégrant les voix des citoyens dans le débat public sur les technologies émergentes.

Fiche programme

Vos coding agents en mode YOLO… mais en toute sécurité

  • Speakers : Guillaume Lours (LinkedIn · Bluesky)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 17:50 à 18:20 · Salle Neuilly 151

Ce talk présente Docker Sandboxes, une solution pour exécuter des agents IA en mode autonome sans compromettre la sécurité du poste développeur. En combinant VMs et conteneurs isolés, elle permet aux agents d’agir librement tout en protégeant le host, contrôlant le réseau et sécurisant les clés et credentials.

Vos coding agents en mode YOLO… mais en toute sécurité

Dans un contexte où l'automatisation et l'intelligence artificielle prennent une place prépondérante dans le développement logiciel, la question de la sécurité des environnements de travail devient cruciale. Le talk de Guillaume Lours, intitulé "Vos coding agents en mode YOLO… mais en toute sécurité", aborde cette problématique en présentant une solution innovante : les Docker Sandboxes. Cette approche vise à offrir une autonomie aux agents IA tout en préservant la sécurité du poste de travail des développeurs.

Ce que présente le talk

Guillaume Lours introduit le concept de permission fatigue, un phénomène courant chez les développeurs qui, face à des demandes répétées d'autorisation de leurs agents de code, finissent par accepter sans vraiment lire les implications. Cette fatigue peut mener à des erreurs critiques, comme la suppression de fichiers ou l'exécution de commandes non sécurisées. Pour contrer cela, le talk propose une solution basée sur l'isolation des agents à l'aide de Docker Sandboxes, permettant ainsi une exécution autonome tout en protégeant l'environnement hôte.

Points techniques importants

Architecture des Docker Sandboxes

La solution repose sur une combinaison de micro-VMs et de conteneurs Docker isolés. Chaque agent IA s'exécute dans son propre environnement, ce qui lui permet d'installer des outils, de modifier son environnement et d'exécuter des workloads complexes sans interférer avec le système hôte. Cette architecture permet de :

  • Isoler les agents : Chaque agent fonctionne dans un conteneur distinct, évitant ainsi les risques d'accès non autorisé aux ressources du système hôte.
  • Contrôler le réseau : Le trafic sortant est géré par des règles d'entreprise, ce qui permet de limiter les connexions non sécurisées.
  • Protéger les secrets : Les agents n'ont pas accès aux clés d'API ou aux credentials stockés sur la machine hôte, réduisant ainsi le risque de fuite d'informations sensibles.

Sécurité et gestion des permissions

L'un des points forts de cette solution est la capacité à offrir une autonomie aux agents tout en maintenant un cadre de sécurité strict. Les développeurs peuvent ainsi :

  • Installer des packages : Les agents peuvent installer les outils nécessaires à leur fonctionnement sans compromettre la sécurité de l'hôte.
  • Exécuter des scripts : Les agents peuvent exécuter des scripts complexes tout en étant limités par les règles de sécurité définies.
  • Utiliser des interfaces de ligne de commande (CLI) : La solution inclut une CLI indépendante de Docker Desktop, facilitant l'interaction avec les agents.

Démonstration pratique

Le talk inclut une démonstration qui illustre comment démarrer une Docker Sandbox et gérer les agents. Les développeurs peuvent observer :

  • La création d'une sandbox : En quelques commandes, un agent est mis en place et peut commencer à interagir avec le code.
  • L'exécution de commandes : Les agents peuvent exécuter des commandes tout en étant isolés, garantissant ainsi que les processus de l'hôte ne sont pas affectés.
  • La gestion des règles réseau : Les développeurs peuvent définir des règles précises pour contrôler le trafic sortant des agents, renforçant ainsi la sécurité.

Ce qu'il faut retenir

La présentation de Guillaume Lours met en avant une solution pragmatique pour gérer l'autonomie des agents IA sans compromettre la sécurité des environnements de développement. Les Docker Sandboxes offrent une architecture isolée permettant aux agents de fonctionner librement tout en protégeant les ressources critiques de l'hôte. Cette approche pourrait bien devenir un standard dans le développement logiciel, où la sécurité et l'automatisation doivent coexister.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une plus grande automatisation soulève des questions cruciales sur la sécurité et la gouvernance. Les agents IA, bien qu'efficaces, représentent un vecteur de risque si leur autonomie n'est pas correctement encadrée. Les solutions comme les Docker Sandboxes illustrent une tendance vers des architectures modernes où l'isolation et la sécurité sont intégrées dès la conception.

À mesure que l'industrie évolue, l'importance de l'orchestration et de la gestion des workflows devient primordiale. Les développeurs doivent non seulement se concentrer sur l'automatisation des tâches, mais aussi sur la mise en place de mécanismes robustes pour assurer la sécurité des environnements de travail. Cela pourrait également influencer la manière dont les entreprises adoptent des pratiques DevSecOps, intégrant la sécurité dès les premières étapes du développement.

Fiche programme

Le développeur face à l'IA : du prototypage rapide à la fin des intermédiaires ?

  • Speakers : Nicolas Grenié (X · LinkedIn)
  • Type : Keynote
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 09:00 à 09:25 · Salle Amphi bleu

La conférence explore comment l’IA bouleverse le développement logiciel : création accélérée, prototypage instantané et nouvelles dynamiques d’équipe. À partir d’expériences concrètes, elle interroge l’évolution des rôles, des workflows et du métier d’ingénieur, offrant un retour pragmatique sur une transformation déjà à l’œuvre dans les équipes produit.

Le développeur face à l'IA : du prototypage rapide à la fin des intermédiaires ?

La keynote de Nicolas Grenié, développeur advocate chez Slang, aborde un sujet brûlant dans l'écosystème technologique actuel : l'impact de l'intelligence artificielle sur le développement logiciel. À une époque où la rapidité et l'efficacité sont primordiales, cette session interroge les nouvelles dynamiques d'équipe, les workflows et l'évolution des rôles des développeurs face à des outils d'IA de plus en plus performants.

Ce que présente le talk

Nicolas explore comment l'IA transforme le paysage du développement, permettant une création accélérée et un prototypage instantané. À travers des retours d'expérience concrets, il questionne l'avenir des rôles traditionnels, notamment celui des Product Managers, et la manière dont les équipes produit s'organisent au quotidien. Le talk se veut pragmatique, ancré dans la réalité des développeurs qui cherchent à comprendre les changements en cours.

Points techniques importants

Accélération du développement

L'un des points centraux de la présentation est l'accélération du cycle de développement. Des tâches qui prenaient auparavant des semaines peuvent désormais être réalisées en quelques heures grâce à des outils d'IA. Cela soulève des questions sur la nécessité d'intermédiaires dans le processus de développement. Par exemple, Nicolas évoque le concept de "vibe coding", où les développeurs se concentrent davantage sur la définition des problèmes à résoudre plutôt que sur l'écriture de lignes de code.

Évolution des workflows

Nicolas souligne que l'IA permet de réduire le nombre d'étapes nécessaires pour passer d'une idée à un prototype fonctionnel. Ce changement de paradigme pourrait potentiellement rendre obsolètes certains rôles intermédiaires, comme celui des Product Managers, qui pourraient se retrouver à coder eux-mêmes. Cette évolution des workflows permettrait aux équipes de se concentrer sur des problèmes plus complexes et créatifs.

Impact sur les équipes produit

Avec l'IA comme coéquipière, les développeurs deviennent moins des "codeurs" au sens traditionnel et plus des "ingénieurs produit". Ils peuvent se concentrer sur la création de valeur et l'innovation, plutôt que sur la technologie elle-même. Nicolas partage plusieurs projets personnels illustrant cette dynamique, comme une application de suivi des contractions ou un générateur d'icônes, démontrant comment l'IA facilite l'expérimentation et l'itération rapide.

Prototypage et itération

L'importance du prototypage rapide est également mise en avant. Nicolas insiste sur le fait que l'IA permet de tester rapidement des idées sans s'enliser dans des cycles de développement longs. Cela favorise un environnement où l'échec est acceptable et où les itérations sont fréquentes, ce qui est essentiel pour l'innovation.

Ce qu'il faut retenir

  • Accélération du développement : L'IA réduit considérablement le temps nécessaire pour passer d'une idée à un prototype.
  • Changement de rôle : Les développeurs se transforment en ingénieurs produit, se concentrant sur la création de valeur plutôt que sur la technologie.
  • Prototypage rapide : L'IA facilite l'expérimentation et l'itération, permettant aux équipes de tester rapidement leurs idées.

Réflexions Darkwood

L'intervention de Nicolas Grenié met en lumière une transformation profonde dans l'industrie du développement logiciel. L'IA, en tant qu'agent coéquipier, redéfinit non seulement les workflows mais aussi la manière dont les équipes collaborent et innovent. Cette évolution soulève des questions sur l'avenir des rôles traditionnels et la nécessité d'une gouvernance adaptée à ces nouvelles dynamiques.

À mesure que les outils d'IA deviennent omniprésents, il est crucial pour les développeurs de s'adapter et d'explorer comment ces technologies peuvent être intégrées dans leurs processus de travail. L'automatisation croissante et la capacité à itérer rapidement sur des idées pourraient transformer non seulement les équipes produit, mais également l'ensemble de l'écosystème logiciel, rendant la créativité et l'innovation plus accessibles que jamais.

Fiche programme

L’IA sur le terrain : l’humain au cœur de la valeur

  • Speakers : Marjory Canonne
  • Type : Keynote
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 09:35 à 10:00 · Salle Amphi bleu

L’exposé défend une IA ancrée dans l’humain et le terrain : elle réussit lorsqu’elle répond à des besoins réels et implique les métiers dès le départ. À partir d’exemples concrets, il montre que l’IA est un levier de transformation locale, où la valeur prime sur la technologie.

L’IA sur le terrain : l’humain au cœur de la valeur

La keynote de Marjory Canonne, intitulée "L’IA sur le terrain : l’humain au cœur de la valeur", aborde une perspective essentielle sur l'intelligence artificielle (IA) dans le contexte actuel. Dans un monde où la technologie est souvent perçue comme une fin en soi, Canonne défend l'idée que l'IA doit être ancrée dans les besoins réels des utilisateurs et co-construite avec eux. Cette approche est particulièrement pertinente pour les PME, qui peuvent tirer parti de l'IA pour transformer leurs processus tout en restant centrées sur l'humain.

Ce que présente le talk

L'exposé met en lumière l'importance de l'humain et du terrain dans le déploiement de solutions d'IA. À travers des exemples concrets tirés de divers secteurs, Canonne illustre comment l'IA peut devenir un levier de transformation lorsque les métiers sont impliqués dès le départ. Elle souligne que la valeur générée par l'IA ne réside pas seulement dans la technologie elle-même, mais dans sa capacité à répondre à des besoins spécifiques et à optimiser les processus existants.

Points techniques importants

L'importance de l'humain et du terrain

  • Co-construction : L'IA doit être développée en collaboration avec les utilisateurs finaux. Canonne insiste sur le fait que les projets d'IA échouent souvent lorsqu'ils sont conçus sans tenir compte des besoins réels des utilisateurs.
  • Exemples concrets : Des projets dans des domaines variés, tels que la gendarmerie, le BTP et l'immobilier, illustrent comment l'IA peut améliorer l'efficacité opérationnelle.

Échec des approches technologiques déconnectées

  • Data Lakes vs. Besoins réels : Canonne évoque l'inefficacité des data lakes, souvent construits sans objectif clair. Elle préconise une approche axée sur les besoins opérationnels plutôt que sur des tendances technologiques.
  • Mythes sur l'IA : L'oratrice met en avant les attentes irréalistes souvent associées à l'IA, ce qui peut conduire à des déceptions lorsque les résultats ne sont pas à la hauteur des promesses.

Adoption et changement culturel

  • Adoption des outils : La réussite d'un projet d'IA dépend largement de l'acceptation par les utilisateurs. Canonne souligne que même des outils techniquement performants peuvent échouer si les collaborateurs ne sont pas convaincus de leur utilité.
  • Éducation et sensibilisation : Il est crucial d'accompagner les équipes dans la compréhension des outils d'IA et de leur potentiel, afin de surmonter les résistances et d'encourager l'adoption.

Perspectives sur l'avenir de l'IA

  • Évolution des systèmes : Canonne évoque l'importance de construire des systèmes d'IA qui s'intègrent dans des workflows existants, plutôt que de chercher à remplacer totalement les processus humains.
  • Outils d'IA générative : Elle aborde également l'émergence des modèles de langage (LLMs) et leur potentiel pour automatiser certaines tâches, tout en insistant sur la nécessité d'une compréhension claire de leurs capacités et limitations.

Ce qu'il faut retenir

La keynote de Marjory Canonne rappelle que l'IA doit être considérée comme un outil au service des utilisateurs, et non comme une solution miracle. La co-construction avec les métiers, l'alignement sur des besoins réels, et l'accompagnement des équipes sont des éléments clés pour réussir l'intégration de l'IA dans les processus d'entreprise. Les attentes doivent être réalistes et basées sur une compréhension approfondie des outils et de leur impact.

Réflexions Darkwood

L'intervention de Canonne s'inscrit dans une réflexion plus large sur l'évolution des systèmes logiciels et l'importance de l'humain dans le développement technologique. Alors que l'automatisation et l'IA continuent de transformer les workflows, il est essentiel de garder à l'esprit que la technologie ne doit pas remplacer l'humain, mais plutôt l'accompagner. L'avenir de l'IA réside dans sa capacité à s'intégrer harmonieusement dans les processus existants, en favorisant une culture d'innovation et d'adaptation. Les entreprises qui réussiront à naviguer dans cette transition seront celles qui valoriseront l'humain et les besoins réels, tout en adoptant des outils technologiques de manière réfléchie et stratégique.

Fiche programme

Gérer vos tickets support avec de l’IA mais sans cramer la planète

  • Speakers : Matthieu Vincent (X · LinkedIn · Bluesky), Philippe Charrière (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 10:30 à 11:15 · Salle Maillot

Ce talk montre comment remplacer les grands modèles d’IA par des « Tiny Language Models » locaux pour automatiser la gestion de tickets. En suivant un cycle de vie simple (ingestion, classification, similarité, RAG, capitalisation), on réduit coûts et empreinte carbone sans sacrifier efficacité, avec démonstration et retour d’expérience.

Gérer vos tickets support avec de l’IA mais sans cramer la planète

Dans un contexte où l'IA générative est omniprésente, la question de son utilisation efficace et durable se pose avec acuité. Le talk présenté par Matthieu Vincent et Philippe Charrière explore une approche innovante pour la gestion des tickets de support, en remplaçant les grands modèles d’IA par des "Tiny Language Models" (TLM) locaux. Cette démarche vise à réduire à la fois les coûts et l'empreinte carbone tout en maintenant l'efficacité des processus.

Ce que présente le talk

Les intervenants abordent la nécessité de repenser l'utilisation des modèles d'IA dans des cas d'usage spécifiques, comme la gestion des tickets de support. Plutôt que de recourir à des modèles massifs tels que GPT-5, ils proposent une approche par étapes, intégrant des TLM pour des tâches précises. Le cycle de vie de la gestion des tickets est décomposé en plusieurs phases : ingestion, classification, recherche de similarité, génération augmentée de réponses (RAG) et capitalisation des connaissances.

Points techniques importants

Architecture des modèles

Les intervenants différencient trois types de modèles :

  • Large Language Models (LLM) : Modèles massifs, souvent déployés dans le cloud, consommant beaucoup de ressources.
  • Small Language Models (SLM) : Modèles plus petits, adaptés à des tâches spécifiques, pouvant tourner sur des serveurs locaux.
  • Tiny Language Models (TLM) : Modèles très légers, pouvant être intégrés dans des appareils IoT ou des smartphones.

Cette classification est essentielle pour choisir le modèle approprié en fonction des ressources disponibles et des besoins spécifiques.

Cycle de vie de la gestion des tickets

Le talk insiste sur l'importance de décomposer le processus de gestion des tickets en étapes claires :

  1. Ingestion des tickets : Collecte des demandes des utilisateurs.
  2. Classification : Attribution de thématiques préconfigurées aux tickets pour faciliter leur traitement.
  3. Recherche de similarité : Identification des tickets similaires dans la base de données existante.
  4. RAG (Retrieval-Augmented Generation) : Enrichissement du contexte des réponses générées par l'IA à partir de données externes.
  5. Capitalisation : Mise à jour et enrichissement de la base de connaissances à partir des réponses fournies.

Performance et ressources

L'un des enjeux majeurs abordés est la gestion des ressources. Les intervenants soulignent que les modèles TLM, bien que moins puissants, peuvent être optimisés pour fonctionner efficacement sur des machines avec des ressources limitées. Ils discutent également de la quantification des modèles, qui permet de réduire leur taille tout en maintenant une précision acceptable.

Contexte et mémoire

Le contexte est un paramètre crucial dans le fonctionnement des modèles d'IA. Les intervenants expliquent que la quantité d'informations qu'un modèle peut traiter à la fois influence directement la qualité des réponses. Ils évoquent également la nécessité de gérer l'historique des conversations pour éviter les pertes d'informations pertinentes.

Ce qu'il faut retenir

Le talk met en lumière une approche pragmatique et durable pour la gestion des tickets de support, en utilisant des TLM adaptés aux besoins spécifiques. La décomposition du processus en étapes claires et la gestion des ressources sont des éléments clés pour optimiser l'utilisation de l'IA tout en minimisant son impact environnemental.

Réflexions Darkwood

L'évolution vers des architectures plus légères et spécialisées, comme les TLM, représente une réponse à la demande croissante d'efficacité et de durabilité dans l'utilisation de l'IA. Cette tendance pourrait influencer non seulement la gestion des tickets de support, mais également d'autres domaines d'application. En intégrant des workflows optimisés et des agents IA adaptés, les entreprises peuvent non seulement réduire leur empreinte carbone, mais aussi améliorer la qualité de leurs services. L'importance croissante de la gouvernance et de l'orchestration des systèmes d'IA soulève des questions sur la responsabilité et l'éthique dans l'automatisation des processus, un sujet qui mérite une attention particulière dans les années à venir.

Fiche programme

Les design patterns agentiques dont vous êtes le héros

  • Speakers : Guillaume Laforge (X · LinkedIn · Bluesky · Mastodon)
  • Type : Conference
  • Niveau : ADVANCED
  • Langue : French
  • Créneau : 23/04/2026, 10:30 à 11:15 · Salle Amphi bleu

Cette session propose un voyage concret au cœur des systèmes multi‑agents : au‑delà des démos simples, elle explore les patterns de coordination, le routage et la collaboration d’essaims d’agents. Avec LangChain4j et l’ADK for Java, l’objectif est d’apprendre à concevoir, combiner et piloter efficacement des architectures agentiques robustes.

Les design patterns agentiques dont vous êtes le héros

Dans un monde où les systèmes multi-agents prennent de plus en plus d'importance, la conférence de Guillaume Laforge sur les design patterns agentiques s'inscrit parfaitement dans l'évolution actuelle de l'intelligence artificielle. En s'éloignant des simples démonstrations, il nous plonge dans la complexité des architectures agentiques, en explorant des concepts cruciaux pour les développeurs avancés.

Ce que présente le talk

Cette session propose un voyage concret au cœur des systèmes multi-agents, en mettant l'accent sur les patterns de coordination, le routage et la collaboration d'essaims d'agents. À travers les outils LangChain4j et l'ADK for Java, Guillaume Laforge cherche à fournir des clés pour concevoir, combiner et piloter efficacement des architectures agentiques robustes.

Points techniques importants

Architecture des systèmes multi-agents

L'architecture des systèmes multi-agents repose sur plusieurs composants fondamentaux :

  • Agents : Des entités autonomes dotées d'une « cervelle » utilisant des modèles de langage (LLM) pour interagir avec leur environnement.
  • Mémoire : Cruciale pour le contexte des interactions, elle permet aux agents de se souvenir des échanges passés et d'adapter leurs réponses.
  • Outils : Les agents doivent avoir accès à divers outils pour percevoir et agir sur leur environnement, avec une gestion efficace pour éviter la confusion.

Design Patterns

Guillaume présente plusieurs patterns de conception qui améliorent la collaboration entre agents :

  • Boucles de réflexion : Permettent aux agents d'évaluer leurs actions et d'ajuster leur comportement en fonction des résultats.
  • Duos critique/reviewer : Favorisent une évaluation croisée des décisions prises par les agents, augmentant ainsi la qualité des résultats.

Coordination et Orchestration

La coordination entre plusieurs agents est un défi majeur :

  • Routage : Choisir le bon pattern de routage est essentiel pour éviter que les agents ne s'égarent dans leurs tâches.
  • Harness Engineering : La création d'un système de coordination (harness) pour orchestrer les interactions entre agents est cruciale pour garantir une communication fluide.

Context Engineering

Un point central abordé est le context engineering, qui consiste à fournir aux agents les bonnes informations au bon moment. Cela inclut :

  • Retrieval Augmented Generation : Une méthode pour enrichir les réponses des LLM avec des données récentes, en interrogeant des bases de données externes.
  • Progressive Disclosure : Une technique pour éviter de surcharger les agents avec trop d'informations, en fournissant les données de manière échelonnée.

Évaluation et Sécurité

L'évaluation de la performance des agents et la sécurité des interactions sont également des préoccupations majeures :

  • Évaluation de la qualité des sorties : Comment déterminer si un agent a atteint son objectif ?
  • Sécurité et observabilité : Garantir que les agents fonctionnent de manière sécurisée et que leurs actions peuvent être suivies et analysées.

Ce qu'il faut retenir

La session de Guillaume Laforge met en lumière la complexité et la richesse des systèmes multi-agents. Les concepts de design patterns, de coordination, de context engineering et d'évaluation sont essentiels pour construire des architectures agentiques efficaces. L'accent mis sur l'utilisation de LangChain4j et de l'ADK for Java offre des perspectives intéressantes pour les développeurs souhaitant approfondir leurs compétences dans ce domaine.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures de plus en plus distribuées et autonomes souligne l'importance de l'orchestration et de la collaboration entre agents. Les design patterns agentiques présentés par Guillaume Laforge ne sont pas seulement des outils techniques, mais aussi des éléments clés pour naviguer dans un paysage de développement en constante évolution. L'automatisation et l'intelligence artificielle, intégrées dans des workflows complexes, redéfinissent les pratiques de développement et imposent une nouvelle gouvernance des systèmes. En adoptant ces approches, les développeurs peuvent non seulement améliorer la performance de leurs applications, mais aussi anticiper les défis futurs liés à l'interaction entre agents dans des environnements de plus en plus complexes.

Fiche programme

L'Agentic Coding, nouveau territoire du Platform Engineering

  • Speakers : Yankı Sesyılmaz (LinkedIn), Julien Tanay (X · LinkedIn · Bluesky · Mastodon)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 11:35 à 12:20 · Salle Neuilly 252AB

Ce talk de Doctolib présente la création d’une plateforme IA collaborative pour 600 ingénieurs, au‑delà du simple taux d’adoption. Il aborde l’agentic coding, l’expérience développeur, une architecture de plugins extensible, les métriques pertinentes et les défis réels rencontrés par les équipes plateforme.

L'Agentic Coding, nouveau territoire du Platform Engineering

Dans un monde où l'IA prend une place prépondérante dans le développement logiciel, la session présentée par Yankı Sesyılmaz et Julien Tanay de Doctolib aborde un sujet crucial : l'agentic coding. Ce concept, qui transforme l'expérience développeur et redéfinit les workflows, est particulièrement pertinent dans le contexte actuel où les équipes techniques cherchent à maximiser l'efficacité et l'adoption des outils IA.

Ce que présente le talk

Les intervenants partagent leur expérience dans la création d'une plateforme IA collaborative, adoptée par 600 ingénieurs. Au-delà de l'atteinte d'un taux d'adoption de 100 %, ils soulignent les défis liés à l'intégration de l'agentic coding dans les pratiques de développement. Le talk se concentre sur les services et outils de la plateforme, les métriques à suivre, ainsi que les échecs rencontrés lors de cette transition.

Points techniques importants

Architecture de la plateforme

La plateforme développée par Doctolib repose sur une architecture de plugins extensible. Cette approche permet aux équipes métier de contribuer directement à l'évolution des outils, favorisant ainsi une adoption organique et collaborative. Les intervenants insistent sur l'importance d'une centralisation des outils, avec un focus sur un unique outil, Claude Code, qui remplace une multitude de solutions précédemment utilisées.

Agentic Coding et workflows

L'agentic coding est présenté comme un changement de paradigme dans la manière dont les développeurs interagissent avec l'IA. Au lieu d'être de simples assistants, les agents IA deviennent des contributeurs actifs. Cela nécessite une révision complète des workflows, où le développeur endosse le rôle de chef d'orchestre, validant et orientant le travail produit par l'IA.

Spec Driven Development (SDD)

Les intervenants introduisent le concept de Spec Driven Development, qui consiste à définir les spécifications d'un projet avant de passer à l'implémentation. Cela permet une meilleure collaboration avec les agents IA, qui peuvent ensuite planifier et itérer sur le code. L'utilisation de formats ouverts comme Open Spec est mise en avant pour garantir la flexibilité et l'évolutivité des projets.

Expérimentations et métriques

Doctolib a mené plusieurs expérimentations pour tester l'agentic coding à l'échelle de l'organisation. Ces expérimentations ont permis d'identifier des obstacles et d'adapter les pratiques de développement. Les intervenants soulignent l'importance de suivre des métriques au-delà du taux d'adoption, en se concentrant sur la qualité des revues de code et l'efficacité des workflows.

Ce qu'il faut retenir

  • Agentic Coding : Transformation du rôle des développeurs, qui passent de simples exécutants à orchestrateurs de l'IA.
  • Architecture de Plugins : Flexibilité et extensibilité des outils grâce à une architecture ouverte.
  • Spec Driven Development : Approche structurée pour définir les spécifications avant le développement, facilitant l'interaction avec les agents IA.
  • Métriques : Importance de suivre des indicateurs pertinents pour mesurer l'efficacité des nouvelles pratiques.

Réflexions Darkwood

L'agentic coding représente une évolution significative dans la manière dont les équipes de développement interagissent avec l'IA. Cette transformation ne se limite pas à l'adoption d'outils, mais touche également aux fondements mêmes des workflows et des pratiques de développement. À mesure que les systèmes deviennent plus autonomes, la nécessité d'une gouvernance solide et d'une orchestration efficace se fait ressentir. Les équipes doivent se préparer à naviguer dans un paysage où l'IA non seulement assiste, mais contribue activement à la création de valeur. Cette dynamique pourrait bien redéfinir les rôles au sein des équipes techniques et influencer l'avenir des méthodologies agiles, posant ainsi de nouvelles questions sur la collaboration et la responsabilité dans le développement logiciel.

Fiche programme

The Anatomy of Memory in Humans and AI Agents

  • Speakers : Raphael De Lio (X · LinkedIn · Bluesky), Samuel Agbede (LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : English
  • Créneau : 23/04/2026, 11:35 à 12:20 · Salle Paris 242AB

This talk explores how insights from cognitive science and neuroscience can inform the design of AI agents with memory. It connects human memory mechanisms to challenges in building and deploying reliable, context-aware agents, highlighting practical lessons, system design choices, and open‑source tools for improving memory in real‑world AI systems.

L'Anatomie de la Mémoire chez les Humains et les Agents IA

La session présentée par Raphael De Lio et Samuel Agbede lors de la conférence sur les systèmes agentiques et l'intelligence artificielle aborde un sujet fondamental : l'impact des mécanismes de mémoire humaine sur la conception des agents IA. Dans un contexte où les applications d'IA se multiplient, comprendre comment les humains stockent et récupèrent l'information est crucial pour développer des agents plus contextuels et fiables.

Ce que présente le talk

Cette présentation explore comment les connaissances issues des sciences cognitives et de la neuroscience peuvent éclairer la conception d'agents IA dotés de mémoire. Les intervenants mettent en lumière les défis rencontrés lors de la création et du déploiement d'agents contextuels, tout en partageant des leçons pratiques, des choix de conception système et des outils open-source pour améliorer la mémoire dans les systèmes IA réels.

Points techniques importants

Mécanismes de mémoire humaine

Les intervenants commencent par décrire les différents types de mémoire dans le cerveau humain, en se concentrant sur le rôle du système hippocampique. Ils évoquent un cas emblématique d'une personne ayant subi une opération chirurgicale qui a altéré sa capacité à former de nouveaux souvenirs, illustrant ainsi comment des parties spécifiques du cerveau sont responsables de différentes formes de mémoire.

Limitations des modèles de langage

Un point central de la discussion est la nature des modèles de langage (LLM) et leurs limitations en matière de mémoire. Les LLM, basés sur l'architecture des transformateurs, ne conservent pas d'état entre les interactions. Les intervenants expliquent que ces modèles fonctionnent avec une fenêtre de contexte fixe, ce qui limite leur capacité à se souvenir des informations passées. Cela soulève des questions sur la manière de concevoir des agents capables de maintenir une mémoire dynamique.

Le rôle de la neuroscience dans la conception des agents

Les intervenants soulignent l'importance de la neuroscience pour comprendre les limites des LLM. Par exemple, ils discutent du phénomène d'oubli catastrophique qui se produit lors de la mise à jour des modèles, où l'apprentissage de nouvelles informations peut entraîner la perte de connaissances antérieures. Cela met en lumière la nécessité d'intégrer des mécanismes de mémoire plus sophistiqués dans les agents IA.

Outils et solutions open-source

Un aspect pratique de la présentation est la démonstration d'un serveur de mémoire pour agents, développé par Redis. Ce serveur vise à résoudre les défis liés à la mémoire en fournissant des solutions open-source pour améliorer la mémoire des agents IA en production. Les intervenants partagent des exemples concrets d'application, illustrant comment ces outils peuvent être utilisés pour créer des agents plus intelligents et réactifs.

Ce qu'il faut retenir

  • Mémoire humaine vs mémoire IA : Les mécanismes de mémoire humaine peuvent informer la conception d'agents IA.
  • Limitations des LLM : Les modèles de langage actuels ont des contraintes de mémoire qui limitent leur efficacité dans des contextes dynamiques.
  • Nécessité d'une mémoire dynamique : Les agents IA doivent intégrer des systèmes de mémoire qui permettent une mise à jour et un rappel efficaces des informations.
  • Ressources open-source : L'initiative de Redis pour un serveur de mémoire agent représente une avancée significative dans la résolution des défis de mémoire en IA.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures plus intelligentes et contextuelles est inévitable. À mesure que l'automatisation et l'utilisation d'agents IA se généralisent, la nécessité d'une mémoire dynamique et contextuelle devient cruciale. Les leçons tirées de la neuroscience peuvent guider cette transition, permettant aux agents de mieux comprendre et interagir avec leur environnement. L'intégration de mécanismes de mémoire inspirés de la cognition humaine pourrait transformer non seulement la manière dont les agents IA fonctionnent, mais aussi leur capacité à s'adapter et à évoluer dans des workflows complexes. Cette approche pourrait également influencer la gouvernance des systèmes IA, en assurant une meilleure traçabilité et une gestion des connaissances plus efficace dans des environnements de production.

Fiche programme

Êtes-vous prêt pour l'entreprise bionique ?

  • Speakers : Didier Girard (X · LinkedIn), Marie Crappe (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 11:35 à 12:20 · Salle Paris 143

Cette présentation explore l’entreprise bionique, fusionnant humain et technologie grâce à l’IA, pour viser une efficacité décuplée d’ici 2030. À travers cas concrets, elle analyse impacts cognitifs, révolution des métiers IT et interfaces conversationnelles, invitant à repenser l’organisation plutôt que de chercher de modestes gains incrémentaux.

Êtes-vous prêt pour l'entreprise bionique ?

La session "Êtes-vous prêt pour l'entreprise bionique ?" présentée par Didier Girard de SFEIR et Marie Crappe de CHOOSE aborde un sujet crucial dans le contexte actuel de transformation numérique : la fusion entre l'humain et la technologie à travers l'intelligence artificielle (IA). En visant une efficacité multipliée par dix d'ici 2030, cette présentation incite les entreprises à repenser leurs structures organisationnelles et leurs méthodes de travail.

Ce que présente le talk

Le talk explore le concept d'entreprise bionique, où l'IA et l'automatisation ne sont pas perçues comme des menaces, mais comme des catalyseurs de créativité et d'empathie. Les intervenants soulignent l'importance de viser des gains exponentiels plutôt que des améliorations marginales, tout en examinant les impacts cognitifs et sociétaux de cette transformation. À travers des cas concrets, ils illustrent comment l'agentique redéfinit les métiers de l'IT et les interfaces conversationnelles.

Points techniques importants

Architecture et Modèles Organisationnels

  • Entreprise Bionique : L'idée centrale repose sur la fusion de l'humain et de la technologie. L'IA est présentée comme un changement de paradigme, similaire à l'invention de l'écriture. Cela nécessite une révision des structures organisationnelles pour intégrer des agents autonomes qui collaborent avec les humains.

  • Monopsychisme Technologique : Ce concept évoque la tendance à externaliser l'expertise vers des systèmes d'IA, ce qui peut engendrer une uniformisation des pensées et des pratiques au sein des entreprises.

Impact Cognitif et Sociétal

  • Révolution des Métiers IT : Les intervenants mettent en avant l'émergence de nouveaux rôles tels que AI4Dev, AI4Ops et AI4UX, illustrant comment l'IA transforme les processus métier. Par exemple, un agent autonome peut gérer le support de niveau 1 ou générer des tableaux de bord complexes en temps réel.

  • Interfaces Conversationnelles : Le passage à des interfaces conversationnelles est souligné comme un élément clé de l'évolution des systèmes d'information. Cela permet une interaction plus naturelle entre les utilisateurs et les systèmes.

Performance et Efficacité

  • Vise x10 : Les intervenants insistent sur l'importance de ne pas se contenter de gains de 5 %, mais de viser une efficacité multipliée par dix. Cela nécessite une transformation radicale des processus et des mentalités au sein des équipes.

  • Exemples Concrets : Didier Girard partage des expériences réelles où des projets auparavant longs et coûteux ont été réalisés en un temps record grâce à l'IA, illustrant ainsi le potentiel de l'automatisation dans la réduction des délais et des coûts.

Outils et Technologies

  • Automatisation des Processus : L'usage d'agents pour des tâches telles que la création de tableaux de bord ou la gestion de sites web est mis en avant. Ces outils permettent aux entreprises de tester leur maturité organisationnelle sans prendre de risques majeurs.

  • Self-Service BI : L'IA facilite l'accès à des outils de Business Intelligence, permettant aux utilisateurs non techniques de créer des analyses et des tableaux de bord sans dépendre des équipes IT.

Ce qu'il faut retenir

L'entreprise bionique représente une évolution nécessaire dans la manière dont les organisations intègrent l'IA et l'automatisation. Les intervenants soulignent l'importance de repenser les structures organisationnelles pour tirer parti des capacités de l'IA, tout en visant des gains exponentiels plutôt que marginaux. La transformation des métiers, l'impact cognitif et l'automatisation des processus sont des éléments clés à considérer pour toute entreprise souhaitant rester compétitive.

Réflexions Darkwood

La session met en lumière une tendance croissante vers l'automatisation et l'intégration de l'IA dans tous les aspects des entreprises modernes. L'évolution vers des systèmes logiciels plus intelligents et adaptatifs pourrait redéfinir non seulement les processus de travail, mais aussi la nature même de la collaboration humaine. À mesure que l'IA devient omniprésente, les entreprises devront naviguer dans des questions de gouvernance et d'éthique, tout en s'assurant que l'humain reste au centre de cette transformation. La capacité à orchestrer des workflows complexes entre agents humains et IA sera déterminante pour l'avenir des organisations.

Fiche programme

De l'intuition à l'IA : automatiser l'investigation de tests flaky

  • Speakers : Tony Sanchez (LinkedIn)
  • Type : Lunch Talk
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 13:00 à 13:15 · Salle Paris 242AB

Retour d’expérience sur la transformation du débogage de tests instables : d’un processus réservé aux experts à une investigation accessible à tous grâce à une approche structurée en quatre étapes. L’IA, ajoutée en fin de parcours, joue un rôle d’accélérateur dans un système reproductible et “IA‑ready” pour les outils de développement.

De l'intuition à l'IA : automatiser l'investigation de tests flaky

L'automatisation des tests est un enjeu crucial dans le développement logiciel moderne, surtout lorsqu'il s'agit de tests instables, souvent appelés "tests flaky". La session présentée par Tony Sanchez lors de la conférence "AI & Agentic Systems" aborde la transformation d'un processus traditionnel de débogage, réservé à une élite d'experts, en une méthode accessible à tous les ingénieurs. Cette approche, qui s'appuie sur une structuration en quatre étapes, met en lumière le rôle d'un agent IA non pas comme solution magique, mais comme un complément efficace à un processus rigoureux.

Ce que présente le talk

Tony Sanchez partage un retour d'expérience sur la manière dont l'équipe d'Alan a réussi à rendre l'investigation des tests flaky plus accessible. En partant d'une suite de tests de 35 000 cas, l'équipe a développé un système qui permet à n'importe quel ingénieur d'identifier et de résoudre des échecs de tests en quelques minutes. L'IA intervient à la fin du processus, servant d'accélérateur dans un système qui est devenu "IA-ready".

Points techniques importants

Architecture et Infrastructure

L'infrastructure de tests chez Alan repose sur une exécution distribuée, permettant de gérer un grand nombre de tests sur différentes machines et workers. Cette architecture est essentielle pour réduire le temps d'exécution, qui peut atteindre 80 heures sur un seul CPU. L'utilisation de GitHub Actions pour orchestrer cette exécution est un choix stratégique qui facilite la gestion des tests.

Reproductibilité

La première étape de l'approche consiste à garantir la reproductibilité des échecs. Deux plugins clés ont été introduits :

  • pytest-randomly : Ce plugin permet d'exécuter des tests dans un ordre aléatoire, ce qui aide à identifier des cas d'erreur marginaux. Lorsqu'un test échoue, il génère des logs qui permettent de reproduire l'erreur localement.
  • pytest-find-dependencies : Ce plugin aide à détecter les interdépendances entre tests, facilitant ainsi le diagnostic des échecs.

Documentation et Outils

L'équipe a mis en place une documentation exhaustive qui recense les causes d'instabilité les plus fréquentes, accompagnée de solutions types. Pour faciliter l'accès à cette documentation, un outil en ligne de commande a été développé, permettant d'automatiser le processus de reproduction des erreurs à partir des logs de GitHub Actions.

Intégration de l'IA

L'IA entre en jeu dans un workflow structuré en trois étapes :

  1. Reproduction de l'échec : L'agent IA tente de reproduire l'erreur en utilisant les informations collectées.
  2. Analyse : L'agent consulte la documentation pour identifier des patterns et des solutions potentielles.
  3. Validation : Avant de proposer un correctif, l'agent vérifie que la solution ne modifie pas le comportement attendu des tests.

Sécurité et Validation

L'approche met l'accent sur la nécessité d'un "oracle de validation", garantissant que les solutions proposées par l'IA sont pertinentes et ne compromettent pas la stabilité de l'application. Cela inclut des garde-fous pour éviter que l'IA ne propose des solutions superficielles, comme modifier des assertions pour faire passer des tests.

Ce qu'il faut retenir

  • Reproductibilité : Un élément clé pour résoudre les tests flaky.
  • Documentation : Essentielle pour guider les développeurs dans le diagnostic des échecs.
  • Workflow structuré : L'intégration de l'IA doit être encadrée par un processus clair pour éviter des dérives.
  • Accessibilité : L'objectif est de rendre l'investigation des tests accessible à tous les ingénieurs, réduisant ainsi la dépendance à une élite d'experts.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une automatisation accrue et l'intégration d'agents IA soulève des questions sur la gouvernance et l'orchestration des workflows. La démarche présentée par Tony Sanchez illustre comment une approche systématique peut transformer des processus complexes en solutions accessibles. En rendant l'investigation des tests flaky plus démocratique, Alan ouvre la voie à une meilleure collaboration entre les équipes de développement.

À l'avenir, l'automatisation des tests pourrait évoluer vers des systèmes proactifs, capables d'anticiper les échecs avant qu'ils ne surviennent, intégrant ainsi des agents IA qui non seulement réagissent aux problèmes, mais les préviennent. Cette transition pourrait redéfinir les rôles des développeurs, les transformant en architectes de systèmes intelligents plutôt qu'en simples exécutants de tests.

Fiche programme

ChatGPT ou GenUI ? Construire l'assistant SNCF Connect de demain 🚆 🚀

  • Speakers : Adrien Body (X · LinkedIn), Julien Buret (LinkedIn · Mastodon)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 13:30 à 14:15 · Salle Neuilly 153

Ce talk explore la création d’assistants de voyage intégrant ChatGPT Apps SDK et MCP, comparée à des interfaces sur mesure type GenUI. S’appuyant sur l’expérience OUIBot et SNCF Connect, il détaille stacks, défis techniques et éthiques : hallucinations, protection des données, limites métier, vers un achat de billet fluide et sûr.

ChatGPT ou GenUI ? Construire l'assistant SNCF Connect de demain 🚆 🚀

La session présentée par Adrien Body et Julien Buret lors de la conférence a exploré un sujet d'actualité crucial dans le domaine des assistants de voyage : l'intégration des technologies conversationnelles comme ChatGPT et GenUI pour améliorer l'expérience utilisateur dans la réservation de billets de train. À l'heure où l'IA devient omniprésente, comprendre les choix architecturaux et techniques derrière ces systèmes est essentiel pour les développeurs souhaitant innover dans ce domaine.

Ce que présente le talk

Le talk se concentre sur la création d'assistants de voyage en utilisant le ChatGPT Apps SDK et le MCP (Mini-Applications Cloud Platform), tout en comparant ces solutions à des interfaces personnalisées comme GenUI. Les intervenants partagent leur expérience avec des projets tels que OUIBot et SNCF Connect, en abordant les défis techniques et éthiques liés à l'utilisation de l'IA dans la vente de billets.

Points techniques importants

Architecture et Intégration

L'architecture proposée repose sur une intégration fluide entre ChatGPT et le serveur MCP, qui sert d'intermédiaire pour accéder aux services backend de SNCF Connect. Les intervenants ont mis en avant plusieurs aspects techniques :

  • MCP et Extensions : Le MCP permet de créer des mini-applications interactives en envoyant du HTML, ce qui améliore l'expérience utilisateur par rapport à une simple sortie textuelle.
  • Protocole de communication : L'utilisation de Streamable HTTP est recommandée pour une meilleure scalabilité par rapport aux anciennes méthodes comme SSE (Server-Sent Events).

Gestion des données et sécurité

Les préoccupations autour de la sécurité des données et de la protection de la vie privée sont centrales dans la conception de ces systèmes :

  • Limitation des hallucinations : Les intervenants ont souligné l'importance de minimiser les erreurs de l'IA, qui peuvent entraîner des conséquences négatives pour les utilisateurs.
  • Protection des données : Des mécanismes de consentement utilisateur doivent être mis en place pour éviter le partage non autorisé des données sensibles.

Expérience utilisateur et développement

Les intervenants ont également abordé les défis liés à la création d'une interface conversationnelle :

  • Personnalisation de l'expérience : L'interface doit être capable de comprendre les besoins spécifiques des utilisateurs, comme la recherche de trajets rapides ou confortables.
  • Gestion des interactions : L'utilisation de widgets React permet d'améliorer l'interaction utilisateur, en offrant des réponses graphiques et dynamiques.

Outils et Frameworks

Les intervenants ont mentionné plusieurs outils et frameworks utilisés dans le développement :

  • Kotlin : Le serveur MCP est développé en Kotlin, ce qui permet une intégration efficace avec les services backend.
  • SDK : Des SDK sont disponibles pour faciliter l'intégration avec le MCP, permettant aux développeurs de créer des outils adaptés à leurs besoins spécifiques.

Ce qu'il faut retenir

La session a mis en lumière les enjeux techniques et éthiques liés à l'intégration des assistants conversationnels dans le domaine du voyage. Les points clés incluent :

  • L'importance de l'architecture et de l'intégration des systèmes pour offrir une expérience utilisateur fluide.
  • Les défis de la sécurité des données et de la gestion des interactions utilisateur.
  • L'utilisation de technologies modernes comme le MCP et Kotlin pour développer des solutions innovantes.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures de plus en plus orientées vers l'IA et l'automatisation pose de nouvelles questions sur la gouvernance et la sécurité. L'intégration de solutions comme ChatGPT et GenUI dans des applications de voyage illustre comment les workflows peuvent être optimisés grâce à des agents intelligents. Cependant, cela soulève également des préoccupations éthiques, notamment en ce qui concerne la protection des données et la fiabilité des réponses fournies par ces systèmes. À mesure que l'industrie progresse, il sera crucial de trouver un équilibre entre innovation et responsabilité, garantissant que les utilisateurs bénéficient d'une expérience enrichissante sans compromettre leur sécurité.

Fiche programme

Compose & Dragons: le jeu de rôle des agents nourris aux Tiny Language Models

  • Speakers : Guillaume Lours (LinkedIn · Bluesky), Philippe Charrière (X · LinkedIn · Bluesky)
  • Type : 3H Deep Dive
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 13:30 à 16:30 · Salle Neuilly 251

Cette présentation démonte les idées reçues sur les très petits LLMs (

Compose & Dragons: le jeu de rôle des agents nourris aux Tiny Language Models

Dans un écosystème technologique en constante évolution, les modèles de langage (LLMs) sont souvent perçus comme des entités massives et complexes, réservées aux grandes infrastructures. Cependant, la session "Compose & Dragons" présentée par Guillaume Lours et Philippe Charrière, tous deux de Docker, remet en question cette vision en explorant l'utilisation de très petits modèles de langage (Tiny Language Models) dans un cadre ludique. Cette approche innovante ouvre la voie à des applications pratiques et accessibles, même avec des ressources limitées.

Ce que présente le talk

La présentation vise à déconstruire les idées reçues sur les très petits LLMs, ceux ayant moins de 4 milliards de paramètres. Contrairement à la croyance populaire selon laquelle ces modèles sont inutiles et incapables de réaliser des tâches complexes, les intervenants démontrent qu'il est possible de créer des systèmes d'IA générative fonctionnels à partir de ces modèles. En utilisant Docker, ils ont développé un jeu de rôle de type "dungeon crawler" piloté par des agents d'IA, mettant en avant la création de personnages non-joueurs (PNJ) avec des personnalités distinctes.

Points techniques importants

Architecture des agents d'IA

Les agents d'IA dans le jeu sont conçus pour interagir avec les joueurs et gérer des éléments de gameplay tels que les combats et les mouvements. L'architecture repose sur des modèles de langage de petite taille, tels que Jan-nano-gguf 4b et qwen2.5 1.5b, qui sont intégrés dans des conteneurs Docker. Cette approche permet une modularité et une flexibilité dans le déploiement des agents.

Utilisation des Tiny Language Models

Les intervenants soulignent plusieurs avantages à l'utilisation de très petits modèles :

  • Consommation de ressources : Ces modèles nécessitent moins de mémoire et de puissance de calcul, ce qui les rend accessibles sur des machines moins puissantes, comme un Mac M2 avec 32 Go de RAM.
  • Confidentialité : Les petits modèles peuvent être exécutés localement, ce qui est crucial pour des clients ayant des restrictions de connexion à Internet.
  • Simplicité d'intégration : Les modèles peuvent être fine-tunés avec des données spécifiques, permettant une personnalisation sans nécessiter des infrastructures complexes.

Limitations et défis

Malgré leurs avantages, les petits modèles présentent des limitations :

  • Taille de la fenêtre de contexte : Ils ont une capacité limitée à traiter des informations, ce qui peut affecter la qualité des interactions.
  • Fonctionnalités de function calling : Les petits modèles sont souvent moins performants dans l'exécution de commandes complexes, bien que certains puissent être adaptés à ces tâches avec des ajustements appropriés.

Approche ludique et développement

La session met également en avant l'aspect ludique du projet. En développant un jeu de rôle, les intervenants montrent comment les concepts d'IA peuvent être appliqués de manière créative. Cela inclut la génération dynamique de contenu de jeu et la gestion des interactions entre les joueurs et les PNJ.

Ce qu'il faut retenir

  • Les très petits modèles de langage peuvent être utilisés efficacement pour créer des systèmes d'IA générative, malgré leurs limitations.
  • L'architecture basée sur Docker facilite le déploiement et l'intégration de ces modèles.
  • L'approche ludique permet d'explorer les capacités des petits modèles tout en fournissant des résultats pratiques et engageants.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures plus légères et modulaires est en plein essor. L'utilisation de Tiny Language Models dans des applications comme les jeux de rôle démontre une tendance vers l'automatisation et l'orchestration de processus complexes avec des ressources minimales. Cela soulève des questions sur l'avenir des agents IA dans des contextes variés, allant de l'éducation à la création de contenu interactif. En intégrant ces modèles dans des workflows plus larges, les développeurs peuvent non seulement améliorer l'expérience utilisateur, mais aussi réinventer la manière dont nous interagissons avec les systèmes d'IA.

Fiche programme

Les gardiens du Prompt: menaces et recettes de sécurité pour une production zen.

  • Speakers : Philippe Laumay (LinkedIn), Loïc Gudet (LinkedIn)
  • Type : Conference
  • Niveau : ADVANCED
  • Langue : French
  • Créneau : 23/04/2026, 13:30 à 14:15 · Salle Neuilly 151

Ce talk propose un état de l’art de la sécurité des applications GenAI, illustré par des démos pratiques : architecture défensive, outils d’observabilité, protection contre les attaques (prompt injection, fuites), tests de sécurité automatisés et bonnes pratiques pour passer d’un prototype à une solution de production robuste.

Les gardiens du Prompt : menaces et recettes de sécurité pour une production zen

Dans un contexte où les applications d'intelligence artificielle générative (GenAI) prennent une place prépondérante, la sécurité de ces systèmes devient une préoccupation majeure. Ce talk, présenté par Philippe Laumay et Loïc Gudet de Moody's, aborde les défis uniques liés à la sécurité des applications GenAI, tout en fournissant des solutions pratiques pour assurer une transition fluide de la phase de prototype à celle de production.

Ce que présente le talk

Le talk se concentre sur l'état de l'art de la sécurité des applications GenAI, en mettant en lumière les spécificités de ces systèmes face aux menaces émergentes. À travers des démonstrations pratiques, les intervenants illustrent comment établir une architecture défensive, utiliser des outils d'observabilité, et mettre en place des tests de sécurité automatisés. L'objectif est de fournir un playbook pour garantir que les solutions déployées soient robustes et conformes aux exigences réglementaires.

Points techniques importants

Architecture défensive

L'architecture défensive est essentielle pour protéger les applications GenAI contre les attaques potentielles. Les intervenants insistent sur la nécessité d'intégrer des mécanismes de sécurité dès la conception. Cela inclut :

  • Filtrage sémantique : Pour éviter que des informations sensibles ne soient divulguées.
  • Policy-as-code : Permettant de définir des règles de sécurité directement dans le code, facilitant ainsi leur mise à jour et leur gestion.
  • Quotas et rate limiting : Ces techniques sont cruciales pour limiter les abus et les attaques par déni de service.

Outils d'observabilité

La mise en place d'outils d'observabilité est primordiale pour surveiller le comportement des modèles en production. Des solutions comme LangSmith et Langfuse permettent de :

  • Suivre les interactions avec le modèle.
  • Identifier les anomalies et les comportements inattendus.
  • Analyser les logs pour détecter des tentatives d'injection de prompt.

Tests de sécurité automatisés

Les tests de sécurité doivent être intégrés dans le pipeline CI/CD. Les intervenants recommandent d'utiliser des jeux d'attaque tels que Garak pour simuler des scénarios d'attaque et valider la robustesse des systèmes. Cela inclut :

  • Pentests externes : Pour une évaluation indépendante de la sécurité.
  • QA sécurité en continu : Assurant que chaque itération de développement respecte les normes de sécurité établies.

Réglementation et conformité

Avec l'émergence de réglementations telles que l'EU AI Act, les entreprises doivent naviguer dans un paysage réglementaire complexe. Les intervenants soulignent l'importance de :

  • Comprendre les exigences spécifiques liées aux applications GenAI.
  • Mettre en place une matrice de risque et des contrôles adaptés pour chaque application.
  • Être proactif dans la gestion des risques liés à l'utilisation des données et à la qualité des modèles.

Ce qu'il faut retenir

La sécurité des applications GenAI ne peut être laissée au hasard. Les entreprises doivent adopter une approche systématique qui inclut :

  • Une architecture défensive solide.
  • Des outils d'observabilité pour surveiller les systèmes en temps réel.
  • Des tests de sécurité automatisés intégrés dans le cycle de développement.
  • Une conformité rigoureuse aux réglementations en vigueur.

Réflexions Darkwood

La sécurité des applications GenAI représente un défi sans précédent dans l'évolution des systèmes logiciels. Alors que l'automatisation et les agents IA deviennent omniprésents, il est impératif d'intégrer des pratiques de sécurité dès la conception. Les architectures modernes doivent être conçues pour anticiper les menaces, tout en étant suffisamment flexibles pour s'adapter à un paysage réglementaire en constante évolution. L'importance d'une gouvernance solide et d'une orchestration efficace des workflows ne saurait être sous-estimée, car elles sont essentielles pour garantir la résilience et la fiabilité des systèmes d'IA en production.

Fiche programme

Unveiling the simple math that powers AI

  • Speakers : Marianne Hoornenborg (LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : English
  • Créneau : 23/04/2026, 13:30 à 14:15 · Salle Paris 143

This beginner-friendly talk demystifies the math behind AI, showing that simple operations like addition and multiplication—organized in vectors and matrices—underpin neural networks. Aimed at developers without a math background, it revisits binary representations and demonstrates that AI's computations are more approachable than they seem.

Unveiling the Simple Math that Powers AI

La session présentée par Marianne Hoornenborg lors de la conférence Devoxx aborde un sujet fondamental mais souvent négligé : les bases mathématiques qui sous-tendent l'intelligence artificielle. Dans un écosystème technologique où l'IA occupe une place prépondérante, comprendre les mathématiques simples qui alimentent ces systèmes complexes est crucial, même pour les développeurs n'ayant pas de formation mathématique formelle.

Ce que présente le talk

Ce talk se veut accessible, démystifiant les concepts mathématiques derrière l'IA. Hoornenborg explique que des opérations simples, telles que l'addition et la multiplication, organisées en vecteurs et matrices, sont à la base des réseaux neuronaux. En revisitant des notions de représentation binaire, elle montre que les calculs effectués par l'IA sont plus abordables qu'ils n'y paraissent.

Points techniques importants

Mathématiques de base et représentation binaire

  • Systèmes numériques : Hoornenborg commence par rappeler l'évolution des systèmes numériques, en soulignant l'importance du binaire, qui est devenu la norme dans l'informatique moderne. Elle évoque des figures historiques comme Leibniz et Al-Khwarizmi, pour montrer que les concepts mathématiques sont ancrés dans une longue tradition.

  • Représentation binaire : La conférencière explique comment les nombres sont stockés en binaire, en utilisant des puissances de deux. Par exemple, le nombre binaire 1011 correspond à 11 en décimal, illustrant ainsi la simplicité du système binaire.

Flottants et précision

  • Nombres à virgule flottante : Hoornenborg aborde la complexité des nombres à virgule flottante, expliquant comment ils sont stockés en utilisant 32 bits pour représenter des valeurs. Elle met en lumière l'importance de la précision dans les calculs effectués par les ordinateurs.

Réseaux neuronaux et transformations

  • Fonctionnement des réseaux neuronaux : La conférencière décrit comment les réseaux neuronaux traitent les entrées en multipliant des vecteurs de poids avec des vecteurs d'entrée, suivis d'une activation non linéaire. Ce processus est essentiel pour permettre aux modèles d'apprendre et de s'adapter.

  • Activation et non-linéarité : Hoornenborg souligne l'importance des fonctions d'activation, comme ReLU (Rectified Linear Unit), qui introduisent de la non-linéarité dans le modèle. Cela permet aux réseaux neuronaux de mieux capturer la complexité des données d'entrée.

Probabilités et sortie

  • Distribution de probabilité : Enfin, elle explique comment les sorties des réseaux neuronaux, souvent des logits, sont transformées en distributions de probabilité. Cela se fait en utilisant la fonction exponentielle d'Euler, permettant ainsi de donner un sens aux résultats produits par le modèle.

Ce qu'il faut retenir

Le talk de Marianne Hoornenborg démontre que les fondements mathématiques de l'IA ne sont pas aussi intimidants qu'ils le paraissent. En se concentrant sur des opérations simples et des concepts accessibles, elle offre une perspective rafraîchissante sur le fonctionnement interne des systèmes d'IA. Les développeurs, même ceux sans formation mathématique, peuvent appréhender les bases nécessaires pour interagir avec ces technologies.

Réflexions Darkwood

La présentation de Hoornenborg s'inscrit dans une tendance plus large de démocratisation de l'IA, où la compréhension des mathématiques sous-jacentes devient essentielle pour les développeurs. Alors que l'automatisation et les agents intelligents continuent de transformer l'industrie du développement, il est impératif que les professionnels du secteur acquièrent une compréhension solide des principes fondamentaux qui régissent ces technologies. Cela pourrait non seulement améliorer la qualité des systèmes développés, mais aussi favoriser une plus grande diversité dans le domaine, en permettant à un plus large éventail de talents de contribuer à l'évolution des architectures modernes.

Fiche programme

AI Security, from PoC to production

  • Speakers : Boussad Addad (LinkedIn), Hugo BECHU (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 14:35 à 15:20 · Salle Neuilly 153

Les agents IA en production créent de nouvelles surfaces d’attaque. Cette présentation décrit les mesures de sécurisation essentielles — guardrails, firewalls IA, gestion des accès et surveillance continue — et présente Battlebox, un toolkit de protection des IA génératives développé par CortAIx et intégré à une solution de pentest Thales, avec démonstrations.

AI Security, from PoC to production

La montée en puissance des agents IA dans les environnements de production soulève des enjeux de sécurité cruciaux. La session "AI Security, from PoC to production", animée par Boussad Addad et Hugo Béchu de Thales, explore les nouvelles surfaces d'attaque générées par ces systèmes et propose des solutions concrètes pour les sécuriser. Dans un contexte où l'IA est de plus en plus intégrée dans des applications critiques, cette présentation est d'une pertinence indéniable.

Ce que présente le talk

Le talk se concentre sur les défis de la cybersécurité liés à l'intégration des agents IA en production. Les intervenants soulignent que ces systèmes, bien qu'innovants, introduisent des vulnérabilités spécifiques. Ils présentent des mesures de sécurité essentielles, telles que les "guardrails", les firewalls IA, et la gestion des accès, tout en introduisant Battlebox, un toolkit conçu pour protéger les IA génératives.

Points techniques importants

Architecture de sécurité

L'architecture de sécurité autour des agents IA doit être pensée dès la conception. Les intervenants insistent sur l'importance des "guardrails", qui encadrent le comportement des IA pour éviter des dérives. Ces mécanismes de contrôle permettent de définir des limites claires sur ce que les agents peuvent ou ne peuvent pas faire.

Firewalls IA

Les firewalls IA sont un autre élément clé, filtrant les requêtes pour prévenir les attaques potentielles. Ces outils doivent être capables d'analyser le trafic en temps réel et d'identifier les comportements suspects, tout en maintenant une performance optimale.

Gestion des accès

La gestion fine des accès est cruciale pour limiter les surfaces d'attaque. Les intervenants recommandent une approche basée sur le principe du moindre privilège, où chaque agent IA n'a accès qu'aux ressources nécessaires à son fonctionnement. Cela réduit les risques d'exploitation en cas de compromission.

Surveillance continue

La surveillance continue des systèmes IA est essentielle pour détecter rapidement les anomalies. Les intervenants évoquent l'importance de mettre en place des outils d'analyse comportementale pour identifier les activités suspectes et réagir en temps réel.

Battlebox

Battlebox est présenté comme un toolkit innovant pour la sécurisation des IA génératives. Développé par CortAIx et intégré dans une solution de pentest de Thales, il permet de simuler des attaques et de tester la résilience des modèles face à des menaces spécifiques. Les démonstrations réalisées durant le talk illustrent comment Battlebox peut être utilisé pour identifier et corriger les vulnérabilités.

Attaques par évasion de modèle

Les intervenants abordent également les attaques par évasion de modèle, où un attaquant modifie légèrement les entrées pour tromper l'IA. Des exemples concrets montrent comment ces attaques peuvent mener à des classifications erronées, illustrant la nécessité de développer des contre-mesures efficaces.

Transférabilité d'attaque

Un point crucial évoqué est la transférabilité d'attaque entre modèles. Les intervenants expliquent que les attaques réussies sur un modèle peuvent souvent être reproduites sur d'autres modèles, même en boîte noire. Cela souligne l'importance de tester la sécurité des modèles dans divers environnements.

Ce qu'il faut retenir

La sécurité des agents IA en production est un enjeu complexe qui nécessite une approche systémique. Les mesures présentées, telles que les guardrails, les firewalls IA, et la gestion des accès, sont essentielles pour protéger ces systèmes. La démonstration de Battlebox illustre comment des outils adaptés peuvent renforcer la résilience des IA face aux menaces émergentes.

Réflexions Darkwood

L'intégration croissante des agents IA dans les systèmes logiciels modernes transforme non seulement la manière dont nous concevons la sécurité, mais également l'architecture des applications. L'automatisation des processus de sécurité, couplée à des agents IA capables d'apprendre et de s'adapter, pourrait révolutionner la gouvernance des systèmes. Cependant, cette évolution pose des questions éthiques et techniques sur la responsabilité des actions entreprises par ces agents. La nécessité d'une orchestration rigoureuse et d'une surveillance continue devient alors primordiale pour garantir que l'innovation ne se fasse pas au détriment de la sécurité.

Fiche programme

Docker Agent - comment simplifier encore plus la création d'agents IA ?

  • Speakers : Djordje Lukic (X · Bluesky), David Gageot (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 14:35 à 15:20 · Salle Maillot

Présentation de Docker Agent, boîte à outils open‑source pour créer en quelques secondes des agents IA sans code. Compatible avec tous les LLM et outils, il permet de combiner modèles, prompts et services pour des tâches uniques. Démonstration avec Gordon v2, assistant Docker, et création d’agents réutilisables ou jetables.

Docker Agent - Simplifier la création d'agents IA

Dans un monde où l'intelligence artificielle (IA) devient omniprésente, la capacité à créer des agents IA adaptés à des tâches spécifiques sans nécessiter de compétences en programmation est un enjeu majeur. La session "Docker Agent - comment simplifier encore plus la création d'agents IA ?" présentée par Djordje Lukic et David Gageot de Docker, aborde cette problématique en introduisant Docker Agent, une boîte à outils open-source qui promet de transformer la manière dont nous interagissons avec les modèles de langage.

Ce que présente le talk

Docker Agent se positionne comme une solution permettant de créer des agents IA en quelques secondes, sans nécessiter de code. Ce framework est compatible avec tous les modèles de langage (LLM) et outils, facilitant la combinaison de modèles, de prompts et de services pour des tâches uniques. La session inclut des démonstrations pratiques, notamment avec Gordon v2, l'assistant IA de Docker, montrant comment créer des agents réutilisables ou jetables.

Points techniques importants

Architecture et Design

Docker Agent est conçu comme un "couteau suisse" pour l'IA, permettant une grande flexibilité. Il est construit sur une architecture open-source, ce qui favorise la contribution et l'adaptation par la communauté. L'utilisation de YAML pour la configuration des agents simplifie le processus de création, remplaçant des milliers de lignes de code par un fichier simple et déclaratif.

Orchestration et Workflow

L'un des aspects clés de Docker Agent est sa capacité à orchestrer des agents. Les utilisateurs peuvent créer des flottes d'agents qui interagissent entre eux, permettant de gérer des tâches complexes sans avoir à écrire de code. Cette orchestration est essentielle pour les environnements de production où plusieurs agents doivent collaborer efficacement.

Compatibilité et Intégration

Docker Agent est conçu pour être compatible avec une variété de modèles de langage, qu'ils soient locaux ou distants. Il peut se connecter à d'autres écosystèmes via des protocoles comme HTTP, A2A, MCP ou ACP, ce qui le rend adaptable à divers cas d'utilisation. Cette interopérabilité est cruciale pour les entreprises cherchant à intégrer des solutions IA dans leurs systèmes existants.

Performance et Scalabilité

L'efficacité de Docker Agent repose sur sa capacité à exécuter des agents avec un coût réduit en termes de ressources. Les démonstrations montrent que des agents peuvent être créés et exécutés avec une consommation minimale de tokens, ce qui est particulièrement important dans un contexte où les coûts d'utilisation des LLM peuvent rapidement s'accumuler.

Expérience Développeur (DX)

L'interface utilisateur et la simplicité d'utilisation de Docker Agent visent à améliorer l'expérience développeur. En permettant aux utilisateurs de créer des agents via des fichiers YAML, Docker Agent réduit la barrière à l'entrée pour ceux qui souhaitent exploiter l'IA sans avoir à maîtriser des langages de programmation complexes.

Ce qu'il faut retenir

Docker Agent se présente comme une solution innovante pour la création d'agents IA, alliant simplicité et puissance. Sa capacité à orchestrer des agents, sa compatibilité avec divers LLM et son approche open-source en font un outil précieux pour les développeurs cherchant à intégrer l'IA dans leurs workflows.

Réflexions Darkwood

L'émergence de solutions comme Docker Agent souligne une tendance croissante vers l'automatisation et la simplification des processus de développement. À mesure que les systèmes logiciels évoluent, la capacité à créer des agents IA sans code pourrait transformer la manière dont les développeurs abordent la création d'applications. L'automatisation des workflows et l'orchestration d'agents IA deviennent des éléments essentiels dans la conception d'architectures modernes. En facilitant l'intégration de l'IA dans les systèmes existants, des outils comme Docker Agent pourraient bien redéfinir les standards de l'industrie du développement logiciel.

Fiche programme

Tests end-to-end d’API générés par IA : un retour d’expérience en refonte legacy

  • Speakers : Cyrille MARTRAIRE (LinkedIn · Bluesky), Olivier Penhoat (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 14:35 à 15:20 · Salle Amphi bleu

Cette session présente un retour d’expérience sur l’usage de l’IA pour générer automatiquement des tests end‑to‑end lors d’une refonte d’API critiques. Elle détaille un workflow d’agents MCP, la comparaison de JSON volumineux et l’évolution du rôle développeur vers la conception de prompts et l’optimisation des coûts IA.

Tests end-to-end d’API générés par IA : un retour d’expérience en refonte legacy

La refonte des systèmes hérités (legacy) est un défi majeur pour les entreprises, surtout dans un contexte où l'IA promet des solutions innovantes. La session présentée par Cyrille Martraire et Olivier Penhoat lors de la conférence Devoxx aborde l'utilisation de l'IA pour générer des tests end-to-end d'API dans le cadre d'une migration complexe. Ce retour d'expérience est particulièrement pertinent dans un écosystème où la confiance dans les systèmes critiques est primordiale.

Ce que présente le talk

Les intervenants partagent un retour d’expérience sur un projet de migration d’API legacy, mettant en avant l'utilisation de l'IA pour générer automatiquement des tests. Ils décrivent un workflow basé sur des agents MCP (Multi-Chain Prompting) et la nécessité de comparer des fichiers JSON volumineux. L'évolution du rôle des développeurs vers la conception de prompts et l'optimisation des coûts liés à l'IA est également discutée.

Points techniques importants

Architecture et Workflow

Le projet s'articule autour d'une API legacy générant un chiffre d'affaires de 500 millions d'euros par an. La migration vers une nouvelle API, qui présente des différences structurelles et sémantiques, nécessite une approche rigoureuse pour garantir la continuité des services. Les intervenants ont conçu un workflow IA utilisant des agents MCP pour automatiser la génération de tests, permettant ainsi de maintenir la confiance dans le système.

Comparaison de JSON volumineux

L'un des principaux défis abordés concerne la comparaison de fichiers JSON de grande taille (jusqu'à 500 Ko). Les intervenants soulignent que l'IA est particulièrement adaptée pour gérer des différences de format et de structure entre les anciennes et nouvelles API. La nécessité d'un format pivot pour normaliser les données est mise en avant afin de faciliter les comparaisons.

Évolution du rôle des développeurs

Le talk met en lumière une évolution significative dans le rôle des développeurs, qui passent de la simple écriture de tests à la conception de prompts pour générer des tests. Cette transformation requiert une compréhension approfondie des systèmes et des exigences métier, ainsi qu'une exigence accrue en matière de qualité du code.

Coûts et Performance

Les intervenants discutent également des coûts associés à l'utilisation de l'IA dans le processus de test. Bien que l'IA puisse réduire le temps et l'effort nécessaires pour générer des tests, elle peut également entraîner une augmentation des coûts, notamment en raison de la consommation de ressources lors du traitement de fichiers volumineux.

Gestion des hallucinations de l'IA

Un point crucial abordé est la gestion des hallucinations de l'IA, qui peuvent survenir lorsque l'IA traite des fichiers JSON volumineux. Les intervenants proposent des solutions pour éviter que l'IA ne lise des fichiers trop grands, ce qui pourrait entraîner des faux positifs ou des faux négatifs dans les résultats des tests.

Ce qu'il faut retenir

  • Utilisation de l'IA : L'IA peut générer des tests end-to-end pour des API complexes, facilitant ainsi la migration de systèmes legacy.
  • Workflow basé sur des agents MCP : Ce workflow permet une approche structurée et répétable pour la génération de tests.
  • Évolution des rôles : Les développeurs doivent désormais se concentrer sur la conception de prompts, augmentant ainsi la complexité de leur travail.
  • Coûts et performance : Bien que l'IA puisse réduire les efforts de test, elle peut également entraîner des coûts supplémentaires.
  • Gestion des hallucinations : Il est crucial de gérer les limites de l'IA pour éviter des erreurs dans les résultats des tests.

Réflexions Darkwood

La session soulève des questions essentielles sur l'avenir des systèmes logiciels et l'intégration de l'IA dans les workflows de développement. À mesure que les entreprises migrent vers des architectures modernes, l'automatisation des tests et la gestion des agents IA deviendront des compétences clés. L'optimisation des workflows, couplée à une gouvernance rigoureuse des systèmes, sera indispensable pour garantir la fiabilité et la performance des API critiques. En somme, l'IA ne remplace pas l'humain, mais transforme son rôle, rendant la collaboration entre développeurs et machines plus essentielle que jamais.

Fiche programme

LLMs et Hallucinations : comprendre, mesurer, maitriser

  • Speakers : Aygalic Jara (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 15:40 à 16:25 · Salle Maillot

Ce talk analyse les hallucinations des LLMs : leurs causes, méthodes de détection et d’atténuation. Il présente des solutions comme le context engineering, les workflows agentiques, le RAG et certaines architectures, pour concevoir des IA plus fiables, adaptées aux usages critiques. Objectif : mieux comprendre et limiter ce phénomène.

LLMs et Hallucinations : comprendre, mesurer, maîtriser

La session présentée par Aygalic Jara lors de la conférence "AI & Agentic Systems" aborde un enjeu majeur dans le domaine des modèles de langage (LLMs) : les hallucinations. Ces erreurs, où le modèle génère des informations fausses ou décontextualisées, soulèvent des préoccupations significatives, notamment dans des secteurs critiques comme la santé ou la finance. Comprendre les mécanismes sous-jacents et les méthodes pour les atténuer est essentiel pour concevoir des systèmes d'IA plus fiables.

Ce que présente le talk

Le talk se divise en trois volets principaux : la compréhension des hallucinations, leur mesure et les stratégies pour les maîtriser. Jara commence par définir ce qu'est un LLM et ce qu'implique le phénomène d'hallucination, avant d'explorer les origines de ces erreurs et les méthodes de prévention.

Points techniques importants

Définition des hallucinations

Les hallucinations dans les LLMs se manifestent par des réponses qui peuvent être :

  • Dénuées de sens : lorsque le contenu généré ne correspond pas à la réalité.
  • Infidèles au contexte : lorsque la réponse ne respecte pas les informations fournies.

Cette taxonomie permet de distinguer deux types d'hallucinations :

  1. Hallucinations de factualité : erreurs factuelles, comme une donnée incorrecte sur un taux.
  2. Hallucinations de fidélité : réponses qui ne respectent pas le contexte, comme une interprétation erronée d'un document.

Origines des hallucinations

Les hallucinations proviennent principalement de deux facteurs :

  • Entraînement sur des données imparfaites : Les LLMs sont formés sur de vastes ensembles de données, souvent extraites d'Internet, qui contiennent des erreurs et des biais. De plus, la date limite de collecte des données entraîne des lacunes dans les connaissances des modèles.
  • Méthode de prédiction de tokens : Les LLMs prédisent les mots suivants dans une séquence sans capacité à dire "je ne sais pas", ce qui les pousse à générer des réponses incorrectes.

Méthodes de prévention

Jara présente plusieurs stratégies pour minimiser les hallucinations :

Context Engineering

Cette approche consiste à fournir des sources fiables au modèle pour améliorer la factualité des réponses. Par exemple, en intégrant des documents pertinents dans le contexte de la question posée, on peut réduire les risques d'hallucination.

Fine Tuning et Air Tuning

Le fine tuning permet d'adapter le modèle à des cas d'usage spécifiques, tandis que l'air tuning vise à entraîner le modèle à dire "je ne sais pas" lorsqu'il ne connaît pas la réponse. Cela nécessite un équilibre délicat pour éviter que le modèle ne devienne trop conservateur dans ses réponses.

Pyramide de la robustesse aux hallucinations

Jara propose une pyramide illustrant les différentes techniques pour améliorer la robustesse des LLMs face aux hallucinations :

  • Besoins fondamentaux : Amélioration des données d'entraînement et instruction tuning.
  • Context Engineering : Utilisation de prompt engineering et optimisation du contexte.
  • Contrôle de qualité post-génération : Vérification de cohérence et fact checking externe.

Ce qu'il faut retenir

Les hallucinations des LLMs représentent un défi majeur pour leur utilisation dans des applications critiques. Comprendre leurs origines et mettre en œuvre des méthodes telles que le context engineering et le fine tuning sont des étapes cruciales pour concevoir des systèmes d'IA plus fiables. La gestion des hallucinations nécessite une approche systématique et réfléchie, intégrant des techniques de contrôle de qualité.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une intégration accrue de l'IA soulève des questions sur la fiabilité et la robustesse des modèles de langage. Alors que l'automatisation et les workflows deviennent de plus en plus sophistiqués, la capacité à gérer les hallucinations devient essentielle pour garantir des résultats fiables. L'architecture moderne des systèmes doit intégrer des mécanismes d'orchestration et de gouvernance robustes pour minimiser les risques associés aux erreurs des LLMs. Dans un monde où les agents IA prennent une place prépondérante, comprendre et maîtriser les hallucinations est non seulement une nécessité technique, mais aussi un impératif éthique pour l'industrie du développement.

Fiche programme

Automatisation intelligente en temps réel : quand Kafka rencontre n8n et l’IA

  • Speakers : Bruno Bonnin (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 17:00 à 17:30 · Salle Neuilly 153

Automatisation intelligente en temps réel : quand Kafka rencontre n8n et l’IA

L'automatisation des processus métier est un enjeu majeur dans l'écosystème technologique actuel. Avec l'augmentation exponentielle des données générées, la capacité à réagir en temps réel à des événements critiques devient essentielle. La session présentée par Bruno Bonnin lors de la conférence "AI & Agentic Systems" explore une architecture innovante combinant Kafka, n8n et des agents IA pour créer des pipelines d'automatisation intelligents. Ce talk est particulièrement pertinent pour les développeurs et architectes souhaitant intégrer des solutions d'automatisation réactives dans leurs infrastructures.

Ce que présente le talk

Bruno Bonnin nous plonge dans une architecture qui combine Kafka pour le streaming d'événements, n8n comme orchestrateur low-code, et des agents IA capables d'analyser et de décider en temps réel. L'objectif est de construire des pipelines de réaction qui interprètent les événements, en déterminant l'action la plus pertinente à mener, qu'il s'agisse d'une alerte, d'une action technique ou de l'absence d'action si l'événement est jugé comme du bruit.

Points techniques importants

Architecture générale

L'architecture présentée repose sur trois composants principaux :

  1. Kafka : Utilisé pour la gestion des événements en temps réel. Il reçoit une multitude d'événements, qu'il s'agisse d'erreurs ou d'événements métier.
  2. n8n : Outil d'orchestration low-code qui permet de créer des workflows d'automatisation. Il intègre des connecteurs pour divers systèmes et peut exécuter des actions en réponse aux événements traités.
  3. Agents IA : Ces agents sont intégrés dans n8n et sont capables d'analyser les événements reçus, de les classer et de décider des actions à entreprendre.

Orchestration avec n8n

n8n se distingue par sa capacité à créer des workflows complexes à partir de simples nœuds. Lors de la session, Bruno a démontré comment configurer un workflow dans n8n pour interagir avec Kafka. Les étapes clés incluent :

  • Création d'un workflow : Définir un point d'entrée pour les événements Kafka.
  • Ajout de nœuds : Intégration de divers outils et systèmes, y compris des API et des bases de données.
  • Gestion des agents IA : Configuration des agents pour traiter les messages, en utilisant des modèles de langage pour interpréter et décider des actions.

Intelligence des agents

Les agents IA dans n8n utilisent des modèles de langage pour traiter les entrées. Ils peuvent être configurés pour :

  • Gérer la mémoire : Utiliser des systèmes comme Redis pour éviter les doublons dans le traitement des événements.
  • Définir des outils : Intégrer des outils variés, qu'il s'agisse de fonctions codées directement ou d'appels à des services externes via des API.

Cas d'utilisation

Bruno a illustré son propos avec une démonstration en direct, où des événements étaient analysés en temps réel. Selon le type d'événement, l'agent IA pouvait décider de créer un ticket, d'envoyer une alerte ou de ne rien faire si l'événement était jugé non pertinent.

Ce qu'il faut retenir

L'intégration de Kafka, n8n et des agents IA permet de construire des systèmes d'automatisation réactifs et intelligents. Cette architecture offre une solution efficace pour traiter une grande quantité d'événements en temps réel, tout en réduisant le bruit et en optimisant les ressources humaines.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une automatisation intelligente souligne l'importance croissante de l'orchestration et des agents IA. Alors que les entreprises cherchent à réduire les coûts et à améliorer l'efficacité, l'intégration de solutions comme Kafka et n8n pourrait devenir un standard dans la gestion des workflows. L'automatisation ne se limite plus à des tâches répétitives, mais s'étend à des processus décisionnels complexes, renforçant ainsi la nécessité d'une gouvernance rigoureuse et d'une architecture adaptable. Dans un monde où chaque milliseconde compte, ces technologies pourraient transformer la manière dont les entreprises réagissent aux événements critiques, ouvrant la voie à des systèmes plus résilients et proactifs.

Fiche programme

Domptez vos Agents : AGENTS.md et Context Engineering pour une IA déterministe

  • Speakers : Benoît FONTAINE (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 17:00 à 17:30 · Salle Amphi bleu

Présentation du Context Engineering avec le standard AGENTS.md : structuration des assistants IA en partenaires fiables via configuration avancée, définition de personas, gestion des limites et commandes, TDD/BDD assisté et mémoire conversationnelle, pour garantir qualité, respect des standards et éviter la dégradation du contexte sur projets complexes.

Domptez vos Agents : AGENTS.md et Context Engineering pour une IA déterministe

Dans un monde où l'intelligence artificielle devient omniprésente, la capacité à structurer et à gérer efficacement les interactions avec ces systèmes est cruciale. La session présentée par Benoît Fontaine lors de la conférence sur les systèmes agentiques et l'IA explore comment transformer des agents comme Claude ou Cursor en véritables partenaires d'ingénierie, grâce à une approche systématique : le Context Engineering, en utilisant le standard AGENTS.md.

Ce que présente le talk

Le talk se concentre sur l'importance de la structuration du contexte pour améliorer la fiabilité et la performance des agents IA. Benoît Fontaine propose une méthode pour passer du simple "prompt engineering" à une approche plus robuste, le Context Engineering. Cette méthode permet de définir des personas, de gérer les limites des agents, et d'appliquer des pratiques de développement pilotées par les tests (TDD/BDD) pour garantir la qualité des résultats.

Points techniques importants

Anatomie d'un AGENTS.md performant

L'AGENTS.md constitue le cœur du projet, agissant comme une source unique de vérité pour les agents. Il contient :

  • Personas : Définition des rôles et des comportements des agents.
  • Limites : Spécification des frontières de ce que l'agent peut faire, afin d'éviter les hallucinations.
  • Commandes : Instructions claires sur les actions que l'agent peut exécuter.

Workflow TDD/BDD assisté

Benoît présente un workflow où les User Stories sont utilisées pour forcer l'agent à écrire des tests avant le code, suivant le cycle Red-Green-Refactor. Cela garantit que :

  • Les tests sont en place avant le développement.
  • Les principes SOLID sont respectés, améliorant ainsi la maintenabilité du code.

Gestion de la mémoire et prévention du "context rot"

La gestion de la mémoire conversationnelle est essentielle pour éviter la dégradation du contexte, surtout dans les projets complexes. Benoît souligne plusieurs mécanismes de dégradation des performances des agents :

  1. Dilution de l'attention : Plus le nombre de tokens augmente, moins chaque token reçoit d'attention.
  2. Lost in the middle : La précision de l'agent diminue au milieu du contexte.
  3. Interférence par distraction : Du code sémantiquement proche mais non pertinent peut nuire à la performance de l'agent.

Optimisation du contexte

Pour optimiser l'utilisation du contexte, Benoît recommande :

  • Ne pas dépasser 80 % de la capacité de contexte.
  • Utiliser des fichiers de contexte bien structurés, répartis par sous-répertoire pour ne charger que ce qui est nécessaire.
  • Éviter de surcharger les fichiers AGENTS.md et cloud.md avec trop d'instructions, afin de ne pas perdre en clarté.

Ce qu'il faut retenir

La session met en lumière l'importance de la structuration du contexte pour maximiser l'efficacité des agents IA. En utilisant AGENTS.md et en appliquant des pratiques de développement rigoureuses, il est possible de transformer des agents en véritables collaborateurs, capables de respecter des standards d'architecture et des exigences métier.

Réflexions Darkwood

L'évolution vers des systèmes logiciels de plus en plus intelligents nécessite une approche systématique de l'automatisation et de la gestion du contexte. Le Context Engineering, tel que présenté par Benoît Fontaine, illustre comment les agents IA peuvent être intégrés de manière plus cohérente dans les workflows de développement. Cette approche pourrait bien redéfinir la manière dont nous interagissons avec les systèmes IA, en les rendant non seulement plus efficaces, mais également plus alignés avec les objectifs métier. La standardisation du contexte pourrait également avoir des implications profondes sur la gouvernance des systèmes logiciels, en assurant une meilleure traçabilité et une conformité accrue aux normes de qualité.

Fiche programme

A2A en 30 Minutes: Construire des agent IA qui communiquent

  • Speakers : Loïc Magnette (X · LinkedIn · Bluesky)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 17:50 à 18:20 · Salle Paris 141

Cette session présente A2A, le standard ouvert de Google pour la collaboration entre agents IA. Elle explique ses principes — communication sécurisée, découverte via Agent Cards, négociation de tâches — et montre comment A2A complète MCP. Une démo en Java illustre la création d’agents interopérables pour l’Internet des Agents.

A2A en 30 Minutes: Construire des agents IA qui communiquent

La montée en puissance des agents intelligents soulève des questions cruciales sur leur interopérabilité et leur capacité à collaborer efficacement. La session présentée par Loïc Magnette lors de la conférence "AI & Agentic Systems" aborde le standard A2A (Agent to Agent), un protocole ouvert développé par Google, qui vise à faciliter la communication entre ces agents. Dans un monde où les agents IA deviennent de plus en plus présents, comprendre comment les faire interagir est essentiel pour l'avenir de l'Internet des Agents.

Ce que présente le talk

Loïc Magnette introduit A2A, un standard qui permet aux agents IA de se découvrir, de communiquer et de collaborer au sein de divers écosystèmes. Cette session couvre les principes fondamentaux d'A2A, notamment la communication sécurisée, la découverte via des "Agent Cards", et la négociation de tâches entre agents. Une démonstration en Java illustre la création d'agents interopérables, mettant en lumière l'importance de ce standard dans l'écosystème des agents.

Points techniques importants

Architecture et Protocoles

A2A est conçu sur des standards web bien établis tels que HTTP et JSON-RPC, ce qui facilite son adoption par les développeurs. Cela permet une intégration fluide dans les systèmes existants sans nécessiter une courbe d'apprentissage abrupte.

Communication Sécurisée

L'un des aspects les plus importants d'A2A est la sécurité. Contrairement à des protocoles précédents comme MCP, A2A intègre dès le départ des mécanismes de sécurité robustes. Les agents peuvent utiliser des "Agent Cards" signées pour garantir leur identité, ce qui est crucial dans un environnement où la confiance est primordiale.

Découverte et Négociation

Les "Agent Cards" jouent un rôle central dans la découverte des agents. Elles contiennent des informations sur les capacités de chaque agent, y compris les protocoles supportés et les types de données qu'ils peuvent traiter. Cela permet aux agents de négocier des tâches de manière efficace, en s'assurant que chacun sait ce que l'autre peut faire.

Gestion des Tâches

A2A introduit un modèle de gestion des tâches qui favorise l'asynchronicité. Un agent peut soumettre une tâche à un autre, qui peut alors traiter cette tâche à son rythme. Ce mécanisme réduit le gaspillage de ressources, car les agents ne restent pas bloqués en attendant une réponse. De plus, les agents peuvent échanger des informations contextuelles tout au long du processus, permettant une collaboration plus fluide.

Multimodalité

Le protocole A2A supporte la communication multimodale, permettant aux agents d'échanger non seulement du texte, mais aussi des images, des vidéos et d'autres types de données. Cela ouvre la voie à des interactions plus riches et plus variées entre agents.

Extensibilité

A2A est conçu pour être extensible, permettant aux développeurs de créer des protocoles spécifiques à des domaines particuliers. Par exemple, un protocole de paiement entre agents peut être construit sur la base d'A2A, offrant des fonctionnalités adaptées à des besoins spécifiques.

Ce qu'il faut retenir

A2A représente une avancée significative dans la communication entre agents IA. Grâce à son architecture basée sur des standards web, sa sécurité intégrée, et sa capacité à gérer des tâches de manière asynchrone, il pose les bases d'une collaboration efficace entre agents. Les "Agent Cards" facilitent la découverte et la négociation, tandis que la multimodalité et l'extensibilité ouvrent de nouvelles perspectives pour l'interopérabilité.

Réflexions Darkwood

L'émergence de protocoles comme A2A souligne une tendance vers des architectures plus interconnectées et collaboratives dans le développement logiciel. À mesure que les agents IA deviennent plus sophistiqués, leur capacité à travailler ensemble de manière fluide et sécurisée sera essentielle. L'automatisation des workflows et l'orchestration des agents IA pourraient transformer des secteurs variés, allant de la santé à la finance, en permettant une interaction harmonieuse entre systèmes hétérogènes. L'avenir des systèmes logiciels réside dans cette interopérabilité, où les agents intelligents ne sont plus des entités isolées, mais des participants actifs dans un écosystème dynamique.

Fiche programme

ClaudeCode.proTips(30, minutes=30).run()

  • Speakers : Erwan GEREEC (X · LinkedIn)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 17:50 à 18:20 · Salle Amphi bleu

Cette session propose 30 astuces concrètes pour exploiter pleinement Claude Code comme copilote de développement. Elle couvre prompting, refactoring, debug, tests, APIs, gestion du contexte et UI, afin d’améliorer la productivité et faire de Claude Code un outil indispensable pour tout développeur, débutant ou confirmé.

ClaudeCode.proTips(30, minutes=30).run()

Dans un contexte où l'IA s'impose comme un acteur majeur dans le développement logiciel, la session présentée par Erwan Gereec, Engineering Manager chez Doctolib, offre une plongée pratique dans l'utilisation de Claude Code. Ce copilote de développement, au-delà de sa fonction de générateur de code, se révèle être un outil essentiel pour optimiser la productivité des développeurs, qu'ils soient novices ou expérimentés.

Ce que présente le talk

La session propose une série de 30 astuces concrètes pour exploiter pleinement Claude Code. Ces conseils touchent à divers aspects du développement, notamment le prompting, le refactoring, le débogage, la gestion des tests, l'interaction avec les APIs, et l'optimisation de l'interface utilisateur. L'objectif est clair : transformer la manière de travailler des développeurs avec cet outil, en leur permettant de gagner en efficacité et en confiance.

Points techniques importants

Installation et mise à jour

  • Installation native : Erwan souligne l'importance d'installer Claude Code via l'installateur natif, garantissant des mises à jour automatiques à chaque démarrage de session. Cela est crucial pour bénéficier des dernières fonctionnalités et corrections.

Personnalisation de l'expérience

  • Thèmes et commandes personnalisées : La commande /theme permet de choisir un thème de couleur, tandis que /statusline offre la possibilité de personnaliser l'affichage des informations contextuelles dans le terminal.
  • Nommer les sessions : Utiliser /rename pour attribuer un nom significatif à chaque session facilite la gestion et la recherche ultérieure.

Gestion du contexte

  • Optimisation du contexte : La gestion du contexte est essentielle pour éviter des réponses imprécises de Claude Code. La commande /compact permet de réduire la taille du contexte en se concentrant sur les informations pertinentes.

Commandes avancées

  • Slash commands : Plusieurs commandes comme /focus et /powerup permettent de réduire le bruit ambiant et d'introduire des didacticiels pour les utilisateurs novices.
  • Exécution de commandes Bash : L'utilisation du préfixe ! permet d'exécuter des commandes Bash directement dans Claude Code, intégrant ainsi des opérations shell sans quitter l'environnement de développement.

Mémoire et gestion des fichiers

  • Fichier cloud.md : Ce fichier contient des informations sur la structure du projet et est crucial pour le bon fonctionnement de Claude Code. Sa taille doit être maintenue à un maximum de 300 lignes pour garantir une performance optimale.
  • Mémoire automatique : Claude Code apprend de ses interactions et ajuste ses réponses en fonction des retours fournis par l'utilisateur, ce qui améliore continuellement la pertinence des suggestions.

Ce qu'il faut retenir

La session d'Erwan Gereec met en lumière l'importance d'une utilisation stratégique de Claude Code. Les astuces partagées permettent non seulement d'améliorer la productivité, mais aussi de transformer Claude Code en un véritable assistant de développement. La personnalisation, la gestion du contexte, et l'utilisation efficace des commandes sont des éléments clés pour tirer le meilleur parti de cet outil.

Réflexions Darkwood

L'intégration de systèmes comme Claude Code dans le quotidien des développeurs marque une évolution significative dans la manière dont nous concevons le développement logiciel. L'automatisation des tâches répétitives et l'assistance par IA ouvrent la voie à des workflows plus fluides et efficaces. En optimisant la gestion du contexte et en permettant une personnalisation poussée, ces outils renforcent la collaboration entre l'humain et la machine. À mesure que l'industrie du développement évolue, il est crucial d'adopter ces technologies pour rester compétitif et innovant. La gouvernance des outils d'IA et leur intégration dans des architectures modernes seront des enjeux majeurs pour les entreprises souhaitant maximiser leur efficacité tout en minimisant les risques associés à l'automatisation.

Fiche programme

L'IA au défi de la condition humaine

  • Speakers : Jean-Gabriel Ganascia
  • Type : Keynote
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 24/04/2026, 09:00 à 09:25 · Salle Amphi bleu

La présentation interroge les promesses d’une IA libérant l’humain de l’effort : confort, immortalité, conscience numérique. En confrontant ces visions aux aspirations humaines et aux sociétés passées, elle questionne leur vraisemblance et explore d’autres voies de réalisation de soi, en deçà du fantasme d’un « nirvana numérique ».

L'IA au défi de la condition humaine

La présentation de Jean-Gabriel Ganascia lors de la conférence Devox aborde une question cruciale dans le débat actuel sur l'intelligence artificielle : celle de la condition humaine face à des promesses d'automatisation et de confort. En confrontant les visions utopiques d'une IA libérant l'humain de l'effort à des réflexions philosophiques et historiques, Ganascia interroge la viabilité de ces promesses et explore des voies alternatives de réalisation de soi.

Ce que présente le talk

Ganascia s'interroge sur les implications de l'IA dans notre quête de bonheur et de confort. Il évoque des concepts tels que le "droit à l'oisiveté" proposé par Paul Lafargue, et examine comment l'automatisation pourrait transformer notre rapport au travail et à la vie. En mettant en perspective les aspirations humaines avec les promesses de l'IA, il soulève des questions sur la pertinence de ces visions dans le contexte moderne.

Points techniques importants

Philosophie et travail

Ganascia commence par rappeler que les approches philosophiques traditionnelles considèrent souvent le travail comme un moyen nécessaire à la plénitude et au bonheur. Il évoque le concept de "droit à l'oisiveté" de Lafargue, qui prône une réduction du temps de travail pour favoriser une vie plus épanouissante. Ce point soulève des questions sur la nature même du travail à l'ère de l'IA.

Automatisation et productivité

L'orateur souligne que les avancées en IA pourraient offrir des gains de productivité significatifs. Il évoque quatre bénéfices potentiels d'une réduction du temps de travail :

  • Amélioration de la rentabilité : Un travailleur reposé serait plus efficace.
  • Formation continue : Moins de travail permettrait de se consacrer à l'apprentissage tout au long de la vie.
  • Justice sociale : Une réduction du temps de travail pourrait permettre à plus de personnes d'accéder à un emploi.
  • Impact environnemental : Moins de production pourrait réduire les effets néfastes de la consommation excessive.

Les risques de l'inaction

Ganascia met en garde contre le risque d'ennui et de vide existentiel si l'IA venait à nous libérer de toutes les tâches pénibles. Il cite Baudelaire pour illustrer le danger d'une vie sans effort, où l'ennui pourrait s'installer et mener à des conséquences néfastes.

Éthique et gouvernance

L'intervenant aborde également les implications éthiques de l'IA, notamment dans le contexte du capitalisme. Il questionne la possibilité que les gains de productivité soient utilisés pour réduire les effectifs plutôt que pour améliorer la qualité de vie des travailleurs. Cette réflexion soulève des enjeux cruciaux sur la gouvernance des technologies d'IA.

Ce qu'il faut retenir

La présentation de Ganascia met en lumière les tensions entre les promesses de l'IA et la réalité de la condition humaine. Il souligne l'importance de réfléchir aux conséquences de l'automatisation sur notre rapport au travail, à la formation et à la vie sociale. La question du bonheur à l'ère de l'IA reste ouverte, et il est essentiel d'explorer des voies qui ne se limitent pas à un "nirvana numérique".

Réflexions Darkwood

L'intervention de Ganascia s'inscrit dans un contexte où l'évolution des systèmes logiciels et l'automatisation redéfinissent notre rapport au travail et à la vie. L'IA, en promettant de réduire la pénibilité du travail, pourrait paradoxalement engendrer un vide existentiel si elle n'est pas accompagnée d'une réflexion sur la réalisation de soi. Les agents IA, en automatisant des tâches, doivent être intégrés dans des workflows qui préservent l'humain au cœur de l'expérience. La gouvernance de ces technologies doit également être repensée pour éviter une dérive vers un capitalisme déshumanisé, où l'efficacité prime sur le bien-être. Les défis posés par l'IA nécessitent une approche holistique qui prenne en compte non seulement les aspects techniques, mais aussi les dimensions éthiques et sociales de notre avenir commun.

Fiche programme

La course à l’IA : La France risque-t-elle de devenir un "territoire servant"?

  • Speakers : Loup Cellard
  • Type : Keynote
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 24/04/2026, 09:35 à 10:00 · Salle Amphi bleu

La conférence analyse l’afflux d’investissements étrangers dans les infrastructures IA et ses tensions : perte de souveraineté, concurrence pour l’électricité avec d’autres secteurs clés. À partir d’exemples de data centers, elle interroge les bénéfices réels pour les territoires et le risque d’une France « territoire servant » de la course à l’IA.

La course à l’IA : La France risque-t-elle de devenir un "territoire servant"?

La montée en puissance de l'intelligence artificielle (IA) soulève des questions cruciales sur la souveraineté nationale et l'impact des investissements étrangers dans les infrastructures de calcul. La keynote de Loup Cellard, présentée lors de la conférence sur les systèmes agentiques et l'IA, aborde ces enjeux en mettant en lumière les tensions entre développement technologique et préservation des intérêts locaux.

Ce que présente le talk

La session explore l'afflux d'investissements étrangers dans les infrastructures IA en France, en particulier les data centers, et les implications de cette dynamique. Cellard interroge la notion de souveraineté à travers des exemples concrets, notamment à Marseille et Bordeaux, tout en soulevant des problématiques liées à la gestion des ressources énergétiques et à la dépendance vis-à-vis des acteurs américains.

Points techniques importants

Souveraineté et dépendance

L'intervention commence par une réflexion sur la promesse économique de l'IA, qui, tout en étant un moteur de croissance, cache des risques de bulle. La question de la souveraineté est centrale : comment garantir que les infrastructures critiques soient contrôlées par des acteurs locaux plutôt que par des multinationales américaines ?

Conflits d'usage et gestion des ressources

Cellard souligne les conflits d'usage autour de l'électricité, exacerbés par la demande croissante des data centers. À Marseille, par exemple, des incidents passés montrent comment l'approvisionnement électrique a été priorisé pour les data centers au détriment d'autres secteurs essentiels comme les transports publics.

Géographie et infrastructures

Le talk met en avant l'importance de la géographie dans le choix des sites pour les data centers. Marseille, en tant que hub historique pour les câbles sous-marins, offre une connectivité stratégique entre l'Europe, l'Afrique et l'Asie. En revanche, Bordeaux, avec des câbles plus récents, illustre une approche différente, où l'absence d'opérateurs établis soulève des questions sur la viabilité des projets.

Cas d'étude : Marseille et Bordeaux

  • Marseille : La ville est devenue un acteur clé dans le domaine des data centers grâce à sa position géographique. Cependant, l'essor de ces infrastructures a soulevé des préoccupations environnementales et sociales, notamment en matière d'approvisionnement électrique.

  • Bordeaux : Le projet de data center à Bordeaux, soutenu par des acteurs immobiliers, pose la question de la spéculation sur les terrains et de la gestion des ressources. La ville doit naviguer entre opportunités économiques et risques de surcapacité.

Enjeux environnementaux

Cellard aborde également les implications environnementales des data centers, qui consomment d'importantes quantités d'énergie et d'eau. Les tensions entre développement économique et durabilité sont palpables, illustrant un dilemme auquel les collectivités doivent faire face.

Ce qu'il faut retenir

La keynote de Loup Cellard met en lumière les défis que la France doit relever face à l'essor de l'IA et des infrastructures associées. Les enjeux de souveraineté, de gestion des ressources et d'impact environnemental sont interconnectés et nécessitent une approche réfléchie pour éviter que la France ne devienne un simple "territoire servant" dans la course à l'IA.

Réflexions Darkwood

L'évolution des systèmes logiciels et l'automatisation des processus sont inextricablement liées à la montée en puissance des infrastructures IA. Alors que la France cherche à renforcer sa souveraineté numérique, la question de la gouvernance des infrastructures devient cruciale. Les agents IA et les workflows doivent être conçus en tenant compte des réalités territoriales et des impacts sociaux. La gestion des data centers ne doit pas se limiter à une approche technologique, mais intégrer des considérations environnementales et sociétales pour construire un avenir durable et résilient.

Fiche programme

APIs, contextes et prompts : la nouvelle stack du développeur web

  • Speakers : Olivier Leplus (X · LinkedIn · Bluesky), Yohan Lasorsa (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 10:30 à 11:15 · Salle Amphi bleu

En 2026, le métier de développeur web évolue avec l’intégration massive d’outils IA, d’APIs et de copilotes. Ce talk explore, via une démo concrète, comment ces technologies transforment la création et la mise en production de fonctionnalités, en questionnant la place de l’humain et les nouveaux défis du métier.

APIs, contextes et prompts : la nouvelle stack du développeur web

La conférence présentée par Olivier Leplus d'AWS et Yohan Lasorsa de Microsoft aborde un sujet crucial pour l'avenir du développement web : l'intégration des outils d'intelligence artificielle, des APIs et des copilotes dans le quotidien des développeurs. Avec l'émergence de ces technologies, le paysage du développement est en pleine mutation, soulevant des questions sur la place de l'humain et les défis qui en découlent.

Ce que présente le talk

Le talk explore comment, en 2026, le métier de développeur web évolue grâce à l'intégration massive des Web AI APIs et des outils d'IA. À travers une démonstration concrète, les intervenants illustrent comment ces technologies transforment la création et la mise en production de fonctionnalités. Ils interrogent également la pertinence de l'écriture de code par les développeurs et l'impact de ces changements sur leur rôle.

Points techniques importants

Évolution des outils et des APIs

  • Web AI APIs : Les intervenants évoquent des APIs telles que Prompt API et Summarizer API, qui permettent d'automatiser certaines tâches de développement. Ces outils facilitent l'intégration de fonctionnalités complexes sans nécessiter une expertise approfondie en programmation.

  • Documentation générative : L'utilisation d'outils comme Context7 permet aux développeurs d'accéder à la documentation pertinente en temps réel, réduisant ainsi le temps passé à chercher des informations.

Intégration des agents IA

  • Coding Agents : Les intervenants discutent des agents de codage qui peuvent exécuter des tâches de développement sur demande. Ces agents utilisent des "skills" pour adapter leur comportement aux besoins spécifiques du développeur, ce qui soulève des questions sur la personnalisation et l'efficacité.

  • Skills et agents.m : Les "skills" sont des plugins textuels qui ajoutent des compétences aux agents de codage. L'agent utilise ces compétences pour exécuter des tâches, comme le débogage ou l'optimisation des performances, tout en s'adaptant au workflow du développeur.

Démonstration pratique

  • Workflow automatisé : La session inclut une démo où les intervenants montrent comment un agent peut être configuré pour gérer des tâches de développement, comme l'enregistrement de vidéos de tests ou l'envoi de notifications sur un téléphone. Cela illustre comment l'automatisation peut améliorer l'efficacité des développeurs.

  • Outils de débogage : L'utilisation de Chrome DevTools avec un serveur MCP permet d'effectuer des débogages plus efficaces. Les intervenants montrent comment ces outils peuvent être intégrés dans le workflow de développement pour faciliter la détection et la correction des erreurs.

Ce qu'il faut retenir

  • L'intégration des outils d'IA et des APIs transforme le rôle du développeur web, qui doit désormais s'adapter à une nouvelle stack technologique.
  • Les agents de codage et les skills permettent d'automatiser de nombreuses tâches, mais soulèvent des questions sur la personnalisation et l'interaction humaine.
  • Les outils modernes, comme les serveurs MCP et la documentation générative, améliorent l'efficacité et la productivité des développeurs.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une intégration accrue de l'IA et des outils d'automatisation marque un tournant dans le développement web. Alors que les développeurs se tournent vers des agents intelligents pour gérer des tâches répétitives, la question de la gouvernance de ces technologies devient cruciale. Les workflows automatisés offrent un potentiel d'efficacité sans précédent, mais nécessitent une réflexion approfondie sur la place de l'humain dans ce processus. À mesure que les architectures modernes évoluent, il est essentiel de trouver un équilibre entre l'automatisation et l'expertise humaine, afin de garantir que les développeurs restent au cœur de l'innovation technologique.

Fiche programme

Et si votre backend savait parler ? créer des agents vocaux IA en temps réel

  • Speakers : Mehdi Oualiken (LinkedIn), Abdessamii Lazghab (LinkedIn)
  • Type : 2H Deep Dive
  • Niveau : ADVANCED
  • Langue : French
  • Créneau : 24/04/2026, 10:30 à 12:30 · Salle Neuilly 251

Atelier pratique de 2 heures pour créer un agent conversationnel vocal complet : capture audio en streaming, compréhension du langage, logique de dialogue et génération de réponses parlées. Les participant·es apprendront à orchestrer un pipeline voix‑à‑voix temps réel avec un framework open‑source pour des interactions naturelles et fluides.

Et si votre backend savait parler ? Créer des agents vocaux IA en temps réel

L'essor des agents vocaux intelligents transforme notre interaction avec la technologie. Ce talk, animé par Mehdi Oualiken et Abdessamii Lazghab d'Amazon Web Services, explore la création d'agents conversationnels vocaux en temps réel, un sujet d'une pertinence croissante dans un monde où la communication naturelle avec les machines devient essentielle.

Ce que présente le talk

Cette session de deux heures se concentre sur la construction d'un agent conversationnel vocal complet. Les participants apprendront à orchestrer un pipeline voix-à-voix en temps réel, intégrant des éléments tels que la capture audio, la compréhension du langage et la génération de réponses parlées. L'atelier est conçu pour être pratique, permettant aux développeurs d'interagir directement avec le code tout en découvrant les concepts fondamentaux derrière les agents vocaux.

Points techniques importants

Architecture des agents vocaux

L'architecture d'un agent vocal repose sur plusieurs composants clés :

  • Capture audio en streaming : L'agent doit être capable d'écouter en temps réel, ce qui nécessite une gestion efficace du streaming audio.
  • Compréhension du langage naturel (NLU) : Cette couche permet à l'agent de décoder les intentions de l'utilisateur à partir de l'audio capturé.
  • Logique de dialogue : Un moteur de dialogue gère les interactions, permettant à l'agent de maintenir un contexte conversationnel.
  • Génération de réponses : Cette étape transforme les réponses textuelles en audio, créant une interaction naturelle.

Orchestration des composants

L'atelier aborde l'orchestration des différents composants via un framework open-source. Cette orchestration est cruciale pour garantir des interactions fluides et naturelles. Les participants apprendront à configurer un pipeline speech-to-speech, permettant une conversation bidirectionnelle.

Utilisation de services AWS

Le talk met en avant des services spécifiques d'AWS, notamment :

  • Amazon Nova 2 Sonic : Un service de conversion voix-à-voix en temps réel, qui facilite la création d'interactions vocales naturelles.
  • MCP (Model Context Protocol) : Un protocole open-source qui standardise la connexion entre les modèles IA et diverses sources de données, simplifiant l'intégration des API.

Défis de mise en production

Construire des agents IA pour un environnement de production pose plusieurs défis :

  • Visibilité limitée : Comprendre les décisions prises par l'agent est essentiel pour garantir son bon fonctionnement.
  • Manque de contrôle : Les frameworks actuels peuvent être rigides, rendant difficile la personnalisation des comportements des agents.
  • Courbe d'apprentissage : La diversité des modèles et des outils nécessite une formation approfondie pour les développeurs.
  • Maintenance de l'infrastructure : La complexité de l'orchestration des agents peut devenir un fardeau pour les équipes de développement.

Éthique et responsabilité

Un aspect crucial abordé est la responsabilité dans l'utilisation de l'IA. Les intervenants soulignent l'importance de mettre en place des garde-fous pour éviter des comportements indésirables des agents, en intégrant des pratiques éthiques dès la conception.

Ce qu'il faut retenir

La création d'agents vocaux IA en temps réel nécessite une compréhension approfondie des technologies sous-jacentes et une orchestration efficace des composants. Les défis de mise en production doivent être anticipés, et une approche éthique est indispensable pour garantir des interactions responsables.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des interactions plus naturelles avec les utilisateurs marque un tournant dans l'industrie du développement. L'automatisation et l'intégration des agents IA dans les workflows quotidiens ouvrent la voie à une nouvelle ère de productivité. Cependant, cette transition nécessite une gouvernance rigoureuse et une orchestration réfléchie pour éviter les dérives potentielles. En intégrant des protocoles comme le MCP, les développeurs peuvent créer des systèmes plus flexibles et adaptables, tout en maintenant un contrôle sur les comportements des agents. L'avenir des agents vocaux ne réside pas seulement dans leur capacité à comprendre et à répondre, mais également dans leur intégration harmonieuse dans des architectures modernes, où l'éthique et la responsabilité jouent un rôle central.

Fiche programme

Docker Compose votre Dev Toolkit pour AI & Cloud

  • Speakers : Nicolas De Loof (LinkedIn), Guillaume Lours (LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 11:35 à 12:20 · Salle Paris 143

Cette session présente les nouveautés de Docker Compose pour orchestrer des applications basées sur des LLMs : définition de modèles via models, connexion à des ressources externes avec provider services et délestage GPU grâce à Docker Offload. Une démo montre comment unifier code, modèles et exécution pour les projets IA modernes.

Docker Compose : votre Dev Toolkit pour AI & Cloud

Dans un contexte où l'intelligence artificielle (IA) et les systèmes agentiques prennent une place prépondérante dans le développement logiciel, la session "Docker Compose votre Dev Toolkit pour AI & Cloud" se positionne comme un point de convergence entre l'orchestration de conteneurs et les exigences modernes des applications basées sur des modèles de langage (LLMs). Cette présentation, animée par Nicolas De Loof et Guillaume Lours de Docker, explore les évolutions récentes de Docker Compose, un outil déjà bien établi pour orchestrer des environnements de développement locaux.

Ce que présente le talk

La session met en lumière les nouvelles fonctionnalités de Docker Compose, spécifiquement conçues pour faciliter le développement d'applications intégrant des LLMs. Les intervenants démontrent comment Docker Compose permet de définir des modèles d'IA, de se connecter à des ressources externes via des services de fournisseurs, et de délester les charges de travail GPU grâce à Docker Offload. L'objectif est de montrer comment unifier le code, les modèles et l'exécution dans le cadre de projets IA modernes.

Points techniques importants

Architecture et Orchestration

Docker Compose évolue pour intégrer des modèles d'IA de manière déclarative. Les intervenants soulignent l'importance d'une architecture flexible qui permet de gérer les dépendances entre les services applicatifs et les modèles d'IA. L'utilisation de la clé models dans les fichiers Compose permet de référencer directement les modèles, facilitant ainsi leur intégration dans l'écosystème applicatif.

Docker Model Runner

L'une des innovations majeures présentées est le Docker Model Runner, qui permet d'exécuter des LLMs dans des environnements conteneurisés. Ce composant facilite l'accès aux modèles d'IA en les rendant disponibles directement dans les conteneurs applicatifs. Cela simplifie le processus d'expérimentation avec différents modèles, car il est possible de changer de modèle simplement en modifiant la configuration.

  • Accès GPU : Le Model Runner utilise la puissance des GPU disponibles sur la machine hôte, permettant ainsi d'exécuter des modèles lourds sans nécessiter une infrastructure complexe.
  • Définition des modèles : Les modèles sont définis au niveau supérieur du fichier Compose, ce qui permet une gestion centralisée et simplifiée.

Provider Services

Les provider services jouent un rôle crucial en permettant aux applications de se connecter à des ressources externes. Cela inclut des bases de données, des API, ou d'autres services nécessaires au fonctionnement des modèles d'IA. Cette fonctionnalité renforce l'interopérabilité des applications dans un environnement multi-services.

Docker Offload

Le Docker Offload est un outil permettant de délester les charges de travail GPU vers des infrastructures cloud. Cela est particulièrement utile lorsque les ressources locales sont insuffisantes pour exécuter des modèles d'IA gourmands en ressources. Les développeurs peuvent ainsi tester leurs applications avec des modèles plus puissants sans avoir à gérer la complexité de l'infrastructure cloud.

Ce qu'il faut retenir

  • Docker Compose s'adapte aux exigences modernes des applications basées sur l'IA en intégrant des fonctionnalités spécifiques pour la gestion des LLMs.
  • Docker Model Runner simplifie l'exécution et l'expérimentation avec des modèles d'IA en les rendant accessibles dans des conteneurs.
  • Les provider services et Docker Offload augmentent la flexibilité et la scalabilité des applications, permettant une orchestration efficace entre les ressources locales et cloud.

Réflexions Darkwood

L'évolution de Docker Compose vers une orchestration adaptée aux modèles d'IA illustre une tendance plus large dans l'industrie du développement logiciel : l'intégration croissante de l'IA dans les workflows de développement. Alors que les systèmes deviennent de plus en plus complexes, l'automatisation et l'orchestration jouent un rôle clé dans la gestion de cette complexité. Les agents IA, en tant que composants intégrés dans les architectures modernes, nécessitent des outils robustes pour assurer leur efficacité.

La capacité de Docker Compose à unifier code, modèles et contexte d'exécution ouvre la voie à des pratiques de développement plus agiles et réactives. Cela pourrait également influencer la manière dont les équipes de développement abordent la gouvernance des modèles d'IA, en facilitant la traçabilité et la gestion des versions dans un environnement en constante évolution. L'impact de ces innovations sur l'industrie est considérable, car elles permettent de réduire le temps de mise en œuvre et d'augmenter la qualité des applications développées.

Fiche programme

IA for Fun : le meilleur de l’IA au service du n’importe quoi

  • Speakers : ANNE-FLORE BERNARD (LinkedIn), Louis-Guillaume MORAND (LinkedIn), David Rousset (X · LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 11:35 à 12:20 · Salle Maillot

Une session ludique et participative mêlant IA, créativité et humour : démos inutiles mais surprenantes, 3D interactive, dinosaures et musique d’alto. Un moment pour expérimenter, rire et retrouver le plaisir du code, loin de la performance, avec la complicité active du public.

IA for Fun : le meilleur de l’IA au service du n’importe quoi

Dans un monde technologique où l'obsession de la performance et de l'efficacité prédomine, la session "IA for Fun" se démarque par son approche ludique et créative. Présentée lors de la conférence sur les systèmes agentiques et l'intelligence artificielle, cette session a pour but de redécouvrir le plaisir du code à travers des démonstrations d'IA décalées et interactives. Les intervenants, Anne-Flore Bernard, Louis-Guillaume Morand et David Rousset, nous plongent dans un univers où l'IA n'est pas seulement un outil de productivité, mais aussi un vecteur de créativité et d'amusement.

Ce que présente le talk

La session se veut une exploration des applications ludiques de l'IA, en mettant en avant des démos qui, bien que considérées comme "inutiles", révèlent un potentiel créatif surprenant. À travers des interactions en direct, les intervenants utilisent des technologies comme Babylon.js pour créer des environnements 3D interactifs, intégrant des éléments de musique et d'humour. L'objectif est de montrer que l'IA peut également servir à égayer des moments de travail, comme des réunions Teams, en y ajoutant une touche de magie.

Points techniques importants

Architecture et Outils

  • Babylon.js : Ce moteur 3D est au cœur des démonstrations. Il permet de créer des scènes 3D interactives en temps réel, intégrant des éléments générés par l'IA. Les intervenants soulignent son efficacité et sa flexibilité, en le présentant comme un outil incontournable pour des applications ludiques.

  • Intégration avec Teams : L'utilisation d'une librairie spécifique pour Teams permet d'interagir avec les fonctionnalités de la plateforme, comme le rendu d'éléments 3D et la gestion des événements de réunion.

IA et Interaction

  • Agent IA : Un agent basé sur un modèle GPT-4.1 est utilisé pour générer des réponses et des actions en temps réel. Il est capable de comprendre des commandes en langage naturel, ce qui permet aux intervenants de créer des interactions dynamiques et engageantes.

  • Contextualisation : L'agent conserve un contexte d'interaction, ce qui lui permet de gérer des demandes complexes, comme placer des objets 3D sur des cubes spécifiques. Cela démontre l'importance de la mémoire contextuelle dans les systèmes d'IA pour des interactions fluides.

Musique et Créativité

  • Musique en temps réel : L'intégration de la musique dans les démonstrations, jouée par Anne-Flore Bernard à l'alto, ajoute une dimension artistique à l'expérience. L'IA réagit aux notes jouées, générant des animations 3D en fonction de la musique, illustrant ainsi la synergie entre art et technologie.

Défis Techniques

  • Latence et Fiabilité : Les intervenants abordent les défis techniques rencontrés lors des démonstrations en direct, notamment des problèmes de latence et de connectivité. Ces obstacles soulignent l'importance de la robustesse des systèmes lors d'interactions en temps réel.

Ce qu'il faut retenir

La session "IA for Fun" démontre que l'intelligence artificielle peut être utilisée de manière créative et ludique, loin des applications strictement utilitaires. Les intervenants réussissent à allier technologie, humour et interaction humaine, prouvant que le développement peut également être un terrain de jeu. Les outils comme Babylon.js et les modèles d'IA avancés ouvrent des perspectives nouvelles pour enrichir l'expérience utilisateur dans des environnements collaboratifs.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une intégration plus humaine et créative est manifeste dans cette session. Alors que l'automatisation et les agents IA prennent de plus en plus de place dans le développement, il est crucial de ne pas perdre de vue l'aspect ludique et engageant du code. L'orchestration d'expériences interactives, comme celles présentées ici, pourrait transformer notre manière d'interagir avec les outils technologiques. En intégrant des éléments de créativité et de plaisir, nous pouvons redéfinir les workflows et les pratiques de gouvernance dans le développement logiciel, rendant ces processus non seulement plus efficaces, mais également plus enrichissants.

Fiche programme

Les Fantastiques Petits Modèles de Langue (SLM) et quand les utiliser

  • Speakers : Pierre Lepagnol (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 11:35 à 12:20 · Salle Neuilly 153

Cette présentation explore les Petits Modèles de Langue (SLM), leurs performances, limites et intégration dans les systèmes RAG ou agentiques, avec ou sans LLM. Elle fournit une compréhension claire des apports et compromis des SLM pour concevoir des applications d’IA plus rapides, économiques et maîtrisées.

Les Fantastiques Petits Modèles de Langue (SLM) et quand les utiliser

L'essor des modèles de langage a transformé le paysage de l'intelligence artificielle, mais la complexité et le coût des grands modèles de langage (LLM) soulèvent des questions sur leur utilisation optimale. La session présentée par Pierre Lepagnol, intitulée "Les Fantastiques Petits Modèles de Langue (SLM) et quand les utiliser", explore cette alternative prometteuse, les SLM, qui se révèlent être des outils efficaces pour des applications spécifiques tout en offrant des avantages en termes de coût et de latence.

Ce que présente le talk

Cette présentation aborde les SLM, leur performance, leurs limites, et leur intégration dans des systèmes RAG (Retrieval-Augmented Generation) ou agentiques. Pierre Lepagnol, fort de son expérience en recherche sur les modèles génératifs, propose une analyse approfondie des SLM, en mettant en lumière leurs avantages et compromis. L'objectif est de fournir aux développeurs et aux décideurs une compréhension claire des SLM pour concevoir des applications d'IA plus rapides, économiques et maîtrisées.

Points techniques importants

Définition et caractéristiques des SLM

Les SLM, ou Petits Modèles de Langue, sont conçus pour être exécutés sur des appareils courants avec des ressources limitées. Contrairement aux LLM, qui nécessitent des infrastructures coûteuses, les SLM peuvent fonctionner sur des dispositifs edge tels que des ordinateurs portables ou des serveurs légers. Les caractéristiques clés incluent :

  • Latence réduite : Mesurée par le time to first token et le nombre de tokens par seconde, permettant une réponse rapide.
  • Coût d'inférence : Moins élevé que celui des LLM, surtout pour des usages intensifs.
  • Plasticité : Moins de paramètres à ajuster pour la spécialisation, facilitant le fine-tuning.

Choix entre SLM et LLM

Le choix entre un SLM et un LLM dépend de plusieurs critères :

  1. Sensibilité des données : Les SLM permettent de garder les données en local, ce qui est crucial pour des informations sensibles.
  2. Nature de la tâche : Les tâches bien définies et bornées favorisent l'utilisation de SLM, tandis que les tâches ouvertes peuvent bénéficier de la flexibilité des LLM.
  3. Contraintes de latence et de volume : Évaluer le nombre de réponses nécessaires et la taille des réponses pour déterminer la solution la plus efficace.

Intégration et déploiement des SLM

Pour intégrer un SLM dans un workflow, il est essentiel de :

  • Construire un jeu d'évaluation : Mesurer la performance du SLM par rapport à un LLM de référence.
  • Itérer et améliorer : Ajuster le modèle, le prompt, ou la base documentaire en fonction des résultats obtenus.
  • Considérer des systèmes hybrides : Combiner SLM et LLM pour tirer parti des forces de chaque approche.

Ce qu'il faut retenir

Les SLM représentent une alternative viable aux LLM pour des applications spécifiques, offrant des avantages en termes de coût, de latence et de flexibilité. Leur intégration nécessite une évaluation rigoureuse et une compréhension des contraintes opérationnelles, mais ils peuvent fournir des solutions efficaces dans des contextes où les LLM sont trop lourds ou coûteux.

Réflexions Darkwood

L'émergence des SLM illustre une tendance vers des systèmes d'IA plus autonomes et décentralisés. À mesure que les exigences de confidentialité et de coût augmentent, les SLM permettent de construire des applications d'IA qui fonctionnent localement, réduisant ainsi la dépendance aux infrastructures cloud. Cette évolution pourrait transformer la manière dont les entreprises abordent l'automatisation et la gouvernance des données, en favorisant des architectures plus résilientes et adaptables. Les SLM, en tant que briques fondamentales de ces systèmes, pourraient jouer un rôle clé dans la transition vers des workflows d'IA plus efficaces et maîtrisés.

Fiche programme

Votre second cerveau IA sans perdre votre âme

  • Speakers : Sandrine BOITEAU (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 11:35 à 12:20 · Salle Neuilly 252AB

Présentation d’une approche pour transformer la veille personnelle en véritable infrastructure de connaissance : un « second cerveau » local basé sur Markdown, Git et IA. L’auteur y détaille son système Antigravity en 12 étapes, où l’IA agit comme contrôleur mental pour passer de la synthèse à la réflexion stratégique.

Votre second cerveau IA sans perdre votre âme

Dans un monde où l'information circule à une vitesse vertigineuse, la capacité à gérer et à synthétiser ce flux devient cruciale. La session présentée par Sandrine Boiteau, directrice conseil chez WEnvision, aborde une approche innovante pour transformer la veille personnelle en une infrastructure de connaissance. À travers son système Antigravity, elle propose une architecture locale qui utilise Markdown, Git et l'intelligence artificielle pour créer un « second cerveau » capable de soutenir la réflexion stratégique.

Ce que présente le talk

La présentation se concentre sur la notion de « second cerveau », un concept qui permet d'externaliser la mémoire afin de libérer la pensée. Sandrine Boiteau partage son expérience personnelle de surcharge informationnelle et comment elle a développé un système pour mieux gérer et synthétiser les connaissances acquises. Son approche se décline en 12 étapes, où l'IA joue le rôle de « contrôleur aérien » mental, facilitant la transition de la simple synthèse à une réflexion critique.

Points techniques importants

Architecture et Outils

L'architecture proposée repose sur des outils simples mais puissants :

  • Markdown : Utilisé pour structurer et organiser les notes et les idées.
  • Git : Permet de gérer les versions des documents et d'assurer un suivi des modifications.

Cette combinaison d'outils permet non seulement de stocker l'information, mais aussi de la rendre accessible et exploitable. Sandrine souligne l'importance de choisir un outil qui fonctionne pour soi, plutôt que de se laisser submerger par la multitude d'options disponibles.

Automatisation et Workflow

L'automatisation est au cœur de l'approche d'Antigravity. Sandrine évoque plusieurs agents qui remplissent des rôles spécifiques :

  • Veilleur : Collecte et organise l'information.
  • Rédacteur : Aide à la création de contenu.
  • Conférencier : Prépare des présentations.

Ces agents permettent de déléguer certaines tâches tout en gardant le contrôle sur le processus créatif. Sandrine insiste sur l'importance de l'interaction humaine dans ce système, soulignant que l'IA ne doit pas remplacer la réflexion personnelle, mais plutôt l'enrichir.

Gestion de la Connaissance et Critique

Un des concepts clés abordés est le Personal Knowledge Management (PKM), théorisé par Thiago Forté. Cette méthode encourage à capturer et organiser les informations qui résonnent personnellement, permettant ainsi de débloquer le potentiel créatif. Sandrine met également en avant l'idée de « context engineering », qui consiste à partir de son expertise unique pour générer des résultats différenciés, plutôt que de se fier uniquement à des modèles générés par l'IA.

Limites et Réflexions

Sandrine ne cache pas les limites de son système. Elle évoque la « courbe de l'oubli » et la difficulté de retenir l'information sur le long terme. De plus, elle met en garde contre la paralysie décisionnelle causée par la multitude d'outils disponibles, soulignant l'importance de se concentrer sur ceux qui apportent réellement de la valeur.

Ce qu'il faut retenir

  • La création d'un second cerveau est une approche efficace pour gérer la surcharge informationnelle.
  • L'utilisation d'outils comme Markdown et Git permet de structurer et versionner les connaissances.
  • L'IA doit être utilisée comme un complément à la réflexion humaine, et non comme un substitut.
  • Le Personal Knowledge Management est essentiel pour débloquer le potentiel créatif et favoriser la réflexion critique.

Réflexions Darkwood

L'approche de Sandrine Boiteau s'inscrit dans une tendance plus large vers l'automatisation et la gestion de la connaissance. À une époque où les agents IA deviennent omniprésents, il est crucial de maintenir un équilibre entre l'automatisation et la pensée humaine. La capacité à orchestrer ces systèmes tout en préservant l'individualité et la créativité sera déterminante pour l'avenir des workflows dans le développement logiciel. L'architecture moderne doit donc non seulement intégrer des outils puissants, mais aussi favoriser une gouvernance qui valorise l'authenticité et la réflexion critique.

Fiche programme

Fini les nuits difficiles: Comment l'IA a transformé nos astreintes

  • Speakers : Jean-Philippe Fourès (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 13:30 à 14:15 · Salle Paris 143

nAIghts Watch automatise la gestion des incidents IT de niveau 1 grâce à une IA multi-agents : détection, analyse, exécution d’actions et reporting. Résultats : astreintes réduites de 80 %, résolution 20 fois plus rapide, amélioration de la satisfaction et libération de temps pour l’innovation SRE.

Fini les nuits difficiles: Comment l'IA a transformé nos astreintes

Dans un monde où la disponibilité des services IT est cruciale, les incidents de niveau 1 représentent un défi constant pour les équipes d'astreinte. La session présentée par Jean-Philippe Fourès, VP Product chez Iguane Solutions, explore comment l'IA multi-agents, à travers le projet nAIghts Watch, transforme la gestion de ces incidents, réduisant ainsi la pression sur les équipes et améliorant la satisfaction client.

Ce que présente le talk

La conférence aborde la problématique des incidents IT de niveau 1, souvent banals mais chronophages, qui perturbent le travail des équipes d'astreinte. Grâce à nAIghts Watch, un système automatisé, Iguane Solutions a réussi à réduire le temps de résolution des incidents de 60 minutes à seulement 3 minutes, tout en diminuant de 80 % la sollicitation des astreintes. Ce système utilise une IA multi-agents pour détecter, analyser et résoudre les incidents, tout en générant des rapports détaillés.

Points techniques importants

Architecture du système

Le projet nAIghts Watch repose sur une architecture multi-agents, où chaque agent est spécialisé dans une tâche précise :

  • Agent de détection : Identifie les alertes et ouvre des tickets.
  • Agent d'analyse des métriques : Collecte et analyse les données de performance.
  • Agent d'analyse des logs : Examine les journaux pour détecter des anomalies.
  • Le juge : Coordonne les rapports des deux agents précédents et prend des décisions basées sur leurs analyses.

Cette séparation des responsabilités permet une meilleure gestion des tâches et une réduction des erreurs dues à des instructions complexes.

Utilisation de l'IA

Iguane Solutions a choisi d'utiliser des modèles d'IA open-source pour éviter les problèmes de confidentialité et de contractualisation liés à des solutions tierces comme OpenAI. Les modèles sélectionnés, bien que moins coûteux, ont montré des limites en termes de raisonnement sur des contextes complexes. Pour surmonter ces défis, l'équipe a opté pour des modèles plus puissants, nécessitant des infrastructures robustes, comme des serveurs équipés de GPU H200.

Performance et résultats

Les résultats obtenus grâce à nAIghts Watch sont significatifs :

  • Réduction du temps de résolution : Passer de 60 minutes à 3 minutes.
  • Diminution des astreintes : Une réduction de 80 % des interventions humaines.
  • Amélioration de la satisfaction : Chaque incident est documenté avec un rapport détaillé, ce qui renforce la confiance des clients.

Outils et technologies

  • Stack technique : Python, Longchain pour l'orchestration des agents, Prometheus et Grafana pour la collecte de métriques, et Loki pour la gestion des logs.
  • Infrastructure : Utilisation de serveurs dédiés avec des GPU adaptés pour le traitement des modèles d'IA.

Ce qu'il faut retenir

La transformation de la gestion des incidents IT par l'IA multi-agents permet non seulement d'améliorer l'efficacité opérationnelle mais aussi de libérer du temps pour l'innovation au sein des équipes SRE. La mise en œuvre d'un système comme nAIghts Watch démontre l'importance de l'automatisation dans la gestion des infrastructures modernes.

Réflexions Darkwood

L'évolution vers des systèmes logiciels autonomes et intelligents est inévitable. L'automatisation des processus de résolution d'incidents, comme le propose nAIghts Watch, représente une étape cruciale dans la transformation des workflows IT. En intégrant des agents IA capables de gérer des tâches répétitives et prévisibles, les entreprises peuvent se concentrer sur l'innovation et l'amélioration continue de leurs services. Ce type d'orchestration intelligente pourrait également avoir des implications profondes sur la gouvernance des infrastructures, en redéfinissant les rôles des équipes techniques et en optimisant la gestion des ressources. À mesure que ces technologies se développent, il sera essentiel de trouver un équilibre entre l'automatisation et la supervision humaine, afin de garantir la résilience et la sécurité des systèmes.

Fiche programme

Deterministic modernization in an age of AI

  • Speakers : Tim te Beek (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : English
  • Créneau : 24/04/2026, 15:40 à 16:25 · Salle Paris 141

This session explores how OpenRewrite and Moderne use AI and deterministic automation to modernize and maintain large-scale software safely. Through real-world use cases, it demonstrates analyzing migration scope, generating repeatable automations, and leveraging community and AI to accelerate software evolution while minimizing risk and manual effort.

Modernisation déterministe à l'ère de l'IA

Dans un contexte où l'intelligence artificielle transforme radicalement le développement logiciel, la session présentée par Tim te Beek, ingénieur chez Moderne, explore comment l'automatisation déterministe peut moderniser et maintenir des logiciels à grande échelle en toute sécurité. Ce sujet est d'une importance cruciale, car il aborde les défis de la modernisation des systèmes hérités tout en minimisant les risques associés.

Ce que présente le talk

La session se concentre sur l'utilisation d'OpenRewrite et de Moderne pour appliquer des automatisations déterministes dans le cadre de la modernisation logicielle. À travers des cas d'utilisation concrets, elle démontre comment analyser l'ampleur d'une migration, générer des automatisations répétables et tirer parti de la communauté et de l'IA pour accélérer l'évolution logicielle tout en réduisant les efforts manuels.

Points techniques importants

Architecture et approche déterministe

Tim te Beek insiste sur l'importance d'une approche déterministe dans les migrations logicielles. Contrairement aux méthodes probabilistes, cette approche garantit que les mêmes entrées produisent toujours les mêmes résultats, ce qui est essentiel pour maintenir la cohérence dans de vastes bases de code. L'objectif n'est pas seulement de moderniser, mais de rendre le code propre et cohérent, prêt pour des itérations futures.

Décomposition des migrations

La session présente une méthode de décomposition des migrations en "vagues" de changements. Cette stratégie permet de livrer des mises à jour en petites incréments, réduisant ainsi les risques associés aux grandes migrations. Par exemple, plutôt que de sauter directement de Java 8 à Java 25 dans un seul pull request, il est conseillé de procéder par étapes, en s'assurant que chaque changement est sûr et réversible.

Utilisation des agents IA

Les agents IA sont présentés comme des outils puissants pour générer du code, mais leur utilisation doit être réfléchie. Tim souligne que, bien qu'ils soient efficaces pour écrire de nouveaux morceaux de code, leur capacité à appliquer les mêmes changements de manière cohérente à travers une base de code existante est limitée. Cela souligne la nécessité d'une approche hybride où les agents assistent les développeurs plutôt que de les remplacer.

Automatisation et recettes

OpenRewrite permet de créer des "recettes" déterministes pour automatiser les migrations. Ces recettes peuvent être testées dans des environnements de développement avant d'être déployées, garantissant ainsi leur efficacité. Tim recommande de commencer par nettoyer et uniformiser le code existant avant d'appliquer des migrations, ce qui permet de mieux gérer les dépendances et d'identifier les éventuels blocages.

Ce qu'il faut retenir

  • Approche déterministe : Favoriser des migrations où les résultats sont prévisibles et répétables.
  • Décomposition des changements : Appliquer les mises à jour en vagues pour minimiser les risques.
  • Rôle des agents IA : Utiliser les agents pour générer du code, mais ne pas compter uniquement sur eux pour des migrations complexes.
  • Automatisation par recettes : Créer des recettes pour standardiser et tester les migrations avant déploiement.

Réflexions Darkwood

La modernisation des systèmes logiciels est devenue une nécessité face à l'évolution rapide des technologies. L'intégration de l'IA et des agents autonomes dans le processus de développement ouvre la voie à une automatisation accrue, mais elle nécessite une gouvernance rigoureuse pour éviter les dérives. L'approche déterministe présentée par Tim te Beek pourrait bien être un modèle à suivre pour les entreprises cherchant à naviguer dans ce paysage complexe. En favorisant des migrations prévisibles et en utilisant des outils d'automatisation, les organisations peuvent non seulement améliorer leur efficacité, mais aussi renforcer la qualité et la sécurité de leur code. Dans un monde où la rapidité de mise sur le marché est cruciale, cette méthodologie pourrait transformer la manière dont nous concevons et maintenons les logiciels à grande échelle.

Fiche programme

Chrome DevTools MCP : donnez des yeux à votre IA

  • Speakers : Simon AKKAD (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 17:00 à 17:30 · Salle Neuilly 252AB

Le MCP Chrome DevTools donne enfin des “yeux” à l’IA pour le développement frontend : inspection du navigateur, analyse des performances, requêtes réseau, screenshots et navigation. Démo sur une app React/Next.js pour corriger un bug, optimiser les performances et ajuster le responsive, sans quitter l’IDE.

Chrome DevTools MCP : donnez des yeux à votre IA

L'intégration de l'intelligence artificielle dans le développement frontend a longtemps été entravée par l'incapacité des agents IA à interagir directement avec les environnements de navigation. La session présentée par Simon Akkad sur le MCP Chrome DevTools aborde cette problématique en proposant une solution innovante qui permet aux agents IA de "voir" ce qui se passe dans le navigateur. Ce talk est particulièrement pertinent dans un écosystème où l'efficacité et l'autonomie des outils de développement sont de plus en plus recherchées.

Ce que présente le talk

Le talk se concentre sur le MCP Chrome DevTools, un outil qui permet aux agents IA d'interagir avec le navigateur pour effectuer des tâches de développement frontend. Simon Akkad illustre comment cet outil révolutionne le workflow des développeurs en leur permettant de corriger des bugs, d'optimiser les performances et d'ajuster le responsive design sans quitter leur IDE. L'accent est mis sur l'autonomie des agents IA, qui peuvent désormais effectuer des tâches complexes sans intervention humaine directe.

Points techniques importants

Architecture et intégration

Le MCP (Multi-Channel Protocol) de Chrome DevTools permet aux agents IA d'accéder à une multitude d'outils intégrés. Cette architecture facilite la communication entre l'agent et le navigateur, offrant ainsi une interface plus riche pour le développement. Les agents peuvent interagir avec le DOM, inspecter les requêtes réseau et analyser les performances en temps réel.

Outils et fonctionnalités

Le MCP Chrome DevTools comprend 29 outils variés, parmi lesquels :

  • Navigation : Permet à l'agent de parcourir les pages web et d'interagir avec les éléments.
  • Analyse des performances : Outils pour profiler les temps de chargement et identifier les goulets d'étranglement.
  • Console et logs : Accès aux messages de la console pour le débogage.
  • Tests de réseau : Inspection des requêtes et des réponses API, permettant une vue d'ensemble sur le comportement de l'application.

Scénarios d'utilisation

Simon Akkad a démontré deux scénarios concrets :

  1. Troubleshooting : L'agent IA peut reproduire des erreurs dans le navigateur, analyser les logs et proposer des corrections. Cela réduit le besoin d'interventions manuelles et permet une itération plus rapide sur le code.

  2. Optimisation des performances : En lançant des tests de performance, l'agent peut identifier des problèmes de latence et proposer des solutions, comme la simulation de différentes conditions de réseau.

Ce qu'il faut retenir

Le MCP Chrome DevTools offre une avancée significative dans l'autonomie des agents IA en développement frontend. En permettant à ces agents d'interagir directement avec le navigateur, les développeurs peuvent se concentrer sur des tâches à plus forte valeur ajoutée, tout en ayant confiance que les agents peuvent gérer les aspects plus répétitifs et techniques du développement.

Réflexions Darkwood

L'émergence d'outils comme le MCP Chrome DevTools marque un tournant dans l'évolution des systèmes logiciels. En intégrant des agents IA capables d'interagir avec des environnements complexes, nous assistons à une automatisation croissante des workflows de développement. Cela soulève des questions sur la gouvernance et la responsabilité des agents autonomes, mais aussi sur la manière dont les développeurs peuvent redéfinir leur rôle dans le cycle de vie du développement logiciel. À mesure que ces technologies se perfectionnent, l'industrie pourrait voir une transformation radicale dans la manière dont les applications sont conçues, développées et maintenues.

Fiche programme

Vibe-coder du lourd avec Kilocode !

  • Speakers : Steve Rigano (LinkedIn), Stephane RACCURT (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 17:00 à 17:30 · Salle Paris 143

Présentation de Kilocode, assistant IA open-source compatible avec tous les IDE et indépendant des fournisseurs LLM. Découverte de ses modes agents (Architect, Code, Debug, Orchestrator), customisation, intégration avec Copilot et serveur MCP, suivie d’une démo live de développement d’application avec des modèles gratuits et communautaires.

Vibe-coder du lourd avec Kilocode !

Dans un écosystème technologique où l'IA et les systèmes d'agents prennent une place prépondérante, la présentation de Kilocode se démarque comme une solution open-source innovante pour le développement logiciel. Ce talk, animé par Steve Rigano et Stéphane Racurt du Crédit Agricole Technologies & Services, explore les capacités d'un assistant IA qui promet d'améliorer la productivité des développeurs tout en restant indépendant des fournisseurs de LLM (Large Language Models).

Ce que présente le talk

Kilocode est présenté comme un assistant IA open-source, capable de s’intégrer dans tous les IDE et de fonctionner sans dépendre de fournisseurs de modèles de langage. Les intervenants mettent en avant ses différents modes d'agents : Architect, Code, Debug et Orchestrator. La session inclut également une démonstration en direct de développement d'application, mettant en avant des modèles gratuits et communautaires.

Points techniques importants

Architecture et Intégration

Kilocode se distingue par son architecture modulaire, permettant une intégration fluide avec divers IDE tels que VS Code et IntelliJ. L'outil repose sur une plateforme nommée Open Router, qui centralise l'accès à plus de 500 modèles d'IA. Cette approche facilite la gestion des requêtes et permet un suivi précis des coûts d'utilisation, allant jusqu'au micro-dollar par requête.

Modes d'Agents

L'outil propose plusieurs modes d'agents, chacun optimisé pour des tâches spécifiques :

  • Architect : Conçu pour la planification et la structuration des projets.
  • Code : Focalisé sur la génération de code, il permet aux développeurs de créer des fonctionnalités rapidement.
  • Debug : Aide à identifier et corriger les erreurs dans le code.
  • Orchestrator : Coordonne les différents agents, bien qu'il soit en phase de dépréciation dans les versions futures.

Customisation et Workflows

Kilocode permet une personnalisation poussée grâce à des règles personnalisées et des modes d'agents configurables. Les utilisateurs peuvent créer des modes spécifiques et ajuster des paramètres tels que la température et le top P pour influencer la créativité des réponses générées. Cette flexibilité est particulièrement appréciée dans des environnements de développement variés.

Performance et Scalabilité

La solution est conçue pour être performante et scalable, avec une interface utilisateur intuitive qui facilite la prise en main. La démo live a illustré la rapidité avec laquelle Kilocode peut générer du code, démontrant son potentiel pour améliorer la productivité des équipes de développement.

Sécurité et Gouvernance

Kilocode inclut des fonctionnalités de sécurité robustes, permettant aux utilisateurs de contrôler les permissions de l'assistant. Les développeurs peuvent définir ce que l'IA est autorisée à faire sur leur machine, offrant ainsi une couche de protection contre les actions non désirées.

Ce qu'il faut retenir

Kilocode se positionne comme un assistant IA open-source polyvalent, capable d'améliorer l'efficacité des développeurs grâce à ses multiples modes d'agents et sa capacité d'intégration. Sa philosophie de modèle agnostique et son approche orientée communauté en font un outil prometteur pour les équipes de développement à la recherche de solutions flexibles et personnalisables.

Réflexions Darkwood

La présentation de Kilocode met en lumière une tendance croissante vers l'automatisation et l'intégration des systèmes d'agents dans le développement logiciel. À mesure que les outils d'IA deviennent plus accessibles et flexibles, les équipes de développement doivent repenser leurs workflows et leur gouvernance. L'essor de solutions open-source comme Kilocode pourrait bien redéfinir les standards de collaboration et d'efficacité dans l'industrie, tout en favorisant une culture de partage et d'innovation. Les implications sur la manière dont les développeurs interagissent avec la technologie sont profondes, ouvrant la voie à des architectures modernes où l'IA devient un partenaire à part entière dans le processus de création.

Fiche programme

Architecture

ReBAC à l'échelle : sauvons le p99

  • Speakers : Pauline Jamin (LinkedIn · Bluesky), Noël Mugnier (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 10:30 à 11:15 · Salle Paris 242AB

Ce retour d’expérience sur un système ReBAC à grande échelle décrit les limites de performance rencontrées (latence, explosion des relations, cache dégradé) et les solutions mises en œuvre : refactors de modèle, métriques clés, optimisations techniques. Il en dégage des principes généraux pour concevoir des plateformes rapides et résilientes.

ReBAC à l'échelle : sauvons le p99

L'architecture des systèmes d'autorisation est souvent négligée jusqu'à ce qu'elle devienne un goulot d'étranglement. La session "ReBAC à l'échelle : sauvons le p99" présentée par Pauline Jamin et Noël Mugnier chez Agicap met en lumière les défis rencontrés avec un système de contrôle d'accès basé sur les relations (ReBAC) à grande échelle. Ce retour d'expérience est particulièrement pertinent dans un contexte où la performance et la résilience des systèmes sont primordiales.

Ce que présente le talk

La présentation aborde les limites de performance d'un système ReBAC centralisé, en se concentrant sur des problématiques telles que la latence, la complexité des relations et l'efficacité des caches. Les intervenants partagent des solutions mises en œuvre pour améliorer la situation, notamment des refactors de modèle, l'utilisation de métriques clés et des optimisations techniques. L'objectif est de dégager des principes généraux pour concevoir des plateformes rapides et résilientes.

Points techniques importants

Architecture et Modèle ReBAC

Le ReBAC, ou Relationship-Based Access Control, se distingue des modèles traditionnels comme RBAC (Role-Based Access Control) et ABAC (Attribute-Based Access Control) par sa capacité à gérer des relations complexes entre acteurs et ressources. Ce modèle utilise des tuples pour stocker ces relations, ce qui permet une flexibilité accrue mais introduit également des défis en termes de performance.

  • Tuples et Relations : Chaque tuple est défini par un acteur, une relation et une ressource. Cette structure permet de créer des relations dynamiques, mais peut rapidement devenir complexe à gérer, surtout à grande échelle.
  • Complexité des Vérifications : Les vérifications d'accès nécessitent souvent des parcours de graphes complexes, ce qui peut entraîner des latences significatives lorsque le volume d'utilisateurs et de relations augmente.

Performance et Optimisations

Les intervenants ont rencontré des problèmes de latence qui ont conduit à une explosion du p99, rendant le système inutilisable. Ils ont identifié plusieurs axes d'optimisation :

  • Métriques Clés : Suivre des métriques de performance spécifiques pour identifier les goulets d'étranglement.
  • Refactors de Modèle : Simplifier le modèle de données pour réduire la complexité des vérifications d'accès.
  • Caching et Read Replicas : Utiliser des caches pour réduire la charge sur le système de vérification d'accès et déployer des réplicas en lecture pour équilibrer la charge.

Infrastructure et Monitoring

L'importance d'un monitoring efficace est soulignée. Les intervenants ont utilisé Grafana pour diagnostiquer les problèmes de latence, en vérifiant les performances de l'infrastructure, la charge de la base de données, et d'autres métriques pertinentes.

  • Examen de l'Infrastructure : Une analyse approfondie des ressources (CPU, mémoire, réseau) a permis d'écarter des problèmes d'infrastructure.
  • Analyse des Données : L'examen des volumes de données a révélé que la croissance était linéaire, écartant l'hypothèse d'une surcharge due à une insertion massive de tuples.

Ce qu'il faut retenir

La session met en avant l'importance d'une architecture bien pensée pour les systèmes d'autorisation à grande échelle. Les points clés incluent :

  • La nécessité d'un modèle flexible mais performant pour gérer les relations complexes.
  • L'importance des métriques pour surveiller la performance et identifier les goulets d'étranglement.
  • Les techniques d'optimisation, notamment le caching et les refactors de modèle, pour maintenir des performances acceptables.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures basées sur les relations comme le ReBAC reflète une tendance plus large vers la complexité et la flexibilité. À mesure que les entreprises adoptent des modèles de données plus dynamiques, la nécessité d'une orchestration efficace et d'un monitoring rigoureux devient cruciale. L'automatisation des workflows et l'utilisation d'agents intelligents pour gérer les relations complexes pourraient offrir des solutions pour maintenir la performance dans des environnements de plus en plus exigeants. Ce retour d'expérience souligne également l'importance d'une gouvernance rigoureuse des modèles de données, afin d'éviter les pièges de la complexité croissante.

Fiche programme

Another World, une belle leçon d’architecture logicielle

  • Speakers : Olivier PONCET (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 11:35 à 12:20 · Salle Amphi bleu

Ce talk analyse l’architecture logicielle innovante d’Another World, jeu culte de 1991, basé sur une machine virtuelle et un langage intermédiaire. Il montre comment ces choix ont facilité portage et longévité, jusqu’à une adaptation WebAssembly, offrant une leçon d’architecture inspirante pour les développeurs.

Another World, une belle leçon d’architecture logicielle

L'architecture logicielle est souvent perçue comme un domaine réservé aux projets modernes et aux technologies de pointe. Pourtant, le talk d'Olivier Poncet sur Another World, un jeu culte de 1991, démontre que des leçons précieuses peuvent être tirées des systèmes anciens. En explorant les choix architecturaux audacieux qui ont permis à ce jeu de traverser les décennies, Poncet offre une réflexion sur la durabilité et l'innovation dans le développement logiciel.

Ce que présente le talk

Le talk se concentre sur l'architecture logicielle d'Another World, en mettant en lumière la machine virtuelle sur mesure et le langage intermédiaire qui ont été conçus pour surmonter les limitations matérielles de l'époque. Poncet explique comment ces choix ont facilité le portage du jeu vers de nouvelles plateformes, y compris une adaptation récente en WebAssembly, tout en préservant l'expérience utilisateur.

Points techniques importants

Architecture et Machine Virtuelle

  • Machine Virtuelle : Le cœur du moteur d'Another World repose sur une machine virtuelle qui exécute un bytecode. Cette approche permet de séparer la logique du jeu des spécificités matérielles, rendant le portage plus simple et efficace.
  • Modularité : L'architecture est divisée en plusieurs sous-systèmes, notamment la gestion des ressources, le rendu vidéo et audio, ce qui facilite la maintenance et l'évolution du code.

Gestion des Ressources

  • Système de Ressources : Le moteur utilise un fichier d'index pour gérer les ressources (sons, images, scripts), permettant un chargement dynamique. Chaque ressource est identifiée par un pointeur vers des fichiers de données, optimisant ainsi l'utilisation de la mémoire.
  • Compression : Les ressources sont souvent compressées à l'aide de l'algorithme Bike Killer, qui utilise un codage entropique fixe et une fenêtre glissante pour réduire la taille des données, tout en permettant une décompression efficace.

Performance et Optimisation

  • Optimisation Mémoire : L'utilisation d'un seul buffer pour la décompression des données compressées est une technique astucieuse qui minimise l'empreinte mémoire, essentielle sur les machines de l'époque.
  • Animation et Graphismes : L'approche cinématographique du jeu est soutenue par un moteur graphique polygonal, permettant des animations fluides et un rendu visuel de qualité.

Outils de Développement

  • Toolset Personnalisé : Poncet évoque les outils développés par Éric Chahi pour créer le jeu, permettant une manipulation en temps réel des assets sans nécessiter de recompilation, ce qui accélère le processus de développement.

Ce qu'il faut retenir

Le talk d'Olivier Poncet rappelle que l'architecture logicielle ne se limite pas aux technologies modernes. Les choix audacieux d'Another World en matière de modularité, de gestion des ressources et d'optimisation mémoire sont des exemples pertinents pour les développeurs contemporains. La capacité à concevoir des systèmes durables et adaptables est une compétence essentielle dans le paysage technologique actuel.

Réflexions Darkwood

L'analyse d'Another World met en lumière l'importance de l'architecture logicielle dans l'évolution des systèmes. À une époque où l'automatisation et les agents IA prennent de plus en plus de place, il est crucial de se rappeler que des choix architecturaux réfléchis peuvent prolonger la vie d'un logiciel. L'intégration de machines virtuelles et de systèmes de gestion des ressources peut également inspirer des solutions modernes pour les workflows d'orchestration et de gouvernance. En fin de compte, la pérennité d'un système dépend souvent de sa capacité à s'adapter aux évolutions technologiques, un enseignement que Another World illustre parfaitement.

Fiche programme

Cache-moi si tu peux : patterns et pièges du cache en production

  • Speakers : Sébastien Lecacheur (X · Bluesky)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 13:30 à 14:15 · Salle Neuilly 252AB

Cette session explore les vrais enjeux du caching : au‑delà d’une simple optimisation, il modifie la cohérence et la fiabilité d’un système. À travers patterns, anti‑patterns et stratégies, elle fournit des repères pour concevoir des architectures rapides, stables et adaptées, jusqu’aux nouveaux usages comme le semantic caching.

Cache-moi si tu peux : patterns et pièges du cache en production

La gestion du cache est un sujet crucial dans le développement d'applications modernes. Bien que souvent perçu comme une simple optimisation, le cache peut transformer de manière significative la cohérence et la fiabilité d'un système. Dans cette session, Sébastien Lecacheur, architecte chez Matmut, nous plonge dans les véritables enjeux du caching, en explorant ses patterns, anti-patterns et stratégies, tout en abordant des concepts émergents comme le semantic caching.

Ce que présente le talk

La session aborde les défis liés à l'implémentation du cache dans les systèmes de production. Sébastien souligne que l'introduction d'un cache ne doit pas être considérée comme une solution rapide pour améliorer les performances. Au contraire, elle peut introduire des complexités telles que la cohérence éventuelle, les données obsolètes et des comportements imprévisibles. À travers des exemples concrets, il illustre comment des décisions mal informées sur le cache peuvent mener à des bugs difficiles à diagnostiquer.

Points techniques importants

Compréhension du cache

Sébastien commence par définir ce qu'est réellement un cache : un composant qui stocke temporairement des données pour accélérer les accès futurs. Il souligne trois raisons principales d'utiliser un cache :

  • Réduction des temps de réponse : En évitant des appels à des systèmes externes.
  • Réduction des coûts : En limitant les appels à des API externes ou en optimisant l'utilisation des ressources.
  • Capacité de traitement : En soulageant les systèmes sources, notamment les bases de données.

Patterns et anti-patterns

Patterns de caching

Sébastien présente plusieurs patterns efficaces pour le caching :

  • Cache local : Utilisé pour stocker des données fréquemment accessibles au niveau de l'application.
  • Cache distribué : Permet de partager des données entre plusieurs instances d'application, mais nécessite une gestion rigoureuse de la cohérence.
  • CDN (Content Delivery Network) : Utilisé pour réduire la latence entre l'utilisateur et le service.

Anti-patterns

Il met également en lumière des anti-patterns classiques qui peuvent transformer une application performante en un cauchemar opérationnel :

  • Invalidation du cache : La difficulté à gérer l'invalidation des données peut entraîner des incohérences.
  • Cache "chaud" : L'idée que l'application fonctionnera mieux une fois le cache "réchauffé" peut masquer des problèmes sous-jacents.
  • Fuites de données : Un cache mal configuré peut exposer des données sensibles à des utilisateurs non autorisés.

Stratégies de gestion du cache

Sébastien propose un arbre de décision pour choisir la bonne stratégie de caching en fonction des cas d'usage. Il aborde également les métriques essentielles à surveiller, telles que le cache hit ratio et le temps de réponse, afin d'évaluer l'efficacité du cache.

Ce qu'il faut retenir

  • Le cache est un outil puissant mais complexe qui nécessite une compréhension approfondie pour éviter des pièges courants.
  • Les patterns de caching doivent être choisis judicieusement, en tenant compte des compromis entre performance et cohérence.
  • L'invalidation du cache est un défi majeur qui peut avoir des conséquences graves sur la fiabilité d'une application.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures de plus en plus distribuées et orientées services rend la gestion du cache encore plus critique. L'automatisation des workflows et l'intégration d'agents d'intelligence artificielle nécessitent des stratégies de caching robustes pour garantir la cohérence des données tout en optimisant les performances. À mesure que les systèmes deviennent plus complexes, la gouvernance des données et la gestion des caches deviendront des enjeux centraux pour les équipes de développement, influençant directement la qualité et la fiabilité des applications. Les défis posés par le caching, notamment en matière de cohérence et de sécurité, devront être intégrés dès la conception des architectures modernes pour éviter des incidents en production.

Fiche programme

Outcoded by Our Kids : Il nous a fallu 20 ans… ils ont eu besoin de 20 prompts !

  • Speakers : Bart Wullems (LinkedIn), jan van wassenhove (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 14:35 à 15:20 · Salle Neuilly 153

Deux professionnels de la tech racontent comment leurs enfants ont créé des jeux complets grâce à des plateformes agentiques, sans coder. Ils comparent cette approche “IA‑first” à la programmation traditionnelle et questionnent l’avenir du métier : pertinence des développeurs, nouvelles compétences et rôle d’orchestrateur plutôt que de builder.

Outcoded by Our Kids : Il nous a fallu 20 ans… ils ont eu besoin de 20 prompts !

La session présentée par Bart Wullems et Jan Van Wassenhove aborde un sujet brûlant dans l'écosystème technologique actuel : l'évolution des méthodes de développement logiciel à l'ère de l'intelligence artificielle. À travers une expérience personnelle, les conférenciers illustrent comment leurs enfants ont pu créer des jeux complets en utilisant des plateformes agentiques, remettant ainsi en question la pertinence des compétences traditionnelles en programmation.

Ce que présente le talk

Dans cette conférence, les intervenants partagent une expérience éducative où ils ont défié leurs enfants à créer des jeux vidéo sans aucune connaissance en programmation. En utilisant des outils basés sur l'IA, les enfants ont pu concevoir des jeux en quelques prompts, contrastant avec les années d'apprentissage et d'expérience des développeurs traditionnels. Ce talk soulève des questions fondamentales sur l'avenir du métier de développeur, la nécessité de nouvelles compétences et le rôle évolutif des architectes logiciels.

Points techniques importants

L'impact des plateformes agentiques

Les conférenciers mettent en avant l'utilisation des plateformes agentiques qui permettent aux utilisateurs de créer sans coder. Ces outils, tels que Bolt ou Spark, facilitent la conception de jeux en se basant sur des instructions en langage naturel. Cela ouvre la porte à une nouvelle façon de penser le développement, où l'intention prime sur la syntaxe.

Comparaison entre IA-first et programmation traditionnelle

L'approche "IA-first" adoptée par les enfants contraste fortement avec la méthode traditionnelle de développement. Alors que les développeurs expérimentés passent des années à maîtriser des langages de programmation et des frameworks, les enfants se concentrent sur la créativité et le storytelling. Ils ne sont pas entravés par des erreurs de syntaxe ou des concepts techniques complexes, mais se concentrent sur le résultat final.

Évolution des compétences requises

La session soulève la question de la pertinence des compétences traditionnelles en développement. Les conférenciers suggèrent que les développeurs pourraient évoluer vers un rôle d'orchestrateur plutôt que de builder, où la capacité à diriger des agents IA et à contextualiser des instructions deviendra primordiale. Cela implique une redéfinition des compétences nécessaires dans le domaine, où la maîtrise des langages de programmation pourrait être remplacée par une compétence en communication et en spécification.

La gouvernance et le coût du développement

Un autre point crucial abordé est le coût du développement à l'ère de l'IA. Les conférenciers notent que le coût ne réside plus seulement dans l'écriture de code, mais dans la capacité à spécifier correctement les besoins et à contextualiser les instructions pour les agents IA. Une meilleure spécification entraîne une réduction des erreurs et des coûts associés à la validation et à la recontextualisation.

Ce qu'il faut retenir

  • Émergence des plateformes agentiques : Les outils basés sur l'IA permettent une création rapide et intuitive, remettant en question les méthodes traditionnelles de développement.
  • Rôle évolutif des développeurs : Les professionnels de la tech doivent envisager une transition vers des rôles d'orchestrateurs, où la communication et la spécification sont clés.
  • Nouveaux paradigmes de coût : Le coût du développement devient plus lié à la qualité de la spécification qu'à la quantité de code écrit.

Réflexions Darkwood

L'évolution vers une approche "IA-first" dans le développement logiciel représente un tournant majeur dans l'industrie. Alors que les systèmes logiciels deviennent de plus en plus complexes, la capacité à orchestrer des agents IA et à spécifier des besoins clairement sera cruciale. Cela soulève des questions sur la gouvernance des projets logiciels et sur la manière dont les équipes de développement s'adapteront à cette nouvelle réalité. L'automatisation et la simplification des workflows grâce à l'IA pourraient transformer non seulement le rôle des développeurs, mais également la manière dont les entreprises envisagent la création de valeur dans un monde de plus en plus numérique.

Fiche programme

UDA (Unified Data Architecture) à Netflix

  • Speakers : Alexandre Bertails (LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 15:40 à 16:25 · Salle Amphi bleu

Cette présentation explique comment Netflix unifie ses modèles métier grâce à UDA, un cadre conceptuel unique qui projette automatiquement les définitions vers tous les systèmes (GraphQL, Avro, Iceberg, etc.). Elle aborde la fragmentation des données, l’usage des knowledge graphs RDF et le principe “Model Once, Represent Everywhere”.

UDA (Unified Data Architecture) à Netflix

Dans un monde où la fragmentation des données est devenue la norme, la présentation d'Alexandre Bertails sur l'Unified Data Architecture (UDA) de Netflix se révèle particulièrement pertinente. En effet, alors que les entreprises jonglent avec des systèmes disparates et des définitions de données divergentes, UDA propose une approche unifiée pour modéliser et représenter les concepts métier à travers divers systèmes.

Ce que présente le talk

La session aborde comment Netflix a mis en place UDA pour unifier ses modèles métier, permettant ainsi une projection automatique des définitions vers des systèmes variés tels que GraphQL, Avro, et Iceberg. Le concept clé est le principe "Model Once, Represent Everywhere", qui vise à résoudre les problèmes de fragmentation des données et à améliorer la qualité des informations à travers une sémantique partagée.

Points techniques importants

Fragmentation des données

La fragmentation des données est un défi majeur pour les entreprises, entraînant des intégrations cassées et des efforts manuels pour réconcilier des définitions divergentes. UDA s'attaque à ce problème en centralisant les définitions des concepts métier dans un cadre canonique, ce qui permet d'éliminer les silos de données.

Knowledge Graphs et RDF

Les knowledge graphs, en particulier basés sur RDF (Resource Description Framework), jouent un rôle central dans UDA. Ils permettent de structurer les données de manière sémantique, facilitant ainsi la compréhension et l'interopérabilité entre différents systèmes. Bertails souligne l'importance de ces graphes pour établir une sémantique partagée et éviter les ambiguïtés dans les définitions.

Modélisation et Abstraction

L'approche "Model Once, Represent Everywhere" repose sur une abstraction conceptuelle qui permet de dériver les schémas nécessaires pour divers systèmes. Cette abstraction est cruciale pour aligner les modèles de données, qu'il s'agisse de GraphQL, Avro ou SQL. Le modèle de domaine est présenté comme une solution efficace pour représenter les entités et leurs relations de manière cohérente.

Outils et Workflow

Bertails évoque l'utilisation d'agents et d'outils permettant aux développeurs de décrire leurs domaines de manière intuitive. Ces outils facilitent l'interaction avec le système et permettent de générer automatiquement les artefacts nécessaires pour les différents systèmes. L'importance de l'expérience développeur (DX) est mise en avant, soulignant que la simplicité et l'efficacité des outils peuvent réduire le temps passé à résoudre des problèmes de modélisation.

Ce qu'il faut retenir

  • Unified Data Architecture (UDA) : Un cadre conceptuel pour unifier les définitions métier à travers plusieurs systèmes.
  • Fragmentation des données : Un problème courant résolu par une sémantique partagée.
  • Knowledge Graphs : Utilisation de RDF pour structurer les données et améliorer l'interopérabilité.
  • Modélisation abstraite : "Model Once, Represent Everywhere" pour dériver des schémas cohérents.
  • Outils et agents : Facilitation de la modélisation et de l'intégration des données.

Réflexions Darkwood

L'initiative UDA de Netflix s'inscrit dans une tendance plus large vers l'automatisation et l'orchestration des workflows dans le développement logiciel. À mesure que les systèmes deviennent de plus en plus complexes, la nécessité d'une abstraction conceptuelle et d'une sémantique partagée devient cruciale. L'évolution vers des architectures modernes, où les agents intelligents et les knowledge graphs jouent un rôle central, pourrait transformer la manière dont les entreprises gèrent leurs données. En intégrant ces concepts, les organisations peuvent non seulement améliorer la qualité de leurs données, mais aussi réduire le coût et le temps associés à la gestion des systèmes disparates.

Fiche programme

Supabase : l’alternative Open Source à Firebase

  • Speakers : Jason Lagarde (LinkedIn · Bluesky)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 17:00 à 17:30 · Salle Paris 143

Ce talk présente Supabase, une alternative open source clé en main pour créer un backend complet : base de données, authentification, stockage S3, fonctions serverless et SDK multilangages. En live, une appli JavaScript illustrera sa simplicité, son auto‑hébergement via Docker et la richesse de ses fonctionnalités.

Supabase : l’alternative Open Source à Firebase

Dans un écosystème où les solutions cloud dominent, Supabase émerge comme une alternative open source à Firebase, offrant une panoplie de fonctionnalités pour la création de backends complets. Ce talk, présenté par Jason Lagarde, met en lumière les capacités de Supabase à travers une démonstration en direct, soulignant sa simplicité d'utilisation et son auto-hébergement via Docker.

Ce que présente le talk

Le talk se concentre sur Supabase, un outil open source qui permet de créer un backend complet, incluant une base de données, des fonctionnalités d'authentification, du stockage de fichiers, et des fonctions serverless. L'objectif est de démontrer comment Supabase peut répondre à des besoins variés en matière de gestion des données, tout en gardant le contrôle sur l'hébergement et la sécurité des données.

Points techniques importants

Architecture et Infrastructure

Supabase repose sur une architecture modulaire, intégrant plusieurs composants essentiels :

  • Base de données : Utilise PostgreSQL, offrant robustesse et flexibilité.
  • Authentification : Gère les utilisateurs avec des options variées comme l'authentification par email, Magic Link, et intégration avec des fournisseurs tiers.
  • Stockage : Permet de gérer des fichiers via un système de buckets S3.
  • Fonctions serverless : Exécutées sur Deno, elles permettent d'isoler des logiques métiers et d'effectuer des opérations côté serveur.

Outils et Workflows

La CLI de Supabase est un point d'entrée crucial pour interagir avec l'outil :

  • Initialisation de projet : Utilisation de supabase init pour créer un nouveau projet.
  • Démarrage des services : La commande supabase start lance tous les conteneurs Docker nécessaires.
  • Gestion des migrations : Permet de versionner les modifications de la base de données avec des commandes comme supabase db diff.

Sécurité et Gestion des Droits

La sécurité est renforcée par les Row Level Security (RLS), qui permettent de définir des règles d'accès au niveau des lignes de la base de données. Les politiques de sécurité peuvent être configurées pour contrôler les opérations CRUD sur les tables et les fichiers stockés.

Développement et Expérience Utilisateur

Supabase propose des SDK pour plusieurs langages (JavaScript, Python, etc.), facilitant l'intégration dans des applications variées. La démonstration a montré comment créer une application React interagissant avec Supabase pour gérer des athlètes, incluant des fonctionnalités d'authentification et de stockage de fichiers.

Ce qu'il faut retenir

Supabase se positionne comme une solution puissante pour les développeurs cherchant à construire des backends sans dépendre de solutions propriétaires. Ses fonctionnalités robustes, son architecture modulaire, et sa capacité à être auto-hébergé en font un choix pertinent pour de nombreux projets.

Réflexions Darkwood

L'émergence de solutions comme Supabase souligne une tendance vers l'automatisation et la décentralisation dans le développement logiciel. Alors que les entreprises cherchent à garder le contrôle sur leurs données, les outils open source deviennent essentiels. Supabase, avec sa capacité à intégrer des fonctions serverless et à gérer des workflows complexes, illustre comment les architectures modernes évoluent vers une plus grande flexibilité et une meilleure gouvernance des données. Dans un monde où l'IA et l'automatisation prennent de l'ampleur, des solutions comme Supabase pourraient transformer la manière dont nous concevons et déployons des systèmes logiciels.

Fiche programme

CLI-Driven Developer Experience : L'ingrédient secret d'une équipe alignée

  • Speakers : Julien Briault (X · LinkedIn · Bluesky)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 17:50 à 18:20 · Salle Neuilly 153

Ce talk raconte comment la création d’une CLI personnalisée est devenue le langage commun entre développeurs, SRE et ingénieurs répartis à distance. À travers un retour d’expérience, il montre comment cet outil a simplifié la collaboration, favorisé l’autonomie et renforcé la culture d’équipe sans complexifier la plateforme.

CLI-Driven Developer Experience : L'ingrédient secret d'une équipe alignée

Dans un contexte où la collaboration à distance entre développeurs, SRE et ingénieurs est devenue la norme, la création d'un langage commun est cruciale. Le talk de Julien Briault explore comment une interface en ligne de commande (CLI) personnalisée a permis de simplifier cette collaboration, d'accroître l'autonomie des équipes et de renforcer la culture d'entreprise, tout en évitant la complexité souvent associée aux plateformes modernes.

Ce que présente le talk

Julien Briault partage son expérience sur la mise en place d'une CLI sur mesure pour faciliter les interactions entre différentes équipes techniques. Ce talk met en lumière les défis rencontrés dans un environnement de travail distribué et comment une CLI peut devenir un outil central pour l'alignement et l'efficacité collective.

Points techniques importants

Architecture et Organisation

  • Frictions et Silotage : Le talk aborde les frictions entre équipes causées par des méthodes de travail disparates. L'absence d'un langage commun entraîne des silos, où les développeurs et les opérations ne communiquent pas efficacement.
  • Adoption du Modèle Spotify : L'organisation adoptée s'inspire du modèle des chapters de Spotify, permettant de regrouper les compétences par domaines tout en favorisant la contribution inter-équipes.

CLI comme Langage Commun

  • Pourquoi une CLI ? : La CLI a été choisie pour sa simplicité et son accessibilité. Contrairement à des portails complexes ou des frameworks lourds, elle offre une interface directe et intuitive pour interagir avec les systèmes.
  • Élimination des Outils Disparates : La CLI permet de centraliser les opérations, évitant ainsi l'utilisation de multiples outils comme Terraform ou Pouloui, qui peuvent créer des confusions.

Outils et Technologies

  • CMDB et API : L'utilisation d'une Configuration Management Database (CMDB) permet d'exposer les ressources d'infrastructure via des APIs, rendant l'accès aux données plus fluide pour tous les contributeurs.
  • Langage de Développement : La CLI a été développée en Go, un choix motivé par sa portabilité et sa simplicité. Go permet de créer des binaires facilement déployables sur différentes plateformes (Linux, Mac, Windows).

Expérience Utilisateur et Adoption

  • Onboarding Accéléré : La CLI facilite l'apprentissage et l'intégration des nouveaux arrivants, réduisant ainsi le temps nécessaire pour qu'ils deviennent opérationnels.
  • Versioning et Maintenance : La CLI est versionnée, ce qui permet de gérer les évolutions de manière structurée et de garantir la compatibilité avec les workflows existants.

Ce qu'il faut retenir

La création d'une CLI sur mesure a permis de résoudre des problèmes de communication et de collaboration au sein d'équipes techniques dispersées. En centralisant les opérations et en rendant l'accès aux ressources plus intuitif, cet outil a non seulement amélioré l'efficacité collective, mais a également renforcé la culture d'équipe.

Réflexions Darkwood

L'évolution vers des systèmes logiciels plus interconnectés et automatisés met en lumière l'importance d'outils qui favorisent la collaboration. La CLI présentée dans ce talk illustre comment une approche pragmatique peut transformer les workflows, réduire les frictions et renforcer l'autonomie des équipes. À mesure que l'automatisation et les agents intelligents prennent de l'ampleur, des solutions comme celle-ci pourraient devenir des standards dans l'industrie, facilitant l'orchestration et la gouvernance des infrastructures modernes. La capacité à adapter rapidement les outils aux besoins des équipes sera un facteur clé de succès dans les environnements de développement en constante évolution.

Fiche programme

Réplication des données avec Apache Accord

  • Speakers : Pierre Sutra (LinkedIn)
  • Type : Conference
  • Niveau : ADVANCED
  • Langue : French
  • Créneau : 23/04/2026, 10:30 à 11:15 · Salle Paris 141

Cette présentation explore Apache Accord, le nouvel algorithme de réplication de Cassandra offrant des transactions ACID via un protocole « leaderless ». Elle retrace son origine à partir de Paxos, Raft et Egalitarian Paxos, détaille ses défis d’implémentation et de validation, et illustre son usage pratique dans des applications distribuées.

Réplication des données avec Apache Accord

La réplication des données est un enjeu majeur dans les systèmes distribués modernes, garantissant la disponibilité et la résilience des applications. Dans ce contexte, la présentation de Pierre Sutra sur Apache Accord, un nouvel algorithme de réplication pour Apache Cassandra, se révèle particulièrement pertinente. Accord promet d'apporter des transactions ACID dans un environnement leaderless, une avancée significative par rapport aux méthodes traditionnelles.

Ce que présente le talk

La session explore les fondements d'Apache Accord, son héritage des algorithmes de consensus tels que Paxos et Raft, ainsi que les défis d'implémentation et de validation qui l'accompagnent. Sutra illustre également l'application pratique d'Accord dans des systèmes distribués, mettant en lumière son potentiel à améliorer la robustesse et la transparence des opérations de réplication.

Points techniques importants

Architecture et Algorithmes de Consensus

L'architecture d'Apache Accord repose sur un modèle de réplication leaderless, où chaque réplique peut traiter des opérations en interagissant avec un quorum de pairs. Cette approche présente plusieurs avantages, notamment :

  • Transactions ACID : Accord permet d'assurer des transactions atomiques, cohérentes, isolées et durables, même dans un environnement distribué.
  • Consensus sans leader : Contrairement aux systèmes traditionnels qui dépendent d'un leader pour coordonner les opérations, Accord permet à chaque réplique de participer au processus de décision, ce qui améliore la disponibilité et la tolérance aux pannes.

Défis d'Implémentation

Sutra aborde les défis liés à l'implémentation d'Accord, notamment :

  • Langages et Outils : L'implémentation peut être réalisée en Go ou Java, mais nécessite une compréhension approfondie des algorithmes de consensus et des outils de vérification comme le model checking.
  • Validation : L'utilisation d'outils tels que Jepsen pour tester la robustesse des systèmes est cruciale pour garantir la fiabilité des transactions.

Commutativité et Optimisation

Un aspect clé de la présentation est la notion de commutativité des opérations. Sutra explique comment les opérations commutatives peuvent être exécutées dans n'importe quel ordre, ce qui permet d'optimiser l'efficacité des algorithmes de réplication. Cela se traduit par :

  • Réduction de la Latence : En tirant parti de la commutativité, Accord peut réduire le temps d'attente pour les transactions, ce qui est essentiel dans des environnements à forte charge.
  • Graphes de Dépendance : L'algorithme construit un graphe de dépendances pour chaque opération, permettant d'exécuter les opérations de manière plus flexible tout en maintenant l'intégrité des données.

Comparaison avec d'autres Algorithmes

Sutra souligne les différences entre Accord et d'autres algorithmes tels que Multipaxos et Raft. Accord se distingue par :

  • Meilleure Disponibilité : En cas de défaillance d'une réplique, le système continue de fonctionner sans interruption, contrairement à Multipaxos qui peut s'arrêter.
  • Performance Supérieure : Les tests montrent qu'Accord peut offrir des temps d'exécution plus rapides, surtout lorsque les opérations sont majoritairement commutatives.

Ce qu'il faut retenir

Apache Accord représente une avancée significative dans la réplication des données au sein d'Apache Cassandra. En permettant des transactions ACID dans un environnement leaderless, il offre une solution robuste et performante pour les systèmes distribués. Les défis d'implémentation et de validation restent cruciaux, mais les bénéfices potentiels en termes de disponibilité et de latence en font une option attrayante pour les développeurs.

Réflexions Darkwood

L'émergence d'algorithmes comme Apache Accord souligne une tendance croissante vers des architectures distribuées plus résilientes et autonomes. À mesure que les systèmes deviennent plus complexes, l'automatisation et l'orchestration des workflows de données deviennent essentielles. L'intégration d'agents IA pour gérer ces processus pourrait également transformer la manière dont nous concevons la réplication et la gestion des données, rendant les systèmes non seulement plus efficaces, mais également plus intelligents. En fin de compte, l'évolution vers des architectures modernes et décentralisées pourrait redéfinir les standards de performance et de fiabilité dans l'industrie du développement logiciel.

Fiche programme

Top 10 Event-Driven Architecture Pitfalls

  • Speakers : Victor Rentea (X · LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : English
  • Créneau : 23/04/2026, 11:35 à 12:20 · Salle Maillot

This talk explores real-world challenges and best practices in event-driven messaging systems, drawing on lessons from 150 companies. Attendees will learn about issues like duplicate deliveries, out-of-order events, race conditions, and more, through engaging stories and practical insights for architects, developers, and operations professionals.

Top 10 Event-Driven Architecture Pitfalls

L'architecture événementielle est devenue un pilier fondamental dans le développement moderne, permettant une communication asynchrone et une scalabilité accrue. Cependant, elle n'est pas sans défis. La session présentée par Victor Rentea lors de la conférence "Top 10 Event-Driven Architecture Pitfalls" met en lumière les pièges courants rencontrés par les entreprises dans la mise en œuvre de systèmes de messagerie basés sur des événements. En s'appuyant sur des expériences réelles de 150 entreprises, Victor offre des perspectives précieuses pour les architectes, développeurs et professionnels des opérations.

Ce que présente le talk

Victor Rentea explore les défis pratiques de l'architecture événementielle, en abordant des problèmes tels que les livraisons en double, les événements hors ordre, et les conditions de concurrence. À travers des anecdotes engageantes et des conseils pratiques, il guide les participants à travers les complexités de la messagerie événementielle, tout en évitant les pièges qui peuvent compromettre la fiabilité et la performance des systèmes.

Points techniques importants

Architecture et Patterns

L'architecture événementielle repose sur des concepts clés qui nécessitent une compréhension approfondie :

  • Livraisons en double : Victor souligne que les messages peuvent être livrés plusieurs fois, ce qui complique la gestion des états dans les applications. Cela nécessite des mécanismes robustes pour détecter et gérer les duplications.

  • Ordre des événements : Un autre problème majeur est la réception d'événements dans un ordre inattendu. Victor explique que les consommateurs ne traitent pas toujours les messages un par un, ce qui peut entraîner des incohérences dans l'état des données.

Conditions de concurrence

Les conditions de concurrence sont un autre point critique abordé par Victor. Lorsqu'un message est traité par plusieurs consommateurs en parallèle, des conflits peuvent survenir, entraînant des résultats inattendus. Il présente plusieurs solutions :

  • Verrouillage pessimiste : Utiliser des verrous pour empêcher d'autres threads d'accéder aux données pendant qu'un message est traité.

  • Verrouillage optimiste : Attacher une version à chaque état dans la base de données pour s'assurer que les mises à jour ne se produisent que si l'état n'a pas changé depuis la dernière lecture.

Outils et Techniques

Victor aborde également des outils et des techniques pour tester les systèmes basés sur des événements :

  • Tests de consommateurs : Il met en avant l'importance de simuler des messages dans les tests, tout en évitant les pièges liés à l'utilisation de contextes de test partagés qui peuvent entraîner des résultats erronés.

  • Gestion des états : La nécessité de nettoyer les messages non consommés avant de commencer de nouveaux tests est cruciale pour éviter des interférences.

Orchestration et Flux de travail

L'orchestration des événements est essentielle pour garantir que les messages sont traités dans le bon ordre et par les bons consommateurs. Victor souligne l'importance de partitionner les messages pour garantir qu'un seul thread traite un ensemble spécifique d'événements, préservant ainsi l'ordre.

Ce qu'il faut retenir

Les principaux enseignements de cette session incluent :

  • L'architecture événementielle nécessite une attention particulière aux détails, notamment en ce qui concerne la gestion des duplications et l'ordre des événements.
  • Les conditions de concurrence peuvent être gérées efficacement avec des techniques de verrouillage appropriées.
  • Les tests doivent être soigneusement conçus pour éviter les interférences entre les environnements de test.

Réflexions Darkwood

L'évolution vers des architectures événementielles reflète une tendance plus large vers l'automatisation et la décentralisation des systèmes logiciels. Alors que les entreprises adoptent des workflows plus agiles, la nécessité d'une orchestration efficace devient cruciale. Les défis identifiés par Victor Rentea soulignent l'importance d'une gouvernance rigoureuse dans la gestion des flux d'événements. À mesure que les systèmes deviennent plus complexes, l'intégration de l'intelligence artificielle et des agents autonomes pourrait offrir des solutions novatrices pour anticiper et résoudre ces problèmes, transformant ainsi la manière dont nous concevons et déployons des architectures modernes.

Fiche programme

Email at scale : comment on a survécu à 800M mails/an (et au DNS)

  • Speakers : julien Goullon (LinkedIn), Julien Eyraud
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 13:30 à 14:15 · Salle Paris 242AB

Retour d’expérience de Mirakl sur la refonte de sa plateforme d’envoi d’emails : passage d’un traitement batch à une architecture event‑driven centralisée sur Kafka, améliorant performance et résilience. Le talk détaille le pipeline, la migration d’infrastructure, la stratégie DNS/délivrabilité et les bonnes pratiques pour une messagerie fiable et scalable.

Email at scale : comment on a survécu à 800M mails/an (et au DNS)

Dans un monde où la communication par email est omniprésente, la capacité à gérer des volumes massifs d'envois devient un enjeu crucial pour les entreprises. La session présentée par Julien Goullon et Julien Eyraud de Mirakl lors de cette conférence sur l'architecture aborde un retour d'expérience sur la refonte de leur plateforme d'envoi d'emails. Cette transformation, marquée par un passage d'une architecture batch à une architecture event-driven basée sur Kafka, soulève des questions pertinentes sur la performance, la résilience et la délivrabilité des emails.

Ce que présente le talk

Le talk se concentre sur la migration d'une infrastructure d'envoi d'emails, initialement conçue pour traiter des envois par lot, vers une architecture centralisée et mutualisée. Mirakl, qui gère un volume de près de 800 millions d'emails par an, partage les défis rencontrés et les solutions mises en place pour améliorer la fiabilité et la scalabilité de leur système.

Points techniques importants

Architecture et Pipeline

La refonte a été motivée par la nécessité de gérer des volumes croissants d'emails tout en améliorant la performance et la résilience. L'architecture event-driven, centrée sur Kafka, permet de publier des événements pour chaque email à envoyer, ce qui facilite la mutualisation des ressources et l'abstraction des différents fournisseurs de services d'envoi.

  • Mutualisation des ressources : En centralisant l'envoi d'emails, Mirakl a pu réduire la complexité de l'architecture, permettant ainsi une meilleure gestion des ressources.
  • Kafka comme backbone : L'utilisation de Kafka permet une gestion efficace des événements, avec des consommateurs dédiés pour traiter les emails en fonction de leur configuration.

Migration et Stratégie DNS

La migration a impliqué des changements significatifs, notamment le passage à un nouveau fournisseur de services d'envoi et la gestion des enregistrements DNS. Les défis incluent :

  • Validation de domaines : La nécessité de valider les domaines d'envoi a été un point critique, avec des implications sur la délivrabilité.
  • Propagation DNS : La gestion des enregistrements DNS a nécessité une attention particulière, notamment en ce qui concerne les limites de SPF et les configurations spécifiques.

Résilience et Performance

Les intervenants ont également abordé les défis liés à la résilience et à la performance de l'application :

  • Circuit Breaker : Un système de circuit breaker a été mis en place pour gérer les configurations lentes, permettant de rediriger les événements vers un topic dédié pour un traitement plus lent.
  • Déduplication : L'implémentation d'un système de déduplication via Redis a permis de gérer les doublons dans les envois d'emails, garantissant ainsi une meilleure intégrité des données.

Observabilité et Monitoring

Une attention particulière a été portée à l'observabilité du système :

  • Métriques et Dashboards : La création de nouveaux dashboards et la définition de métriques pertinentes ont permis de mieux suivre les performances du système et d'identifier rapidement les anomalies.
  • Alerting : Des systèmes d'alerte ont été mis en place pour détecter les problèmes de manière proactive, réduisant ainsi les temps d'arrêt et améliorant la réactivité.

Ce qu'il faut retenir

La refonte de la plateforme d'envoi d'emails chez Mirakl illustre l'importance d'une architecture flexible et résiliente dans le traitement de volumes massifs d'emails. Les leçons tirées de cette expérience incluent :

  • L'importance de l'architecture event-driven pour la scalabilité.
  • La nécessité d'une gestion rigoureuse des DNS et des validations de domaine.
  • L'implémentation de mécanismes de résilience tels que les circuit breakers et la déduplication.
  • L'importance d'une observabilité accrue pour une gestion proactive des incidents.

Réflexions Darkwood

La transformation de l'architecture d'envoi d'emails chez Mirakl s'inscrit dans une tendance plus large vers des systèmes logiciels de plus en plus résilients et scalables. L'évolution vers des architectures event-driven reflète un besoin croissant d'automatisation et d'orchestration, où chaque composant doit être capable de s'adapter à des charges de travail variables sans compromettre la performance.

L'intégration de mécanismes de résilience et d'observabilité devient essentielle dans un contexte où les attentes des utilisateurs en matière de fiabilité et de rapidité sont en constante augmentation. Cette approche pourrait également influencer la manière dont les entreprises gèrent leurs workflows, en favorisant une gouvernance plus agile et réactive face aux défis du développement moderne.

Fiche programme

Silence is Coming: Survivre au chaos dans une archi événementielle distribuée

  • Speakers : Jounad Tourvieille, Flora Njofang (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 13:30 à 14:15 · Salle Neuilly 252AB

Ce talk présente un retour d’expérience sur une architecture événementielle confrontée au “silence” : absence d’événements révélant un chaos systémique. Il met en lumière cet anti‑pattern critique et propose des solutions : meilleure observabilité métier, contrats explicites et responsabilités claires pour des systèmes réellement résilients.

Silence is Coming: Survivre au chaos dans une archi événementielle distribuée

Dans un monde où la rapidité et la réactivité sont essentielles, la gestion des architectures événementielles (EDA) devient un enjeu crucial. Le talk "Silence is Coming" aborde un phénomène souvent sous-estimé : le silence dans un système événementiel, qui peut être le précurseur d'un chaos systémique. Ce retour d'expérience, présenté par Jounad Tourvieille et Flora Njofang d'AXA France, met en lumière des solutions pratiques pour surmonter ce défi.

Ce que présente le talk

Le talk explore les conséquences d'une absence d'événements dans une architecture événementielle, souvent synonyme de dysfonctionnement. Les intervenants partagent leur expérience sur un projet complexe impliquant plusieurs équipes, où le découplage des responsabilités et la demande de réactivité business se heurtent à des systèmes déjà en place. Ils soulignent l'importance d'une observabilité accrue, de contrats explicites entre producteurs et consommateurs, et d'une définition claire des responsabilités pour assurer la résilience des systèmes.

Points techniques importants

Architecture Événementielle et Anti-Pattern du Silence

L'architecture événementielle est souvent perçue comme une solution idéale pour la scalabilité et la résilience. Cependant, le silence, c'est-à-dire l'absence d'événements, peut signaler des problèmes sous-jacents. Ce silence peut être causé par :

  • Fragmentation de l'Ownership : La répartition des responsabilités entre plusieurs équipes peut créer des zones d'ombre où les dépendances ne sont pas clairement comprises.
  • Manque d'Observabilité : Des dashboards au vert ne garantissent pas que les processus métier fonctionnent correctement. Une observabilité orientée processus est essentielle pour détecter les anomalies avant qu'elles n'impactent le business.

Observabilité Orientée Processus

Pour contrer le silence, les intervenants recommandent de mettre en place une observabilité qui ne se limite pas aux indicateurs techniques, mais qui se concentre sur les processus métier. Cela inclut :

  • Suivi des Flux d'Événements : Comprendre comment les événements circulent à travers le système et identifier les goulets d'étranglement.
  • Alertes Proactives : Mettre en place des alertes qui se déclenchent non seulement sur des erreurs techniques, mais aussi sur des comportements anormaux dans le flux des événements.

Contrats Explicites et Responsabilités Claires

La définition de contrats explicites entre les équipes est cruciale pour éviter les malentendus. Cela implique :

  • Documentation : Maintenir une documentation à jour et accessible pour tous les acteurs.
  • Communication : Établir des canaux de communication clairs pour informer les équipes des changements impactant leurs services.

Modèle C4 pour la Documentation

Les intervenants ont introduit le modèle C4 comme un outil efficace pour documenter l'architecture. Ce modèle permet de :

  • Visualiser l'Architecture à Différents Niveaux : Du contexte global aux détails techniques, le modèle C4 facilite la compréhension pour tous les intervenants.
  • Versionner la Documentation : En utilisant des fichiers versionnables, les équipes peuvent suivre l'évolution de l'architecture et s'assurer que tout le monde est sur la même longueur d'onde.

Ce qu'il faut retenir

Le silence dans une architecture événementielle est un signal d'alarme qui ne doit pas être ignoré. Pour construire des systèmes résilients, il est impératif d'améliorer l'observabilité, de définir des contrats explicites et de clarifier les responsabilités. L'utilisation de modèles comme C4 peut faciliter la communication entre les différentes équipes et garantir que tout le monde travaille vers un objectif commun.

Réflexions Darkwood

La discussion sur le silence dans les systèmes événementiels met en lumière une tendance plus large dans l'évolution des architectures modernes. À mesure que les systèmes deviennent plus complexes et distribués, l'automatisation et l'orchestration jouent un rôle clé dans la gestion de cette complexité. L'intégration d'agents IA pour surveiller et réagir aux anomalies en temps réel pourrait transformer la manière dont nous concevons la résilience des systèmes. En fin de compte, la gouvernance des architectures distribuées doit évoluer pour inclure des mécanismes proactifs qui anticipent le chaos plutôt que de simplement réagir à ses symptômes.

Fiche programme

The Hive : coder un monolithe modulaire prêt pour les microservices

  • Speakers : Thomas PIERRAIN (X · LinkedIn · Bluesky), Julien Topçu (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 13:30 à 14:15 · Salle Amphi bleu

Ce talk présente comment le pattern Hive permet de transformer un monolithe spaghetti en monolithe modulaire, prêt à être découpé en microservices grâce à l’architecture hexagonale et au vertical slicing, illustré par du live coding allant de l’existant legacy à l’extraction d’un module en microservice.

The Hive : coder un monolithe modulaire prêt pour les microservices

Dans un contexte où l'architecture des systèmes logiciels évolue rapidement, le talk "The Hive" aborde une problématique cruciale : comment transformer un monolithe spaghetti en un monolithe modulaire, prêt à être découpé en microservices. Cette approche est d'autant plus pertinente à une époque où de nombreux développeurs se heurtent aux défis des microservices mal conçus, souvent plus problématiques que les monolithes qu'ils étaient censés remplacer.

Ce que présente le talk

La session, animée par Thomas Pierrain et Julien Topçu du Shodo Group, explore le pattern Hive, qui permet de structurer un monolithe de manière à faciliter sa modularisation. À travers une démonstration de live coding, les intervenants montrent comment passer d'un monolithe spaghetti legacy à un monolithe modulaire, en utilisant l'architecture hexagonale et le vertical slicing. L'objectif est de préparer le terrain pour une future extraction de modules en microservices, tout en évitant les pièges du couplage excessif.

Points techniques importants

Architecture hexagonale

L'architecture hexagonale, introduite par Alistair Cockburn, est un concept clé dans cette transformation. Elle permet de séparer la logique métier des préoccupations techniques, en organisant le code autour de ports et d'adaptateurs. Dans le contexte du talk, cela signifie :

  • Ports : Interfaces qui définissent comment les composants interagissent.
  • Adaptateurs : Implémentations concrètes qui permettent d'accéder à des services externes ou à des bases de données.

Cette séparation favorise une meilleure maintenabilité et permet de changer de technologie sans impacter la logique métier.

Vertical Slicing

Le vertical slicing est une technique qui consiste à découper l'application en modules fonctionnels complets, englobant à la fois la logique métier et les couches techniques nécessaires. Cela permet de créer des unités indépendantes qui peuvent être testées et déployées séparément, facilitant ainsi la transition vers une architecture microservices.

Modularisation

La modularisation est présentée comme une étape essentielle avant de penser à l'extraction en microservices. Les intervenants soulignent l'importance de regrouper les fonctionnalités par domaine métier, en identifiant des sous-domaines qui peuvent être isolés. Par exemple, dans le cas de la Doloréan, les fonctionnalités peuvent être regroupées autour de :

  • Le réacteur nucléaire
  • Le circuit temporel
  • Le flux capacitor

Cette approche permet de réduire la complexité et le couplage, rendant la découpe future en microservices plus aisée.

Gestion des données

Un point crucial abordé est la gestion des bases de données dans un contexte de microservices. Les intervenants insistent sur l'importance d'éviter le partage de bases de données entre microservices, ce qui peut entraîner des problèmes de couplage et de gestion des versions. Ils proposent d'appliquer le vertical slicing à la base de données, en créant des tables dédiées pour chaque module.

Ce qu'il faut retenir

  • Le pattern Hive offre une méthode structurée pour transformer un monolithe spaghetti en un monolithe modulaire.
  • L'architecture hexagonale et le vertical slicing sont des techniques essentielles pour réussir cette transformation.
  • La modularisation doit être envisagée comme une étape préalable à l'extraction en microservices, afin de minimiser le couplage et la complexité.
  • Une gestion rigoureuse des bases de données est cruciale pour éviter les pièges des architectures microservices.

Réflexions Darkwood

La session "The Hive" met en lumière une tendance croissante dans l'industrie : la nécessité de repenser la modularité des systèmes logiciels. Alors que les architectures microservices promettent agilité et scalabilité, elles peuvent également introduire des complexités supplémentaires si elles ne sont pas conçues avec soin. L'approche du monolithe modulaire, comme présentée dans le talk, pourrait bien représenter une voie intermédiaire, permettant aux équipes de conserver la simplicité d'un monolithe tout en se préparant à une évolution vers des systèmes distribués.

Cette réflexion sur la modularité et l'automatisation des processus de développement est d'autant plus pertinente à l'ère des agents IA et des workflows automatisés, où la capacité à découper efficacement les systèmes en unités indépendantes devient un atout majeur pour la gouvernance des architectures modernes.

Fiche programme

Local-first et sync-engines, l'architecture du futur ?

  • Speakers : Benjamin Legrand (X · LinkedIn · Bluesky · Mastodon)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 14:35 à 15:20 · Salle Neuilly 252AB

Cette présentation explore l’architecture “local-first” et les moteurs de synchronisation, qui rendent les applications web rapides, agréables et utilisables hors-ligne. Elle détaille leur fonctionnement, leurs impacts sur le code et les projets, et présente des exemples de librairies et bases de données adaptées à ce modèle.

Local-first et sync-engines, l'architecture du futur ?

L'architecture "local-first" émerge comme une réponse aux défis contemporains des applications web, notamment en matière de performance et d'expérience utilisateur. Dans un contexte où la latence réseau peut impacter gravement l'interaction, cette approche promet des applications réactives, même hors ligne. La session animée par Benjamin Legrand, de Onepoint, explore les fondements et les implications de cette architecture, tout en présentant des outils et des librairies adaptés.

Ce que présente le talk

Le talk se concentre sur l'architecture "local-first" et les moteurs de synchronisation, qui permettent de créer des applications web rapides et utilisables sans connexion internet. L'idée centrale repose sur la synchronisation des données plutôt que leur récupération, ce qui transforme l'expérience utilisateur en rendant les applications instantanées et fluides. Benjamin Legrand aborde les principes de cette architecture, les défis qu'elle pose, ainsi que des exemples de technologies qui facilitent sa mise en œuvre.

Points techniques importants

Architecture et principes du local-first

L'architecture "local-first" repose sur plusieurs principes fondamentaux :

  1. Instantanéité : Les utilisateurs ne doivent pas faire face à des temps de chargement. Les données sont disponibles immédiatement grâce à une base de données locale.

  2. Indépendance du réseau : Les applications doivent fonctionner même sans connexion, rendant le réseau optionnel.

  3. Collaboration sans heurts : Les utilisateurs doivent pouvoir collaborer en temps réel, avec des mécanismes de gestion des conflits intégrés.

  4. Durabilité : Les applications doivent être conçues pour durer, évitant les dépendances à des technologies éphémères.

  5. Sécurité par défaut : Les données doivent être sécurisées, avec un contrôle utilisateur renforcé.

Moteurs de synchronisation

Les moteurs de synchronisation jouent un rôle clé dans l'architecture "local-first". Ils permettent de gérer les conflits de données lorsque plusieurs utilisateurs interagissent avec la même application. Le talk souligne l'importance de ces moteurs pour assurer une expérience utilisateur fluide, même en cas de déconnexion temporaire.

Outils et librairies

Benjamin Legrand présente plusieurs outils et librairies qui facilitent l'implémentation de l'architecture "local-first" :

  • IndexedDB : Base de données intégrée aux navigateurs modernes, permettant le stockage local.
  • SQLite et PG Lite : Alternatives pour des applications nécessitant des fonctionnalités plus avancées.
  • Dexi : Une surcouche à IndexedDB qui simplifie la gestion des données et améliore la réactivité des applications.

Défis et considérations

L'implémentation de l'architecture "local-first" n'est pas sans défis. La gestion des erreurs, la réactivité des interfaces et la synchronisation des données sont des aspects cruciaux à prendre en compte. Benjamin souligne que même si le réseau est optionnel, les applications doivent être conçues pour gérer les interruptions de service de manière élégante.

Ce qu'il faut retenir

L'architecture "local-first" représente une évolution significative dans la conception des applications web. En plaçant les données localement et en permettant une synchronisation fluide, elle répond aux attentes croissantes des utilisateurs en matière de performance et d'accessibilité. Les principes de cette approche, combinés aux outils modernes, offrent une voie prometteuse pour le développement d'applications réactives et durables.

Réflexions Darkwood

L'architecture "local-first" s'inscrit dans une tendance plus large vers l'automatisation et l'optimisation des workflows. En réduisant la dépendance à la latence réseau, elle ouvre la voie à des systèmes plus résilients et adaptatifs. À mesure que les agents IA et les outils d'orchestration évoluent, cette approche pourrait transformer la manière dont nous concevons et interagissons avec les applications. Les implications pour la gouvernance des données et la sécurité sont également significatives, car elles placent le contrôle entre les mains des utilisateurs tout en garantissant une expérience fluide et sécurisée. Dans un monde de plus en plus connecté, le local-first pourrait bien représenter l'avenir des systèmes logiciels.

Fiche programme

Green Architecture : moins de gras, plus d’impact, plus d'efficacité !

  • Speakers : David DE CARVALHO (X · LinkedIn), Thierno DIALLO (X · LinkedIn)
  • Type : Tools-in-Action
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 17:00 à 17:30 · Salle Neuilly 252AB

Cette session montre comment alléger et verdir une API existante grâce au framework API Green Score : mesure d’indicateurs (payload, latence, cache), application de bonnes pratiques (compression, pagination, données minimales) et automatisation du suivi. Résultat : une API plus performante, économe en ressources et reproductible via un repo GitHub.

Green Architecture : moins de gras, plus d’impact, plus d'efficacité !

Dans un contexte où l'impact environnemental des technologies devient une préoccupation majeure, la session "Green Architecture : moins de gras, plus d’impact, plus d'efficacité !" aborde un sujet crucial : l'optimisation des APIs pour réduire leur empreinte écologique. Présentée par David De Carvalho de Capgemini et Thierno Diallo d'Axa France, cette session explore l'utilisation du framework API Green Score pour rendre les APIs plus légères et performantes.

Ce que présente le talk

La session se concentre sur l'optimisation des APIs existantes en les rendant plus efficaces et moins gourmandes en ressources. À travers des outils open-source et des métriques concrètes, les intervenants démontrent comment appliquer le framework API Green Score pour mesurer et améliorer la performance des APIs. L'objectif est de fournir une démarche reproductible, accessible via un dépôt GitHub, permettant d'évaluer et d'améliorer l'impact environnemental des APIs.

Points techniques importants

Architecture et bonnes pratiques

Les intervenants insistent sur l'importance d'une architecture réfléchie. Ils soulignent que les APIs modernes sont souvent trop gourmandes, non pas à cause d'un manque de principes, mais en raison de l'absence de règles mesurables et automatisées. Le framework API Green Score permet de :

  • Mesurer des indicateurs clés : payload, latence, et cache.
  • Appliquer des bonnes pratiques : compression (GZIP/Brotli), pagination, et réduction des données transférées.
  • Automatiser le suivi : via des outils comme SonarQube et Spectral pour garantir la non-régression.

Framework API Green Score

Le framework API Green Score est présenté comme un outil essentiel pour évaluer l'impact environnemental des APIs. Il repose sur plusieurs critères, regroupés en sept thématiques :

  1. Cycle de vie : gestion et gouvernance des APIs.
  2. Échange de données : minimisation des échanges réseau.
  3. Architecture : promotion de l'asynchronisme et des architectures événementielles.
  4. Outillage : suivi des métriques et des performances.
  5. Consommation énergétique : évaluation des émissions de carbone.
  6. Langage de programmation : choix des langages en fonction de leur efficacité.
  7. Infrastructure : adaptabilité et scalabilité des systèmes.

Automatisation et suivi

L'un des points forts de la session est l'accent mis sur l'automatisation. Thierno Diallo présente une seconde implémentation du framework, qui permet d'automatiser l'évaluation des APIs. Cette approche réduit la dépendance à l'auto-évaluation manuelle et permet un feedback rapide sur la conformité aux règles établies. Les résultats sont présentés sous forme de rapports JSON, facilitant l'intégration avec d'autres outils de monitoring.

Ce qu'il faut retenir

  • API Green Score est un framework open-source qui permet d'évaluer et d'optimiser l'impact environnemental des APIs.
  • L'application de bonnes pratiques et l'automatisation du suivi sont essentielles pour garantir des APIs performantes et économes en ressources.
  • L'architecture des APIs doit être pensée pour minimiser les échanges de données et maximiser l'efficacité, en intégrant des outils de mesure et d'analyse.

Réflexions Darkwood

La session sur la Green Architecture met en lumière une tendance croissante vers des systèmes logiciels plus durables. Alors que l'automatisation et l'optimisation des workflows deviennent des priorités, l'intégration de l'impact environnemental dans le développement des APIs représente une évolution nécessaire. Les architectures modernes doivent non seulement répondre aux exigences de performance, mais aussi s'inscrire dans une démarche de responsabilité écologique. L'utilisation de frameworks comme API Green Score pourrait bien devenir un standard dans le développement d'APIs, incitant les entreprises à adopter des pratiques plus vertes et à repenser leurs infrastructures pour un avenir plus durable.

Fiche programme

Kafka avec Raft en production : une nouvelle ère pour les commit logs distribués

  • Speakers : Said BOUDJELDA (LinkedIn · Bluesky · Mastodon)
  • Type : 2H Deep Dive
  • Niveau : ADVANCED
  • Langue : French
  • Créneau : 24/04/2026, 10:30 à 12:30 · Salle Paris 241

Cette session présente un retour d’expérience sur l’adoption d’Apache Kafka avec KRaft, le nouveau mode sans ZooKeeper. Elle analyse avantages, limites, migrations et enseignements tirés de la production pour aider développeurs, SRE et architectes à évaluer concrètement quand et comment passer à Kafka en mode Raft.

Kafka avec Raft en production : une nouvelle ère pour les commit logs distribués

La session présentée par Said Boudjeld à la conférence sur l'architecture aborde un tournant majeur dans l'écosystème d'Apache Kafka : l'introduction de KRaft, un mode de consensus qui remplace l'usage de ZooKeeper. Ce changement est particulièrement pertinent dans un contexte où la gestion des systèmes distribués devient de plus en plus complexe. Cet article se penche sur les enseignements tirés de cette transition, ses implications techniques et les réflexions qu'elle suscite pour l'avenir des architectures distribuées.

Ce que présente le talk

La session propose un retour d'expérience sur l'adoption de Kafka en mode KRaft. Said Boudjeld y explore les avantages et les limites de cette nouvelle approche, ainsi que les défis rencontrés lors de la migration. L'objectif est de fournir aux développeurs, SRE et architectes une vision pragmatique pour évaluer la pertinence de cette transition dans leurs environnements de production.

Points techniques importants

Architecture et Consensus

L'un des principaux thèmes abordés est la nature même de Kafka en tant que système distribué. Boudjeld souligne que Kafka ne doit pas être considéré uniquement comme un outil de streaming, mais plutôt comme un commit log distribué. Ce changement de paradigme implique une compréhension approfondie des systèmes distribués et des défis associés, notamment :

  • Consensus : La gestion du consensus est cruciale dans un environnement distribué. Le passage à KRaft introduit un nouveau modèle basé sur l'algorithme Raft, qui vise à simplifier la coordination entre les nœuds tout en maintenant la résilience du système.
  • État local et horloge : Chaque nœud doit conserver son état local, sans mémoire partagée, et gérer sa propre horloge. Cela soulève des questions sur la synchronisation et la cohérence des données à travers le système.

Migration vers KRaft

La session aborde également les défis de la migration vers KRaft. Les équipes doivent évaluer :

  • Compatibilité : Comment les applications existantes interagiront avec la nouvelle architecture.
  • Performance : Les impacts sur la latence et le débit des messages, qui peuvent varier en fonction de la configuration des nœuds et de la charge de travail.

Sécurité et Résilience

Boudjeld évoque les enjeux de sécurité et de résilience dans un système distribué. Les pannes partielles, la latence des nœuds et les problèmes de split brain sont des défis majeurs. La capacité à détecter et à gérer ces situations est essentielle pour maintenir la disponibilité du service.

Outils et Workflow

L'introduction de KRaft nécessite également une réévaluation des outils et des workflows utilisés pour gérer Kafka. Les équipes doivent se familiariser avec de nouveaux mécanismes de gestion des partitions, de répartition des charges et de surveillance des performances.

Ce qu'il faut retenir

  • KRaft représente une avancée significative dans l'évolution de Kafka, remplaçant ZooKeeper par un modèle de consensus plus intégré et simplifié.
  • La migration vers KRaft nécessite une préparation minutieuse, tant sur le plan technique que sur celui des workflows opérationnels.
  • Les défis liés à la résilience et à la sécurité demeurent cruciaux dans les systèmes distribués, et KRaft ne fait pas exception à cette règle.

Réflexions Darkwood

L'évolution vers KRaft dans Kafka illustre une tendance plus large dans l'architecture des systèmes logiciels : la recherche de simplification et d'efficacité dans la gestion des systèmes distribués. Alors que les environnements deviennent de plus en plus complexes, l'automatisation et l'orchestration jouent un rôle clé dans la gestion des workflows.

L'adoption de modèles de consensus modernes comme Raft pourrait également influencer la conception d'autres systèmes distribués, en favorisant des approches plus résilientes et adaptatives. En intégrant ces principes, les équipes de développement peuvent mieux répondre aux défis de la scalabilité et de la gouvernance, tout en se préparant à l'impact croissant des agents IA dans le domaine de l'automatisation des processus.

Ainsi, l'ère de Kafka avec Raft pourrait bien marquer le début d'une nouvelle phase dans la gestion des architectures distribuées, où la simplicité et l'efficacité deviennent des priorités stratégiques.

Fiche programme

Les feature flags : une aide précieuse ou un frein pour une équipe

  • Speakers : Dorra Bartaguiz (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 13:30 à 14:15 · Salle Maillot

Ce talk analyse les dérives liées à l’usage excessif des feature flags et leurs coûts cachés. Il présente des alternatives issues de l’agilité, du craft et du design d’architecture (INVEST, Trunk-based development, DDD, Circuit Breaker) afin d’en faire un choix conscient et ciblé plutôt qu’un réflexe systématique.

Les feature flags : une aide précieuse ou un frein pour une équipe

Dans un contexte où l'agilité et la rapidité de déploiement sont devenues des impératifs pour les équipes de développement, les feature flags apparaissent comme une solution séduisante pour gérer les mises en production continues. Cependant, leur utilisation excessive peut engendrer des dérives et des coûts cachés. Le talk de Dorra Bartaguiz, présenté lors de la conférence sur l'architecture, aborde ces enjeux en proposant une réflexion critique sur les feature flags et en suggérant des alternatives issues des pratiques agiles et du design d'architecture.

Ce que présente le talk

Dorra Bartaguiz met en lumière les dérives liées à l'utilisation systématique des feature flags. Bien que ces outils puissent sembler être des "quick wins", leur accumulation peut mener à un code complexe, difficile à maintenir et à tester. Le talk vise à inciter les équipes à adopter une approche plus consciente et ciblée concernant l'utilisation des feature flags, en explorant des alternatives telles que le Trunk-based development, le Domain-Driven Design (DDD) et le Circuit Breaker.

Points techniques importants

Les dérives des feature flags

  • Accumulation de code mort : Les feature flags, s'ils ne sont pas gérés correctement, peuvent s'accumuler dans le code, rendant la base de code difficile à lire et à maintenir.
  • Complexité cyclomatique : L'ajout de multiples conditions pour gérer les flags augmente la complexité du code, ce qui peut rendre les tests de non-régression démultipliés et coûteux.
  • Impact sur le moral des équipes : Une base de code encombrée par des feature flags peut démoraliser les développeurs, augmentant le risque de désengagement.

Alternatives aux feature flags

1. Découpage INVEST & Hamburger technique

Cette approche vise à éliminer le besoin de livraisons partielles en favorisant des fonctionnalités bien définies et indépendantes. Cela permet de réduire la dépendance aux feature flags.

2. Trunk-based Development

Le Trunk-based development encourage une collaboration continue sur une seule base de code. Cela réduit les conflits liés aux branches et permet une intégration continue, rendant les feature flags moins nécessaires.

3. Domain-Driven Design (DDD)

En utilisant des patterns comme Strategy et Decorator, il est possible de transformer un flag technique en une règle métier explicite. Cela permet de mieux comprendre le contexte d'utilisation des fonctionnalités.

4. Circuit Breaker

Ce pattern permet d'automatiser la résilience face aux services tiers, réduisant ainsi le besoin de gérer des flags manuels pour activer ou désactiver des fonctionnalités en cas de défaillance.

Les cas d'utilisation des feature flags

Dorra identifie plusieurs cas d'utilisation pour les feature flags, notamment :

  • Partial release : Permet de livrer une fonctionnalité incomplète tout en gardant le contrôle sur son activation.
  • Activation par contexte : Active des fonctionnalités pour des utilisateurs ou des régions spécifiques.
  • External dependency : Gère l'activation de services externes.

Ce qu'il faut retenir

L'utilisation des feature flags doit être réfléchie et ciblée. Bien qu'ils puissent offrir des avantages en termes de flexibilité et de contrôle, leur utilisation excessive peut entraîner des complications significatives dans la gestion du code et la satisfaction des équipes. Des alternatives comme le Trunk-based development et le Domain-Driven Design peuvent offrir des solutions plus durables et efficaces.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une plus grande modularité et une meilleure orchestration des services souligne l'importance de repenser notre approche des feature flags. Alors que l'automatisation et l'utilisation d'agents intelligents deviennent de plus en plus courantes, il est crucial de se concentrer sur des architectures qui favorisent la résilience et la maintenabilité. En intégrant des pratiques comme le Trunk-based development et le Domain-Driven Design, les équipes peuvent non seulement améliorer leur efficacité, mais aussi réduire les risques associés à une gestion désordonnée des fonctionnalités. L'avenir du développement logiciel réside dans une gouvernance éclairée des choix techniques, où chaque outil est utilisé en connaissance de cause, maximisant ainsi la valeur ajoutée tout en minimisant les coûts cachés.

Fiche programme

All-In sur la plateforme : nouveau Poker @Betclic

  • Speakers : Nicolas Comet (LinkedIn · Bluesky), Loïc Kervran (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 14:35 à 15:20 · Salle Paris 141

Retour d’expérience sur la création en un an d’une plateforme nationale de Poker chez Betclic : défis d’architecture temps réel multi‑joueurs et multi‑devices, gestion des performances et d’un lancement sans marge d’erreur. Un partage de pratiques et d’anecdotes techniques autour d’un projet devenu un succès durable.

All-In sur la plateforme : nouveau Poker @Betclic

La session présentée par Nicolas Comet et Loïc Kervran lors de la conférence sur l'architecture a plongé les participants dans les coulisses du développement d'une nouvelle plateforme de poker chez Betclic. Ce projet, ambitieux et complexe, a été conçu en seulement un an, mettant en avant des défis techniques et architecturaux significatifs. Dans un contexte où le secteur des jeux en ligne est en constante évolution, ce retour d'expérience est particulièrement pertinent pour les développeurs souhaitant comprendre les enjeux d'une application temps réel multi-joueurs.

Ce que présente le talk

Les intervenants ont partagé leur expérience sur la création d'une plateforme de poker nationale, en abordant les défis d'architecture, les problématiques de performance, et les exigences d'un lancement sans erreur. Le projet, qui a débuté avec une petite équipe, a rapidement évolué pour inclure plus de soixante personnes. L'objectif était non seulement de moderniser l'interface utilisateur, mais aussi de garantir une expérience de jeu fluide et engageante.

Points techniques importants

Architecture et choix technologiques

Le projet a débuté avec un besoin de réintégrer les fonctionnalités de poker, auparavant gérées via une solution de marque blanche. Les intervenants ont mis en avant plusieurs défis :

  • Complexité métier : Intégrer des mécaniques de jeu en temps réel, où les joueurs interagissent directement entre eux (PvP), a nécessité une architecture robuste.
  • Conformité réglementaire : Chaque fonctionnalité devait être validée par l'Autorité nationale des jeux, ajoutant une couche de complexité au développement.

Pour le développement, Betclic a opté pour Flutter, un framework multiplateforme, permettant de cibler à la fois mobile et desktop avec une base de code unique. Cette décision a été motivée par la nécessité d'offrir une expérience utilisateur fluide à 120 FPS, essentielle pour un jeu dynamique comme le poker.

Gestion du temps réel

La gestion des interactions en temps réel a été un aspect crucial du développement. Les intervenants ont détaillé l'utilisation de WebSockets pour la communication entre le client et le serveur :

  • Réception des événements : Les actions des joueurs sont envoyées sous forme de messages JSON, qui sont ensuite traités pour mettre à jour l'interface utilisateur.
  • Envoi des commandes : Lorsqu'un joueur effectue une action, celle-ci est transformée et envoyée au serveur, qui la propage aux autres joueurs.

Management d'état et UI

Pour gérer l'état de l'application, les intervenants ont utilisé Riverpod, un outil de gestion d'état en Flutter, permettant de synchroniser les données reçues via WebSocket avec l'interface utilisateur. Cela a permis de garantir que chaque changement d'état soit reflété en temps réel dans l'UI, essentielle pour une expérience de jeu immersive.

Design et animations

L'esthétique de l'application a été soigneusement conçue en collaboration avec des designers. Les intervenants ont souligné l'importance d'un design responsive, capable de s'adapter à différents formats d'écran. Pour les animations, ils ont choisi d'utiliser Rive, un outil permettant aux designers de créer des animations complexes sans nécessiter d'écriture de code, facilitant ainsi l'interaction entre le code et les animations.

Backend et API

Côté backend, le choix s'est porté sur Kotlin, avec une approche "immutable first" et "API first". Cette stratégie a permis de garantir une robustesse et une flexibilité essentielles pour gérer les interactions en temps réel et les exigences de scalabilité.

Ce qu'il faut retenir

  • La création d'une plateforme de poker moderne nécessite une architecture robuste, capable de gérer des interactions en temps réel.
  • L'utilisation de Flutter permet un développement multiplateforme efficace, tout en garantissant des performances élevées.
  • La gestion d'état et l'intégration des animations sont cruciales pour offrir une expérience utilisateur engageante.
  • La conformité réglementaire doit être intégrée dès le début du processus de développement.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures modernes, comme celle présentée par Betclic, illustre une tendance vers l'automatisation et l'orchestration des workflows. L'intégration de technologies comme Flutter et Rive montre comment les outils modernes peuvent faciliter la collaboration entre développeurs et designers, tout en répondant aux exigences de performance et de réactivité.

À mesure que les applications deviennent plus complexes, l'importance de la gouvernance et de la conformité réglementaire ne peut être sous-estimée, surtout dans des domaines sensibles comme les jeux d'argent. Ce projet souligne également l'impact croissant des agents IA dans la gestion des interactions et des données, ouvrant la voie à des expériences utilisateur encore plus personnalisées et dynamiques.

Fiche programme

Refactorer sans tout casser: anatomie des patterns de modernisation incrémentale

  • Speakers : Héla Ben Khalfallah (X · LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 15:40 à 16:25 · Salle Amphi bleu

Cette session propose un guide pratique pour moderniser un système legacy sans interruption, en combinant des patterns éprouvés (Strangler Fig, Parallel Change, etc.) et des retours d’expérience industriels. L’approche permet des migrations incrémentales, observables et réversibles, sans perturber la production ni multiplier les régressions.

Refactorer sans tout casser : anatomie des patterns de modernisation incrémentale

Dans un monde où les systèmes legacy sont omniprésents, la nécessité de les moderniser sans provoquer d'interruptions majeures est devenue cruciale. La session animée par Héla Ben Khalfallah, experte chez OVHcloud, aborde cette problématique avec une approche structurée et pragmatique. En combinant des patterns éprouvés tels que le Strangler Fig et le Parallel Change, elle propose une méthode de migration incrémentale qui permet de maintenir la continuité de service tout en évitant les régressions.

Ce que présente le talk

La session se concentre sur la modernisation des systèmes legacy sans recourir à des changements radicaux, souvent synonymes de chaos et de régressions. Héla Ben Khalfallah présente un playbook de modernisation qui repose sur des patterns de migration éprouvés, permettant des évolutions techniques, fonctionnelles et architecturales de manière incrémentale. L'objectif est de fournir une grille de lecture pour des migrations observables, réversibles et compatibles avec le rythme de développement continu.

Points techniques importants

Patterns de modernisation

  1. Strangler Fig : Ce pattern permet de remplacer progressivement des parties d'un système legacy par de nouvelles implémentations. L'idée est de "strangler" le système existant, en le remplaçant petit à petit, sans interruption de service.

  2. Parallel Change (Expand/Contract) : Ce pattern consiste à ajouter de nouvelles fonctionnalités tout en maintenant les anciennes. Par exemple, lors de la mise à jour d'une API, on peut introduire un nouvel attribut tout en conservant l'ancien jusqu'à ce que tous les consommateurs aient migré.

  3. Branch by Abstraction : Utilisé pour gérer les changements internes d'une application, ce pattern permet de modifier des composants sans affecter l'ensemble du système. Cela est particulièrement utile dans un environnement monorepo où les dépendances sont interconnectées.

Approche incrémentale

Héla insiste sur l'importance d'une approche incrémentale pour éviter l'entropie logicielle. Chaque changement doit être mesuré et contrôlé pour éviter de créer des régressions. La session propose de poser trois questions avant d'apporter des modifications à un code existant :

  • Quel est l'impact du changement sur la stabilité du système ?
  • Comment peut-on maintenir la continuité des développements parallèles ?
  • Quelles métriques utiliser pour évaluer l'impact de ce changement ?

Observabilité et télémétrie

L'utilisation de la télémétrie est essentielle pour suivre l'impact des changements. Héla souligne que chaque phase de migration doit être observable pour garantir que le système reste valide tout au long du processus. Cela permet de prendre des décisions éclairées basées sur des données réelles plutôt que sur des hypothèses.

Ce qu'il faut retenir

La modernisation des systèmes legacy ne doit pas être un processus chaotique. En adoptant des patterns de migration comme le Strangler Fig et le Parallel Change, les développeurs peuvent effectuer des changements incrémentaux tout en maintenant la stabilité du système. L'observabilité et la télémétrie sont des outils clés pour maîtriser l'impact de ces changements.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures modernes nécessite une approche réfléchie et méthodique. L'automatisation des processus de migration, couplée à des agents intelligents capables d'analyser les impacts en temps réel, pourrait transformer la manière dont nous gérons les systèmes legacy. L'intégration de workflows agiles et d'orchestration intelligente pourrait également faciliter ces transitions, rendant les systèmes non seulement plus résilients, mais aussi plus adaptables aux évolutions futures. Dans un contexte où la gouvernance des systèmes devient de plus en plus complexe, ces pratiques de modernisation incrémentale pourraient bien représenter la voie à suivre pour une industrie du développement en constante mutation.

Fiche programme

Data & Analytics

Sous le capot d’une base de données analytique

  • Speakers : Sylvain Wallez (X · LinkedIn · Bluesky · Mastodon)
  • Type : Conference
  • Niveau : ADVANCED
  • Langue : French
  • Créneau : 22/04/2026, 10:30 à 11:15 · Salle Neuilly 151

Présentation pédagogique du fonctionnement interne des moteurs de requête à travers l’exemple d’Elasticsearch et d’ES|QL : parsing, plan logique, optimisation, plan physique et exécution. L’objectif : comprendre chaque étape du traitement pour mieux interpréter et optimiser les requêtes via l’analyse du “explain”.

Sous le capot d’une base de données analytique

La session présentée par Sylvain Wallez lors de la conférence sur les données et l'analytique s'est concentrée sur le fonctionnement interne des moteurs de requête, avec un accent particulier sur Elasticsearch et son langage de requête, ES|QL. Dans un contexte où l'optimisation des requêtes est cruciale pour la performance des systèmes d'information, cette présentation offre une vue d'ensemble des mécanismes sous-jacents qui permettent de transformer une requête en résultats exploitables.

Ce que présente le talk

L'objectif principal de cette session est de démystifier le traitement des requêtes dans Elasticsearch. À travers une exploration des différentes étapes, de la syntaxe de la requête jusqu'à l'exécution finale, le conférencier nous guide à travers le processus complexe qui permet de répondre efficacement aux requêtes. En se basant sur des exemples concrets, il illustre comment chaque composant contribue à l'optimisation des performances.

Points techniques importants

Anatomie d'une requête

  1. Langage ES|QL :

    • ES|QL est un langage de requête basé sur une syntaxe de type "pipe", permettant une série d'opérations successives. Ce modèle facilite l'affinement des données à chaque étape, en commençant par une extraction brute jusqu'à une agrégation finale.
    • La transition vers ES|QL a été motivée par la nécessité d'améliorer la lisibilité et la performance des requêtes par rapport à l'ancien format JSON.
  2. Parsing et AST (Arbre de Syntaxe Abstraite) :

    • Le processus de parsing transforme la requête en un arbre de syntaxe abstraite, permettant de structurer et d'analyser la requête avant son exécution.
    • Ce modèle est essentiel pour valider les références aux champs et aux index, garantissant que les requêtes sont correctes avant leur traitement.

Optimisation et planification des requêtes

  1. Query Planner :

    • Le query planner joue un rôle clé dans l'optimisation des requêtes. Il fonctionne comme un compilateur "just-in-time" qui analyse la structure des données et applique des règles d'optimisation.
    • Les optimisations peuvent être statiques (indépendantes des données) ou dynamiques (dépendantes des données), permettant ainsi d'ajuster le plan d'exécution en fonction des caractéristiques des données.
  2. Plan logique et plan physique :

    • Une fois la requête validée, elle est transformée en un plan logique, puis en un plan physique qui tient compte de la répartition des données sur le cluster.
    • Ce processus assure que les opérations de filtrage et d'agrégation sont effectuées au plus près des données, minimisant ainsi les mouvements de données à travers le réseau.

Exécution des requêtes

  1. Architecture distribuée :

    • Elasticsearch utilise une architecture distribuée pour exécuter les requêtes. Le nœud coordinateur reçoit la requête, la parse et la planifie, puis distribue les tâches aux nœuds de données.
    • Chaque nœud exécute des sous-tâches localement, ce qui permet une parallélisation efficace des opérations et une réduction du temps de réponse global.
  2. Données en colonnes et calcul vectorisé :

    • L'utilisation d'un modèle de données orienté colonnes permet d'optimiser les performances d'agrégation. Les calculs vectorisés, via des instructions SIMD, augmentent la vitesse d'exécution en traitant plusieurs valeurs simultanément.

Ce qu'il faut retenir

La session a mis en lumière l'importance de comprendre les mécanismes internes des moteurs de requête comme Elasticsearch pour optimiser les performances des systèmes d'information. Les concepts de parsing, de planification, d'optimisation et d'exécution sont cruciaux pour tirer le meilleur parti des requêtes. L'adoption d'un langage de requête comme ES|QL, avec sa structure en pipe, représente une avancée significative dans la facilité d'utilisation et l'efficacité des requêtes.

Réflexions Darkwood

L'évolution des systèmes de gestion de données, comme le montre cette session, souligne l'importance croissante de l'optimisation des requêtes dans un monde où les volumes de données explosent. L'automatisation des processus d'optimisation et l'utilisation d'agents intelligents pour ajuster dynamiquement les plans d'exécution pourraient transformer la manière dont les développeurs interagissent avec les bases de données. À l'avenir, l'orchestration de ces systèmes distribués, couplée à des architectures modernes, pourrait offrir des solutions encore plus performantes et adaptatives, répondant aux défis d'une industrie en constante évolution.

Fiche programme

La transactionalité expliquée

  • Speakers : Benjamin Cavy (X · LinkedIn · Bluesky)
  • Type : Lunch Talk
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 12:35 à 12:50 · Salle Paris 242AB

Cette présentation explore le fonctionnement interne des transactions dans Postgres, en détaillant comment les mécanismes WAL et MVCC assurent l’atomicité et l’intégrité des données, même en cas de panne, illustrant ainsi le rôle essentiel des transactions dans la fiabilité des applications.

La transactionalité expliquée

La gestion des transactions est un pilier fondamental des systèmes de gestion de bases de données modernes. Dans le contexte actuel où la fiabilité des applications est primordiale, comprendre les mécanismes sous-jacents à la gestion des transactions, en particulier dans PostgreSQL, est essentiel pour tout développeur. Cette session, animée par Benjamin Cavy, explore les principes de la transactionalité, en mettant l'accent sur le Write-Ahead Logging (WAL) et le Multi-Version Concurrency Control (MVCC).

Ce que présente le talk

Benjamin Cavy nous plonge dans le fonctionnement interne des transactions dans PostgreSQL. Il explique comment les mécanismes WAL et MVCC garantissent l'atomicité et l'intégrité des données, même en cas de panne. L'objectif est de démystifier le processus transactionnel et de montrer son rôle crucial dans la fiabilité des applications.

Points techniques importants

Mécanismes de base des transactions

  1. Atomicité : Chaque transaction doit être considérée comme une unité indivisible. Soit toutes les opérations d'une transaction réussissent, soit aucune ne l'est. Cavy illustre ce point avec un exemple de transfert d'argent entre comptes, où une erreur dans une des opérations entraîne un rollback.

  2. Isolation : Les modifications apportées par une transaction ne sont pas visibles par d'autres transactions tant que celle-ci n'est pas validée. Cela évite les incohérences dans les données. Cavy mentionne que l'isolation est gérée par le MVCC, qui permet de conserver plusieurs versions d'une donnée.

Write-Ahead Logging (WAL)

Le WAL est un mécanisme qui garantit que toutes les modifications sont enregistrées avant d'être appliquées aux données. Cela permet de récupérer l'état de la base de données en cas de panne. Cavy explique que, lors d'une mise à jour, PostgreSQL n'écrit pas directement sur les données, mais crée une nouvelle version à la fin du fichier, ce qui est essentiel pour la gestion des versions.

Multi-Version Concurrency Control (MVCC)

Le MVCC est un modèle qui permet à plusieurs transactions de lire et d'écrire simultanément sans se bloquer. Chaque transaction voit une version cohérente des données au moment où elle a commencé. Cavy détaille les métadonnées associées aux versions de données, comme xmin et xmax, qui permettent de déterminer quelle version d'une donnée est visible pour une transaction donnée.

Modes d'isolation

PostgreSQL offre plusieurs niveaux d'isolation, le mode par défaut étant le Read Committed. Ce mode permet de voir les modifications validées par d'autres transactions. Cavy met en avant les problèmes potentiels, comme les "non-repeatable reads", où une même requête peut donner des résultats différents au cours d'une transaction.

Pour éviter ces problèmes, le mode Repeatable Read prend une "photo" de l'état de la base au début de la transaction, garantissant ainsi que toutes les requêtes ultérieures dans cette transaction voient les mêmes données.

Ce qu'il faut retenir

  • Les transactions dans PostgreSQL sont gérées par des mécanismes robustes comme WAL et MVCC, garantissant l'atomicité et l'intégrité des données.
  • L'isolation des transactions est cruciale pour éviter les incohérences, et PostgreSQL offre différents niveaux d'isolation pour répondre à divers besoins.
  • Comprendre ces mécanismes est essentiel pour développer des applications fiables et performantes.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures de plus en plus distribuées et asynchrones rend la gestion des transactions encore plus complexe. Les mécanismes comme le MVCC et le WAL sont des réponses à cette complexité, permettant une meilleure gestion de la concurrence et de la fiabilité.

Avec l'essor de l'automatisation et des agents IA, les workflows transactionnels pourraient être optimisés davantage, réduisant les erreurs humaines et améliorant l'efficacité. La gouvernance des données et l'orchestration des transactions deviendront des enjeux majeurs dans les architectures modernes, où la fiabilité et la performance doivent coexister. Les développeurs doivent donc être conscients de ces mécanismes pour bâtir des systèmes résilients et adaptables aux défis futurs.

Fiche programme

7 ans au pays de Kafka

  • Speakers : Fabien ALBERI (LinkedIn), Valérie Servaire (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 14:35 à 15:20 · Salle Maillot

Ce retour d’expérience de Michelin retrace sept ans d’adoption de l’architecture événementielle avec Kafka : déploiement initial, exploitation distribuée, migration cloud et usage de Kafka Streams. Le talk partage bonnes pratiques, outils, erreurs à éviter et perspectives pour le streaming et l’analytics temps réel dans le cloud.

7 ans au pays de Kafka : Retour d'expérience de Michelin

L'architecture événementielle a pris une place prépondérante dans le paysage technologique actuel, et la session présentée par Fabien Alberi et Valérie Servaire de Michelin met en lumière un parcours de sept ans d'adoption de Kafka. Ce retour d'expérience est particulièrement pertinent dans un contexte où la gestion des données en temps réel devient cruciale pour les entreprises souhaitant se transformer en organisations "data-driven".

Ce que présente le talk

La session retrace les étapes clés de l'intégration de Kafka chez Michelin, depuis le déploiement initial jusqu'à la migration vers le cloud et l'utilisation de Kafka Streams. Les intervenants partagent des bonnes pratiques, les erreurs à éviter, ainsi que des perspectives sur l'avenir du streaming et de l'analytics temps réel.

Points techniques importants

Adoption de l'architecture événementielle

Michelin a décidé en 2018 de moderniser ses systèmes d'information en adoptant une architecture événementielle. Ce choix s'inscrit dans une volonté de devenir une entreprise axée sur les données, avec plusieurs objectifs :

  • Amélioration des produits : Utiliser les données pour optimiser les processus de fabrication des pneus.
  • Vente de produits de données : Développer des offres basées sur les données collectées.
  • Analytics traditionnel : Renforcer les capacités d'analyse des données.
  • Systèmes réactifs : Concevoir des systèmes capables de réagir rapidement aux événements.

Déploiement initial et défis

Le déploiement de Kafka a débuté sur des infrastructures traditionnelles, avec des choix techniques cruciaux :

  • Configuration : Trois data centers, cinq Zookeeper pour le quorum, et quatre brokers.
  • Ressources : Utilisation de disques SSD, bien que des compromis aient été faits sur les ressources initiales, entraînant des incidents en production.

Migration vers le cloud

En 2020, Michelin a opté pour un service managé pour simplifier l'exploitation de Kafka. Cela a nécessité une migration complexe :

  • Outil de réplication : Mirror Maker 2 a été choisi pour transférer les données entre clusters tout en maintenant la garantie d'exactitude.
  • Centralisation des schémas : Un effort a été fait pour rassembler tous les schémas sur une instance unique, facilitant ainsi la gestion des données.

Utilisation de Kafka Streams

À partir de 2021, Michelin a commencé à exploiter Kafka Streams pour construire des architectures événementielles. Les intervenants ont souligné l'importance de :

  • Event Storming : Une méthode collaborative pour modéliser les événements en lien avec les processus métiers.
  • Data modeling : Détails sur la structuration des données et des flux, avec une attention particulière aux jointures et à l'assemblage des événements.

Outils et contributions open source

Michelin a développé un outil interne, NES for Kafka, pour faciliter la gestion des objets Kafka. Cet outil a été open sourcé, permettant à d'autres équipes de bénéficier de cette initiative.

Ce qu'il faut retenir

  • Leçons apprises : L'importance de bien dimensionner l'infrastructure et de choisir les bonnes ressources dès le départ.
  • Migration stratégique : La nécessité de planifier soigneusement les migrations vers des services managés pour éviter la perte de données.
  • Collaboration : L'interaction entre les équipes techniques et métiers est essentielle pour réussir l'implémentation d'architectures événementielles.

Réflexions Darkwood

L'expérience de Michelin souligne l'évolution des systèmes logiciels vers des architectures de plus en plus réactives et distribuées. L'adoption de Kafka et des architectures événementielles s'inscrit dans une tendance plus large vers l'automatisation et l'optimisation des workflows. Dans un monde où les données sont omniprésentes, la capacité à traiter ces flux en temps réel devient un atout stratégique. Les entreprises doivent non seulement adopter des outils adaptés, mais également repenser leurs processus internes pour tirer pleinement parti des opportunités offertes par l'analytics temps réel et les systèmes événementiels. La gouvernance des données, l'orchestration des flux et l'intégration des agents d'IA sont autant de défis à relever pour les organisations souhaitant naviguer efficacement dans cette nouvelle ère.

Fiche programme

Kafka 4, fantastique ?

  • Speakers : Damien Lucas (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 15:40 à 16:25 · Salle Paris 141

Cette présentation détaille les principales nouveautés de Kafka 4 : suppression de ZooKeeper au profit de KRaft, nouveau protocole de rééquilibrage, files d’attente coopératives, ainsi que les migrations techniques requises. Elle offre un guide clair pour adopter Kafka 4, destiné aux développeurs, architectes et administrateurs.

Kafka 4, fantastique ?

La sortie de Kafka 4 marque un tournant significatif dans l'évolution de cette plateforme de streaming. En supprimant ZooKeeper au profit de KRaft, Kafka 4 répond à des enjeux de scalabilité et de simplification de la gestion des clusters. Cette présentation, animée par Damien Lucas de Mirakl, explore les nouveautés majeures de cette version, offrant un guide pratique pour les développeurs, architectes et administrateurs souhaitant migrer vers cette nouvelle version.

Ce que présente le talk

La session se concentre sur les évolutions clés de Kafka 4, notamment :

  • La suppression de ZooKeeper et l’adoption de KRaft.
  • Un nouveau protocole de rééquilibrage pour améliorer la stabilité et la performance.
  • L'introduction de files d'attente coopératives pour des cas d'usage point-à-point.
  • Les migrations techniques nécessaires, y compris les mises à jour vers Java 11 et 17.

Points techniques importants

Suppression de ZooKeeper : Migration vers KRaft

L'un des changements les plus notables dans Kafka 4 est l'abandon de ZooKeeper au profit de KRaft (Kafka Raft). Ce changement vise à simplifier l'architecture de Kafka et à améliorer la scalabilité. KRaft utilise un algorithme de consensus basé sur Raft, permettant de stocker les métadonnées directement dans des topics Kafka. Cela réduit les goulets d'étranglement liés à la gestion des métadonnées et améliore la résilience du système.

Nouveau protocole de rééquilibrage

Le nouveau protocole de rééquilibrage introduit dans Kafka 4 optimise la gestion des groupes de consommateurs. Cela permet une meilleure stabilité et performance lors de la consommation des messages, en réduisant le temps nécessaire pour rééquilibrer les partitions entre les consommateurs.

Files d'attente coopératives

Kafka 4 introduit également des files d'attente coopératives, permettant une consommation point-à-point. Cela élargit les cas d'usage de Kafka, rendant la plateforme plus polyvalente pour différents types d'applications.

Migration technique

La migration vers Kafka 4 nécessite plusieurs mises à jour techniques :

  • Java : Les clients et les streams doivent être mis à jour vers Java 11, tandis que les brokers et les outils doivent passer à Java 17.
  • Log4j : La migration de Log4j vers Log4j2 est également requise.
  • Formats de message : Les anciens formats de message (V0 et V1) ne sont plus supportés pour l'écriture, le format V2 devenant le standard.

Observabilité et métriques

Kafka 4 a amélioré l'observabilité en intégrant des métriques plus robustes. Les utilisateurs peuvent désormais remonter des métriques personnalisées dans leurs systèmes d'observabilité, facilitant le suivi des performances et des comportements des applications.

Ce qu'il faut retenir

Kafka 4 représente une avancée majeure avec la suppression de ZooKeeper et l'introduction de KRaft, améliorant la scalabilité et la résilience. Les nouvelles fonctionnalités comme le protocole de rééquilibrage et les files d'attente coopératives augmentent la polyvalence de la plateforme. Les migrations techniques requises, bien que significatives, sont clairement documentées, facilitant l'adoption de cette nouvelle version.

Réflexions Darkwood

L'évolution de Kafka vers KRaft illustre une tendance plus large dans l'architecture des systèmes logiciels : la simplification et l'automatisation. En éliminant des composants complexes comme ZooKeeper, Kafka 4 permet aux développeurs de se concentrer sur l'optimisation des workflows et des performances. Cette transition vers des architectures plus intégrées et autonomes pourrait également influencer la manière dont les entreprises envisagent la gouvernance et la gestion des données, rendant les systèmes plus résilients et adaptables face aux défis futurs. L'impact sur l'industrie du développement est clair : la nécessité d'adopter des solutions plus agiles et moins dépendantes de composants externes devient primordiale pour rester compétitif.

Fiche programme

Another Brick in the WAL – Pourquoi la vitesse ne rime plus avec RAM

  • Speakers : Nicolas Wlodarczyk (LinkedIn), Pierre BERARD (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 10:30 à 11:15 · Salle Paris 242AB

Cette session explore comment Aerospike repense les bases de données en privilégiant une architecture optimisée pour les disques plutôt que la RAM, offrant des performances massives et une faible latence. Elle présente les principes techniques, des retours d’expérience concrets et une démonstration de cette approche « post-RAM » scalable et résiliente.

Another Brick in the WAL – Pourquoi la vitesse ne rime plus avec RAM

Dans un monde où la performance des bases de données est cruciale pour le succès des entreprises, la session présentée par Nicolas Wlodarczyk et Pierre Berard d'Aerospike aborde une question fondamentale : et si la RAM n'était plus le seul garant de la vitesse ? Cette conférence explore une approche novatrice qui privilégie l'architecture optimisée pour les disques, remettant en question les paradigmes établis dans le domaine des bases de données.

Ce que présente le talk

La session met en lumière comment Aerospike redéfinit les standards de performance des bases de données en s'appuyant sur une architecture "post-RAM". En se concentrant sur l'utilisation des disques, notamment des disques NVMe, Aerospike vise à offrir des performances massives avec une latence inférieure à la milliseconde. Les intervenants partagent des retours d'expérience concrets, notamment de clients tels qu'Adikteev et Criteo, et proposent une démonstration en direct de cette technologie.

Points techniques importants

Architecture et Ingénierie

L'architecture d'Aerospike repose sur une gestion intelligente des données, où la RAM est utilisée principalement pour stocker des index qui pointent vers les données sur disque. Ce modèle hybride permet de maximiser l'utilisation des disques tout en maintenant des temps d'accès rapides.

  • Hybride Memory Architecture : Utilisation de la RAM pour les index et des disques pour le stockage des données, permettant d'éliminer les goulets d'étranglement liés à la RAM.
  • Client Intelligent : Le client est constamment informé de la localisation des données, ce qui permet d'éliminer le besoin de balanceurs de charge et de proxies.

Performance et Scalabilité

Aerospike permet de traiter des millions de requêtes par seconde avec une latence très faible, grâce à une architecture conçue pour le traitement parallèle.

  • Latence sous la milliseconde : La conception permet de maintenir des latences prévisibles, même à grande échelle.
  • Réduction des nœuds : Des clients ayant migré vers Aerospike ont constaté une réduction significative du nombre de nœuds nécessaires pour atteindre des performances équivalentes, ce qui conduit à des économies substantielles en ressources.

Orchestration et Gestion Dynamique

La gestion dynamique des clusters est un autre point fort d'Aerospike. Lorsqu'un nouveau nœud est ajouté, la répartition des données est recalculée automatiquement, sans intervention manuelle.

  • Réplication : Aerospike propose à la fois des modes de réplication synchrone et asynchrone, garantissant la cohérence des données tout en permettant une résilience accrue.

Démonstration en Direct

La session inclut une démonstration technique où les intervenants montrent comment Aerospike peut gérer des millions de clés avec des latences mesurées en microsecondes, illustrant ainsi la puissance de leur architecture.

Ce qu'il faut retenir

  • Aerospike propose une approche radicalement différente de la gestion des bases de données, en se détachant du paradigme traditionnel qui privilégie la RAM.
  • L'utilisation optimisée des disques NVMe permet d'atteindre des performances élevées avec une latence faible, tout en réduisant le besoin en ressources matérielles.
  • La gestion dynamique des clusters et la réplication intelligente sont des atouts majeurs pour la scalabilité et la résilience des systèmes.

Réflexions Darkwood

La session sur Aerospike soulève des questions essentielles sur l'évolution des systèmes logiciels. Alors que les architectures modernes s'orientent vers une utilisation accrue de la mémoire, la proposition d'Aerospike de privilégier les disques pourrait redéfinir les standards de performance dans l'industrie.

L'automatisation et l'orchestration des clusters, couplées à une gestion efficace des données, permettent non seulement de réduire les coûts opérationnels, mais aussi d'améliorer la réactivité des systèmes face aux exigences croissantes des utilisateurs. Dans un contexte où les agents IA et les workflows deviennent de plus en plus complexes, cette approche pourrait bien être un facteur clé pour la réussite des infrastructures de données de demain.

Fiche programme

MLOps 🛠️ - Comprendre et combattre la dégradation des modèles en production

  • Speakers : Simon Poulet (LinkedIn)
  • Type : Lunch Talk
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 12:35 à 12:50 · Salle Paris 143

Cette présentation explique comment surveiller et maintenir les performances des modèles de machine learning après leur déploiement. Elle aborde les causes de dégradation (dérive, biais, évolution des données) et les actions correctives possibles, offrant aux participants une approche pratique du suivi en production, sans prérequis avancés en MLOps.

MLOps 🛠️ - Comprendre et combattre la dégradation des modèles en production

La session animée par Simon Poulet, ingénieur en machine learning chez AWS, aborde un enjeu crucial dans le domaine du machine learning : la dégradation des performances des modèles en production. Alors que le déploiement d'un modèle peut sembler être la fin d'un processus, il s'agit en réalité d'un début, où la surveillance et l'ajustement continu deviennent essentiels. Ce talk s'inscrit dans un contexte où les entreprises cherchent à maximiser l'efficacité de leurs systèmes d'intelligence artificielle, tout en minimisant les impacts négatifs sur la qualité du service.

Ce que présente le talk

La présentation se concentre sur les défis liés à la dégradation des modèles de machine learning après leur déploiement. Simon Poulet explique comment surveiller et maintenir les performances des modèles, en identifiant les causes de dégradation telles que la dérive des données, les biais et l'évolution des comportements des utilisateurs. L'objectif est de fournir une approche pratique pour le suivi en production, accessible même aux débutants en MLOps.

Points techniques importants

Dégradation des modèles

Les modèles de machine learning peuvent afficher d'excellentes performances lors des phases d'entraînement et de validation, mais leur efficacité peut diminuer en production. Simon évoque plusieurs raisons pour lesquelles cette dégradation peut survenir :

  • Dérive des données (Data Drift) : Changement dans la distribution des données d'entrée entre l'entraînement et l'inférence.
  • Dérive du concept (Concept Drift) : Évolution des relations entre les variables d'entrée et de sortie au fil du temps.

Surveillance des performances

Pour contrer la dégradation des modèles, il est crucial de mettre en place des mécanismes de surveillance :

  • Suivi en temps réel : Utilisation de tests statistiques pour comparer les distributions des données d'entrée en production avec celles utilisées lors de l'entraînement.
  • Métriques de performance : Évaluation continue des performances du modèle à l'aide de métriques telles que la précision, pour détecter les anomalies.

Actions correctives

Lorsque des dégradations sont identifiées, plusieurs actions peuvent être envisagées :

  • Réentraînement du modèle : Utiliser de nouvelles données pour ajuster le modèle, ou combiner anciennes et nouvelles données.
  • Conception d'un nouveau modèle : Si les comportements ont changé de manière significative, il peut être nécessaire de redémarrer le processus de modélisation.
  • Redéploiement : Suivre les bonnes pratiques du MLOps pour assurer une transition fluide entre les modèles.

Ce qu'il faut retenir

La dégradation des modèles en production est un phénomène courant, mais évitable grâce à une surveillance proactive et des actions correctives appropriées. La compréhension des causes de cette dégradation, ainsi que la mise en place de mécanismes de suivi, sont essentielles pour maintenir la qualité des services basés sur le machine learning.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une plus grande complexité et interconnexion nécessite une attention accrue à la gouvernance des modèles de machine learning. L'automatisation des processus de surveillance et de réentraînement, ainsi que l'utilisation d'agents IA pour détecter et corriger les dérives, deviennent des éléments clés pour assurer la pérennité des systèmes. À mesure que les architectures modernes se développent, l'intégration de ces pratiques dans les workflows de développement pourrait transformer la manière dont les entreprises gèrent leurs modèles de machine learning, tout en minimisant les risques associés à la dégradation des performances.

Fiche programme

TemBoard : L’outil open source tout-en-un pour vos parc d'instances PostgreSQL

  • Speakers : Pierre-Louis Gonon (LinkedIn)
  • Type : Lunch Talk
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 12:35 à 12:50 · Salle Neuilly 153

Découvrez comment TemBoard, outil open source, facilite la surveillance, la maintenance et la gestion centralisée des instances PostgreSQL grâce à une interface web et des automatisations. Ce talk avec démonstration live s’adresse aux DBAs, DevOps et développeurs backend souhaitant optimiser leurs parcs PostgreSQL.

TemBoard : L’outil open source tout-en-un pour vos parcs d'instances PostgreSQL

Dans un écosystème où la gestion des bases de données devient de plus en plus complexe, la nécessité d'outils efficaces pour la surveillance et la maintenance des instances PostgreSQL est cruciale. Le talk de Pierre-Louis Gonon, développeur chez Dalibo, présente TemBoard, une solution open source qui promet de centraliser et d'optimiser la gestion des parcs PostgreSQL.

Ce que présente le talk

TemBoard se positionne comme un outil de gestion tout-en-un pour les instances PostgreSQL, permettant aux DBAs, DevOps et développeurs backend de surveiller, maintenir et administrer leurs bases de données via une interface web intuitive. Le talk met en avant les fonctionnalités clés de TemBoard, notamment la surveillance en temps réel, les alertes intelligentes, et la gestion des configurations, le tout facilité par une démonstration en direct.

Points techniques importants

Architecture de TemBoard

L'architecture de TemBoard repose sur deux composants principaux :

  • L'agent : Installé sur chaque instance PostgreSQL, cet agent est responsable de la collecte des données et de l'exécution des tâches de maintenance. Il est léger, avec peu de dépendances, et nécessite un utilisateur super utilisateur pour fonctionner.
  • Le serveur TemBoard : Ce composant centralisé collecte les données des agents et les présente via une interface web. Il nécessite une base de données PostgreSQL pour stocker ses propres données.

Fonctionnalités clés

Surveillance et alertes

TemBoard offre une vue d'ensemble des instances avec des indicateurs de santé visuels. Les utilisateurs peuvent rapidement identifier les problèmes grâce à un système de couleurs qui signale les alertes critiques et les warnings. Les alertes peuvent être configurées pour être envoyées par SMS ou email, permettant une réaction rapide en cas de problème.

Gestion des sessions et des requêtes

L'onglet "Activity" permet de visualiser les requêtes en cours, celles en attente et celles qui sont bloquantes. Les utilisateurs peuvent directement terminer une requête bloquante depuis l'interface, évitant ainsi les complexités liées à l'utilisation de PG Stat Activity.

Maintenance et optimisation

TemBoard facilite les tâches de maintenance, telles que le vacuum et l'analyse des tables, en permettant aux utilisateurs de cibler des tables spécifiques plutôt que de devoir traiter l'ensemble de la base de données. Cela optimise les performances et réduit les temps d'arrêt.

Historisation des requêtes

L'onglet "Statement" utilise l'extension PG Stat Statement pour collecter des données sur les requêtes exécutées. TemBoard améliore cette fonctionnalité en permettant aux utilisateurs d'analyser des périodes spécifiques, facilitant ainsi l'identification des requêtes problématiques.

Intégration et communauté

TemBoard est un projet open source, ce qui permet aux utilisateurs de contribuer, de forker et d'améliorer l'outil. La communauté active autour de TemBoard assure un soutien continu et une mise à jour régulière des fonctionnalités.

Ce qu'il faut retenir

TemBoard se présente comme une solution robuste pour la gestion des instances PostgreSQL, centralisant la surveillance et l'administration via une interface web. Ses fonctionnalités de monitoring, d'alerte, et de maintenance ciblée en font un outil précieux pour les professionnels souhaitant optimiser leur gestion des bases de données.

Réflexions Darkwood

L'essor d'outils comme TemBoard témoigne d'une évolution significative dans la gestion des systèmes logiciels, où l'automatisation et la centralisation des tâches deviennent essentielles. Dans un monde où les données sont au cœur des décisions stratégiques, la capacité à surveiller et à maintenir efficacement les bases de données est primordiale. TemBoard illustre également l'importance croissante des communautés open source dans le développement d'outils robustes et adaptés aux besoins des utilisateurs. À mesure que les architectures modernes évoluent vers des systèmes distribués, des solutions comme TemBoard pourraient jouer un rôle clé dans l'orchestration et la gouvernance des données, facilitant ainsi le passage à des workflows plus automatisés et intelligents.

Fiche programme

PostgreSQL Analytics : It's a Trap!

  • Speakers : Lætitia Avrot (LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : ADVANCED
  • Langue : French
  • Créneau : 23/04/2026, 15:40 à 16:25 · Salle Paris 143

Cette présentation déconstruit le mythe selon lequel PostgreSQL serait inadapté à l’analytique. Elle examine ses réels points faibles, les apports de PostgreSQL 18, les limites des benchmarks classiques et interroge la pertinence des migrations vers d’autres moteurs quand Postgres, bien configuré, suffit souvent à la majorité des usages.

PostgreSQL Analytics : It's a Trap !

La session présentée par Lætitia Avrot lors de la conférence sur les données et l'analytique remet en question une idée reçue largement répandue : PostgreSQL serait inadapté à l'analytique. À une époque où les migrations vers des solutions OLAP comme ClickHouse ou Snowflake sont devenues monnaie courante, cette présentation offre une analyse approfondie des capacités réelles de PostgreSQL, notamment avec sa version 18, et interroge la pertinence de ces choix technologiques.

Ce que présente le talk

Lætitia Avrot aborde la perception erronée selon laquelle PostgreSQL ne serait pas capable de gérer des workloads analytiques. En déconstruisant cette idée, elle met en lumière les véritables limitations de PostgreSQL, tout en soulignant les améliorations apportées par la version 18. Elle critique également les benchmarks traditionnels qui biaisent souvent la réalité des performances des systèmes de gestion de bases de données.

Points techniques importants

Architecture de PostgreSQL

PostgreSQL est principalement conçu comme un moteur de base de données relationnelles orienté ligne. Cela signifie que lors de la lecture de données, l'ensemble de la ligne est chargé, même si seules quelques colonnes sont nécessaires. Ce comportement entraîne des inefficacités, notamment :

  • Problèmes de cache : La lecture de lignes entières peut provoquer de nombreux "cache misses", ce qui impacte les performances, surtout pour les requêtes analytiques qui ne nécessitent qu'une fraction des données.
  • Amplification des opérations d'entrée/sortie (AO) : En raison de la nécessité de lire des lignes complètes, les opérations d'entrée/sortie peuvent devenir un goulet d'étranglement.

Améliorations de PostgreSQL 18

La version 18 de PostgreSQL introduit plusieurs améliorations significatives :

  • IONG (Input/Output Next Generation) : Cette fonctionnalité vise à réduire le temps d'attente entre les lectures de lignes, améliorant ainsi les performances des workloads analytiques.
  • Index Scan : Cette nouvelle méthode permet d'optimiser les requêtes en évitant de lire des colonnes inutiles, ce qui réduit le volume de données à traiter.

Comparaison avec d'autres systèmes

Lætitia compare PostgreSQL à des systèmes comme ClickHouse et DuckDB, qui sont spécifiquement conçus pour l'analytique. Voici quelques points clés :

  • Stockage en colonne vs. stockage en ligne : Les bases de données OLAP comme ClickHouse stockent les données en colonnes, ce qui permet une compression plus efficace et des lectures plus rapides lorsque seules certaines colonnes sont requises.
  • Garantie ACID : PostgreSQL offre des garanties de transactionnalité (ACID), ce qui peut être un compromis dans des environnements où la rapidité est primordiale.

Modélisation des données

Lætitia souligne l'importance cruciale de la modélisation des données pour les performances. Une mauvaise modélisation peut annuler les avantages d'un moteur de base de données performant. Elle insiste sur le fait que :

  • Normalisation vs. dénormalisation : Bien que la normalisation soit essentielle pour garantir la qualité des données, la dénormalisation peut être nécessaire pour optimiser les performances analytiques. Cela doit être fait avec soin pour éviter des lectures inefficaces.

Ce qu'il faut retenir

  • PostgreSQL, lorsqu'il est bien configuré et utilisé avec une modélisation adéquate, peut gérer efficacement des workloads analytiques.
  • Les améliorations de PostgreSQL 18 apportent des optimisations significatives qui le rendent plus compétitif face aux solutions OLAP.
  • Les benchmarks traditionnels peuvent ne pas refléter fidèlement les performances réelles des systèmes de bases de données.

Réflexions Darkwood

La discussion sur PostgreSQL et son adéquation pour l'analytique s'inscrit dans une tendance plus large de l'industrie, où la spécialisation des systèmes est souvent privilégiée. Cependant, cette spécialisation peut entraîner une complexité accrue dans la gestion des infrastructures. À l'ère des architectures modernes, où l'automatisation et l'orchestration jouent un rôle crucial, il est essentiel de réévaluer les choix technologiques en fonction des besoins réels des workloads.

Les systèmes hybrides, capables de gérer à la fois des transactions et des analyses, pourraient devenir la norme, réduisant ainsi la nécessité de migrations complexes entre différents moteurs de bases de données. Dans ce contexte, la capacité de PostgreSQL à évoluer et à s'adapter aux exigences analytiques pourrait bien en faire un choix durable pour de nombreuses entreprises.

Fiche programme

Comment la Petite Souris gère ses milliards de dents avec TimescaleDB

  • Speakers : David Torres Dias (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 17:00 à 17:30 · Salle Neuilly 251

Ce talk présente, via une métaphore ludique, la gestion efficace de milliards d’événements IoT avec TimescaleDB : configuration, hypertables, requêtes optimisées, compression, continuous aggregates, et retour d’expérience sur 7 ans de production. Des solutions concrètes et éprouvées pour tout niveau d’utilisation sont proposées.

Comment la Petite Souris gère ses milliards de dents avec TimescaleDB

Dans un monde où la gestion des données temporelles devient cruciale, le talk de David Torres Dias sur l'utilisation de TimescaleDB pour gérer des milliards d'événements IoT se démarque. En utilisant une métaphore ludique, il illustre comment cette technologie peut transformer des défis complexes en solutions simples et efficaces.

Ce que présente le talk

David Torres Dias, développeur chez Karnott, partage son expérience de sept ans avec TimescaleDB, une extension de PostgreSQL conçue pour gérer des séries temporelles. À travers l'exemple de la Petite Souris qui collecte des dents, il aborde les concepts clés de TimescaleDB, y compris la configuration des hypertables, les requêtes optimisées, la compression des données, et les agrégations continues.

Points techniques importants

Hypertables et Configuration

L'un des concepts centraux de TimescaleDB est l'hypertable. David explique que pour créer une hypertable, il suffit d'une table classique avec un champ timestamp. En utilisant la commande CREATE HYPERTABLE, il est possible de partitionner les données par temps et par d'autres dimensions, comme le pays. Cette approche permet de gérer efficacement de grandes quantités de données, comme les 37 milliards d'entrées de Karnott.

Requêtes temporelles optimisées

Les requêtes temporelles sont au cœur de l'analyse des données IoT. David présente plusieurs fonctions utiles, notamment time_bucket, qui simplifie le regroupement des données par intervalles de temps. Il met également en avant time_bucket_gap_fill, qui remplit les intervalles manquants, facilitant ainsi l'analyse continue des données.

Compression des données

La compression est un autre aspect crucial pour gérer des volumes de données massifs. TimescaleDB offre une fonctionnalité de compression qui permet de stocker les données en mode colonne, réduisant ainsi l'espace nécessaire. David souligne que cette compression peut être automatisée, permettant de libérer de l'espace sans intervention manuelle.

Agrégations continues

Les agrégations continues permettent d'obtenir des résultats en temps réel sans sacrifier la performance. David explique comment créer des vues matérialisées qui se mettent à jour automatiquement, offrant ainsi des statistiques précises sur les données collectées. Cela est particulièrement utile pour des applications nécessitant des données à jour, comme le suivi des dents collectées par la Petite Souris.

Retour d'expérience

David partage des insights précieux sur l'utilisation de TimescaleDB en production. Avec des millions de requêtes quotidiennes, il souligne l'importance de la performance et de la scalabilité. Les solutions mises en œuvre chez Karnott ont permis de gérer efficacement des données massives tout en garantissant une réponse rapide aux requêtes.

Ce qu'il faut retenir

  • Hypertables : Facilite la gestion des séries temporelles en partitionnant les données.
  • Requêtes optimisées : Utilisation de fonctions comme time_bucket et time_bucket_gap_fill pour simplifier l'analyse temporelle.
  • Compression : Réduction significative de l'espace de stockage grâce à la compression en mode colonne.
  • Agrégations continues : Permettent d'obtenir des statistiques en temps réel sans impact sur la performance.
  • Expérience pratique : Retour d'expérience sur l'utilisation de TimescaleDB dans un environnement de production avec des milliards de données.

Réflexions Darkwood

L'approche de TimescaleDB pour gérer des données temporelles s'inscrit dans une tendance plus large vers l'automatisation et l'optimisation des workflows de données. À mesure que les systèmes deviennent plus complexes, des solutions comme celles présentées par David permettent de simplifier la gestion des données tout en garantissant des performances optimales. L'intégration d'agents IA pour l'analyse prédictive et l'optimisation des requêtes pourrait être une prochaine étape logique pour les entreprises cherchant à tirer parti de leurs données. En fin de compte, la capacité à gérer efficacement des volumes massifs de données temporelles pourrait redéfinir les architectures modernes et influencer les pratiques de gouvernance des données dans l'industrie.

Fiche programme

Observabilité PostgreSQL : la configuration des logs qui change tout.

  • Speakers : Alain Lesage (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 17:50 à 18:20 · Salle Paris 143

Cette session explique comment transformer les logs PostgreSQL, souvent sous‑exploités, en une source d’observabilité riche et historique. Avec une configuration adaptée, il devient possible d’analyser les performances, d’identifier verrous, requêtes lentes ou fréquentes, et d’optimiser ses applications sans outils externes complexes ni tableaux de bord coûteux.

Observabilité PostgreSQL : la configuration des logs qui change tout

L'observabilité des systèmes de bases de données est devenue un enjeu crucial dans le développement d'applications modernes. Dans ce contexte, la session présentée par Alain Lesage lors de la conférence sur les outils d'analyse de données s'est concentrée sur l'optimisation des logs PostgreSQL, souvent négligés. Cette session est particulièrement pertinente pour les développeurs et les DBA qui cherchent à améliorer la performance de leurs applications sans recourir à des outils externes complexes.

Ce que présente le talk

Alain Lesage met en lumière l'importance de configurer correctement les logs PostgreSQL pour en faire une source d'observabilité riche. Il explique comment, avec une configuration adéquate, il est possible d'analyser les performances, d'identifier les verrous, les requêtes lentes ou fréquentes, et d'optimiser les applications sans avoir besoin d'outils coûteux ou de tableaux de bord complexes.

Points techniques importants

Observabilité et logs

L'observabilité est définie comme la capacité à comprendre l'état d'un système à partir des données qu'il génère. Dans le cas de PostgreSQL, cela implique d'exploiter les logs pour obtenir des informations critiques sur les performances et les comportements des requêtes. Lesage souligne que, par défaut, les logs sont souvent sous-exploités, rendant difficile l'identification des problèmes de performance.

Configuration des logs

Lesage aborde plusieurs paramètres essentiels pour configurer les logs PostgreSQL :

  • log_min_duration_statement : Ce paramètre permet de spécifier un seuil de temps d'exécution au-delà duquel les requêtes sont enregistrées. Cela aide à identifier les requêtes lentes.

  • log_statement : En configurant ce paramètre, il est possible de loguer toutes les requêtes ou uniquement celles qui modifient les données, offrant ainsi une granularité dans l'observabilité.

  • Format des logs : L'utilisation de formats comme JSON ou CSV est recommandée, car ils incluent des métadonnées utiles pour l'analyse.

Outils d'observabilité

Lesage mentionne également les outils d'observabilité disponibles pour PostgreSQL, comme les vues système et les extensions. Il souligne que ces outils, bien que puissants, nécessitent souvent des configurations complexes et peuvent être coûteux à mettre en œuvre.

Avantages des logs configurés

Une fois les logs correctement configurés, ils deviennent une source d'information précieuse. Lesage insiste sur le fait que les logs permettent de répondre à des questions critiques, telles que :

  • Quelles requêtes sont en attente de libération d'un verrou ?
  • Quels clients sollicitent le plus l'instance de base de données ?
  • Quelles sont les requêtes les plus fréquentes et pourquoi sont-elles lentes ?

Ce qu'il faut retenir

La session met en avant l'importance de la configuration des logs PostgreSQL comme un levier d'observabilité. Une configuration adéquate permet non seulement d'identifier les problèmes de performance, mais aussi d'optimiser les applications sans dépendre d'outils externes. Les logs, souvent sous-estimés, peuvent devenir une véritable richesse d'informations si exploités correctement.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une plus grande observabilité est indéniable. La capacité à analyser les logs en temps réel et à en tirer des conclusions pertinentes est essentielle dans un monde où l'automatisation et l'IA prennent de plus en plus de place. Les logs configurés de manière optimale peuvent servir de fondation pour des workflows d'observabilité avancés, permettant ainsi une orchestration efficace des ressources et une gouvernance améliorée des systèmes. À mesure que les architectures modernes évoluent, l'importance d'une observabilité intégrée et accessible ne fera que croître, rendant les systèmes plus résilients et réactifs aux besoins des utilisateurs.

Fiche programme

Et si on ouvrait le capot de PostgreSQL ?

  • Speakers : Benjamin Coenen (X · LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 10:30 à 11:15 · Salle Neuilly 252AB

Et si on ouvrait le capot de PostgreSQL ?

Dans un contexte où les bases de données relationnelles continuent de jouer un rôle central dans l'architecture des systèmes d'information, comprendre les internals de PostgreSQL devient essentiel pour les développeurs et architectes. Cette session, animée par Benjamin Coenen de Supabase, propose une exploration approfondie de la manière dont PostgreSQL fonctionne, en mettant en lumière ses mécanismes internes, sa performance et sa tolérance aux pannes.

Ce que présente le talk

La présentation se concentre sur les internals de PostgreSQL, une des bases de données les plus populaires et robustes. Benjamin Coenen nous guide à travers le fonctionnement interne de PostgreSQL, en partant d'une simple requête SQL pour illustrer les différentes étapes de traitement des données. Le but est d'offrir aux participants une compréhension des concepts clés qui sous-tendent la performance et la fiabilité de PostgreSQL, tout en rendant ces notions accessibles même aux utilisateurs non-experts.

Points techniques importants

Architecture et organisation des données

PostgreSQL est conçu pour être un système de gestion de bases de données multi-utilisateurs, capable de gérer plusieurs bases de données sur un même serveur. Chaque base de données contient des objets tels que des tables, des index et des vues, tous référencés par des Object IDs (OID). Cette structure permet une gestion efficace des données, facilitant l'accès et la manipulation.

Structure de fichiers

La structure des fichiers de PostgreSQL est essentielle pour comprendre comment les données sont stockées. Les fichiers de données sont organisés dans un répertoire spécifique, où chaque base de données a son propre sous-répertoire identifié par son OID. Les fichiers sont également dotés de Free Space Maps (FSM) et de Visibility Maps (VM), qui permettent de gérer l'espace libre et la visibilité des données, respectivement.

Traitement des requêtes

Le traitement des requêtes dans PostgreSQL implique plusieurs étapes, dont le Query Planner, qui détermine le meilleur plan d'exécution pour une requête donnée. Bien que ce sujet n'ait pas été approfondi lors de la session, il est crucial pour optimiser les performances des requêtes.

Concurrence et MVCC

Un des aspects les plus intéressants de PostgreSQL est son modèle de contrôle de concurrence multiversion (MVCC). Ce modèle permet à plusieurs transactions de se produire simultanément sans interférer les unes avec les autres, offrant ainsi une meilleure performance et une expérience utilisateur fluide. MVCC utilise des tuples pour représenter les données, permettant de gérer efficacement les opérations de lecture et d'écriture.

Gestion des transactions et crash recovery

Le Write Ahead Log (WAL) est un autre élément clé de la robustesse de PostgreSQL. Il permet de garantir la durabilité des transactions en enregistrant toutes les modifications avant qu'elles ne soient appliquées aux fichiers de données. En cas de crash, PostgreSQL peut récupérer l'état de la base de données en se basant sur les informations contenues dans le WAL.

Vacuum Processing

Le processus de vacuum est essentiel pour maintenir la performance de la base de données en nettoyant les tuples obsolètes et en libérant l'espace inutilisé. Ce processus est crucial pour éviter la fragmentation et garantir que la base de données reste performante au fil du temps.

Ce qu'il faut retenir

  • PostgreSQL est une base de données relationnelle robuste, capable de gérer des charges de travail complexes grâce à son architecture multi-utilisateurs.
  • La structure des fichiers et l'utilisation des OIDs sont fondamentales pour la gestion des données.
  • Le modèle MVCC permet une concurrence efficace, tandis que le WAL assure la durabilité des transactions.
  • Le processus de vacuum est essentiel pour maintenir la performance et éviter la fragmentation.

Réflexions Darkwood

L'exploration des internals de PostgreSQL met en lumière l'évolution des systèmes de gestion de bases de données. À une époque où l'automatisation et l'orchestration des workflows deviennent des priorités, comprendre les mécanismes sous-jacents des bases de données est crucial. Les modèles de concurrence comme MVCC et les stratégies de récupération après sinistre, tels que le WAL, illustrent comment les systèmes modernes s'efforcent de garantir la disponibilité et la performance. À mesure que l'industrie évolue, l'intégration de l'intelligence artificielle et des agents autonomes dans ces systèmes pourrait transformer la manière dont nous interagissons avec les bases de données, rendant leur gestion encore plus intuitive et efficace.

Fiche programme

SQL vs Les Préjugés

  • Speakers : Lætitia Avrot (LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 13:30 à 14:15 · Salle Paris 141

Cette présentation, sous forme de procès humoristique, réhabilite SQL face à ses détracteurs. L’experte PostgreSQL démontre, par des exemples concrets et des cas réels, que ses fonctionnalités avancées sont modernes, puissantes et pratiques. Elle invite le public à reconsidérer SQL comme une solution élégante plutôt qu’un langage dépassé.

SQL vs Les Préjugés : Une Défense Passionnée du Langage

Dans un monde où les données sont omniprésentes, le langage SQL est souvent mal compris et sous-estimé. La conférence "SQL vs Les Préjugés", animée par Lætitia Avrot, experte PostgreSQL, se positionne comme une réhabilitation de ce langage face à ses détracteurs. À travers une approche humoristique et des exemples concrets, Avrot démontre que SQL, loin d'être obsolète, est une solution moderne et élégante pour la gestion des données.

Ce que présente le talk

La présentation prend la forme d'un procès humoristique où SQL est mis en accusation pour des crimes tels que la complexité, la verbosité et l'obsolescence. Lætitia Avrot, en tant qu'avocate de SQL, présente des preuves et des cas d'utilisation qui montrent comment les fonctionnalités avancées de SQL peuvent résoudre des problèmes pratiques rencontrés par les développeurs. L'objectif est de faire reconsidérer le langage SQL comme un outil puissant plutôt qu'un vestige du passé.

Points techniques importants

Complexité et Verbosité

L'un des principaux arguments contre SQL est sa complexité perçue. Avrot souligne que cette complexité est souvent le résultat d'une mauvaise utilisation. Par exemple, elle explique comment des requêtes inefficaces, comme des mises à jour massives effectuées une par une, peuvent être optimisées en utilisant des requêtes ensemblistes. En utilisant SQL pour effectuer des mises à jour en une seule requête, les développeurs peuvent réduire le nombre de connexions à la base de données et améliorer les performances.

Common Table Expressions (CTE)

Les CTE, ou "Common Table Expressions", sont présentées comme une solution élégante pour améliorer la lisibilité des requêtes. Avrot explique que les CTE permettent de structurer les requêtes de manière plus intuitive, rendant le code plus facile à lire et à maintenir. Cela contraste avec l'utilisation de sous-requêtes imbriquées, souvent difficiles à suivre.

Optimisation des Requêtes

Avrot aborde également des techniques d'optimisation, telles que l'utilisation de la clause RETURNING pour récupérer des données après des opérations d'insertion ou de mise à jour. Cela permet de réduire le nombre d'allers-retours entre l'application et la base de données, améliorant ainsi les performances globales.

Gestion des Transactions

La gestion des transactions est un autre point fort de SQL. Avrot souligne l'importance des transactions atomiques, qui garantissent que toutes les modifications sont appliquées ou aucune ne l'est. Cela est crucial pour maintenir l'intégrité des données, surtout lors de mises à jour massives ou de suppressions.

Comparaison avec d'autres technologies

Lætitia Avrot aborde également les critiques selon lesquelles SQL serait dépassé par des technologies modernes comme les ORM ou NoSQL. Elle argue que chaque technologie a ses propres cas d'utilisation et que SQL reste pertinent, notamment pour des opérations complexes sur des ensembles de données.

Ce qu'il faut retenir

  • SQL est souvent mal compris et jugé trop complexe, mais cette complexité peut être maîtrisée avec de bonnes pratiques.
  • Les CTE améliorent la lisibilité et la maintenabilité des requêtes.
  • L'utilisation de fonctionnalités avancées comme RETURNING et les transactions atomiques peut considérablement améliorer les performances et la sécurité des opérations.
  • SQL n'est pas obsolète ; il reste un outil puissant et pertinent dans le paysage technologique actuel.

Réflexions Darkwood

La défense de SQL par Lætitia Avrot soulève des questions importantes sur l'évolution des systèmes logiciels et l'automatisation des workflows. Alors que les technologies évoluent, il est essentiel de ne pas jeter le bébé avec l'eau du bain. SQL, avec ses fonctionnalités avancées, reste un pilier fondamental pour la gestion des données, même à l'ère des architectures modernes et des agents IA. L'intégration de SQL dans des systèmes automatisés et orchestrés peut offrir des solutions robustes et efficaces, prouvant que ce langage, loin d'être un vestige, est un acteur clé dans la transformation numérique des entreprises.

Fiche programme

Semantic Layer : faire parler vos données avec l'IA sans hallucinations

  • Speakers : Vincent Heuschling (LinkedIn)
  • Type : Conference
  • Niveau : ADVANCED
  • Langue : French
  • Créneau : 24/04/2026, 15:40 à 16:25 · Salle Paris 143

Cette session montre comment fiabiliser l’usage des LLMs sur les bases de données en introduisant une couche sémantique décrivant métriques et logiques métier. À travers outils et démos, elle illustre la transformation d’une question naturelle en requête SQL fiable grâce à une compréhension structurée des données.

Semantic Layer : faire parler vos données avec l'IA sans hallucinations

L'intégration des modèles de langage (LLMs) dans le domaine de l'analyse des données est un sujet brûlant dans l'écosystème actuel. La promesse d'interroger des bases de données à l'aide de questions en langage naturel est séduisante, mais elle soulève également des défis majeurs, notamment en termes de fiabilité des réponses. La session présentée par Vincent Heuschling aborde ces enjeux en proposant une solution : l'introduction d'une couche sémantique pour structurer et clarifier les données avant leur traitement par l'IA.

Ce que présente le talk

Vincent Heuschling explique comment fiabiliser l'usage des LLMs sur les bases de données en introduisant une couche sémantique. Cette couche décrit les métriques et les logiques métier, permettant ainsi de transformer des questions naturelles en requêtes SQL fiables. À travers des démonstrations et des outils comme dbt Semantic Layer et Cube.dev, il illustre la construction d'une architecture qui rend les données compréhensibles pour l'IA.

Points techniques importants

Contexte et Problématique

L'utilisation des LLMs dans le domaine de la Business Intelligence (BI) présente des défis, notamment lorsque les utilisateurs tentent d'interroger des bases de données avec des schémas complexes et des colonnes cryptiques. Sans un contexte métier clair, le LLM est susceptible de produire des résultats erronés, ce qui est désigné comme "hallucination".

La Couche Sémantique

La solution proposée repose sur l'implémentation d'une couche sémantique qui agit comme un traducteur entre les données et l'IA. Cette couche permet de :

  • Décrire les données : Fournir des définitions claires des métriques, des dimensions et des relations entre les tables.
  • Établir des règles de calcul : Définir comment les métriques doivent être calculées, ce qui est crucial pour garantir la cohérence des résultats.
  • Documenter les données : Intégrer une documentation qui aide à comprendre les limites d'utilisation des données.

Outils et Approches

Heuschling présente plusieurs outils pour construire cette couche sémantique :

  • dbt Semantic Layer : Permet de modéliser des données SQL avec une couche sémantique intégrée.
  • Cube.dev : Outil dédié à la création de couches sémantiques avec une API interrogeable.
  • Looker ML et Maloy : Outils de Google pour le reporting et la modélisation sémantique.
  • Approches custom : Utilisation de YAML et de moteurs maison pour construire des modèles sémantiques adaptés.

Architectures Possibles

Heuschling décrit plusieurs niveaux d'architecture pour intégrer la couche sémantique avec les LLMs :

  1. Niveau Basique : Le LLM interroge directement la couche sémantique pour générer des requêtes SQL.
  2. Niveau Intermédiaire : Le LLM interprète la question et interroge une API qui expose les métriques, garantissant ainsi une plus grande détermination.
  3. Niveau Avancé : Construction d'agents LLM capables d'itérer et d'interagir de manière plus riche avec les utilisateurs, tout en s'appuyant sur le même modèle sémantique.

Ce qu'il faut retenir

La mise en place d'une couche sémantique est essentielle pour garantir la fiabilité des réponses fournies par les LLMs lorsqu'ils interagissent avec des bases de données. Cette approche permet d'éviter les erreurs d'interprétation et d'hallucination en fournissant un cadre structuré et documenté pour les données.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une intégration plus fluide de l'intelligence artificielle dans les workflows de données souligne l'importance de la gouvernance des données. La couche sémantique ne se limite pas à un simple outil technique, mais représente un changement de paradigme dans la manière dont nous concevons l'interaction entre les utilisateurs et les données. À mesure que les agents IA deviennent plus sophistiqués, la nécessité d'une documentation claire et d'une structure sémantique robuste sera cruciale pour garantir des résultats fiables et pertinents. Cette tendance vers l'automatisation et l'orchestration des flux de données pourrait transformer radicalement l'industrie du développement, en rendant les processus décisionnels plus agiles et basés sur des données fiables.

Fiche programme

Polars, la fin de Spark ?

  • Speakers : franck cussac
  • Type : Tools-in-Action
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 17:00 à 17:30 · Salle Paris 241

Polars, la fin de Spark ?

Dans un écosystème de données en constante évolution, le choix de la technologie de traitement est crucial. La session animée par Franck Cussac, consultant chez Hymaïa, aborde une question brûlante : Polars pourrait-il remplacer Spark comme référence en matière de traitement de données massives ? Ce talk met en lumière les performances, la simplicité d'utilisation et l'efficacité de Polars, tout en proposant une comparaison directe avec Spark.

Ce que présente le talk

Franck Cussac introduit Polars comme une alternative moderne à Apache Spark, souvent considéré comme le standard de facto pour le traitement de grandes volumétries de données. Il s'agit d'une analyse comparative qui vise à démontrer pourquoi Polars pourrait représenter l'avenir du traitement de données, en se concentrant sur des aspects tels que la performance et l'optimisation des ressources.

Points techniques importants

Architecture et Performance

Polars se distingue par son architecture optimisée, utilisant le langage Rust pour maximiser les performances. Il exploite le multithreading et les opérations vectorisées, ce qui permet de traiter des colonnes entières simultanément, contrairement à Spark qui, bien que distribué, souffre d'un temps d'initialisation plus long et d'une latence accrue pour les petites volumétries.

  • Multithreading : Polars utilise tous les cœurs d'un processeur pour effectuer des opérations en parallèle, ce qui améliore considérablement la vitesse de traitement.
  • Opérations vectorisées : Au lieu de traiter une valeur à la fois, Polars applique des transformations sur des colonnes entières, optimisant ainsi les performances.

Comparaison avec Spark

Spark, quant à lui, est un moteur de calcul distribué qui excelle dans le traitement de très grandes volumétries de données. Cependant, il est souvent jugé trop lourd pour des tâches de faible à moyenne volumétrie. Franck souligne que :

  • Temps d'initialisation : Spark nécessite un temps d'initialisation plus long, ce qui peut être un inconvénient pour des traitements rapides.
  • Lazy Evaluation : Spark utilise un modèle d'évaluation paresseux, ce qui signifie qu'il n'effectue des calculs que lorsque cela est nécessaire, mais cela peut également entraîner des inefficacités dans certains scénarios.

Scénarios de Test

Cussac présente plusieurs scénarios de test sur des volumétries allant de 10 millions à 10 milliards de lignes, exécutés sur un cluster Kubernetes sur AWS. Les résultats montrent que Polars est généralement deux fois plus rapide que Spark pour des tâches simples, comme les opérations de group by et les joins optimisés.

  • Groupe par : Polars a montré une performance supérieure, traitant les données en deux fois moins de temps que Spark.
  • Join large : Bien que Spark soit conçu pour gérer de grandes quantités de données, Polars a réussi à rivaliser dans des scénarios où la volumétrie n'était pas extrême.

Outils et Orchestration

L'utilisation de Daxter pour orchestrer les jobs a permis de mesurer le temps d'exécution de manière précise, soulignant l'importance de l'orchestration dans le traitement des données modernes. L'intégration d'outils d'orchestration est essentielle pour garantir l'efficacité des workflows de données.

Ce qu'il faut retenir

  • Polars est une alternative performante à Spark pour des volumétries de données faibles à intermédiaires.
  • L'architecture de Polars, basée sur Rust, lui confère des avantages significatifs en termes de vitesse et d'efficacité.
  • Spark reste pertinent pour le traitement de très grandes volumétries, mais son utilisation peut être excessive pour des tâches moins exigeantes.
  • Les outils d'orchestration comme Daxter jouent un rôle crucial dans la gestion des workflows de données.

Réflexions Darkwood

L'évolution des systèmes de traitement de données vers des architectures plus légères et efficaces, comme celle de Polars, souligne une tendance vers l'automatisation et l'optimisation des ressources. À mesure que les données continuent d'exploser en volume, la nécessité de solutions performantes et agiles devient primordiale. L'intégration d'agents d'IA et d'outils d'orchestration intelligents pourrait transformer la manière dont les développeurs interagissent avec ces technologies, rendant les workflows plus fluides et réactifs. L'avenir du traitement de données semble donc s'orienter vers des solutions qui allient performance, simplicité et adaptabilité, tout en remettant en question des standards établis comme Spark.

Fiche programme

Development Practices

Vous pensiez que la dette technique était le pire? Voici la dette de conception!

  • Speakers : Julien Topçu (X · LinkedIn · Bluesky), Josian Chevalier (LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 10:30 à 11:15 · Salle Amphi bleu

Cette conférence explore la dette de design accidentelle, souvent cachée derrière la dette technique classique. Elle analyse ses causes, ses impacts profonds sur l’architecture et l’organisation, et propose des méthodes concrètes pour la détecter, l’évaluer et la traiter avant qu’elle ne compromette durablement les projets.

Vous pensiez que la dette technique était le pire? Voici la dette de conception!

Dans le monde du développement logiciel, la dette technique est souvent perçue comme le fléau ultime. Pourtant, une autre forme de dette, plus insidieuse et moins visible, est en train de miner nos architectures : la dette de conception. Cette session, animée par Julien Topçu et Josian Chevalier de Shodo Group, met en lumière ce phénomène et ses répercussions sur nos projets.

Ce que présente le talk

La conférence aborde la dette de conception accidentelle, souvent sous-estimée par rapport à la dette technique. Les intervenants analysent les causes de cette dette, ses effets sur l'architecture et l'organisation des équipes, et proposent des méthodes concrètes pour la détecter et l'évaluer. L'objectif est de prévenir que cette dette ne compromette la pérennité des projets.

Points techniques importants

Définition de la dette de conception

La dette de conception est définie comme un choix délibéré de créer un modèle partiellement inadapté pour avancer plus rapidement. Contrairement à la dette technique, qui est souvent visible et mesurable, la dette de conception se cache derrière des décisions de design qui augmentent le couplage et la complexité.

Mécanismes de la dette de conception

Les conférenciers expliquent que la dette de conception se manifeste souvent par des modèles qui deviennent rigides et difficiles à modifier. Cela résulte de l'accumulation de changements non réfléchis, qui créent des "tensions de modèle". Ces tensions sont des signaux d'alarme indiquant que le modèle a été tordu au-delà de sa raison d'être.

Impacts sur l'architecture

La dette de conception peut mener à des architectures de type "spaghetti", où les responsabilités des modèles se mélangent, rendant le code difficile à maintenir. Les intervenants soulignent que cette complexité croissante entraîne une perte de contrôle sur le code, augmentant le temps nécessaire pour développer de nouvelles fonctionnalités.

Détection et évaluation

Les intervenants proposent des méthodes pour identifier la dette de conception, notamment :

  • Analyse des tensions de modèle : Identifier les points où le modèle ne respecte plus son intégrité conceptuelle.
  • Évaluation de l'entropie : Mesurer la complexité et la cohésion du modèle pour déterminer son état de santé.

Solutions proposées

Pour traiter la dette de conception, il est crucial de :

  • Créer des modèles distincts pour des problèmes différents, plutôt que d'essayer de résoudre plusieurs problèmes avec un seul modèle.
  • Remettre en question les modèles existants et ne pas hésiter à les déprécier si nécessaire.

Ce qu'il faut retenir

La dette de conception est une réalité qui peut avoir des conséquences désastreuses sur la maintenabilité et la scalabilité des systèmes. En prenant conscience de ses mécanismes et en adoptant des pratiques de design rigoureuses, il est possible de réduire son impact et de préserver la santé des projets.

Réflexions Darkwood

La montée en puissance de la dette de conception souligne l'importance d'une gouvernance rigoureuse dans le développement logiciel. Alors que les systèmes deviennent de plus en plus complexes, l'automatisation et l'utilisation d'agents IA pour surveiller et analyser les modèles peuvent offrir des solutions prometteuses. En intégrant des workflows de validation et d'évaluation continue, les équipes peuvent mieux gérer la dette de conception et éviter que celle-ci ne devienne un fardeau insurmontable. La réflexion sur l'architecture moderne doit donc inclure une vigilance accrue sur la conception, afin d'éviter les pièges de l'entropie et de garantir la pérennité des systèmes.

Fiche programme

Le Guide du Testeur - 6 mauvaises habitudes à briser absolument

  • Speakers : Chadi El Masri (LinkedIn)
  • Type : Lunch Talk
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 13:00 à 13:15 · Salle Neuilly 252AB

Cette session de 15 minutes dévoile six anti‑patterns fréquents qui minent la fiabilité des tests : couverture trompeuse, usage excessif de mocks, pauses artificielles, etc. Démonstrations en Java 21 et JUnit 5 à l’appui, elle propose des solutions concrètes pour restaurer la confiance et l’efficacité des suites de tests.

Le Guide du Testeur - 6 mauvaises habitudes à briser absolument

Dans un monde où la qualité du code est primordiale, la fiabilité des tests joue un rôle crucial dans le cycle de développement. La session animée par Chadi El Masri, ingénieur chez Murex, aborde un sujet essentiel : les anti-patterns qui compromettent l'efficacité des tests. En seulement 15 minutes, il met en lumière des pratiques courantes qui, bien qu'initialement perçues comme bénéfiques, peuvent s'avérer nuisibles.

Ce que présente le talk

La présentation se concentre sur six mauvaises habitudes à éviter lors de l'écriture de tests. Chadi El Masri démontre comment ces pratiques, souvent ancrées dans notre façon de travailler, peuvent engendrer une fausse confiance dans la qualité du code. À travers des exemples concrets en Java 21 et JUnit 5, il propose des solutions pour restaurer la confiance dans les suites de tests.

Points techniques importants

1. Lisibilité des tests

Un bon test doit être immédiatement compréhensible. Chadi souligne l'importance de structurer les tests en trois parties distinctes : Given, When, et Then. Il recommande d'utiliser des commentaires et des espacements pour clarifier l'intention du test et éviter la confusion.

2. Obsession de la couverture de code

L'obsession pour la couverture de code peut mener à des tests qui ne vérifient en réalité rien d'utile. Chadi illustre ce point avec l'exemple d'un développeur qui crée des tests uniquement pour atteindre un seuil de couverture. Il préconise de se concentrer sur la validation des fonctionnalités réelles plutôt que sur des métriques.

3. Surutilisation des mocks

L'utilisation excessive de mocks peut rendre les tests fragiles et peu représentatifs de la production. Chadi recommande de privilégier les tests d'intégration lorsque cela est possible, en utilisant des outils comme Testcontainers pour simuler des environnements réels.

4. Assertions peu lisibles

Les assertions sur les collections doivent être claires et informatives. Chadi suggère d'utiliser des bibliothèques comme AssertJ pour améliorer la lisibilité et la clarté des messages d'erreur, facilitant ainsi le débogage.

5. Tests aléatoires

Les tests qui dépendent de délais fixes, comme Thread.sleep(), peuvent introduire de l'instabilité. Chadi propose d'utiliser des boucles d'attente avec des délais dynamiques pour éviter les échecs aléatoires et améliorer la rapidité des tests.

6. Gestion des états statiques

Les variables statiques peuvent polluer l'état des tests et rendre les résultats imprévisibles. Chadi recommande d'éviter leur utilisation, en optant pour des alternatives comme l'injection de dépendances ou des variables d'environnement.

Ce qu'il faut retenir

La session met en avant l'importance de tester non seulement la couverture, mais aussi la pertinence et la fiabilité des tests. Les développeurs doivent adopter une approche critique vis-à-vis des pratiques de test, en se concentrant sur la valeur ajoutée des tests plutôt que sur des métriques arbitraires.

Réflexions Darkwood

L'évolution des systèmes logiciels exige une remise en question constante des pratiques établies. Alors que l'automatisation et l'intégration continue deviennent la norme, la qualité des tests doit être au cœur des préoccupations des équipes de développement. Les agents d'IA et les outils d'orchestration peuvent jouer un rôle clé dans l'amélioration des workflows de test, mais ils ne remplaceront jamais la nécessité d'une réflexion critique sur les pratiques actuelles. En fin de compte, la gouvernance des tests doit évoluer pour garantir que chaque test apporte une réelle valeur, contribuant ainsi à des architectures modernes et résilientes.

Fiche programme

Dagger à l’échelle : comment éviter de se poignarder avec ses pipelines

  • Speakers : Vivien MALEZE (X · LinkedIn), Rodrigo GARCIA DE OLIVEIRA (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 17:00 à 17:30 · Salle Paris 242AB

Dagger à l’échelle : comment éviter de se poignarder avec ses pipelines

Dans un contexte où l'automatisation des processus de développement est devenue essentielle, Dagger, moteur de CI/CD basé sur des conteneurs, se présente comme une solution prometteuse. Créé par le fondateur de Docker, il permet de définir des pipelines reproductibles en code. Cependant, son utilisation à grande échelle peut rapidement se transformer en cauchemar si certaines bonnes pratiques ne sont pas respectées. Cette session, animée par Vivien Maleze d'Ippon Technologies et Rodrigo Garcia de Oliveira de Betclic, propose une exploration pragmatique des défis rencontrés et des solutions mises en œuvre pour optimiser l'utilisation de Dagger.

Ce que présente le talk

La session se concentre sur l'implémentation de Dagger au sein de Betclic, où l'équipe développeur expérience a été confrontée à des défis significatifs lors de son déploiement à grande échelle. Les intervenants partagent des retours d'expérience concrets, illustrant les bonnes pratiques à adopter et les pièges à éviter pour garantir une utilisation efficace de Dagger dans un environnement multi-équipes.

Points techniques importants

Architecture et organisation des modules

L'architecture mise en place chez Betclic repose sur une approche modulaire. Chaque équipe est responsable de sa propre CI, ce qui a conduit à une prolifération de scripts shell et de fichiers YAML, rendant la maintenance complexe. Pour remédier à cela, l'équipe a développé des modules Dagger standardisés pour chaque technologie utilisée (Kotlin, Python, JavaScript, Rust, .NET). Ces modules garantissent une interface cohérente et permettent aux développeurs d'utiliser Dagger sans nécessiter une expertise approfondie.

Gestion des performances

L'un des principaux défis rencontrés a été la gestion des performances des pipelines. L'utilisation de caches partagés a permis de réduire les temps d'exécution, mais a également introduit des problèmes de corruption de cache lorsque plusieurs pipelines s'exécutaient en parallèle. Pour résoudre ce problème, l'équipe a expérimenté différents modes de montage de volumes :

  • Mode partagé : permet l'accès concurrent, mais peut entraîner des corruptions de cache.
  • Mode verrouillé : offre un accès exclusif, mais ralentit considérablement les pipelines en les forçant à s'exécuter de manière séquentielle.
  • Mode privé : chaque pipeline dispose de sa propre copie du cache, évitant ainsi les conflits tout en augmentant l'utilisation de l'espace disque.

Intégration des tests

L'intégration des tests dans Dagger a également été un point crucial. Betclic utilise massivement Testcontainers pour les tests d'intégration. L'équipe a dû surmonter des défis pour intégrer cette bibliothèque dans Dagger, en s'assurant que les conteneurs nécessaires pour les tests soient correctement gérés et accessibles.

Expérience développeur (DX)

Un autre aspect abordé est la dégradation de l'expérience développeur. Avec la multiplication des modules et des commandes Dagger, il est devenu difficile pour les développeurs de naviguer dans l'écosystème. L'équipe a donc mis en place des conventions et des modules centralisés pour améliorer la clarté et la facilité d'utilisation.

Ce qu'il faut retenir

  • Modularité : L'organisation des modules est essentielle pour maintenir la cohérence et la facilité d'utilisation dans un environnement multi-équipes.
  • Performance : La gestion des caches est cruciale pour éviter les problèmes de performance, et le choix du mode de montage des volumes peut avoir un impact significatif.
  • Tests : L'intégration des tests dans Dagger nécessite une attention particulière pour garantir que les conteneurs de test fonctionnent correctement.
  • Expérience développeur : Une bonne gouvernance et des conventions claires sont nécessaires pour éviter la confusion et garantir une adoption fluide de Dagger.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures de plus en plus modulaires et décentralisées pose de nouveaux défis en matière de gouvernance et d'orchestration. L'utilisation de Dagger illustre parfaitement cette dynamique, où la responsabilité est déléguée aux équipes tout en nécessitant une standardisation pour éviter la fragmentation. À mesure que les agents IA et les workflows automatisés deviennent plus courants, la nécessité d'une orchestration efficace et d'une gouvernance solide se renforce. Les leçons tirées de l'implémentation de Dagger chez Betclic peuvent servir de guide pour d'autres organisations cherchant à naviguer dans cette complexité croissante, tout en maximisant l'efficacité et la collaboration entre équipes.

Fiche programme

Stop à la dette documentaire : Industrialisez vos ADRs et READMEs avec Spec-kit

  • Speakers : Alexandre Guillemot, Axel Chauvin (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 17:00 à 17:30 · Salle Amphi bleu

Cette session montre comment la documentation, souvent négligée, peut devenir un pilier d’agilité grâce à GitHub Spec‑kit. En live, on apprend à standardiser la structure documentaire, automatiser la discipline via la CI et améliorer l’expérience développeur pour transformer de simples bonnes intentions en pratiques durables et protectrices.

Stop à la dette documentaire : Industrialisez vos ADRs et READMEs avec Spec-kit

La dette documentaire est un fléau bien connu dans le développement logiciel, souvent négligée au profit de la rapidité de livraison. Dans un écosystème où l'agilité est cruciale, la session animée par Alexandre Guillemot et Axel Chauvin de WeScale aborde une solution pragmatique : GitHub Spec-kit. Ce talk, centré sur l'automatisation et la standardisation de la documentation, propose une approche concrète pour transformer les bonnes intentions en pratiques durables.

Ce que présente le talk

La session met en lumière l'importance d'une documentation bien structurée et accessible. Les intervenants soulignent que, sans documentation adéquate, chaque modification de code devient un risque, entraînant une augmentation du temps de développement et une dégradation de l'expérience utilisateur. En utilisant GitHub Spec-kit, ils démontrent comment standardiser la documentation, automatiser les processus via l'intégration continue (CI) et améliorer l'expérience développeur (DevEx).

Points techniques importants

La problématique de la dette documentaire

  • Définition : La dette documentaire se réfère à l'absence de documentation claire sur les choix architecturaux et les décisions de développement, rendant les projets vulnérables aux erreurs et aux malentendus.
  • Conséquences : Un manque de documentation entraîne une augmentation des bugs en production et un allongement du temps de mise sur le marché (Time-To-Market).

Introduction à Spec-kit

  • Concept : Spec-kit est un outil qui permet d'intégrer la documentation dès le début du cycle de développement, en la rendant lisible par les machines et les humains.
  • Phases d'implémentation :
    1. Constitution : Déclaration des principes directeurs du projet.
    2. Spécification : Rédaction de spécifications et de user stories.
    3. Planification : Élaboration d'une liste de tâches à réaliser.
    4. Tâches : Identification des tâches spécifiques à réaliser lors de l'implémentation.

Automatisation et CI

  • Intégration continue : Spec-kit s'intègre dans le pipeline CI pour garantir que toutes les modifications sont accompagnées de documentation appropriée, notamment des Architecture Decision Records (ADRs).
  • Agents de validation : Trois agents automatisés vérifient la conformité des PR (Pull Requests) :
    • Agent 1 : Vérifie la structure du code.
    • Agent 2 : Valide les ADRs associés aux modifications.
    • Agent 3 : Analyse la cohérence entre le code et la documentation.

Workflow et gouvernance

  • Gouvernance : La documentation devient une partie intégrante du code, versionnée dans le même dépôt, garantissant ainsi sa disponibilité et sa pertinence.
  • Feedback instantané : Les agents fournissent un score basé sur la conformité, permettant aux développeurs de recevoir un retour immédiat sur la qualité de leur documentation.

Ce qu'il faut retenir

  • La documentation est essentielle pour maintenir la qualité et la compréhension d'un projet.
  • L'automatisation via GitHub Spec-kit permet de transformer la documentation en une pratique intégrée et non optionnelle.
  • L'usage d'agents de validation renforce la gouvernance et la conformité, réduisant ainsi la dette documentaire.

Réflexions Darkwood

La session sur Spec-kit illustre un tournant dans l'évolution des systèmes logiciels, où la documentation n'est plus une tâche secondaire mais un élément central de l'architecture. L'automatisation des processus documentaires, couplée à l'utilisation d'agents intelligents, ouvre la voie à des workflows plus fluides et à une meilleure gouvernance des projets. En intégrant la documentation dans le cycle de développement, les équipes peuvent non seulement réduire la dette documentaire, mais aussi améliorer la collaboration et la passation de connaissances. Dans un monde où l'agilité et la rapidité sont primordiales, cette approche pourrait bien devenir un standard dans l'industrie du développement logiciel.

Fiche programme

Maximiser votre productivité en rendant votre clavier 2.0 ergonomique

  • Speakers : Alexandre Navarro (X · LinkedIn · Bluesky)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 17:50 à 18:20 · Salle Paris 143

Cette présentation explore l’histoire et l’ergonomie des claviers, des dispositions modernes aux modèles orthogonaux ou “column stagger”. Elle montre comment programmer ou configurer son clavier pour améliorer confort et productivité, à l’aide d’outils comme QMK, ZMK ou Kanata, et partage des conseils pour adopter de nouvelles configurations.

Maximiser votre productivité en rendant votre clavier 2.0 ergonomique

Dans un monde où la productivité est devenue un enjeu majeur pour les développeurs, l'ergonomie du clavier est souvent négligée. La session présentée par Alexandre Navarro lors de la conférence "Development Practices" aborde cette thématique essentielle, en proposant des solutions concrètes pour optimiser l'utilisation de cet outil fondamental.

Ce que présente le talk

Alexandre Navarro nous plonge dans l'histoire et l'ergonomie des claviers, explorant des modèles modernes et des dispositions innovantes. L'objectif est clair : améliorer le confort et la productivité des développeurs en configurant et en programmant leur clavier. Il aborde des outils tels que QMK, ZMK et Kanata pour personnaliser l'expérience utilisateur.

Points techniques importants

Histoire et ergonomie des claviers

  • Dispositions Clavier : L'évolution des dispositions, du QWERTY à des modèles plus récents comme BPO et Ergoel, est cruciale. Navarro souligne l'importance de la disposition pour optimiser la frappe et réduire la fatigue.
  • Géométrie Physique : L'analyse des claviers orthogonaux et "column stagger" révèle des avantages ergonomiques. Une bonne géométrie réduit les mouvements inutiles des doigts, ce qui est essentiel pour une frappe efficace.

Configuration et programmation

  • Programmation avec QMK et ZMK : Ces outils permettent de personnaliser les touches et de créer des "layers" pour accéder à plus de fonctionnalités. Navarro explique comment, avec un clavier de 42 touches, il utilise six layers pour obtenir l'équivalent de 252 touches.
  • Outils de configuration : Kanata et Kalamine offrent des solutions pour configurer des claviers non programmables, rendant ainsi l'ergonomie accessible à un plus grand nombre d'utilisateurs.

Optimisation de la frappe

  • Minimisation des mouvements : Navarro insiste sur l'importance de réduire les "same finger usage" et les "redirections" pour améliorer l'efficacité de la frappe. Des techniques comme les "bigrammes fréquents" et les "rolls" sont présentées comme des méthodes pour fluidifier l'écriture.
  • Macros et modifieurs : L'utilisation de macros et de modifieurs permet d'accélérer les tâches courantes, augmentant ainsi la productivité.

Ce qu'il faut retenir

  • L'ergonomie du clavier est un facteur déterminant pour la productivité des développeurs.
  • La personnalisation via des outils comme QMK et Kanata peut transformer l'expérience utilisateur.
  • L'optimisation des mouvements de frappe est essentielle pour réduire la fatigue et améliorer l'efficacité.

Réflexions Darkwood

L'évolution des systèmes logiciels et l'automatisation des workflows ne peuvent ignorer l'importance de l'ergonomie. À mesure que les développeurs adoptent des outils plus personnalisés, le rôle des claviers ergonomiques devient central. La montée en puissance des agents IA et des environnements de développement intégrés (IDE) pourrait également bénéficier de ces avancées, en intégrant des configurations de clavier optimisées pour une interaction plus fluide. En fin de compte, investir dans l'ergonomie des claviers pourrait bien être une des clés pour maximiser la productivité dans un paysage technologique en constante évolution.

Fiche programme

Spécialisez vos Agents avec les Skills

  • Speakers : Tug Grall
  • Type : Tools-in-Action
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 17:50 à 18:20 · Salle Amphi bleu

La session présente Agent Skills, un standard permettant de spécialiser les outils d’IA comme Copilot grâce à des skills regroupant instructions et ressources contextuelles. À travers des démos live, les participants apprendront à créer et partager ces skills pour transformer une IA généraliste en véritable assistant métier adaptable et collaboratif.

Spécialisez vos Agents avec les Skills

Dans un monde où les outils d'intelligence artificielle (IA) deviennent omniprésents, la capacité à adapter ces outils à des besoins spécifiques est cruciale. La session animée par Tug Grall, spécialiste IA chez GitHub, explore le concept d'Agent Skills, un standard qui permet de spécialiser des agents comme GitHub Copilot en intégrant des compétences précises. Ce talk est particulièrement pertinent pour les développeurs souhaitant optimiser leur interaction avec des outils d'IA, en transformant ces derniers d'assistants généralistes en véritables partenaires de travail adaptés à leurs contextes métier.

Ce que présente le talk

La session met en lumière Agent Skills, un standard permettant de regrouper des instructions et des ressources contextuelles pour personnaliser le comportement des agents d'IA. À travers des démonstrations en direct, Tug Grall illustre comment créer et partager ces compétences, rendant ainsi les agents plus efficaces et adaptés aux besoins spécifiques des utilisateurs. L'objectif est de réduire la répétition des instructions et d'améliorer la collaboration entre l'utilisateur et l'IA.

Points techniques importants

Architecture des Agent Skills

Le concept d'Agent Skills repose sur une architecture modulaire où chaque "skill" est un dossier contenant des instructions, scripts et ressources. Cette structure permet une spécialisation des agents en fonction des tâches à accomplir. Tug Grall souligne l'importance de la divulgation progressive du contexte, où l'agent charge automatiquement les compétences pertinentes selon la situation.

Création et partage des Skills

La création d'un skill est simplifiée par l'utilisation de fichiers Markdown. Le fichier principal, nommé skill.md, définit le comportement du skill et contient des métadonnées essentielles telles que le nom, la description et la licence. Cette approche favorise la portabilité et la versioning, facilitant ainsi le partage au sein de la communauté.

Intégration dans les workflows

Les Agent Skills s'intègrent facilement dans les workflows de développement. Tug Grall évoque l'utilisation de ces compétences dans des environnements variés, que ce soit pour la revue de code ou d'autres tâches spécifiques. L'agent peut interagir avec des fichiers et des scripts en fonction des compétences chargées, optimisant ainsi le processus de développement.

Écosystème et bonnes pratiques

L'écosystème autour des Agent Skills est en pleine expansion. Tug Grall recommande d'explorer des ressources communautaires comme Awesome Copilot pour découvrir des skills existants et éviter de réinventer la roue. Cela souligne l'importance de la collaboration et du partage des connaissances dans le développement d'outils IA.

Ce qu'il faut retenir

  • Agent Skills permet de spécialiser les agents d'IA en regroupant des instructions et des ressources contextuelles.
  • La création de skills est accessible grâce à une structure de fichiers Markdown, favorisant le partage et la portabilité.
  • L'intégration des skills dans les workflows de développement optimise l'interaction entre l'utilisateur et l'IA.
  • L'écosystème autour des Agent Skills est dynamique, encourageant l'exploration et le partage de compétences au sein de la communauté.

Réflexions Darkwood

L'émergence des Agent Skills marque une étape significative dans l'évolution des systèmes logiciels. En permettant une spécialisation des agents d'IA, cette approche répond à un besoin croissant d'automatisation et d'adaptabilité dans les workflows de développement. À mesure que les agents deviennent plus intelligents et contextuels, leur intégration dans les processus métiers pourrait transformer la manière dont les équipes collaborent. Les implications sur la gouvernance des outils d'IA et la nécessité d'une orchestration efficace des compétences sont des enjeux à considérer pour les entreprises souhaitant tirer pleinement parti de ces technologies. Dans un avenir proche, la capacité à personnaliser et à partager des compétences pourrait devenir un standard incontournable dans l'industrie du développement logiciel.

Fiche programme

Bye bye Vendor Lock-in : Standardisez vos Feature Flags avec OpenFeature

  • Speakers : Thomas Poignant (LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 11:35 à 12:20 · Salle Neuilly 151

Cette présentation explique comment OpenFeature, projet du CNCF, vise à standardiser le feature flagging pour éviter le verrouillage propriétaire des SDKs. Grâce à une API unifiée, il devient possible de changer de solution de feature flagging sans modifier le code métier, facilitant ainsi la gestion et l’interopérabilité des applications.

Bye bye Vendor Lock-in : Standardisez vos Feature Flags avec OpenFeature

Dans un monde où la flexibilité et l'agilité sont devenues des impératifs pour les équipes de développement, la gestion des feature flags représente un enjeu crucial. La session présentée par Thomas Poignant, CTO chez Gens de Confiance, aborde la problématique du verrouillage propriétaire des SDKs de feature flagging et propose une solution standardisée via OpenFeature, un projet incubé par la Cloud Native Computing Foundation (CNCF). Ce talk est particulièrement pertinent dans le contexte actuel où les entreprises cherchent à optimiser leurs processus de déploiement tout en évitant les dépendances technologiques.

Ce que présente le talk

La présentation met en lumière l'importance des feature flags dans le cycle de développement logiciel, en soulignant leur rôle dans le découplage des déploiements et des mises en production. OpenFeature vise à établir un standard unifié pour le feature flagging, permettant aux développeurs de changer de solution sans avoir à réécrire leur code métier. Ce projet aspire à faire pour le feature flagging ce qu'OpenTelemetry a réalisé pour l'observabilité.

Points techniques importants

Compréhension des Feature Flags

Un feature flag peut être vu comme une simple condition if qui permet d'activer ou désactiver des fonctionnalités à distance. Cette capacité à contrôler le comportement d'une application sans redéploiement de code est essentielle pour :

  • Décorréler déploiements et releases : Les développeurs peuvent pousser du code en production sans activer immédiatement les nouvelles fonctionnalités, ce qui réduit les risques de bugs.
  • Tester en production : Les fonctionnalités peuvent être activées pour un groupe restreint d'utilisateurs, permettant une validation en conditions réelles.

Architecture d'OpenFeature

L'architecture d'OpenFeature repose sur une API unifiée qui permet aux développeurs d'interagir avec différents fournisseurs de feature flags via un SDK commun. Les points clés incluent :

  • Providers : Un adaptateur entre le SDK OpenFeature et la solution de feature flag choisie, permettant de standardiser les interactions.
  • Hooks : Des mécanismes permettant d'exécuter des actions supplémentaires lors de l'évaluation des feature flags, facilitant ainsi la collecte de données pour des analyses ou des tests A/B.

Avantages de l'Approche Standardisée

L'un des principaux avantages d'OpenFeature est la réduction du verrouillage propriétaire. En utilisant une API standard, les équipes peuvent :

  • Changer de fournisseur facilement : Passer d'une solution de feature flag à une autre devient une tâche triviale, nécessitant peu de modifications dans le code.
  • Éviter la complexité des SDKs propriétaires : Les différences entre les SDKs peuvent rendre le changement de solution difficile, mais OpenFeature unifie cette expérience.

Gestion des Erreurs et Résilience

OpenFeature introduit également des mécanismes pour gérer les erreurs de manière efficace. En cas de défaillance d'un fournisseur, le SDK peut retourner une valeur par défaut, garantissant ainsi que l'application continue de fonctionner sans interruption.

Ce qu'il faut retenir

OpenFeature représente une avancée significative dans la gestion des feature flags, permettant aux développeurs de réduire le verrouillage propriétaire et de standardiser leurs pratiques. En adoptant cette approche, les équipes peuvent améliorer leur agilité, réduire les risques associés aux déploiements et faciliter la transition entre différents fournisseurs de feature flags.

Réflexions Darkwood

L'émergence de standards comme OpenFeature souligne une tendance croissante vers l'interopérabilité et la flexibilité dans le développement logiciel. À mesure que les systèmes deviennent de plus en plus complexes, la capacité à intégrer et à changer des composants sans perturber l'ensemble du système devient essentielle. L'automatisation des workflows de déploiement, couplée à des solutions standardisées, pourrait transformer la manière dont les équipes gèrent leurs infrastructures, rendant l'adoption de nouvelles technologies plus fluide et moins risquée. Dans un avenir proche, nous pourrions voir une adoption accrue de solutions basées sur des standards ouverts, favorisant une plus grande collaboration et innovation dans l'écosystème du développement logiciel.

Fiche programme

La boite à outils tech : l’écosystème BPCE qui simplifie la vie du développeur

  • Speakers : Alexandre Perraud (LinkedIn), Pierre LEGER (X · LinkedIn), Valéry Adeleine (LinkedIn), Laurie Marchaterre (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 11:35 à 12:20 · Salle Paris 141

Ce talk présente Huber, le portail interne des développeurs du Groupe BPCE, conçu pour simplifier l’intégration et optimiser les environnements CI/CD. Il expose aussi la démarche IA4DEV et la solution Continue, avec un retour d’expérience concret sur deux ans d’usage, leurs bénéfices, enseignements et surprises.

La boite à outils tech : l’écosystème BPCE qui simplifie la vie du développeur

Dans un contexte où la complexité des systèmes informatiques ne cesse d’augmenter, le Groupe BPCE présente une initiative prometteuse : Huber, un portail interne dédié aux développeurs. Ce talk met en lumière les efforts du groupe pour optimiser l’intégration et améliorer les environnements CI/CD, tout en intégrant des solutions d’intelligence artificielle via l’initiative IA4DEV.

Ce que présente le talk

La session explore la création de Huber, un point d'entrée unique pour les développeurs au sein du Groupe BPCE, conçu pour faciliter l'intégration et accélérer le développement. Les intervenants partagent également des retours d'expérience sur l'initiative IA4DEV et la solution Continue, en mettant en avant les bénéfices et les surprises rencontrées au cours des deux dernières années.

Points techniques importants

Huber : Le Portail Développeur

  • Objectif : Huber vise à simplifier l'accès aux outils nécessaires pour les développeurs, réduisant ainsi le temps d'attente pour obtenir un environnement de développement fonctionnel.
  • Fonctionnalités :
    • Authentification et Gestion des Droits : Les développeurs peuvent se connecter, demander des droits et démarrer rapidement leur travail.
    • Standardisation : Huber propose des templates pour garantir une cohérence dans les projets, quel que soit le développeur impliqué.
    • Environnement Sécurisé : Conformité aux exigences de sécurité d'un groupe bancaire, tout en offrant une flexibilité pour les utilisateurs non techniques.

Démarche IA4DEV

  • Intégration de l'IA : L'initiative IA4DEV vise à appliquer l'intelligence artificielle à la fois dans les métiers du business et dans les services IT, facilitant ainsi l'automatisation et l'optimisation des workflows.
  • Solution Continue : Un retour d'expérience sur l'utilisation de cette solution met en avant les cas d'usage concrets et les enseignements tirés, soulignant les bénéfices réels pour les développeurs.

Environnement de Développement à Distance (CDE)

  • Configuration Préconfigurée : Le CDE permet aux développeurs d'accéder à un environnement de développement préconfiguré, éliminant ainsi les problèmes de configuration individuelle.
  • Sécurité et Conteneurisation : L'utilisation de conteneurs assure un environnement sécurisé et reproductible, essentiel pour le développement dans un cadre réglementé.

Marketplace et Partage de Ressources

  • Marketplace pour Développeurs : Huber inclut une marketplace où les développeurs peuvent trouver des ressources, de la documentation et partager des librairies, favorisant ainsi la collaboration au sein des équipes.
  • Provisionnement de Services : Les développeurs peuvent accéder à des services internes et externes, notamment des services d'IA, directement via le portail.

Ce qu'il faut retenir

  • Huber est une réponse stratégique aux défis rencontrés par les développeurs au sein du Groupe BPCE, offrant un accès simplifié et sécurisé aux outils nécessaires.
  • L'initiative IA4DEV et la solution Continue montrent l'engagement du groupe à intégrer l'intelligence artificielle dans ses processus, avec des résultats tangibles après deux ans d'utilisation.
  • La combinaison d'un IDP et d'un CDE dans Huber est un atout majeur, permettant une expérience homogène et efficace pour les développeurs.

Réflexions Darkwood

L'initiative Huber s'inscrit dans une tendance plus large d'automatisation et d'optimisation des workflows au sein des organisations. À une époque où les systèmes logiciels doivent évoluer rapidement pour répondre aux exigences du marché, l'intégration de solutions comme Huber et IA4DEV pourrait bien redéfinir les standards de développement. En facilitant l'accès aux ressources et en standardisant les processus, BPCE se positionne comme un acteur proactif dans la transformation numérique de l'industrie bancaire. L'impact de telles initiatives sur la gouvernance des systèmes et l'architecture des applications pourrait également influencer la manière dont les entreprises abordent la sécurité et la conformité dans un monde de plus en plus complexe.

Fiche programme

Transformer son API Doc en levier de conversion : best pratices

  • Speakers : ANNE-FLORE BERNARD (LinkedIn)
  • Type : Lunch Talk
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 12:35 à 12:50 · Salle Maillot

Cette présentation montre comment la documentation API, souvent perçue comme technique, peut devenir un levier marketing stratégique. Basée sur des études scientifiques, elle propose une méthode pragmatique et ludique pour créer une documentation efficace, attractive et adaptée, capable de convaincre, convertir et fidéliser les utilisateurs d’API.

Transformer son API Doc en levier de conversion : best practices

Dans un écosystème où l'expérience utilisateur est primordiale, la documentation API est souvent négligée. Pourtant, elle représente un point de contact crucial entre un produit et ses utilisateurs. La session animée par Anne-Flore Bernard lors de ce Lunch Talk met en lumière comment transformer cette documentation, souvent perçue comme technique, en un véritable levier marketing. En s'appuyant sur des études scientifiques, elle propose des méthodes concrètes pour créer une documentation API efficace et attractive.

Ce que présente le talk

La présentation explore l'idée que la documentation API ne doit pas être considérée uniquement comme un outil technique, mais comme un actif stratégique capable de convaincre et de fidéliser les utilisateurs. Anne-Flore Bernard propose une méthode pragmatique pour produire une documentation de qualité, en se basant sur des approches éprouvées et des analyses de comportements utilisateurs.

Points techniques importants

Les deux types de documentation

Anne-Flore distingue deux catégories de documentation :

  • Documentation interne : tickets, choix d'architecture, rapports de performance.
  • Documentation externe : guides, bases de connaissances, API reference.

Cette distinction est essentielle pour comprendre comment chaque type de documentation répond à des besoins différents, tant pour les développeurs internes que pour les utilisateurs finaux.

Le modèle Coca pour une documentation de qualité

Au cœur de la présentation se trouve le modèle Coca, qui se décline en quatre critères :

  1. Completeness (Complétude) : La documentation doit couvrir tous les cas d'usage et situations possibles.
  2. Operability (Opérabilité) : L'utilisateur doit pouvoir accomplir une tâche facilement et rapidement.
  3. Correctness (Exactitude) : Les informations doivent décrire avec précision le comportement du logiciel, sans erreurs.
  4. Appearance (Apparence) : La lisibilité et la présentation visuelle de la documentation doivent être soignées.

Ces critères permettent d'évaluer la qualité d'une documentation API et de s'assurer qu'elle répond aux attentes des utilisateurs.

Stratégies pour engager les utilisateurs

Anne-Flore propose une approche en plusieurs étapes pour transformer les utilisateurs en clients fidèles :

  1. Rencontre : Identifier les différents types d'utilisateurs et adapter la documentation à leurs besoins.
  2. Exploration : Utiliser des architectures déclaratives et des authentifications rapides pour faciliter l'accès à l'API.
  3. Découverte : Mettre en place des cas d'utilisation, des environnements de test (Sandbox) et des SDK pour encourager l'expérimentation.
  4. Engagement : Fournir des exemples de code dans plusieurs langages et des instructions claires pour l'authentification.
  5. Consolidation : Gérer les erreurs de manière proactive et maintenir une FAQ accessible pour répondre aux questions fréquentes.

Importance de l'analyse des logs

L'analyse des logs est un outil précieux pour comprendre le comportement des utilisateurs. En identifiant les clusters d'utilisateurs, il est possible d'anticiper leurs besoins et d'adapter la documentation en conséquence.

Ce qu'il faut retenir

La documentation API est un levier stratégique qui peut influencer l'adoption d'un produit. En appliquant le modèle Coca, il est possible de produire une documentation de qualité qui répond aux attentes des utilisateurs. L'engagement des utilisateurs passe par une compréhension fine de leurs besoins et une documentation adaptée à chaque type d'utilisateur.

Réflexions Darkwood

La transformation de la documentation API en un actif stratégique s'inscrit dans une tendance plus large vers l'automatisation et l'optimisation des workflows. À mesure que les systèmes logiciels deviennent plus complexes, la nécessité d'une documentation claire et accessible devient cruciale. Les agents IA et les outils d'analyse des logs offrent des opportunités inédites pour personnaliser l'expérience utilisateur, rendant la documentation non seulement informative, mais également interactive et engageante. Dans un monde où la rapidité et l'efficacité sont des atouts majeurs, investir dans une documentation de qualité pourrait bien devenir un standard incontournable dans l'industrie du développement.

Fiche programme

Clean Code Matters

  • Speakers : Marc LECANU (LinkedIn)
  • Type : Lunch Talk
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 13:00 à 13:15 · Salle Maillot

Cette présentation montre que le Clean Code est essentiel, non optionnel. À travers définitions, principes de lisibilité, simplicité, cohérence, SOLID, tests et automatisation, elle propose des pratiques concrètes pour écrire un code durable, maintenable et de qualité, et encourager chacun à adopter progressivement les réflexes du Clean Code.

Clean Code Matters : Une Nécessité dans le Développement

Dans un monde où la rapidité de développement est souvent privilégiée au détriment de la qualité, la session "Clean Code Matters" animée par Marc Lecanu nous rappelle l'importance cruciale d'écrire un code propre et maintenable. Ce talk, bien que destiné à un public débutant, aborde des concepts fondamentaux qui résonnent avec tous les développeurs, quel que soit leur niveau d'expérience.

Ce que présente le talk

Marc Lecanu nous guide à travers les principes du Clean Code, démontrant qu'il ne s'agit pas d'une option, mais d'une nécessité pour produire un code de qualité. En s'appuyant sur des définitions claires, des exemples concrets et des pratiques recommandées, il met en avant l'importance de la lisibilité, de la simplicité, de la cohérence, ainsi que des principes SOLID. L'accent est également mis sur l'automatisation des tests et l'intégration continue, soulignant que ces pratiques sont essentielles pour garantir la durabilité et la maintenabilité du code.

Points techniques importants

Définition et principes du Clean Code

Le Clean Code est défini comme un code qui est lisible, maintenable et sans ambiguïté. Lecanu insiste sur le fait que la lisibilité est primordiale, car les développeurs passent plus de temps à lire le code qu'à l'écrire. Voici quelques points clés :

  • Nommage explicite : Utiliser des noms clairs qui révèlent l'intention. Éviter les termes génériques et les "magic strings".
  • Fonctions courtes : Les fonctions doivent être concises et ne pas avoir trop d'arguments. L'idée est de respecter le principe KISS (Keep It Simple, Stupid).

Simplicité et cohérence

Lecanu évoque deux concepts fondamentaux :

  • Simplicité : Éviter la complexité inutile. Le code doit être aussi simple que possible.
  • Cohérence : Éliminer la duplication de code en appliquant le principe DRY (Don't Repeat Yourself).

Les principes SOLID

Les principes SOLID sont présentés comme des fondations pour construire un code robuste et évolutif :

  1. Responsabilité unique : Chaque classe doit avoir une seule raison de changer.
  2. Ouvert/fermé : Le code doit être ouvert à l'extension mais fermé à la modification.
  3. Substitution de Liskov : Les objets d'une classe dérivée doivent pouvoir remplacer ceux de la classe parente sans altérer le fonctionnement.
  4. Ségrégation d'interface : Éviter les interfaces trop larges, préférer des interfaces spécifiques.
  5. Inversion de dépendance : Les modules doivent dépendre d'abstractions et non d'implémentations concrètes.

Tests et automatisation

L'importance des tests est soulignée comme un moyen de garantir la qualité du code. Lecanu recommande de :

  • Adopter le TDD (Test Driven Development) : Écrire des tests avant de développer les fonctionnalités.
  • Mettre en place une CI/CD : Automatiser les tests et le déploiement pour éviter les régressions.

Ce qu'il faut retenir

Le Clean Code est une approche essentielle pour garantir la lisibilité et la maintenabilité du code. Les principes SOLID, combinés à des pratiques de test rigoureuses et à l'automatisation, permettent de construire des systèmes logiciels robustes et évolutifs. Il est crucial de ne pas essayer d'implémenter tous ces principes en une seule fois, mais de les adopter progressivement.

Réflexions Darkwood

L'importance du Clean Code s'inscrit dans une tendance plus large vers l'automatisation et l'amélioration continue des workflows de développement. À mesure que les systèmes deviennent plus complexes, la nécessité d'un code clair et maintenable devient encore plus critique. L'intégration de l'intelligence artificielle dans les processus de développement pourrait également transformer la manière dont nous abordons la qualité du code. En favorisant des pratiques de Clean Code, nous nous préparons à un avenir où l'automatisation et la collaboration entre humains et machines seront essentielles pour la réussite des projets logiciels.

Adopter ces principes dès aujourd'hui, c'est investir dans la durabilité et la qualité des systèmes de demain.

Fiche programme

Jujutsu, la cerise sur le git, oh !

  • Speakers : Siegfried Ehret (LinkedIn · Mastodon)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 17:00 à 17:30 · Salle Paris 143

Jujutsu, la cerise sur le git, oh !

Dans un monde où Git est devenu le standard de facto pour la gestion de versions, la session "Jujutsu, la cerise sur le git, oh !" animée par Siegfried Ehret au CyberPeace Institute nous plonge dans une alternative intrigante : Jujutsu. Cet outil promet de simplifier certaines des complexités de Git tout en conservant ses puissantes fonctionnalités. L'intérêt de cette session réside dans la découverte d'une approche novatrice pour les développeurs, qu'ils soient novices ou expérimentés.

Ce que présente le talk

Siegfried Ehret nous présente Jujutsu (JJ), un outil qui se superpose à Git, permettant une gestion des commits, des branches et de l'historique plus intuitive. À travers des démonstrations pratiques, il illustre comment Jujutsu peut rendre des opérations complexes, telles que le rebase, plus accessibles. La session se conclut par des conseils de configuration et des ressources supplémentaires pour intégrer Jujutsu dans son flux de travail.

Points techniques importants

Architecture et intégration

Jujutsu est conçu pour fonctionner en tandem avec Git, ce qui signifie qu'il n'y a pas de rupture dans les pratiques de travail des équipes qui utilisent déjà Git. L'architecture de Jujutsu repose sur des concepts familiers pour les utilisateurs de Git, tout en introduisant des abstractions qui simplifient l'interaction avec l'historique des versions.

Commandes et workflows

Ehret explore diverses commandes Jujutsu, telles que :

  • jj commit : Crée un nouveau "ref" à partir de l'état actuel, permettant ainsi de garder une trace des modifications sans les engager immédiatement.
  • jj bookmark : Gère les "bookmarks" qui remplacent les branches traditionnelles de Git, offrant une approche plus flexible pour suivre les versions.
  • jj log : Affiche l'historique des opérations effectuées, facilitant la navigation dans les modifications passées.
  • jj undo : Permet de revenir à un état antérieur sans compromettre l'intégrité de l'historique.

Gestion des conflits

L'un des points forts de Jujutsu est sa manière de gérer les conflits. Contrairement à Git, où un conflit peut bloquer le flux de travail, Jujutsu permet de continuer à travailler tout en résolvant les conflits, ce qui améliore la productivité.

Configuration et personnalisation

Ehret aborde également la personnalisation de Jujutsu, notamment par la configuration des alias et des outils tiers pour le diff et la fusion. Cela permet aux développeurs d'adapter l'outil à leurs préférences et à leurs flux de travail existants.

Ce qu'il faut retenir

Jujutsu se présente comme une alternative séduisante pour les utilisateurs de Git, en simplifiant les opérations complexes tout en maintenant la puissance de l'outil. Les commandes intuitives et la gestion des conflits améliorée en font une option intéressante pour les développeurs cherchant à optimiser leur flux de travail.

Réflexions Darkwood

L'émergence d'outils comme Jujutsu souligne une tendance croissante vers l'automatisation et l'amélioration de l'expérience développeur (DX). Alors que les systèmes logiciels deviennent de plus en plus complexes, la nécessité d'outils qui réduisent la friction et simplifient les workflows est primordiale. Jujutsu pourrait bien être un précurseur d'une nouvelle ère d'outils de gestion de versions, où l'accent est mis sur l'efficacité et la convivialité, tout en intégrant des éléments d'intelligence artificielle pour anticiper et résoudre les problèmes avant qu'ils ne surviennent. Cette évolution pourrait transformer la manière dont les équipes collaborent et gèrent leurs projets, rendant le développement logiciel plus fluide et moins stressant.

Fiche programme

Respectons (enfin) l'article 25 du RGPD avec PostgreSQL Anonymizer

  • Speakers : Nicolas GUILHEM (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 17:00 à 17:30 · Salle Neuilly 151

Cette conférence présente PostgreSQL Anonymizer, une extension facilitant l’anonymisation « as code » et le privacy by design. Elle montre comment protéger les données personnelles dès la conception, respecter le RGPD (article 25), tester en sécurité sur la production et accorder des accès sans exposer d’informations sensibles.

Respectons (enfin) l'article 25 du RGPD avec PostgreSQL Anonymizer

La protection des données personnelles est devenue un enjeu majeur dans le développement logiciel, surtout avec l'entrée en vigueur du RGPD. La session présentée par Nicolas Guilhem lors de la conférence aborde un outil essentiel : PostgreSQL Anonymizer. Cette extension permet d'intégrer des pratiques de protection des données dès la conception, en respectant l'article 25 du RGPD. Cet article stipule que la protection des données doit être intégrée dès la phase de conception des systèmes.

Ce que présente le talk

Nicolas Guilhem présente PostgreSQL Anonymizer comme une solution pour faciliter l'anonymisation des données sensibles dans les bases de données PostgreSQL. L'accent est mis sur le concept de "privacy by design", qui implique que la protection des données doit être intégrée dès le début du processus de développement. La session traite également des défis liés à l'accès aux données de production, à la gestion des droits d'accès et à la conformité avec le RGPD.

Points techniques importants

Architecture et mise en œuvre

PostgreSQL Anonymizer est une extension open source qui s'intègre facilement dans l'écosystème PostgreSQL. Elle permet de définir des règles d'anonymisation en utilisant le DDL (Data Definition Language) de PostgreSQL, ce qui évite d'apprendre un nouveau langage. Cette approche déclarative facilite la gestion des données sensibles.

Privacy by Design et Privacy by Default

L'extension respecte les principes fondamentaux du RGPD :

  • Privacy by Design : Les règles d'anonymisation peuvent être définies lors de la création des tables, garantissant que la protection des données est intégrée dès le départ.
  • Privacy by Default : Par défaut, les données sont anonymisées, ce qui réduit le risque d'exposition des données sensibles.

Anonymisation statique et dynamique

PostgreSQL Anonymizer propose deux types d'anonymisation :

  • Anonymisation statique : Les données sensibles sont détruites et remplacées par des données anonymisées dans la base de données.
  • Anonymisation dynamique : Les données réelles sont conservées, mais les utilisateurs non autorisés ne voient que des données anonymisées, permettant ainsi un accès contrôlé.

Détection des données sensibles

L'outil inclut une fonctionnalité de détection qui scanne la base de données pour identifier les données sensibles nécessitant une anonymisation. Cela permet aux développeurs de prioriser les efforts d'anonymisation et d'assurer la conformité avec le RGPD.

Risques liés à l'anonymisation

Guilhem met en avant plusieurs risques associés à l'anonymisation :

  • Singularisation : Risque de réidentification d'individus à partir de données anonymisées.
  • Recoupement : Utilisation de données externes pour réidentifier des individus à partir de données anonymisées.
  • Inférence : Déduction d'informations sensibles à partir de données apparemment anonymisées.

Ce qu'il faut retenir

PostgreSQL Anonymizer se présente comme un outil puissant pour intégrer l'anonymisation des données dans les processus de développement. En respectant les principes du RGPD, il permet aux développeurs de concevoir des systèmes plus sûrs et conformes, tout en facilitant l'accès aux données nécessaires pour le développement et les tests.

Réflexions Darkwood

L'importance croissante de la protection des données personnelles souligne une évolution significative dans le développement logiciel. L'intégration de solutions comme PostgreSQL Anonymizer témoigne d'une tendance vers des architectures plus respectueuses de la vie privée. À mesure que les systèmes deviennent plus complexes, l'automatisation de l'anonymisation et la gestion des accès aux données sensibles deviendront cruciales. L'essor des agents d'IA et des workflows automatisés pourrait également transformer la manière dont les données sont gérées, rendant les processus non seulement plus efficaces, mais aussi plus conformes aux exigences légales. En fin de compte, la gouvernance des données et la protection de la vie privée deviendront des piliers centraux dans l'architecture des systèmes modernes.

Fiche programme

Mise : un multi-outil pour votre poste de Dev & Ops

  • Speakers : Rémi Verchère (LinkedIn · Bluesky)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 17:50 à 18:20 · Salle Neuilly 151

Ce talk présente Mise‑En‑Place, un outil pour simplifier la gestion des environnements de travail multi‑projets. À travers des démonstrations, il montre la gestion des variables, versions, scripts et secrets (via fnox), ainsi que la migration depuis asdf ou direnv, pour adopter une configuration unifiée et efficace.

Mise : un multi-outil pour votre poste de Dev & Ops

Dans un environnement de développement de plus en plus complexe, la gestion des différents contextes et outils peut rapidement devenir un casse-tête. La session présentée par Rémi Verchère sur Mise-En-Place aborde cette problématique en proposant un outil unifié pour simplifier la gestion des environnements de travail multi-projets. Ce talk est particulièrement pertinent dans le contexte actuel où l'automatisation et l'efficacité sont au cœur des préoccupations des développeurs et des opérations.

Ce que présente le talk

Mise-En-Place est un outil conçu pour faciliter la gestion des environnements de travail en centralisant la gestion des variables, des versions, des scripts et des secrets, tout en permettant une migration fluide depuis des outils tels qu'asdf ou direnv. À travers des démonstrations pratiques, Rémi Verchère illustre comment cet outil peut transformer la manière dont les développeurs et les ops interagissent avec leurs environnements.

Points techniques importants

Architecture et Outils

Mise-En-Place se présente comme un remplaçant des outils traditionnels de gestion d'environnement. Il est construit en Rust, ce qui lui confère des performances optimales. L'outil utilise une configuration en TOML, remplaçant ainsi les fichiers YAML souvent utilisés, et propose une interface intuitive pour gérer les versions des outils et des dépendances.

Gestion des Versions

  • Installation Automatique : Lorsqu'un développeur entre dans un projet, il peut exécuter mise install pour installer automatiquement tous les outils spécifiés dans un fichier de configuration. Cela simplifie considérablement l'onboarding des nouveaux développeurs.
  • Versions Locales et Globales : Mise permet de définir des versions d'outils spécifiques à un projet tout en maintenant des versions globales pour d'autres contextes.

Gestion des Variables d'Environnement

Mise facilite également la gestion des variables d'environnement :

  • Sourcing Automatique : Les variables sont chargées automatiquement lorsque l'on entre dans un répertoire de projet et déchargées à la sortie. Cela permet de conserver un environnement propre et organisé.
  • Héritage et Templating : Les variables peuvent être héritées d'un projet parent, et il est possible de référencer d'autres variables dans la définition d'une variable.

Sécurité

La sécurité est un aspect crucial abordé dans la session :

  • Vérifications d'Intégrité : Mise vérifie les fichiers téléchargés à l'aide de checksums SHA-256 et propose des options pour intégrer des signatures de sécurité.
  • Mode Paranoïde : Pour les utilisateurs soucieux de sécurité, un mode paranoïde permet de vérifier rigoureusement les installations.

Intégration avec Fnox

Mise s'intègre également avec Fnox, un outil complémentaire dédié à la gestion des secrets. Cela permet de gérer les informations sensibles sans les exposer dans les fichiers de configuration, renforçant ainsi la sécurité des projets.

Ce qu'il faut retenir

Mise-En-Place se positionne comme un outil essentiel pour les développeurs et les ops souhaitant simplifier la gestion de leurs environnements de travail. Ses fonctionnalités de gestion des versions, des variables d'environnement et de sécurité en font un atout précieux pour améliorer la productivité et réduire les erreurs lors des déploiements.

Réflexions Darkwood

La présentation de Mise-En-Place soulève des questions intéressantes sur l'évolution des pratiques de développement et d'opérations. À une époque où l'automatisation et l'orchestration deviennent des normes, des outils comme Mise offrent une réponse aux défis posés par la complexité croissante des environnements multi-projets.

L'intégration de la gestion des secrets et des variables d'environnement dans un même outil reflète une tendance vers des solutions plus intégrées et cohérentes. En facilitant la migration depuis des outils existants, Mise pourrait jouer un rôle clé dans l'adoption de pratiques DevOps modernes, tout en renforçant la sécurité et la gouvernance des environnements de développement.

En somme, la session de Rémi Verchère met en lumière l'importance d'outils innovants pour accompagner les développeurs et les ops dans un paysage technologique en constante évolution.

Fiche programme

NodeJS : Boostez vos tests d'intégration avec Vitest, Testcontainers et PGlite

  • Speakers : Alexandre Victoor (LinkedIn · Bluesky · Mastodon)
  • Type : Tools-in-Action
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 17:50 à 18:20 · Salle Neuilly 251

Cette session présente trois outils NodeJS — Testcontainers, PGLite et Vitest — pour simplifier et accélérer les tests d’intégration. Les participants découvriront comment réduire le temps d’exécution en CI tout en améliorant la fiabilité des tests, grâce à des environnements docker légers, une base Postgres rapide et une meilleure isolation.

NodeJS : Boostez vos tests d'intégration avec Vitest, Testcontainers et PGlite

Dans un écosystème où la rapidité et la fiabilité des livraisons de code sont cruciales, la gestion des tests d'intégration devient un enjeu majeur. La session animée par Alexandre Victoor aborde des outils innovants pour optimiser ces tests dans l'environnement NodeJS, en mettant l'accent sur Testcontainers, PGlite et Vitest. Ces outils permettent non seulement de réduire le temps d'exécution des tests en CI, mais aussi d'améliorer leur fiabilité, un aspect souvent négligé dans le développement moderne.

Ce que présente le talk

La session se concentre sur trois outils clés :

  • Testcontainers : un wrapper pour Docker permettant de gérer des environnements de test facilement.
  • PGlite : une version légère de PostgreSQL, optimisée pour le WebAssembly.
  • Vitest : un framework de test qui facilite l'isolation des tests et la gestion des fixtures.

Alexandre Victoor explique comment ces outils peuvent transformer la manière dont les tests d'intégration sont écrits et exécutés, en offrant des solutions pratiques pour des environnements de test plus rapides et plus fiables.

Points techniques importants

Testcontainers

Testcontainers est un outil qui permet de démarrer des environnements Docker de manière simple et efficace. Voici quelques points clés :

  • Simplicité d'utilisation : En quelques lignes de code, il est possible de démarrer un conteneur PostgreSQL et d'interagir avec lui.
  • Extensibilité : Testcontainers permet de créer des plugins pour différents services, facilitant ainsi l'intégration avec des architectures complexes.
  • Chaos Testing : Il est possible de simuler des pannes réseau ou d'autres scénarios d'échec, ce qui est essentiel pour tester la résilience des applications.

PGlite

PGlite est une implémentation de PostgreSQL en WebAssembly, ce qui présente plusieurs avantages :

  • Performance : Étant compilé en WebAssembly, PGlite offre des temps d'exécution très rapides, presque équivalents à ceux du JavaScript natif.
  • Légèreté : Avec un poids de seulement quelques mégaoctets, il est idéal pour les tests d'intégration rapides.
  • Limites : Bien qu'il soit performant pour la plupart des tests, PGlite ne gère pas le pooling de connexions, ce qui peut poser problème pour des scénarios de tests plus complexes.

Vitest

Vitest est un framework de test qui se distingue par ses fonctionnalités avancées :

  • Isolation des tests : Grâce à des mécanismes comme provide et inject, Vitest permet de gérer facilement les dépendances entre les tests.
  • Global Setup : Cette fonctionnalité permet de configurer des environnements de test avant l'exécution des tests, optimisant ainsi le temps d'exécution.
  • Parallélisation : Vitest utilise des workers pour exécuter les tests en parallèle, ce qui réduit considérablement le temps d'attente.

Ce qu'il faut retenir

Les outils présentés par Alexandre Victoor offrent des solutions concrètes pour améliorer les tests d'intégration dans les projets NodeJS. Testcontainers facilite la gestion des environnements Docker, PGlite optimise les performances des tests avec une base de données légère, et Vitest propose des fonctionnalités avancées pour une meilleure gestion des tests. Ensemble, ces outils permettent de réduire le temps d'exécution des tests tout en augmentant leur fiabilité.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures microservices et des environnements cloud rend les tests d'intégration plus critiques que jamais. L'automatisation des tests et l'utilisation d'agents IA pour gérer les workflows de CI/CD deviennent des standards dans l'industrie. Les outils comme Testcontainers, PGlite et Vitest s'inscrivent parfaitement dans cette tendance, permettant aux développeurs de se concentrer sur la qualité du code tout en réduisant les délais de livraison. La capacité à simuler des environnements complexes et à tester des interactions entre services est essentielle pour garantir la robustesse des applications modernes. Dans ce contexte, la gouvernance des tests et l'orchestration des environnements deviennent des enjeux stratégiques pour les équipes de développement.

Fiche programme

Quand la Magie exécute du Code

  • Speakers : Marjorie Aubert (LinkedIn), Nicolas Bétheuil (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 24/04/2026, 10:30 à 11:15 · Salle Neuilly 151

Ce talk révèle comment de nombreux tours de magie reposent sur des algorithmes et structures mathématiques proches de l’informatique. En déconstruisant des illusions, il propose d’explorer l’algorithmique sous un angle original, mêlant magie, mathématiques et technologie, tout en conservant mystère et émerveillement.

Quand la Magie exécute du Code

La session "Quand la Magie exécute du Code" animée par Marjorie Aubert et Nicolas Bétheuil, explore une intersection fascinante entre magie, mathématiques et informatique. En déconstruisant des illusions magiques, les intervenants révèlent comment des algorithmes et des structures mathématiques sous-tendent des tours de magie, offrant ainsi une perspective originale sur l'algorithmique.

Ce que présente le talk

Ce talk propose une approche inédite de l'algorithmique en la reliant à la magie. Les conférenciers montrent que derrière les illusions se cachent des mécanismes mathématiques et informatiques. En analysant des tours emblématiques, ils démontrent que la magie peut être perçue comme une forme d'art algorithmique, où chaque tour est un programme avec des états, des transformations et des vérifications.

Points techniques importants

Algorithmes et Structures Mathématiques

Les intervenants définissent un algorithme comme un ensemble d'opérations structurées pour résoudre un problème. Ils distinguent deux catégories d'algorithmes :

  • Algorithmes explicites : Ceux qui opèrent sur des structures de données bien définies, comme les algorithmes de tri et de graphes.
  • Algorithmes implicites : Ceux qui utilisent des techniques d'apprentissage automatique, comme le machine learning.

Cette distinction est cruciale pour comprendre comment la magie utilise des principes mathématiques pour créer des illusions.

Le Principe de Gilbref

Un exemple marquant est le principe de Gilbref, qui repose sur la manipulation de cartes. En utilisant un mélange spécifique, les magiciens peuvent prédire la couleur d'une carte avec une précision surprenante. Ce tour repose sur des propriétés mathématiques qui garantissent que, malgré le mélange, certaines relations restent constantes. Cette structure est comparable à celle des fonctions dans la programmation, où les entrées et les sorties sont clairement définies.

Complexité Algorithmique

Les conférenciers abordent également la notion de complexité algorithmique, en se concentrant sur la complexité temporelle. Ils introduisent la notation Big O, qui permet d'évaluer la performance d'un algorithme indépendamment du matériel. Cette évaluation est essentielle pour choisir entre différents algorithmes selon leur efficacité.

Cryptographie et Illusion

Un autre point intéressant est la comparaison entre magie et cryptographie. Les magiciens, tout comme les cryptographes, manipulent la perception et cachent des informations essentielles. La cryptographie, en transformant les données en énigmes, partage des similarités avec les tours de magie, où l'essentiel est souvent dissimulé.

Ce qu'il faut retenir

La magie et l'algorithmique partagent des principes fondamentaux. Les deux disciplines reposent sur la manipulation de la perception et l'utilisation de structures mathématiques. La simplicité est souvent la clé du succès, que ce soit dans un tour de magie ou dans la conception d'un algorithme efficace. La capacité à cacher la complexité tout en offrant une expérience fluide est essentielle.

Réflexions Darkwood

L'interaction entre magie et algorithmique soulève des questions sur l'évolution des systèmes logiciels. À mesure que les technologies avancent, la nécessité de rendre les systèmes plus intuitifs et accessibles devient cruciale. L'automatisation et l'utilisation d'agents intelligents pourraient transformer la manière dont nous concevons les workflows, rendant la complexité invisible pour l'utilisateur final. En intégrant ces principes, les développeurs peuvent créer des expériences qui semblent magiques, tout en reposant sur des fondations solides d'algorithmique et de mathématiques. Cette démarche pourrait également influencer la gouvernance des systèmes, en rendant la technologie plus transparente et éthique.

Fiche programme

Et si écrire du SQL redevenait cool ?

  • Speakers : Sébastien Ferrer (LinkedIn)
  • Type : Lunch Talk
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 24/04/2026, 12:35 à 12:50 · Salle Neuilly 153

Ce talk présente SQLC, un outil permettant d’écrire des requêtes SQL tout en générant du code Go type-safe et performant, sans complexité ni dépendances excessives. Il propose une alternative complémentaire aux ORMs, offrant contrôle et efficacité dans la gestion des bases de données au sein de stacks modernes.

Et si écrire du SQL redevenait cool ?

Dans un monde où les ORM dominent le paysage du développement, la question de la pertinence du SQL traditionnel se pose. Sébastien Ferrer, ingénieur chez OVHcloud, nous invite à redécouvrir le SQL à travers SQLC, un outil qui génère du code Go type-safe à partir de requêtes SQL. Ce talk, bien que destiné à un public débutant, soulève des enjeux cruciaux pour les développeurs expérimentés, notamment en matière de contrôle, de performance et d'intégration dans des stacks modernes.

Ce que présente le talk

Le talk explore SQLC, un générateur de code qui permet d'écrire des requêtes SQL tout en produisant du code Go performant et sans dépendances excessives. Contrairement aux ORM, qui masquent souvent la complexité des requêtes SQL, SQLC offre une approche qui combine la simplicité d'écriture avec la robustesse du typage. L'objectif est de permettre aux développeurs de garder un contrôle total sur leurs requêtes tout en évitant le surcoût de la gestion manuelle des requêtes préparées.

Points techniques importants

Architecture et intégration

SQLC fonctionne comme un outil autonome qui s'intègre facilement dans un projet Go. Il nécessite une configuration simple, où l'on définit le moteur de base de données, le schéma SQL et les requêtes à générer. À partir de cette configuration, SQLC produit des fichiers Go prêts à l'emploi, ce qui simplifie considérablement le processus de développement.

Type-safety et performance

L'un des principaux avantages de SQLC est sa capacité à générer du code type-safe. Cela signifie que les erreurs de type sont détectées à la compilation plutôt qu'à l'exécution, ce qui réduit les risques de bugs liés aux requêtes SQL. Cette approche améliore également la performance, car le code généré est optimisé pour le langage Go, évitant ainsi les surcoûts souvent associés aux ORM.

Gestion des migrations

SQLC se distingue par sa capacité à gérer les migrations de base de données. Contrairement à de nombreux ORM, qui peuvent avoir des difficultés à s'adapter aux évolutions des schémas, SQLC peut reconstruire les modèles de données à partir de fichiers de migration. Cela garantit que le code généré est toujours en phase avec l'état actuel de la base de données.

Flexibilité et contrôle

SQLC offre une flexibilité que les ORM ne peuvent pas égaler. Les développeurs peuvent écrire des requêtes SQL directement, tout en profitant de la génération automatique de code. Cela permet de manipuler des requêtes complexes sans avoir à sacrifier la lisibilité ou la maintenabilité du code.

Ce qu'il faut retenir

  • SQLC est un outil qui génère du code Go à partir de requêtes SQL, offrant une alternative aux ORM.
  • Il garantit un typage sûr, réduisant les erreurs à l'exécution.
  • La gestion des migrations est intégrée, permettant une synchronisation facile avec les évolutions des schémas.
  • SQLC offre un contrôle accru sur les requêtes, tout en maintenant une performance optimale.

Réflexions Darkwood

La montée en puissance d'outils comme SQLC souligne une tendance vers une plus grande maîtrise des bases de données dans le développement moderne. Alors que les ORM ont simplifié l'accès aux données, ils ont souvent conduit à une perte de contrôle pour les développeurs. SQLC, en revanche, réintroduit le SQL comme une compétence essentielle, tout en profitant des avantages du typage statique.

Cette évolution pourrait également influencer la manière dont nous concevons nos workflows de développement. L'intégration d'outils comme SQLC dans des pipelines CI/CD pourrait permettre une automatisation plus poussée des tests de requêtes et des migrations, renforçant ainsi la gouvernance des bases de données. En fin de compte, SQLC pourrait bien redéfinir notre rapport au SQL, le rendant à nouveau "cool" tout en s'inscrivant dans une dynamique d'optimisation et d'automatisation des processus de développement.

Fiche programme

Jujutsu et la fin de la peur du rebase !

  • Speakers : Anis CHAABANI (LinkedIn)
  • Type : Lunch Talk
  • Niveau : ADVANCED
  • Langue : French
  • Créneau : 24/04/2026, 13:00 à 13:15 · Salle Neuilly 252AB

Jujutsu et la fin de la peur du rebase !

Dans un écosystème de développement où la gestion de l'historique des versions peut rapidement devenir un casse-tête, le talk d'Anis Chaabani sur Jujutsu (ou "jj") se positionne comme une réponse pertinente aux appréhensions liées aux opérations de rebase dans Git. Cet outil de versioning moderne, lancé en 2022, promet de transformer notre interaction avec l'historique des commits, rendant les modifications plus sûres, explicites et réversibles.

Ce que présente le talk

Anis Chaabani, consultant indépendant et coach craft, nous introduit à Jujutsu, un système de contrôle de version (VCS) conçu pour coexister avec Git. En utilisant une approche fondée sur la théorie des patchs, Jujutsu vise à améliorer l'expérience développeur (DevEx) en simplifiant la gestion des conflits et en réduisant la charge mentale associée aux opérations de rebase. Le talk inclut une démonstration pratique de l'outil, illustrant comment il peut être intégré dans les workflows existants sans nécessiter de changements radicaux.

Points techniques importants

Architecture et compatibilité

Jujutsu est construit en Rust et est conçu pour être compatible avec Git. Il introduit des concepts tels que les "bookmarks", qui fonctionnent différemment des branches dans Git. Les bookmarks permettent de pointer vers des commits sans créer de nouvelles branches, ce qui simplifie la gestion de l'historique.

Gestion des conflits

L'un des principaux avantages de Jujutsu est sa gestion des conflits. Contrairement à Git, où un rebase interactif peut bloquer le développeur dans un tunnel de choix difficiles, Jujutsu permet de continuer à travailler même en cas de conflit. Les conflits sont traités comme des commits, ce qui permet de les résoudre sans interrompre le flux de travail.

Workflow simplifié

Avec Jujutsu, chaque modification est automatiquement enregistrée dans un commit, éliminant ainsi la nécessité d'utiliser des commandes comme git commit. Cela réduit la complexité des workflows, permettant aux développeurs de se concentrer sur le code plutôt que sur la gestion des versions.

Outils et fonctionnalités

  • Rebase et split : Jujutsu permet de rebaser et de diviser les commits de manière intuitive. Par exemple, un commit peut être séparé en plusieurs parties, chacune avec son propre message de commit.
  • Bookmarks : Ces derniers permettent de gérer l'historique sans les complications des branches, offrant une flexibilité accrue pour naviguer dans les commits.

Impact sur la DevEx

L'outil vise à réduire la charge mentale des développeurs en simplifiant les opérations de versioning. En minimisant les erreurs liées aux rebase et en rendant les conflits plus gérables, Jujutsu améliore la confiance et le confort des développeurs dans leur travail quotidien.

Ce qu'il faut retenir

Jujutsu représente une avancée significative dans la gestion des versions. En offrant une alternative plus intuitive à Git, il permet de réduire la complexité des opérations de rebase et de conflit. Les développeurs peuvent ainsi se concentrer sur leur code, tout en bénéficiant d'un historique clair et propre.

Réflexions Darkwood

L'émergence d'outils comme Jujutsu souligne une tendance vers l'automatisation et l'amélioration de l'expérience développeur dans un monde où la complexité des systèmes logiciels ne cesse d'augmenter. En intégrant des concepts tels que les bookmarks et en repensant la gestion des conflits, Jujutsu s'inscrit dans une évolution plus large vers des workflows plus fluides et moins contraignants. À mesure que l'IA et les agents intelligents prennent une place prépondérante dans le développement logiciel, des outils comme Jujutsu pourraient devenir essentiels pour garantir que la charge mentale ne soit pas simplement transférée à des systèmes automatisés, mais également pour assurer une gouvernance efficace et une orchestration harmonieuse des processus de développement.

Fiche programme

Moins d’outils, plus d’impact : une stratégie de tests automatisés en scale-up

  • Speakers : Asma Sebai (LinkedIn)
  • Type : Lunch Talk
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 13:00 à 13:15 · Salle Paris 143

Ce talk présente le retour d’expérience d’une scale-up ayant bâti progressivement une stratégie d’automatisation des tests fonctionnels et d’intégration API. Partis de tests manuels, ils ont intégré un pipeline CI/CD GitHub/AWS, alliant sécurité, performance et fiabilité, avec une approche pragmatique adaptée à une équipe QA restreinte.

Moins d’outils, plus d’impact : une stratégie de tests automatisés en scale-up

Dans un contexte où la rapidité de livraison et la qualité des produits sont devenues des enjeux cruciaux pour les scale-ups, la session animée par Asma Sebai, responsable qualité chez Equisign, met en lumière une approche pragmatique de l'automatisation des tests. Ce retour d'expérience illustre comment une équipe QA restreinte peut bâtir une stratégie efficace, intégrant sécurité, performance et fiabilité dans un pipeline CI/CD.

Ce que présente le talk

Asma Sebai partage le parcours d'Equisign, un éditeur de logiciels spécialisé dans l'envoi recommandé électronique, qui a évolué d'une approche de tests manuels à une stratégie d'automatisation des tests fonctionnels et d'intégration API. L'accent est mis sur l'importance de choisir les bons outils au bon moment, en tenant compte des contraintes d'une équipe en pleine structuration. Le talk aborde les défis rencontrés et les solutions mises en place pour garantir la qualité sans ralentir le processus de développement.

Points techniques importants

Architecture et Processus de Test

La stratégie de test a été conçue pour s'intégrer dans le cycle de développement, avec une attention particulière portée à la qualité dès les premières phases. Asma souligne l'importance de :

  • Définir une stratégie globale de test : Cela inclut l'analyse et la conception des cas de test, la recette, et les tests de non-régression avant la mise en production.
  • Intégration continue : Les tests doivent être automatisés et intégrés dans le pipeline CI/CD pour garantir une validation rapide et efficace des releases.

Automatisation des Tests

L'automatisation a débuté par les tests API, considérés comme le cœur du produit. Les choix d'outils ont été dictés par la nécessité d'une intégration fluide avec les pratiques existantes :

  • Postman : Utilisé pour structurer les tests manuels, il a permis de créer une base solide avant d'automatiser.
  • Newman : Choisi pour son intégration avec Postman, il permet d'exécuter les tests en ligne de commande et génère des rapports HTML, facilitant la visibilité sur les résultats des tests.

Sécurité et Performance

L'intégration de tests de sécurité et de performance a été une priorité. Les tests incluent :

  • Vérification des CVE : Pour s'assurer que les dépendances ne présentent pas de failles de sécurité.
  • Tests de ports ouverts : Réalisés avec NMAP pour garantir la sécurité de l'application.
  • Tests de performance : Essentiels pour maintenir la stabilité du produit face à une augmentation des utilisateurs.

Outils de Gestion de Tests

Pour piloter et organiser les tests, Asma a introduit Squash, un outil de gestion de tests qui permet de synchroniser les tests manuels et automatisés. Cela a permis une meilleure visibilité sur les anomalies et une prise de décision éclairée concernant les mises en production.

Ce qu'il faut retenir

  • Progressivité : L'automatisation des tests doit être introduite de manière progressive, en commençant par les tests manuels pour bien comprendre le produit.
  • Choix d'outils pragmatiques : Il est crucial de sélectionner des outils qui répondent aux besoins spécifiques de l'équipe, plutôt que de se laisser séduire par les solutions les plus puissantes.
  • Collaboration inter-équipes : La qualité est une responsabilité partagée, impliquant non seulement l'équipe QA mais aussi les développeurs.

Réflexions Darkwood

L'expérience d'Asma Sebai chez Equisign illustre une tendance croissante dans l'industrie du développement : l'intégration de la qualité dans chaque étape du cycle de vie du développement logiciel. Alors que les équipes cherchent à automatiser et à orchestrer leurs workflows, il devient essentiel de repenser la gouvernance des tests. L'automatisation ne doit pas être perçue comme une fin en soi, mais comme un moyen d'améliorer la collaboration et la réactivité face aux besoins du marché.

À l'avenir, l'intégration de l'IA dans les processus de test pourrait offrir des opportunités pour affiner encore davantage la qualité des livraisons, en permettant une détection proactive des anomalies et en optimisant les workflows. La stratégie adoptée par Equisign pourrait servir de modèle pour d'autres scale-ups cherchant à allier rapidité et qualité dans un environnement en constante évolution.

Fiche programme

Jdeps, Jlink et les layers : faites perdre du poids à vos images Docker Java !

  • Speakers : Benjamin Barbe (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 15:40 à 16:25 · Salle Neuilly 151

Cette session montre comment réduire la taille des images Docker Java : création de runtimes allégés avec jdeps/jlink, optimisation des layers Docker et Spring, nettoyage automatique et gestion des pièges liés à Reflection. Un talk pratique pour développeurs intermédiaires souhaitant des conteneurs Java plus légers et efficaces.

Jdeps, Jlink et les layers : faites perdre du poids à vos images Docker Java !

L'optimisation des images Docker Java est devenue un enjeu crucial dans un contexte où les microservices et les applications conteneurisées prennent de plus en plus d'ampleur. La session animée par Benjamin Barbe, expert technique chez SQLI, aborde des techniques pratiques pour réduire la taille des images Docker, en se basant sur des outils comme Jdeps et Jlink, tout en respectant les bonnes pratiques de développement.

Ce que présente le talk

Benjamin Barbe nous plonge dans le monde des images Docker Java, souvent trop volumineuses en raison de l'intégration de JDK complets et de dépendances inutiles. La session met en avant des stratégies concrètes pour alléger ces images, notamment à travers la création de runtimes personnalisés, l'optimisation des layers Docker, et la gestion des pièges liés à l'utilisation de l'API Reflection. L'objectif est de permettre aux développeurs intermédiaires d'atteindre une efficacité accrue dans la gestion de leurs conteneurs Java.

Points techniques importants

Architecture des images Docker

L'architecture des images Docker Java est souvent lourde, en particulier lorsque chaque microservice embarque un JDK complet. Barbe souligne l'importance de passer à un JRE allégé, en utilisant des images de base comme Alpine pour réduire la taille initiale.

Utilisation de Jdeps et Jlink

Jdeps

Jdeps est un outil essentiel pour analyser les dépendances d'une application Java. Il permet de lister les modules utilisés par une application, mais il est important de noter qu'il ne scanne que le code de l'application, sans tenir compte des dépendances externes. Pour une analyse complète, il est nécessaire d'extraire le JAR et de fournir les dépendances à Jdeps.

Jlink

Jlink, quant à lui, permet de créer un runtime Java personnalisé. En spécifiant uniquement les modules nécessaires, il est possible de réduire significativement la taille du JRE. Barbe démontre que, grâce à Jlink, il est possible de passer d'un JRE de 136 Mo à seulement 55 Mo, une réduction impressionnante qui impacte directement la taille des images Docker.

Optimisation des layers Docker

La gestion des layers est cruciale pour minimiser la taille des images. Barbe évoque l'utilisation de commandes comme apk add --no-cache pour éviter d'accumuler des fichiers temporaires inutiles. L'approche multi-stage de Docker permet également de séparer les étapes de construction et de déploiement, ce qui contribue à alléger l'image finale.

Gestion de l'API Reflection

L'utilisation de l'API Reflection peut entraîner des surprises, notamment en termes de taille d'image et de performance. Barbe met en garde contre les implications de cette API, qui peut inclure des classes non nécessaires dans l'image finale.

Ce qu'il faut retenir

  • Réduction de la taille des images : L'utilisation de Jdeps et Jlink permet de créer des runtimes Java allégés, réduisant ainsi la taille des images Docker.
  • Bonnes pratiques Docker : L'optimisation des layers et l'utilisation d'images de base légères comme Alpine sont essentielles.
  • Attention à Reflection : L'API Reflection peut ajouter des classes non désirées, augmentant la taille de l'image.

Réflexions Darkwood

Cette session met en lumière une tendance croissante vers l'optimisation des systèmes logiciels, particulièrement dans le domaine des microservices. La capacité à automatiser la création de runtimes personnalisés et à gérer efficacement les dépendances est un pas vers des architectures plus légères et plus performantes. Dans un monde où l'automatisation et l'orchestration prennent de l'ampleur, la réduction de l'empreinte des conteneurs devient un enjeu majeur pour la gouvernance des ressources. Les techniques présentées par Barbe ne sont pas seulement des solutions ponctuelles, mais s'inscrivent dans une évolution plus large vers des systèmes logiciels résilients et efficaces, adaptés aux défis contemporains de l'industrie du développement.

Fiche programme

De la galère des setups locaux aux DevContainers : notre retour d'expérience.

  • Speakers : Thomas Rumas (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 24/04/2026, 17:00 à 17:30 · Salle Neuilly 151

Ce Tool in Action d’ADEO présente l’adoption des DevContainers pour unifier et automatiser les environnements de développement. Après les limites des scripts bash, la solution simplifie l’installation, la personnalisation et l’intégration en entreprise, permettant de lancer un projet en un clic et d’éliminer les problèmes de configuration locale.

De la galère des setups locaux aux DevContainers : notre retour d'expérience

Dans un écosystème de développement en constante évolution, la gestion des environnements locaux est devenue un véritable casse-tête. La session présentée par Thomas Rumas d'ADEO aborde cette problématique en mettant en avant l'adoption des DevContainers comme solution pour unifier et automatiser les environnements de développement. Ce retour d'expérience illustre comment cette approche permet de simplifier l'onboarding des nouveaux développeurs tout en réduisant les erreurs de configuration.

Ce que présente le talk

La session se concentre sur les défis rencontrés lors de la configuration des environnements de développement et sur la transition vers les DevContainers. Thomas Rumas explique comment l'utilisation de scripts bash pour standardiser les installations a montré ses limites, entraînant des frustrations lors de l'onboarding des nouveaux arrivants. Les DevContainers, en encapsulant l'environnement de développement complet, offrent une solution plus robuste et reproductible.

Points techniques importants

Problématiques des setups locaux

  • Complexité croissante : La diversité des outils, des versions et des configurations rend la maintenance des environnements de développement de plus en plus complexe. La phrase "Ça marche sur ma machine !" illustre bien ce dilemme.
  • Onboarding laborieux : L'exemple d'un nouvel arrivant, Régis, met en lumière le temps perdu à configurer son environnement, souvent à cause de documentations longues et peu claires.

Limites des scripts bash

  • Maintenance complexe : Les scripts nécessitent une mise à jour régulière et leur maintenance peut devenir un fardeau, surtout dans des équipes nombreuses.
  • Visibilité limitée : Les scripts s'exécutent sur la machine de chaque développeur, rendant difficile la garantie d'un environnement homogène.

Avantages des DevContainers

  • Reproductibilité : Les DevContainers garantissent que chaque projet dispose de son propre environnement, éliminant les problèmes de compatibilité entre machines.
  • Isolation complète : Chaque DevContainer fonctionne dans un environnement Linux isolé, permettant de gérer les dépendances et les configurations spécifiques sans interférer avec le système d'exploitation hôte.
  • Responsabilité décentralisée : Les équipes de développement peuvent gérer et maintenir leurs propres DevContainers, ce qui favorise une meilleure collaboration et une réactivité accrue.

Mise en œuvre chez ADEO

  • Templates d'entreprise : ADEO a développé des modèles de DevContainers intégrant les outils et configurations nécessaires, facilitant ainsi l'onboarding tout en respectant les contraintes d'entreprise.
  • Formation et documentation : Un effort a été fait pour former les développeurs à l'utilisation des DevContainers via une plateforme interne, garantissant ainsi une adoption réussie.

Ce qu'il faut retenir

L'adoption des DevContainers chez ADEO a permis de transformer l'expérience de développement en offrant des environnements de travail standardisés et reproductibles. Cette solution répond aux défis de l'onboarding et de la maintenance des environnements, tout en favorisant une meilleure collaboration au sein des équipes.

Réflexions Darkwood

L'évolution vers des environnements de développement encapsulés comme les DevContainers s'inscrit dans une tendance plus large vers l'automatisation et la standardisation. À mesure que les systèmes deviennent plus complexes, la nécessité d'outils qui simplifient la gestion des environnements se renforce. Les DevContainers ne sont pas seulement une solution technique, mais un pas vers une gouvernance plus efficace des workflows de développement. Ils permettent aux équipes de se concentrer sur la création de valeur plutôt que sur la gestion des configurations, tout en facilitant l'intégration de nouvelles technologies et de pratiques modernes dans le développement logiciel.

Fiche programme

JCStress : Plonger au cœur de la concurrence et des systèmes distribués en Java

  • Speakers : Riad Maouchi (LinkedIn), Christopher Etancelin (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 17:00 à 17:30 · Salle Paris 242AB

Ce talk présente JCStress, l’outil d’OpenJDK pour tester la sûreté des codes Java concurrents. Il montre comment écrire et exécuter des tests JCStress afin de détecter des bugs subtils liés à l’exécution multi-threadée, et fiabiliser ainsi les applications concurrentes et distribuées.

JCStress : Plonger au cœur de la concurrence et des systèmes distribués en Java

Dans un monde où les applications Java sont de plus en plus concurrentes et distribuées, la gestion des threads devient un enjeu majeur. La session "JCStress : Plonger au cœur de la concurrence et des systèmes distribués en Java" a été l'occasion d'explorer un outil essentiel pour tester la sûreté des codes Java concurrents. Présentée par Riad Maouchi et Christopher Etancelin de la Société Générale, cette conférence a mis en lumière les subtilités de la concurrence en Java et les défis associés à l'exécution multi-threadée.

Ce que présente le talk

Le talk se concentre sur JCStress, un outil d'OpenJDK conçu pour détecter des bugs subtils dans le code Java concurrent. À travers des démonstrations pratiques, les intervenants ont montré comment écrire et exécuter des tests JCStress afin de révéler des problèmes de visibilité, d’ordre d’exécution et d’atomicité qui peuvent passer inaperçus lors des tests unitaires traditionnels.

Points techniques importants

Concurrence en Java : Un défi complexe

La session a débuté par une réflexion sur la complexité de la concurrence en Java, qui peut être comparée à la mécanique quantique. Les intervenants ont souligné que les comportements inattendus peuvent survenir en production, même si le code fonctionne correctement en local. Les problèmes de concurrence, tels que les bugs de visibilité et d’ordre d’exécution, sont souvent causés par la façon dont les threads interagissent avec la mémoire et les caches CPU.

Architecture et Java Memory Model

Les intervenants ont présenté les bases de l'architecture des CPU et du Java Memory Model (JMM). Ils ont expliqué comment les caches L1, L2 et L3 influencent la visibilité des données entre threads. Par exemple, lorsqu'un thread écrit dans son cache, les autres threads peuvent ne pas voir cette écriture immédiatement, ce qui peut entraîner des incohérences. Le concept de "happens-before" a été introduit comme une garantie essentielle pour assurer la visibilité des effets d'un thread sur un autre.

JCStress : Un outil de test puissant

JCStress a été présenté comme un outil capable de soumettre le code à un stress intense pour détecter des bugs de concurrence. Contrairement aux tests unitaires traditionnels, JCStress exécute des tests dans un environnement multi-threadé, contrôlant le timing au niveau nanoseconde pour forcer les interleavings des threads. Cela permet de révéler des problèmes qui ne se manifestent qu'en production.

Fonctionnement de JCStress

  • Configuration simple : JCStress s'intègre facilement dans les projets Java, nécessitant seulement quelques annotations pour définir les tests.
  • Types de résultats : Les résultats des tests peuvent être classés en plusieurs catégories : "acceptable", "intéressant" et "interdit". Cela permet aux développeurs de mieux comprendre les anomalies rencontrées.
  • Rapports détaillés : Après l'exécution des tests, JCStress génère des rapports qui fournissent des informations sur la fréquence des erreurs et les conditions dans lesquelles elles se produisent.

Démonstration pratique

Les intervenants ont réalisé une démonstration en direct d'une application de vote pour des pizzas, illustrant comment JCStress peut être utilisé pour identifier des bugs de concurrence. En soumettant l'application à une forte charge de votes, ils ont pu reproduire des problèmes de concurrence et les corriger en temps réel, montrant ainsi l'efficacité de JCStress dans un scénario concret.

Ce qu'il faut retenir

  • Importance de la concurrence : La gestion des threads en Java est complexe et nécessite des outils adaptés pour détecter les bugs subtils.
  • JCStress comme solution : Cet outil permet d'effectuer des tests de concurrence approfondis, révélant des problèmes que les tests unitaires ne peuvent pas détecter.
  • Compréhension du JMM : Une bonne connaissance du Java Memory Model est essentielle pour écrire un code concurrent sûr.

Réflexions Darkwood

La session sur JCStress souligne l'évolution des systèmes logiciels vers une complexité accrue, où la concurrence et la distribution sont omniprésentes. L'automatisation des tests de concurrence, comme le fait JCStress, devient cruciale pour garantir la fiabilité des applications modernes. À mesure que les architectures évoluent vers des systèmes distribués, l'intégration d'outils capables de simuler des environnements de production devient indispensable. L'impact de ces outils sur la gouvernance des systèmes et la qualité du code pourrait transformer la manière dont les développeurs abordent la concurrence, rendant les applications plus robustes face aux défis d'un monde toujours plus connecté.

Fiche programme

Front-end & UX

Comment concevoir et tester un site accessible ?

  • Speakers : Emmanuelle ABOAF (LinkedIn · Bluesky · Mastodon)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 15:40 à 16:25 · Salle Paris 143

Cette conférence présente les six erreurs d’accessibilité web les plus fréquentes, des solutions pratiques en HTML, CSS et JavaScript, et des méthodes de test (lecteur d’écran, clavier, automatisation). À travers une démonstration en live-coding, elle montre que l’accessibilité numérique est accessible à tous les développeurs.

Comment concevoir et tester un site accessible ?

L'accessibilité numérique est un enjeu crucial dans le développement web moderne. Alors que moins de 5 % des sites internet sont réellement accessibles aux personnes handicapées, il est impératif pour les développeurs de comprendre et d'intégrer des pratiques d'accessibilité dans leurs projets. La conférence d'Emmanuelle ABOAF, intitulée "Comment concevoir et tester un site accessible ?", aborde ce sujet avec des démonstrations pratiques et des recommandations concrètes.

Ce que présente le talk

Emmanuelle ABOAF présente les six erreurs d’accessibilité web les plus fréquentes et propose des solutions pratiques en HTML, CSS et JavaScript. Elle met également en avant des méthodes de test, notamment l'utilisation de lecteurs d'écran et de la navigation au clavier. À travers une démonstration en live-coding, elle démontre que l’accessibilité numérique est à la portée de tous les développeurs.

Points techniques importants

Erreurs d'accessibilité courantes

  1. Contraste insuffisant : L'importance d'un bon contraste entre le texte et le fond est soulignée. Les outils comme le "Win Checker" permettent de vérifier les ratios de contraste, qui doivent respecter les normes WCAG (Web Content Accessibility Guidelines). Un ratio de 4.5:1 est recommandé pour le niveau AA.

  2. Navigation au clavier : Emmanuelle démontre que la navigation au clavier doit être fluide et intuitive. Les éléments interactifs doivent être visibles lors de la navigation au clavier, ce qui implique de ne pas désactiver les styles de focus.

  3. Attributs alt pour les images : L'usage correct de l'attribut alt est essentiel pour décrire les images. Les descriptions doivent être pertinentes et informatives, permettant aux utilisateurs de lecteurs d'écran de comprendre le contenu visuel.

  4. Formulaires accessibles : Les formulaires doivent être conçus pour être utilisables par tous. Cela inclut l'utilisation de labels associés aux champs de saisie et la vocalisation des messages d'erreur via des attributs ARIA (Accessible Rich Internet Applications).

  5. Liens explicites : Les liens doivent avoir des textes descriptifs. Des phrases comme "en savoir plus" doivent être complétées pour indiquer clairement la destination du lien.

  6. Sémantique HTML : L'utilisation correcte des éléments HTML est cruciale. Par exemple, les boutons et les liens doivent être utilisés de manière appropriée pour éviter toute confusion lors de la navigation.

Méthodes de test

  • Lecteurs d'écran : Emmanuelle utilise NVDA pour démontrer comment un lecteur d'écran interprète le contenu d'une page. Cela permet de mettre en lumière les erreurs d'accessibilité et d'ajuster le code en conséquence.

  • Navigation au clavier : La démonstration inclut des tests de navigation au clavier pour s'assurer que tous les éléments interactifs sont accessibles sans souris.

  • Automatisation des tests : Bien que la conférence ne se concentre pas sur les outils d'automatisation, il est mentionné que des tests automatisés peuvent compléter les tests manuels, surtout pour les vérifications de contraste et d'attributs.

Ce qu'il faut retenir

L'accessibilité numérique est une responsabilité partagée par tous les développeurs. En intégrant des pratiques simples et des tests rigoureux, il est possible de créer des sites web accessibles. Les six erreurs courantes identifiées par Emmanuelle ABOAF sont des points de départ pour améliorer l'accessibilité de n'importe quel projet.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une plus grande inclusivité est un impératif dans notre industrie. L'automatisation des tests d'accessibilité, couplée à l'utilisation croissante d'agents intelligents, pourrait transformer la manière dont nous concevons et testons nos applications. En intégrant des workflows d'accessibilité dès le début du processus de développement, nous pouvons non seulement améliorer l'expérience utilisateur pour les personnes handicapées, mais également renforcer la gouvernance et la conformité des projets. La prise de conscience croissante de l'importance de l'accessibilité pourrait également influencer les normes de développement à l'échelle de l'industrie, rendant le web plus inclusif pour tous.

Fiche programme

SVG et IA générative : comment repenser l’image interactive sur son site web

  • Speakers : Simon Bedard
  • Type : Tools-in-Action
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 17:50 à 18:20 · Salle Neuilly 251

Cette présentation met en avant la puissance et la flexibilité du format SVG pour le web : adaptable, précis et léger en JavaScript. Malgré sa complexité syntaxique, l’IA permet d’en exploiter tout le potentiel. Le talk propose une redécouverte du SVG à travers démonstrations et générateurs en direct.

SVG et IA générative : comment repenser l’image interactive sur son site web

Dans un contexte où l'interactivité et la personnalisation des contenus web sont devenues essentielles, la session présentée par Simon Bedard sur l'utilisation des SVG (Scalable Vector Graphics) et de l'IA générative offre un éclairage pertinent. Le SVG, souvent sous-exploité par les développeurs, se révèle être un outil puissant pour créer des images interactives, légères et adaptables. Cette présentation met en avant comment l'IA peut lever certaines des complexités inhérentes à la création de SVG, permettant ainsi une approche plus intuitive et efficace.

Ce que présente le talk

La session explore la flexibilité et la puissance des SVG, tout en abordant les défis que pose leur complexité syntaxique. Simon Bedard démontre comment l'IA peut faciliter la génération d'éléments SVG, rendant leur utilisation plus accessible aux développeurs. À travers des démonstrations en direct, il illustre le processus de création d'images interactives, en intégrant des éléments générés par l'IA pour enrichir l'expérience utilisateur.

Points techniques importants

Architecture et Patterns

L'utilisation des SVG permet de créer des images qui s'adaptent à différentes tailles d'écran sans perte de qualité. Simon souligne l'importance de l'architecture des SVG, qui repose sur des vecteurs plutôt que des pixels, permettant ainsi une scalabilité optimale.

IA et Génération d'Images

L'intégration de l'IA dans le processus de création SVG est un point central de la présentation. Simon montre comment des outils comme ChatGPT et Claude peuvent générer des éléments SVG à partir de simples prompts. Il partage son expérience de génération d'images, illustrant les itérations nécessaires pour obtenir un résultat satisfaisant.

  • Exemples de génération : Simon présente plusieurs versions d'un badge pour un chien, démontrant comment l'IA peut évoluer d'une première ébauche peu satisfaisante à une version finale plus aboutie.
  • Prompts et itérations : L'importance du prompting est mise en avant, où des ajustements successifs permettent d'affiner le résultat.

Performance et Optimisation

Les SVG sont particulièrement légers en termes de chargement, ce qui est crucial pour les performances web. Simon mentionne que, grâce à leur nature textuelle, les SVG peuvent être animés et modifiés facilement via JavaScript, offrant ainsi une interactivité enrichie sans alourdir le site.

Outils et Workflow

Simon présente des outils qui facilitent la visualisation et l'édition des SVG. Il évoque l'importance d'avoir un environnement de développement qui permet de tester et d'affiner les SVG en temps réel, ce qui est essentiel pour une bonne expérience de développement.

Sécurité et Gouvernance

Bien que la présentation ne se concentre pas spécifiquement sur la sécurité, l'utilisation d'IA pour générer du code SVG soulève des questions sur la qualité et la sécurité du code généré. Les développeurs doivent rester vigilants face aux potentiels bugs ou failles de sécurité qui pourraient être introduits par des générateurs automatiques.

Ce qu'il faut retenir

  • Flexibilité des SVG : Les SVG sont un format d'image puissant et adaptable, idéal pour le développement web moderne.
  • Rôle de l'IA : L'IA peut simplifier la création et la personnalisation des SVG, rendant leur utilisation plus accessible.
  • Importance du Prompting : La qualité du résultat généré par l'IA dépend fortement de la précision des prompts fournis.
  • Performance optimisée : Les SVG offrent des avantages en termes de performance, étant légers et facilement animables.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une plus grande interactivité et personnalisation est indéniable. L'intégration de l'IA dans le développement web, notamment pour la génération d'images SVG, marque une étape significative vers l'automatisation des workflows créatifs. Cette tendance soulève des questions sur la gouvernance des outils génératifs et sur la nécessité d'une supervision humaine pour garantir la qualité et la sécurité du code produit.

À mesure que les architectures modernes adoptent des pratiques de développement plus agiles et centrées sur l'utilisateur, l'utilisation des SVG et de l'IA pourrait devenir un standard dans la création d'expériences web interactives. Les développeurs doivent donc se préparer à embrasser ces technologies et à les intégrer dans leurs processus de développement pour rester compétitifs dans un paysage numérique en constante évolution.

Fiche programme

Au coeur d’une pipeline: démystifions Vite et ses plugins

  • Speakers : Estéban Soubiran (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 14:35 à 15:20 · Salle Neuilly 151

Cette session explore l’ascension de Vite comme standard du frontend et dévoile le cœur de sa puissance : sa pipeline de plugins. À travers histoire, architecture et exemples concrets, elle explique leur fonctionnement et leur création, pour comprendre en profondeur le moteur extensible qui propulse l’écosystème moderne.

Au cœur d’une pipeline: démystifions Vite et ses plugins

La montée en puissance de Vite dans l'écosystème du développement frontend est indéniable. En quelques années, cet outil a su s'imposer comme une référence, surpassant même des géants comme Webpack en termes de téléchargements. Cette session, animée par Estéban Soubiran, explore les fondements de Vite, en mettant l'accent sur sa pipeline de plugins, un élément clé de son architecture extensible.

Ce que présente le talk

La conférence se concentre sur l'architecture de Vite et la manière dont ses plugins permettent d'étendre ses fonctionnalités. Estéban Soubiran aborde l'historique de Vite, son fonctionnement interne et propose des exemples concrets pour illustrer comment les plugins interagissent au sein de la pipeline. L'objectif est de démystifier cet outil et de rendre son utilisation plus accessible pour les développeurs.

Points techniques importants

Architecture de Vite

Vite se distingue des autres bundlers par son approche innovante :

  • Serveur de développement : Contrairement à Webpack, Vite utilise les modules ES (ECMAScript) nativement, permettant un chargement à la demande des fichiers JavaScript. Cela se traduit par un démarrage quasi instantané du serveur, sans les temps d'attente habituels.
  • Pipeline de plugins : Chaque fonctionnalité de Vite repose sur des plugins, y compris celles intégrées par défaut. Cela permet une grande flexibilité et une personnalisation poussée.

Fonctionnement des plugins

Les plugins sont au cœur de l'extensibilité de Vite. Estéban décrit plusieurs concepts clés :

  • Hooks : Les plugins peuvent interagir avec le cycle de vie de Vite via trois hooks principaux :
    • resolveId : Permet de récupérer ou de modifier l'identifiant d'un module.
    • load : Récupère le contenu d'un module à partir de son identifiant.
    • transform : Modifie le code d'un module avant qu'il ne soit envoyé au navigateur.

Ces hooks permettent aux développeurs de créer des plugins qui peuvent transformer le comportement de Vite selon leurs besoins.

Exemples concrets

Estéban propose de créer un plugin simple pour illustrer le processus :

  • Un plugin qui renvoie un objet avec les hooks mentionnés, permettant ainsi de comprendre comment interagir avec la pipeline de Vite.
  • L'interaction entre plusieurs plugins est également expliquée, montrant comment Vite itère sur chaque hook et chaque plugin pour produire une réponse finale.

Outils et intégrations

Vite s'intègre facilement avec des outils de l'écosystème JavaScript, comme Rollup, permettant de réutiliser des plugins existants. De plus, des outils comme vite-plugin-inspect permettent de visualiser la pipeline et les transformations effectuées par les différents plugins, offrant une meilleure compréhension du flux de données.

Ce qu'il faut retenir

Vite se positionne comme un outil incontournable dans le développement frontend grâce à :

  • Sa rapidité et sa simplicité de configuration.
  • Son architecture basée sur des plugins, qui permet une personnalisation et une extensibilité sans précédent.
  • La possibilité de créer des plugins pour adapter Vite aux besoins spécifiques des projets.

Réflexions Darkwood

L'essor de Vite et de sa pipeline de plugins illustre une tendance plus large dans l'évolution des systèmes logiciels : l'automatisation et l'extensibilité. Dans un monde où les exigences des applications web deviennent de plus en plus complexes, la capacité à intégrer facilement des fonctionnalités via des plugins devient cruciale.

Cette approche favorise également une gouvernance décentralisée des outils de développement, où chaque développeur peut contribuer à l'écosystème en créant des solutions adaptées. À mesure que les architectures modernes évoluent vers des systèmes plus modulaires et interopérables, l'importance des workflows flexibles et des agents intelligents dans le développement de logiciels ne fera que croître. Vite, en tant que plateforme, est bien positionné pour tirer parti de ces évolutions et continuer à influencer le paysage du développement frontend.

Fiche programme

Du Storytelling au rendu GPU : Quand Winamax remplace ta console de jeu

  • Speakers : Thomas Cami (LinkedIn), Anthony Maffert (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 15:40 à 16:25 · Salle Neuilly 151

Ce talk explore la gamification stratégique chez Winamax, où poker et paris deviennent de véritables jeux vidéo. À travers le projet City of Gold, il révèle comment design, animation et développement s’allient pour concilier richesse visuelle, architecture React et performance multi‑device, illustrant l’ingénierie d’une expérience joueur fluide et immersive.

Du Storytelling au rendu GPU : Quand Winamax remplace ta console de jeu

Le talk présenté par Thomas Cami et Anthony Maffert lors de la conférence Front-end & UX explore la manière dont Winamax, acteur majeur des jeux d'argent en ligne, utilise la gamification pour transformer l'expérience utilisateur en une aventure immersive. À travers le projet City of Gold, les intervenants démontrent comment le design, l'animation et le développement s'harmonisent pour offrir une expérience de jeu à la fois riche visuellement et performante sur divers appareils.

Ce que présente le talk

La présentation met en lumière la stratégie de gamification chez Winamax, où le poker et les paris sportifs sont conçus comme de véritables jeux vidéo. Les intervenants discutent des défis techniques rencontrés lors de l'intégration d'animations complexes et de la nécessité d'optimiser la performance tout en maintenant une architecture React robuste. L'objectif est de créer une expérience utilisateur fluide et engageante, capable de rivaliser avec les jeux vidéo traditionnels.

Points techniques importants

Architecture et intégration

  • Architecture React : Winamax utilise React pour sa flexibilité et sa capacité à gérer des interfaces complexes. L'intégration d'animations complexes, comme celles réalisées avec Spine, nécessite une réflexion approfondie sur la structure de l'application.
  • Collaboration interdisciplinaire : Les équipes de design, d'animation et de développement travaillent en étroite collaboration pour s'assurer que les animations ne soient pas seulement esthétiques, mais aussi fonctionnelles. Ce processus itératif permet d'affiner les concepts tout en respectant les contraintes techniques.

Performance et optimisation

  • Compromis techniques : Les intervenants soulignent l'importance de trouver un équilibre entre richesse visuelle et performance. Cela inclut des choix techniques concernant la gestion de la mémoire et l'autonomie des appareils.
  • Multi-device : L'expérience doit être fluide sur différents appareils, ce qui implique des tests rigoureux et des optimisations spécifiques pour chaque plateforme.

Gamification et expérience utilisateur

  • Formats de jeu innovants : Winamax a développé des formats comme l'Espresso et le Space KO, qui intègrent des éléments de jeu rapide et des jackpots aléatoires pour capter l'attention des utilisateurs.
  • Engagement des utilisateurs : L'introduction de mécaniques de jeu inspirées des jeux vidéo traditionnels vise à maintenir l'intérêt des utilisateurs, en particulier dans un contexte où l'attention des consommateurs est en déclin.

Ce qu'il faut retenir

Winamax a su transformer son approche des jeux d'argent en intégrant des éléments de gamification qui enrichissent l'expérience utilisateur. L'architecture React, couplée à des animations complexes et à une attention particulière portée à la performance, permet de créer des expériences immersives qui rivalisent avec celles des jeux vidéo. La collaboration entre les équipes de design et de développement est cruciale pour atteindre cet objectif.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des expériences de plus en plus immersives et interactives est un reflet des attentes croissantes des utilisateurs. La gamification, comme le démontre Winamax, devient un levier stratégique non seulement pour attirer de nouveaux utilisateurs, mais aussi pour fidéliser les existants. À mesure que l'automatisation et les agents IA prennent de l'ampleur, il sera intéressant de voir comment ces technologies peuvent être intégrées pour optimiser encore davantage les workflows de développement et la gouvernance des projets. La convergence entre jeux vidéo et applications de paris sportifs pourrait également ouvrir la voie à de nouvelles architectures modernes, où l'expérience utilisateur est au cœur de la conception logicielle.

Fiche programme

La révolution WebGPU : toute la puissance du GPU, sur le web et en dehors 🚀

  • Speakers : Julien Sulpis (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 15:40 à 16:25 · Salle Neuilly 153

Cette session présente WebGPU, la nouvelle API graphique issue d’une collaboration entre Google, Apple et Mozilla. Successeur moderne de WebGL, elle apporte les performances et fonctionnalités de Vulkan, DirectX 12 et Metal au web. L’exposé explore ses avantages, mesures de performance et usages futurs en 3D, IA et calcul GPU.

La révolution WebGPU : toute la puissance du GPU, sur le web et en dehors 🚀

L'émergence de WebGPU marque un tournant significatif dans le développement web, en offrant une API graphique moderne qui surpasse les limitations de WebGL. Cette session, animée par Julien Sulpis de Scaleway, explore les capacités de WebGPU, ses avantages en termes de performance et ses applications potentielles dans des domaines variés tels que la 3D, l'intelligence artificielle et le calcul GPU.

Ce que présente le talk

Julien Sulpis introduit WebGPU comme le successeur de WebGL, une API qui a longtemps été la référence pour le rendu graphique sur le web. En s'appuyant sur des technologies modernes comme Vulkan, DirectX 12 et Metal, WebGPU promet de transformer la manière dont les développeurs interagissent avec le GPU, en rendant accessible des fonctionnalités avancées directement dans le navigateur.

Points techniques importants

Architecture et fonctionnement de WebGPU

WebGPU se distingue par son architecture plus proche des APIs graphiques modernes. Contrairement à WebGL, qui repose sur un modèle d'état global, WebGPU adopte un modèle basé sur des objets, permettant une gestion plus fine et prévisible des ressources graphiques. Cela facilite la compréhension et la maintenance du code, tout en réduisant les erreurs liées à la mutation d'état global.

Performances et optimisation

Julien présente des mesures de performance comparatives entre WebGL et WebGPU. Les résultats montrent que WebGPU peut réduire considérablement le temps de rendu, notamment grâce à :

  • Rendu parallèle : WebGPU utilise pleinement les capacités de calcul parallèle des GPU modernes, permettant des rendus plus rapides et plus fluides.
  • Gestion des ressources : L'API permet une gestion plus efficace des ressources, réduisant le nombre d'appels à l'API et optimisant l'utilisation du CPU.

Usages futurs

Les applications potentielles de WebGPU sont vastes :

  • Graphismes 3D : Avec des rendus plus réalistes et fluides, WebGPU ouvre la voie à des expériences 3D immersives sur le web.
  • Intelligence Artificielle : L'API peut être utilisée pour des calculs intensifs en IA, permettant des modèles plus complexes et des traitements de données en temps réel.
  • Simulations physiques : WebGPU peut également être utilisé pour des simulations physiques avancées, rendant les environnements virtuels plus interactifs et dynamiques.

Comparaison avec WebGL

Julien souligne les limitations de WebGL, notamment sa verbosité et sa gestion d'état global, qui compliquent le développement. En revanche, WebGPU offre une interface plus intuitive et moins sujette aux erreurs, permettant aux développeurs de se concentrer sur la création plutôt que sur la gestion des états.

Ce qu'il faut retenir

WebGPU représente une avancée majeure dans le développement graphique sur le web. Avec sa capacité à tirer parti des GPU modernes, il permet des rendus plus rapides et plus complexes, tout en offrant une meilleure gestion des ressources. Les développeurs peuvent s'attendre à une amélioration significative des performances et à une simplification du processus de développement.

Réflexions Darkwood

L'évolution vers des APIs graphiques modernes comme WebGPU illustre une tendance plus large dans l'industrie du développement logiciel : l'automatisation et l'optimisation des workflows. En intégrant des capacités avancées directement dans le navigateur, WebGPU non seulement améliore l'expérience des développeurs, mais ouvre également la porte à des applications plus riches et interactives. Cette évolution vers des architectures modernes et des outils plus puissants pourrait redéfinir la manière dont nous concevons et développons des applications, en mettant l'accent sur l'efficacité et la performance. L'impact de ces changements sur l'industrie pourrait être profond, notamment en ce qui concerne l'accessibilité des technologies avancées pour un plus grand nombre de développeurs.

Fiche programme

La genIA directement dans mon navigateur, c’est possible ? (spoiler, oui 😉)

  • Speakers : Jean-François Garreau (LinkedIn · Bluesky)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 17:00 à 17:30 · Salle Paris 242AB

Cette présentation interroge la nécessité du « tout cloud » pour des tâches simples et explore comment les navigateurs modernes, désormais dotés de briques d’IA intégrées, offrent des alternatives locales, accessibles et économiques. Une démonstration pratique illustrera leurs capacités et limites, avec humour et esprit « effet démo ».

La genIA directement dans mon navigateur, c’est possible ? (spoiler, oui 😉)

Dans un monde où le cloud semble être la solution par défaut pour toutes les tâches, la session animée par Jean-François Garreau lors de la conférence "Tools-in-Action" met en lumière une alternative intrigante : l'intégration de l'intelligence artificielle directement dans nos navigateurs. Ce talk soulève des questions pertinentes sur la dépendance au cloud, les coûts d'infrastructure, et les enjeux de confidentialité, tout en démontrant comment les navigateurs modernes, enrichis de briques d’IA, peuvent offrir des solutions locales, accessibles et économiques.

Ce que présente le talk

Jean-François Garreau, directeur engineering chez SFEIR, explore les capacités d'IA intégrées dans les navigateurs modernes. Il interroge la nécessité d'une puissance de calcul colossale pour des tâches simples comme la correction d'un post LinkedIn ou la génération d'alternatives textuelles. À travers des démonstrations pratiques, il met en avant les API disponibles dans Chrome qui permettent d'exécuter des modèles de langage localement, tout en soulignant les avantages et les limites de ces solutions.

Points techniques importants

Architecture et API

  • API intégrées : Garreau présente les Built-in APIs de Chrome, qui permettent d'accéder à des modèles de langage directement dans le navigateur. Ces API, bien que souvent expérimentales, ouvrent la voie à des applications d'IA sans dépendance au cloud.
  • Modèles de langage : Il évoque l'utilisation de modèles comme Jimini Nano et GMA, qui sont configurés pour fonctionner avec ces API. Ces modèles permettent des interactions multimodales, intégrant à la fois du texte et de la voix.

Performance et Infrastructure

  • Exécution locale : L'un des points forts de cette approche est la capacité d'exécuter des modèles d'IA localement, réduisant ainsi la latence et les coûts associés à l'utilisation du cloud. Garreau souligne que les performances dépendent de la configuration matérielle, nécessitant un GPU avec un minimum de 4 Go de VRAM et un CPU performant.
  • Gestion des ressources : Les démonstrations incluent des indicateurs de performance qui montrent l'utilisation du CPU et de la mémoire, permettant ainsi d'évaluer l'impact des modèles sur les ressources locales.

Accessibilité et Utilisation

  • Facilité d'accès : Les API sont accessibles directement depuis l'objet Window dans le navigateur, ce qui facilite leur intégration dans des applications web. Garreau souligne l'importance de vérifier la compatibilité des API et des modèles avant de les utiliser.
  • Expérience utilisateur : L'approche de Garreau inclut des éléments d'interaction vocale, montrant comment les utilisateurs peuvent interagir avec les modèles d'IA de manière intuitive, même sans connexion Internet.

Limites et Défis

  • Dépendance aux flags : Les API étant expérimentales, leur utilisation nécessite souvent d'activer des flags dans Chrome. Cela peut limiter leur adoption dans des environnements de production.
  • Compatibilité : Bien que les API soient prometteuses, leur disponibilité est restreinte à certaines versions de Chrome et ne s'étend pas encore à d'autres navigateurs comme Edge ou Safari.

Ce qu'il faut retenir

La session de Jean-François Garreau met en avant une évolution significative dans l'usage de l'intelligence artificielle : l'intégration de modèles de langage directement dans les navigateurs. Cette approche permet de réduire la dépendance au cloud, d'améliorer la confidentialité et de diminuer les coûts d'infrastructure. Les démonstrations pratiques illustrent non seulement les capacités mais aussi les limites de ces technologies, ouvrant ainsi la voie à des applications d'IA plus accessibles et performantes.

Réflexions Darkwood

L'intégration de l'IA dans les navigateurs représente une avancée significative dans l'évolution des systèmes logiciels. En permettant des traitements locaux, cette approche soulève des questions sur l'automatisation et la gouvernance des données. À mesure que les agents IA deviennent plus autonomes, la nécessité d'une orchestration efficace et d'une gestion des workflows devient cruciale. Les développeurs doivent envisager ces nouvelles architectures non seulement comme des outils, mais comme des éléments centraux de l'expérience utilisateur et de la stratégie de développement. L'avenir des applications web pourrait ainsi s'orienter vers des solutions hybrides, combinant le meilleur du cloud et des capacités locales, tout en plaçant la confidentialité et la performance au cœur des préoccupations.

Fiche programme

Maman, j'ai développé un synthétiseur dans mon navigateur ! 😱 🎹 🎵

  • Speakers : Benjamin Legrand (X · LinkedIn · Bluesky · Mastodon)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 24/04/2026, 10:30 à 11:15 · Salle Paris 242AB

Maman, j'ai développé un synthétiseur dans mon navigateur ! 😱 🎹 🎵

Dans un monde où le développement web ne cesse d'évoluer, l'API WebAudio émerge comme un outil fascinant pour les développeurs cherchant à explorer les frontières entre technologie et art. Dans cette session, Benjamin Legrand nous invite à plonger dans l'univers des synthétiseurs, en particulier le mythique KORG MS-20, tout en utilisant les capacités offertes par les navigateurs modernes.

Ce que présente le talk

Benjamin Legrand partage son expérience de la création d'un synthétiseur en ligne, un projet qui a commencé comme un défi personnel. Il explore les concepts fondamentaux de la musique électronique, tout en intégrant des technologies web modernes telles que l'API WebAudio, Preact, et des pratiques de développement comme les tests automatisés et la gestion d'état.

Points techniques importants

Architecture et API WebAudio

L'API WebAudio permet de manipuler le son directement dans le navigateur. Benjamin explique comment créer un contexte audio et des oscillateurs pour générer des ondes sonores. Il souligne l'importance de l'échantillonnage et de la manipulation des données audio sous forme de tableaux de chiffres, un concept clé pour comprendre comment le son est traité numériquement.

  • Création d'un contexte audio : L'initialisation d'un contexte audio est essentielle pour commencer à produire du son.
  • Oscillateurs : Utilisés pour générer différentes formes d'ondes (sinusoïdales, triangulaires, etc.), les oscillateurs sont des éléments fondamentaux dans la synthèse sonore.
  • Graphes de routage : La connexion de différents nœuds audio permet de créer des chaînes de traitement du son, similaire à un synthétiseur modulaire.

Composants et réactivité

Benjamin utilise Preact, une alternative légère à React, pour structurer son application. Il met en avant l'importance de la réactivité et de la gestion d'état dans le développement d'interfaces utilisateur complexes.

  • Composants réutilisables : L'application est découpée en composants, facilitant la maintenance et la réutilisation du code.
  • Gestion d'état : L'utilisation de signaux pour gérer l'état des composants permet une réactivité fluide, essentielle pour une expérience utilisateur agréable.

Accessibilité et UX

Le talk aborde également l'importance de l'accessibilité dans le développement d'applications web, en veillant à ce que les fonctionnalités sonores soient accessibles à tous les utilisateurs. Benjamin évoque des pratiques pour garantir que l'interface soit intuitive et facile à utiliser.

Ce qu'il faut retenir

  • L'API WebAudio est un outil puissant pour la création de son dans le navigateur, permettant une manipulation fine des données audio.
  • L'architecture basée sur des composants, combinée à des pratiques de développement modernes, favorise la création d'applications réactives et maintenables.
  • L'accessibilité doit être une priorité dans le développement d'applications interactives, en particulier celles qui impliquent des éléments sonores.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures plus modulaires et réactives est indéniable. L'intégration de l'IA et des agents autonomes dans le développement de workflows complexes pourrait transformer la manière dont nous concevons les applications sonores. L'API WebAudio, en tant qu'outil accessible, ouvre la voie à une démocratisation de la création musicale, permettant à chacun de devenir un créateur. À mesure que les navigateurs continuent d'évoluer, nous pourrions voir émerger des applications encore plus sophistiquées, où l'art et la technologie se rencontrent de manière harmonieuse, redéfinissant ainsi les frontières de l'expérience utilisateur dans le domaine musical.

Fiche programme

Prolongez la vie de vos dashboards : Guide de survie anti-sapin de Noël

  • Speakers : Kamila Giedrojc (LinkedIn)
  • Type : Lunch Talk
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 12:35 à 12:50 · Salle Paris 143

Session dédiée à la conception de dashboards utiles et utilisés, abordant le choix pertinent des visualisations, l’option du tableau, les erreurs de design à éviter, et l’amélioration de l’accessibilité. Objectif : créer des tableaux de bord qui facilitent la prise de décision et évitent l’abandon par les utilisateurs.

Prolongez la vie de vos dashboards : Guide de survie anti-sapin de Noël

Dans un monde où la visualisation des données est devenue essentielle pour la prise de décision, la session animée par Kamila Giedrojc à la Société Générale aborde un problème crucial : la pérennité des dashboards. Trop souvent, ces outils, conçus avec enthousiasme, finissent par être abandonnés. Ce talk propose des solutions concrètes pour créer des dashboards qui non seulement attirent l'attention, mais qui engagent également les utilisateurs.

Ce que présente le talk

La session se concentre sur la conception de dashboards efficaces, en mettant l'accent sur le choix des visualisations, l'importance de l'intention derrière chaque élément et l'accessibilité. Kamila Giedrojc partage des stratégies pour éviter les erreurs de design courantes, souvent responsables de l'abandon des dashboards, et propose des méthodes pour garantir que ces outils restent utiles et utilisés.

Points techniques importants

Intention et Utilisateur

L'un des points centraux de la session est l'importance de définir l'intention derrière chaque dashboard. Kamila souligne que chaque visualisation doit répondre à une question précise : quelle action l'utilisateur doit-il entreprendre en consultant ces données ? Cette approche nécessite une compréhension approfondie des utilisateurs et de leurs besoins.

  • Questions clés à poser :
    • Qui est l'utilisateur ?
    • Quelle action doit-il entreprendre ?
    • Quand et comment utilise-t-il le dashboard ?

Choix des Visualisations

Le choix des visualisations est crucial pour la clarté des informations. Kamila met en garde contre l'utilisation excessive de graphiques complexes, comme les pie charts ou les donut charts, qui peuvent obscurcir les données. Elle recommande d'opter pour des visualisations qui facilitent la compréhension et la prise de décision.

  • Exemples de visualisations efficaces :
    • Bar charts pour la comparaison.
    • Tables pour les détails spécifiques.

Minimalisme et Accessibilité

Le minimalisme est un autre thème majeur. Trop d'informations ou de couleurs peuvent créer ce que Kamila appelle un "sapin de Noël", où rien ne se démarque. Elle préconise une approche qui privilégie la simplicité et la lisibilité.

  • Principes de design :
    • Limiter le nombre de couleurs et d'éléments graphiques.
    • Utiliser des alertes visuelles uniquement pour les informations critiques.

Éviter les Erreurs de Design

Kamila identifie plusieurs erreurs communes dans la conception de dashboards, notamment :

  • L'inclusion de trop de KPIs sans lien clair avec l'action.
  • La surcharge d'informations qui rend la prise de décision difficile.

Ce qu'il faut retenir

Pour construire des dashboards qui perdurent, il est essentiel de :

  1. Définir l'intention : Comprendre pourquoi et comment les utilisateurs interagiront avec le dashboard.
  2. Choisir judicieusement les visualisations : Opter pour des formats qui facilitent la compréhension des données.
  3. Privilégier le minimalisme : Éliminer le superflu pour se concentrer sur l'essentiel.

Réflexions Darkwood

La session de Kamila Giedrojc met en lumière un enjeu fondamental dans l'évolution des systèmes de visualisation des données. À une époque où l'automatisation et l'intelligence artificielle prennent de plus en plus d'importance, la conception de dashboards doit évoluer pour intégrer ces technologies tout en restant centrée sur l'utilisateur. L'avenir des dashboards réside dans leur capacité à s'adapter aux besoins changeants des utilisateurs tout en garantissant une accessibilité et une clarté optimales. En intégrant des agents intelligents capables d'analyser les données en temps réel, les dashboards pourraient devenir des outils proactifs, anticipant les besoins des utilisateurs plutôt que de simplement réagir à leurs requêtes.

Fiche programme

L'Iceberg du CSS : Plongée dans les abysses du moteur de rendu

  • Speakers : Thomas Cami (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 14:35 à 15:20 · Salle Neuilly 252AB

Cette session propose de passer de la bidouille CSS à une approche d’ingénierie. À travers la métaphore de l’iceberg, elle explore les différentes couches du langage : de la cascade aux contextes d’empilement et au moteur de rendu. Objectif : comprendre structurellement le CSS et dompter ses comportements cachés.

L'Iceberg du CSS : Plongée dans les abysses du moteur de rendu

Dans un monde où le CSS est souvent perçu comme un simple outil de stylisation, la session animée par Thomas Cami lors de la conférence "L'Iceberg du CSS" offre une perspective rafraîchissante et technique sur les subtilités de ce langage. En utilisant la métaphore de l'iceberg, Cami nous invite à explorer les différentes couches du CSS, de la surface aux profondeurs obscures du moteur de rendu, révélant ainsi des comportements cachés et des mécanismes souvent méconnus.

Ce que présente le talk

La session se concentre sur la transition d'une utilisation basique et parfois aléatoire du CSS vers une approche plus structurée et ingénierie. Cami aborde les éléments fondamentaux du CSS, tels que la cascade et les sélecteurs, avant de plonger dans des concepts plus complexes comme les contextes d'empilement et le fonctionnement interne des navigateurs. L'objectif est de fournir aux développeurs une compréhension approfondie du CSS pour éviter les frustrations liées aux bugs et aux comportements inattendus.

Points techniques importants

Architecture et Moteur de Rendu

Cami commence par décrire la structure du CSS, en mettant l'accent sur la manière dont les navigateurs interprètent et rendent le code. Il explique le concept de "Render Tree", qui est essentiel pour comprendre comment les éléments sont affichés à l'écran. Ce mécanisme est crucial pour optimiser les performances et éviter les erreurs de rendu.

Contextes d'Empilement

Un des points clés abordés est le "Stacking Context". Cami explique pourquoi certaines propriétés, comme z-index, peuvent sembler capricieuses. Il démontre comment la compréhension de ces contextes peut aider à résoudre des problèmes de mise en page complexes. Les Block Formatting Contexts (BFC) sont également discutés, soulignant leur rôle dans la gestion des flottants et des marges.

Techniques Avancées

Cami présente plusieurs techniques avancées pour tirer parti du CSS :

  • Utilisation des dégradés : Il explique comment les dégradés ne sont pas seulement esthétiques, mais aussi des fonctions mathématiques qui permettent de générer des couleurs à la volée, réduisant ainsi le besoin d'images.
  • Propriétés CSS modernes : L'utilisation de propriétés comme filter et drop-shadow est mise en avant, permettant des effets visuels avancés sans nécessiter de JavaScript.
  • Reflets dynamiques : En s'inspirant de l'interface d'iTunes, Cami montre comment créer des reflets dynamiques avec des techniques CSS, évitant ainsi des manipulations complexes en JavaScript.

Performance et Accessibilité

Un autre aspect crucial abordé est la performance. Cami souligne que certaines techniques CSS modernes permettent d'améliorer les performances par rapport à des solutions JavaScript plus lourdes. De plus, il aborde la question de l'accessibilité, en montrant comment certaines manipulations CSS n'impactent pas la lecture d'écran, ce qui est essentiel pour le développement inclusif.

Ce qu'il faut retenir

La session de Thomas Cami est une invitation à approfondir notre compréhension du CSS au-delà de ses applications superficielles. Les concepts de contextes d'empilement, de rendu et d'optimisation des performances sont des éléments clés pour tout développeur souhaitant maîtriser ce langage. En adoptant une approche plus structurée, il devient possible de transformer des frustrations en solutions élégantes.

Réflexions Darkwood

L'évolution du CSS et des navigateurs vers des solutions plus performantes et accessibles est révélatrice d'une tendance générale dans l'industrie du développement. À mesure que les systèmes logiciels deviennent plus complexes, la nécessité d'une automatisation et d'une orchestration efficaces se fait sentir. Les agents IA et les workflows intégrés pourraient jouer un rôle crucial dans l'optimisation des processus de développement, rendant le CSS non seulement un outil de stylisation, mais un véritable levier dans la création d'interfaces utilisateur dynamiques et réactives. L'avenir du développement front-end semble prometteur, avec une intégration croissante de techniques avancées et une attention particulière à la performance et à l'accessibilité.

Fiche programme

Tu te mets combien en responsive CSS ? Edition 2026

  • Speakers : Théo Gianella (LinkedIn), Julien Sulpis (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 24/04/2026, 15:40 à 16:25 · Salle Neuilly 153

Cette session revisite le responsive design en CSS : de l’époque des media queries aux outils modernes comme flexbox, grid, container queries et nouvelles unités. À travers du live‑coding, elle montre comment combiner ces techniques pour créer des interfaces adaptatives efficaces et contemporaines.

Tu te mets combien en responsive CSS ? Édition 2026

Le responsive design est devenu une nécessité incontournable dans le développement web moderne. Avec la prolifération des appareils et des tailles d'écran, il est essentiel de maîtriser les techniques permettant de créer des interfaces adaptatives. La session animée par Théo Gianella et Julien Sulpis lors de la conférence "Front-end & UX" propose une exploration approfondie des outils contemporains du responsive design en CSS, allant des media queries aux unités modernes comme les container queries.

Ce que présente le talk

Cette session revisite le responsive design en CSS, en mettant l'accent sur l'évolution des techniques depuis l'ère des media queries jusqu'aux outils modernes tels que flexbox, grid et les nouvelles unités CSS. À travers un format de live-coding, les intervenants démontrent comment combiner ces outils pour créer des interfaces adaptatives efficaces. L'objectif est de montrer que, loin d'être une simple question de breakpoints, le responsive design est une discipline riche et en constante évolution.

Points techniques importants

Historique et philosophie du responsive design

  • Origines : Le responsive design a été popularisé par Ethan Marcotte en 2010, qui s'est inspiré de concepts architecturaux pour proposer une approche adaptable aux différentes tailles d'écran.
  • Philosophie : L'idée centrale est de créer des interfaces qui s'adaptent aux besoins des utilisateurs, plutôt que d'essayer de contrôler chaque pixel. Cela implique de renoncer à la quête du pixel perfect au profit d'une fonctionnalité universelle.

Techniques modernes

Media Queries

  • Breakpoints : Les media queries restent un outil fondamental pour appliquer des styles spécifiques en fonction des tailles d'écran. Cependant, leur utilisation doit être réfléchie pour éviter une surcharge de règles CSS.

Flexbox et Grid

  • Flexbox : Idéal pour des mises en page unidimensionnelles, il permet de gérer l'espace entre les éléments de manière fluide.
  • Grid : Pour des mises en page bidimensionnelles, CSS Grid offre une flexibilité inégalée, permettant de créer des designs complexes tout en maintenant une structure responsive.

Container Queries

  • Nouveauté : Les container queries permettent d'adapter les styles en fonction de la taille du conteneur parent, plutôt qu'en fonction de la taille de l'écran. Cela ouvre de nouvelles possibilités pour des mises en page véritablement adaptatives.

Unités CSS modernes

  • Unités relatives : L'utilisation d'unités comme em, rem, et vh/vw permet de créer des designs fluides qui s'ajustent dynamiquement aux dimensions de l'écran.
  • CH et autres unités : L'unité ch est particulièrement utile pour contrôler la largeur des éléments en fonction de la taille des caractères, ce qui améliore la lisibilité.

Live-Coding et démonstrations pratiques

  • Exemples concrets : Les intervenants ont présenté plusieurs maquettes, allant de la plus simple à la plus complexe, pour illustrer l'application des techniques discutées. Le live-coding a permis de visualiser en temps réel les ajustements nécessaires pour garantir une expérience utilisateur optimale sur divers appareils.

Ce qu'il faut retenir

  • Le responsive design est une discipline en constante évolution, nécessitant une maîtrise des outils modernes et une compréhension des besoins des utilisateurs.
  • Les techniques comme les media queries, flexbox, grid, et les container queries sont essentielles pour créer des interfaces adaptatives efficaces.
  • L'utilisation d'unités CSS modernes permet de concevoir des designs fluides et accessibles, adaptés à une variété de contextes d'utilisation.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures plus adaptatives et flexibles est indéniable. Avec l'avènement des agents IA et des workflows automatisés, le responsive design pourrait bénéficier d'une intégration plus poussée de l'intelligence contextuelle. Imaginez des interfaces qui s'ajustent non seulement à la taille de l'écran, mais aussi aux préférences de l'utilisateur et aux conditions d'utilisation. Cela soulève des questions sur la gouvernance des données et la personnalisation des expériences utilisateur. En somme, le responsive design n'est pas qu'une question de technique, mais aussi une réflexion sur l'avenir des interactions numériques.

Fiche programme

Java & Languages

G1, ZGC, Shenandoah, ... avec tous ces GCs dans Java, je choisis lequel ?

  • Speakers : Antoine DESSAIGNE (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 10:30 à 11:15 · Salle Neuilly 153

Cette présentation démystifie les nombreux Garbage Collectors de Java, leurs évolutions et leurs différences (comme ZGC et Shenandoah). Elle explique pourquoi plusieurs GCs coexistent, comment choisir le plus adapté selon les besoins, et pourquoi la question du GC reste complexe et non résolue dans l’écosystème Java.

G1, ZGC, Shenandoah : Choisir le bon Garbage Collector en Java

La gestion de la mémoire est un enjeu crucial dans le développement Java, surtout avec la diversité croissante des Garbage Collectors (GC) disponibles. Dans cette session, Antoine Dessaigne aborde les différentes options de GC, notamment G1, ZGC et Shenandoah, en expliquant leurs spécificités et en fournissant des conseils pratiques pour choisir le plus adapté à chaque projet. Ce sujet est d'autant plus pertinent dans un écosystème Java en constante évolution, où la performance et la gestion efficace des ressources sont primordiales.

Ce que présente le talk

La présentation vise à démystifier les nombreux Garbage Collectors de Java, en mettant en lumière leurs évolutions et différences. Antoine Dessaigne explique pourquoi plusieurs GCs coexistent et comment faire un choix éclairé en fonction des besoins spécifiques d'une application. Il souligne également que la question du GC demeure complexe et non résolue, même après des décennies de développement.

Points techniques importants

Historique et nécessité des Garbage Collectors

  • Origine de Java : Java a été conçu à l'origine pour des appareils électroniques grand public, avec des contraintes de mémoire très strictes (8 à 16 Mo).
  • Rôle des GCs : Ils sont responsables de l'allocation et de la libération de la mémoire, gérant ainsi les objets créés durant l'exécution d'un programme.

Fonctionnement des Garbage Collectors

  • Marquage et nettoyage : Le GC utilise un graphe d'objets pour déterminer quels objets sont encore référencés. Les objets non référencés sont alors supprimés.
  • Hypothèse générationnelle : Les objets sont classés en fonction de leur durée de vie. Les objets à courte durée de vie sont collectés plus fréquemment, tandis que ceux à longue durée de vie sont déplacés dans une zone de mémoire distincte.

Types de Garbage Collectors

  • G1 (Garbage First) : Conçu pour les applications nécessitant une faible latence, G1 divise la mémoire en régions et collecte les objets de manière incrémentale.
  • ZGC (Z Garbage Collector) : Un GC à faible latence qui permet de gérer de grandes quantités de mémoire sans pauses significatives. ZGC utilise une approche de marquage concurrent et de compaction.
  • Shenandoah : Similaire à ZGC, ce GC vise également à réduire les pauses, mais avec une approche légèrement différente en matière de gestion de la mémoire.

Choix du Garbage Collector

  • Critères de sélection :
    • Performance : Évaluer les besoins en latence et en bande passante mémoire.
    • Type d'application : Les applications web à fort trafic peuvent bénéficier de G1 ou ZGC, tandis que des applications plus simples peuvent se contenter de G1.
    • Environnement d'exécution : Les configurations de mémoire et les contraintes d'infrastructure doivent également être prises en compte.

Ce qu'il faut retenir

La gestion de la mémoire en Java est un domaine complexe, avec plusieurs Garbage Collectors adaptés à différents besoins. G1, ZGC et Shenandoah offrent des solutions variées, chacune ayant ses avantages et inconvénients. Le choix du GC doit être guidé par des critères spécifiques à chaque projet, notamment la performance, le type d'application et l'environnement d'exécution.

Réflexions Darkwood

L'évolution des Garbage Collectors en Java reflète une tendance plus large dans l'architecture des systèmes logiciels modernes, où la gestion de la mémoire et la performance sont au cœur des préoccupations. Avec l'essor des architectures microservices et des applications cloud, l'automatisation des processus de gestion de la mémoire devient cruciale. Les agents IA et les outils d'orchestration pourraient jouer un rôle clé dans l'optimisation des workflows de gestion de la mémoire, en adaptant dynamiquement les stratégies de GC en fonction des charges de travail et des exigences de performance. Cette dynamique souligne l'importance d'une gouvernance efficace et d'une compréhension approfondie des architectures modernes pour naviguer dans l'écosystème Java en constante évolution.

Fiche programme

TamboUI : making 2026 the Year of Java in the Terminal

  • Speakers : Cédric Champeau (LinkedIn · Bluesky · Mastodon), Max Rydahl Andersen (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : English
  • Créneau : 22/04/2026, 11:35 à 12:20 · Salle Paris 242AB

TamboUI is a modern terminal UI framework for Java, inspired by popular Rust, Go, and Python libraries. It offers immediate‑mode rendering, flexible layouts, and composable widgets. Combined with GraalVM’s fast startup, it enables polished, efficient CLI tools and redefines Java’s role in terminal‑based development.

TamboUI : faire de 2026 l'année de Java dans le terminal

Dans un monde où l'interface en ligne de commande (CLI) connaît un renouveau grâce aux outils d'intelligence artificielle, la session "TamboUI : making 2026 the Year of Java in the Terminal" se positionne comme un tournant pour Java. Ce talk, présenté par Cédric Champeau d'Oracle et Max Rydahl Andersen d'IBM/Red Hat, explore un nouveau framework d'interface utilisateur terminale (TUI) pour Java, inspiré par les succès rencontrés dans d'autres langages comme Rust, Go et Python.

Ce que présente le talk

TamboUI est un framework TUI moderne pour Java, qui propose un rendu en mode immédiat, des mises en page flexibles et des widgets composables. Avec l'accélération de GraalVM, TamboUI promet des outils CLI efficaces et élégants, redéfinissant ainsi le rôle de Java dans le développement basé sur le terminal. Les conférenciers soulignent l'importance croissante des interfaces terminales et la nécessité d'adopter des solutions modernes pour Java.

Points techniques importants

Architecture et Design

TamboUI est conçu pour s'intégrer naturellement dans l'écosystème Java tout en tirant parti des meilleures pratiques observées dans d'autres langages. Le framework utilise un modèle de rendu en mode immédiat, ce qui permet de dessiner directement sur l'écran sans maintenir d'état entre les rendus. Cela simplifie la gestion des widgets et améliore la performance.

Rendu et Performance

Le rendu en mode immédiat est un concept clé de TamboUI. Chaque image est redessinée à chaque itération, permettant une flexibilité dans la mise à jour de l'interface. Les performances sont optimisées grâce à GraalVM, qui permet des temps de démarrage rapides, rivalisant avec les binaires Go. Les démonstrations ont montré que TamboUI peut atteindre des taux de rafraîchissement de 60 images par seconde, même dans des scénarios complexes.

Widgets et Mise en Page

Le framework offre une variété de widgets, allant des tableaux aux listes, en passant par des graphiques et des barres de progression. La mise en page est gérée par un système de contraintes inspiré de Flexbox, permettant une disposition dynamique et adaptable des éléments sur l'écran.

Support Multilingue et Emojis

TamboUI prend en charge les emojis et les caractères Unicode, une fonctionnalité essentielle pour les applications modernes. Cela permet de gérer des langues variées et des symboles complexes, rendant le framework pertinent pour un public international.

Outils et Intégration

Le framework intègre des outils comme JBang pour simplifier la distribution des applications Java, et JReleaser pour faciliter la création de packages. Ces outils réduisent la complexité d'utilisation de Java dans des contextes CLI, répondant ainsi à des critiques historiques sur la verbosité et la configuration complexe de Java.

Ce qu'il faut retenir

TamboUI représente une avancée significative pour Java dans le domaine des interfaces terminales. Avec des performances optimisées, un design moderne et une prise en charge des fonctionnalités avancées comme les emojis, ce framework pourrait bien transformer la perception de Java dans le développement CLI. Les excuses pour éviter Java dans ce domaine sont désormais obsolètes.

Réflexions Darkwood

L'émergence de TamboUI s'inscrit dans une tendance plus large vers la modernisation des systèmes logiciels et l'automatisation des workflows. Alors que les développeurs se tournent de plus en plus vers des outils CLI efficaces, la capacité de Java à s'adapter et à innover dans ce domaine pourrait influencer l'avenir des architectures modernes. L'intégration de l'IA dans ces outils pourrait également ouvrir la voie à des interfaces encore plus intuitives et réactives, redéfinissant ainsi les interactions entre les développeurs et leurs environnements de travail. TamboUI pourrait ainsi jouer un rôle clé dans la renaissance de Java, en le réintroduisant comme un acteur majeur dans le développement d'outils CLI modernes.

Fiche programme

CEL? Encore un autre langage d'expression?!

  • Speakers : Alex Snaps (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 13:30 à 14:15 · Salle Paris 143

Présentation du Common Expression Language (CEL) de Google, un langage d’expression rapide, sûr et portable, conçu pour étendre les configurations déclaratives et intégrer des règles ou validations dans les applications. La session détaille ses principes, son extensibilité et son intégration pratique en Java, Go, Rust ou C++.

CEL? Encore un autre langage d'expression?!

Dans un monde où les langages de programmation se multiplient, le Common Expression Language (CEL) de Google se distingue par sa rapidité, sa sécurité et sa portabilité. Cette session, animée par Alex Snaps de Red Hat, explore les caractéristiques uniques de CEL et son intégration dans des applications critiques, notamment en Java, Go, Rust et C++. Avec l'essor des configurations déclaratives et des règles de validation, CEL s'impose comme un outil essentiel pour les développeurs.

Ce que présente le talk

La présentation se concentre sur le CEL, un langage d'expression conçu pour être intégré dans des applications afin d'étendre les configurations déclaratives. CEL permet d'ajouter des règles de validation et des contraintes, facilitant ainsi la gestion des API et des ressources personnalisées. Alex Snaps explique comment CEL peut être utilisé dans divers contextes, notamment pour la validation des ressources dans Kubernetes et pour des applications de services logiciels.

Points techniques importants

Architecture et intégration

CEL est un langage d'évaluation d'expressions qui s'intègre dans d'autres langages tels que Java, Go, Rust et C++. Sa conception permet une évaluation rapide des expressions, essentielle dans des environnements où la latence est critique. L'architecture de CEL repose sur une séparation claire entre la phase de vérification et celle d'évaluation, garantissant ainsi que les expressions sont validées avant d'être exécutées.

Syntaxe et typage

La syntaxe de CEL est familière pour les développeurs, ressemblant à celle de langages comme C ou Java. Elle est strictement typée, ce qui signifie que les types doivent être explicitement définis et qu'il n'y a pas de coercition implicite. Cela réduit le risque d'erreurs d'évaluation et améliore la sécurité.

  • Exemples de syntaxe :
    • Utilisation de macros pour itérer sur des collections.
    • Tests conditionnels avec des opérateurs comme ? pour gérer les valeurs optionnelles.

Sécurité et performance

La sécurité est un aspect fondamental de CEL. Le langage est conçu pour éviter les évaluations coûteuses et les boucles infinies, en se basant sur des fonctions pures. Cela permet d'assurer que les expressions évaluées ne compromettent pas la performance des applications.

  • Validation des expressions : Avant l'évaluation, CEL vérifie que les variables référencées existent et sont du bon type. Cela permet de détecter les erreurs avant que les expressions ne soient exécutées, minimisant ainsi les risques de vulnérabilités.

Extensibilité

CEL est extensible, permettant aux développeurs d'ajouter des fonctionnalités spécifiques à leur domaine. Cela est particulièrement utile dans des contextes comme Kubernetes, où des règles de validation personnalisées peuvent être nécessaires pour les ressources API.

Ce qu'il faut retenir

Le Common Expression Language (CEL) est un outil puissant pour les développeurs cherchant à intégrer des règles d'expression dans leurs applications. Sa rapidité, sa sécurité et sa portabilité en font un choix judicieux pour des environnements critiques. La syntaxe familière et le typage strict contribuent à réduire les erreurs, tandis que l'extensibilité permet d'adapter le langage aux besoins spécifiques des projets.

Réflexions Darkwood

L'émergence de langages comme CEL souligne une tendance vers des systèmes logiciels plus modulaires et sécurisés. Dans un contexte où l'automatisation et l'orchestration des workflows deviennent essentielles, CEL offre une solution robuste pour intégrer des règles de validation dans des architectures modernes. En facilitant l'évaluation des expressions dans des environnements critiques, CEL pourrait jouer un rôle clé dans l'évolution des systèmes d'API et des services cloud, tout en renforçant la gouvernance des données et la sécurité des applications.

Fiche programme

Virtual Threads, Structured Concurrency et Scoped Values en Java 25 et au-delà

  • Speakers : José Paumard (LinkedIn · Bluesky), Remi Forax
  • Type : 3H Deep Dive
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 13:30 à 16:30 · Salle Paris 241

Le projet Loom simplifie la programmation asynchrone en Java grâce aux threads virtuels, aux Scoped Values et à la Structured Concurrency. La session présente leurs évolutions de Java 21 à 26, les optimisations de performances, ainsi que des exemples et patterns illustrant leurs usages et perspectives futures.

Virtual Threads, Structured Concurrency et Scoped Values en Java 25 et au-delà

La session animée par José Paumard (Oracle) et Remi Forax (Université Gustave Eiffel) sur le projet Loom a plongé les participants dans les profondeurs de la programmation asynchrone en Java. Avec l'introduction des threads virtuels, des Scoped Values et de la Structured Concurrency, cette présentation est particulièrement pertinente dans un écosystème où la performance et la simplicité de développement sont des enjeux cruciaux.

Ce que présente le talk

Le projet Loom vise à simplifier le modèle de programmation asynchrone en Java. En permettant le blocage des threads lors des opérations d'entrée/sortie sans pénaliser les performances, Loom introduit des concepts innovants. La session explore les évolutions de Java 21 à 26, en mettant l'accent sur les optimisations de performance et des exemples pratiques illustrant les nouveaux patterns de programmation.

Points techniques importants

Threads Virtuels

Les threads virtuels, introduits en Java 21, sont des objets Java légers, contrairement aux threads classiques qui sont des wrappers autour des threads du système d'exploitation. Cette distinction permet une création dynamique de threads, facilitant ainsi la gestion des tâches asynchrones. Cependant, des problèmes de performance ont été identifiés lors des appels I/O dans des blocs synchronisés, problème résolu en Java 24.

Scoped Values

Les Scoped Values, finalisées en Java 25, remplacent l'ancienne API ThreadLocal. Elles permettent de partager des données de manière plus sécurisée et efficace entre les threads virtuels. Cette fonctionnalité est essentielle pour éviter les fuites de mémoire et améliorer la lisibilité du code.

Structured Concurrency

L'API Structured Concurrency, toujours en preview en Java 26, permet d'organiser les tâches asynchrones de manière hiérarchique. Cela facilite la gestion des exceptions et garantit que toutes les tâches sont terminées avant de quitter un contexte donné. Les conférenciers ont insisté sur l'importance de cette API pour éviter les problèmes de "loose ends" dans les applications asynchrones.

Performance et Scalabilité

Les conférenciers ont présenté des benchmarks démontrant l'impact positif des threads virtuels sur la scalabilité des applications. En réduisant le coût des context switches et en permettant un meilleur usage des ressources, Loom ouvre la voie à des architectures plus réactives et performantes.

Débogage et Profilage

Un point crucial évoqué est le débogage des applications utilisant des threads virtuels. Les conférenciers ont souligné que les stack traces doivent être claires pour faciliter le profilage. L'absence de stack traces lisibles peut compliquer l'identification des goulets d'étranglement dans les performances.

Ce qu'il faut retenir

  • Threads Virtuels : Légers et dynamiques, ils améliorent la gestion des tâches asynchrones.
  • Scoped Values : Remplacement efficace de ThreadLocal, offrant une meilleure sécurité des données.
  • Structured Concurrency : API prometteuse pour organiser les tâches asynchrones, encore en développement.
  • Performance : Les optimisations apportées par Loom permettent une scalabilité accrue des applications Java.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une programmation plus asynchrone et réactive est indéniable. Le projet Loom, avec ses threads virtuels et sa Structured Concurrency, représente une avancée significative dans cette direction. À mesure que les architectures modernes adoptent des modèles de concurrence plus sophistiqués, l'automatisation et l'orchestration des workflows deviennent essentielles. Les agents IA pourraient également tirer parti de ces nouvelles fonctionnalités pour optimiser les performances des applications, en adaptant dynamiquement les ressources en fonction des charges de travail. L'impact de Loom sur l'industrie du développement pourrait ainsi être profond, en redéfinissant les paradigmes de programmation et en facilitant la création d'applications plus robustes et scalables.

Fiche programme

Prolog : un langage mature mais sous-estimé pour de l’IA symbolique !

  • Speakers : Frédéric Cabestre (Mastodon), Didier Plaindoux (LinkedIn · Mastodon)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 14:35 à 15:20 · Salle Neuilly 151

Cette session propose de redécouvrir Prolog, langage déclaratif fondé sur la logique du premier ordre et l’unification. Autrefois pilier de la recherche en IA et en traitement du langage naturel, il offre aujourd’hui une approche complémentaire aux IA probabilistes pour concevoir des systèmes déductifs et expressifs.

Prolog : un langage mature mais sous-estimé pour de l’IA symbolique !

La session présentée par Frédéric Cabestre et Didier Plaindoux se penche sur Prolog, un langage qui, bien que mature, demeure souvent sous-estimé dans le domaine de l'intelligence artificielle symbolique. Dans un contexte où les approches probabilistes dominent, cette conférence rappelle l'importance de Prolog et de son approche déclarative, offrant une perspective complémentaire pour la conception de systèmes déductifs.

Ce que présente le talk

Le talk explore les fondements de Prolog, un langage basé sur la logique du premier ordre et l'unification. L'objectif est de redécouvrir ses capacités, notamment dans le traitement du langage naturel et la création de systèmes experts. La présentation souligne l'importance de l'approche déclarative, qui privilégie la description des propriétés des résultats plutôt que la définition des procédures à suivre.

Points techniques importants

Architecture et approche déclarative

Prolog se distingue par son paradigme déclaratif, où l'utilisateur définit des règles et des faits. Contrairement aux langages impératifs, où l'on décrit comment effectuer une tâche, Prolog permet de spécifier ce que l'on veut obtenir. Cela facilite la création de systèmes où la logique et les règles sont au cœur du fonctionnement.

Unification et pattern matching

L'unification est un concept clé en Prolog, permettant de déterminer si deux termes peuvent être considérés comme identiques par le biais de substitutions. Cela va au-delà du simple pattern matching, qui est limité par des contraintes telles que l'interdiction de variables répétées. L'unification permet d'utiliser des variables comme des termes, augmentant ainsi la flexibilité et la puissance du langage.

Logique du premier ordre

La logique du premier ordre, introduite par Gottlob Frege, est essentielle pour comprendre le raisonnement mécanique en Prolog. Elle permet de formuler des énoncés et de raisonner sur eux de manière structurée. Ce cadre formel est particulièrement adapté pour les systèmes experts, où la transparence et la lisibilité des règles sont cruciales.

Systèmes experts et applications

La présentation évoque également l'historique des systèmes experts, qui ont été parmi les premières applications de Prolog. Ces systèmes utilisent des règles logiques pour simuler le raisonnement humain dans des domaines spécifiques, offrant ainsi une alternative aux modèles d'IA probabilistes.

Ce qu'il faut retenir

  • Prolog est un langage déclaratif basé sur la logique du premier ordre, idéal pour l'IA symbolique.
  • L'unification permet une manipulation avancée des termes, dépassant les limitations du pattern matching.
  • La logique du premier ordre offre un cadre formel pour le raisonnement, essentiel pour les systèmes experts.
  • Prolog représente une approche complémentaire aux modèles d'IA probabilistes, apportant transparence et lisibilité.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures de plus en plus complexes appelle à une redécouverte de langages comme Prolog. Dans un monde où l'automatisation et l'IA probabiliste dominent, l'IA symbolique offre une alternative précieuse, notamment pour la gouvernance des systèmes. En intégrant des approches déclaratives et des mécanismes de raisonnement formel, les développeurs peuvent concevoir des workflows plus robustes et explicites. Cette dualité entre IA symbolique et probabiliste pourrait bien redéfinir les standards de l'industrie, favorisant une orchestration harmonieuse entre les différentes approches.

Fiche programme

Learning modern Java the playful way

  • Speakers : Marit van Dijk (X · LinkedIn · Bluesky · Mastodon), Piotr Przybył (X · LinkedIn · Bluesky · Mastodon)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : English
  • Créneau : 22/04/2026, 15:40 à 16:25 · Salle Neuilly 151

Apprendre le Java moderne de manière ludique

Dans un écosystème technologique en constante évolution, rester à jour avec les dernières versions de Java peut sembler une tâche ardue, surtout pour ceux qui n'ont pas encore exploré les fonctionnalités récentes. La session "Learning modern Java the playful way", animée par Marit van Dijk de JetBrains et Piotr Przybył d'Elastic, vise à démystifier ces nouveautés et à encourager une approche ludique de l'apprentissage du Java moderne.

Ce que présente le talk

Les intervenants abordent les récentes évolutions de Java, notamment la Concurrence Structurée et les Collecteurs de Flux, tout en proposant des démonstrations pratiques dans un environnement IDE. L'objectif est de rendre ces concepts accessibles et amusants, permettant aux développeurs de commencer à les utiliser immédiatement.

Points techniques importants

Nouveautés de Java

  • Versions récentes : Les intervenants soulignent l'importance de se tenir informé des mises à jour, avec des versions de Java publiées tous les six mois. Java 25 a introduit des améliorations significatives en termes de performance, de gestion de la mémoire et de nouvelles fonctionnalités de concurrence.
  • Projets en cours : Ils mentionnent les projets Amber, Loom, Panama et le Vector API, qui visent à améliorer la productivité et la performance des applications Java.

Démos pratiques

  • Démonstrations en direct : Les intervenants utilisent des démonstrations pour illustrer comment intégrer les nouvelles fonctionnalités dans des projets réels. Par exemple, ils montrent comment utiliser un encodeur multimodal pour rechercher des images dans une base de données Elastic.
  • Utilisation de l'IDE : L'accent est mis sur l'utilisation d'IntelliJ IDEA pour faciliter l'apprentissage et l'expérimentation avec les nouvelles fonctionnalités de Java.

Évolution de la syntaxe Java

  • Simplicité accrue : Avec l'introduction des fichiers sources compacts et des méthodes main implicites, Java devient moins verbeux. Cela pourrait potentiellement attirer de nouveaux développeurs, en rendant le langage plus accessible.
  • Utilisation des records : Les records, introduits dans Java 16, sont présentés comme une solution efficace pour créer des DTOs, simplifiant ainsi le code tout en maintenant la lisibilité.

Concurrence et performance

  • Concurrence structurée : Les intervenants expliquent comment les nouvelles fonctionnalités de concurrence peuvent améliorer la gestion des tâches asynchrones, rendant le code plus clair et plus facile à maintenir.
  • Améliorations de la performance : Des améliorations telles que de nouveaux collecteurs de flux et des algorithmes de fusion de rang réciproque (RRF) sont discutées, mettant en avant leur impact sur la recherche et la gestion des données.

Ce qu'il faut retenir

  • La session met en lumière les avancées significatives de Java et leur impact sur le développement moderne.
  • Les démonstrations pratiques et l'utilisation d'outils comme IntelliJ IDEA facilitent l'apprentissage et l'adoption des nouvelles fonctionnalités.
  • La simplification de la syntaxe et l'introduction de nouvelles structures de données comme les records rendent Java plus accessible aux nouveaux développeurs.

Réflexions Darkwood

L'évolution de Java, avec ses nouvelles fonctionnalités et sa syntaxe simplifiée, s'inscrit dans une tendance plus large vers l'automatisation et l'amélioration de l'expérience développeur. Alors que les systèmes logiciels deviennent de plus en plus complexes, des outils et des langages comme Java cherchent à réduire la friction dans le développement. L'intégration de l'IA et des workflows automatisés dans les environnements de développement pourrait transformer la manière dont les développeurs interagissent avec le code, rendant l'apprentissage et l'implémentation de nouvelles technologies non seulement plus accessibles, mais également plus ludiques. Cette session illustre parfaitement comment l'innovation continue dans le langage Java peut influencer positivement l'industrie du développement logiciel.

Fiche programme

AWS Lambda officiellement Rust : du from-scratch aux bindings progressifs

  • Speakers : Etienne Puissant (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 17:00 à 17:30 · Salle Neuilly 251

AWS propose désormais Rust pour Lambda, offrant hautes performances et sécurité. Chez Betclic, migrer une Lambda de Python à Rust a réduit par 8 les temps d’exécution. Cette présentation montre comment développer une Lambda Rust complète et intégrer Rust progressivement dans des Lambdas existantes via des bindings, pour optimiser les performances.

AWS Lambda officiellement Rust : du from-scratch aux bindings progressifs

L'ajout de Rust comme runtime pour AWS Lambda par Amazon marque un tournant significatif dans l'écosystème des applications serverless. En raison de ses performances élevées et de sa sécurité, Rust s'impose comme un choix de plus en plus populaire pour les développeurs cherchant à optimiser leurs fonctions Lambda. Ce talk, présenté par Étienne Puissant de Betclic, explore comment migrer des Lambdas existantes vers Rust et comment intégrer ce langage progressivement dans des projets déjà en cours.

Ce que présente le talk

La session aborde l'intégration de Rust dans AWS Lambda, en mettant l'accent sur ses avantages en termes de performances et de sécurité. Étienne Puissant partage l'expérience de Betclic, où la migration d'une fonction Lambda de Python vers Rust a permis de réduire les temps d'exécution par un facteur de huit. Le talk se divise en deux parties : la première présente le développement d'une Lambda Rust from-scratch, tandis que la seconde explore l'intégration progressive de Rust dans des Lambdas existantes à l'aide de bindings.

Points techniques importants

Architecture et performance

Rust, en tant que langage compilé sans garbage collector, offre des performances proches de celles du C et du C++. Cela se traduit par une exécution rapide des Lambdas, ce qui est crucial dans un environnement où chaque milliseconde compte. La session souligne que la latence et les coûts peuvent être considérablement réduits grâce à cette migration.

Intégration progressive

Pour les équipes qui ne souhaitent pas réécrire complètement leurs Lambdas, le talk présente des bibliothèques comme PyO3 pour Python, napi-rs pour JavaScript, JNI pour Java/Kotlin, et csbindgen pour C#. Ces outils permettent d'intégrer des modules Rust dans des Lambdas existantes, offrant ainsi une voie d'optimisation sans nécessiter une réécriture complète.

Outils et workflows

L'utilisation de cargo lambda, une CLI dédiée, facilite le développement, le build et le déploiement des Lambdas Rust. Cette suite d'outils moderne permet de créer des projets rapidement, avec des templates préétablis pour différents types d'événements Lambda.

Stabilité et sécurité

L'un des points forts de Rust est sa capacité à détecter les erreurs au moment de la compilation, réduisant ainsi les surprises en production. Cela contribue à une meilleure stabilité et résilience des applications critiques, un aspect fondamental pour Betclic.

Écosystème et communauté

Le talk met également en avant la communauté grandissante autour de Rust et les ressources disponibles, telles que la documentation et les forums d'entraide. Cela facilite l'adoption du langage au sein des équipes de développement.

Ce qu'il faut retenir

  • Rust est désormais supporté par AWS Lambda, offrant des performances et une sécurité accrues.
  • La migration d'une fonction Lambda de Python vers Rust peut réduire les temps d'exécution de manière significative.
  • L'intégration de Rust dans des Lambdas existantes est possible via des bindings, permettant une optimisation progressive.
  • cargo lambda simplifie le développement et le déploiement des Lambdas Rust.
  • Rust offre une meilleure stabilité en production grâce à sa gestion des erreurs au moment de la compilation.

Réflexions Darkwood

L'introduction de Rust dans l'écosystème AWS Lambda s'inscrit dans une tendance plus large vers l'optimisation des performances et la réduction des coûts dans le développement de logiciels. L'automatisation et l'orchestration des workflows deviennent essentielles pour gérer la complexité croissante des systèmes modernes. L'adoption de Rust pourrait également influencer la manière dont les équipes abordent la gouvernance des architectures, en favorisant des langages qui offrent à la fois performance et sécurité. À mesure que les agents IA et les outils d'automatisation se développent, la capacité à intégrer des langages comme Rust dans des environnements existants pourrait devenir un atout majeur pour les entreprises cherchant à rester compétitives dans un paysage technologique en constante évolution.

Fiche programme

Concurrency Crossroads: Choosing between Reactive Programming & Virtual Threads

  • Speakers : Willem Jan Glerum (LinkedIn · Bluesky)
  • Type : 2H Deep Dive
  • Niveau : INTERMEDIATE
  • Langue : English
  • Créneau : 23/04/2026, 10:30 à 12:30 · Salle Paris 241

This talk compares Reactive Programming and Java Virtual Threads (Project Loom) for high-performance, non-blocking applications. Using real Quarkus examples and live coding, it explores advantages, drawbacks, and future trends, helping developers understand both paradigms and choose the optimal approach for their next Java project.

Concurrence à la croisée des chemins : Choisir entre la programmation réactive et les threads virtuels

Dans un écosystème Java en constante évolution, la question de la gestion de la concurrence est plus pertinente que jamais. Avec l'émergence des threads virtuels via le projet Loom et la popularité croissante de la programmation réactive, les développeurs doivent naviguer entre ces deux paradigmes pour optimiser la performance de leurs applications. La session présentée par Willem Jan Glerum lors de la conférence Devoxx offre une analyse approfondie de ces approches, accompagnée d'exemples concrets utilisant Quarkus.

Ce que présente le talk

La session se concentre sur la comparaison entre la programmation réactive et les threads virtuels pour la création d'applications non-bloquantes et performantes. À travers des exemples en direct et des démonstrations de code, Glerum explore les avantages et inconvénients de chaque approche, tout en fournissant des recommandations pour aider les développeurs à choisir la meilleure solution pour leurs projets Java.

Points techniques importants

Historique et contexte

Glerum commence par établir un contexte historique, rappelant l'évolution des modèles de threading en Java, depuis les threads "verts" jusqu'aux threads natifs introduits dans JDK 1.2. Il aborde les défis associés à la gestion des threads, notamment la mémoire et la gestion des pools de threads, avant d'introduire les concepts de la programmation réactive et des threads virtuels.

Programmation réactive

  • Définition : La programmation réactive permet de gérer des flux de données asynchrones, offrant ainsi une meilleure réactivité et une utilisation plus efficace des ressources.
  • Avantages : Permet de traiter un grand nombre de requêtes simultanément sans bloquer les threads, ce qui améliore la performance des applications.
  • Inconvénients : La complexité du modèle peut rendre le développement et le débogage plus difficiles. De plus, la courbe d'apprentissage est souvent abrupte pour les développeurs non familiers avec les paradigmes fonctionnels.

Threads virtuels (Project Loom)

  • Concept : Les threads virtuels, introduits dans JDK 21, permettent de créer un grand nombre de threads légers qui sont gérés par la JVM, sans le coût élevé en mémoire associé aux threads natifs.
  • Fonctionnement : Glerum explique que les threads virtuels permettent un modèle de concurrence "many-to-many", où de nombreux threads Java peuvent être mappés à plusieurs threads du système d'exploitation.
  • Limitations : Bien qu'ils offrent une solution élégante pour la gestion de la concurrence, les threads virtuels ne sont pas une panacée. Des problèmes tels que le "thread pinning" dans les blocs synchronisés peuvent survenir.

Comparaison des paradigmes

Glerum aborde les scénarios dans lesquels chaque approche excelle :

  • Programmation réactive : Idéale pour les applications nécessitant une haute disponibilité et une faible latence, comme les systèmes de messagerie ou les applications web en temps réel.
  • Threads virtuels : Conviennent mieux aux applications nécessitant une logique de traitement plus complexe, où la simplicité du code et la lisibilité sont prioritaires.

Performance et scalabilité

La session met en lumière l'importance de la performance dans le choix entre ces paradigmes. Glerum souligne que le dimensionnement des pools de threads et la gestion des ressources sont cruciaux pour éviter les goulets d'étranglement.

Ce qu'il faut retenir

  • Choix stratégique : Le choix entre la programmation réactive et les threads virtuels dépend des exigences spécifiques du projet. Les développeurs doivent évaluer les compromis entre performance, complexité et maintenabilité.
  • Évolution continue : Les deux paradigmes continuent d'évoluer, avec des améliorations prévues dans les futures versions de Java, notamment en ce qui concerne la structuration de la concurrence.

Réflexions Darkwood

La discussion sur la programmation réactive et les threads virtuels s'inscrit dans une tendance plus large vers l'automatisation et l'optimisation des workflows de développement. À mesure que les systèmes logiciels deviennent de plus en plus complexes, la nécessité d'adopter des architectures modernes et flexibles se fait sentir. L'intégration de l'intelligence artificielle et des agents autonomes dans ces systèmes pourrait également transformer la manière dont nous concevons et gérons la concurrence, rendant les applications non seulement plus réactives, mais également plus intelligentes. En fin de compte, la capacité à choisir le bon paradigme de concurrence pourrait bien déterminer le succès des projets Java dans un paysage technologique en constante évolution.

Fiche programme

▣ QR Codes : suivez les points sans vous perdre ! ▣

  • Speakers : Benoît Masson (LinkedIn), Sébastien Chédor (LinkedIn)
  • Type : 2H Deep Dive
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 10:30 à 12:30 · Salle Neuilly 251

Atelier pratique pour comprendre le fonctionnement des QR Codes et créer un lecteur simple avec OpenCV : capture vidéo, détection, extraction et décodage du contenu via l’algorithme de Reed‑Solomon. Les participants apprendront à analyser et décoder un QR Code, même partiellement altéré.

QR Codes : suivez les points sans vous perdre !

L'atelier sur les QR Codes présenté par Benoît Masson et Sébastien Chédor s'inscrit dans un contexte où la numérisation et l'automatisation des processus sont omniprésentes. Les QR Codes, bien qu'ils soient devenus des outils familiers, cachent une complexité algorithmique et technique qui mérite d'être explorée. Cet article se penche sur les aspects techniques de cette session, tout en réfléchissant à leur impact sur l'architecture moderne des systèmes.

Ce que présente le talk

L'atelier a pour objectif de démystifier le fonctionnement des QR Codes en développant un lecteur simple à l'aide d'OpenCV. Les participants ont l'opportunité d'apprendre à capturer des vidéos, détecter des QR Codes, extraire leur contenu et le décoder grâce à l'algorithme de Reed-Solomon. Ce processus inclut la gestion des QR Codes partiellement altérés, ce qui souligne la robustesse de ce format.

Points techniques importants

Architecture et Outils

  • OpenCV : La bibliothèque de vision par ordinateur est au cœur de cette démonstration. Elle permet de manipuler les images capturées par la webcam et de réaliser des opérations de traitement d'image. Les intervenants utilisent GoCV, un binding de Go pour OpenCV, facilitant ainsi l'intégration de la vision par ordinateur dans des applications Go.

  • Langage Go : Bien que les intervenants aient des préférences pour TypeScript et Go, le choix de Go est justifié par sa lisibilité et sa facilité d'utilisation pour le traitement d'images. Cela permet aux participants de se concentrer sur l'algorithme plutôt que sur la syntaxe.

Traitement d'Image

  • Détection de QR Codes : La session commence par la localisation des QR Codes dans une image. Les marqueurs d'alignement sont essentiels pour cette détection. Les intervenants expliquent comment ces marqueurs permettent au lecteur de QR Code de se recalibrer, même lorsque le code est déformé.

  • Extraction et Décodage : Une fois le QR Code détecté, il est nécessaire d'extraire une grille de pixels et de lire la chaîne de bits encodée. Cette étape implique une compréhension des structures internes du QR Code, notamment l'ordre de lecture et la correction d'erreurs.

Algorithme de Reed-Solomon

  • Correction d'Erreurs : L'algorithme de Reed-Solomon est un élément clé pour garantir la fiabilité du décodage, même en cas de dégradations. Les intervenants soulignent la complexité de cette étape, qui est cruciale pour la robustesse du système.

Interactivité et Approche Pédagogique

  • Live Coding : L'atelier adopte une approche interactive, permettant aux participants de poser des questions et d'interagir directement avec le code. Cette méthode favorise l'apprentissage pratique et la compréhension des concepts.

Ce qu'il faut retenir

L'atelier sur les QR Codes illustre la puissance des outils de vision par ordinateur et des algorithmes de correction d'erreurs dans la création de systèmes robustes. Les participants ont acquis des compétences pratiques en traitement d'image, tout en découvrant les subtilités des QR Codes. La session démontre également l'importance de l'interaction et de l'expérimentation dans l'apprentissage technique.

Réflexions Darkwood

L'exploration des QR Codes dans cet atelier met en lumière l'évolution des systèmes logiciels vers une intégration plus poussée de la vision par ordinateur et de l'intelligence artificielle. À mesure que les workflows deviennent plus automatisés, la capacité à traiter et à analyser des données visuelles en temps réel devient cruciale. Les agents IA, en particulier, pourraient jouer un rôle clé dans l'amélioration des systèmes de détection et de décodage, rendant ces processus encore plus efficaces et adaptatifs. En somme, cet atelier n'est pas seulement une plongée dans le fonctionnement des QR Codes, mais aussi une réflexion sur l'avenir des interactions numériques et des systèmes intelligents.

Fiche programme

Se retourner la tête avec les quiz Java de José et Jean-Michel

  • Speakers : José Paumard (LinkedIn · Bluesky), Jean-Michel DOUDOUX (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 15:40 à 16:25 · Salle Amphi bleu

Ce talk propose un quiz interactif pour explorer des fonctionnalités méconnues et des pièges courants de Java (valeurs nulles, immutabilité, égalité, collections). Les participants découvriront, exemples à l’appui, comment éviter ces écueils et approfondir leur maîtrise du langage. Smartphones recommandés pour participer.

Se retourner la tête avec les quiz Java de José et Jean-Michel

Dans un écosystème Java en constante évolution, la maîtrise des subtilités du langage est plus cruciale que jamais. La session animée par José Paumard et Jean-Michel Doudoux, intitulée "Se retourner la tête avec les quiz Java", se propose d'explorer des fonctionnalités méconnues et des pièges courants de Java à travers un format interactif. Ce talk est particulièrement pertinent pour les développeurs intermédiaires souhaitant approfondir leur compréhension du langage et éviter des écueils fréquents.

Ce que présente le talk

Le talk se déroule sous la forme d'un quiz interactif, où les participants sont invités à répondre à des questions portant sur des aspects souvent négligés de Java, tels que la gestion des valeurs nulles, l'immutabilité, et les subtilités de l'égalité entre objets. Les intervenants mettent en avant l'importance de connaître ces éléments pour écrire un code plus robuste et éviter des comportements inattendus.

Points techniques importants

Gestion des valeurs nulles

La gestion des valeurs nulles est un sujet récurrent dans le développement Java. Les intervenants insistent sur l'importance de comprendre comment les valeurs nulles peuvent affecter le comportement des applications. Des exemples concrets sont fournis pour illustrer les pièges associés à leur utilisation, notamment en ce qui concerne les collections et les méthodes qui attendent des objets non nuls.

Immutabilité

L'immutabilité est un concept de plus en plus utilisé dans le développement Java, surtout avec l'émergence des classes immuables comme String et LocalDate. Les conférenciers expliquent comment l'immutabilité peut améliorer la sécurité des données et faciliter la programmation concurrente. Ils soulignent également les erreurs fréquentes que les développeurs peuvent commettre lorsqu'ils manipulent des objets mutables.

Égalité entre objets

Un autre point crucial abordé est la manière dont Java détermine l'égalité entre objets. Les intervenants discutent des méthodes equals() et hashCode(), en mettant en lumière les conséquences de leur mauvaise implémentation. Des exemples sont donnés pour démontrer comment des erreurs dans ces méthodes peuvent mener à des comportements inattendus dans les collections.

Comportement des collections

Les collections Java, bien que largement utilisées, peuvent parfois présenter des comportements surprenants. Les intervenants passent en revue des cas spécifiques où des comportements inattendus peuvent survenir, notamment lors de l'utilisation de ArrayList et HashMap. Ils encouragent les participants à tester leurs hypothèses à travers le quiz, renforçant ainsi l'apprentissage par la pratique.

Ce qu'il faut retenir

  • La gestion des valeurs nulles nécessite une attention particulière pour éviter des exceptions inattendues.
  • L'immutabilité est un atout pour la sécurité et la simplicité du code, mais elle doit être appliquée judicieusement.
  • Comprendre les subtilités de l'égalité entre objets est essentiel pour éviter des erreurs dans la manipulation des collections.
  • Les comportements des collections peuvent être contre-intuitifs, et une bonne compréhension de leur fonctionnement est cruciale.

Réflexions Darkwood

La session de José et Jean-Michel met en lumière l'importance d'une compréhension approfondie des concepts fondamentaux de Java dans un monde où les systèmes logiciels deviennent de plus en plus complexes. À mesure que l'automatisation et l'intelligence artificielle prennent une place prépondérante dans le développement, la nécessité de maîtriser les bases devient encore plus cruciale. Les développeurs doivent non seulement être capables d'utiliser des outils modernes, mais aussi de comprendre les implications de leurs choix architecturaux. La gouvernance des systèmes logiciels et l'orchestration des workflows deviennent des enjeux majeurs, et une solide compréhension des subtilités du langage est un atout indéniable pour naviguer dans cet écosystème en constante évolution.

Fiche programme

Debugging with IntelliJ IDEA

  • Speakers : Anton Arhipov (X · LinkedIn · Bluesky)
  • Type : Tools-in-Action
  • Niveau : INTERMEDIATE
  • Langue : English
  • Créneau : 23/04/2026, 17:00 à 17:30 · Salle Maillot

This session showcases advanced debugging features in IntelliJ IDEA for Java, going beyond traditional bug fixing. Through live coding, it demonstrates tools like lambda breakpoints, stream chain tracing, dropping frames, emulated method breakpoints, evaluate and log, non-suspending breakpoints, and custom data renderers to boost developer productivity.

Debugging avec IntelliJ IDEA : Élever le niveau de la productivité des développeurs

Dans un écosystème où la complexité des applications Java ne cesse d'augmenter, la maîtrise des outils de débogage devient cruciale pour les développeurs. La session "Debugging with IntelliJ IDEA", présentée par Anton Arhipov de JetBrains, explore des fonctionnalités avancées du débogueur d'IntelliJ IDEA, allant bien au-delà des techniques de débogage traditionnelles. Ce talk est particulièrement pertinent pour les développeurs intermédiaires qui cherchent à optimiser leur flux de travail et à améliorer leur efficacité lors du débogage de leurs applications Java.

Ce que présente le talk

La session met en lumière les capacités avancées du débogueur d'IntelliJ IDEA, en démontrant comment ces outils peuvent transformer le processus de développement. À travers une session de codage en direct, Anton Arhipov présente des fonctionnalités telles que les points d'arrêt lambda, le traçage des chaînes de flux, les points d'arrêt non suspendants, et bien d'autres, visant à augmenter la productivité des développeurs.

Points techniques importants

Fonctionnalités avancées de débogage

Points d'arrêt lambda

Les points d'arrêt lambda permettent de déboguer des expressions lambda en Java, une fonctionnalité particulièrement utile dans le contexte des flux. Lorsqu'un point d'arrêt est atteint, IntelliJ détecte automatiquement d'autres points d'arrêt potentiels dans les lambdas associées, facilitant ainsi le débogage des transformations de données complexes.

Traçage des chaînes de flux

Le traçage des chaînes de flux permet aux développeurs de visualiser comment les données circulent à travers les opérations de flux. Cette fonctionnalité est essentielle pour comprendre les transformations de données et identifier les bugs dans des chaînes de traitement complexes.

Points d'arrêt non suspendants

Les points d'arrêt non suspendants offrent une flexibilité accrue en permettant aux développeurs d'exécuter des actions sans interrompre l'exécution du programme. Cela est particulièrement utile pour automatiser certaines tâches de débogage, comme la modification de l'état d'une variable sans arrêter le programme.

Méthodes de débogage avancées

Points d'arrêt de méthode

Les points d'arrêt de méthode, bien que souvent sous-utilisés en raison de leur impact potentiel sur les performances, sont emulés par IntelliJ pour éviter de ralentir la JVM. Cette fonctionnalité permet de déboguer les appels de méthode sans affecter significativement la performance de l'application.

Analyse du flux de données

L'analyse du flux de données permet aux développeurs de suivre comment une variable est propagée à travers différentes méthodes, facilitant ainsi le débogage des chemins complexes dans le code. Cette fonctionnalité est particulièrement utile dans des architectures orientées services où les données traversent de nombreux composants.

Débogage de la concurrence

Le débogage des programmes concurrents est souvent un défi. Anton illustre comment configurer des points d'arrêt spécifiques pour observer le comportement d'une application multi-threadée, permettant ainsi de détecter des problèmes de synchronisation qui pourraient ne pas se manifester lors de tests normaux.

Ce qu'il faut retenir

La session met en avant l'importance d'exploiter pleinement les outils de débogage modernes. Les fonctionnalités avancées d'IntelliJ IDEA, telles que les points d'arrêt lambda, le traçage des chaînes de flux, et les points d'arrêt non suspendants, permettent aux développeurs de gagner en efficacité et de réduire le temps passé à identifier et corriger les bugs. La capacité à analyser le flux de données et à déboguer des applications concurrentes est essentielle dans le développement d'applications robustes et performantes.

Réflexions Darkwood

L'évolution des outils de débogage, comme ceux présentés dans cette session, illustre une tendance plus large vers l'automatisation et l'intelligence augmentée dans le développement logiciel. À mesure que les systèmes deviennent plus complexes, la capacité à orchestrer des workflows de débogage efficaces devient cruciale. Les agents d'intelligence artificielle pourraient, à terme, jouer un rôle dans l'automatisation de certaines tâches de débogage, permettant aux développeurs de se concentrer sur des aspects plus créatifs et stratégiques de leur travail. En intégrant ces outils avancés dans leurs pratiques quotidiennes, les développeurs peuvent non seulement améliorer leur productivité, mais aussi contribuer à l'émergence de nouvelles architectures logicielles plus résilientes et adaptatives.

Fiche programme

Spring Native et Boot 4.0: Où en sommes-nous ?

  • Speakers : Stéphane Cottin (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 17:50 à 18:20 · Salle Neuilly 252AB

Présentation des avancées de Spring Boot 4 pour la compilation native avec GraalVM : démarrages rapides, mémoire optimisée, nouvelles pratiques et défis à la migration (réflexion, proxies, librairies). Conseils, bonnes pratiques, et retour d’expérience pour réussir la transition vers des applications Spring natives, performantes et prêtes pour la production.

Spring Native et Boot 4.0: Où en sommes-nous ?

La session présentée par Stéphane Cottin lors de la conférence aborde un sujet crucial pour les développeurs Java : l'évolution de Spring Boot 4 et son intégration avec GraalVM pour la compilation native. À une époque où la performance et l'efficacité des applications sont primordiales, comprendre ces avancées est essentiel pour les architectes logiciels et les développeurs backend.

Ce que présente le talk

Le talk se concentre sur les améliorations apportées par Spring Boot 4 en matière de compilation native avec GraalVM. Il met en lumière les avantages, tels que des démarrages rapides et une consommation mémoire optimisée, tout en abordant les défis liés à la migration d'applications Spring classiques vers des applications natives. Stéphane partage également des conseils pratiques et un retour d'expérience sur les performances et la configuration des applications prêtes pour le mode natif.

Points techniques importants

Compilation native avec GraalVM

  • Concept de compilation native : Contrairement à la compilation classique en bytecode, la compilation native génère un binaire directement exécutable, ce qui permet de contourner la JVM. Cela se traduit par des démarrages en quelques millisecondes et une réduction significative de la consommation mémoire.
  • GraalVM : Cette machine virtuelle universelle permet de compiler du code Java en binaire natif. Elle supporte également d'autres langages comme Kotlin et Scala, mais l'accent est mis ici sur Java.

Avancées de Spring Boot 4

  • Intégration de Spring Native : Spring Boot 4 inclut Spring Native de manière intégrée, simplifiant ainsi le processus de migration. Cela élimine la nécessité de gérer des dépendances externes et améliore la compatibilité avec le framework.
  • Spring AOT (Ahead-Of-Time) : Cette fonctionnalité permet de précompiler certaines parties de l'application, rendant le démarrage plus rapide. Elle génère également du code pour remplacer les comportements dynamiques de Spring, ce qui est crucial pour les applications natives.

Défis de migration

  • Réflexion et Proxies : La migration vers le natif nécessite une attention particulière à l'utilisation de la réflexion et des proxies. Les classes non utilisées sont éliminées, ce qui peut poser des problèmes si le code utilise des mécanismes dynamiques.
  • Configuration statique : Avec la compilation AOT, toute la configuration doit être connue à l'avance. Cela signifie que des pratiques comme les profils dynamiques peuvent ne pas fonctionner comme prévu.

Performance et optimisation

  • Consommation mémoire : Les applications compilées de manière native peuvent réduire leur empreinte mémoire par un facteur de 4 à 5. Cela est particulièrement bénéfique pour les environnements de production où les ressources sont limitées.
  • Temps de build : La compilation native peut être longue, nécessitant plusieurs Go de mémoire et de CPU, ce qui implique qu'elle ne doit pas être effectuée à chaque test, mais plutôt à la fin du cycle de développement.

Ce qu'il faut retenir

Spring Boot 4 et son intégration avec GraalVM marquent une avancée significative vers des applications Java plus performantes et légères. Cependant, la migration vers un modèle natif nécessite une reconsidération de certaines pratiques de développement, notamment en ce qui concerne la réflexion et la configuration dynamique. Les développeurs doivent être conscients des défis et des meilleures pratiques pour tirer pleinement parti de ces nouvelles fonctionnalités.

Réflexions Darkwood

L'évolution vers des architectures natives avec Spring Boot 4 et GraalVM s'inscrit dans une tendance plus large vers l'optimisation des performances des applications. La nécessité d'automatiser et d'orchestrer les workflows de développement devient cruciale, surtout dans un contexte où l'efficacité des ressources est primordiale. Les agents IA et les outils d'orchestration peuvent jouer un rôle clé dans cette transformation, en facilitant la gestion des configurations et en optimisant les processus de build et de déploiement. La gouvernance des architectures modernes devra également prendre en compte ces évolutions pour garantir une transition fluide vers des systèmes plus agiles et réactifs.

Fiche programme

Les Value Types ne sont pas ℂomplexes

  • Speakers : Clément de Tastes (LinkedIn · Bluesky), Remi Forax
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 10:30 à 11:15 · Salle Maillot

Les Value Types ne sont pas ℂomplexes

La session "Les Value Types ne sont pas ℂomplexes", animée par Clément de Tastes et Rémi Forax, aborde une évolution majeure du langage Java : les value classes du projet Valhalla. Dans un contexte où l'optimisation des performances et la gestion de la mémoire sont des enjeux cruciaux, cette présentation offre un éclairage sur comment ces nouvelles classes peuvent transformer la manière dont nous développons en Java.

Ce que présente le talk

La conférence se concentre sur les value classes, une fonctionnalité en cours d'implémentation dans l'OpenJDK qui promet de révolutionner la gestion des objets en Java. Les value classes permettent de créer des objets immuables et performants tout en réduisant la consommation mémoire. À travers des exemples concrets, notamment l'illustration des fractales de Mandelbrot, les intervenants démontrent comment ces classes peuvent optimiser les allocations mémoire et améliorer les performances de la JVM.

Points techniques importants

Value Classes et Immuabilité

Les value classes sont conçues pour être immuables, ce qui signifie que leur état ne peut pas être modifié après leur création. Cette immutabilité est essentielle pour garantir la sécurité des threads et simplifier la gestion de la mémoire. En perdant l'identité des objets (c'est-à-dire leur adresse en mémoire), les value classes permettent de manipuler directement les valeurs, ce qui réduit le coût des allocations mémoire.

Optimisation de la Mémoire

L'un des principaux avantages des value classes est leur capacité à réduire la consommation mémoire. Contrairement aux classes traditionnelles qui nécessitent des pointeurs vers des objets dans le tas, les value classes peuvent être stockées directement sur la pile. Cela permet d'éliminer le coût associé à la gestion des pointeurs, rendant les opérations beaucoup plus rapides.

Performance et Lisibilité

Un des points soulevés durant la session est le compromis entre performance et lisibilité. Les intervenants montrent que, bien que les primitives soient rapides, leur utilisation peut rendre le code moins lisible. Les value classes visent à réconcilier ces deux aspects : en offrant une syntaxe claire tout en garantissant des performances optimales.

JEP 401 et Évolutions Futures

La JEP 401, qui décrit les value classes, est un jalon important pour l'évolution de Java. Elle vise à intégrer ces nouvelles classes tout en préservant la compatibilité avec le code existant. Les intervenants insistent sur le fait que cette évolution est le résultat d'un long processus de développement, visant à ne pas casser l'écosystème Java.

Exemples Concrets et Live Coding

Les intervenants ont illustré leurs propos avec des exemples de code en direct, démontrant comment les value classes peuvent être implémentées et utilisées dans des algorithmes, notamment ceux liés aux fractales de Mandelbrot. Ce live coding a permis de visualiser les gains de performance en utilisant des value classes par rapport à des classes traditionnelles.

Ce qu'il faut retenir

  • Les value classes offrent une solution pour créer des objets immuables et performants en Java.
  • Elles permettent de réduire la consommation mémoire en stockant directement les valeurs sur la pile.
  • La JEP 401 est un pas important vers l'intégration des value classes dans Java, tout en préservant la compatibilité avec l'existant.
  • L'équilibre entre performance et lisibilité est crucial, et les value classes visent à offrir le meilleur des deux mondes.

Réflexions Darkwood

L'introduction des value classes dans Java représente une avancée significative dans l'évolution des systèmes logiciels. En permettant une gestion plus efficace de la mémoire et en améliorant les performances, ces classes s'inscrivent dans une tendance plus large vers l'automatisation et l'optimisation des workflows de développement. La capacité à créer des objets immuables sans sacrifier la performance pourrait également influencer la manière dont les développeurs abordent la conception des architectures modernes, favorisant des pratiques qui privilégient la simplicité et l'efficacité. Dans un monde où l'orchestration et la gouvernance des systèmes deviennent de plus en plus complexes, les value classes pourraient jouer un rôle clé dans la création de solutions robustes et évolutives.

Fiche programme

Engineering a Modern Java Platform

  • Speakers : Steve Poole (X · LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : English
  • Créneau : 24/04/2026, 11:35 à 12:20 · Salle Paris 141

This session offers a practical guide to upgrading from JDK 8/11 to JDK 21/25, addressing API removals, JPMS issues, and performance changes. It covers tools, migration strategies, and support lifecycles to help teams detect risks, manage technical debt, and modernize Java systems safely for long-term stability.

Engineering a Modern Java Platform

La transition vers des versions récentes de Java, notamment de JDK 8 ou 11 à JDK 21 ou 25, est un enjeu crucial pour de nombreuses équipes de développement. Ce talk, présenté par Steve Poole, met en lumière les défis techniques et les stratégies de migration nécessaires pour moderniser les systèmes Java tout en minimisant les risques associés. Dans un écosystème où la dette technique s'accumule souvent sans que les équipes en aient pleinement conscience, cette session s'avère particulièrement pertinente.

Ce que présente le talk

Steve Poole aborde les complexités de la migration vers JDK 21 et 25, en soulignant que ce n'est pas simplement une mise à jour de version, mais un saut significatif à travers plus d'une décennie d'évolution de la plateforme. Il évoque les API supprimées, les changements de performance, ainsi que les enjeux liés à la modularité avec le Java Platform Module System (JPMS). La session offre des stratégies pratiques pour détecter les problèmes potentiels et gérer la dette technique, tout en garantissant la stabilité à long terme des systèmes Java.

Points techniques importants

Outils de migration

  • Jdeps : Cet outil permet d'analyser les dépendances de votre code et d'identifier les accès à des éléments internes qui pourraient être obsolètes dans les versions futures de Java. Il est essentiel pour anticiper les problèmes de compatibilité.

  • Jdeprscan : Utilisé pour détecter les API marquées pour suppression, cet outil aide à identifier les usages de fonctionnalités comme le gestionnaire de sécurité, qui ne seront plus supportées.

  • Javap : Permet d'examiner les fichiers de classe et d'identifier les versions de classe, ce qui est crucial pour comprendre les changements dans les dépendances.

  • Japi cmp : Outil externe pour comparer deux API, utile lors de la mise à jour des dépendances.

Changements de la plateforme

Problèmes de démarrage

  • Suppression des flags GC obsolètes : De nombreux flags de garbage collection ne sont plus supportés, ce qui peut empêcher le démarrage de l'application.

  • Gestionnaire de sécurité : La suppression du gestionnaire de sécurité dans JDK 17 empêche son utilisation, entraînant des erreurs immédiates si des applications tentent de l'utiliser.

Exceptions et plantages

  • InaccessibleObjectException : Un problème courant lors de l'utilisation de la réflexion, où les tentatives d'accès à des objets non accessibles entraîneront des erreurs.

  • Packages EE supprimés : La suppression de certains packages dans les versions précédentes de Java peut provoquer des erreurs de chargement de classe, souvent non détectées jusqu'à l'exécution.

Stratégies de migration

  • Analyse statique et dynamique : Utiliser des outils d'analyse pour identifier les problèmes potentiels avant la migration, plutôt que de les découvrir en production.

  • Tests et validation : Mettre en place des tests rigoureux pour s'assurer que les applications fonctionnent comme prévu après la migration.

Ce qu'il faut retenir

La migration vers JDK 21 ou 25 nécessite une préparation minutieuse et une compréhension approfondie des changements apportés par les nouvelles versions. Les outils disponibles dans le JDK sont essentiels pour détecter les problèmes avant qu'ils ne surviennent en production. Les équipes doivent être conscientes des risques liés à la dette technique et des impacts potentiels sur la performance et la sécurité de leurs applications.

Réflexions Darkwood

L'évolution des systèmes logiciels, notamment avec l'introduction de JPMS et la suppression de fonctionnalités obsolètes, souligne l'importance d'une gouvernance proactive dans la gestion des architectures modernes. L'automatisation des migrations et l'utilisation d'agents IA pour analyser et optimiser les workflows de développement pourraient réduire considérablement la dette technique. À mesure que les systèmes deviennent plus complexes, la nécessité d'une orchestration efficace et d'une surveillance continue des performances devient cruciale pour garantir la stabilité et la sécurité des applications Java dans un environnement en constante évolution.

Fiche programme

La magie d’OpenTelemetry : réécrire votre app en production

  • Speakers : Bruce Bujon (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 11:35 à 12:20 · Salle Amphi bleu

Cette session dévoile le fonctionnement interne de l’agent OpenTelemetry dans la JVM : interception du chargement des classes, instrumentation à la volée avec javaagent et ByteBuddy, impacts en production (latence, conflits), et bonnes pratiques pour diagnostiquer ces transformations invisibles qui modifient le comportement de vos applications.

La magie d’OpenTelemetry : réécrire votre app en production

OpenTelemetry, un projet phare de la Cloud Native Computing Foundation, s'impose comme un outil incontournable pour l'observabilité des applications modernes. Dans un contexte où la complexité des systèmes logiciels ne cesse d'augmenter, comprendre les mécanismes internes d'OpenTelemetry et son agent JVM devient essentiel pour les développeurs souhaitant optimiser la performance et la fiabilité de leurs applications en production.

Ce que présente le talk

La session animée par Bruce Bujon, Senior Software Engineer chez Datadog, explore le fonctionnement interne de l’agent OpenTelemetry au sein de la JVM. Elle se concentre sur l'interception du chargement des classes, l'instrumentation à la volée via javaagent et ByteBuddy, ainsi que les impacts potentiels en production, tels que la latence et les conflits. L'objectif est de fournir une vision claire des transformations invisibles qui modifient le comportement des applications, tout en partageant des bonnes pratiques pour diagnostiquer ces changements.

Points techniques importants

Architecture d'OpenTelemetry

OpenTelemetry se compose de plusieurs briques clés :

  • API et SDK : L'API définit comment instrumenter les applications, tandis que le SDK est responsable de la collecte et de l'exportation des données de télémétrie (traces, logs, métriques).
  • Java Agent : Permet d'instrumenter les applications sans modifier le code source, en ajoutant simplement l'agent au moment du déploiement.

Instrumentation à la volée

L'agent Java d'OpenTelemetry utilise une technique appelée zero code instrumentation :

  • Interception des classes : Lorsqu'une classe est chargée par la JVM, l'agent intercepte cette opération et peut modifier le bytecode de la classe pour y ajouter des fonctionnalités de traçage.
  • ByteBuddy : Cet outil permet de manipuler le bytecode de manière dynamique, facilitant l'instrumentation sans nécessiter de modifications dans le code source de l'application.

Impact en production

L'utilisation d'OpenTelemetry en production peut entraîner plusieurs impacts :

  • Latence : L'instrumentation peut ajouter une surcharge, bien que celle-ci soit souvent négligeable par rapport aux bénéfices en termes de visibilité.
  • Conflits : L'ajout de l'agent peut interférer avec d'autres bibliothèques ou agents, nécessitant une attention particulière lors de la configuration.

Bonnes pratiques

Pour minimiser les impacts négatifs, il est recommandé de :

  • Tester en environnement de staging : Avant de déployer en production, il est crucial de valider l'impact de l'instrumentation sur la performance.
  • Surveiller les métriques : Utiliser des outils de monitoring pour suivre les performances de l'application après l'ajout de l'agent.

Ce qu'il faut retenir

OpenTelemetry offre une solution puissante pour l'observabilité des applications Java, permettant une instrumentation dynamique sans modification du code source. Cependant, il est essentiel de comprendre les implications de cette instrumentation sur la performance et la compatibilité des systèmes en production. Les bonnes pratiques de test et de surveillance sont cruciales pour garantir une intégration réussie.

Réflexions Darkwood

L'évolution vers des architectures de microservices et des systèmes distribués rend l'observabilité plus complexe que jamais. OpenTelemetry, en facilitant l'instrumentation sans code, s'inscrit dans une tendance plus large d'automatisation des workflows de développement et de déploiement. À mesure que les agents IA et les outils d'orchestration gagnent en popularité, la capacité à intégrer des solutions d'observabilité de manière transparente devient un enjeu majeur pour les équipes de développement. La gouvernance des données et la gestion des performances doivent également évoluer pour s'adapter à ces nouvelles réalités, garantissant ainsi que les systèmes restent robustes et réactifs face à une charge de travail croissante.

Fiche programme

Kubernetes et la JVM

  • Speakers : Jean-Michel DOUDOUX (X · LinkedIn · Bluesky), Alain Regnier (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 13:30 à 14:15 · Salle Amphi bleu

Kubernetes et la JVM : Défis et Bonnes Pratiques

L'essor de Kubernetes comme solution d'orchestration de conteneurs a transformé le paysage du développement logiciel, notamment pour les applications Java. Ce talk, présenté par Jean-Michel Doudoux et Alain Regnier, aborde les défis spécifiques rencontrés lors du déploiement d'applications Java dans un environnement Kubernetes, tout en proposant des solutions pour optimiser les performances et la gestion des ressources.

Ce que présente le talk

Cette session met en lumière les interactions entre les mécanismes internes de la JVM et les contraintes inhérentes à la conteneurisation. Les intervenants explorent les bonnes pratiques pour maximiser l'efficacité des applications Java sous Kubernetes, en abordant des sujets tels que la construction et l'optimisation des images, la gestion de la mémoire, et les spécificités de la JVM.

Points techniques importants

Architecture et Orchestration

  • Kubernetes sur le poste de développement : L'utilisation d'outils comme Kind et K3S permet de simuler des environnements Kubernetes localement. Ces outils facilitent la création de clusters légers, rendant le développement plus accessible et proche de la production.

  • Flox et NYX : Ces outils permettent de créer des environnements de travail isolés et reproductibles, facilitant la gestion des versions de JDK et des configurations. Cela permet aux développeurs de partager facilement leurs environnements de travail.

Construction et Optimisation des Images

  • Réduction de la taille des images : Les intervenants insistent sur l'importance de minimiser la taille des images Docker. Les pratiques recommandées incluent l'utilisation de builds multistage pour séparer la construction de l'artefact de l'exécution.

  • Outils alternatifs : Au-delà de Docker, des outils comme Kaniko et Jib permettent de construire des images directement depuis l'application Java, simplifiant ainsi le processus de déploiement.

Gestion de la Mémoire et des Ressources

  • Probes de Kubernetes : Les probes (Liveness, Readiness, Startup) sont essentielles pour gérer le cycle de vie des conteneurs. Les intervenants soulignent l'importance de bien configurer ces probes pour éviter des comportements indésirables lors des déploiements.

  • Requests et Limits : La gestion des ressources est cruciale. Les demandes (requests) garantissent les ressources minimales allouées à un conteneur, tandis que les limites (limits) définissent le maximum. Une mauvaise configuration peut entraîner des temps de démarrage excessifs et des problèmes de performance.

Performance et Temps de Démarrage

  • Impact des limites sur le démarrage : Les intervenants démontrent que des limites de CPU trop basses peuvent considérablement ralentir le démarrage des applications Java. Par exemple, une application peut mettre jusqu'à 37 secondes à démarrer avec une limite de 200m CPU, contre seulement 2 secondes avec 1000m CPU.

  • Graceful Shutdown : La gestion des arrêts de conteneurs est essentielle pour éviter la perte de données. Kubernetes envoie un signal TERM avant de tuer un pod, permettant à l'application de gérer proprement les transactions en cours.

Ce qu'il faut retenir

  • L'interaction entre Kubernetes et la JVM nécessite une attention particulière sur la gestion des ressources et la configuration des probes.
  • L'optimisation des images et l'utilisation d'outils adaptés peuvent significativement améliorer les performances des applications Java en conteneurs.
  • Une bonne configuration des requests et limits est cruciale pour éviter des temps de démarrage excessifs et garantir une expérience utilisateur fluide.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une architecture microservices, orchestrée par des solutions comme Kubernetes, met en lumière la nécessité d'une automatisation accrue. Les agents IA et les workflows automatisés pourraient jouer un rôle clé dans l'optimisation des performances des applications Java en conteneurs. La gouvernance des ressources et la gestion des performances deviendront des enjeux majeurs à mesure que les entreprises adoptent ces technologies. En intégrant des pratiques de développement modernes, telles que les builds multistage et la gestion fine des ressources, les équipes de développement peuvent non seulement améliorer l'efficacité de leurs applications, mais aussi anticiper les défis futurs liés à la conteneurisation et à l'orchestration.

Fiche programme

Developers, start your nginx ! Propulsé par Java FFM API.

  • Speakers : Guillaume Dufrene (LinkedIn)
  • Type : Conference
  • Niveau : ADVANCED
  • Langue : French
  • Créneau : 24/04/2026, 14:35 à 15:20 · Salle Paris 143

Cette session explore l’utilisation avancée de la Foreign Function & Memory API de Java 22 pour piloter nginx depuis Java : introspection interne, appels C sécurisés, manipulation mémoire, et transformation potentielle de nginx en moteur haute performance ou passerelle native pour applications Java, incluant TLS et HTTP/3.

Developers, start your nginx ! Propulsé par Java FFM API

Dans un monde où l'interopérabilité entre langages et systèmes est cruciale, la session de Guillaume Dufrene sur l'utilisation avancée de la Foreign Function & Memory API (FFM) de Java 22 pour piloter nginx se distingue par son ambition. En explorant comment Java peut interagir directement avec un serveur web performant comme nginx, cette présentation ouvre la voie à des architectures hybrides et à des performances accrues.

Ce que présente le talk

La session se concentre sur l'intégration de Java avec des bibliothèques natives via la FFM API, en particulier pour contrôler nginx. Dufrene propose d'explorer les capacités de cette API pour manipuler la mémoire, effectuer des appels sécurisés à des fonctions C et transformer nginx en un moteur d'exécution pour des applications Java, y compris la gestion de TLS et HTTP/3.

Points techniques importants

Architecture et Interopérabilité

L'architecture proposée remet en question l'usage traditionnel de Tomcat ou d'autres serveurs Java en tant que reverse proxy. En utilisant nginx comme moteur d'exécution pour des handlers Java, Dufrene suggère une approche où nginx ne se contente pas de gérer les requêtes, mais les traite directement dans le processus Java. Cela pourrait réduire la latence et améliorer les performances en évitant les allers-retours entre différents serveurs.

Foreign Function & Memory API (FFM)

La FFM API, introduite avec Java 22, permet d'interagir avec du code natif de manière plus sécurisée et efficace que les méthodes précédentes comme JNI. Dufrene décrit les deux volets principaux de cette API :

  • Gestion de la mémoire : La FFM propose des arènes pour allouer de la mémoire native, permettant un contrôle fin sur la durée de vie des segments de mémoire. Cela évite les erreurs de segmentation souvent rencontrées avec JNI.

  • Appels de fonctions C : La capacité d'appeler des fonctions C directement depuis Java, tout en gérant les pointeurs et les structures de données, ouvre des possibilités pour des intégrations plus profondes et performantes.

Manipulation de la mémoire et structures de données

Dufrene explique comment la hiérarchie de Memory Layout permet de définir des structures complexes en Java qui correspondent à des structures C. Cela inclut :

  • Structs et Unions : Ces concepts, familiers aux développeurs C, sont intégrés dans Java via des classes scellées héritées de Value Layout.
  • Symbol Lookup : Permet de charger dynamiquement des bibliothèques et d'accéder à leurs symboles, facilitant ainsi l'interaction avec des fonctions C.

Modules nginx

Un point crucial de la présentation est la création de modules nginx. Dufrene détaille comment écrire un module HTTP qui peut intercepter et traiter des requêtes directement, en intégrant des appels Java via la FFM. Cela permettrait de personnaliser le comportement de nginx tout en tirant parti des capacités de Java.

Ce qu'il faut retenir

  • Interopérabilité : La FFM API ouvre la voie à une intégration fluide entre Java et des systèmes natifs comme nginx.
  • Performance : En utilisant nginx comme moteur d'exécution pour des applications Java, on peut potentiellement réduire la latence et améliorer les performances.
  • Modularité : La capacité de créer des modules nginx personnalisés permet d'adapter le serveur à des besoins spécifiques, tout en intégrant des traitements Java.

Réflexions Darkwood

L'approche présentée par Dufrene illustre une tendance croissante vers des architectures hybrides où les frontières entre les langages et les systèmes deviennent floues. L'automatisation et l'orchestration de ces systèmes sont essentielles pour tirer parti de leur potentiel. En intégrant des agents IA et des workflows adaptatifs, les développeurs peuvent créer des solutions plus résilientes et performantes. La transformation de nginx en moteur d'exécution pour Java pourrait également influencer les futures normes de développement, en rendant les systèmes plus modulaires et interopérables, tout en facilitant la gouvernance des architectures modernes.

Fiche programme

Error Prone : L'arme secrète de Google pour des lignes de code sans bug

  • Speakers : Clara Wiatrowski (X · LinkedIn · Bluesky)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 24/04/2026, 17:00 à 17:30 · Salle Paris 141

Error Prone : L'arme secrète de Google pour des lignes de code sans bug

Dans un monde où la qualité du code est primordiale, la gestion des erreurs et des bugs devient un enjeu crucial pour les développeurs. La session présentée par Clara Wiatrowski lors de la conférence sur les outils Java met en lumière Error Prone, un outil d'analyse statique développé par Google. Cet outil se positionne comme une solution efficace pour réduire les NullPointerException et autres subtilités qui échappent souvent aux tests unitaires.

Ce que présente le talk

Error Prone agit directement au niveau du compilateur javac, permettant une analyse approfondie de l'arbre syntaxique abstrait (AST) pour détecter des patterns de bugs. La session aborde la mise en œuvre de cet outil, son intégration sur des builds Maven/Gradle, ainsi qu'une démonstration en direct illustrant son efficacité à signaler des erreurs avant la mise en production.

Points techniques importants

Architecture et intégration

  • Intégration avec Maven/Gradle : Error Prone s'intègre facilement dans les pipelines de build existants, que ce soit avec Maven ou Gradle. Cela permet aux équipes de développement d'adopter cet outil sans bouleverser leur flux de travail actuel.
  • Analyse au niveau du compilateur : Contrairement à d'autres outils comme Checkstyle ou SpotBugs, Error Prone opère à un niveau plus profond, ce qui lui permet de remonter les erreurs de compilation liées à des bugs sémantiques.

Analyse de l'arbre syntaxique

  • AST (Abstract Syntax Tree) : Error Prone utilise l'AST pour parcourir le code source et identifier des patterns de bugs. Cela lui permet de détecter des erreurs qui ne seraient pas visibles lors d'une simple analyse de code statique.
  • Types de vérifications : Les vérifications incluent des erreurs de sémantique, des utilisations incorrectes d'API, des problèmes de performance, et même la détection de code mort.

Démonstration en direct

  • Cas pratiques : Clara a présenté plusieurs exemples concrets où Error Prone a permis d'identifier des erreurs subtiles, telles que des comparaisons incorrectes entre types de données ou des appels de méthodes dont les valeurs de retour n'étaient pas prises en compte.
  • Messages d'erreur détaillés : L'outil fournit des messages d'erreur explicites qui aident les développeurs à corriger rapidement les problèmes, ce qui réduit le coût de correction des bugs.

Écriture de checks personnalisés

  • Personnalisation : Les développeurs peuvent écrire leurs propres checks pour imposer des règles métier spécifiques. Par exemple, interdire l'utilisation de certaines API ou garantir que des logs soient exploitables.
  • Avantages : Cela permet d'adapter Error Prone aux besoins spécifiques de chaque projet, augmentant ainsi la robustesse du code produit.

Ce qu'il faut retenir

Error Prone se distingue par sa capacité à détecter des bugs au niveau du compilateur, transformant des erreurs potentielles en erreurs de compilation. Son intégration simple avec des outils de build existants et sa capacité à analyser l'AST en font un allié précieux pour les développeurs Java. En plus de ses vérifications standard, la possibilité d'écrire des checks personnalisés permet d'adapter l'outil aux besoins spécifiques des équipes.

Réflexions Darkwood

L'essor d'outils comme Error Prone témoigne d'une évolution vers une meilleure gouvernance du code dans le développement logiciel. Alors que les systèmes deviennent de plus en plus complexes, l'automatisation de la détection des erreurs et des bugs est essentielle pour garantir la qualité du code. L'intégration d'agents d'analyse statique dans le processus de développement s'inscrit dans une tendance plus large vers des architectures modernes, où l'orchestration et l'automatisation jouent un rôle clé. En fin de compte, l'adoption d'outils tels qu'Error Prone pourrait bien transformer la manière dont les équipes abordent la qualité du code, réduisant ainsi le coût des erreurs en production et améliorant la fiabilité des systèmes logiciels.

Fiche programme

People & Culture

Les échecs à l’ère de l’intelligence artificielle

  • Speakers : Laurent Fressinet (X · LinkedIn)
  • Type : Keynote
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 09:35 à 10:00 · Salle Amphi bleu

Le texte explore l’impact de l’IA sur les échecs, vue par un grand maître témoin de son évolution. Il montre comment l’IA a transformé la préparation, la stratégie et l’esthétique du jeu, révélant de nouvelles formes de créativité et de collaboration entre intelligence humaine et artificielle.

Les échecs à l’ère de l’intelligence artificielle

L'impact de l'intelligence artificielle (IA) sur les échecs constitue un sujet fascinant, révélant comment cette technologie a redéfini non seulement la manière de jouer, mais aussi la compréhension même du jeu. La keynote de Laurent Fressinet, grand maître international, explore cette transformation à travers son expérience personnelle et historique, offrant un éclairage unique sur l'interaction entre l'intelligence humaine et artificielle.

Ce que présente le talk

Laurent Fressinet aborde l'évolution des échecs à l'ère de l'IA, en illustrant comment cette dernière a modifié la préparation des joueurs, leur stratégie et même l'esthétique du jeu. Il évoque son parcours, des débuts pré-informatiques aux avancées des moteurs d'échecs modernes comme AlphaZero, et comment ces innovations ont influencé la créativité et la collaboration entre les humains et les machines.

Points techniques importants

Transformation de la préparation des joueurs

Fressinet souligne que l'IA a radicalement changé la manière dont les joueurs se préparent. Auparavant, les joueurs s'appuyaient sur des livres et des bases de données statiques. Aujourd'hui, des outils comme AlphaZero permettent un apprentissage dynamique, où les joueurs peuvent simuler des millions de parties en un temps record, affinant ainsi leur compréhension des ouvertures et des stratégies.

Évolution de la stratégie

L'intervenant met en avant l'importance de l'auto-apprentissage des IA. AlphaZero, par exemple, a été capable d'apprendre les échecs en jouant contre lui-même, révolutionnant ainsi la manière dont les joueurs humains perçoivent certaines positions. Des mouvements autrefois considérés comme faibles, comme avancer un pion sur le flanc, sont désormais vus sous un nouveau jour, enrichissant la palette stratégique des joueurs.

Collaboration entre humains et IA

Fressinet insiste sur le fait que l'IA ne remplace pas l'intuition humaine, mais l'enrichit. Il partage une anecdote personnelle où, en se fiant uniquement à son logiciel d'analyse, il a perdu contre Judith Polgar. Cela illustre l'importance de la pensée critique et de l'adaptabilité, même en présence d'outils puissants.

Impact sur la culture du jeu

L'IA a également contribué à populariser les échecs, rendant le jeu plus accessible grâce à des plateformes en ligne qui fournissent des analyses instantanées. Les jeunes joueurs, comme ceux d'Inde, émergent rapidement comme des grands maîtres, ce qui témoigne d'une élévation générale du niveau de jeu.

Ce qu'il faut retenir

  • L'IA a transformé la préparation et la stratégie des joueurs d'échecs, rendant le jeu plus dynamique et accessible.
  • Des outils comme AlphaZero ont redéfini des concepts stratégiques, introduisant des approches novatrices.
  • La collaboration entre l'intelligence humaine et artificielle est essentielle pour maximiser le potentiel des joueurs.

Réflexions Darkwood

L'évolution des échecs à l'ère de l'IA illustre une tendance plus large dans le développement logiciel : la synergie entre l'humain et la machine. Alors que l'automatisation et les agents intelligents deviennent omniprésents, il est crucial de maintenir une approche collaborative. Les systèmes modernes doivent non seulement intégrer des outils d'IA, mais aussi encourager la curiosité et l'adaptabilité des utilisateurs. Cela pose des questions fondamentales sur la gouvernance des technologies et leur impact sur les workflows de développement, où l'intuition humaine doit rester au cœur de la prise de décision, même dans un monde de plus en plus automatisé.

Fiche programme

Neurodiversité & Tech : vos “profils atypiques” sont votre plus grande force

  • Speakers : Amélie Rigano (LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 10:30 à 11:15 · Salle Paris 141

Cette conférence montre comment la neurodiversité devient un atout pour l’innovation et la performance dans la Tech. Grâce à des apports neuroscientifiques, des exemples concrets et des conseils managériaux, elle propose des leviers simples pour valoriser les talents atypiques et instaurer une culture inclusive et efficace.

Neurodiversité & Tech : vos “profils atypiques” sont votre plus grande force

La conférence animée par Amélie Rigano aborde un sujet essentiel et souvent négligé dans le domaine technologique : la neurodiversité. Dans un environnement où l'innovation et la performance sont primordiales, comprendre et valoriser les profils atypiques peut devenir un atout stratégique pour les entreprises. Cette session propose des perspectives neuroscientifiques et des conseils pratiques pour intégrer ces talents dans des équipes performantes.

Ce que présente le talk

Amélie Rigano, coach spécialisée dans l'accompagnement de dirigeants neuroatypiques, explore comment la neurodiversité peut transformer la performance individuelle et collective dans les environnements technologiques. Elle met en lumière les mécanismes neurocognitifs qui influencent l'attention, la motivation et la communication, tout en fournissant des outils concrets pour manager ces profils atypiques. L'objectif est de passer d'une gestion des écarts à une stratégie de performance fondée sur la compréhension humaine.

Points techniques importants

Compréhension de la neurodiversité

La neurodiversité englobe des profils tels que le trouble déficitaire de l’attention avec ou sans hyperactivité (TDAH), le trouble du spectre de l’autisme (TSA), ainsi que d'autres conditions comme la dyslexie et la dyspraxie. Rigano souligne que ces profils ne sont pas des maladies, mais des variations naturelles du fonctionnement cognitif humain.

Mécanismes neurocognitifs

Les mécanismes neurocognitifs influencent divers aspects de la performance :

  • Attention : Les profils neurodivergents peuvent avoir des difficultés à maintenir leur attention sur des tâches conventionnelles, mais peuvent exceller dans des environnements où la créativité et l'innovation sont requises.
  • Motivation : Comprendre ce qui motive ces individus est crucial pour les engager pleinement dans des projets.
  • Communication : Les styles de communication peuvent varier considérablement, rendant nécessaire une adaptation des méthodes managériales.

Outils managériaux

Rigano propose plusieurs leviers d'action pour les managers :

  • Micro-ajustements : De petites modifications dans l'environnement de travail ou dans les méthodes de communication peuvent avoir un impact significatif sur l'engagement des profils atypiques.
  • Culture inclusive : Installer une culture qui valorise la diversité cognitive peut renforcer l'engagement et la collaboration au sein des équipes.

Exemples concrets

Des exemples d'entreprises qui ont réussi à intégrer des profils neurodivergents dans leurs équipes sont présentés, illustrant comment ces talents peuvent apporter des perspectives uniques et des solutions innovantes.

Ce qu'il faut retenir

La neurodiversité n'est pas simplement une question d'inclusion, mais un véritable levier de performance. Les entreprises qui apprennent à reconnaître et à valoriser les talents atypiques peuvent bénéficier d'une innovation accrue et d'une meilleure collaboration. Les managers doivent adopter des approches flexibles et personnalisées pour maximiser l'engagement de ces profils.

Réflexions Darkwood

L'évolution des systèmes logiciels et des environnements de travail vers des modèles plus inclusifs et diversifiés est une tendance incontournable. La neurodiversité, en tant que facteur d'innovation, souligne l'importance de l'automatisation et des workflows adaptatifs. À mesure que les entreprises intègrent des agents d'intelligence artificielle pour optimiser leurs processus, il est essentiel de ne pas oublier la valeur humaine que représentent les profils neurodivergents. En favorisant une culture d'inclusion, les organisations peuvent non seulement améliorer leur performance, mais aussi contribuer à une transformation sociétale plus large, où chaque individu, quel que soit son mode de fonctionnement, a la possibilité de s'épanouir et de contribuer à l'innovation.

Fiche programme

Gouvernance partagée & équipe IT : ce qu’on a gardé, abandonné et appris

  • Speakers : Nicolas PEDEGERT (LinkedIn), Antoine Queinnec (LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 11:35 à 12:20 · Salle Paris 141

Retour d’expérience sur la mise en place de modèles organisationnels alternatifs dans une ESN en croissance : réussites, échecs, pratiques adaptées et pistes d’amélioration. Une exploration pragmatique et sans filtre pour renforcer l’engagement, la décision partagée et la cohésion au sein des équipes.

Gouvernance partagée & équipe IT : ce qu’on a gardé, abandonné et appris

La gouvernance partagée est un sujet qui suscite un intérêt croissant dans le monde des entreprises, notamment dans les ESN (Entreprises de Services Numériques) en pleine mutation. Dans un contexte où l'engagement des employés et la prise de décision collective sont devenus des enjeux cruciaux, la session présentée par Nicolas Pedegert et Antoine Queinnec de INOCO offre un retour d'expérience pragmatique sur l'implémentation de modèles organisationnels alternatifs. Ce talk met en lumière les défis et les succès rencontrés, tout en proposant des pistes d'amélioration concrètes.

Ce que présente le talk

La session explore les différents modèles d'entreprise émergents tels que l'entreprise libérée, l'holacratie et la sociocratie 3.0. Les intervenants partagent leurs expériences vécues chez INOCO, une ESN spécialisée dans le développement logiciel, le cloud et la data. Ils interrogent la pertinence de ces modèles dans un environnement de travail où les consultants sont souvent en mission, et où les contraintes économiques pèsent lourdement sur la prise de décision.

Points techniques importants

Modèles organisationnels alternatifs

Les intervenants évoquent plusieurs modèles de gouvernance qui visent à favoriser l'autonomie et l'engagement des employés :

  • Entreprise libérée : Met l'accent sur la liberté et la responsabilité des salariés, sans cadre rigide.
  • Holacratie : Propose une structure formalisée avec des rôles et des processus de gouvernance explicites.
  • Sociocratie 3.0 : Se concentre sur des principes adaptables basés sur le consentement et l'amélioration continue.

Ces modèles visent tous à réduire la centralisation du pouvoir et à encourager la participation.

Défis spécifiques aux ESN

Les intervenants identifient plusieurs contraintes qui compliquent l'application de ces modèles dans une ESN :

  • Dispersion des équipes : Les consultants travaillent souvent chez des clients, ce qui rend difficile la création de liens et la circulation de l'information.
  • Recrutement en urgence : La nécessité de recruter rapidement pour répondre aux demandes des clients complique la mise en place d'une culture organisationnelle stable.
  • Dépendance au budget client : Les arbitrages financiers peuvent mettre à l'épreuve la gouvernance partagée, surtout lorsque les projets sont réduits ou annulés.

Pratiques et retours d'expérience

Les intervenants partagent des pratiques qu'ils ont testées, certaines ayant conduit à des changements durables, tandis que d'autres se sont révélées inadaptées. Ils soulignent l'importance de l'expérimentation et de l'adaptation continue, en insistant sur le fait qu'aucun modèle n'est universellement applicable.

Ce qu'il faut retenir

  • La gouvernance partagée peut améliorer l'engagement et la prise de décision, mais elle nécessite une mise en œuvre réfléchie et adaptée au contexte spécifique de l'entreprise.
  • Les modèles alternatifs, bien que prometteurs, doivent être adaptés aux réalités des ESN, notamment en ce qui concerne la dispersion des équipes et les contraintes budgétaires.
  • L'expérimentation et le retour d'expérience sont essentiels pour identifier les pratiques efficaces et abandonner celles qui ne fonctionnent pas.

Réflexions Darkwood

L'évolution vers des modèles de gouvernance partagée dans les ESN reflète une tendance plus large dans l'industrie du développement logiciel. Alors que les entreprises cherchent à s'adapter à un environnement en constante mutation, l'automatisation et l'utilisation d'agents intelligents pourraient jouer un rôle clé dans la facilitation de la prise de décision collective. De plus, la nécessité d'une gouvernance efficace devient d'autant plus cruciale dans un monde où les équipes sont souvent dispersées et où les budgets sont serrés. La capacité à créer des workflows fluides et à maintenir une culture d'entreprise cohérente sera déterminante pour le succès des organisations à l'avenir.

Fiche programme

Handicap invisible : l’accessibilité commence dans les réunions (et l'IA aide)

  • Speakers : Anaïs Moulin (LinkedIn)
  • Type : Lunch Talk
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 12:35 à 12:50 · Salle Paris 143

Ce talk présente des pratiques simples et outils d’IA (sous-titres, transcription, résumés) pour rendre réunions et stand‑ups plus accessibles, inclusifs et efficaces. À partir de l’expérience d’une Product Owner malentendante, il démontre comment l’accessibilité améliore la qualité, la productivité et l’équité des échanges professionnels.

Handicap invisible : l’accessibilité commence dans les réunions (et l'IA aide)

Dans un contexte où l'inclusivité et l'accessibilité sont de plus en plus au cœur des préoccupations des entreprises, la session animée par Anaïs Moulin, Product Owner chez Ippon Technologies, aborde un sujet crucial : comment rendre les réunions plus accessibles, notamment pour les personnes souffrant de handicaps invisibles. Ce talk met en lumière l'importance d'intégrer des pratiques simples et des outils d'intelligence artificielle pour améliorer la qualité et l'efficacité des échanges professionnels.

Ce que présente le talk

Anaïs Moulin partage son expérience personnelle en tant que personne malentendante et propose des astuces concrètes pour rendre les réunions plus inclusives. Elle souligne que l'accessibilité ne bénéficie pas seulement aux personnes en situation de handicap, mais améliore également la productivité et l'équité des échanges pour tous les participants.

Points techniques importants

Obstacles rencontrés en réunion

Anaïs identifie plusieurs obstacles qui rendent les réunions peu inclusives :

  • Informations orales uniquement : La dépendance à l'oral pour transmettre des informations cruciales peut entraîner des pertes de compréhension.
  • Bruit et acoustique : Les environnements de travail en open space rendent la concentration difficile, augmentant la fatigue mentale.
  • Absence d'outils de suivi : Sans chat ou transcription, il est difficile de suivre le fil de la discussion.
  • Prise de parole non inclusive : Un manque d'interaction peut mener à une perte d'attention et de motivation.

Checklist pour des réunions inclusives

Anaïs propose une checklist d'actions simples à mettre en œuvre :

  1. Préparation des réunions : Partager l'agenda et les documents à l'avance.
  2. Support visuel : Utiliser des supports visuels pour accompagner les discussions.
  3. Prise de parole structurée : Encourager un tour de table et adapter le rythme de parole.
  4. Alternatives à la prise de parole : Offrir des options comme le chat pour ceux qui préfèrent ne pas parler.
  5. Matériel adéquat : S'assurer que le matériel audio et vidéo est de bonne qualité.
  6. Compte-rendu post-réunion : Rédiger un résumé écrit pour garantir que tout le monde est sur la même longueur d'onde.

Utilisation de l'IA pour l'accessibilité

Anaïs évoque également l'importance de l'intelligence artificielle dans l'amélioration de l'accessibilité :

  • Sous-titres automatiques : Utiliser des outils comme Microsoft Teams ou Google Meets pour activer les sous-titres.
  • Transcription automatique : Avoir un outil qui transcrit les réunions permet de se concentrer sur les échanges sans craindre de manquer des informations.
  • Outils de résumé : Des applications comme Notebook LM peuvent aider à créer des résumés à partir de documents longs ou complexes.

Ce qu'il faut retenir

L'accessibilité en réunion est essentielle non seulement pour les personnes en situation de handicap, mais également pour l'ensemble des participants. En intégrant des pratiques simples et des outils d'IA, il est possible d'améliorer significativement la qualité des échanges, la productivité et l'inclusivité des réunions.

Réflexions Darkwood

L'évolution vers des systèmes logiciels plus inclusifs et accessibles est une nécessité dans un monde de plus en plus digitalisé. L'automatisation et l'utilisation d'agents intelligents peuvent transformer les workflows traditionnels, rendant les interactions professionnelles plus fluides et efficaces. En intégrant des pratiques d'accessibilité dès la conception des outils et des processus, les entreprises peuvent non seulement répondre aux besoins d'une population diversifiée, mais aussi favoriser une culture d'inclusion qui profite à tous. Les défis liés à l'accessibilité ne sont pas seulement techniques, mais aussi culturels, nécessitant une transformation des mentalités au sein des équipes.

Fiche programme

Trop de news, pas assez de temps ? Génère tes propres podcasts de veille !

  • Speakers : Jérôme Gauthier (X · LinkedIn · Bluesky)
  • Type : Lunch Talk
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 12:35 à 12:50 · Salle Maillot

Cette présentation montre comment créer son propre podcast de revue de presse automatisé pour suivre l’actu tech efficacement. L’auteur partage sa stack et ses défis : collecte multi‑appareils, extraction de contenus, synthèse par LLM, génération audio naturelle et diffusion privée, alliant productivité, confidentialité et expérience utilisateur.

Trop de news, pas assez de temps ? Génère tes propres podcasts de veille !

Dans un monde où l'information technologique abonde, il devient de plus en plus difficile de rester à jour sans se sentir submergé. Jérôme Gauthier, architecte solution chez Sopra Steria, propose une approche innovante pour gérer cette surcharge d'informations en créant un podcast de revue de presse automatisé. Ce talk explore les défis et la stack technique derrière cette solution, offrant ainsi un aperçu précieux pour les développeurs souhaitant optimiser leur veille technologique.

Ce que présente le talk

La présentation de Jérôme Gauthier aborde la création d'un podcast personnalisé qui permet de consommer efficacement les actualités tech. En partageant sa stack technique et les obstacles rencontrés, il démontre comment automatiser la collecte, l'extraction, la synthèse et la diffusion de contenus, tout en respectant des critères de productivité, de confidentialité et d'expérience utilisateur.

Points techniques importants

Architecture et Workflow

Le système proposé par Jérôme repose sur une architecture modulaire, intégrant plusieurs étapes clés :

  1. Collecte des liens : Utilisation de raccourcis personnalisés sur mobile et desktop pour envoyer des liens vers un backend.
  2. Extraction de contenu : Scraping des articles pour en extraire le contenu utile, formaté en Markdown.
  3. Synthèse par LLM : Génération d'un script de podcast à partir du contenu brut, en préservant la fidélité à la source.
  4. Génération audio : Conversion du script en audio naturel à l'aide de modèles de text-to-speech.
  5. Diffusion : Publication du podcast sur une plateforme choisie, avec un mode privé.

Collecte et Extraction

La collecte des liens est simplifiée grâce à l'utilisation de JavaScript dans les bookmarks, permettant un envoi direct au backend. Pour l'extraction, Jérôme utilise un service de Cloudflare, Markdon.new, qui transforme les pages web en Markdown, garantissant ainsi la compatibilité avec divers formats.

Synthèse et Génération Audio

La génération du script repose sur des modèles de langage (LLM) qui reformulent le contenu tout en respectant la structure et le style de l'article original. Jérôme met l'accent sur l'importance de conserver l'opinion de l'auteur et d'adapter le texte pour un format audio engageant.

Pour la génération audio, il utilise des modèles de text-to-speech récents, comme ceux de Mistral et Gini Flash, qui permettent de créer un dialogue naturel entre plusieurs voix. Il souligne également un phénomène appelé "prosodic drift", qui peut affecter la qualité audio, et propose de découper les fichiers pour atténuer ce problème.

Diffusion et Confidentialité

La diffusion se fait via SoundCloud, qui offre un mode privé et des API pour automatiser le processus. Jérôme explique que bien que Spotify soit une option populaire, son manque de confidentialité le rend inadapté pour des podcasts privés.

Ce qu'il faut retenir

  • Automatisation de la veille : La création d'un podcast personnalisé permet de consommer l'actualité tech de manière efficace et adaptée à ses besoins.
  • Stack technique : L'utilisation de services cloud et de modèles de langage modernes facilite l'extraction et la synthèse de contenu.
  • Confidentialité et personnalisation : L'importance de maîtriser ses sources et de garantir un mode privé pour la diffusion des podcasts.

Réflexions Darkwood

La démarche de Jérôme Gauthier s'inscrit dans une tendance plus large d'automatisation et de personnalisation des flux d'informations. À mesure que les systèmes logiciels évoluent, la capacité à orchestrer des workflows complexes devient essentielle. L'intégration d'agents d'IA pour la synthèse et la génération de contenu pourrait transformer la manière dont les développeurs et les professionnels consomment l'information.

En optimisant les workflows de veille technologique, nous assistons à une redéfinition des pratiques de consommation d'information, où la productivité et la confidentialité sont au cœur des préoccupations. Cette évolution pourrait également influencer la manière dont les entreprises gèrent leurs processus de gouvernance et d'innovation, rendant les architectures modernes encore plus adaptables aux besoins des utilisateurs.

Fiche programme

De l'éco-volontariat à la promotion de mon side project en Australie !

  • Speakers : Nicolas GUILLOT (LinkedIn)
  • Type : Lunch Talk
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 13:00 à 13:15 · Salle Paris 242AB

Ce talk retrace comment une mission d’éco-volontariat a inspiré la création d’une application mobile internationale pour la protection des tortues marines, illustrant le parcours d’un développeur passionné, les défis rencontrés, l’importance de la communauté et la possibilité de concilier expertise technique, impact social et développement professionnel.

De l'éco-volontariat à la promotion de mon side project en Australie !

Le talk de Nicolas Guillot explore un parcours atypique où l'éco-volontariat se transforme en un projet technologique à impact social. À une époque où les développeurs cherchent à allier expertise technique et engagement sociétal, cette session offre une perspective inspirante sur la manière dont un projet personnel peut évoluer en une application internationale.

Ce que présente le talk

Nicolas partage son expérience de développeur ayant participé à une mission d’éco-volontariat sur l’atoll de Tetiaroa en Polynésie française. Ce voyage a été le catalyseur de la création de l’application mobile “We Spot Turtles!”, dédiée à la protection des tortues marines. Le talk aborde les défis rencontrés, l’importance des rencontres humaines et la façon dont un side project peut avoir un impact significatif sur la biodiversité.

Points techniques importants

Architecture et développement

Nicolas a conçu son application en utilisant plusieurs technologies, notamment Flutter pour le développement multiplateforme. Cette approche lui a permis de créer une application mobile pour Android et iOS ainsi qu'une interface web pour les scientifiques. L'utilisation de Firebase pour l'authentification et le stockage des données a également été un choix stratégique, facilitant la gestion des utilisateurs et des images.

Modèle de reconnaissance d'images

Un aspect innovant du projet est l'intégration d'un modèle de reconnaissance et de classification des espèces de tortues marines. Ce modèle, développé en Python, permet aux utilisateurs de l'application de classifier les tortues directement depuis leur mobile, sans nécessiter de connexion Internet. Cela représente une avancée significative par rapport aux méthodes traditionnelles qui reposent sur l'envoi de données vers un serveur.

Importance de la communauté

Nicolas souligne le rôle crucial de la communauté dans le succès de son projet. Les échanges avec d'autres passionnés, comme Kathlyn en Australie, ont permis d'enrichir le projet. La collaboration à distance a été facilitée par des outils modernes, permettant à des développeurs de différentes régions de travailler ensemble sur un même objectif.

Impact social et environnemental

Le projet ne se limite pas à une simple application mobile. Il vise à sensibiliser le grand public à la protection des tortues marines et à collecter des données précieuses pour les associations de conservation. En intégrant des fonctionnalités qui permettent aux utilisateurs de contribuer activement, l'application transforme chaque observation en une donnée utile pour la recherche scientifique.

Ce qu'il faut retenir

  • Transformation personnelle : Le parcours de Nicolas montre comment des événements personnels peuvent catalyser des changements significatifs dans la carrière d'un développeur.
  • Technologie au service de l'environnement : L'utilisation de technologies modernes comme Flutter et Firebase, combinée à des modèles d'IA, illustre comment la tech peut contribuer à des causes sociales.
  • Collaboration et communauté : La force du projet réside dans les interactions humaines et les collaborations à distance, démontrant l'importance du réseau dans le développement de solutions innovantes.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures de plus en plus décentralisées et collaboratives est manifeste dans le projet de Nicolas. L'intégration d'agents intelligents pour la reconnaissance d'images et la collecte de données sur le terrain pourrait ouvrir la voie à de nouvelles applications dans le domaine de la conservation.

À l'heure où l'automatisation et l'IA prennent une place prépondérante, des projets comme “We Spot Turtles!” montrent qu'il est possible de concilier passion, technologie et impact social. Ce type d'initiative pourrait bien inspirer d'autres développeurs à explorer des voies similaires, où l'innovation technique sert des causes plus larges, tout en renforçant les liens au sein des communautés de développeurs.

Fiche programme

Comment l'IA a transformé la création graphique de Devoxx France

  • Speakers : Nicolas Martignole (LinkedIn), Stéphane Itschner (LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 13:30 à 14:15 · Salle Amphi bleu

Deux passionnés dévoilent les coulisses de la création visuelle de Devoxx France et l’impact des outils d’IA sur le métier de créatif. Entre démonstrations et témoignages, ils montrent comment ces technologies transforment méthodes, créativité et rythme, annonçant des changements similaires pour les développeurs.

Comment l'IA a transformé la création graphique de Devoxx France

La session présentée par Nicolas Martignole et Stéphane Itschner lors de Devoxx France met en lumière l'impact croissant des outils d'intelligence artificielle sur le domaine de la création graphique. À une époque où la technologie redéfinit les méthodes de travail, cette discussion est particulièrement pertinente pour les professionnels du secteur, qu'ils soient graphistes ou développeurs.

Ce que présente le talk

Les intervenants, Stéphane, graphiste, et Nicolas, organisateur de Devoxx France, partagent leur expérience sur l'évolution des pratiques créatives grâce à l'IA. Ils explorent comment ces outils transforment non seulement la création visuelle, mais aussi les dynamiques de collaboration entre créatifs et développeurs. À travers des démonstrations et des témoignages, ils illustrent les changements de méthodes, de créativité et de rythme de travail.

Points techniques importants

Évolution des outils de création

L'un des points clés abordés est la transition des méthodes traditionnelles vers des outils d'IA. Stéphane explique comment, au fil des années, les logiciels de création ont évolué, permettant une génération d'images et de vidéos plus rapide et plus efficace. Des outils comme Midjourney et DALL-E ont été mentionnés comme des exemples de technologies qui facilitent cette transformation.

Impact sur le métier de créatif

Stéphane souligne que l'IA n'est pas un substitut, mais plutôt un complément à son expertise. La capacité de générer rapidement des visuels permet de libérer du temps pour se concentrer sur la créativité et l'itération. Cependant, il insiste sur le fait que le savoir-faire humain reste essentiel pour garantir la qualité et la cohérence des créations.

Workflow et collaboration

Le talk aborde également l'évolution des workflows. Au départ, les processus étaient très linéaires et dépendaient de logiciels de création traditionnels comme Adobe Photoshop. Aujourd'hui, grâce à des outils collaboratifs comme Miro, les équipes peuvent travailler de manière plus intégrée, générant des visuels à partir de prompts et les ajustant en temps réel. Cette approche permet une itération rapide et une meilleure réactivité aux besoins des projets.

Parallèle avec le développement

Nicolas fait un parallèle intéressant entre l'évolution de la création graphique et celle du développement logiciel. Il anticipe que les changements observés dans le domaine créatif sont un avant-goût de ce qui attend les développeurs. L'intégration de l'IA dans les processus de développement pourrait également transformer les méthodes de travail, rendant les équipes plus agiles et réactives.

Ce qu'il faut retenir

  • L'IA transforme les méthodes de création graphique, permettant une génération plus rapide et plus efficace de visuels.
  • Le savoir-faire humain reste crucial pour garantir la qualité des créations, même avec l'utilisation d'outils d'IA.
  • Les workflows évoluent vers des processus plus intégrés et collaboratifs, facilitant l'itération et la réactivité.
  • Les changements dans le domaine créatif préfigurent des transformations similaires dans le développement logiciel.

Réflexions Darkwood

L'impact de l'IA sur la création graphique soulève des questions plus larges sur l'évolution des systèmes logiciels et des workflows. Alors que les outils d'IA deviennent omniprésents, il est essentiel de réfléchir à leur intégration dans les processus de développement. L'automatisation croissante pourrait non seulement améliorer l'efficacité, mais aussi redéfinir les rôles au sein des équipes. Les développeurs, tout comme les créatifs, devront s'adapter à cette nouvelle réalité, où l'IA devient un partenaire de travail plutôt qu'un simple outil. Cette évolution pose également des défis en matière de gouvernance et de qualité, nécessitant une réflexion approfondie sur la manière dont nous concevons et construisons nos systèmes.

Fiche programme

⌛ Et si on débuguait notre rapport au temps ?

  • Speakers : Albane Fagot-Veyron (LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 13:30 à 14:15 · Salle Maillot

La conférence explore la « dette temporelle » qui épuise nos équipes : surcharge, multitâche et accélération constante. En s’appuyant sur la sociologie et les neurosciences, elle questionne le rôle de l’IA dans ce rythme effréné et propose des pistes concrètes pour rééquilibrer notre rapport au temps et à la performance.

⌛ Et si on débuguait notre rapport au temps ?

Dans un monde où la pression temporelle semble être omniprésente, la conférence d'Albane Fagot-Veyron aborde un sujet crucial : la « dette temporelle ». Ce concept, souvent négligé par rapport à la dette technique, mérite une attention particulière dans un contexte où la surcharge de travail et le multitâche sont devenus la norme. En s'appuyant sur des recherches en sociologie et en neurosciences, cette session propose des pistes concrètes pour rétablir un équilibre sain entre performance et gestion du temps.

Ce que présente le talk

La conférence s'ouvre sur une constatation frappante : la phrase « Je n'ai pas le temps » est devenue un refrain quotidien. Albane Fagot-Veyron explore comment cette perception du temps influence non seulement notre bien-être individuel, mais aussi la dynamique de nos équipes. Elle introduit le concept de « dette temporelle », qui englobe la surcharge de travail, le multitâche et l'accélération des rythmes de vie. En questionnant le rôle de l'IA dans cette dynamique, elle propose une réflexion sur la manière dont nous pouvons « débuguer » notre rapport au temps.

Points techniques importants

La dette temporelle

  • Définition : La dette temporelle se réfère à l'accumulation de tâches non réalisées et à la pression de devoir toujours en faire plus. Cette surcharge peut mener à l'épuisement et à une baisse de la qualité du travail.
  • Impact sur les équipes : Les équipes se retrouvent souvent dans un cycle de travail intense sans espace pour la réflexion ou l'amélioration continue.

Le rôle de l'IA

  • Accélération ou solution ? : L'IA est perçue à la fois comme un outil d'optimisation et comme un facteur d'accélération. Elle peut donner l'illusion de gérer la surcharge, mais contribue-t-elle réellement à un rythme de travail soutenable ?
  • Réflexion nécessaire : Il est essentiel de se demander si l'IA, en augmentant la productivité, ne fait pas qu'aggraver notre rapport au temps.

Le rapport au temps

  • Temps perçu : La perception du temps varie selon les individus et les contextes. Par exemple, le temps semble passer plus vite lorsque l'on est engagé dans une activité plaisante.
  • Temps social : Ce concept englobe les structures temporelles imposées par notre environnement de travail et les attentes sociétales. Les différences entre entreprises peuvent influer sur la perception du temps.
  • Temps existentiel : Cela fait référence à notre vision personnelle du temps, influencée par notre personnalité et nos croyances.

Sondage et données

  • Collecte de données : Albane a mené un sondage auprès de 541 professionnels, principalement dans le secteur de la tech, pour mieux comprendre leur rapport au temps. Les résultats révèlent que 73 % des répondants se sentent constamment en train de courir après le temps.
  • Rythme soutenable : La notion de rythme soutenable est essentielle. Il s'agit d'un rythme que l'on peut maintenir indéfiniment sans épuisement, un concept qui mérite d'être redéfini dans le contexte moderne.

Ce qu'il faut retenir

La conférence souligne l'importance de prendre conscience de notre rapport au temps et de la nécessité de le réévaluer. La dette temporelle est un enjeu majeur qui impacte non seulement la productivité, mais aussi le bien-être des équipes. En intégrant des réflexions sur le temps perçu, social et existentiel, il devient possible de mieux gérer notre temps et d'améliorer notre qualité de vie au travail.

Réflexions Darkwood

L'évolution des systèmes logiciels et des environnements de travail nous pousse à repenser notre rapport au temps. L'automatisation et l'IA, bien qu'elles offrent des opportunités d'optimisation, peuvent également exacerber la pression temporelle. En intégrant des agents intelligents dans nos workflows, il est crucial de veiller à ce qu'ils ne deviennent pas des catalyseurs d'accélération au détriment de la qualité et de la santé mentale des équipes. La gouvernance des systèmes doit donc inclure une réflexion sur la soutenabilité des rythmes de travail, afin de créer des environnements où la performance rime avec bien-être.

Fiche programme

HTTP/3 : 37 ans d’histoire du protocole HTTP

  • Speakers : Chris Navas (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 15:40 à 16:25 · Salle Neuilly 252AB

HTTP/3 : 37 ans d’histoire du protocole HTTP

L'évolution du protocole HTTP est un sujet fondamental pour quiconque s'intéresse à l'architecture web moderne. En 37 ans, ce protocole a connu des transformations majeures qui ont façonné notre expérience d'Internet. La session présentée par Chris Navas explore cette évolution, des débuts rudimentaires de HTTP à ses dernières avancées avec HTTP/3, en mettant en lumière les implications sur la performance, la sécurité et les fonctionnalités du web.

Ce que présente le talk

Chris Navas nous plonge dans l'histoire du protocole HTTP, en commençant par sa création en 1989 par Tim Berners-Lee au CERN. Il retrace les différentes versions du protocole, de HTTP/0.9 à HTTP/3, en soulignant les innovations qui ont permis d'améliorer l'expérience utilisateur sur des plateformes modernes telles que Gmail, Netflix et Discord. L'objectif est de comprendre comment chaque version a contribué à l'optimisation des échanges sur le web.

Points techniques importants

Historique et évolution du protocole

  • HTTP/0.9 : Version initiale, très simple, permettant uniquement des requêtes GET pour récupérer des fichiers HTML et images. Pas de codes de retour ni de gestion des connexions.

  • HTTP/1.0 : Introduit en 1996, il ajoute des verbes comme HEAD et POST, ainsi que les premiers codes de retour. Les connexions sont rompues après chaque requête, ce qui entraîne des latences.

  • HTTP/1.1 : Normalisé en 1997, il introduit les connexions persistantes, permettant de maintenir une connexion ouverte pour plusieurs requêtes, ainsi que le pipelining pour envoyer plusieurs requêtes simultanément. Cette version améliore significativement la performance en réduisant le nombre de connexions TCP nécessaires.

  • HTTP/2 : Lancé en 2015, il abandonne le texte pour un format binaire, permettant une compression des headers et un multiplexing véritable. Les requêtes peuvent être envoyées simultanément, et les réponses peuvent arriver dans un ordre différent de celui des requêtes, ce qui optimise encore plus la latence.

  • HTTP/3 : Introduit en 2022, il utilise le protocole QUIC, basé sur UDP, permettant un multiplexing plus efficace et une meilleure gestion des changements de connexion (par exemple, lors du passage d'un réseau Wi-Fi à un réseau mobile). Cela améliore la résilience et la vitesse des échanges, tout en intégrant le chiffrement de manière native.

Performance et sécurité

  • Multiplexing : Avec HTTP/2 et HTTP/3, le multiplexing permet d'envoyer plusieurs flux de données simultanément, réduisant les temps d'attente et améliorant l'efficacité des échanges.

  • Chiffrement : HTTP/3 intègre le chiffrement dans le protocole QUIC, garantissant que les données sont sécurisées dès le départ, contrairement à HTTP/2 qui nécessite une couche supplémentaire pour le chiffrement.

  • Gestion des connexions : HTTP/3 améliore la gestion des connexions, permettant de maintenir un flux de données même lors de changements d'adresse IP, ce qui est crucial pour les applications mobiles.

Implications pour les développeurs

  • Adaptation des outils et des infrastructures : Les développeurs doivent être conscients des changements apportés par chaque version du protocole et adapter leurs outils et infrastructures en conséquence pour tirer parti des améliorations de performance et de sécurité.

  • Impact sur l'expérience utilisateur : L'optimisation des temps de chargement et la réduction des latences ont un impact direct sur l'expérience utilisateur, ce qui est essentiel pour les applications modernes.

Ce qu'il faut retenir

L'évolution du protocole HTTP, culminant avec HTTP/3, représente une réponse continue aux besoins croissants de performance et de sécurité sur le web. Chaque version a introduit des améliorations significatives, de la gestion des connexions à la sécurité des données, façonnant ainsi l'expérience utilisateur moderne.

Réflexions Darkwood

L'histoire du protocole HTTP illustre parfaitement l'évolution des systèmes logiciels et l'importance de l'adaptabilité dans le développement. Alors que nous nous dirigeons vers des architectures de plus en plus distribuées et orientées vers le cloud, l'automatisation et l'orchestration deviennent essentielles. Les agents IA et les workflows intelligents doivent s'intégrer dans ces systèmes pour optimiser la gestion des ressources et la sécurité.

HTTP/3, avec son approche basée sur QUIC, ouvre la voie à une nouvelle ère de communication sur le web, où la résilience et la rapidité sont primordiales. Cela souligne l'importance d'une gouvernance agile et d'architectures modernes capables de s'adapter aux besoins changeants des utilisateurs et aux défis technologiques à venir.

Fiche programme

5 piliers pour manager une équipe performante, même en remote.

  • Speakers : Yannick Grenzinger (X · LinkedIn · Bluesky)
  • Type : Tools-in-Action
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 17:00 à 17:30 · Salle Neuilly 252AB

5 piliers pour manager une équipe performante, même en remote

La gestion d'équipes à distance est devenue une compétence essentielle dans le paysage professionnel actuel. La session animée par Yannick Grenzinger lors de la conférence Devox 2026 aborde cette thématique avec pragmatisme, en proposant des stratégies concrètes pour maintenir la performance des équipes, même en remote. En s'appuyant sur son expérience en tant que manager dans des scale-ups, Grenzinger présente cinq piliers fondamentaux pour optimiser le management à distance.

Ce que présente le talk

Yannick Grenzinger partage une approche centrée sur l'humain, soulignant que le travail à distance ne dégrade pas la performance, mais met en lumière les dysfonctionnements organisationnels. Les cinq piliers qu'il évoque sont :

  1. Autonomie avec cadre
  2. Maîtrise du flux
  3. Prévention des dysfonctions d’équipe
  4. Documentation comme source de vérité
  5. Amélioration continue

Ces piliers visent à instaurer un rythme de travail efficace et à renforcer la confiance au sein des équipes.

Points techniques importants

Autonomie avec cadre

Grenzinger insiste sur l'importance de donner de l'autonomie aux membres de l'équipe. Il cite des ouvrages comme Turn the Ship Around! qui prônent un leadership distribué. L'idée est de permettre aux équipes de s'auto-organiser autour d'objectifs clairs, sans tomber dans le micro-management. Cela implique de définir des intentions précises tout en laissant la liberté sur la manière d’atteindre ces objectifs.

Maîtrise du flux

La gestion du flux de travail est cruciale pour éviter l'ennui ou l'anxiété au sein des équipes. Grenzinger évoque la nécessité de mesurer le temps de cycle et le lead time, afin d'identifier et de réduire les goulets d'étranglement. Il met en avant l'importance de livrer régulièrement, en limitant le nombre de missions en cours pour assurer une meilleure productivité.

Prévention des dysfonctions d’équipe

Pour maintenir une dynamique de groupe saine, il est essentiel d'identifier et de traiter les dysfonctions. Grenzinger propose d'utiliser des outils de management visuel pour suivre l'avancement des tâches et détecter les points de blocage. Cela permet de garder une vue d'ensemble sur le travail de l'équipe et d'intervenir rapidement en cas de problème.

Documentation comme source de vérité

La documentation est présentée comme un outil fondamental pour garantir la transparence et la clarté au sein de l'équipe. Grenzinger encourage la mise en place de documents vivants, tels que des ADR (Architecture Decision Records), pour consigner les décisions et les alternatives envisagées. Cela permet non seulement de garder une trace des choix effectués, mais aussi de faciliter l'intégration des nouveaux membres.

Amélioration continue

L'amélioration continue est un principe clé pour toute équipe performante. Grenzinger souligne l'importance de réévaluer régulièrement les processus en place et d'encourager une culture d'expérimentation. Cela inclut la mise en place de rétrospectives pour discuter des succès et des échecs, et ainsi ajuster les pratiques de travail.

Ce qu'il faut retenir

Les cinq piliers présentés par Yannick Grenzinger offrent une feuille de route pragmatique pour manager efficacement des équipes à distance. En favorisant l'autonomie, en maîtrisant le flux de travail, en prévenant les dysfonctions, en documentant les processus et en s'engageant dans une démarche d'amélioration continue, les managers peuvent non seulement maintenir la performance, mais aussi renforcer la confiance et l'engagement au sein de leurs équipes.

Réflexions Darkwood

La session de Grenzinger s'inscrit dans une tendance plus large vers des modèles de management adaptatifs, où l'automatisation et l'utilisation d'outils numériques jouent un rôle clé. L'évolution des systèmes logiciels vers des architectures plus décentralisées et collaboratives favorise une gestion plus fluide des équipes. À mesure que les organisations adoptent des pratiques agiles et des approches basées sur la confiance, la nécessité d'une gouvernance légère et d'une orchestration efficace devient primordiale. Dans ce contexte, les managers doivent évoluer vers des rôles de facilitateur, capables de naviguer dans la complexité des interactions humaines tout en soutenant l'autonomie et l'innovation.

Fiche programme

Maternité dans la tech : Du témoignage à l’action

  • Speakers : Estelle THOU (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 17:50 à 18:20 · Salle Paris 241

Cette intervention propose des stratégies concrètes pour mieux recruter et fidéliser les femmes dans la tech, en s’appuyant sur l’expérience du congé maternité : espaces sécurisés, soutien RH, mentorat, communication inclusive, adaptation du retour au travail et leviers d’amélioration, à destination des managers, RH et développeurs pour plus d’inclusion.

Maternité dans la tech : Du témoignage à l’action

La question de la parité dans le secteur technologique est devenue un enjeu central. La session présentée par Estelle Thou, de Criteo, aborde ce sujet sous un angle peu exploré : l’impact de la maternité sur la carrière des femmes dans la tech. En s’appuyant sur des expériences personnelles et des stratégies concrètes, elle propose des solutions pour améliorer le recrutement et la fidélisation des femmes dans ce domaine.

Ce que présente le talk

Estelle Thou souligne l'importance d'anticiper et de comprendre les besoins des femmes, notamment en ce qui concerne la maternité. Elle présente des stratégies pour accompagner les femmes avant, pendant et après leur congé maternité. L'objectif est de créer un environnement de travail inclusif où les femmes se sentent soutenues, ce qui est essentiel pour leur rétention dans l'entreprise.

Points techniques importants

1. Anticipation et soutien avant le congé maternité

  • Création d'espaces sécurisés : Mettre en place des communautés de parents au sein de l'entreprise, comme des canaux Slack ou des groupes de discussion, permet de partager des expériences et de réduire l'isolement.
  • Communication inclusive : Les managers doivent véhiculer des messages positifs sur la maternité, en partageant leurs propres expériences pour légitimer les préoccupations des futures mères.
  • Processus RH clairs : Simplifier la documentation et les démarches administratives liées à la maternité peut réduire la charge mentale des femmes enceintes.

2. Retour au travail

  • Planification de carrière : Avant de partir en congé, il est crucial d'établir un plan de carrière réaliste qui prend en compte les nouvelles contraintes liées à la maternité.
  • Mentorat : Mettre en place un système de mentorat pour accompagner les femmes lors de leur retour, en les aidant à se mettre à jour sur les évolutions de l'entreprise et de la technologie.
  • Retour en douceur : Proposer un retour progressif au travail, avec des horaires flexibles, peut aider à atténuer le stress lié à la reprise.

3. Axes d'amélioration

  • Allongement du congé paternité : Équilibrer le congé maternité et paternité pourrait réduire les inégalités de carrière entre hommes et femmes.
  • Formation des managers : Sensibiliser les managers aux enjeux liés à la maternité et à la parentalité est essentiel pour créer un environnement de travail plus inclusif.
  • Réévaluation du présentéisme : Remettre en question la valorisation du temps passé au bureau au détriment de la performance réelle.

Ce qu'il faut retenir

L'intervention d'Estelle Thou met en lumière des solutions pratiques et accessibles pour améliorer la situation des femmes dans la tech. En anticipant leurs besoins et en créant un environnement de travail inclusif, les entreprises peuvent non seulement recruter mais aussi fidéliser les talents féminins.

Réflexions Darkwood

L'évolution des systèmes logiciels et des pratiques de travail nécessite une adaptation constante aux réalités sociétales. La maternité ne devrait pas être perçue comme un frein, mais comme une opportunité de repenser l'organisation du travail. L'automatisation et l'utilisation d'agents intelligents pourraient également jouer un rôle clé dans la réduction de la charge mentale des employés, en simplifiant les processus administratifs et en favorisant des workflows plus flexibles. En intégrant ces réflexions dans la gouvernance des entreprises, nous pourrions non seulement améliorer la diversité, mais aussi renforcer l'innovation au sein des équipes techniques.

Fiche programme

Façonner la pertinence et la résilience de notre expertise au-delà de 2030

  • Speakers : Philippe Ensarguet (X · LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 10:30 à 11:15 · Salle Neuilly 151

Cette conférence explore comment l’expert humain peut rester pertinent à l’ère de l’IA générative et agentique. Elle propose un cadre de méta‑compétences pour renforcer posture, collaboration humain‑IA et apprentissage adaptatif, afin de cultiver résilience et pertinence dans un monde en changement rapide et complexe (VUCA).

Façonner la pertinence et la résilience de notre expertise au-delà de 2030

Dans un monde en constante évolution, marqué par l'essor de l'IA générative et agentique, la question de la pertinence de l'expertise humaine devient cruciale. La conférence présentée par Philippe Ensarguet, vice-président chez Orange, aborde comment les experts peuvent maintenir leur valeur dans un environnement où la quantité d'informations explose et où la nature du travail évolue rapidement.

Ce que présente le talk

Philippe Ensarguet propose un cadre de méta-compétences pour aider les experts à naviguer dans un monde VUCA (Volatile, Incertain, Complexe et Ambigu). En se concentrant sur la qualité des questions posées, la capacité à définir les problèmes et l'importance de donner du sens aux données, il met en lumière les compétences essentielles pour rester pertinent au-delà de 2030. L'objectif est de renforcer la collaboration entre humains et IA et d'encourager un apprentissage adaptatif.

Points techniques importants

1. Évolution de l'expertise

  • Rareté de la donnée : Dans le contexte actuel, la rareté ne réside plus dans l'accès à l'information, mais dans la capacité à poser des questions pertinentes et à évaluer les résultats de manière rigoureuse.
  • Posture de l'expert : L'expert doit adopter une posture proactive, utilisant les bons outils et rituels pour interagir efficacement avec l'IA.

2. Collaboration humain-IA

  • Intelligence collaborative : La synergie entre l'expertise humaine et les capacités de l'IA est essentielle. L'expert doit apprendre à travailler avec l'IA comme avec un équipier, en intégrant les outils d'IA dans ses processus de travail.
  • Rituels d'interaction : Développer des rituels qui favorisent cette collaboration est crucial pour maximiser l'efficacité et la pertinence des interventions humaines.

3. Apprentissage adaptatif

  • Ré-apprendre à apprendre : L'apprentissage ne doit pas être statique. L'utilisation d'outils d'IA pour générer des contenus d'apprentissage en temps réel permet de s'adapter aux besoins immédiats.
  • Soft skills : Les compétences comportementales deviennent prépondérantes. L'expert doit développer des compétences relationnelles et émotionnelles pour naviguer dans un environnement de travail en mutation.

4. Impact de l'IA sur les compétences

  • Compétences clés à horizon 2030 : Selon une étude du World Economic Forum, les compétences molles (soft skills) seront de plus en plus valorisées, tandis que les compétences techniques (hard skills) pourraient décliner.
  • Métiers émergents : Les professions basées sur la créativité et le travail manuel sont en forte demande, contrastant avec la stagnation des métiers centrés sur la connaissance.

Ce qu'il faut retenir

La pertinence de l'expert humain dans un monde dominé par l'IA dépend de sa capacité à s'adapter, à collaborer avec les machines et à développer des compétences comportementales. La transformation de l'expertise doit s'accompagner d'une réflexion sur la nature même de l'apprentissage et de la connaissance.

Réflexions Darkwood

L'évolution des systèmes logiciels et l'intégration croissante de l'IA soulèvent des questions fondamentales sur le rôle de l'expert. À l'ère de l'automatisation et des agents intelligents, la capacité à poser les bonnes questions et à donner du sens aux données devient un atout majeur. Les workflows doivent évoluer pour intégrer cette intelligence collaborative, et les architectures modernes devront s'adapter à cette nouvelle dynamique. La gouvernance des compétences et des connaissances sera essentielle pour naviguer dans ce paysage en constante mutation, où l'expertise humaine doit se redéfinir pour rester pertinente.

Fiche programme

Grandir avec le numérique : et si on apprenait aux enfants à s’en protéger ?

  • Speakers : Estelle Landry (LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 10:30 à 11:15 · Salle Neuilly 252AB

Cette conférence retrace la création de Pix Junior, outil pour développer l’autonomie et l’esprit critique numérique des enfants. Elle présente retours d’expérience, choix pédagogiques et conseils concrets pour impliquer tous les acteurs (designers, devs, enseignants, citoyens) dans l’éducation numérique responsable des plus jeunes.

Grandir avec le numérique : et si on apprenait aux enfants à s’en protéger ?

Dans un monde où les enfants sont exposés dès leur plus jeune âge aux dangers du numérique, la question de leur éducation à la sécurité en ligne devient cruciale. La conférence d'Estelle Landry sur Pix Junior aborde ce défi en proposant des solutions concrètes pour développer l'autonomie et l'esprit critique des jeunes face aux outils numériques.

Ce que présente le talk

Estelle Landry présente Pix Junior, un outil conçu pour aider les enfants à naviguer en toute sécurité dans l'univers numérique. À travers des retours d'expérience d'enseignants et d'élèves, elle explore comment enseigner aux enfants à se protéger en ligne, tout en impliquant divers acteurs comme les designers, développeurs et citoyens dans cette démarche éducative.

Points techniques importants

1. Contexte et enjeux

L'intervention débute par une mise en lumière des dangers du cyberharcèlement, illustrée par des témoignages poignants. Estelle souligne que les enfants, souvent perçus comme des "digital natives", manquent en réalité des compétences nécessaires pour se protéger efficacement en ligne. Ce constat soulève des questions fondamentales sur la responsabilité collective d'éduquer les jeunes à la sécurité numérique.

2. La genèse de Pix Junior

Le projet Pix Junior a émergé en réponse à une série de suicides d'enfants liés au cyberharcèlement. L'État français a donc initié une démarche pour protéger les jeunes utilisateurs du numérique. L'outil vise à :

  • Évaluer les compétences numériques : Permettre aux enseignants de suivre la progression des élèves dans l'acquisition de compétences numériques.
  • Former les enseignants : Fournir des ressources pédagogiques pour aider les enseignants à intégrer ces compétences dans leur enseignement.
  • Impliquer les parents : Sensibiliser les familles à l'importance de l'éducation numérique.

3. Approche produit

L'approche de développement de Pix Junior repose sur une méthodologie centrée sur l'utilisateur. Estelle évoque la création d'une équipe pluridisciplinaire, réunissant enseignants, concepteurs, développeurs et spécialistes en marketing, pour garantir que le produit réponde aux besoins réels des enfants et des éducateurs.

4. Outils et méthodologies

  • Business Model Canvas : Utilisé pour aligner l'équipe sur la vision produit et tester la viabilité de l'outil.
  • Tests terrain : Essentiels pour recueillir des retours d'expérience et ajuster le produit en fonction des besoins des utilisateurs.

Ce qu'il faut retenir

  • Cyberharcèlement : Un enjeu majeur qui nécessite une réponse collective et éducative.
  • Pix Junior : Un outil innovant visant à développer les compétences numériques des enfants tout en impliquant les enseignants et les parents.
  • Approche centrée sur l'utilisateur : La création d'une équipe pluridisciplinaire permet de mieux répondre aux besoins des jeunes utilisateurs.

Réflexions Darkwood

L'éducation numérique des enfants est un défi qui s'inscrit dans un contexte plus large d'évolution des systèmes logiciels et d'automatisation. Alors que les outils numériques deviennent omniprésents, il est impératif de repenser les architectures éducatives pour intégrer des compétences critiques dès le plus jeune âge. L'essor des agents IA et des workflows automatisés pourrait également jouer un rôle clé dans cette transformation, en offrant des solutions personnalisées pour aider les enfants à naviguer en toute sécurité dans un monde numérique en constante évolution. La gouvernance de ces outils doit également être repensée pour garantir une utilisation éthique et responsable, tant pour les enfants que pour les éducateurs.

Fiche programme

Comment contribuer à des projets Google comme 1 ère expérience professionnelle

  • Speakers : RADIA BEKHTAOUI
  • Type : Lunch Talk
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 12:35 à 12:50 · Salle Paris 242AB

Ce Lunch Talk raconte le parcours d’une jeune consultante HPC/Cloud ayant modernisé un cluster HPC automobile sur GCP en migrant d’un fork Slurm‑GCP vers Cluster Toolkit. Elle partage son apprentissage, sa contribution au projet open source Google et comment valoriser ses compétences dans un environnement cloud exigeant dès le début de carrière.

Comment contribuer à des projets Google comme 1ère expérience professionnelle

Dans un écosystème technologique en constante évolution, la contribution à des projets open source représente une opportunité précieuse pour les jeunes professionnels. Ce Lunch Talk, présenté par Radia Bekhtaoui, met en lumière son parcours en tant que consultante HPC/Cloud chez ANEO, où elle a modernisé un cluster HPC automobile sur Google Cloud Platform (GCP) en migrant d’un fork Slurm-GCP vers Cluster Toolkit. Son expérience illustre non seulement les défis techniques rencontrés, mais aussi l'importance de l'engagement dans des projets open source dès le début de sa carrière.

Ce que présente le talk

Radia partage son expérience de contribution à un projet open source de Google, soulignant comment elle a réussi à s'intégrer dans un environnement complexe et exigeant. Elle aborde les défis techniques et personnels rencontrés lors de la migration d'un cluster HPC vers Cluster Toolkit, un ensemble de modules conçu pour déployer des environnements HPC cloud-native sur GCP. Son récit démontre que même les débutants peuvent apporter une valeur significative dans des projets d'envergure.

Points techniques importants

Contexte du projet

  • HPC et GCP : Le projet initial concernait un cluster HPC utilisé par un constructeur automobile, nécessitant des simulations massives. Le cluster était orchestré par Slurm, un outil largement utilisé dans le domaine du HPC.
  • Fork Slurm-GCP : ANEO a forké le projet Slurm-GCP pour répondre aux exigences spécifiques du client, ajoutant des fonctionnalités telles que la haute disponibilité et la résilience multirégionale.

Migration vers Cluster Toolkit

  • Transition nécessaire : Avec l'arrêt du support pour Slurm-GCP, Radia et son équipe ont décidé de migrer vers Cluster Toolkit, un projet maintenu par Google et aligné avec les standards GCP.
  • Analyse des écarts : Avant la migration, il était crucial d'analyser les différences entre Cluster Toolkit et le projet en production. Cela a permis d’identifier les fonctionnalités manquantes et de planifier les contributions nécessaires.

Contribution au projet open source

  • Défis techniques : Radia a dû naviguer dans un environnement complexe, intégrant des technologies variées telles que Terraform et Python. Les dépendances entre les différents modules ont nécessité une compréhension approfondie des choix architecturaux.
  • Processus de contribution : Le processus de soumission de pull requests (PR) était long et exigeant, avec des cycles de revue stricts. Cela a mis à l'épreuve sa patience et sa capacité à s'adapter aux évolutions du projet.

Retour d'expérience

  • Montée en compétence : Radia souligne que cette expérience lui a permis de gagner en autonomie et en confiance. Elle a acquis une compréhension technique approfondie des systèmes HPC et des standards GCP.
  • Impact sur le client et la communauté : La migration a permis de réduire la dette technique et d'aligner le cluster du client avec les standards modernes, tout en rendant les nouvelles fonctionnalités accessibles à la communauté.

Ce qu'il faut retenir

  • La contribution à des projets open source est accessible même aux débutants.
  • L'expérience de Radia démontre que la légitimité se construit par l'engagement et la prise d'initiative.
  • La compréhension des systèmes HPC et des standards cloud est essentielle pour réussir dans ce domaine.

Réflexions Darkwood

La contribution à des projets open source comme Cluster Toolkit illustre une tendance croissante dans l'industrie : celle de l'automatisation et de l'orchestration des infrastructures cloud. Les jeunes développeurs, en s'impliquant dans ces projets, non seulement acquièrent des compétences techniques précieuses, mais participent également à l'évolution des architectures modernes. À mesure que les systèmes deviennent de plus en plus complexes, la collaboration et la contribution collective à des projets open source deviendront des éléments clés pour relever les défis futurs de l'industrie du développement. Les agents IA et l'automatisation joueront un rôle croissant dans cette dynamique, rendant la montée en compétence encore plus cruciale pour les nouvelles générations de développeurs.

Fiche programme

Chers Devs : Votre PM n'est (probablement) pas là pour vous pourrir la vie

  • Speakers : rachel dubois (LinkedIn)
  • Type : Lunch Talk
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 13:00 à 13:15 · Salle Neuilly 153

Lightning talk humoristique et percutant sur la collaboration entre développeurs et Product Managers : pourquoi les PM changent d’avis, ce que signifie vraiment la “valeur”, comment mieux communiquer sans perdre son intégrité, et transformer les tensions dev/PM en coopération efficace, avec anecdotes et conseils pratiques.

Chers Devs : Votre PM n'est (probablement) pas là pour vous pourrir la vie

Dans un écosystème technologique en constante évolution, la collaboration entre développeurs et Product Managers (PM) est souvent perçue comme un champ de bataille. Ce talk humoristique et percutant de Rachel Dubois aborde cette dynamique complexe, soulignant les malentendus fréquents et proposant des solutions pratiques pour transformer les tensions en collaboration efficace.

Ce que présente le talk

Rachel Dubois, avec un ton à la fois léger et incisif, explore les raisons pour lesquelles les PM changent d'avis et comment cela impacte le travail des développeurs. Elle met en lumière la notion de "valeur" et propose des stratégies de communication pour éviter les frustrations. À travers des anecdotes et des conseils pratiques, elle vise à rétablir une relation de coopération entre ces deux rôles souvent en désaccord.

Points techniques importants

Communication et compréhension mutuelle

Un des points centraux du talk est la nécessité d'améliorer la communication entre développeurs et PM. Rachel souligne que les malentendus proviennent souvent d'un manque de vocabulaire commun. Elle propose un "outil de traduction" pour aider les développeurs à comprendre les demandes des PM et vice versa. Par exemple, un "micro-ajustement" peut être perçu par un développeur comme une menace pour son travail, alors qu'il s'agit simplement d'une adaptation nécessaire.

La notion de valeur

Rachel aborde la complexité de la "valeur" dans le développement produit. Elle explique que la valeur n'est pas simplement déterminée par les demandes des parties prenantes, mais qu'elle est un concept composite, souvent flou et difficile à quantifier. La valeur est généralement retardée, ce qui complique la tâche des PM pour justifier leurs décisions.

Gestion de l'incertitude

Le talk met en avant la nature incertaine du travail de produit. Les PM naviguent dans un environnement où les besoins changent constamment, souvent sans avoir toutes les réponses. Rachel insiste sur l'importance d'identifier les hypothèses et les inconnues dès le début du processus de développement. Cela permet de mieux gérer les attentes et de réduire les frustrations.

Stratégies de collaboration

Rachel propose plusieurs stratégies pour améliorer la collaboration :

  • Sortir de son bureau : Encourager les développeurs et les PM à travailler ensemble, à comprendre les défis de chacun.
  • Contextualiser les demandes : Avant de discuter de solutions techniques, il est crucial de clarifier les objectifs et le contexte des demandes.
  • Utiliser des options plutôt que des blocages : Au lieu de dire "c'est techniquement impossible", les développeurs devraient proposer des alternatives, ce qui favorise une discussion constructive.

Ce qu'il faut retenir

La session de Rachel Dubois met en lumière les défis de la collaboration entre développeurs et PM. Les malentendus proviennent souvent d'une communication inefficace et d'une compréhension floue de la valeur. En adoptant des stratégies de collaboration proactives et en contextualisant les demandes, il est possible de transformer les tensions en une coopération fructueuse.

Réflexions Darkwood

L'évolution des systèmes logiciels exige une collaboration étroite entre les différentes parties prenantes. La montée en puissance des agents d'IA et des outils d'automatisation pourrait exacerber les tensions existantes si la communication ne s'améliore pas. Les workflows doivent être repensés pour intégrer ces nouvelles technologies tout en maintenant une gouvernance efficace. Les architectes modernes doivent également tenir compte de ces dynamiques pour concevoir des systèmes qui favorisent la coopération plutôt que la confrontation. En fin de compte, la clé réside dans une compréhension mutuelle et une communication claire, essentielles pour naviguer dans un paysage technologique de plus en plus complexe.

Fiche programme

Les erreurs normales : Anatomie d'un renoncement collectif

  • Speakers : Ivan Jewczuk (LinkedIn)
  • Type : Lunch Talk
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 13:00 à 13:15 · Salle Neuilly 252AB

Cette présentation analyse la « normalisation » des erreurs dans les logs : comment des exceptions critiques deviennent tolérées par habitude. Elle explore la psychologie du déni technique, la manière dont les équipes s’y résignent, et propose une réflexion sur la gestion, la classification et la pertinence du filtrage des logs.

Les erreurs normales : Anatomie d'un renoncement collectif

La gestion des erreurs dans les systèmes logiciels est un sujet qui mérite une attention particulière, surtout dans un contexte où la rapidité de déploiement et la tolérance aux pannes sont souvent privilégiées. Dans ce cadre, la session animée par Ivan Jewczuk, Staff Engineer chez Decathlon, aborde la normalisation des erreurs dans les logs, un phénomène qui peut avoir des conséquences désastreuses sur la qualité et la maintenabilité des applications.

Ce que présente le talk

Ivan Jewczuk explore comment des exceptions critiques, initialement perçues comme des anomalies à corriger, deviennent progressivement tolérées par habitude. Il met en lumière la psychologie du déni technique qui pousse les équipes à ignorer les erreurs, et propose une réflexion sur la gestion des logs, leur classification et l'importance d'un filtrage pertinent. Ce talk soulève des questions fondamentales sur la responsabilité collective des équipes de développement face à des erreurs qui, bien que non visibles pour les utilisateurs finaux, peuvent miner la robustesse des systèmes.

Points techniques importants

La normalisation des erreurs

  • Définition : Une erreur devient "normale" lorsque l'équipe décide collectivement de l'ignorer, souvent parce qu'elle n'impacte pas directement les utilisateurs.
  • Exemples : Ivan évoque des cas concrets où des erreurs critiques sont devenues des "animaux de compagnie" pour les équipes, illustrant ainsi la tendance à minimiser des problèmes qui devraient être traités en priorité.

La courbe du déni

  • Phases de déni : Ivan décrit une courbe du déni où une erreur passe d'une prise de conscience initiale à une acceptation passive. Les étapes incluent :
    • Prise de conscience de l'erreur
    • Priorisation basée sur l'impact
    • Adoption de l'erreur comme normale
  • Impact social : La gravité d'une erreur est souvent plus sociale que technique. Une erreur qui n'affecte qu'une minorité d'utilisateurs peut être négligée, mais cela peut conduire à une accumulation de problèmes.

Les animaux de compagnie des erreurs

Ivan utilise une métaphore pour illustrer les types d'erreurs que les équipes adoptent :

  • Hamster : Redémarrage systématique des applications sans résoudre le problème sous-jacent.
  • Chat de Schrödinger : Erreurs qui ne se reproduisent pas en environnement de test, rendant leur diagnostic difficile.
  • Poisson rouge : Erreurs fréquentes qui inondent les logs, rendant difficile l'identification des véritables problèmes.
  • Perroquet : Répétition d'erreurs sans action corrective, entraînant une invisibilité des véritables problèmes.

Gestion des logs

  • Filtrage des logs : Ivan souligne que filtrer les logs peut être perçu comme une capitulation face aux erreurs normales. Il est crucial de reconnaître et de traiter ces erreurs avant qu'elles ne deviennent des problèmes structurels.
  • Syndrome de la vitre brisée : Une analogie avec le monde physique, où une vitre brisée non réparée entraîne une dégradation progressive de l'environnement, appliquée ici à la gestion des erreurs dans le code.

Ce qu'il faut retenir

La normalisation des erreurs dans les logs est un phénomène insidieux qui peut mener à la dégradation de la qualité logicielle. Les équipes doivent être conscientes des erreurs qu'elles tolèrent et adopter une approche proactive pour les traiter. La responsabilité collective et la ritualisation de la correction des erreurs dans les sprints sont des étapes essentielles pour éviter que ces erreurs ne deviennent des problèmes structurels.

Réflexions Darkwood

La session d'Ivan Jewczuk met en lumière un aspect crucial de l'évolution des systèmes logiciels : la nécessité de maintenir une vigilance constante face aux erreurs. Dans un monde où l'automatisation et l'intelligence artificielle prennent de plus en plus de place, il est essentiel de ne pas perdre de vue la qualité du code et la gestion des erreurs. La tendance à accepter des erreurs comme normales pourrait être exacerbée par des outils générant du code, qui, bien que facilitant le développement, peuvent également introduire des erreurs non détectées.

La gouvernance des erreurs et la mise en place de workflows rigoureux sont des enjeux majeurs pour les équipes de développement. En intégrant une culture de responsabilité et de correction proactive, les organisations peuvent éviter la transformation de leurs applications en systèmes legacy, garantissant ainsi une meilleure maintenabilité et une qualité logicielle optimale.

Fiche programme

Astérix et les irréductibles positifs au service des communautés de pratique

  • Speakers : Edwige FIACLOU (LinkedIn), Pauline Cresson (LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 13:30 à 14:15 · Salle Paris 141

Ce talk raconte comment la création de communautés de pratique a permis de briser les silos, stimuler l’innovation et renforcer l’impact collectif dans une organisation tech. À travers réussites et échecs, les intervenantes partagent une expérience humaine et organisationnelle où l’apprentissage devient un levier stratégique d’innovation.

Astérix et les irréductibles positifs au service des communautés de pratique

Dans un contexte technologique en constante évolution, la création de communautés de pratique émerge comme une réponse stratégique aux défis organisationnels. Ce talk, présenté par Edwige Fiaclou et Pauline Cresson de Swissquote, explore comment ces communautés peuvent briser les silos, stimuler l’innovation et renforcer l’impact collectif au sein d’une organisation.

Ce que présente le talk

Le talk aborde l’expérience de Swissquote dans l’établissement de communautés de pratique, en mettant en lumière les défis rencontrés et les succès obtenus. Les intervenantes partagent une approche humaine et organisationnelle, soulignant que l’apprentissage et le partage de connaissances sont des leviers essentiels pour l’innovation. À travers des anecdotes et des réflexions, elles démontrent que ces communautés ne sont pas simplement des outils de formation, mais des moteurs d’impact significatif.

Points techniques importants

Architecture des communautés de pratique

Les communautés de pratique chez Swissquote sont conçues comme des structures flexibles, permettant aux membres de se réunir autour de sujets d’intérêt commun. Ce modèle repose sur trois éléments clés :

  • Domaine : Le sujet d’intérêt commun qui unit les membres.
  • Communauté : Les personnes qui partagent cet intérêt et interagissent régulièrement.
  • Pratique : Les outils et méthodes partagés pour améliorer les compétences et les connaissances.

Initiation et alchimie

L’initiation d’une communauté de pratique doit découler d’un besoin réel ou d’une passion partagée. Les intervenantes insistent sur l’importance de la motivation intrinsèque, plutôt que d’une imposition hiérarchique. Cette alchimie collective est essentielle pour maintenir l’engagement et la dynamique au sein de la communauté.

Circulation des connaissances

La gestion des connaissances au sein de l’organisation passe par des méthodes formelles et informelles. Les intervenantes évoquent l’importance de structurer les échanges informels, souvent considérés comme « tribaux », pour maximiser l’intelligence collective. Cela inclut :

  • Outils formels : Bases de données, plateformes de partage de connaissances (ex. Confluence).
  • Échanges informels : Discussions spontanées, partages d’expériences autour de la machine à café.

Défis rencontrés

Le talk aborde également les obstacles rencontrés lors de la mise en place des communautés de pratique, tels que :

  • Résistances internes : La difficulté de convaincre certains membres de l’importance de la collaboration.
  • Durabilité des communautés : Certaines initiatives peuvent échouer, tandis que d'autres prospèrent, nécessitant une attention continue.

Ce qu'il faut retenir

Les communautés de pratique représentent un levier stratégique pour favoriser l’innovation et améliorer la collaboration au sein des organisations. Elles permettent de briser les silos, de stimuler l’apprentissage et de renforcer l’impact collectif. L’engagement des membres, la circulation des connaissances et la gestion des défis sont des éléments cruciaux pour leur succès.

Réflexions Darkwood

L’évolution des systèmes logiciels et des environnements de travail exige une réinvention constante des pratiques organisationnelles. Les communautés de pratique, en tant que structures agiles, s’inscrivent dans cette dynamique d’automatisation et de collaboration. Elles permettent non seulement de répondre aux pressions externes, telles que la disruption technologique, mais aussi de favoriser une culture d’apprentissage continu. En intégrant des agents d’IA et des workflows optimisés, ces communautés pourraient devenir des catalyseurs d’innovation, transformant ainsi les défis en opportunités. Dans un monde où la collaboration est essentielle, ces initiatives pourraient redéfinir les contours de l’industrie du développement logiciel.

Fiche programme

Comment les développeurs lisent du code ?

  • Speakers : Nicolas Delsaux (LinkedIn · Bluesky · Mastodon), Clement Bout
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 13:30 à 14:15 · Salle Maillot

Cette présentation explore les processus cognitifs des développeurs entre la lecture et l’écriture de code, en s’appuyant sur "The Programmer’s Brain" et "Sapiens". Elle aborde mémoire, modélisation mentale, complexité et propriétés cognitives des langages pour améliorer la compréhension et la rédaction du code.

Comment les développeurs lisent du code ?

Dans un monde où la complexité croissante des systèmes logiciels exige une compréhension approfondie du code, la session "Comment les développeurs lisent du code ?" animée par Nicolas Delsaux et Clément Bout de Zenika se penche sur les processus cognitifs qui sous-tendent la lecture et l'écriture de code. En s'appuyant sur des ouvrages tels que The Programmer’s Brain et Sapiens, les intervenants explorent des concepts fondamentaux de la mémoire, de la modélisation mentale et des propriétés cognitives des langages de programmation.

Ce que présente le talk

Cette présentation examine comment les développeurs interprètent le code, en mettant en lumière les mécanismes cognitifs en jeu. Elle aborde des thèmes comme la mémoire à court et à long terme, la modélisation mentale et la complexité syntaxique, tout en fournissant des recommandations sur la manière d'écrire du code pour en faciliter la compréhension.

Points techniques importants

Mémoire et cognition

  • Mémoire à court terme vs mémoire à long terme : La mémoire à court terme, limitée à environ 7 éléments, joue un rôle crucial dans la compréhension immédiate du code. En revanche, la mémoire à long terme permet de stocker des connaissances acquises, essentielles pour interpréter des structures de code complexes.
  • Modélisation mentale : Les développeurs créent des modèles mentaux basés sur leur expérience et leur connaissance des langages. Ces modèles aident à déduire le fonctionnement d'un code, même en l'absence de contexte explicite.

Complexité et compréhension

  • Impact de la complexité syntaxique : La complexité des langages de programmation peut entraver la compréhension. Les intervenants soulignent que des langages comme Ruby ou JavaScript, malgré leur popularité, peuvent poser des défis en raison de leur syntaxe.
  • Contexte et connaissance préalable : La capacité à comprendre un code dépend fortement du contexte dans lequel il est présenté et des connaissances préalables du développeur. Un code sans contexte peut être difficile à interpréter, même pour des développeurs expérimentés.

Stratégies de lecture de code

  • Observation et décomposition : La première étape dans la lecture de code consiste à observer le code dans son ensemble, puis à le décomposer en éléments plus petits. Cela permet d'identifier des motifs et des symboles familiers.
  • Tokenisation : Les développeurs transforment le code en "tokens", des unités d'information qui facilitent l'interprétation. Cette étape est essentielle pour comprendre le flux logique du code.

Comparaison avec les ordinateurs

  • Différences entre cerveau humain et ordinateur : Les ordinateurs peuvent stocker et traiter des informations de manière exhaustive, tandis que le cerveau humain doit s'appuyer sur des stratégies de mémorisation et d'inférence. Cela souligne l'importance de la clarté et de la simplicité dans l'écriture de code.

Ce qu'il faut retenir

La compréhension du code est un processus complexe qui repose sur des mécanismes cognitifs variés. Les développeurs doivent naviguer entre mémoire à court terme, modélisation mentale et complexité syntaxique pour interpréter efficacement le code. Les recommandations incluent l'importance de fournir un contexte et d'écrire du code de manière claire et concise.

Réflexions Darkwood

La session soulève des questions pertinentes sur l'évolution des systèmes logiciels et la manière dont les développeurs interagissent avec le code. À mesure que les langages de programmation et les frameworks deviennent plus complexes, il est crucial d'intégrer des pratiques qui favorisent la compréhension. L'automatisation et l'utilisation d'agents IA pourraient également jouer un rôle dans l'optimisation des workflows de développement, en aidant à la décomposition et à l'interprétation du code. En fin de compte, la gouvernance des architectures modernes devra tenir compte de ces dynamiques cognitives pour améliorer la collaboration et l'efficacité des équipes de développement.

Fiche programme

Informatique quantique, ce coup-ci on vous dit tout !

  • Speakers : Fanny Bouton (X · LinkedIn · Bluesky), Olivier Ezratty (X · LinkedIn · Mastodon), Guillaume Schurck (LinkedIn), Sébastien Marie (LinkedIn)
  • Type : 3H Deep Dive
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 13:30 à 16:30 · Salle Paris 241

Session technique pour développeurs sur l’informatique quantique : principes fondamentaux (qubit, superposition, intrication), mise en pratique avec SDK, notebooks, simulateurs et QPU ; exploration de workflows et cas d’usage réels issus d’industries. Objectif : comprendre, coder et exploiter concrètement le quantique à grande échelle.

Informatique quantique, ce coup-ci on vous dit tout !

L'informatique quantique est en train de sortir des laboratoires pour devenir un sujet incontournable dans le domaine du développement logiciel. Avec l'avènement des SDK open source, des simulateurs et des ordinateurs quantiques accessibles via le cloud, il est essentiel pour les développeurs de comprendre les principes fondamentaux de cette technologie. La session présentée par Fanny Bouton et ses collègues vise à démystifier l'informatique quantique et à fournir des outils pratiques pour l'exploiter.

Ce que présente le talk

Cette session de trois heures est structurée pour initier les développeurs aux concepts clés de l'informatique quantique. Les intervenants abordent les bases théoriques, comme le qubit, la superposition et l'intrication, avant de passer à des applications concrètes. L'objectif est de permettre aux développeurs de comprendre comment coder et utiliser l'informatique quantique à grande échelle.

Points techniques importants

Principes fondamentaux

  1. Qubit : Le qubit est l'unité de base de l'information quantique. Contrairement au bit classique qui peut être 0 ou 1, le qubit peut exister dans un état de superposition, ce qui lui permet de représenter simultanément plusieurs états.

  2. Superposition : Ce principe stipule qu'un qubit peut être dans plusieurs états à la fois. Par exemple, un qubit peut être à la fois 0 et 1 jusqu'à ce qu'il soit mesuré. Cela ouvre la voie à des calculs parallèles massifs.

  3. Intrication : L'intrication quantique est un phénomène où deux qubits deviennent liés de telle manière que l'état de l'un dépend de l'état de l'autre, peu importe la distance qui les sépare. Cela a des implications profondes pour la communication quantique et le calcul distribué.

Mise en pratique

  • SDK et Notebooks : Les intervenants ont présenté des outils modernes permettant aux développeurs d'écrire et d'exécuter des circuits quantiques. L'utilisation de SDK dédiés facilite la création de programmes quantiques, tandis que les notebooks offrent un environnement interactif pour expérimenter.

  • Simulateurs et QPU : Les simulateurs permettent de tester des algorithmes quantiques sans nécessiter un accès direct à un ordinateur quantique physique (QPU). Les intervenants ont démontré comment passer d'un simulateur à un QPU réel pour exécuter des calculs.

Cas d'usage

Les intervenants ont partagé des retours d'expérience d'industries qui expérimentent déjà avec l'informatique quantique. Cela inclut des applications dans l'optimisation, la cryptographie et la modélisation moléculaire. L'accent a été mis sur les limites actuelles et les défis à surmonter pour une adoption à grande échelle.

Ce qu'il faut retenir

L'informatique quantique est en train de devenir accessible aux développeurs grâce à des outils et des ressources variés. Comprendre les principes de base comme le qubit, la superposition et l'intrication est essentiel pour tirer parti des capacités de cette technologie. Les cas d'usage concrets montrent déjà le potentiel de l'informatique quantique dans divers secteurs.

Réflexions Darkwood

L'émergence de l'informatique quantique représente une évolution majeure dans le paysage technologique. À mesure que les systèmes logiciels deviennent de plus en plus complexes, l'intégration de l'informatique quantique pourrait transformer les workflows de développement, notamment en matière d'optimisation et de traitement de données massives. L'automatisation des processus grâce à des agents IA pourrait également bénéficier des capacités de calcul exponentiel offertes par les QPU. En somme, l'informatique quantique pourrait redéfinir les paradigmes de la gouvernance des données et des architectures modernes, ouvrant la voie à des innovations qui étaient auparavant inimaginables.

Fiche programme

Histoire de l'informatique au féminin

  • Speakers : Juliette Grillere (LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 14:35 à 15:20 · Salle Paris 143

Ce talk interactif propose un quiz pour découvrir dix femmes pionnières de l’histoire de l’informatique et leurs contributions majeures, du spatial à l’IA. Il offre explications et anecdotes pour valoriser leur impact souvent méconnu, et aborde la question de la reconnaissance avec l’effet Mathilda.

Histoire de l'informatique au féminin

Dans un monde technologique en constante évolution, l'importance de la diversité et de la représentation dans le domaine de l'informatique ne peut être sous-estimée. La conférence "Histoire de l'informatique au féminin", animée par Juliette Grillere de SopraSteria, met en lumière les contributions souvent méconnues de femmes pionnières qui ont façonné notre paysage technologique. À travers un quiz interactif, ce talk offre une approche ludique pour découvrir ces figures emblématiques et aborder des questions de reconnaissance dans le milieu tech.

Ce que présente le talk

Ce talk interactif se concentre sur dix femmes qui ont marqué l'histoire de l'informatique, allant de l'IA à l'exploration spatiale. En plus de présenter leurs contributions, il soulève des questions sur la reconnaissance de ces figures féminines dans un domaine historiquement dominé par les hommes. Le concept de l'effet Mathilda, qui décrit comment les contributions des femmes sont souvent minimisées ou ignorées, est également abordé.

Points techniques importants

Pionnières de l'informatique

  1. Hedy Lamarr :

    • Connue pour sa carrière d'actrice, Lamarr a co-inventé un système de communication par étalement de spectre, qui a mené au développement du Wi-Fi.
    • Son invention, initialement destinée à des torpilles radiocommandées, a été mise de côté et redécouverte bien plus tard.
  2. Ada Lovelace :

    • Considérée comme la première programmeuse, Lovelace a écrit le premier algorithme destiné à être exécuté par une machine analytique de Charles Babbage.
    • Son parcours souligne l'importance de l'éducation et de la curiosité dans l'innovation technologique.
  3. Margaret Hamilton :

    • En tant que directrice de l'ingénierie pour le logiciel de la mission Apollo 11, elle a introduit des concepts de sécurité cruciaux dans le code.
    • Son expérience montre comment les défis personnels peuvent mener à des innovations significatives.
  4. Mira Murati :

    • Ancienne CTO d'OpenAI, elle a joué un rôle clé dans le développement de modèles d'IA contemporains.
    • Son parcours illustre que les femmes continuent de jouer un rôle central dans l'innovation technologique actuelle.
  5. Grace Hopper :

    • Connue pour avoir développé le premier compilateur, Hopper a été une pionnière dans la normalisation des langages de programmation.
    • Son travail a permis de rendre la programmation plus accessible et a ouvert la voie à des avancées significatives dans le développement logiciel.

Impact de la diversité

Le talk souligne que la diversité au sein des équipes de développement a un impact direct sur la qualité des produits créés. Une équipe représentative des différentes voix et expériences est plus à même de répondre aux besoins d'un public varié. La représentation des femmes dans la tech peut également inspirer la prochaine génération d'ingénieures et de développeuses.

Ce qu'il faut retenir

  • La reconnaissance des contributions des femmes dans l'informatique est essentielle pour une représentation équitable dans le domaine.
  • Les figures historiques comme Hedy Lamarr et Ada Lovelace ont non seulement innové mais ont également ouvert la voie à des discussions sur la diversité et l'inclusion.
  • L'effet Mathilda reste un obstacle à la reconnaissance des contributions féminines, soulignant la nécessité d'une prise de conscience collective.

Réflexions Darkwood

L'évolution des systèmes logiciels et la montée en puissance de l'automatisation soulignent l'importance d'une représentation diversifiée dans le développement technologique. Alors que l'industrie s'oriente vers des architectures modernes et des workflows automatisés, il est crucial que les voix féminines soient entendues et valorisées. Les contributions de pionnières comme Hedy Lamarr et Ada Lovelace ne sont pas seulement des chapitres d'histoire ; elles sont des fondations sur lesquelles se bâtissent les innovations d'aujourd'hui. En intégrant ces perspectives dans nos pratiques de développement, nous pouvons non seulement améliorer la qualité de nos produits, mais également favoriser une culture d'inclusion et de respect dans l'industrie technologique.

Fiche programme

Le mythe de la neutralité : quand la tech devient politique

  • Speakers : Hugo Lassiège (LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 15:40 à 16:25 · Salle Neuilly 252AB

Ce talk invite à réfléchir à la dépendance du web français envers les services numériques américains. Il questionne les conséquences d’une rupture d’accès et rappelle que la technologie n’est pas neutre : nos choix techniques ont un impact politique et sociétal, appelant à une prise de responsabilité collective.

Le mythe de la neutralité : quand la tech devient politique

La question de la neutralité technologique est au cœur des débats contemporains sur la dépendance numérique. Dans un monde où plus de 70 % du web français repose sur des services américains, la conférence d'Hugo Lassiège nous pousse à réfléchir sur les implications politiques et sociétales de nos choix technologiques. Ce talk s'inscrit dans un contexte où la souveraineté numérique devient cruciale, et où les conséquences d'une rupture d'accès à ces services pourraient être catastrophiques.

Ce que présente le talk

Hugo Lassiège aborde la dépendance du web français envers les géants technologiques américains et questionne les conséquences d'une éventuelle rupture d'accès. Il souligne que la technologie n'est pas un simple outil neutre, mais qu'elle porte en elle des implications politiques et sociales. À travers des exemples historiques et contemporains, il nous invite à prendre conscience de notre responsabilité collective en tant que développeurs et acteurs du numérique.

Points techniques importants

Dépendance numérique

  • État des lieux : Plus de 70 % du web français dépend de services américains, y compris pour des services critiques comme la santé ou la finance.
  • Conséquences d'une rupture : Une coupure d'accès à ces services pourrait avoir des impacts dévastateurs sur la société, allant de la perte d'accès à des services essentiels à une augmentation des coûts.

Neutralité technologique

  • Instrumentalisme : Lassiège remet en question l'idée que la technologie est neutre. Ce concept, issu de la philosophie des sciences, postule que les outils n'ont pas d'impact intrinsèque, mais que leur usage détermine leurs conséquences.
  • Exemples historiques : L'effet Spoutnik est cité comme un catalyseur d'innovation, illustrant comment des événements géopolitiques peuvent influencer le développement technologique.

Responsabilité des développeurs

  • Choix techniques : Chaque décision prise lors du développement d'une technologie a des implications sociales. Par exemple, des algorithmes de reconnaissance faciale peuvent renforcer des biais raciaux, non pas parce qu'ils sont conçus pour cela, mais en raison des données sur lesquelles ils sont entraînés.
  • Impact sociétal : Les choix techniques influencent qui est inclus ou exclu dans l'accès à des services numériques, soulevant des questions éthiques sur la responsabilité des développeurs.

Politique et technologie

  • Interdépendance : La technologie et la politique sont intimement liées. Les choix d'innovation ne sont pas neutres et sont souvent influencés par des logiques capitalistiques ou politiques.
  • Exemples contemporains : La réduction des moyens de contrôle sur des plateformes comme Twitter illustre comment des décisions managériales peuvent avoir des conséquences politiques significatives.

Ce qu'il faut retenir

La technologie n'est pas un outil neutre ; elle est façonnée par des choix qui portent des implications politiques et sociales. En tant que développeurs, nous avons une responsabilité collective de réfléchir aux conséquences de nos choix techniques. La dépendance du web français vis-à-vis des services américains souligne l'urgence d'une souveraineté numérique.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une plus grande interconnexion et dépendance vis-à-vis des services tiers soulève des questions cruciales sur la gouvernance et l'automatisation. À mesure que les technologies deviennent omniprésentes, il est impératif de repenser nos architectures pour intégrer des principes de responsabilité et d'inclusivité. L'essor des agents IA et des workflows automatisés ne doit pas occulter la nécessité d'une réflexion éthique sur les choix technologiques. L'avenir du développement logiciel dépendra de notre capacité à naviguer ces enjeux complexes, en veillant à ce que la technologie serve le bien commun plutôt que des intérêts particuliers.

Fiche programme

Women in software engineering: what gives?

  • Speakers : Emma GAUBERT (LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : English
  • Créneau : 23/04/2026, 15:40 à 16:25 · Salle Paris 141

This talk explores the historical and current underrepresentation of women in software engineering, highlighting early female pioneers, analyzing reasons for low participation and attrition, and concluding with actionable, practical steps to attract and retain more women in the field, avoiding dogma and focusing on real solutions.

Women in Software Engineering: What Gives?

La sous-représentation des femmes dans le domaine de l'ingénierie logicielle est un sujet d'actualité qui mérite une attention particulière. La session présentée par Emma Gaubert lors de la conférence "People & Culture" aborde ce problème sous un angle historique et pratique, mettant en lumière les pionnières du secteur tout en proposant des solutions concrètes pour améliorer la situation actuelle. Dans un contexte où l'IA et le développement logiciel prennent une place prépondérante dans nos vies, il est crucial d'explorer pourquoi les femmes restent minoritaires dans ce domaine.

Ce que présente le talk

Emma Gaubert commence par évoquer l'héritage des femmes dans l'ingénierie logicielle, en citant des figures emblématiques comme Ada Lovelace, Grace Hopper et Katherine Johnson. Elle souligne que malgré les contributions significatives de ces pionnières, les femmes représentent aujourd'hui seulement 23 % des ingénieurs logiciels aux États-Unis et entre 12 et 15 % en France. Le talk se concentre sur les raisons de cette sous-représentation et les défis qui poussent de nombreuses femmes à quitter le secteur avant 35 ans. Enfin, des actions concrètes sont proposées pour attirer et retenir davantage de femmes dans l'ingénierie logicielle.

Points techniques importants

Historique et Pionnières

L'intervention d'Emma commence par un rappel des contributions des femmes dans l'histoire de l'informatique. Elle mentionne des figures comme Ada Lovelace, qui a introduit des concepts fondamentaux de programmation, et Grace Hopper, pionnière des compilateurs. Ces récits servent à illustrer que les femmes ont toujours joué un rôle crucial dans le développement de la technologie.

Sous-représentation et Stéréotypes

Un des points clés de la présentation est l'analyse des stéréotypes qui entourent le métier d'ingénieur logiciel. Emma souligne que l'image traditionnelle d'un ingénieur est souvent celle d'un homme, ce qui peut décourager les femmes de s'engager dans ce domaine. Elle évoque également l'impact des publicités des années 80 qui ont contribué à façonner ces perceptions.

Facteurs de Départ

Emma aborde les raisons pour lesquelles de nombreuses femmes quittent le secteur. Elle cite des statistiques alarmantes, indiquant que 50 % des femmes quittent l'industrie technologique avant 35 ans. Les causes incluent un environnement de travail peu accueillant, des biais de genre et un manque de modèles féminins.

Solutions Pratiques

La session se termine par des recommandations concrètes pour améliorer la situation :

  • Promouvoir la diversité : Encourager des équipes équilibrées en termes de genre.
  • Mentorat et soutien : Mettre en place des programmes de mentorat pour les femmes dans le secteur.
  • Sensibilisation : Éduquer les entreprises sur les biais inconscients et l'importance de la diversité.

Ce qu'il faut retenir

La session d'Emma Gaubert met en lumière un problème systémique dans l'industrie du logiciel : la sous-représentation des femmes. En s'appuyant sur des données et des récits historiques, elle démontre que la diversité est non seulement une question d'équité, mais aussi un facteur de performance pour les équipes. Les solutions proposées, axées sur l'action concrète, offrent un cadre pour aborder ce défi de manière pragmatique.

Réflexions Darkwood

L'évolution des systèmes logiciels et l'importance croissante de l'IA soulignent la nécessité d'une représentation diversifiée dans le développement technologique. Les biais algorithmiques, souvent le résultat d'équipes homogènes, peuvent conduire à des décisions injustes et à des produits qui ne répondent pas aux besoins d'une population variée. En intégrant davantage de femmes et de voix diverses dans le processus de développement, nous pouvons non seulement améliorer la qualité des produits, mais aussi construire des systèmes plus justes et inclusifs. La question de la diversité dans l'ingénierie logicielle est donc non seulement une question sociale, mais un impératif stratégique pour l'avenir de l'industrie.

Fiche programme

#NoFrameworks: Build Your Own Agile, Burn the Playbook

  • Speakers : rachel dubois (LinkedIn)
  • Type : Conference
  • Niveau : ADVANCED
  • Langue : English
  • Créneau : 24/04/2026, 10:30 à 11:15 · Salle Paris 143

#NoFrameworks: Build Your Own Agile, Burn the Playbook

L'approche Agile, bien qu'initialement conçue pour favoriser l'adaptabilité et la collaboration, est souvent devenue synonyme de rigidité et de conformité. Dans ce contexte, la session de Rachel Dubois, intitulée "#NoFrameworks: Build Your Own Agile, Burn the Playbook", propose une réflexion critique sur les frameworks Agile traditionnels tels que Scrum, SAFe et autres. Elle défend une approche personnalisée, axée sur les besoins spécifiques des organisations, tout en soulignant les dangers d'une adhésion aveugle à des méthodologies standardisées.

Ce que présente le talk

Rachel Dubois remet en question la pertinence des frameworks Agile conventionnels dans des environnements complexes. Elle propose le mouvement #NoFrameworks, qui prône la co-création et l’adaptation des pratiques Agile en fonction des besoins réels des équipes. À travers des études de cas et des exemples concrets, elle démontre que la conformité à un cadre prédéfini peut souvent mener à des échecs. L'objectif est de diagnostiquer les véritables besoins organisationnels et de concevoir des solutions sur mesure.

Points techniques importants

1. Critique des frameworks Agile

  • Rigidité et conformité : Dubois souligne que les frameworks comme Scrum et SAFe, bien qu'initialement prometteurs, tendent à imposer une structure rigide qui ne s'adapte pas aux besoins spécifiques des équipes.
  • Complexité accrue : En ajoutant des couches de complexité sans résoudre les problèmes sous-jacents, ces frameworks peuvent aggraver les situations plutôt que de les améliorer.

2. Diagnostic des besoins organisationnels

  • Questions clés à se poser :
    • Où le travail est-il bloqué ?
    • Où les décisions sont-elles réellement prises ?
    • Quels comportements sont récompensés dans l'organisation ?

Ces questions permettent d'identifier les véritables points de friction et d'optimiser les processus.

3. Approche personnalisée

  • Co-création : Plutôt que de se conformer à un cadre prédéfini, Dubois encourage les équipes à observer et à choisir des pratiques qui fonctionnent pour elles, en tenant compte de leur contexte unique.
  • Équipes dynamiques : L'idée de "dynamic re-teaming" permet aux équipes de se former de manière autonome autour de projets, favorisant ainsi l'agilité et la réactivité.

4. Outils et pratiques

  • Boîte à outils Agile : Dubois évoque l'importance de disposer d'une variété de pratiques et d'outils, permettant aux équipes de construire leur propre version de l'Agilité.
  • Domain-Driven Design (DDD) : En utilisant DDD, les équipes peuvent structurer leur travail autour des domaines applicatifs, favorisant une meilleure collaboration et une compréhension plus approfondie des enjeux.

Ce qu'il faut retenir

L'approche #NoFrameworks défend l'idée que l'Agilité ne doit pas être une question de conformité à des méthodes préétablies, mais plutôt une adaptation pragmatique aux besoins spécifiques des équipes. En se concentrant sur les véritables problèmes et en favorisant la co-création, les organisations peuvent atteindre des résultats plus durables et pertinents.

Réflexions Darkwood

L'évolution des systèmes logiciels et la montée en puissance de l'intelligence artificielle rendent la nécessité d'une approche Agile flexible plus pertinente que jamais. Les organisations doivent éviter de tomber dans le piège de la conformité à des frameworks rigides et plutôt embrasser des pratiques qui favorisent l'automatisation et la réactivité. En intégrant des agents IA dans leurs workflows, les équipes peuvent non seulement optimiser leurs processus, mais aussi redéfinir leur manière de travailler. La gouvernance et l'orchestration des équipes doivent évoluer pour permettre une véritable transformation, centrée sur l'humain et les besoins réels des utilisateurs.

Fiche programme

Le futur du logiciel libre pour toi, moi et... les IAs

  • Speakers : Alex Snaps (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 10:30 à 11:15 · Salle Neuilly 153

Cette présentation analyse l’impact croissant des outils de programmation autonomes et de l’IA générative sur le logiciel libre. À travers divers exemples, elle explore leurs usages, les nouvelles règles de contribution, les motivations derrière ces choix et les enjeux pour un développement open source durable et éthique.

Le futur du logiciel libre pour toi, moi et... les IAs

La conférence animée par Alex Snaps, Senior Principal Software Engineer chez Red Hat, aborde un sujet crucial dans l'écosystème actuel : l'impact des outils de programmation autonomes et de l'IA générative sur le logiciel libre. Avec l'essor de ces technologies, il devient essentiel de réfléchir aux nouvelles dynamiques de contribution et aux implications éthiques qui en découlent.

Ce que présente le talk

Alex Snaps explore comment les outils de programmation autonomes, bien que récents, ont déjà profondément modifié notre manière de développer des logiciels. Il souligne que ces outils ne se contentent pas d'assister les développeurs, mais redéfinissent également les règles de contribution dans les projets open source. La présentation met en lumière les tensions entre l'acceptation de l'IA générative et les préoccupations éthiques qui émergent au sein des communautés de développeurs.

Points techniques importants

Impact des Outils Autonomes

  • Omniprésence des Outils : Les outils de programmation autonomes sont désormais intégrés dans nos environnements de développement, de nos terminaux à nos IDE, en passant par les plateformes de collaboration. Ils sont devenus incontournables, suscitant des réactions variées parmi les développeurs.
  • Réactions des Communautés : Les communautés open source réagissent de manière polarisée : certains interdisent l'utilisation de l'IA générative, tandis que d'autres l'acceptent sans réserve. Cette dualité soulève des questions sur la gouvernance et la confiance dans les plateformes.

Nouvelles Règles de Contribution

  • Directives de Contribution : Des projets comme le noyau Linux ont commencé à modifier leurs directives pour inclure des exigences concernant l'utilisation d'IA générative. Par exemple, les contributeurs doivent désormais déclarer les outils utilisés lors de leurs contributions.
  • Contrat Social : La contribution à un projet open source ne se limite pas à soumettre du code. Elle implique un contrat social où la compréhension mutuelle entre mainteneurs et contributeurs est essentielle. Les PR (pull requests) deviennent des espaces d'argumentation plutôt que de simples transactions.

Éthique et Durabilité

  • Conséquences Éthiques : L'utilisation de l'IA soulève des questions éthiques, notamment en ce qui concerne la propriété intellectuelle et la responsabilité. Les développeurs doivent naviguer dans un paysage où les outils sont souvent entraînés sur des données open source, soulevant des préoccupations sur la valorisation de leur travail.
  • Durabilité du Logiciel Libre : La transformation des règles de contribution et l'intégration de l'IA générative nécessitent une réflexion sur l'avenir du développement open source. Comment garantir que ces évolutions restent bénéfiques pour la communauté ?

Ce qu'il faut retenir

  • L'IA générative et les outils autonomes modifient profondément le paysage du développement open source.
  • Les communautés doivent s'adapter à ces changements en redéfinissant leurs règles de contribution et en intégrant des considérations éthiques.
  • La communication et la confiance entre contributeurs et mainteneurs sont essentielles pour assurer la durabilité des projets open source.

Réflexions Darkwood

L'essor des outils de programmation autonomes et de l'IA générative marque une étape significative dans l'évolution des systèmes logiciels. Alors que ces technologies promettent d'éliminer la complexité accidentelle du développement, elles introduisent également de nouveaux défis en matière de gouvernance et de responsabilité.

Les agents IA, en tant que nouveaux acteurs dans le processus de développement, nécessitent une réflexion approfondie sur leur rôle dans la création de logiciels. La durabilité du logiciel libre dépendra de notre capacité à établir des workflows qui intègrent ces outils tout en préservant les valeurs fondamentales de collaboration et d'éthique. En somme, l'avenir du développement logiciel pourrait bien être façonné par notre capacité à naviguer dans cette nouvelle ère technologique tout en restant fidèles aux principes du logiciel libre.

Fiche programme

Staff & Principal Engineer ? Comment ça marche chez AXA ?

  • Speakers : François Descamps (X · LinkedIn), Alexis Dubois (LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 24/04/2026, 11:35 à 12:20 · Salle Paris 242AB

AXA France partage son retour d’expérience sur la création d’un parcours de carrière technique ambitieux. Cette initiative explore les rôles d’experts (Staff, Principal, Distinguished), leurs missions, leur posture et les compétences d’influence nécessaires, tout en offrant une réflexion ouverte sur la valorisation et la structuration de l’expertise technique.

Staff & Principal Engineer ? Comment ça marche chez AXA ?

Dans un monde technologique en constante évolution, la structuration des carrières techniques est devenue un enjeu majeur pour les entreprises. La session présentée par François Descamps et Alexis Dubois chez AXA France explore comment une organisation peut accompagner ses talents techniques tout en répondant à des besoins stratégiques. Cette réflexion est d'autant plus pertinente dans un contexte où les compétences techniques sont de plus en plus valorisées.

Ce que présente le talk

La conférence aborde la création d'un parcours de carrière technique ambitieux au sein d'AXA France, en mettant l'accent sur les rôles d'experts tels que Staff, Principal et Distinguished Engineers. Les intervenants partagent leur retour d'expérience sur la structuration de ces rôles, les compétences nécessaires et l'importance de l'influence dans le milieu technique. L'objectif est de fournir un cadre clair pour les professionnels techniques, tout en ouvrant la discussion sur la valorisation de l'expertise.

Points techniques importants

Structuration des rôles techniques

  • Rôles et responsabilités : AXA a défini trois niveaux de rôles techniques : Staff, Principal et Distinguished. Ces titres, bien que courants dans l'industrie, sont précisés dans le contexte d'AXA pour refléter des responsabilités et des attentes claires.
  • Impact à différents niveaux : Chaque rôle est associé à un niveau d'impact spécifique, allant de l'individu à l'échelle de l'entreprise. Par exemple, un Staff Engineer doit non seulement maîtriser des compétences techniques, mais aussi influencer les décisions stratégiques.

Cadre de développement

  • Objectifs SMART : Les intervenants insistent sur l'importance de définir des objectifs spécifiques, mesurables, atteignables, réalistes et temporels pour les experts. Cela permet d'aligner les attentes des employés avec les objectifs de l'entreprise.
  • Évolution de carrière : Le parcours de carrière est conçu pour encourager les ingénieurs à se développer non seulement sur le plan technique, mais aussi en termes de leadership et d'influence.

Culture d'entreprise et gouvernance

  • Accompagnement des talents : AXA met en avant l'importance d'un écosystème qui favorise l'apprentissage continu et la collaboration entre les équipes. Les managers jouent un rôle clé dans ce processus en soutenant le développement des compétences.
  • Transformation organisationnelle : La création de filières d'expertise reflète une volonté de réinternaliser des compétences techniques, répondant ainsi à un besoin de contrôle et d'innovation au sein de l'entreprise.

Ce qu'il faut retenir

La session met en lumière l'importance d'une structuration claire des carrières techniques au sein des entreprises. En définissant des rôles précis et des objectifs SMART, AXA France propose un modèle qui peut servir de référence pour d'autres organisations. L'accent mis sur l'influence et la collaboration souligne également l'évolution des attentes vis-à-vis des ingénieurs dans un environnement de travail moderne.

Réflexions Darkwood

L'évolution des systèmes logiciels et la montée en puissance des compétences techniques nécessitent une réévaluation des parcours de carrière. La structuration des rôles, comme présentée par AXA, s'inscrit dans une tendance plus large vers l'automatisation et l'orchestration des workflows. À mesure que les entreprises adoptent des technologies avancées, le besoin d'experts capables de naviguer dans des environnements complexes devient crucial. L'intégration de l'intelligence artificielle et des outils de développement modernes dans ces parcours de carrière pourrait également transformer la manière dont les talents techniques sont valorisés et gérés, ouvrant la voie à de nouvelles opportunités d'innovation dans l'industrie.

Fiche programme

Être payé en equity : comment ça marche ?

  • Speakers : Thalia Cruz Castanares (LinkedIn)
  • Type : Lunch Talk
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 24/04/2026, 13:00 à 13:15 · Salle Paris 242AB

Le texte raconte l’expérience d’une freelance ayant accepté une rémunération en actions plutôt qu’en argent. Elle partage les leçons tirées de cette décision afin d’aider d’autres professionnels à mieux comprendre et évaluer ce type de proposition avant de s’y engager.

Être payé en equity : comment ça marche ?

La question de la rémunération en equity, ou en actions, est devenue un sujet de discussion incontournable dans le milieu des startups et de la freelance. Dans un écosystème où les ressources financières sont souvent limitées, cette approche attire de plus en plus de professionnels. Thalia Cruz Castanares, freelance et fractional CTO, partage son expérience lors d'un Lunch Talk, offrant des perspectives précieuses sur ce modèle de rémunération.

Ce que présente le talk

Thalia nous plonge dans son parcours personnel, illustrant comment elle a accepté d'être rémunérée en actions plutôt qu'en euros. Elle aborde les enjeux, les mécanismes et les implications fiscales de cette décision, tout en fournissant des conseils pratiques pour ceux qui envisagent de faire de même. Son intervention est à la fois informative et pragmatique, visant à éclairer les freelances sur les subtilités de cette forme de rémunération.

Points techniques importants

Qu'est-ce que l'equity ?

L'equity représente une part de propriété dans une entreprise. Thalia explique que, lorsqu'on parle d'equity, il est essentiel de comprendre que cela se traduit par des actions dans une société, souvent perçues comme un gâteau dont on souhaite obtenir une part. Elle évoque plusieurs instruments financiers permettant d'acquérir des actions, tels que :

  • Actions ordinaires
  • BSPCE (Bons de Souscription de Parts de Créateur d'Entreprise)
  • BSA (Bons de Souscription d'Actions)
  • Actions gratuites
  • Stock options

Valorisation d'une startup

Thalia clarifie le concept de valorisation d'une startup, qui n'est pas simplement une question de liquidités disponibles, mais plutôt une estimation de la valeur de l'entreprise sur le marché. Elle illustre ce point avec un exemple concret : si une startup est valorisée à 1 million d'euros et que vous détenez 2 % de cette entreprise, votre part théorique vaut 20 000 euros.

Dilution et croissance

Un autre aspect crucial abordé est la dilution des actions. Thalia explique que, lorsque la startup lève des fonds, le nombre total d'actions peut augmenter, ce qui réduit le pourcentage de propriété de chaque actionnaire. Cependant, si la valorisation de l'entreprise augmente, même une petite part peut représenter une somme significative.

Implications fiscales

Thalia aborde également les implications fiscales de la détention d'actions, en soulignant la différence entre les revenus perçus en tant que personne physique et ceux perçus via une société holding. Les taux d'imposition peuvent varier considérablement, ce qui influence la stratégie à adopter lors de la vente d'actions.

Stratégies de détention

Elle évoque l'importance de choisir le bon mode de détention des actions, que ce soit en tant que personne physique ou via une société holding. Chacune de ces options a ses propres avantages et inconvénients, notamment en matière de fiscalité et de liquidité.

Ce qu'il faut retenir

  • L'equity peut offrir un potentiel de gains important, mais comporte également des risques, notamment l'illiquidité et la dilution.
  • La valorisation d'une startup est un facteur clé à considérer lors de l'évaluation d'une offre en equity.
  • Les implications fiscales doivent être soigneusement analysées pour maximiser les gains.
  • Une bonne relation contractuelle et une planification stratégique sont essentielles pour tirer le meilleur parti d'une rémunération en equity.

Réflexions Darkwood

L'évolution des systèmes logiciels et des modèles d'affaires vers une plus grande flexibilité et une dépendance accrue aux startups favorise l'essor de la rémunération en equity. Ce modèle incarne une forme d'automatisation des relations de travail, où les freelances et les fondateurs s'alignent sur des objectifs communs de croissance. En intégrant des agents IA dans ces processus, il est envisageable que la gestion des equity et des relations contractuelles devienne encore plus optimisée, facilitant ainsi l'orchestration des ressources et des talents dans un écosystème en constante évolution.

La compréhension des enjeux de l'equity est donc cruciale pour les développeurs et les professionnels du secteur, car elle influence non seulement leur rémunération, mais aussi leur implication dans la création de valeur au sein des entreprises.

Fiche programme

Explorer en profondeur un domaine en explorant les publications scientifiques

  • Speakers : Cyrille MARTRAIRE (LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 13:30 à 14:15 · Salle Neuilly 153

Explorer en profondeur un domaine en explorant les publications scientifiques

Dans un monde où l'information est omniprésente, la capacité à naviguer dans la littérature académique devient un atout précieux pour les professionnels du logiciel. La session animée par Cyrille Martraire, co-fondateur d'Arolla, aborde cette thématique en proposant une méthode pour tirer parti des publications scientifiques afin d'approfondir ses connaissances sur des sujets variés, allant de la modélisation de domaines métier à la compréhension du groove en musique.

Ce que présente le talk

Cyrille Martraire nous invite à dépasser la superficialité des opinions et des résumés en nous plongeant dans la richesse des publications scientifiques. Il souligne que, même à l'ère de l'IA, la lecture d'articles académiques demeure essentielle pour acquérir des connaissances fiables. La session vise à démystifier l'approche de la littérature scientifique, en la rendant accessible et moins intimidante pour ceux qui souhaitent approfondir leurs compétences.

Points techniques importants

Approche méthodologique

  1. Identification des questions : La première étape consiste à formuler des questions précises sur le sujet d'intérêt. Cyrille insiste sur l'importance de savoir ce que l'on cherche avant de se lancer dans la recherche.

  2. Recherche efficace : Utiliser des moteurs de recherche et des mots-clés pertinents pour filtrer les résultats. Par exemple, l'ajout du mot "citation" permet de cibler des publications académiques.

  3. Lecture stratégique des articles : Plutôt que de lire l'intégralité des articles, Cyrille recommande de se concentrer sur les résumés (abstracts) qui fournissent souvent les réponses essentielles.

Importance de la littérature académique

  • Validation des croyances : Les publications scientifiques permettent de tester des croyances courantes. Par exemple, l'impact de la syncopation sur le groove musical est mis en lumière par des études qui confirment des intuitions partagées par les musiciens.

  • Établissement de connexions : Les articles académiques offrent des références vers d'autres travaux, permettant ainsi d'élargir ses connaissances et d'approfondir des sujets connexes.

Application pratique

Cyrille illustre son propos avec l'exemple du groove en musique, en montrant comment des recherches peuvent éclairer des pratiques artistiques. Il évoque des concepts tels que :

  • La relation entre les basses fréquences et le groove : Des études montrent que les instruments graves favorisent le mouvement et l'engagement dans la danse.
  • L'influence de la familiarité sur la perception musicale : La connaissance préalable d'un genre musical impacte notre capacité à danser sur celui-ci.

Ce qu'il faut retenir

La session de Cyrille Martraire met en avant l'importance de la littérature scientifique dans le processus d'apprentissage. En adoptant une approche méthodique pour explorer les publications académiques, les professionnels peuvent enrichir leur compréhension des sujets qui les intéressent, tout en validant ou remettant en question leurs croyances.

Réflexions Darkwood

L'exploration des publications scientifiques s'inscrit dans une tendance plus large vers l'automatisation et l'optimisation des workflows d'apprentissage. À mesure que les systèmes deviennent plus intelligents, la capacité à naviguer dans des volumes d'informations croissants sera cruciale. L'intégration de l'IA dans la recherche et l'analyse des publications pourrait transformer la manière dont nous accédons à la connaissance, rendant l'expertise plus accessible. En outre, cette démarche souligne l'importance de la gouvernance des connaissances dans le développement logiciel, où la compréhension approfondie des domaines métier devient un facteur clé de succès.

Fiche programme

Retrouver l’étincelle : un "Reboot" de carrière

  • Speakers : Loïc Magnette (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 24/04/2026, 13:30 à 14:15 · Salle Neuilly 151

Après une période de désengagement professionnel malgré une carrière réussie, le conférencier retrouve sa passion en rejoignant son JUG local. Cette expérience humaine et communautaire ravive son enthousiasme et lui révèle que la clé contre l’apathie n’est pas technique, mais relationnelle : renouer avec son métier, sa communauté et soi-même.

Retrouver l’étincelle : un "Reboot" de carrière

Dans un contexte où le désengagement professionnel est de plus en plus courant, la session animée par Loïc Magnette aborde une problématique essentielle : comment raviver la passion pour son métier. En partageant son parcours personnel, il met en lumière l'importance des relations humaines et de la communauté dans le développement professionnel.

Ce que présente le talk

Loïc Magnette raconte son expérience d'apathie professionnelle malgré une carrière apparemment réussie. En rejoignant son Java User Group (JUG) local, il redécouvre non seulement ses compétences techniques, mais surtout l'importance des interactions humaines dans son métier. Ce talk souligne que la clé pour surmonter l'apathie ne réside pas dans l'acquisition de nouvelles compétences techniques, mais dans la réactivation de son lien avec la communauté et soi-même.

Points techniques importants

L'apathie professionnelle

Loïc décrit son état d'apathie comme un vide émotionnel, une absence d'engagement qui ne se traduit pas par un burnout, mais plutôt par un manque de passion. Il utilise des métaphores techniques pour illustrer son ressenti, comparant son état à un moteur dont le réservoir est presque vide, incapable de fournir l'énergie nécessaire pour avancer.

La redécouverte de la passion

La véritable transformation de Loïc commence lorsqu'il décide de s'impliquer dans son JUG local. Ce choix n'est pas motivé par un besoin d'apprendre de nouvelles technologies, mais par la volonté de renouer avec des personnes partageant les mêmes intérêts. Les interactions lors des meetups, les discussions autour d'une bière, et la collaboration sur des projets open source lui permettent de retrouver son enthousiasme.

L'importance de la communauté

Loïc souligne que les échanges informels, souvent appelés "hallway track" dans le jargon des conférences, sont cruciaux pour le développement personnel et professionnel. Ces moments d'interaction sont souvent plus enrichissants que les présentations elles-mêmes, car ils permettent de partager des expériences et de résoudre des problèmes communs.

Contribution et engagement

En participant activement à l'organisation de meetups et en contribuant à des projets open source, Loïc découvre que l'engagement communautaire peut être une source de motivation. Il évoque la création d'un nouveau logo pour le JUG, une tâche qui lui a permis de se reconnecter avec sa créativité et de recevoir des retours positifs, renforçant ainsi son sentiment d'appartenance.

Ce qu'il faut retenir

  • L'apathie professionnelle peut être surmontée non pas par l'apprentissage de nouvelles technologies, mais par la réactivation des liens humains.
  • Les interactions au sein de la communauté sont essentielles pour retrouver la passion et l'engagement.
  • La contribution à des projets collectifs et l'implication dans des groupes peuvent servir de catalyseurs pour la motivation personnelle.

Réflexions Darkwood

La session de Loïc Magnette nous rappelle que l'évolution des systèmes logiciels et des pratiques de développement ne se limite pas à des avancées techniques. L'automatisation et l'orchestration des workflows sont importantes, mais l'humain reste au cœur de la dynamique professionnelle. Dans un monde où les agents IA commencent à jouer un rôle prépondérant, il est crucial de ne pas perdre de vue l'importance des relations interpersonnelles. La gouvernance et la culture d'entreprise doivent également évoluer pour favoriser un environnement propice à l'épanouissement personnel et collectif. La redécouverte de la passion pour son métier passe par une réévaluation des priorités : l'humain avant la technologie.

Fiche programme

Noms de domaines : la grande histoire des petites extensions

  • Speakers : Benoît Masson (LinkedIn), Théo Bougé (LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 24/04/2026, 14:35 à 15:20 · Salle Neuilly 151

Cette présentation explore l’histoire technique et stratégique des extensions DNS, l’importance des TLD dans la souveraineté numérique, les enjeux commerciaux et les évolutions récentes, à l’occasion du prochain round de l’ICANN en 2026, offrant un panorama inédit des coulisses et transformations du système de noms de domaine.

Noms de domaines : la grande histoire des petites extensions

La session animée par Benoît Masson et Théo Bougé, tous deux experts chez OVHcloud, aborde un sujet souvent négligé mais fondamental dans l'écosystème numérique : l'histoire et les enjeux des extensions de noms de domaine. À l'aube du prochain round de l'ICANN en 2026, cette conférence met en lumière les implications techniques et stratégiques des TLD (Top Level Domains) dans le contexte de la souveraineté numérique.

Ce que présente le talk

La présentation explore les coulisses des extensions DNS, en détaillant leur évolution historique, leur impact sur la souveraineté numérique et les enjeux commerciaux qui en découlent. Les intervenants soulignent l'importance croissante des TLD dans un monde où l'Internet est en constante transformation, tout en évoquant les ambitions du Web3 et les défis à venir.

Points techniques importants

Architecture et fonctionnement du DNS

Le talk commence par une clarification des concepts de base, notamment la distinction entre un nom de domaine et une extension. Les intervenants expliquent que le nom de domaine se compose de deux parties : l'étiquette (avant le point) et l'extension (après le point). Cette structure est essentielle pour comprendre le fonctionnement du DNS.

  • DNS et analogies : Les conférenciers utilisent l'analogie de la poste pour expliquer le rôle du DNS. La racine du DNS agit comme un bureau de poste central, dirigeant les requêtes vers les bureaux appropriés, c'est-à-dire les serveurs DNS des extensions.

Types d'extensions

Les intervenants classifient les extensions en deux catégories :

  • CCTLD (Country Code Top Level Domain) : Extensions associées à des pays (ex. .fr, .uk).
  • GTLD (Generic Top Level Domain) : Extensions génériques (ex. .com, .org).

Ils soulignent que chaque pays a droit à sa propre extension, généralement basée sur des codes à deux lettres, et que les extensions génériques sont souvent utilisées par des entreprises cherchant à contourner des noms déjà pris.

Innovations et défis

Un point crucial abordé est l'IDN (Internationalized Domain Names), qui permet d'utiliser des alphabets non latins dans les noms de domaine. Cela représente une avancée significative pour l'accessibilité de l'Internet à l'échelle mondiale.

Les intervenants discutent également des défis liés à la gestion des données personnelles, notamment avec l'implémentation du RGPD, et introduisent le RDAP (Registration Data Access Protocol) comme une solution pour améliorer l'accès aux informations de registre.

Acteurs clés

Le rôle de l'ICANN (Internet Corporation for Assigned Names and Numbers) est mis en avant. Cette organisation, bien qu'à but non lucratif, a une influence majeure sur la gestion des noms de domaine et des adresses IP. Les conférenciers expliquent que l'ICANN délègue la gestion des TLD à des registres qui, à leur tour, interagissent avec des bureaux d'enregistrement comme OVHcloud.

Ce qu'il faut retenir

La session met en lumière l'importance stratégique des extensions de noms de domaine dans le paysage numérique actuel. Les TLD ne sont pas seulement des suffixes ; ils sont au cœur des enjeux de souveraineté numérique et d'innovation commerciale. Comprendre leur fonctionnement et leur évolution est crucial pour naviguer dans un Internet en constante mutation.

Réflexions Darkwood

L'évolution des systèmes de noms de domaine illustre parfaitement les transformations de l'Internet moderne. À mesure que la numérisation s'accélère, la gestion des TLD devient un enjeu central pour la souveraineté numérique des États et des entreprises. Les innovations comme l'IDN et le RDAP montrent comment la technologie peut faciliter l'accès à l'information tout en respectant des normes de confidentialité.

À l'avenir, l'automatisation et l'orchestration des processus de gestion des noms de domaine, couplées à l'émergence d'agents IA, pourraient transformer la manière dont nous interagissons avec le DNS, rendant ces systèmes plus résilients et adaptables aux défis futurs. Dans ce contexte, la gouvernance des TLD sera un enjeu clé pour garantir une Internet équitable et accessible à tous.

Fiche programme

Éloge de la simplicité

  • Speakers : Frédéric Leguédois (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 14:35 à 15:20 · Salle Amphi bleu

Éloge de la simplicité

Dans un monde technologique en constante évolution, la quête de la simplicité est devenue un enjeu majeur pour les équipes agiles. La session animée par Frédéric Leguédois, intitulée "Éloge de la simplicité", interroge les complexités engendrées par les méthodes agiles elles-mêmes. À travers une approche provocatrice et humoristique, Leguédois remet en question l'efficacité des pratiques actuelles et propose une réflexion sur la manière dont nous pouvons simplifier nos processus.

Ce que présente le talk

Leguédois aborde la dichotomie entre l'intention initiale des méthodes agiles, qui prônent la légèreté et l'adaptabilité, et la réalité des pratiques actuelles, souvent lourdes et bureaucratiques. Il soulève des questions essentielles sur la véritable adaptabilité des équipes et sur la complexité qui s'est installée au fil du temps dans l'écosystème agile.

Points techniques importants

Complexité des pratiques agiles

  • Uniformisation des outils : Leguédois critique l'uniformisation des outils dans les organisations, qui, bien que visant à réaliser des économies d'échelle, peut nuire à l'innovation. Il évoque le paradoxe où les équipes doivent souvent se conformer à des outils obsolètes, ce qui limite leur capacité à innover.

  • Planification vs. Backlog : L'orateur établit une distinction claire entre la planification traditionnelle et le backlog agile. Il souligne que la planification est souvent un exercice futile, tandis que le backlog devrait être un outil dynamique qui reflète les besoins immédiats des utilisateurs.

Priorisation et prise de décision

  • Critique des estimations : Leguédois remet en question la fiabilité des estimations de coûts et de gains, souvent sujettes à des marges d'erreur importantes. Il souligne que les décisions basées sur ces estimations sont souvent plus proches de la divination que de la science.

  • Priorisation par l'empathie : Plutôt que de se fier à des calculs abstraits, il propose d'adopter une approche centrée sur l'utilisateur. En interrogeant directement les utilisateurs sur leurs besoins, les équipes peuvent prioriser les tâches qui auront le plus d'impact.

Agir pour apprendre

  • Itération et feedback : Leguédois insiste sur l'importance d'agir pour apprendre, en livrant rapidement des fonctionnalités et en s'appuyant sur les retours des utilisateurs pour guider les développements futurs. Cette approche itérative permet de s'adapter en continu aux besoins réels.

Ce qu'il faut retenir

La session de Frédéric Leguédois met en lumière la nécessité de revenir à l'essence des méthodes agiles : la simplicité et l'adaptabilité. En remettant en question les pratiques actuelles, il appelle à une réévaluation des processus de décision et de priorisation, en plaçant l'utilisateur au cœur des préoccupations.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures plus légères et adaptatives est un enjeu crucial dans le développement moderne. La complexité croissante des méthodes agiles souligne l'importance d'une gouvernance efficace et d'une orchestration fluide des workflows. En intégrant des agents d'intelligence artificielle pour analyser les retours des utilisateurs et prioriser les développements, les organisations peuvent non seulement simplifier leurs processus, mais aussi renforcer leur capacité d'innovation. La transformation agile ne doit pas être un simple changement de terminologie, mais un véritable retour à des principes fondamentaux qui favorisent la collaboration, l'empathie et l'efficacité.

Fiche programme

Un sprint à Tokyo : voyage Agile au Japon

  • Speakers : Anaïs Moulin (LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 24/04/2026, 15:40 à 16:25 · Salle Paris 242AB

Cette conférence relate l’application concrète des méthodes agiles pour organiser un voyage au Japon, prouvant leur utilité au-delà du secteur tech. À travers outils comme backlog, user stories ou rétrospectives, elle offre un retour d’expérience original et accessible sur l’agilité dans un contexte personnel.

Un sprint à Tokyo : voyage Agile au Japon

L'application des méthodes agiles ne se limite pas aux équipes techniques. La conférence "Un sprint à Tokyo : voyage Agile au Japon", animée par Anaïs Moulin d'Ippon Technologies, illustre comment ces principes peuvent être appliqués à des projets personnels. En préparant un voyage au Japon, Anaïs démontre l'efficacité des outils agiles dans un contexte non-technique, offrant ainsi une perspective originale sur l'agilité.

Ce que présente le talk

Anaïs Moulin partage son expérience de l'organisation d'un voyage au Japon en utilisant des outils agiles tels que les personas, le backlog, la roadmap, et les user stories. Elle explique comment ces méthodes ont permis de concilier les attentes de deux voyageurs aux profils différents, tout en assurant une expérience fluide et mémorable. Ce retour d'expérience met en lumière la pertinence des pratiques agiles au-delà des projets numériques.

Points techniques importants

Utilisation des Personas

L'un des premiers outils abordés est le persona, qui permet de modéliser les attentes et les besoins des deux voyageurs. Anaïs et son conjoint, Valentin, ayant des approches divergentes du voyage, l'utilisation des personas a été cruciale pour éviter les conflits. En définissant clairement leurs objectifs, préférences et contraintes, ils ont pu établir une base solide pour la planification.

Vision et Roadmap

La définition d'une vision claire est essentielle dans un projet agile. Pour leur voyage, Anaïs et Valentin ont formulé une vision inspirante : vivre une expérience japonaise immersive et équilibrée, alliant culture, gastronomie et découverte. Cette vision a guidé leurs décisions tout au long de la préparation.

La roadmap a ensuite été élaborée, découpant le mois de voyage en quatre grandes phases. Chaque semaine a été thématisée, permettant de structurer le parcours tout en gardant une certaine flexibilité. Cela a permis de planifier les trajets, les nuits sur place, et d’anticiper les temps forts et calmes.

Backlog et User Stories

Le backlog a été utilisé pour prioriser les activités et les souhaits des voyageurs. Anaïs a souligné que ce backlog est un document vivant, évolutif et jamais terminé. Les user stories ont également joué un rôle clé, permettant de formuler les besoins de manière centrée sur l'utilisateur. Cela a aidé à garder une vision claire des objectifs à atteindre durant le voyage.

MVP et Itérations

Anaïs a évoqué l'importance de se concentrer sur un MVP (Minimum Viable Product) pour leur voyage. Plutôt que de vouloir tout faire, ils ont choisi de se focaliser sur l'essentiel, permettant ainsi de vivre des expériences significatives sans se surcharger.

Ce qu'il faut retenir

L'application des méthodes agiles dans un contexte personnel, comme l'organisation d'un voyage, démontre leur flexibilité et leur pertinence. Les concepts de personas, de vision, de roadmap, de backlog et de user stories peuvent être adaptés à des projets non-techniques, permettant ainsi d’optimiser l'expérience utilisateur, même dans des situations personnelles.

Réflexions Darkwood

L'exploration de l'agilité dans des contextes variés, comme l'organisation de voyages, souligne l'évolution des systèmes logiciels et des pratiques de gestion de projet. À mesure que les entreprises adoptent des approches plus flexibles et centrées sur l'utilisateur, l'automatisation et les agents IA deviennent des alliés précieux pour optimiser les workflows. De plus, cette tendance vers une gouvernance agile et adaptable pourrait transformer la manière dont nous concevons et exécutons des projets, qu'ils soient techniques ou personnels. En intégrant ces pratiques, les développeurs et les chefs de projet peuvent non seulement améliorer leur efficacité, mais aussi enrichir l'expérience utilisateur à tous les niveaux.

Fiche programme

Les Cast Codeurs sans casque, sans écran mais avec de la joie

  • Speakers : Arnaud Héritier (X · LinkedIn · Bluesky · Mastodon), Guillaume Laforge (X · LinkedIn · Bluesky · Mastodon), Emmanuel Bernard (X · LinkedIn · Bluesky), Antonio Goncalves (X · LinkedIn · Bluesky)
  • Type : Closing Keynote
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 24/04/2026, 17:45 à 18:30 · Salle Neuilly 153

Les Cast Codeurs sans casque, sans écran mais avec de la joie

La clôture de Devoxx France a pris une tournure inattendue et réjouissante avec la session "Les Cast Codeurs sans casque, sans écran mais avec de la joie". Ce talk, animé par des figures emblématiques du podcasting tech, a permis de faire le point sur les tendances de la saison tout en insufflant une dose d'humour et de convivialité. Dans un écosystème où la technologie domine, cette approche humaine rappelle l'importance des interactions personnelles.

Ce que présente le talk

La session a été un mélange de rétrospective et de célébration. Les intervenants, dont Arnaud Héritier, Guillaume Laforge, Emmanuel Bernard et Antonio Goncalves, ont partagé leurs expériences et réflexions sur la saison écoulée, tout en se projetant vers l'avenir. L'accent a été mis sur l'importance de la communauté et de la collaboration dans le monde du développement logiciel.

Points techniques importants

L'importance de la communauté

  • Solidarité et collaboration : Les intervenants ont souligné la nécessité d'un travail d'équipe efficace, illustrant comment la transmission de connaissances se fait naturellement d'une année à l'autre. Cela crée un environnement propice à l'innovation et à l'apprentissage continu.

Les agents IA

  • Création d'agents : Un des moments marquants a été la présentation d'agents IA développés pour faciliter l'organisation de l'événement. Ces agents, chacun avec un rôle spécifique, illustrent comment l'automatisation peut alléger certaines tâches logistiques.
    • Chat Géroté : Responsable de la distribution de nourriture.
    • Glode : En charge de l'accueil et de la gestion des flux de participants.
    • Tramontagne : Gère la température des salles pour le confort des participants.
    • Complexity : S'assure que le programme reste fluide malgré les imprévus.
    • Copilote : Gère les flux de participants dans les salles pleines.

L'humour comme outil de communication

  • Interaction avec le public : Les intervenants ont utilisé l'humour pour engager le public, rendant la session à la fois informative et divertissante. Cela démontre l'importance de la communication dans des environnements techniques souvent perçus comme austères.

Ce qu'il faut retenir

La session a mis en lumière plusieurs éléments clés :

  • La force de la communauté et de la collaboration dans le développement logiciel.
  • L'importance croissante des agents IA pour automatiser et optimiser les processus.
  • L'utilisation de l'humour comme moyen d'engagement et de communication efficace.

Réflexions Darkwood

Cette clôture de Devoxx France nous rappelle que, malgré les avancées technologiques, l'humain reste au cœur des systèmes logiciels. L'évolution vers des agents IA et l'automatisation des workflows soulèvent des questions sur la gouvernance et la responsabilité. Alors que les équipes continuent d'intégrer ces technologies, il est crucial de maintenir un équilibre entre l'efficacité et l'interaction humaine. La convivialité et l'esprit communautaire doivent perdurer, car ce sont ces éléments qui nourrissent l'innovation et la créativité dans un monde de plus en plus automatisé.

Fiche programme

Security & Privacy

Déployer d'abord, sécuriser jamais: l’IA entre productivité et chaos de sécurité

  • Speakers : Houssem BELHADJ AHMED (X · LinkedIn), Aymeric Lagier (LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 11:35 à 12:20 · Salle Neuilly 252AB

Cette session dresse un état des lieux de la sécurité dans l’écosystème IA : LLM, agents autonomes, MCP, chaînes multi‑agents. À travers des démos de failles réelles et les travaux de l’OWASP, elle expose les nouvelles surfaces d’attaque, les risques majeurs et les pistes de mitigation face aux exigences du EU AI Act.

Déployer d'abord, sécuriser jamais: l’IA entre productivité et chaos de sécurité

L'introduction fulgurante de l'intelligence artificielle dans nos systèmes a souvent été synonyme de rapidité et d'agilité. Cependant, cette précipitation soulève des questions cruciales sur la sécurité des applications IA. La session présentée par Houssem Belhadj Ahmed et Aymeric Lagier lors de la conférence "Security & Privacy" aborde ce sujet brûlant en mettant en lumière les vulnérabilités inhérentes aux systèmes d'IA, notamment les LLM (Large Language Models) et les agents autonomes.

Ce que présente le talk

Cette session propose un état des lieux de la sécurité dans l'écosystème IA, en se concentrant sur les nouvelles surfaces d'attaque et les risques associés. À travers des démonstrations concrètes de failles de sécurité, les intervenants explorent les implications du EU AI Act et les stratégies de mitigation à adopter. Les travaux de l’OWASP, notamment le Top 10 des vulnérabilités pour les applications LLM et agentiques, servent de cadre pour comprendre les menaces actuelles.

Points techniques importants

Architecture et Surfaces d'attaque

Les intervenants introduisent une architecture simple pour illustrer le fonctionnement d'une banque numérique, Néoban, qui utilise un chatbot alimenté par l'IA. Cette architecture linéaire permet de visualiser les interactions entre les clients et les agents IA, ainsi que les risques associés. Les surfaces d'attaque incluent :

  • Injection de prompt : Manipulation des requêtes envoyées aux LLM pour détourner leur comportement.
  • Attaques de chaîne d'approvisionnement : Exploitation des dépendances externes pour injecter des données malveillantes.

Démos de vulnérabilités

Les intervenants montrent cinq types d'attaques, dont :

  1. Injection de prompt directe : Un attaquant peut contourner les restrictions d'un chatbot en utilisant des instructions malveillantes pour obtenir des informations sensibles.
  2. Injection de prompt indirecte : Les données malveillantes peuvent être intégrées dans des sources de données accessibles par le LLM, entraînant des actions non autorisées.
  3. Consommation non maîtrisée : Exploitation des ressources du système par des requêtes malicieuses.

Mitigation et bonnes pratiques

Les intervenants proposent des solutions de mitigation, notamment :

  • Guard Rails : Similaires aux WAF (Web Application Firewalls), ces mécanismes analysent les entrées et sorties des LLM pour détecter et bloquer les tentatives d'injection.
  • Conformité avec l'EU AI Act : Les entreprises doivent intégrer des mesures de sécurité dès la conception pour répondre aux exigences réglementaires.

Ce qu'il faut retenir

La session souligne l'importance de la sécurité dans le déploiement des systèmes d'IA. Les démonstrations pratiques mettent en évidence des vulnérabilités critiques et les stratégies de mitigation nécessaires pour protéger les applications. Les concepts de guard rails et de conformité réglementaire sont essentiels pour une intégration sécurisée de l'IA dans les entreprises.

Réflexions Darkwood

L'évolution rapide des systèmes logiciels, notamment avec l'intégration de l'IA, pose des défis sans précédent en matière de sécurité. L'automatisation croissante et l'utilisation d'agents IA nécessitent une gouvernance rigoureuse et une orchestration réfléchie des workflows. Les architectures modernes doivent non seulement être agiles et performantes, mais également résilientes face aux menaces émergentes. La mise en place de mécanismes de sécurité dès la phase de conception devient impérative pour garantir la confiance dans les systèmes d'IA, tout en naviguant dans le paysage complexe des réglementations en constante évolution.

Fiche programme

JWT : maîtrisez la sécurité des jetons stateless

  • Speakers : Naima Ouarti (LinkedIn)
  • Type : Lunch Talk
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 12:35 à 12:50 · Salle Neuilly 252AB

La présentation illustre, via un cas concret d’intégration FranceConnect+ conforme eIDAS et aux recommandations de l’ANSSI, comment renforcer la sécurité des JWT. Elle expose les vulnérabilités courantes des jetons d’authentification et propose des bonnes pratiques pour durcir les implémentations et fiabiliser les applications modernes.

JWT : maîtrisez la sécurité des jetons stateless

Dans un monde où la sécurité des données est primordiale, la gestion des jetons d'authentification, notamment les JSON Web Tokens (JWT), devient un enjeu crucial. La session animée par Naima Ouarti, experte en cybersécurité chez Equisign, explore les vulnérabilités inhérentes aux JWT et propose des stratégies pour renforcer leur sécurité, en s'appuyant sur un cas concret d'intégration avec FranceConnect+ conforme aux normes eIDAS et aux recommandations de l'ANSSI.

Ce que présente le talk

La présentation met en lumière les défis de sécurité liés aux JWT, qui, bien que largement adoptés pour l'authentification moderne, présentent des failles potentielles. Naima Ouarti illustre comment transformer ces jetons, souvent perçus comme de simples conteneurs de données, en véritables remparts de sécurité. Elle aborde les bonnes pratiques à mettre en œuvre pour durcir les implémentations et fiabiliser les applications.

Points techniques importants

Architecture et intégration

La session commence par une introduction à OpenID et à FranceConnect+, soulignant leur rôle dans l'authentification forte. FranceConnect+ est présenté comme une version sécurisée d'OpenID, permettant aux utilisateurs de s'authentifier de manière fiable. L'intégration avec des services tiers nécessite une attention particulière à la vérification des jetons reçus.

Vérification des tokens

Naima insiste sur l'importance de la validation des tokens avant leur utilisation. Les étapes clés incluent :

  • Validation des champs issuer et audience : Il est crucial de s'assurer que l'émetteur du token est bien celui attendu pour éviter les attaques de type "man-in-the-middle".
  • Gestion des clés : Les clés utilisées pour signer et crypter les tokens doivent être stockées de manière sécurisée. Des vérifications doivent être mises en place pour éviter les attaques par injection SQL ou traversée de répertoire.

Sécurité des algorithmes de signature

Les JWT sont souvent vulnérables à des attaques sur les algorithmes de signature. Naima évoque des exemples d'attaques, comme l'attaque "invalid curve" sur ECDH, où un attaquant pourrait tenter de reconstruire la clé privée en exploitant des erreurs de gestion des requêtes.

Protection contre le vol de tokens

La session aborde également les mécanismes de révocation des tokens. Il est essentiel de pouvoir invalider un token même s'il n'est pas encore expiré. Des alertes doivent être mises en place pour détecter des comportements suspects, comme un nombre élevé de requêtes échouées provenant d'une même origine.

Bonnes pratiques

Naima conclut en rappelant l'importance de la vérification systématique des données reçues, de la gestion des erreurs et de l'utilisation de temps de réponse constants pour éviter de donner des indices aux attaquants. Chaque brique de sécurité doit être soigneusement intégrée pour construire une défense robuste.

Ce qu'il faut retenir

  • Les JWT, bien que pratiques, présentent des vulnérabilités qui nécessitent une attention particulière.
  • La validation des tokens est cruciale pour garantir la sécurité des applications.
  • Les bonnes pratiques incluent la vérification des émetteurs, la gestion sécurisée des clés et la mise en place de mécanismes de révocation.
  • La sécurité doit être pensée de manière globale, chaque élément de l'architecture contribuant à la protection des données.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures basées sur des microservices et des API expose les entreprises à des risques accrus en matière de sécurité. L'automatisation des processus d'authentification et l'utilisation de jetons stateless comme les JWT facilitent la scalabilité, mais nécessitent une gouvernance rigoureuse pour prévenir les abus. Les agents d'IA peuvent jouer un rôle clé dans la surveillance des comportements anormaux et l'optimisation des workflows de sécurité. En intégrant des pratiques de sécurité dès la conception, les développeurs peuvent non seulement protéger leurs applications, mais aussi contribuer à une culture de la sécurité dans l'industrie du développement.

Fiche programme

GitHub Actions : une bombe à retardement pour la supply chain security

  • Speakers : Thierry ABALEA (X · LinkedIn)
  • Type : Lunch Talk
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 13:00 à 13:15 · Salle Paris 143

GitHub Actions : une bombe à retardement pour la supply chain security

La sécurité des chaînes d'approvisionnement est devenue un enjeu majeur dans le développement logiciel, surtout avec l'adoption croissante de GitHub Actions pour l'intégration et le déploiement continus (CI/CD). Dans ce contexte, la session animée par Thierry Abalea met en lumière les vulnérabilités inhérentes à GitHub Actions et propose des stratégies concrètes pour renforcer la sécurité des workflows.

Ce que présente le talk

Thierry Abalea aborde les failles de sécurité de GitHub Actions, en soulignant que, bien que cet outil soit devenu incontournable, il est "insecure by default". Il illustre son propos avec des exemples récents d'attaques sur des chaînes d'approvisionnement, démontrant que les pratiques de sécurité traditionnelles, comme le pinning d’actions et la limitation des secrets, ne suffisent plus. L'objectif est de sensibiliser les développeurs à la nécessité de renforcer la sécurité de leurs workflows CI/CD.

Points techniques importants

Architecture et vulnérabilités

  • Modèle de sécurité inadapté : GitHub Actions présente une surface d'attaque large, notamment à travers des triggers tels que les pull requests. Les workflows peuvent être compromis via des vulnérabilités comme les injections de commandes (batch injection) et les interpolations non sécurisées.

  • Exemples d'attaques :

    • NX : Une attaque a exploité une vulnérabilité de batch injection pour exfiltrer des secrets, y compris le GitHub token et le NPM token, compromettant ainsi plusieurs projets.
    • Shai-Hulud : Ce ver s'est propagé via npm, utilisant des failles similaires pour récupérer des secrets et publier des packages malveillants.
    • Trivy : Des attaques ont visé ce projet open source, exploitant des failles de sécurité pour exécuter du code à distance et exfiltrer des secrets.

Bonnes pratiques et défenses

  • Scoped secrets et règles d’approbation : Utiliser des secrets à durée de vie courte et restreindre les permissions du GITHUB_TOKEN pour limiter l'impact d'une éventuelle compromission.

  • Durcissement des runners : Éviter l'auto-hébergement de runners sur des environnements publics. Préférer des runners éphémères pour réduire la surface d'attaque.

  • Outils de protection : Intégrer des outils comme CodeQL pour l'analyse statique et Step Security pour durcir les runners. GitHub a également annoncé des améliorations dans sa roadmap de sécurité, incluant des mécanismes de pinning des versions d'actions.

Orchestration et workflows

  • Automatisation de la sécurité : Il est crucial d'automatiser les vérifications de sécurité dans les workflows CI/CD pour détecter rapidement les vulnérabilités introduites par des modifications de code.

Ce qu'il faut retenir

La sécurité des workflows CI/CD utilisant GitHub Actions ne doit pas être prise à la légère. Les attaques récentes illustrent la nécessité d'adopter des pratiques de sécurité robustes, telles que la limitation des permissions, l'utilisation de secrets temporaires et le durcissement des environnements d'exécution. GitHub lui-même reconnaît la nécessité d'améliorer ses mécanismes de sécurité.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures de plus en plus décentralisées et automatisées rend la sécurité des chaînes d'approvisionnement cruciale. Les agents IA et l'automatisation des workflows doivent être intégrés dans une approche de gouvernance rigoureuse pour anticiper les menaces. Alors que les attaques deviennent plus sophistiquées, il est impératif d'adopter une posture proactive en matière de sécurité, en considérant chaque étape du développement comme un point potentiel d'intrusion. Les entreprises doivent se préparer à une ère où la sécurité des CI/CD sera aussi essentielle que la qualité du code lui-même.

Fiche programme

A door with no locks? Let’s talk about threat modeling

  • Speakers : Barbara Teruggi (LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : English
  • Créneau : 22/04/2026, 13:30 à 14:15 · Salle Neuilly 151

This talk advocates integrating threat modeling into the early stages of product design, involving developers directly rather than leaving it to security experts alone. By demystifying the process and emphasizing collaboration, it aims to prevent security oversights and make building secure applications a shared, proactive effort.

Une porte sans serrure ? Parlons du modélisation des menaces

Dans un contexte où les cybermenaces ne cessent d'augmenter, la sécurité des applications est devenue un enjeu crucial dès les premières étapes de la conception des produits. La session présentée par Barbara Teruggi aborde l'importance d'intégrer la modélisation des menaces dans le processus de développement, en impliquant directement les développeurs plutôt que de laisser cette responsabilité uniquement aux experts en sécurité.

Ce que présente le talk

Barbara Teruggi défend l'idée que la modélisation des menaces ne devrait pas être perçue comme un domaine réservé aux spécialistes de la cybersécurité. Au contraire, elle doit être un effort collaboratif impliquant toutes les parties prenantes du développement logiciel. En démystifiant le processus et en soulignant l'importance de la collaboration, le talk vise à prévenir les erreurs de sécurité qui peuvent survenir lorsque la sécurité est négligée jusqu'à la phase de test ou, pire encore, après le déploiement.

Points techniques importants

Pourquoi modéliser les menaces ?

La modélisation des menaces est définie comme une démarche proactive qui consiste à identifier et à analyser les menaces potentielles dès la conception d'un système. Teruggi souligne que cette approche permet de repérer les failles de sécurité avant même que le code ne soit écrit. Elle évoque les conséquences désastreuses d'une conception négligente, où des vulnérabilités peuvent mener à des violations de sécurité graves.

Les étapes de la modélisation des menaces

  1. Identification des menaces : Il s'agit de repérer les conditions ou événements qui pourraient exploiter des failles dans le système.
  2. Analyse des risques : Évaluer la gravité des menaces identifiées en considérant leur probabilité et leur impact potentiel.
  3. Contre-mesures : Développer des solutions pour atténuer les risques avant le début du développement.
  4. Mise à jour continue : La modélisation des menaces doit être un processus itératif, avec des vérifications régulières pour tenir compte des nouvelles vulnérabilités.

Collaboration interdisciplinaire

Un point clé de la présentation est l'importance d'impliquer divers acteurs dans le processus de modélisation des menaces :

  • Développeurs : Ils possèdent la connaissance technique nécessaire pour identifier les problèmes potentiels.
  • Architectes : Ils peuvent fournir des perspectives sur la conception globale et les implications de sécurité.
  • Experts en sécurité : Leur rôle est de guider le processus et de fournir des conseils sur les meilleures pratiques.
  • UX Designers : Ils doivent s'assurer que l'expérience utilisateur ne soit pas compromise par des mesures de sécurité trop intrusives.

Méthodologie STRIDE

Teruggi introduit la méthodologie STRIDE pour classer les menaces :

  • Spoofing : Usurpation d'identité.
  • Tampering : Modification non autorisée des données.
  • Repudiation : Négation d'une action.
  • Information Disclosure : Divulgation d'informations sensibles.
  • Denial of Service : Interruption de service.
  • Elevation of Privilege : Accès non autorisé à des fonctions ou données.

Cadre des quatre questions

Le cadre proposé par Adam Shostack se compose de quatre questions essentielles pour guider la modélisation des menaces :

  1. Sur quoi travaillons-nous ? : Définir le périmètre du projet.
  2. Quelles sont les fonctionnalités ? : Identifier les flux d'utilisateurs et les fonctionnalités critiques.
  3. Quelles technologies utilisons-nous ? : Évaluer les langages, frameworks et infrastructures impliqués.
  4. Quelles sont les menaces potentielles ? : Analyser les menaces en fonction des actifs identifiés.

Ce qu'il faut retenir

La modélisation des menaces est une pratique essentielle qui doit être intégrée dès les premières étapes de la conception des applications. En impliquant toutes les parties prenantes, les équipes peuvent mieux identifier et atténuer les risques de sécurité, évitant ainsi des conséquences potentiellement catastrophiques.

Réflexions Darkwood

L'intégration de la modélisation des menaces dans le cycle de développement logiciel représente une évolution nécessaire dans la manière dont nous concevons et construisons des systèmes. À une époque où l'automatisation et les agents intelligents prennent de plus en plus de place, la sécurité doit devenir une priorité partagée. Les architectures modernes, souvent distribuées et basées sur le cloud, nécessitent une gouvernance rigoureuse et une orchestration précise pour garantir la sécurité des données et des applications. La collaboration interdisciplinaire, comme souligné par Teruggi, est un pas vers une culture de sécurité proactive, essentielle pour faire face aux défis croissants de la cybersécurité.

Fiche programme

The Sound of Your Secrets: Teaching Your Model to Spy So You Can Learn to Defend

  • Speakers : David vonThenen (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : English
  • Créneau : 22/04/2026, 14:35 à 15:20 · Salle Paris 141

This session demonstrates how AI and audio recordings can reconstruct typed text from keyboard sounds, revealing a new surveillance risk. Attendees will learn how such acoustic attacks work, why they’re effective, and practical defenses like noise masking and password strategies to protect against them, gaining both technical insight and mitigation skills.

The Sound of Your Secrets: Enseigner à votre modèle à espionner pour mieux se défendre

Dans un monde où la sécurité numérique est de plus en plus précaire, la session présentée par David vonThenen lors de la conférence sur la sécurité et la vie privée aborde un sujet à la fois fascinant et inquiétant : l'utilisation de l'intelligence artificielle pour exploiter les sons des claviers. Ce talk met en lumière une nouvelle forme de risque de surveillance, révélant comment les enregistrements audio peuvent reconstruire du texte tapé à partir des sons des touches, et propose des stratégies de défense pratiques.

Ce que présente le talk

La session explore comment les modèles d'IA modernes peuvent identifier ce que vous tapez simplement à partir des sons de votre clavier. À l'aide d'un ensemble de données d'enregistrements de frappes et d'un pipeline de classification sonore open source, David montre comment construire un modèle capable de récupérer du texte avec une précision surprenante. L'objectif n'est pas de promouvoir la surveillance, mais de comprendre ces techniques pour mieux s'en défendre.

Points techniques importants

Architecture et pipeline de données

David commence par discuter de l'architecture nécessaire pour réaliser une telle attaque acoustique. Il aborde les étapes suivantes :

  • Collecte de données : Deux ensembles de données sont utilisés : un pour un clavier unique et un autre pour plusieurs claviers. Chaque ensemble contient des enregistrements des sons de chaque touche.
  • Prétraitement : Les fichiers audio sont convertis en images spectrogrammes, permettant une classification visuelle des sons.
  • Modèle de classification : Utilisation d'une architecture de réseau de neurones (CotesNet) pour classifier les sons associés aux frappes de touches.

Techniques de défense

Le talk ne se limite pas à l'attaque ; il propose également des contre-mesures :

  • Masquage du signal : Utilisation de bruits de fond pour masquer les sons des frappes.
  • Stratégies de mot de passe : Encourager l'utilisation de mots de passe complexes et variés pour réduire la prévisibilité des frappes.

Efficacité des attaques acoustiques

David démontre que, grâce à des techniques de deep learning, il est possible d'atteindre une précision de classification proche de 100 % pour un clavier connu. Cela soulève des préoccupations quant à la sécurité des utilisateurs, surtout dans des environnements où le microphone est actif.

Ce qu'il faut retenir

  • Vulnérabilité des claviers : Les attaques acoustiques représentent un risque réel et croissant, surtout avec la généralisation des microphones dans les appareils.
  • Importance des défenses : Comprendre ces techniques permet de mieux se protéger contre des menaces potentielles.
  • Éthique de l'IA : Le talk souligne la dualité morale de l'IA, capable à la fois de résoudre des problèmes et d'en créer de nouveaux.

Réflexions Darkwood

La session de David vonThenen met en lumière l'évolution des systèmes logiciels dans un contexte où la sécurité et la vie privée sont constamment menacées. L'automatisation et l'IA, bien qu'elles offrent des solutions innovantes, posent également des défis éthiques et pratiques. À mesure que les workflows deviennent plus intégrés et que l'orchestration des systèmes se complexifie, il devient crucial de repenser la gouvernance des technologies. Les agents IA, tout en améliorant l'efficacité, doivent être conçus avec des garde-fous robustes pour éviter les abus. La vigilance et l'innovation doivent aller de pair pour protéger les utilisateurs dans un paysage numérique en constante évolution.

Fiche programme

Sécuriser les MCPs pour les mettre en production

  • Speakers : Samir Akarioh (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 15:40 à 16:25 · Salle Neuilly 153

Sécuriser les MCPs pour les mettre en production

L'intégration des modèles de langage (LLM) dans les infrastructures modernes ouvre de nouvelles perspectives, mais elle introduit également des défis de sécurité significatifs. La session présentée par Samir Akarioh lors de la conférence sur la sécurité et la confidentialité aborde la nécessité cruciale de sécuriser les Modèles de Connexion de Protocole (MCP) avant leur mise en production. Ce sujet est d'une importance capitale dans un écosystème où les LLM interagissent directement avec des bases de données et des API, augmentant ainsi la surface d'attaque des applications.

Ce que présente le talk

La présentation se concentre sur les risques associés à l'utilisation des MCP dans des environnements de production. Samir Akarioh explique que, bien que les MCP facilitent la connexion des LLM à diverses ressources, ils peuvent également devenir des vecteurs d'attaques si des mesures de sécurité appropriées ne sont pas mises en place. La session passe en revue les vulnérabilités courantes et propose des solutions architecturales pour sécuriser les MCP.

Points techniques importants

Architecture des MCP

Les MCP permettent une interaction simplifiée entre les LLM et des systèmes externes, mais cette simplicité peut masquer des failles de sécurité. Akarioh souligne que la configuration d'un MCP peut permettre l'exécution de requêtes SQL, l'envoi d'emails ou l'accès à des fichiers sensibles, ce qui en fait un composant critique d'un système distribué.

Surface d'attaque

L'intégration des LLM dans des systèmes de production augmente considérablement la surface d'attaque. Les LLM, lorsqu'ils sont mal configurés, peuvent être manipulés pour exécuter des commandes non autorisées. Par exemple, un LLM ayant accès à une base de données pourrait être amené à supprimer des données critiques sous prétexte d'optimisation.

Vulnérabilités courantes

Akarioh aborde plusieurs vulnérabilités spécifiques :

  • Poisoning des LLM : 72 % des attaques réussies proviennent de la corruption de la description d'une fonction MCP, permettant ainsi d'exfiltrer des données sensibles.
  • Confiance entre serveurs MCP : Lorsque plusieurs MCP partagent le même contexte, un MCP compromis peut accéder aux données d'un autre MCP de confiance.
  • Escalade de privilèges : Les tokens d'accès trop permissifs peuvent permettre à un agent avec des droits d'accès limités d'exécuter des commandes critiques.

Solutions de sécurité

Pour atténuer ces risques, Akarioh propose plusieurs stratégies :

  • Audits réguliers : Mettre en place des audits de sécurité pour vérifier les configurations des MCP et les permissions associées.
  • Isolation des contextes : Assurer que chaque MCP fonctionne dans un contexte isolé pour éviter les fuites d'informations entre eux.
  • Gestion des secrets : Mettre en œuvre des pratiques de gestion des secrets robustes pour éviter l'exposition de clés sensibles.

Ce qu'il faut retenir

La session met en lumière l'importance cruciale de la sécurité des MCP dans les environnements de production. Les LLM, bien qu'innovants, nécessitent une attention particulière en matière de sécurité pour éviter des failles exploitables. Les développeurs doivent être conscients des risques associés et mettre en œuvre des pratiques de sécurité rigoureuses.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures de plus en plus distribuées et autonomes, comme celles intégrant des LLM, pose des défis uniques en matière de sécurité. L'automatisation croissante et l'utilisation d'agents IA dans les workflows nécessitent une gouvernance stricte et une orchestration réfléchie pour minimiser les risques. La sécurité des MCP illustre parfaitement cette dynamique : il ne suffit pas d'intégrer des technologies avancées, mais il est impératif de les sécuriser de manière proactive. L'avenir des systèmes logiciels dépendra de notre capacité à anticiper et à gérer ces défis de sécurité, tout en exploitant les opportunités offertes par l'IA et l'automatisation.

Fiche programme

Passkeys : Adieu les mots de passe, bonjour la sécurité sans friction !

  • Speakers : Sébastien Buchoux
  • Type : Tools-in-Action
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 17:50 à 18:20 · Salle Neuilly 252AB

Cette session explique le fonctionnement des passkeys, une méthode d’authentification sans mot de passe plus sûre et résistante au phishing. Elle détaille les principes techniques (FIDO, WebAuthn, cryptographie asymétrique) et propose une implémentation pratique pour illustrer ce changement de paradigme dans la gestion de l’identité numérique.

Passkeys : Adieu les mots de passe, bonjour la sécurité sans friction !

Dans un monde où la sécurité numérique est devenue primordiale, la session animée par Sébastien Buchoux sur les passkeys s'inscrit parfaitement dans l'évolution des méthodes d'authentification. En remplaçant les mots de passe par une approche sans friction, cette technologie promet de réduire les risques de phishing et d'améliorer l'expérience utilisateur. Cet article explore les concepts techniques abordés lors de cette session, ainsi que leur impact potentiel sur l'écosystème de la sécurité numérique.

Ce que présente le talk

La session se concentre sur le fonctionnement des passkeys, une méthode d'authentification sans mot de passe qui repose sur des principes de cryptographie avancés, notamment FIDO, WebAuthn et la cryptographie asymétrique. Sébastien Buchoux propose une implémentation pratique d'une authentification par passkey, illustrant ainsi un changement de paradigme dans la gestion de l’identité numérique.

Points techniques importants

Concepts fondamentaux

  • FIDO et WebAuthn : Ces normes sont au cœur de l'authentification par passkey. FIDO (Fast Identity Online) vise à réduire la dépendance aux mots de passe, tandis que WebAuthn permet aux applications web d'utiliser des authentificateurs pour valider l'identité des utilisateurs.

  • Cryptographie asymétrique : Cette méthode repose sur une paire de clés — une clé privée, gardée secrète par l'utilisateur, et une clé publique, partagée avec le serveur. Ce mécanisme permet d'authentifier un utilisateur sans jamais partager de secret.

Processus d'authentification

  1. Enregistrement : Lors de la première utilisation d'une passkey, l'utilisateur s'enregistre en créant une paire de clés via une "cérémonie d'enregistrement". Le serveur envoie un challenge unique pour éviter le rejeu d'authentification.

  2. Authentification : Lors de la connexion, l'utilisateur signe le challenge avec sa clé privée. Le serveur utilise la clé publique pour valider la signature, confirmant ainsi l'identité de l'utilisateur sans échange de mots de passe.

Implémentation pratique

  • Application de démonstration : Sébastien présente une application fictive où les utilisateurs peuvent accéder à une recette secrète. L'application, développée en Python et JavaScript, illustre comment intégrer les passkeys dans une architecture web classique.

  • Code JavaScript : Le talk met en avant des fonctions JavaScript pour gérer l'enregistrement et l'authentification via l'API WebAuthn. Cela démontre que l'implémentation est accessible et ne nécessite pas de bibliothèques tierces complexes.

  • Côté serveur : L'implémentation côté serveur nécessite de créer des endpoints pour gérer les options d'enregistrement et la vérification des signatures, souvent en utilisant des bibliothèques spécifiques pour faciliter le processus.

Ce qu'il faut retenir

Les passkeys représentent une avancée significative dans le domaine de l'authentification. En éliminant les mots de passe, elles réduisent les surfaces d'attaque et améliorent la sécurité des utilisateurs. Les normes FIDO et WebAuthn, couplées à la cryptographie asymétrique, offrent un cadre robuste pour cette nouvelle méthode d'authentification.

Réflexions Darkwood

L'émergence des passkeys illustre une tendance plus large vers l'automatisation et la simplification des workflows d'authentification. En intégrant des agents IA et des systèmes d'orchestration, les entreprises peuvent non seulement renforcer leur sécurité, mais aussi améliorer l'expérience utilisateur. Ce changement de paradigme dans la gestion de l'identité numérique pourrait transformer la façon dont les développeurs conçoivent les systèmes d'authentification, rendant les applications plus sécurisées et plus intuitives. À mesure que l'industrie évolue, il sera crucial de surveiller l'adoption de ces technologies et leur impact sur la gouvernance des données et la confiance numérique.

Fiche programme

L’ampoule qui en savait trop : voyage au cœur de la sécurité des objets connecté

  • Speakers : Paul Pinault (X · LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 10:30 à 11:15 · Salle Paris 143

Ce talk explore, via la rétro-ingénierie d’une ampoule connectée, la complexité et la sécurité intégrées dans l’IoT. Il analyse l’évolution réglementaire, le code embarqué et les protections, soulignant l’importance croissante de la sécurité dans la conception des objets connectés, tout en restant accessible au grand public.

L’ampoule qui en savait trop : voyage au cœur de la sécurité des objets connectés

Dans un monde où l'Internet des Objets (IoT) prend une place prépondérante, la sécurité des dispositifs connectés devient une préoccupation majeure. Le talk de Paul Pinault, intitulé "L’ampoule qui en savait trop", s'attaque à cette problématique en explorant la rétro-ingénierie d'une ampoule connectée. À travers cette analyse, il met en lumière les défis techniques et réglementaires auxquels les fabricants doivent faire face pour garantir la sécurité de leurs produits.

Ce que présente le talk

Ce talk se concentre sur la complexité de la sécurité intégrée dans les objets connectés, en utilisant l'exemple d'une ampoule connectée. Paul Pinault aborde la rétro-ingénierie de cet objet du quotidien pour démontrer comment l'industrie a transformé un simple code en un système sécurisé. Il évoque également les évolutions réglementaires, notamment la directive RED et la CRA, qui imposent de nouvelles pratiques aux fabricants.

Points techniques importants

Rétro-ingénierie et architecture embarquée

Le talk débute par une démonstration pratique où l'intervenant démontre une ampoule connectée. À l'intérieur, il découvre un ESP32, un microcontrôleur populaire dans l'IoT, qui permet des communications Wi-Fi et Bluetooth. Ce choix de matériel souligne l'importance de l'architecture embarquée dans la conception des objets connectés.

  • ESP32 : Un système puissant et économique, capable de gérer des tâches complexes.
  • Composants internes : Oscillateurs pour le timing et une horloge temps réel (RTC) pour conserver la date et l'heure, éléments qui soulèvent des questions sur leur nécessité dans une ampoule.

Sécurité intégrée

Pinault met en avant l'importance de la sécurité dès la conception. Il introduit le concept des ifuses, une mémoire non réinscriptible utilisée pour stocker des clés cryptographiques, renforçant ainsi la sécurité matérielle des dispositifs.

  • Mises à jour sécurisées : La capacité de mettre à jour le firmware est essentielle pour maintenir la sécurité. Le talk souligne que la plupart des botnets sont constitués d'appareils non mis à jour.
  • Chiffrement des communications : Les données personnelles doivent être chiffrées, tant en transit qu'au repos, pour éviter les fuites d'informations sensibles.

Évolutions réglementaires

Le talk aborde également les nouvelles réglementations qui impactent directement la conception des objets connectés :

  • Directive RED : Imposant des tests de sécurité avant la mise sur le marché en Europe, cette directive oblige les fabricants à intégrer des mécanismes de sécurité dans leurs produits.
  • CRA (Cyber Resilience Act) : Ce cadre impose aux fabricants de suivre les vulnérabilités et de mettre à jour leurs produits de manière proactive. Une non-conformité peut entraîner des amendes significatives.

Ce qu'il faut retenir

L'intervention de Paul Pinault met en lumière plusieurs points clés :

  • La rétro-ingénierie d'une ampoule connectée révèle la complexité cachée derrière des dispositifs apparemment simples.
  • La sécurité doit être intégrée dès la conception, avec des mises à jour régulières et des communications chiffrées.
  • Les évolutions réglementaires, comme la directive RED et le CRA, imposent des standards de sécurité plus stricts, rendant la conformité indispensable pour les fabricants.

Réflexions Darkwood

Le talk de Paul Pinault illustre parfaitement l'évolution des systèmes logiciels vers une approche où la sécurité est non seulement un ajout, mais une exigence fondamentale. À mesure que l'IoT se développe, l'automatisation des mises à jour et la gestion proactive des vulnérabilités deviendront des normes incontournables.

Les implications de ces évolutions réglementaires et techniques sont vastes : elles obligent les entreprises à repenser leur approche de la conception et de la gouvernance des objets connectés. À l'avenir, le succès des dispositifs IoT dépendra de leur capacité à s'adapter à un paysage réglementaire en constante évolution, tout en garantissant une expérience utilisateur sécurisée et fiable.

Fiche programme

API Security 2026 : Comment éviter de finir sur Have I Been Pwned ?

  • Speakers : Mickaël Barroux (LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 11:35 à 12:20 · Salle Amphi bleu

Ce talk présente les menaces API actuelles et futures (tokens volés, clés exposées, attaques par re-jeu) et détaille les meilleures pratiques 2026 : mise à jour OAuth 2.1, sécurisation JWT, DPoP, mTLS, approche Zero Trust et API gateways, avec démonstration live des risques et conseils concrets pour se protéger.

API Security 2026 : Comment éviter de finir sur Have I Been Pwned ?

La sécurité des APIs est devenue un enjeu crucial dans le développement logiciel moderne. Avec l'augmentation des attaques ciblant ces interfaces, il est impératif d'adopter des pratiques robustes pour protéger les données sensibles. Le talk de Mickaël Barroux, intitulé "API Security 2026 : Comment éviter de finir sur Have I Been Pwned ?", aborde les menaces actuelles et futures qui pèsent sur les APIs, tout en proposant des solutions concrètes pour renforcer leur sécurité.

Ce que présente le talk

Mickaël Barroux explore les menaces API, notamment le vol de tokens, les clés exposées et les attaques par re-jeu. Il présente les meilleures pratiques pour 2026, telles que la mise à jour vers OAuth 2.1, la sécurisation des JWT, l'utilisation de DPoP, mTLS, et l'adoption d'une approche Zero Trust. Le talk inclut également une démonstration en direct des risques associés à une mauvaise implémentation de la sécurité API.

Points techniques importants

Menaces API

Les APIs sont devenues la cible privilégiée des attaquants, représentant 82 % des incidents de sécurité en 2024. Les principales menaces identifiées incluent :

  • Vol de tokens : Les tokens mal sécurisés peuvent être interceptés et utilisés pour accéder à des données sensibles.
  • Clés exposées : Des clés API laissées sur des dépôts publics, comme GitHub, augmentent le risque d'exploitation.
  • Attaques par re-jeu : Les attaquants peuvent réutiliser des requêtes valides pour accéder à des ressources protégées.

Meilleures pratiques de sécurisation

OAuth 2.1

OAuth 2.1 est présenté comme un cadre essentiel pour la sécurisation des APIs. Il permet de déléguer l'accès sans exposer les identifiants des utilisateurs. Les points clés incluent :

  • Séparation des rôles : OAuth gère l'autorisation, tandis qu'OpenID Connect s'occupe de l'authentification.
  • Scopes : Les permissions doivent être vérifiées pour chaque requête afin d'éviter des accès non autorisés.

JSON Web Tokens (JWT)

Les JWT sont souvent mal compris et mal implémentés. Barroux souligne l'importance de :

  • Validation de la signature : Accepter uniquement des tokens signés pour garantir leur intégrité.
  • Expiration des tokens : Utiliser un champ d'expiration pour limiter la durée de vie des tokens, idéalement à quelques minutes.

DPoP et mTLS

  • DPoP (Demonstrating Proof of Possession) : Permet de lier un token à un client spécifique, réduisant le risque de vol.
  • mTLS (Mutual TLS) : Renforce la sécurité en exigeant une authentification mutuelle entre le client et le serveur.

Approche Zero Trust

L'approche Zero Trust remet en question la confiance accordée aux clients. Chaque requête doit être authentifiée et autorisée, indépendamment de l'origine. Cela implique :

  • Vérification continue : Les permissions doivent être validées à chaque interaction.
  • API Gateways : Utiliser des passerelles pour centraliser la gestion des accès et des politiques de sécurité.

Ce qu'il faut retenir

La sécurité des APIs en 2026 nécessite une vigilance accrue et l'adoption de standards modernes. Les développeurs doivent impérativement :

  • Mettre à jour vers OAuth 2.1.
  • Assurer la validation des JWT.
  • Adopter des pratiques Zero Trust.
  • Utiliser des outils comme DPoP et mTLS pour renforcer la sécurité.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures de microservices et des environnements cloud-native accentue la nécessité d'une sécurité API robuste. L'automatisation des workflows de sécurité, couplée à l'utilisation d'agents IA pour la détection des anomalies, pourrait transformer la manière dont nous gérons la sécurité des APIs. À mesure que les menaces évoluent, il est crucial d'adopter une approche proactive, intégrant des mécanismes de gouvernance et d'orchestration pour anticiper et neutraliser les attaques avant qu'elles ne compromettent les données sensibles. La sécurité des APIs ne doit pas être une réflexion après coup, mais un pilier fondamental de toute architecture moderne.

Fiche programme

Understanding Prompt Injection - Techniques, Challenges, and Advanced Escalation

  • Speakers : Brian Vermeer (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : English
  • Créneau : 23/04/2026, 11:35 à 12:20 · Salle Neuilly 153

This session explores prompt injection attacks in AI and LLM applications, detailing common and advanced techniques used by attackers. It offers practical mitigation strategies to secure AI interactions, helping developers understand and defend against these emerging threats to maintain robust and secure applications.

Understanding Prompt Injection - Techniques, Challenges, and Advanced Escalation

L'essor des modèles de langage (LLMs) et de l'intelligence artificielle dans les applications modernes a ouvert la voie à des innovations sans précédent, mais a également introduit des vulnérabilités nouvelles et complexes. La session animée par Brian Vermeer, expert en sécurité chez Snyk, aborde une menace émergente : l'injection de prompt. Ce type d'attaque, souvent sous-estimé, peut compromettre l'intégrité des systèmes d'IA en manipulant les entrées pour générer des sorties inattendues. Cet article explore les techniques, défis et stratégies de mitigation présentés lors de cette conférence.

Ce que présente le talk

La session se concentre sur les attaques par injection de prompt dans les applications d'IA et de LLM. Brian Vermeer y détaille les techniques courantes et avancées utilisées par les attaquants, tout en proposant des stratégies pratiques pour sécuriser les interactions avec l'IA. L'objectif est d'aider les développeurs à comprendre et à se défendre contre ces menaces émergentes afin de maintenir des applications robustes et sécurisées.

Points techniques importants

Compréhension des LLMs

Vermeer commence par rappeler que les LLMs sont des systèmes sans état, ce qui signifie qu'ils n'ont pas de mémoire persistante. Ils fonctionnent sur la base de probabilités, générant des réponses en fonction des entrées fournies. Cette nature stateless est cruciale pour comprendre comment les attaques par injection de prompt peuvent se produire.

Techniques d'injection de prompt

1. Instruction Override

L'override d'instruction est l'une des techniques les plus connues, où l'attaquant tente de faire ignorer les instructions précédentes en utilisant des phrases telles que "Ignore toutes les instructions précédentes". Bien que cela ait fonctionné dans certains modèles plus anciens, les versions récentes des LLMs, comme GPT-4, ont renforcé leurs défenses contre ce type d'attaque.

2. Structured Output Attack

Cette technique consiste à demander à un LLM de produire une sortie structurée, comme un JSON, en imposant des règles strictes sur la validité de la sortie. Cela peut amener le modèle à divulguer des informations sensibles, telles que des clés API, en contournant les protections mises en place.

3. Role-Playing et Virtualization

Le rôle de jeu (role-playing) consiste à créer un contexte fictif pour inciter le modèle à révéler des informations cachées. En combinant cette approche avec la virtualisation, où l'on crée un environnement complet pour le modèle, les attaquants peuvent manipuler les réponses de manière plus sophistiquée.

4. Multi-Turn Manipulation

Cette technique consiste à fragmenter une requête en plusieurs étapes, chaque étape semblant anodine, mais qui, une fois combinées, peuvent mener à une divulgation d'informations. Cela permet de contourner les restrictions en rendant chaque question individuelle inoffensive.

Stratégies de mitigation

Vermeer insiste sur l'importance de mettre en place des mesures de sécurité robustes pour contrer ces attaques. Parmi les recommandations figurent :

  • Validation stricte des entrées : S'assurer que les données fournies aux LLMs sont correctement filtrées et validées.
  • Utilisation de modèles de sécurité : Intégrer des modèles de sécurité dans le développement des applications d'IA pour anticiper et contrer les attaques potentielles.
  • Formation continue : Les développeurs doivent être formés aux dernières menaces et techniques d'attaque pour mieux protéger leurs systèmes.

Ce qu'il faut retenir

L'injection de prompt représente une menace sérieuse pour les applications d'IA et de LLM. Les développeurs doivent être conscients des techniques d'attaque et des stratégies de mitigation pour garantir la sécurité de leurs systèmes. La compréhension des LLMs et la mise en œuvre de pratiques de sécurité rigoureuses sont essentielles pour prévenir ces attaques.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une intégration accrue de l'IA soulève des questions cruciales sur la sécurité et la gouvernance. L'automatisation croissante des workflows et l'utilisation d'agents IA rendent les systèmes plus vulnérables aux manipulations. Les architectures modernes doivent intégrer des mécanismes de défense robustes contre des attaques telles que l'injection de prompt. En fin de compte, la sécurité des applications d'IA ne repose pas uniquement sur des solutions techniques, mais aussi sur une culture de vigilance et d'éducation continue dans le domaine du développement. La capacité à anticiper et à répondre à ces menaces sera déterminante pour l'avenir de l'industrie du développement logiciel.

Fiche programme

Un développeur au Bug Bounty privé d’OpenAI 🤓 🛡️ 🤖

  • Speakers : Pierre Therrode (X · LinkedIn)
  • Type : Lunch Talk
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 12:35 à 12:50 · Salle Neuilly 252AB

Un développeur au Bug Bounty privé d’OpenAI : Retour d'expérience sur la sécurité des IA

Dans un contexte où la cybersécurité est devenue un enjeu majeur pour les entreprises, la session de Pierre Therrode, développeur chez SNCF Connect & Tech, aborde un sujet crucial : l'interaction entre développement et sécurité, en particulier dans le cadre des agents IA. Ce talk, bien que court, offre une perspective unique sur le mindset d'un développeur engagé dans un programme de Bug Bounty, et les implications de cette expérience pour la sécurisation des systèmes d'IA.

Ce que présente le talk

Pierre Therrode partage son parcours atypique, passant d'un développeur à un participant actif dans le Bug Bounty d'OpenAI. Il explique comment son intérêt pour la sécurité des IA l'a conduit à explorer des techniques de jailbreak et d'injection de prompt, tout en soulignant l'importance pour les développeurs d'adopter une approche offensive face à la sécurité. Ce retour d'expérience se veut à la fois informatif et incitatif pour les développeurs souhaitant renforcer leurs compétences en matière de sécurité.

Points techniques importants

Mindset d'attaquant

  • Adoption d'une approche offensive : Therrode insiste sur l'importance pour les développeurs de penser comme des attaquants. Cela implique de comprendre les vulnérabilités des systèmes et d'anticiper les menaces potentielles.
  • Jailbreak et prompt injection : Il partage des expériences concrètes, telles que la création d'un botnet en C et l'extraction de systèmes de prompt, pour illustrer comment ces techniques peuvent être utilisées pour tester la sécurité des modèles IA.

Ressources pour se former

Therrode propose plusieurs axes pour monter en compétence sur la sécurité des IA :

  1. Conférences : Il recommande des événements comme Black Hat et Defcon, qui sont des références en matière de cybersécurité.
  2. Lectures : Des livres d'experts tels que ceux de John Siropoulos et Adanson, qui traitent des vulnérabilités des modèles de langage, sont essentiels pour approfondir ses connaissances.
  3. Personnes à suivre : Il suggère de suivre des experts sur LinkedIn et Twitter, notamment ceux travaillant sur des outils de sécurité offensive et défensive.
  4. Projets open source : Des outils comme Garac et Parslong, développés par des experts, permettent d'explorer la sécurité des LLM (Large Language Models).

Collaboration entre développeurs et pentesters

Therrode met en avant l'importance de la synergie entre développeurs et pentesters. En travaillant ensemble, ils peuvent mieux sécuriser les applications, en combinant leurs expertises respectives pour identifier et corriger les vulnérabilités.

Ce qu'il faut retenir

  • L'expérience de Pierre Therrode souligne l'importance pour les développeurs de s'engager activement dans la sécurité de leurs projets, en adoptant un mindset d'attaquant.
  • La collaboration entre développeurs et experts en sécurité est cruciale pour améliorer la robustesse des systèmes d'IA.
  • Les ressources et formations disponibles permettent aux développeurs de renforcer leurs compétences en matière de cybersécurité, un enjeu incontournable dans le développement d'agents IA.

Réflexions Darkwood

L'intervention de Pierre Therrode s'inscrit dans une tendance plus large où la sécurité devient un pilier fondamental du développement logiciel. À mesure que les systèmes d'IA se complexifient, l'automatisation des tests de sécurité et l'intégration de pratiques de développement sécurisées deviennent essentielles. L'émergence d'agents IA capables d'interagir de manière autonome avec leur environnement soulève des questions cruciales sur la gouvernance et la responsabilité. En formant des développeurs à adopter une approche proactive en matière de sécurité, l'industrie peut espérer construire des systèmes plus résilients face aux menaces croissantes.

Fiche programme

Un mot de passe ? Non merci, j’ai une passkey.

  • Speakers : Quentin Aubert (LinkedIn)
  • Type : Lunch Talk
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 13:00 à 13:15 · Salle Paris 143

Ce talk présente les passkeys, une alternative sans mot de passe basée sur WebAuthn. Plus simples et plus sûres, elles promettent de transformer l’authentification. La session détaille leur fonctionnement, leurs avantages, un retour d’expérience d’intégration et une démonstration pratique.

Un mot de passe ? Non merci, j’ai une passkey.

Dans un monde où la sécurité des données est devenue primordiale, la session "Un mot de passe ? Non merci, j’ai une passkey" présentée par Quentin Aubert à la conférence sur la sécurité et la vie privée aborde une innovation majeure dans le domaine de l'authentification. Les passkeys, basées sur la norme WebAuthn, promettent de révolutionner notre approche de la sécurité en ligne en remplaçant les mots de passe par une solution plus simple et plus sécurisée.

Ce que présente le talk

Le talk explore les passkeys comme une alternative aux mots de passe traditionnels. Ces clés d'authentification, soutenues par des géants comme Google, Apple et Microsoft, visent à simplifier le processus d'authentification tout en renforçant la sécurité. Quentin Aubert détaille leur fonctionnement, leurs avantages, ainsi qu'un retour d'expérience sur leur intégration dans une application réelle, accompagné d'une démonstration pratique.

Points techniques importants

Architecture et fonctionnement des passkeys

Les passkeys reposent sur la norme WebAuthn, qui permet une authentification sans mot de passe à l'aide de clés cryptographiques stockées localement. Voici les éléments clés de leur fonctionnement :

  • Création d'une passkey : Lorsqu'un utilisateur se connecte à une application, le front-end envoie une requête au serveur pour générer une passkey. Le serveur crée un challenge (une chaîne de caractères aléatoire) et des options de création de clé, incluant l'identifiant de l'application (RP ID) et les algorithmes de signature autorisés.

  • Sécurité renforcée : La norme WebAuthn intègre des mesures de sécurité contre le phishing. Le RP ID est vérifié par l'API navigator.credentials, empêchant toute tentative d'authentification depuis un domaine non autorisé.

  • Authentification : Pour se connecter, l'utilisateur choisit sa passkey. L'authenticator récupère la clé publique, signe le challenge et renvoie les informations au serveur pour validation.

Avantages des passkeys

  • Simplicité d'utilisation : Les utilisateurs n'ont plus besoin de mémoriser des mots de passe complexes. L'authentification se fait via des méthodes biométriques ou des dispositifs physiques.

  • Réduction des coûts : L'élimination des mots de passe réduit les coûts associés à leur gestion, notamment en ce qui concerne les processus de réinitialisation et de vérification.

  • Interopérabilité : Les passkeys sont compatibles avec de nombreux gestionnaires de mots de passe et navigateurs, facilitant leur adoption.

Intégration des passkeys

L'intégration des passkeys dans une application peut se faire de deux manières :

  1. Développement personnalisé : Implémentation complète de la norme WebAuthn, nécessitant une gestion des algorithmes de signature.
  2. Utilisation de bibliothèques : De nombreuses bibliothèques sont disponibles pour faciliter l'intégration.

Limitations et considérations

Bien que les passkeys offrent de nombreux avantages, certaines préoccupations subsistent :

  • Vulnérabilités potentielles : Une critique initiale a été formulée par la Paragon Initiative concernant l'utilisation d'algorithmes de signature vulnérables. Il est recommandé de retirer ces algorithmes de la liste autorisée côté serveur.

  • Dépendance à HTTPS : Les passkeys nécessitent une connexion sécurisée (HTTPS) pour fonctionner correctement, limitant leur utilisation dans certains environnements.

Ce qu'il faut retenir

Les passkeys représentent une avancée significative dans le domaine de l'authentification, offrant une alternative sécurisée et conviviale aux mots de passe. Leur intégration dans les applications est facilitée par des normes bien établies et une large adoption par les principaux acteurs du secteur.

Réflexions Darkwood

L'émergence des passkeys s'inscrit dans une tendance plus large vers l'automatisation et la simplification des workflows d'authentification. À mesure que les systèmes logiciels évoluent, l'accent est mis sur la sécurité sans compromettre l'expérience utilisateur. Les agents d'IA et les solutions d'orchestration pourraient jouer un rôle clé dans l'optimisation de ces processus, rendant l'authentification non seulement plus sécurisée mais aussi plus fluide. L'impact potentiel sur l'industrie du développement est considérable, avec des implications pour la gouvernance des données et la gestion des identités numériques.

Fiche programme

Bearer of Good News

  • Speakers : Sam Bellen (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : English
  • Créneau : 23/04/2026, 14:35 à 15:20 · Salle Paris 141

OAuth 2.1 addresses major OAuth 2.0 flaws by integrating modern security and usability enhancements. Mandatory PKCE, DPoP proofs, CIBA flows, metadata discovery, token exchange, and cross‑app access together prevent token replay, eliminate secret leakage, and simplify configuration. The talk explains these updates, their use cases, and how they enable secure‑by‑default systems.

Bearer of Good News : Modernisation d'OAuth avec OAuth 2.1

Dans un monde numérique où la sécurité des données est primordiale, la gestion des autorisations et des accès est devenue un enjeu critique. La session "Bearer of Good News" présentée par Sam Bellen lors de la conférence sur la sécurité et la confidentialité aborde la mise à jour d'OAuth 2.1, qui vise à corriger les failles majeures d'OAuth 2.0 tout en intégrant des améliorations modernes en matière de sécurité et d'ergonomie.

Ce que présente le talk

La présentation se concentre sur les lacunes d'OAuth 2.0, notamment la fuite de secrets, le vol de tokens et la nécessité d'une interaction utilisateur constante. Sam Bellen explique comment OAuth 2.1 répond à ces problèmes en intégrant des fonctionnalités telles que PKCE (Proof Key for Code Exchange), DPoP (Demonstration of Proof of Possession), et CIBA (Client Initiated Backchannel Authentication). Ces évolutions visent à rendre les systèmes sécurisés par défaut, en éliminant les configurations manuelles et en simplifiant les flux d'autorisation.

Points techniques importants

Architecture et Protocoles

  • OAuth 2.0 vs OAuth 2.1 : OAuth 2.1 consolide les meilleures pratiques d'OAuth 2.0 tout en éliminant les spécifications obsolètes. PKCE devient obligatoire, renforçant la sécurité des applications publiques qui ne peuvent pas stocker de secrets.

  • DPoP : Ce mécanisme ajoute une preuve cryptographique aux tokens porteurs, empêchant ainsi les attaques par rejeu. Cela signifie que même si un token est intercepté, il ne peut être utilisé que par le client légitime.

  • CIBA : Ce flux découple l'autorisation des sessions de navigateur, permettant aux utilisateurs de s'authentifier sur un appareil différent de celui où l'application est exécutée. Cela est particulièrement utile pour les appareils IoT ou les situations où l'utilisateur ne peut pas interagir directement avec l'application.

Sécurité et Usabilité

  • Élimination des fuites de secrets : La mise en œuvre de PKCE et DPoP réduit considérablement le risque que des secrets d'application soient exposés, en particulier dans les environnements où les clients ne peuvent pas maintenir des secrets sécurisés.

  • Découverte des métadonnées : L'introduction de documents de métadonnées pour les clients et les serveurs d'autorisation facilite la configuration et réduit les erreurs humaines liées à la configuration manuelle des points de terminaison.

  • Échange de tokens : Permet la délégation sans copie de credentials, ce qui signifie que les secrets ne quittent jamais le serveur d'autorisation. Cela renforce la sécurité en limitant l'exposition des tokens.

Performance et Scalabilité

  • Accessibilité des services : Les nouvelles spécifications permettent une intégration plus fluide entre différents services, réduisant le besoin de configurations manuelles et facilitant l'évolutivité des architectures basées sur des microservices.

  • Cross-App Access : Cette fonctionnalité étend les capacités d'autorisation, permettant à des applications distinctes de partager des sessions d'utilisateur sans nécessiter une nouvelle authentification.

Ce qu'il faut retenir

OAuth 2.1 représente une avancée significative dans la gestion des autorisations, corrigeant les failles d'OAuth 2.0 tout en intégrant des pratiques modernes. Les concepts de PKCE, DPoP, et CIBA sont essentiels pour construire des systèmes sécurisés par défaut. La réduction des configurations manuelles et l'amélioration de la sécurité des tokens sont des étapes cruciales vers une meilleure expérience développeur et utilisateur.

Réflexions Darkwood

L'évolution d'OAuth vers OAuth 2.1 illustre une tendance plus large dans l'industrie du développement logiciel : la nécessité d'intégrer la sécurité dès la conception. À mesure que les systèmes deviennent plus interconnectés, l'automatisation des flux d'autorisation et la gestion des identités doivent évoluer pour répondre aux défis posés par les agents autonomes et les architectures modernes. Les implications de ces changements vont au-delà de la simple sécurité, touchant également à la gouvernance des données et à l'orchestration des workflows dans des environnements de plus en plus complexes. En intégrant des mécanismes de sécurité robustes et en simplifiant les processus d'autorisation, nous nous dirigeons vers des systèmes plus résilients et adaptables, capables de répondre aux exigences d'un paysage numérique en constante évolution.

Fiche programme

Secure all the things: From IaC to Kubernetes

  • Speakers : Romain Boulanger (LinkedIn · Mastodon)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 14:35 à 15:20 · Salle Paris 242AB

Sécuriser tout : De l'IaC à Kubernetes

Dans un monde où la sécurité des systèmes d'information est devenue cruciale, la session présentée par Romain Boulanger chez Piguet Galland & Cie aborde une approche DevSecOps intégrée, allant de l'Infrastructure as Code (IaC) jusqu'aux déploiements Kubernetes. Ce talk est particulièrement pertinent dans le contexte actuel où les entreprises migrent vers des architectures Cloud Native tout en devant respecter des normes de sécurité strictes.

Ce que présente le talk

Romain Boulanger partage son expérience sur la mise en œuvre d'une stratégie de sécurité robuste au sein d'une institution financière. Il décrit comment l'automatisation, la fiabilité et la prévention des risques sont intégrées à chaque étape du cycle de vie du développement, depuis la conception jusqu'au déploiement. Les sujets abordés incluent la sécurisation des pipelines CI/CD, l'utilisation de GitOps pour la gestion des secrets, et le déploiement d'un cluster Kubernetes avec Cluster API et Talos Linux.

Points techniques importants

Infrastructure as Code (IaC)

L'utilisation de l'IaC est présentée comme un fondement essentiel pour assurer la conformité et la sécurité. Romain souligne l'importance de codifier les règles de pare-feu et autres configurations, permettant ainsi une traçabilité et une vérification simplifiée lors des audits. L'automatisation du cycle de vie de l'infrastructure est également mise en avant, avec des outils comme Terraform et Open Tofu.

  • Terraform et Open Tofu : Romain explique la transition vers Open Tofu, un fork de Terraform, en raison de sa dimension communautaire et de fonctionnalités intéressantes, comme le chiffrement de l'état (state) des ressources. Cela permet de stocker des données sensibles de manière sécurisée.

Sécurisation des Pipelines CI/CD

La mise en place de pipelines CI/CD sécurisés est cruciale pour garantir que seul le code validé soit déployé. Romain évoque l'utilisation de plusieurs outils pour vérifier la conformité et la sécurité :

  • TFLint : Vérifie la conformité des configurations Terraform.
  • Checkov : S'assure que les configurations ne permettent pas de déploiements non sécurisés, comme des machines virtuelles avec des adresses IP publiques.

Conteneurisation et Sécurité

Le talk aborde également la conteneurisation des applications, un aspect fondamental dans les architectures modernes. Romain met en avant l'utilisation de Canico pour la création d'images de conteneurs, tout en soulignant l'importance de vérifier les dépendances et les vulnérabilités à chaque étape :

  • SBOM (Software Bill of Materials) : Un inventaire des dépendances pour identifier d'éventuelles vulnérabilités.
  • Trivy : Un scanner de vulnérabilités pour les images de conteneurs, à la fois au moment de la construction et lors de l'exécution.

Orchestration avec Kubernetes

Le déploiement sur Kubernetes est renforcé par l'utilisation de la Policy as Code, garantissant que les règles de sécurité sont appliquées de manière cohérente. Romain explique comment la mise en place d'un cluster Kubernetes avec Cluster API et Talos Linux permet de gérer efficacement les ressources tout en intégrant des politiques de sécurité.

Ce qu'il faut retenir

  • Intégration de la sécurité dès le départ : La sécurité doit être intégrée à chaque étape du cycle de vie du développement.
  • Automatisation et IaC : L'utilisation de l'IaC et des pipelines CI/CD automatisés permet de garantir la conformité et de réduire les erreurs humaines.
  • Vérification continue : L'importance de vérifier les dépendances et les configurations à chaque étape, tant en phase de build qu'en phase d'exécution.

Réflexions Darkwood

La session de Romain Boulanger illustre parfaitement l'évolution vers des systèmes logiciels plus sécurisés et automatisés. L'intégration de la sécurité dans le développement logiciel, à travers des pratiques comme le DevSecOps, est devenue une nécessité dans un paysage technologique en constante évolution.

L'automatisation des workflows, la gestion des secrets avec GitOps, et l'orchestration de conteneurs avec Kubernetes sont des éléments clés qui façonnent les architectures modernes. En adoptant ces pratiques, les entreprises peuvent non seulement améliorer leur posture de sécurité, mais aussi répondre plus rapidement aux exigences réglementaires et aux attentes des utilisateurs.

Cette approche proactive en matière de sécurité pourrait bien être le modèle à suivre pour les institutions financières et d'autres secteurs sensibles, où la confiance et la conformité sont primordiales.

Fiche programme

The Hidden Security Hazards in Your Java Stack

  • Speakers : Brian Vermeer (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : English
  • Créneau : 23/04/2026, 15:40 à 16:25 · Salle Paris 242AB

This session exposes common security pitfalls in cloud-native Java development, such as unsafe dependencies, unverified containers, and overreliance on AI or internet code. Through real-world examples and live demos, attendees learn practical techniques to identify and mitigate these risks, ensuring safer and more secure cloud-native Java applications.

Les dangers cachés de la sécurité dans votre stack Java

Dans un monde où le développement cloud-native est devenu la norme, la sécurité des applications Java est souvent négligée. La session présentée par Brian Vermeer, expert en sécurité chez Snyk, met en lumière les pièges courants qui guettent les développeurs Java, notamment en ce qui concerne les dépendances non vérifiées, les conteneurs non sécurisés et la dépendance excessive aux outils d'IA. Cette analyse approfondie est essentielle pour quiconque souhaite renforcer la sécurité de ses applications Java dans un environnement cloud.

Ce que présente le talk

La session aborde les vulnérabilités spécifiques aux applications Java dans un contexte cloud-native. Brian Vermeer expose les dangers liés à des pratiques de développement rapides et peu rigoureuses, qui peuvent introduire des failles de sécurité. À travers des exemples concrets et des démonstrations en direct, il fournit des techniques pratiques pour identifier et atténuer ces risques, garantissant ainsi des applications Java plus sûres.

Points techniques importants

Architecture et dépendances

  • Dépendances non sécurisées : L'utilisation de bibliothèques tierces sans vérification peut introduire des vulnérabilités majeures. Brian souligne l'importance de gérer les dépendances avec soin, en utilisant des outils d'analyse de sécurité pour détecter les bibliothèques vulnérables avant leur intégration.

  • Conteneurs non vérifiés : Les conteneurs doivent être construits et vérifiés pour éviter d'exposer l'application à des attaques. Brian insiste sur la nécessité d'une validation rigoureuse des images de conteneurs avant leur déploiement.

Sécurité des applications

  • Injection SQL : Une démonstration met en évidence comment une simple erreur dans le code peut mener à des injections SQL. Brian explique que l'utilisation de requêtes préparées et de paramètres est essentielle pour prévenir ce type de vulnérabilité.

  • Cross-Site Scripting (XSS) : Le talk aborde également les risques liés à l'absence de validation des entrées utilisateur, qui peuvent conduire à des attaques XSS. La nécessité de désinfecter et de valider les données d'entrée est soulignée.

Outils et pratiques

  • Outils de sécurité : Brian présente des outils qui aident les développeurs à intégrer la sécurité dès le début du cycle de développement. Cela inclut des analyses de code statique et des vérifications de sécurité des dépendances.

  • Éducation des développeurs : Un point crucial est que les développeurs doivent être formés non seulement à créer du code, mais aussi à identifier les failles potentielles. La culture de la sécurité doit être intégrée dans le processus de développement.

Dépendance à l'IA

  • Risques liés aux assistants IA : Brian met en garde contre une confiance excessive dans les outils d'IA comme Copilot, qui peuvent générer du code vulnérable. Il est impératif de revoir le code généré pour éviter d'introduire des failles.

Ce qu'il faut retenir

  • La sécurité des applications Java dans le cloud nécessite une attention particulière aux dépendances et aux conteneurs.
  • Les développeurs doivent être formés à la sécurité pour mieux identifier et atténuer les risques.
  • L'utilisation d'outils de sécurité et de pratiques de codage sécurisées est essentielle pour protéger les applications contre les attaques.
  • Une dépendance excessive aux outils d'IA peut introduire des vulnérabilités si le code n'est pas vérifié.

Réflexions Darkwood

La session de Brian Vermeer souligne l'évolution nécessaire des systèmes logiciels vers une approche plus sécurisée. À mesure que les environnements de développement deviennent plus complexes et que l'automatisation prend de l'ampleur, il est crucial d'intégrer la sécurité dès les premières étapes du développement. Les agents IA, bien qu'utiles, doivent être utilisés avec prudence, car ils peuvent introduire des failles si leur sortie n'est pas soigneusement examinée.

L'importance croissante de la gouvernance et de l'orchestration dans les architectures modernes ne peut être sous-estimée. Les équipes de développement doivent collaborer étroitement avec les experts en sécurité pour créer des workflows qui garantissent la sécurité tout en maintenant la rapidité de livraison. L'avenir du développement Java, et plus largement du développement logiciel, dépendra de notre capacité à allier innovation et sécurité.

Fiche programme

Sécurisez vos prototypes avec OAuth2-Proxy et Anubis

  • Speakers : David Aparicio (X · LinkedIn · Bluesky · Mastodon)
  • Type : Tools-in-Action
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 17:00 à 17:30 · Salle Paris 241

Ce talk présente OAuth2-Proxy, un reverse proxy open source permettant d’ajouter facilement une authentification centralisée et sécurisée à des applications internes sans modifier leur code. Il montre comment déléguer la connexion à des fournisseurs externes et compléter la protection contre le scrapping via l’outil open source Anubis.

Sécurisez vos prototypes avec OAuth2-Proxy et Anubis

Dans un monde où la sécurité des applications est devenue primordiale, le talk de David Aparicio lors de la conférence Devox aborde une problématique cruciale : comment sécuriser efficacement des prototypes sans alourdir le processus de développement. En se concentrant sur OAuth2-Proxy et Anubis, cette session met en lumière des outils open source qui permettent d'ajouter une couche d'authentification et de protection contre le scrapping, tout en restant accessible aux développeurs de tous niveaux.

Ce que présente le talk

David Aparicio présente OAuth2-Proxy, un reverse proxy open source qui facilite l'ajout d'une authentification centralisée à des applications internes. L'outil permet de déléguer l'authentification à des fournisseurs externes tels que Google ou Azure, tout en évitant de modifier le code des applications existantes. En complément, Anubis est introduit comme une solution pour contrer le scrapping, en vérifiant l'authenticité des requêtes.

Points techniques importants

OAuth2-Proxy : Un reverse proxy pour l'authentification

  • Fonctionnalités : OAuth2-Proxy agit comme un intermédiaire entre l'utilisateur et l'application, gérant l'authentification sans nécessiter de modifications du code source. Il fonctionne en mode middleware ou reverse proxy, offrant une flexibilité selon les besoins architecturaux.
  • Configuration : La configuration d'OAuth2-Proxy est simplifiée grâce à des annotations dans Kubernetes. Cela permet de définir des règles d'authentification sans impacter le développement des applications.
  • Identity Providers (IdP) : L'outil supporte plusieurs IdP, facilitant ainsi l'intégration avec des systèmes d'authentification existants. Cela assure une gestion centralisée des utilisateurs et des accès.

Anubis : Protection contre le scrapping

  • Détection des bots : Anubis utilise des heuristiques pour identifier les requêtes suspectes, notamment celles provenant de scrappers. En cas de doute, il propose un challenge à l'utilisateur pour prouver qu'il s'agit d'un humain et non d'un bot.
  • Comparaison avec des solutions propriétaires : Contrairement à des outils comme Cloudflare ou Akamai, Anubis est open source, ce qui le rend accessible pour des projets de petite taille sans coûts supplémentaires.

Démonstration en direct

David a présenté une démonstration en direct intégrant OAuth2-Proxy avec une application Streamlit. Les étapes incluent :

  • La mise en place d'annotations sur l'ingress Kubernetes pour activer l'authentification.
  • La gestion des groupes d'utilisateurs pour restreindre l'accès à certaines fonctionnalités.
  • La résolution de problèmes liés à la gestion des cookies entre différents environnements (staging et production).

Ce qu'il faut retenir

  • OAuth2-Proxy permet d'ajouter une couche d'authentification sans modifier le code des applications, facilitant ainsi la sécurisation des prototypes.
  • Anubis offre une solution open source pour protéger les applications contre le scrapping, en utilisant des techniques de détection de bots.
  • La configuration et l'intégration de ces outils sont accessibles même pour des développeurs n'ayant pas de compétences avancées en sécurité.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures plus sécurisées et modulaires est inévitable. L'intégration d'outils comme OAuth2-Proxy et Anubis illustre une tendance vers l'automatisation de la sécurité, où les développeurs peuvent se concentrer sur la création de valeur sans être freinés par des préoccupations de sécurité.

Avec l'essor des agents IA et des workflows automatisés, la nécessité de sécuriser les prototypes devient encore plus pressante. Les entreprises doivent adopter des solutions qui non seulement protègent leurs applications, mais qui s'intègrent également harmonieusement dans leurs processus de développement. L'open source, en tant que vecteur d'innovation, joue un rôle clé dans cette transformation, offrant des solutions accessibles et adaptables aux besoins spécifiques de chaque projet.

Fiche programme

La revanche des VMs: sandboxing avec NerdBox

  • Speakers : Nicolas De Loof (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 17:50 à 18:20 · Salle Paris 242AB

Les containers évoluent au-delà de leur statut de commodité, avec des avancées comme containerd 2.2 et NerdBox. Ce nouveau projet facilite la gestion de sandbox sécurisées via microVM, tout en gardant la simplicité des containers et sans privilèges root, répondant ainsi aux nouveaux besoins liés aux agents IA.

La revanche des VMs : sandboxing avec NerdBox

Dans un monde où les containers sont devenus la norme pour le déploiement d'applications, la session présentée par Nicolas De Loof lors de la conférence sur la sécurité et la vie privée nous rappelle que les machines virtuelles (VM) n'ont pas dit leur dernier mot. Avec l'émergence des agents IA et les exigences croissantes en matière de sécurité, le projet NerdBox se positionne comme une solution innovante pour gérer des environnements sécurisés tout en préservant la simplicité d'utilisation des containers.

Ce que présente le talk

Nicolas De Loof aborde l'évolution des containers, qui sont souvent perçus comme une commodité, et met en lumière les avancées notables de containerd 2.2 et du projet NerdBox. Ce dernier permet de créer des environnements de sandbox sécurisés basés sur des microVM, tout en évitant l'utilisation de privilèges root. Cette approche répond à des besoins de sécurité accrus, notamment face aux risques posés par les agents IA qui nécessitent des permissions étendues pour fonctionner.

Points techniques importants

Architecture et fonctionnement de NerdBox

NerdBox s'inscrit dans l'écosystème de containerd, remplaçant le runtime traditionnel par une microVM. Cette architecture permet d'isoler les processus tout en maintenant une interaction fluide avec le système hôte. Voici les points clés de son fonctionnement :

  • MicroVM : Contrairement aux VM traditionnelles, les microVM offrent une empreinte mémoire réduite et un démarrage rapide, ce qui les rend idéales pour des applications légères.
  • HeroFS : Utilisé pour gérer le système de fichiers, HeroFS permet une manipulation efficace des images en couches, optimisant ainsi le temps de démarrage et la gestion des ressources.
  • Interaction avec l'hyperviseur : NerdBox contrôle l'hyperviseur pour créer et gérer les microVM, assurant ainsi une isolation stricte des environnements d'exécution.

Sécurité renforcée

L'un des principaux avantages de l'utilisation de NerdBox est la sécurité accrue qu'elle offre :

  • Isolation des processus : Chaque agent IA fonctionne dans sa propre microVM, limitant les risques de fuite d'informations ou d'accès non autorisé au système hôte.
  • Réduction de la surface d'attaque : En utilisant des microVM, on diminue les vecteurs d'attaque potentiels par rapport aux containers classiques, qui partagent le même noyau.
  • Gestion des permissions : Les agents IA peuvent être exécutés avec des permissions minimales, réduisant ainsi les risques liés à des commandes potentiellement dangereuses.

Performance et expérience développeur (DX)

NerdBox ne sacrifie pas la performance pour la sécurité. Les temps de démarrage des microVM sont optimisés, permettant aux développeurs de bénéficier d'une expérience utilisateur fluide :

  • Démarrage rapide : La création d'une microVM et le démarrage d'un conteneur se font en moins d'une seconde, ce qui est crucial pour le développement agile.
  • Simplicité d'utilisation : L'interface de commande reste proche de celle des containers traditionnels, facilitant l'adoption par les développeurs familiers avec Docker.

Ce qu'il faut retenir

NerdBox représente une avancée significative dans la gestion des environnements d'exécution sécurisés. En combinant la simplicité des containers avec la sécurité des microVM, ce projet répond aux défis contemporains liés à l'exécution de code potentiellement dangereux, notamment dans le contexte des agents IA. La réduction de la surface d'attaque et l'isolation des processus sont des atouts majeurs qui pourraient transformer la manière dont nous déployons et sécurisons nos applications.

Réflexions Darkwood

L'essor des agents IA et leur intégration dans les workflows de développement soulèvent des questions cruciales sur la sécurité et la gouvernance des systèmes logiciels. Alors que les architectures modernes tendent vers une plus grande modularité et flexibilité, des solutions comme NerdBox montrent qu'il est possible de concilier innovation et sécurité. L'automatisation croissante des processus de développement nécessite des environnements de plus en plus sécurisés, et l'utilisation de microVM pourrait devenir une norme dans l'industrie. En somme, l'avenir des systèmes logiciels semble s'orienter vers une orchestration plus fine des ressources, où la sécurité ne sera pas un simple ajout, mais une composante intégrale de l'architecture.

Fiche programme

Chiffrement au repos – Clé maître basée sur un KEM hybride

  • Speakers : Abdelmjid EL KIHEL (LinkedIn)
  • Type : Lunch Talk
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 12:35 à 12:50 · Salle Paris 242AB

Cette présentation illustre la mise en œuvre d’un chiffrement au repos fondé sur un KEM hybride (RFC 9180, JEP 452) combinant cryptographie classique et post‑quantique. Alignée sur les recommandations ANSSI et IETF, l’approche assure rotation des clés, sécurité durable et préparation à la transition post‑quantique d’ici 2030.

Chiffrement au repos – Clé maître basée sur un KEM hybride

La transition vers des systèmes de chiffrement robustes face aux menaces émergentes, notamment celles posées par l'informatique quantique, est devenue un enjeu crucial pour les entreprises. La session présentée par Abdelmjid EL KIHEL lors de ce Lunch Talk aborde la mise en œuvre d’un chiffrement au repos basé sur un KEM hybride, une approche qui allie cryptographie classique et post-quantique. Cette présentation s'inscrit dans un contexte où les recommandations de l'ANSSI et de l'IETF soulignent l'urgence d'une adaptation des systèmes d'information.

Ce que présente le talk

La présentation illustre un mécanisme de chiffrement au repos qui repose sur une hiérarchie de clés, permettant une rotation périodique et garantissant la confidentialité des données sur le long terme. Le KEM hybride, basé sur les spécifications RFC 9180 et JEP 452, vise à assurer que la clé maître conserve son niveau de sécurité tant qu'au moins l'un des algorithmes utilisés reste robuste, qu'il soit classique ou post-quantique.

Points techniques importants

Architecture du système

Le mécanisme de chiffrement présenté repose sur une architecture en plusieurs couches, intégrant à la fois des éléments de cryptographie classique et post-quantique. La hiérarchie de clés permet de limiter l'impact d'une compromission, tout en facilitant la rotation des clés.

KEM hybride

Le KEM (Key Encapsulation Mechanism) hybride combine des algorithmes de cryptographie classique, comme X25519, avec des algorithmes post-quantiques, tels que KEM basé sur Kyber. Cette approche permet de garantir une sécurité immédiate tout en préparant une transition vers des systèmes résilients face aux ordinateurs quantiques.

Sécurité et rotation des clés

La rotation des clés est un aspect central de la solution proposée. En chiffrant les clés de chiffrement de données avec un coffre-fort interactif, le système minimise les risques liés à une éventuelle compromission. La clé maître, quant à elle, est protégée par des algorithmes robustes, garantissant ainsi la confidentialité des données sur le long terme.

Communication sécurisée

Un point crucial abordé est la communication entre le serveur et le coffre-fort. L'utilisation d'un proxy sécurisé dans un réseau interne permet de réduire les risques d'interception. La clé de chiffrement est encapsulée et envoyée de manière sécurisée, assurant ainsi une protection contre les attaques potentielles.

Ce qu'il faut retenir

  • La nécessité d'une transition vers des systèmes de chiffrement post-quantiques est urgente, avec une échéance fixée à 2030 par des organismes comme l'ANSSI et le NIST.
  • L'approche hybride permet de combiner la sécurité actuelle avec des mécanismes post-quantiques, garantissant une protection à long terme.
  • La rotation des clés et l'utilisation de coffres-forts interactifs sont essentielles pour limiter l'impact d'une compromission.

Réflexions Darkwood

L'évolution vers des systèmes de chiffrement résilients face aux menaces quantiques représente un tournant dans l'architecture des systèmes d'information. L'intégration de mécanismes hybrides dans les workflows de sécurité ne se limite pas à une simple adaptation technique, mais s'inscrit dans une vision plus large de gouvernance et d'orchestration des données. Alors que l'automatisation et les agents intelligents prennent une place prépondérante, la nécessité d'une gouvernance rigoureuse des systèmes de sécurité devient impérative. La transition vers des architectures modernes, capables de s'adapter aux évolutions technologiques, est non seulement une question de sécurité, mais également un enjeu stratégique pour l'industrie du développement logiciel.

Fiche programme

OSINT : L’art de trouver ce qui ne devrait pas être trouvé

  • Speakers : Marie Viley (LinkedIn)
  • Type : Lunch Talk
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 24/04/2026, 12:35 à 12:50 · Salle Neuilly 252AB

OSINT : L’art de trouver ce qui ne devrait pas être trouvé

Dans un monde où l’information abonde, la capacité à rechercher efficacement devient un atout majeur. La session animée par Marie Viley, directrice d'agent chez Zenika, explore l'Open Source Intelligence (OSINT), une discipline essentielle qui permet de collecter et d'analyser des données accessibles au public. Ce talk, bien que destiné à un public débutant, aborde des concepts fondamentaux qui méritent l'attention des développeurs et des professionnels de la sécurité.

Ce que présente le talk

Marie Viley introduit l'OSINT comme l'art de collecter et d'analyser des informations publiques pour en tirer des conclusions pertinentes. Elle illustre son propos avec des exemples concrets, allant de la recherche d'appartements à la construction d'arbres généalogiques, avant de plonger dans des applications plus sérieuses, notamment dans le domaine de la cybersécurité.

Points techniques importants

Définition et portée de l'OSINT

L'OSINT englobe une variété de sources d'informations, notamment :

  • Sites web : Articles, blogs, forums.
  • Réseaux sociaux : Profils, publications, interactions.
  • Données géospatiales : Images satellites, cartes.
  • Documents officiels : Registres d'état civil, rapports gouvernementaux.

Techniques et outils

Marie présente plusieurs techniques et outils utilisés en OSINT, illustrant leur efficacité à travers des études de cas :

  • Social Media Intelligence (SOCMINT) : Analyse des données issues des réseaux sociaux pour identifier des individus ou des tendances.
  • Imagery Intelligence (IMINT) : Utilisation d'images pour extraire des informations, comme dans le cas de Strava où des données de géolocalisation ont révélé des emplacements sensibles.
  • Signal Intelligence (SIGINT) : Bien que moins abordé, il s'agit de l'analyse des signaux électroniques pour obtenir des informations.

Études de cas

  1. Strava : L'application de suivi sportif a été utilisée pour localiser des bases militaires en Afghanistan, démontrant les risques associés à la géolocalisation publique.
  2. Enquête sur Christopher Vincent Kinahan : Utilisation de données publiques pour retracer les activités d'un criminel recherché, illustrant comment des ONG et des journalistes peuvent collaborer pour résoudre des affaires complexes.

Ressources et communautés

Marie conclut en partageant des ressources pour ceux qui souhaitent approfondir leurs connaissances en OSINT :

  • Ozin for Fun : Un projet ludique pour s'initier à l'OSINT.
  • OINFR : Une association française dédiée à l'OSINT.
  • CTF (Capture The Flag) : Des défis de cybersécurité intégrant des éléments d'OSINT.

Ce qu'il faut retenir

L'OSINT est une compétence précieuse qui permet d'exploiter des informations accessibles au public pour des applications variées, allant de la recherche personnelle à des enquêtes criminelles. Les techniques et outils présentés par Marie Viley soulignent l'importance d'une approche méthodique et stratégique dans la collecte d'informations.

Réflexions Darkwood

L'essor de l'OSINT s'inscrit dans une tendance plus large vers l'automatisation et l'utilisation d'agents intelligents pour la collecte de données. À mesure que les systèmes deviennent plus interconnectés, la capacité à orchestrer des workflows d'analyse d'informations publiques deviendra cruciale. Les implications en matière de sécurité et de gouvernance sont considérables, notamment en ce qui concerne la protection de la vie privée et la gestion des données sensibles. L'OSINT, loin d'être une simple technique de recherche, représente un levier stratégique dans la lutte contre la cybercriminalité et la désinformation, tout en posant des questions éthiques sur l'utilisation des données accessibles.

Fiche programme

CVE vs CWE : de la correction de failles à l'éradication des causes profondes

  • Speakers : Clara Wiatrowski (X · LinkedIn · Bluesky)
  • Type : Lunch Talk
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 24/04/2026, 13:00 à 13:15 · Salle Neuilly 153

Cette présentation clarifie la différence entre CWE (faiblesses) et CVE (vulnérabilités), explique leur lien, et montre comment passer d’une gestion réactive des failles à une prévention durable via le CWE Top 25. Des exemples concrets et une démo illustrent l’identification et la correction des faiblesses dans le code.

CVE vs CWE : de la correction de failles à l'éradication des causes profondes

Dans un monde où la cybersécurité est devenue une préoccupation majeure pour les entreprises, comprendre la différence entre les failles de sécurité et leurs causes profondes est essentiel. La session présentée par Clara Wiatrowski lors de ce Lunch Talk a mis en lumière les concepts de CVE (Common Vulnerabilities and Exposures) et CWE (Common Weakness Enumeration), en soulignant l'importance d'une approche proactive pour sécuriser le code.

Ce que présente le talk

Clara Wiatrowski, ingénieure Fullstack Java chez NeoXam, a démystifié la relation entre CVE et CWE. Elle a expliqué comment passer d'une gestion réactive des vulnérabilités à une prévention durable en s'appuyant sur le CWE Top 25. La présentation a inclus des exemples concrets et une démonstration en direct, illustrant comment identifier et corriger les faiblesses dans le code.

Points techniques importants

Distinction entre CVE et CWE

  • CVE : Une CVE est une faille de sécurité documentée, identifiant un problème spécifique dans un produit. Elle est gérée par une communauté internationale, fournissant un catalogue public des vulnérabilités.
  • CWE : En revanche, une CWE est une faiblesse dans la conception ou l'implémentation qui peut mener à une CVE. Elle représente le "comment" et le "pourquoi" d'une faille.

Processus de gestion des vulnérabilités

  1. Identification : La découverte d'une CVE nécessite une compréhension approfondie du contexte et du périmètre.
  2. Signalement : Une fois identifiée, la faille doit être signalée à un partenaire du programme CVE pour obtenir un identifiant unique.
  3. Correction : Les informations sont ensuite validées et publiées, permettant aux développeurs de corriger les vulnérabilités dans leurs dépendances.

Importance du CWE Top 25

Le CWE Top 25 est une liste des faiblesses les plus critiques, mise à jour régulièrement pour refléter les évolutions technologiques. Il sert de guide pour les développeurs afin de passer d'une posture réactive à une approche proactive. Les failles les plus fréquentes incluent :

  • Injection SQL
  • Cross-Site Scripting (XSS)
  • Cross-Site Request Forgery (CSRF)

Outils et pratiques recommandés

  • Outils SAST/DAST : Utiliser des outils d'analyse statique et dynamique pour repérer les CWE dans le code.
  • Revue de code : Intégrer le CWE Top 25 dans les processus de revue de code pour identifier les faiblesses dès la phase de développement.

Ce qu'il faut retenir

La session a clairement établi que la correction des CVE ne suffit pas. Il est crucial de comprendre et de traiter les CWE pour garantir un code sécurisé. En intégrant ces concepts dans le cycle de développement, les équipes peuvent non seulement réagir aux vulnérabilités, mais également prévenir leur apparition.

Réflexions Darkwood

La distinction entre CVE et CWE est révélatrice des défis actuels en matière de sécurité logicielle. Alors que les systèmes deviennent de plus en plus complexes, l'automatisation et l'intégration des agents IA dans les workflows de développement peuvent jouer un rôle clé dans la détection et la correction des faiblesses. L'orchestration de ces outils, couplée à une gouvernance rigoureuse des pratiques de développement, pourrait transformer la manière dont les entreprises abordent la sécurité. En fin de compte, l'évolution vers des architectures modernes et résilientes repose sur la capacité à éradiquer les causes profondes des vulnérabilités, plutôt que de se limiter à des solutions temporaires.

Fiche programme

Autorisation avec Spring Security: permissions, roles et plus encore

  • Speakers : Daniel Garnier-Moiroux (LinkedIn · Bluesky · Mastodon)
  • Type : 3H Deep Dive
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 13:30 à 16:30 · Salle Paris 241

Cette présentation explore la gestion avancée de l’autorisation avec Spring Security pour Spring Boot, détaillant l’extraction des permissions lors du login, la définition des points de décision, et l’implémentation concrète. Des exemples pratiques illustrent les patterns de contrôle d’accès et les compromis entre différentes méthodes d’autorisation.

Autorisation avec Spring Security : permissions, rôles et plus encore

Dans un monde où la sécurité des applications est devenue une préoccupation majeure, la gestion des autorisations est un enjeu crucial. La session présentée par Daniel Garnier-Moiroux lors de la conférence aborde en profondeur l'utilisation de Spring Security pour gérer les permissions et les rôles dans les applications Spring Boot. Ce talk est particulièrement pertinent pour les développeurs intermédiaires souhaitant approfondir leur compréhension des mécanismes d'autorisation au sein de l'écosystème Spring.

Ce que présente le talk

La présentation se concentre sur la gestion avancée de l’autorisation avec Spring Security, en détaillant les étapes clés du processus, depuis l'extraction des permissions lors du login jusqu'à la définition des points de décision et l'implémentation concrète de ces mécanismes. À travers des exemples pratiques et du live-coding, Daniel illustre les différents patterns de contrôle d'accès et les compromis associés à chaque méthode d'autorisation.

Points techniques importants

Architecture de Spring Security

Spring Security repose sur une architecture modulaire qui permet d'intégrer facilement des mécanismes de sécurité dans les applications Spring Boot. Daniel souligne l'importance de la séparation des préoccupations entre la logique métier et la logique de sécurité, en plaçant les règles d'autorisation dans des classes dédiées.

Authentification et Autorisation

  • Authentification : Le processus d'identification de l'utilisateur est central. Spring Security utilise une interface Authentication qui contient le principal (identité de l'utilisateur) et les autorités (rôles et permissions).
  • Autorisation : Les règles d'autorisation sont définies à l'aide de méthodes telles que .hasRole("..."). Daniel explique comment ces règles peuvent être appliquées à différents niveaux, que ce soit au niveau des endpoints HTTP ou des méthodes de service.

Points de décision et enforcement

Daniel aborde la nécessité de définir des points de "policy decision" et "policy enforcement" dans le contexte d'une requête. Cela implique de déterminer où et comment les décisions d'autorisation sont prises et appliquées.

Patterns de contrôle d'accès

La session explore plusieurs patterns de contrôle d'accès, notamment :

  • Contrôle d'accès basé sur les rôles (RBAC) : Utilisation de rôles pour déterminer les permissions.
  • Contrôle d'accès basé sur les attributs (ABAC) : Approche plus granulaire qui permet de définir des permissions basées sur des attributs spécifiques des utilisateurs.

Trade-offs entre différentes méthodes d'autorisation

Daniel discute des compromis associés à chaque méthode d'autorisation, soulignant que le choix d'une approche dépend souvent des exigences spécifiques de l'application et des risques de sécurité associés.

Live-coding et exemples pratiques

Le live-coding permet d'illustrer les concepts en temps réel. Daniel montre comment configurer Spring Security pour gérer les utilisateurs, les rôles et les permissions, tout en respectant les bonnes pratiques de développement.

Ce qu'il faut retenir

  • Séparation des préoccupations : La logique de sécurité doit être distincte de la logique métier.
  • Modularité : Spring Security offre une architecture modulaire qui facilite l'intégration de la sécurité dans les applications.
  • Flexibilité des autorisations : Les développeurs peuvent choisir entre plusieurs méthodes d'autorisation, chacune ayant ses avantages et inconvénients.
  • Importance du live-coding : Les exemples pratiques renforcent la compréhension des concepts abordés.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une architecture plus sécurisée et modulaire est essentielle dans le contexte actuel, où les menaces à la sécurité sont omniprésentes. L'automatisation des processus d'autorisation, couplée à l'utilisation d'agents intelligents pour surveiller et adapter les politiques de sécurité en temps réel, pourrait transformer la manière dont nous concevons la sécurité des applications. L'intégration de telles solutions dans des workflows d'orchestration modernes permettra non seulement de renforcer la sécurité, mais aussi d'améliorer l'expérience développeur (DX) en simplifiant la gestion des permissions et des rôles. En somme, la session de Daniel Garnier-Moiroux offre des perspectives précieuses sur l'avenir de la sécurité dans le développement d'applications.

Fiche programme

Theory to Practice: Real-World Lessons in Post-Quantum Cryptography Migration

  • Speakers : Akihiro Nishikawa (X · LinkedIn · Bluesky · Mastodon)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : English
  • Créneau : 24/04/2026, 13:30 à 14:15 · Salle Paris 242AB

This session demystifies Post-Quantum Cryptography (PQC) migration by sharing practical lessons and best practices from real-world projects. Attendees will learn PQC fundamentals, discover common pitfalls, and gain actionable strategies for integrating PQC into both legacy and new systems, ensuring security and performance in a quantum-ready future.

Theory to Practice: Real-World Lessons in Post-Quantum Cryptography Migration

La cryptographie post-quantique (PQC) représente un tournant décisif dans la sécurité numérique, face à l'émergence des ordinateurs quantiques capables de compromettre les standards cryptographiques actuels. La session présentée par Akihiro Nishikawa, de Microsoft, lors de Devoxx France, se concentre sur les leçons pratiques de la migration vers la PQC, offrant des stratégies concrètes pour intégrer ces nouvelles normes dans des systèmes existants. Dans un contexte où la transition est non seulement inévitable mais urgente, ce talk s'avère crucial pour les développeurs et les architectes systèmes.

Ce que présente le talk

Nishikawa aborde les défis et les meilleures pratiques pour migrer vers la PQC, en s'appuyant sur des expériences réelles. Il commence par une introduction aux fondamentaux de la PQC, puis explore les obstacles rencontrés lors de projets de migration et propose des solutions pratiques pour les surmonter. L'accent est mis sur l'importance d'une adoption précoce et sur les implications de la cryptographie quantique pour la sécurité des données à long terme.

Points techniques importants

Fondamentaux de la PQC

  • Définition : La PQC désigne des algorithmes cryptographiques conçus pour résister aux attaques des ordinateurs quantiques. Contrairement aux algorithmes classiques, ceux-ci doivent être capables de fonctionner sur des ordinateurs classiques tout en offrant une sécurité accrue.
  • Algorithmes clés : Les algorithmes ML-KEM pour l'échange de clés et ML-DSA pour les signatures numériques sont au cœur de cette transition. Nishikawa mentionne également des noms comme Kyber et Dilithium, qui sont des références dans le domaine.

Migration et intégration

  • Problèmes de migration : L'un des principaux défis identifiés est de localiser où la cryptographie est déjà utilisée dans les systèmes existants. Même des services apparemment simples, comme un service Spring Boot, peuvent cacher une complexité cryptographique sous-jacente.
  • Stratégies d'inventaire : Nishikawa propose un modèle en quatre couches pour inventorier l'utilisation de la cryptographie :
    1. Dépendances : Identifier la cryptographie intégrée via des bibliothèques ou des pilotes.
    2. Code source : Analyser où l'application utilise effectivement la cryptographie.
    3. Configuration : Examiner les paramètres de configuration qui activent la cryptographie sans code Java explicite.
    4. Capacités d'exécution : Évaluer ce que la JVM peut utiliser et ce qui est effectivement utilisé lors des échanges de trafic.

Outils et support Java

  • Support Java pour la PQC : Nishikawa souligne que Java a déjà intégré des fonctionnalités pour faciliter la migration, notamment via Bouncy Castle et les API standard JSSCE dans Java 27, qui introduisent le TLS hybride.
  • TLS hybride : Cette approche permet d'utiliser simultanément des méthodes de cryptographie classiques et post-quantiques, garantissant ainsi une transition en douceur sans rupture de production.

Ce qu'il faut retenir

  • La migration vers la PQC est non seulement nécessaire mais urgente, surtout pour les systèmes qui doivent conserver des données sensibles pendant plus de cinq ans.
  • La découverte et l'inventaire des usages cryptographiques existants sont des étapes cruciales avant toute migration.
  • Java offre des outils et des API qui permettent d'intégrer progressivement la PQC, minimisant ainsi les risques et les interruptions de service.

Réflexions Darkwood

La transition vers la cryptographie post-quantique illustre l'évolution nécessaire des systèmes logiciels face aux menaces émergentes. Alors que l'automatisation et l'orchestration deviennent des normes dans le développement logiciel, la migration vers la PQC nécessite une gouvernance rigoureuse et une planification stratégique. Les entreprises doivent non seulement adopter ces nouvelles normes, mais aussi anticiper les impacts sur leurs workflows et leurs architectures. En intégrant des agents d'IA pour surveiller et adapter les systèmes à ces nouvelles exigences, l'industrie peut non seulement garantir la sécurité des données, mais aussi optimiser la performance des applications dans un monde de plus en plus quantique.

Fiche programme

Are We Ready For The Next Cyber Security Crisis Like Log4Shell?

  • Speakers : Soroosh Khodami (X · LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : English
  • Créneau : 24/04/2026, 14:35 à 15:20 · Salle Neuilly 153

This session explores practical strategies to secure the software development lifecycle against modern threats like supply chain attacks and AI-era vulnerabilities. Topics include real-world attack demonstrations, CI/CD security best practices, SBOM benefits, and the role of DevSecOps, with insights relevant to both startups and large enterprises.

Are We Ready For The Next Cyber Security Crisis Like Log4Shell?

Dans un contexte où la cybersécurité est devenue une préoccupation majeure pour les entreprises de toutes tailles, la session animée par Soroosh Khodami lors de la conférence Voxxed Days aborde des enjeux cruciaux liés à la sécurité des cycles de développement logiciel. Avec des menaces modernes telles que les attaques de la chaîne d'approvisionnement et les vulnérabilités de l'ère de l'IA, il est impératif de se préparer à de potentielles crises similaires à celle de Log4Shell.

Ce que présente le talk

La session se concentre sur des stratégies pratiques pour sécuriser le cycle de développement logiciel face aux menaces contemporaines. Soroosh illustre ses propos par des démonstrations en direct d'attaques réelles, tout en détaillant les meilleures pratiques de sécurité pour les pipelines CI/CD, les avantages des Software Bills of Materials (SBOM), et le rôle essentiel du DevSecOps.

Points techniques importants

Attaques de la chaîne d'approvisionnement

Soroosh commence par définir ce qu'est une attaque de la chaîne d'approvisionnement, illustrée par une démonstration d'une attaque par injection SQL qui mène à un accès root à un cluster Kubernetes. Ce type d'attaque exploite des vulnérabilités dans les dépendances de logiciels, ce qui permet aux attaquants de compromettre des systèmes entiers.

Démonstrations pratiques

Les démonstrations pratiques sont au cœur de la session. Soroosh exécute des commandes banales telles que Maven verify et npm install, montrant comment des bibliothèques tierces peuvent introduire des vulnérabilités. Par exemple, en ajoutant une dépendance innocente comme Gson, il démontre comment un attaquant peut obtenir un accès interactif à un système.

Meilleures pratiques pour CI/CD

Les meilleures pratiques de sécurité pour les pipelines CI/CD sont discutées, notamment :

  • Validation des dépendances : S'assurer que toutes les dépendances sont vérifiées et mises à jour régulièrement.
  • Utilisation des SBOM : Les Software Bills of Materials permettent de garder une trace des composants logiciels utilisés, facilitant ainsi la gestion des vulnérabilités.
  • Intégration du DevSecOps : L'approche DevSecOps vise à intégrer la sécurité dès le début du cycle de développement, plutôt que de l'ajouter comme une réflexion après coup.

Vulnérabilités de l'ère de l'IA

Soroosh aborde également les nouvelles vulnérabilités qui émergent avec l'IA, soulignant que les attaquants exploitent ces technologies pour automatiser et améliorer leurs méthodes d'attaque. Les organisations doivent donc être vigilantes face à ces nouvelles menaces.

Ce qu'il faut retenir

  • Préparation à la crise : Les entreprises doivent se préparer à des crises de cybersécurité similaires à Log4Shell en adoptant des pratiques de sécurité robustes.
  • Importance des SBOM : Les Software Bills of Materials sont essentiels pour la gestion des dépendances et la sécurité des logiciels.
  • Rôle crucial du DevSecOps : Intégrer la sécurité dans le développement logiciel dès le départ est non seulement une meilleure pratique, mais une nécessité dans le paysage actuel.

Réflexions Darkwood

La session de Soroosh Khodami met en lumière l'évolution des systèmes logiciels face à des menaces de plus en plus sophistiquées. L'automatisation et l'intégration de l'IA dans les workflows de développement apportent des bénéfices indéniables, mais elles augmentent également la surface d'attaque. La gouvernance et l'orchestration des processus de développement doivent évoluer pour intégrer des mesures de sécurité proactives, garantissant ainsi que la confiance entre les composants logiciels ne soit pas compromise. Dans un monde où chaque ligne de code peut potentiellement ouvrir la porte à des attaques, il est impératif que les développeurs adoptent une mentalité de sécurité intégrée, transformant ainsi la cybersécurité en une responsabilité collective.

Fiche programme

Steel for Vulnerabilities, Silver for Zombies: Hunting Java's Unseen Monsters

  • Speakers : Steve Poole (X · LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : English
  • Créneau : 24/04/2026, 14:35 à 15:20 · Salle Paris 242AB

The session examines the hidden economics and sustainability of Java’s open-source supply chain, highlighting infrastructure costs, EU compliance pressures, and maintainer challenges. It reveals risks from unnoticed end-of-life dependencies and offers practical methods to detect them and decide when third-party EOL support is preferable to rushed migrations.

Steel for Vulnerabilities, Silver for Zombies: Hunting Java's Unseen Monsters

La session animée par Steve Poole, représentant de HeroDevs, aborde un sujet crucial dans le domaine de la sécurité logicielle : la gestion des dépendances en Java, en particulier celles qui sont obsolètes ou non maintenues, souvent appelées "dépendances zombies". Dans un contexte où la conformité réglementaire et la sécurité des chaînes d'approvisionnement logicielle sont de plus en plus scrutées, ce talk met en lumière des enjeux souvent négligés par les développeurs.

Ce que présente le talk

La présentation explore les défis liés à la durabilité et à la sécurité des dépendances open-source en Java. Poole souligne que, bien que les outils de sécurité comme Snyk et Dependabot soient efficaces pour détecter les vulnérabilités connues, ils ne suffisent pas à identifier les dépendances en fin de vie (EOL). L'intervenant propose des méthodes pratiques pour évaluer ces dépendances et décider si un support tiers est préférable à des migrations précipitées.

Points techniques importants

Architecture et dépendances

Le talk commence par une analyse de la chaîne d'approvisionnement logicielle, définie comme l'ensemble des processus, outils et artefacts nécessaires à la création d'un logiciel. Poole met en avant que, dans une application Java moderne, environ 90 % du code provient de dépendances externes, ce qui rend la gestion de ces dernières cruciale pour la sécurité et la maintenance.

Dépendances zombies

Les "dépendances zombies" sont des bibliothèques qui, bien qu'elles ne présentent pas de vulnérabilités connues, ne sont plus maintenues. Poole met en garde contre le fait que ces dépendances peuvent devenir des vecteurs de risque lors des audits de conformité, notamment avec des régulations comme l'EU Cyber Resilience Act. Il est essentiel de surveiller ces dépendances pour éviter des problèmes futurs.

Outils de sécurité

L'intervenant évoque plusieurs outils pour renforcer la sécurité des dépendances :

  • Snyk & Dependabot : Pour la détection des vulnérabilités connues.
  • OpenSSF Scorecards & deps.dev : Pour suivre les "signes vitaux" des mainteneurs de dépendances.
  • HeroDevs EOL Data : Pour identifier les dépendances qui ont atteint leur fin de vie.

Ces outils permettent de construire une pile Java non seulement sécurisée, mais aussi durable.

Risques et menaces

Poole aborde également la montée des cybermenaces, en soulignant que les acteurs malveillants utilisent des techniques avancées, y compris l'intelligence artificielle, pour exploiter les vulnérabilités des dépendances. Il met en lumière des méthodes comme le "typosquatting" et la "confusion de dépendances", qui exploitent les failles de la chaîne d'approvisionnement logicielle.

Ce qu'il faut retenir

La sécurité des applications Java ne se limite pas à la détection des vulnérabilités connues. Les dépendances en fin de vie, souvent ignorées, représentent un risque croissant. Les développeurs doivent adopter une approche proactive en utilisant des outils adaptés pour surveiller et gérer ces dépendances, tout en restant vigilants face à l'évolution des menaces.

Réflexions Darkwood

La session de Steve Poole soulève des questions fondamentales sur l'évolution des systèmes logiciels et la nécessité d'une gouvernance rigoureuse des dépendances. À mesure que les architectures modernes deviennent de plus en plus complexes, la gestion des dépendances et la sécurité de la chaîne d'approvisionnement doivent être intégrées dès le début du cycle de développement. L'automatisation des workflows de sécurité, combinée à l'utilisation d'agents IA pour surveiller les dépendances, pourrait transformer la manière dont les développeurs abordent la sécurité, rendant les systèmes non seulement plus résilients, mais également plus adaptables face aux menaces émergentes.

Fiche programme

De développeur à hacker : savoir casser, c'est savoir protéger ⚔️

  • Speakers : Florian Toulemont (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 15:40 à 16:25 · Salle Maillot

Ce talk montre pourquoi intégrer la cybersécurité au cœur du développement est essentiel. En adoptant la vision d’un attaquant, les développeurs renforcent la robustesse de leurs systèmes. L’objectif : apprendre les bases du hacking pour anticiper les failles et coder en pensant dès l’origine à la sécurité.

De développeur à hacker : savoir casser, c'est savoir protéger ⚔️

La cybersécurité est devenue un enjeu incontournable dans le développement logiciel. Avec l'augmentation des cyberattaques, il est essentiel pour les développeurs de comprendre non seulement comment protéger leurs systèmes, mais aussi comment les attaquer. Le talk de Florian Toulemont, architecte cybersécurité chez Softeam, propose une approche innovante : adopter la perspective d'un hacker pour renforcer la sécurité dès la phase de développement.

Ce que présente le talk

Florian Toulemont aborde l'importance d'intégrer la cybersécurité au cœur du processus de développement. En se mettant dans la peau d'un attaquant, les développeurs peuvent mieux anticiper les failles potentielles et coder avec une mentalité de protection. Le talk vise à convaincre les participants que penser comme un hacker est essentiel pour créer des systèmes robustes et sécurisés.

Points techniques importants

L'importance de la cybersécurité

  • Statistiques alarmantes : En 2025, on estime que 900 millions d'attaques cybernétiques auront lieu, entraînant des pertes financières colossales, notamment 120 milliards d'euros pour la France.
  • Rôles des hackers : Trois types de hackers sont définis :
    • Black Hat : Hackers malveillants, motivés par le profit.
    • Gray Hat : Hackers idéologiques, souvent motivés par des causes personnelles.
    • White Hat : Hackers éthiques, qui testent les systèmes pour en améliorer la sécurité.

Équipes de cybersécurité

  • Blue Team : Équipe défensive, composée de développeurs et d'opérationnels, responsable de la mise en place de mesures de sécurité.
  • Red Team : Équipe offensive, chargée d'identifier et d'exploiter les vulnérabilités des systèmes.

Méthodologie de hacking éthique

Florian souligne l'importance de passer d'une mentalité de protection à une mentalité d'attaque pour mieux sécuriser les systèmes. Il introduit plusieurs concepts clés :

  • Triade CIA : Confidentialité, Intégrité, Disponibilité. Chaque application doit être évaluée selon ces critères pour identifier les vulnérabilités.
  • Outils de reconnaissance et de scanning : Des outils comme NMAP, Fuf et Dirb permettent de scanner les ports et d'identifier les vecteurs d'attaque.
  • Analyse de vulnérabilité : Utilisation d'outils comme Burp Suite et SQLMap pour tester les failles potentielles dans les applications.

Intégration continue et sécurité

Florian insiste sur l'importance de l'intégration continue dans le développement sécurisé. Chaque commit doit être soumis à des vérifications de sécurité, notamment :

  • Analyse SAST : Vérification statique du code pour détecter les failles.
  • Analyse de dépendances : Identification des bibliothèques tierces vulnérables.
  • Gestion des secrets : Prévention des fuites d'informations sensibles dans le code.
  • Analyse dynamique : Tests en temps réel pour évaluer la résistance de l'application.

Ce qu'il faut retenir

Le talk de Florian Toulemont met en lumière l'importance cruciale de la cybersécurité dans le développement logiciel. En adoptant une mentalité de hacker, les développeurs peuvent anticiper les menaces et renforcer la sécurité de leurs systèmes. Les outils et méthodologies présentés permettent d'intégrer la sécurité de manière proactive tout au long du cycle de développement.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une approche plus sécurisée est inévitable. L'intégration de la cybersécurité dès les premières étapes de développement est essentielle pour faire face à un paysage de menaces en constante évolution. L'automatisation des tests de sécurité et l'utilisation d'agents IA pour détecter les vulnérabilités en temps réel pourraient transformer la manière dont nous concevons et développons des systèmes. En adoptant une approche proactive, les développeurs ne se contentent pas de protéger leurs applications, mais participent activement à la gouvernance et à la résilience des infrastructures numériques.

Fiche programme

Hackez la "Due Diligence" : 70 jours/homme sauvés grâce à gemini-cli

  • Speakers : Ahmed Boussadia (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : ADVANCED
  • Langue : French
  • Créneau : 24/04/2026, 17:00 à 17:30 · Salle Neuilly 251

QuickSign automatise les fastidieux questionnaires de sécurité bancaires grâce à gemini‑cli. Le talk détaille la structuration documentaire pour contextualiser l’IA, la mise en œuvre du scripting et l’automatisation des réponses. Résultat : une forte réduction de la charge administrative et une meilleure cohérence des réponses en conformité et cybersécurité.

Hackez la "Due Diligence" : 70 jours/homme sauvés grâce à gemini-cli

L'automatisation des processus administratifs dans le domaine de la cybersécurité est devenue une nécessité pour les entreprises, notamment celles travaillant avec des institutions financières. Dans ce contexte, la session animée par Ahmed Boussadia, de QuickSign, aborde une problématique cruciale : la lourdeur des questionnaires de sécurité et comment l'outil gemini-cli permet de réduire significativement la charge de travail associée.

Ce que présente le talk

Le talk se concentre sur l'automatisation des questionnaires de sécurité, souvent perçus comme un fardeau administratif. QuickSign, avec une clientèle majoritairement composée de banques et d'institutions financières, a identifié que la gestion de ces questionnaires représentait entre 60 et 75 jours-homme par an. L'objectif est de libérer ce temps pour se concentrer sur des tâches plus stratégiques en matière de cybersécurité, tout en garantissant la conformité réglementaire.

Points techniques importants

Structuration documentaire

L'un des premiers points abordés est la nécessité de structurer correctement la base documentaire. Cela inclut des éléments tels que :

  • PSSI (Politique de Sécurité des Systèmes d'Information) : Document essentiel qui définit les règles de sécurité à suivre.
  • Audits : Vérifications régulières pour s'assurer que les pratiques de sécurité sont respectées.

Cette structuration permet à l'IA, notamment à travers gemini-cli, de mieux comprendre le contexte et de fournir des réponses adaptées aux questionnaires.

Utilisation de gemini-cli

Ahmed Boussadia présente une démo de gemini-cli, un outil qui permet de scripter et d'automatiser le traitement des réponses aux questionnaires. Les points clés incluent :

  • Scripting : Création de scripts pour automatiser le remplissage des réponses.
  • Traitement par lots : Capacité à gérer plusieurs questionnaires simultanément, ce qui réduit le temps de traitement.

Résultats obtenus

L'implémentation de gemini-cli a conduit à une réduction drastique de la charge de travail. Les résultats incluent :

  • Amélioration de la cohérence : Les réponses fournies sont plus uniformes et conformes aux exigences réglementaires.
  • Gain de temps : Les 60 à 75 jours-homme sont considérablement réduits, permettant aux équipes de se concentrer sur des tâches à plus forte valeur ajoutée.

Conformité et cybersécurité

Le talk souligne également l'importance de la conformité dans le secteur financier, avec des références à des réglementations telles que le RGPD et la directive DORA. Ces réglementations imposent des exigences strictes en matière de sécurité et de documentation, ce qui rend l'automatisation d'autant plus pertinente.

Ce qu'il faut retenir

L'automatisation des processus de "due diligence" à l'aide de gemini-cli représente une avancée significative pour les entreprises du secteur financier. En structurant correctement la documentation et en utilisant des outils adaptés, il est possible de réduire considérablement la charge administrative tout en améliorant la qualité des réponses fournies. Cette démarche permet non seulement de gagner du temps, mais aussi de renforcer la conformité et la cybersécurité.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une automatisation accrue est inévitable, surtout dans des domaines aussi réglementés que la finance. L'intégration d'agents d'IA dans les workflows de conformité et de cybersécurité pourrait transformer la manière dont les entreprises gèrent leurs obligations réglementaires. En adoptant des outils comme gemini-cli, les organisations peuvent non seulement optimiser leurs processus, mais aussi se préparer à un avenir où l'automatisation et l'intelligence artificielle joueront un rôle central dans la gouvernance des systèmes d'information. Cette tendance soulève des questions sur la nécessité d'une gouvernance solide et d'une architecture moderne capable de s'adapter à ces changements rapides.

Fiche programme

Server-side & Cloud Platforms

Bootiful Spring Boot 4!

  • Speakers : Josh Long (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : English
  • Créneau : 22/04/2026, 10:30 à 11:15 · Salle Maillot

Discover the advancements in Spring Boot 4.x and Java 25+, including AI integration, modularity, data access, enhanced security, and production optimizations like virtual threads and GraalVM. Learn how these features empower developers to build faster, more scalable, secure, and intelligent applications and services for the future.

Bootiful Spring Boot 4!

L'arrivée de Spring Boot 4.x et de Java 25+ marque une étape significative pour les développeurs Java et Kotlin. Avec des avancées telles que l'intégration de l'IA, la modularité, l'accès aux données, et des optimisations de production comme les threads virtuels et GraalVM, cette session animée par Josh Long explore comment ces nouvelles fonctionnalités permettent de construire des applications et services plus rapides, évolutifs, sécurisés et intelligents.

Ce que présente le talk

Josh Long nous plonge dans les nouveautés de Spring Boot 4.x, en mettant en avant les améliorations apportées par Java 25+. Au programme : une exploration des capacités de modularité, de sécurité renforcée, et d'optimisations de production. L'objectif est de montrer comment ces outils peuvent transformer le développement d'applications modernes.

Points techniques importants

Avancées de Spring Boot 4.x

  • Modularité : Spring Boot 4 introduit une approche modulaire, permettant aux développeurs de choisir des composants spécifiques tels que le client HTTP ou le support de Spring Data JDBC, facilitant ainsi la personnalisation des applications.
  • Accès aux données : L'intégration de Spring Data JDBC simplifie les interactions avec les bases de données, rendant le développement de la couche d'accès aux données plus fluide.

Nouvelles fonctionnalités de Java 25+

  • Threads virtuels : Avec Project Loom, Java 25 introduit des threads virtuels qui améliorent la gestion de la concurrence, permettant de traiter des milliers de requêtes simultanément sans surcharge significative.
  • Compilation AOT (Ahead-of-Time) : Cette fonctionnalité permet de compiler le code avant son exécution, améliorant ainsi les performances au démarrage des applications.

Sécurité et résilience

  • API Versioning : Spring Boot 4 facilite la gestion des versions d'API, permettant aux développeurs de maintenir plusieurs versions d'une API sans complexité excessive.
  • Résilience : De nouvelles capacités de gestion des erreurs, inspirées de Spring Cloud, permettent de rendre les applications plus robustes face aux pannes, en intégrant des mécanismes de retry et de limitation de la concurrence.

Observabilité et production

  • OpenTelemetry et Actuator : L'intégration d'OpenTelemetry et des outils d'Actuator améliore la visibilité des applications en production, permettant de surveiller et de diagnostiquer les performances en temps réel.

Ce qu'il faut retenir

Spring Boot 4.x et Java 25+ offrent une panoplie de nouvelles fonctionnalités qui transforment le paysage du développement Java. La modularité, les optimisations de performance, et les améliorations en matière de sécurité et de résilience sont des atouts majeurs pour les développeurs souhaitant construire des systèmes modernes et évolutifs.

Réflexions Darkwood

L'évolution vers des architectures modernes, comme celles proposées par Spring Boot 4, souligne une tendance vers une plus grande automatisation et modularité dans le développement logiciel. L'intégration de l'IA et des outils d'observabilité comme OpenTelemetry ouvre la voie à des systèmes plus intelligents et réactifs. Alors que les workflows deviennent de plus en plus complexes, la capacité à orchestrer ces éléments de manière fluide sera cruciale pour la gouvernance des systèmes logiciels. En somme, ces avancées ne sont pas seulement techniques, elles redéfinissent la manière dont nous concevons et construisons des applications, en plaçant l'accent sur la résilience et l'intelligence des systèmes.

Fiche programme

Production Troubleshooting : boostez vos skills, une étude de cas

  • Speakers : William Montaz
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 11:35 à 12:20 · Salle Paris 143

À partir d’un incident réel impliquant des jobs Spark corrompant des données, cette session explore une méthode rigoureuse d’investigation technique : formuler et tester des hypothèses, éviter les biais, distinguer corrélation et cause réelle. Objectif : apprendre à diagnostiquer efficacement tout incident complexe, même en environnement incertain.

Production Troubleshooting : boostez vos skills, une étude de cas

Dans un monde où la complexité des systèmes distribués s'accroît, la capacité à diagnostiquer des incidents critiques devient essentielle. La session présentée par William Montaz, de Criteo, aborde cette problématique à travers une étude de cas concrète impliquant des jobs Spark générant des données corrompues. Ce talk est particulièrement pertinent pour les développeurs et ingénieurs systèmes qui doivent naviguer dans des environnements incertains et souvent chaotiques.

Ce que présente le talk

William Montaz nous plonge dans une enquête technique rigoureuse, illustrée par un incident réel. L'objectif est d'apprendre à formuler et tester des hypothèses, tout en évitant les biais cognitifs qui peuvent fausser notre diagnostic. À travers l'exemple de jobs Spark, il démontre comment décomposer un problème complexe en éléments clairs et testables, tout en gardant à l'esprit la nécessité d'une approche méthodique.

Points techniques importants

Méthodologie d'investigation

  1. Formulation d'hypothèses : Montaz insiste sur l'importance de poser des hypothèses claires et testables, plutôt que de se laisser guider par des intuitions ou des coupables évidents.
  2. Élimination des biais : Le biais de confirmation peut gravement entraver notre capacité à diagnostiquer des problèmes. L'orateur propose des stratégies pour éviter de tomber dans ce piège.
  3. Analyse des corrélations : Distinguer entre corrélations et véritables causes est crucial pour un diagnostic efficace.

Contexte technique

  • Infrastructure de Criteo : Montaz décrit une architecture complexe, avec environ 3000 serveurs et des jobs tournant 24/7. La migration vers un nouveau datacenter à Paris ajoute une couche de complexité, notamment en raison de la latence réseau entre Amsterdam et Paris.
  • Utilisation de Spark : Bien que Spark soit le cadre utilisé, l'accent est mis sur la méthodologie plutôt que sur la technologie elle-même. Montaz explique le fonctionnement de MapReduce comme un paradigme de traitement distribué, essentiel pour comprendre les jobs Spark.

Cas d'étude : Jobs Spark corrompant des données

  • Incident déclencheur : Des alertes signalent des comportements anormaux dans les pipelines de données, avec des doublons et des lignes manquantes. L'investigation révèle que le problème est intermittent, ce qui complique le diagnostic.
  • Stratégie d'enquête : Montaz démontre comment recueillir des indices, analyser les logs et tester des hypothèses pour isoler la cause réelle du problème.

Ce qu'il faut retenir

  • La capacité à diagnostiquer des incidents complexes repose sur une méthodologie rigoureuse, incluant la formulation d'hypothèses et l'élimination des biais.
  • L'architecture distribuée de systèmes comme Spark nécessite une compréhension approfondie des interactions entre les composants et des impacts de la latence réseau.
  • Les incidents en production ne sont pas seulement des problèmes techniques, mais également des défis organisationnels qui nécessitent une approche systématique et collaborative.

Réflexions Darkwood

La session de William Montaz met en lumière l'évolution nécessaire des pratiques de diagnostic dans un monde où les systèmes deviennent de plus en plus interconnectés et complexes. L'automatisation et l'orchestration des workflows sont des éléments clés pour gérer cette complexité. À mesure que les agents IA prennent une place prépondérante dans l'analyse des incidents, il est crucial de développer des méthodologies qui intègrent ces outils tout en maintenant une approche humaine et critique. La gouvernance des données et la résilience des architectures modernes doivent également être au cœur des préoccupations des entreprises, car elles façonnent l'avenir du développement logiciel et de l'ingénierie des systèmes.

Fiche programme

Comment le protocole BGP fait fonctionner Internet —et peut le faire disparaître

  • Speakers : Paul Jeannot (X · LinkedIn · Bluesky)
  • Type : Lunch Talk
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 13:00 à 13:15 · Salle Neuilly 153

Comment le protocole BGP fait fonctionner Internet — et peut le faire disparaître

Le protocole Border Gateway Protocol (BGP) est souvent considéré comme le pilier invisible d'Internet. Dans un monde où des pannes massives de services en ligne font régulièrement la une des journaux, comprendre le fonctionnement de BGP devient essentiel. Ce talk, présenté par Paul Jeannot, Head of Engineering chez Sêmeia, dépeint non seulement les mécanismes de BGP, mais souligne également les conséquences potentiellement catastrophiques d'une mauvaise configuration.

Ce que présente le talk

En 15 minutes, Paul Jeannot nous offre une introduction accessible au BGP, expliquant comment ce protocole permet aux différents réseaux de communiquer entre eux. À travers des exemples concrets, il illustre comment une simple erreur peut entraîner des interruptions de service à l'échelle mondiale. Le talk se concentre sur deux aspects : le fonctionnement théorique de BGP et des cas d'incidents marquants qui ont mis en lumière ses failles.

Points techniques importants

Architecture et fonctionnement de BGP

BGP est un protocole de routage qui permet aux systèmes autonomes (AS) de partager des informations sur les chemins d'accès aux adresses IP. Chaque AS, qu'il s'agisse d'un fournisseur d'accès Internet, d'une entreprise ou d'une institution, gère ses propres règles et adresses IP.

  • Systèmes autonomes (AS) : Les AS sont des réseaux indépendants qui choisissent de communiquer entre eux. Chaque AS possède un routeur BGP qui agit comme un point de contact avec ses voisins.
  • Peering : Le peering est l'accord entre deux AS pour échanger des informations de routage. Ce lien peut être limité par des contraintes techniques ou commerciales, influençant ainsi la capacité de communication entre les réseaux.

Mécanisme de propagation

Le fonctionnement de BGP repose sur une chaîne de confiance. Lorsqu'un AS annonce ses adresses IP à ses voisins, ces derniers acceptent cette information sans vérification. Ce mécanisme, bien que pratique, présente des risques d'usurpation.

  • RPKI : Le Resource Public Key Infrastructure (RPKI) est un mécanisme de sécurité qui vise à valider les annonces BGP, mais son adoption n'est pas encore universelle, laissant la porte ouverte à des abus.

Incidents marquants

Paul Jeannot illustre son propos par trois incidents notables :

  1. Panne de Facebook (2021) : Une commande de maintenance erronée a conduit à la déconnexion des routeurs internes de Facebook, entraînant une perte d'annonces BGP et un blackout mondial de près de six heures.

  2. Incident Cloudflare (2022) : Une mise à jour de configuration a provoqué le retrait simultané de centaines d'annonces BGP, impactant des milliers de sites web, dont Discord et Shopify.

  3. Coupure en Égypte (2011) : En réponse à des manifestations, le régime égyptien a ordonné le retrait des annonces BGP, coupant ainsi 93 % des préfixes d'Internet du pays pendant cinq jours.

Ce qu'il faut retenir

BGP est à la fois un outil puissant et un vecteur de vulnérabilité. Sa capacité à propager des informations de routage sans vérification en fait un élément fondamental d'Internet, mais également une cible potentielle pour des erreurs humaines ou des manipulations malveillantes. Les incidents évoqués soulignent l'importance d'une gestion rigoureuse des configurations BGP et des accords de peering.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une plus grande décentralisation s'accompagne de défis uniques, notamment en matière de sécurité et de gouvernance. BGP, en tant que protocole central dans l'architecture d'Internet, illustre parfaitement cette dualité. La nécessité d'une automatisation accrue et d'une meilleure orchestration des flux de données devient cruciale pour prévenir les incidents. À l'ère des agents intelligents et des workflows automatisés, la gestion des réseaux doit évoluer pour intégrer des mécanismes de vérification et de contrôle plus robustes. En fin de compte, la résilience d'Internet dépendra de notre capacité à renforcer la confiance dans les protocoles qui le régissent, tout en restant vigilants face aux risques d'usurpation et d'erreurs humaines.

Fiche programme

Voyage au bout des APIs IO de Linux (de "poll" à "io_uring")

  • Speakers : Youssef Nait Belkacem (LinkedIn), Jean-Eudes Couignoux (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 13:30 à 14:15 · Salle Paris 141

Voyage au bout des APIs IO de Linux (de "poll" à "io_uring")

La gestion des entrées/sorties (IO) est un sujet central dans le développement d'applications performantes sous Linux. Avec l'émergence de nouvelles API, notamment io_uring, il est crucial pour les développeurs de comprendre les évolutions qui ont eu lieu dans ce domaine. Cette session, présentée par Youssef Nait Belkacem et Jean-Eudes Couignoux, explore les différentes API IO de Linux, leur évolution et les problèmes qu'elles cherchent à résoudre.

Ce que présente le talk

La conférence se concentre sur les API IO sous Linux, en particulier les méthodes traditionnelles comme poll, select, et epoll, avant de plonger dans io_uring, introduite en 2019. Les intervenants illustrent leurs propos à l'aide d'exemples pratiques, notamment l'utilisation de sockets, pour démontrer comment ces API ont évolué pour répondre aux besoins croissants des applications modernes.

Points techniques importants

Évolution des API IO

  1. API Historiques:

    • poll et select: Ces méthodes permettent de surveiller plusieurs descripteurs de fichiers pour savoir s'ils sont prêts pour une opération de lecture ou d'écriture. Cependant, elles présentent des limitations en termes de scalabilité, car elles nécessitent un parcours linéaire des descripteurs.
    • epoll: Introduit pour améliorer la scalabilité, epoll permet de gérer un grand nombre de connexions simultanées sans le coût élevé de poll et select.
  2. io_uring:

    • Présentée comme une révolution, io_uring offre une interface plus performante et flexible pour les opérations IO. Elle permet d'effectuer des opérations asynchrones avec un minimum de surcharge, en utilisant des boucles d'événements et des buffers partagés.
    • Les intervenants soulignent que io_uring est particulièrement adapté aux applications nécessitant une haute performance, comme les serveurs web modernes et les bases de données.

Concepts Clés

  • Descripteurs de fichiers: Les intervenants insistent sur l'importance des descripteurs de fichiers dans Linux, qui permettent de manipuler divers objets (fichiers, sockets, pipes) de manière uniforme. Chaque descripteur est associé à un entier, facilitant ainsi l'abstraction des opérations IO.

  • Modèle de programmation: Le modèle traditionnel de "one thread per connection" est inefficace pour gérer un grand nombre de connexions. Les intervenants proposent des alternatives basées sur des boucles d'événements, permettant de gérer plusieurs connexions avec un nombre réduit de threads.

Exemples pratiques

Les intervenants montrent comment coder un serveur simple utilisant différentes API IO. Ils démontrent les performances et les limitations de chaque méthode, en mettant en avant la simplicité d'utilisation de io_uring par rapport aux méthodes plus anciennes.

Ce qu'il faut retenir

  • Les API IO de Linux ont évolué pour répondre aux exigences croissantes des applications modernes, avec io_uring représentant une avancée significative en termes de performance et de flexibilité.
  • La compréhension des descripteurs de fichiers et des modèles de programmation est essentielle pour tirer parti des capacités de Linux dans le développement d'applications à haute performance.

Réflexions Darkwood

L'évolution des API IO sous Linux illustre bien la tendance vers une automatisation accrue et une gestion optimisée des ressources dans le développement logiciel. Avec l'essor des architectures modernes, telles que les microservices et les applications cloud-native, la nécessité d'une orchestration efficace des opérations IO devient primordiale. io_uring ne se limite pas à une simple amélioration des performances; elle ouvre également la voie à des workflows plus intelligents, où les agents IA pourraient gérer dynamiquement les ressources IO en fonction des besoins des applications. Cette évolution pourrait transformer la manière dont nous concevons et développons des systèmes logiciels, rendant les applications non seulement plus réactives, mais aussi plus résilientes face à des charges de travail variables.

Fiche programme

De zéro à des milliards de traces, le tracing distribué chez Winamax

  • Speakers : Anthony Maffert (LinkedIn), Nicolas Fidel (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 22/04/2026, 14:35 à 15:20 · Salle Amphi bleu

Ce talk décrit comment Winamax a conçu une architecture d’observabilité 100 % Open Source (OpenTelemetry, Quickwit, Jaeger) pour suivre des milliards de traces sans SaaS, afin de préserver la confidentialité des données joueurs. Il détaille scalabilité, stockage efficace et auto‑instrumentation des microservices en environnement à très fort trafic.

De zéro à des milliards de traces, le tracing distribué chez Winamax

L'importance croissante de l'observabilité dans les architectures modernes, notamment celles basées sur des microservices, est indéniable. Dans ce contexte, le talk présenté par Anthony Maffert et Nicolas Fidel chez Winamax offre un éclairage pertinent sur la mise en place d'une architecture d'observabilité 100 % Open Source. Ce retour d'expérience est particulièrement intéressant pour les développeurs et architectes qui cherchent à comprendre comment gérer efficacement le tracing distribué tout en respectant des contraintes de confidentialité des données.

Ce que présente le talk

Le talk aborde la conception d'une architecture d'observabilité capable de gérer des milliards de traces sans recourir à des solutions SaaS, afin de préserver la confidentialité des données des utilisateurs. Les intervenants détaillent les choix technologiques effectués, notamment l'utilisation d'OpenTelemetry, Quickwit et Jaeger, ainsi que les défis liés à la scalabilité, au stockage efficace des données et à l'auto-instrumentation des microservices dans un environnement à fort trafic.

Points techniques importants

Architecture et Scalabilité

Winamax gère une architecture distribuée complexe, composée de 700 microservices. Les intervenants soulignent l'importance de la scalabilité des collecteurs OpenTelemetry pour absorber des pics de trafic, notamment lors d'événements sportifs majeurs. Le choix d'un mode de déploiement centralisé pour les collecteurs, plutôt qu'un modèle par application, permet de réduire la complexité et d'optimiser la gestion des ressources.

Stockage des Données

Le talk met en avant l'utilisation de Quickwit pour le stockage et la requête de téraoctets de données sur du stockage objet. Quickwit est présenté comme une solution efficace pour gérer de grandes quantités de données tout en permettant des requêtes rapides, ce qui est essentiel pour l'analyse des traces.

Auto-instrumentation

L'auto-instrumentation est un aspect clé de l'architecture mise en place. Grâce au SDK OpenTelemetry, Winamax a pu automatiser la production de spans dans ses microservices Node.js. Cela réduit considérablement le fardeau sur les développeurs, qui n'ont qu'à intégrer une configuration minimale pour bénéficier de l'observabilité.

Tracing Distribué

Le concept de tracing distribué est expliqué comme un moyen d'analyser le cheminement d'une requête à travers différents services. Les intervenants insistent sur l'importance de la traçabilité dans un environnement microservices, où les logs traditionnels ne suffisent pas à diagnostiquer les problèmes.

Collecte et Analyse des Traces

La collecte des traces est abordée sous l'angle de la nécessité d'un système capable de gérer des volumes importants de données en temps réel. Le choix d'un collecteur centralisé permet d'optimiser la collecte et l'analyse des traces, en évitant la surcharge de déploiements multiples.

Ce qu'il faut retenir

  • Architecture d'observabilité : Winamax a construit une solution 100 % Open Source pour le tracing distribué, répondant à des exigences de confidentialité.
  • Scalabilité : L'architecture doit être capable de gérer des pics de trafic, notamment lors d'événements sportifs.
  • Auto-instrumentation : Le SDK OpenTelemetry facilite l'intégration du tracing dans les microservices sans alourdir le travail des développeurs.
  • Collecte centralisée : Un collecteur centralisé permet d'optimiser la gestion des traces et d'éviter la complexité des déploiements multiples.

Réflexions Darkwood

L'évolution vers des architectures de plus en plus distribuées nécessite une approche réfléchie de l'observabilité. Le cas de Winamax illustre comment des choix techniques judicieux peuvent permettre de surmonter des défis complexes, notamment en matière de scalabilité et de confidentialité. À l'ère de l'automatisation et des agents IA, la capacité à tracer efficacement les interactions entre microservices devient cruciale pour garantir la performance et la fiabilité des systèmes. L'adoption de standards comme OpenTelemetry pourrait bien devenir une norme dans l'industrie, facilitant l'intégration de solutions d'observabilité tout en préservant la flexibilité des architectures modernes.

Fiche programme

Tic-Tac... 💣! Maîtrisez le temps et NTP avant qu'il ne soit trop tard

  • Speakers : David Santiago (LinkedIn), Cynthia Treger (LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 15:40 à 16:25 · Salle Paris 242AB

Tic-Tac... 💣! Maîtrisez le temps et NTP avant qu'il ne soit trop tard

Dans un monde où la précision temporelle est cruciale pour le bon fonctionnement des systèmes informatiques, la session présentée par David Santiago et Cynthia Treger de Microsoft aborde un sujet fondamental : la synchronisation du temps à travers le protocole NTP (Network Time Protocol). Ce talk explore non seulement les défis techniques associés à la mesure du temps, mais également l'évolution historique qui a conduit à la nécessité d'une synchronisation précise dans nos systèmes modernes.

Ce que présente le talk

La session commence par une réflexion historique sur la mesure du temps, des cadrans solaires aux horloges atomiques. Les intervenants soulignent que même une dérive de quelques millisecondes peut avoir des conséquences désastreuses dans des systèmes distribués. À travers une analyse des mécanismes internes du protocole NTP, ils expliquent comment la hiérarchie des stratum permet d'assurer une synchronisation fiable malgré les instabilités des réseaux.

Points techniques importants

Historique et fondements de la mesure du temps

  • Cadrans solaires et horloges atomiques : L'évolution de la mesure du temps a commencé avec des méthodes simples comme les cadrans solaires, avant de passer à des systèmes plus complexes comme les horloges atomiques.
  • Problèmes de précision : La dérive des horloges mécaniques a conduit à des défis majeurs, notamment en navigation maritime, où une erreur de quelques minutes pouvait être fatale.

NTP et hiérarchie de stratum

  • Stratum 0 à Stratum 3 : Le protocole NTP organise les serveurs de temps en une hiérarchie. Les serveurs de Stratum 0, qui contiennent des horloges atomiques, fournissent l'heure la plus précise. Les serveurs de Stratum 1 se synchronisent avec ces horloges, tandis que les serveurs de Stratum 2 et au-delà se synchronisent avec les niveaux supérieurs.
  • Propagation de l'incertitude : Chaque niveau de la hiérarchie introduit une certaine latence et incertitude, ce qui peut affecter la précision du temps reçu par les serveurs en production.

Concepts techniques clés

  • Offset et jitter : Les notions d'offset (décalage) et de jitter (variation de latence) sont essentielles pour comprendre comment NTP ajuste les horloges des machines.
  • Secondes intercalaires : Le protocole UTC (Temps Universel Coordonné) utilise des secondes intercalaires pour rester synchronisé avec la rotation de la Terre, un compromis nécessaire pour maintenir la précision temporelle.

Ce qu'il faut retenir

La session met en lumière l'importance cruciale de la synchronisation temporelle dans les systèmes informatiques modernes. La compréhension des mécanismes de NTP, ainsi que des défis historiques et techniques associés à la mesure du temps, est essentielle pour garantir la fiabilité des transactions distribuées et des systèmes d'authentification.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une architecture distribuée a amplifié la nécessité d'une synchronisation précise. À mesure que les agents d'IA et les systèmes automatisés prennent de l'importance, la gestion du temps devient un enjeu central. Les défis liés à la latence et à la synchronisation dans des environnements de cloud computing et de microservices soulignent l'importance d'outils comme NTP.

À l'avenir, l'intégration de technologies émergentes, telles que les horloges optiques, pourrait révolutionner la manière dont nous mesurons et synchronisons le temps, ouvrant la voie à des systèmes encore plus résilients et fiables. La gouvernance de ces systèmes temporels deviendra également un sujet de préoccupation, car la dépendance à des infrastructures de temps précises est essentielle pour la sécurité et la performance des applications critiques.

Fiche programme

Industrialisez la maintenance de vos stacks Dev et Ops.

  • Speakers : Olivier Vernin (LinkedIn · Bluesky · Mastodon), Anthony BENGUERFI (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 17:00 à 17:30 · Salle Maillot

Cette session présente l’approche Update-as-Code avec Updatecli, outil d’automatisation des mises à jour de dépendances et configurations. Destinée aux profils Dev et Ops, elle montre comment industrialiser la maintenance, définir des politiques reproductibles et automatiser les changements à grande échelle pour gagner du temps et fiabiliser les infrastructures.

Industrialisez la maintenance de vos stacks Dev et Ops

Dans un monde où la complexité des infrastructures cloud et des applications multiplateformes ne cesse d'augmenter, la maintenance des dépendances et des configurations devient un enjeu crucial. La session présentée par Olivier Vernin et Anthony Benguerfi lors de la conférence explore une approche innovante : Update-as-Code via l'outil Updatecli. Cette méthode vise à transformer la manière dont les équipes Dev et Ops gèrent les mises à jour, en les industrialisant pour réduire le risque d'erreurs et optimiser le temps de maintenance.

Ce que présente le talk

La session aborde les défis liés à la maintenance des dépendances et des configurations, souvent perçue comme une tâche fastidieuse et sujette aux erreurs. En introduisant le concept d'Update-as-Code, les intervenants démontrent comment Updatecli peut automatiser les mises à jour à grande échelle, permettant ainsi aux équipes de se concentrer sur des tâches à plus forte valeur ajoutée. L'approche est particulièrement pertinente dans un contexte où le nombre de projets et d'applications à gérer augmente exponentiellement.

Points techniques importants

Architecture et Cycle de Vie

Les intervenants commencent par établir le contexte de la gestion des clusters Kubernetes, en définissant les différentes phases du cycle de vie, notamment :

  • Jour Zéro : Planification et conception des déploiements.
  • Jour Un : Déploiement initial dans un environnement de développement.
  • Jour Deux : Gestion opérationnelle du cluster, y compris la maintenance et les mises à jour.

Update-as-Code et Updatecli

L'outil Updatecli est présenté comme un moteur de mise à jour automatique déclaratif. Les intervenants détaillent son fonctionnement :

  • Sources et Targets : Updatecli permet de définir des sources d'informations (comme des fichiers YAML ou des Dockerfiles) et des cibles (les fichiers à mettre à jour).
  • Plugins : L'outil utilise des plugins pour interagir avec différents types de fichiers, facilitant ainsi la mise à jour des configurations.
  • Automatisation des Mises à Jour : Updatecli automatise le processus de mise à jour, en ouvrant des pull requests sur des plateformes comme GitLab lorsque des modifications sont détectées.

Démonstration Pratique

Une démonstration en direct montre comment créer un manifeste Updatecli. Les intervenants illustrent les étapes suivantes :

  1. Définition d'une Source : Identification de l'information à surveiller (par exemple, une image Docker).
  2. Création d'une Target : Spécification du fichier à mettre à jour.
  3. Exécution d'un Dry Run : Simulation de la mise à jour pour vérifier le comportement avant application.

Gestion des Erreurs et Sécurité

Les intervenants soulignent l'importance de gérer les erreurs et de sécuriser les mises à jour. Par exemple, l'utilisation d'images Docker avec des tags clairs plutôt que des versions "latest" est recommandée pour éviter les régressions.

Ce qu'il faut retenir

  • Update-as-Code est une approche prometteuse pour automatiser la maintenance des dépendances et des configurations.
  • Updatecli permet de définir des politiques de mise à jour claires et reproductibles, facilitant ainsi la gestion de plusieurs projets.
  • L'automatisation des mises à jour contribue à réduire les erreurs humaines et à améliorer la fiabilité des infrastructures.

Réflexions Darkwood

L'évolution vers des architectures modernes et l'adoption de pratiques comme GitOps soulignent la nécessité d'automatiser les workflows de maintenance. L'industrialisation des mises à jour, comme le propose Updatecli, s'inscrit dans une tendance plus large vers la gouvernance des infrastructures. En intégrant des agents d'IA et des outils d'orchestration, les équipes peuvent non seulement améliorer leur efficacité, mais aussi anticiper les besoins futurs en matière de sécurité et de scalabilité. Cette approche pourrait transformer la manière dont les organisations gèrent leurs infrastructures, rendant la maintenance non seulement plus fiable, mais également plus proactive.

Fiche programme

Question pour un cluster Kubernetes : Quiz sur Kubernetes & ses concepts

  • Speakers : Aurélie Vache
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 17:00 à 17:30 · Salle Neuilly 151

Question pour un cluster Kubernetes : Quiz sur Kubernetes & ses concepts

Dans un contexte où Kubernetes s'impose comme le standard incontournable pour le déploiement d'applications conteneurisées, il est crucial de revisiter ses fondamentaux. La session animée par Aurélie Vache chez OVHcloud propose une approche ludique pour tester et approfondir nos connaissances sur cet écosystème complexe. À travers un quiz interactif et des démonstrations pratiques, les participants sont invités à explorer les concepts clés de Kubernetes, allant des pods aux secrets, tout en s'amusant.

Ce que présente le talk

La session se structure autour d'un quiz interactif, permettant aux participants de tester leurs connaissances sur Kubernetes. Aurélie Vache, experte en cloud natif, guide les participants à travers des questions qui couvrent les bases et les bonnes pratiques de Kubernetes. Le format engageant vise à rendre l'apprentissage accessible, même pour les débutants, tout en offrant des défis aux développeurs plus expérimentés.

Points techniques importants

Concepts fondamentaux de Kubernetes

  1. Pods et Services
    Les pods sont les unités de base dans Kubernetes, représentant une ou plusieurs applications conteneurisées. Les services, quant à eux, permettent de distribuer le trafic vers les pods correspondants, en fonction de sélecteurs définis. Aurélie souligne l'importance de comprendre comment les services interagissent avec les pods, notamment en ce qui concerne la distribution du trafic.

  2. Secrets et gestion des données sensibles
    Les secrets dans Kubernetes sont utilisés pour stocker des informations sensibles, comme des mots de passe ou des clés d'API. Aurélie explique que le contenu des secrets est accessible via le champ data, mais nécessite un décodage pour être utilisé. Elle mentionne également l'outil View Secret, qui simplifie la gestion de ces données.

  3. Namespaces
    Les namespaces permettent d'isoler les ressources au sein d'un cluster Kubernetes. Aurélie démontre qu'il est possible de créer un namespace même en l'absence de nœuds, mais souligne que la suppression d'un namespace nécessite un nœud actif, ce qui peut poser des problèmes d'administration.

Autoscaling avec Horizontal Pod Autoscaler (HPA)

Le HPA est un composant essentiel pour gérer la scalabilité des applications. Aurélie explique que, même sans spécifier de CPU requests, le HPA peut fonctionner grâce à des mécanismes internes de Kubernetes qui injectent automatiquement des valeurs par défaut. Cela permet d'ajuster dynamiquement le nombre de réplicas d'une application en fonction de l'utilisation des ressources.

Bonnes pratiques et outils

  • Utilisation de kubectl
    Aurélie insiste sur l'importance de maîtriser les commandes kubectl, notamment pour la gestion des secrets et des ressources. Elle présente des astuces pour optimiser l'utilisation de cet outil, comme le plugin View Secret.

  • Configuration des ressources
    La configuration des ressources (requests et limits) est cruciale pour le bon fonctionnement des applications dans Kubernetes. Aurélie met en avant que le HPA fonctionne mieux lorsque ces valeurs sont correctement définies, permettant une gestion efficace des ressources.

Ce qu'il faut retenir

  • Kubernetes est un outil puissant pour le déploiement d'applications conteneurisées, mais nécessite une bonne compréhension de ses concepts fondamentaux.
  • Les secrets doivent être gérés avec soin, et des outils comme View Secret peuvent simplifier cette tâche.
  • La scalabilité des applications peut être gérée efficacement grâce au HPA, même dans des configurations initiales limitées.

Réflexions Darkwood

La session met en lumière l'évolution des systèmes logiciels vers une orchestration plus intelligente et automatisée. Kubernetes, en tant qu'outil central dans cette transformation, illustre comment l'automatisation et la gestion des ressources peuvent être optimisées grâce à des agents intelligents. À mesure que les architectures modernes évoluent, la nécessité de comprendre ces outils devient cruciale pour les développeurs. L'intégration de l'IA dans les workflows de déploiement et de gestion des ressources pourrait transformer encore davantage la manière dont nous interagissons avec ces systèmes, rendant l'automatisation non seulement plus efficace, mais aussi plus accessible.

Fiche programme

Le Frontend mérite aussi du monitoring !

  • Speakers : Henry Lagarde (X · LinkedIn)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 22/04/2026, 17:50 à 18:20 · Salle Paris 141

Le Frontend mérite aussi du monitoring !

Dans un écosystème où l'architecture des applications web devient de plus en plus complexe, la nécessité d'une observabilité accrue du frontend est souvent sous-estimée. La session animée par Henry Lagarde, software engineer chez Mistral AI, aborde ce sujet crucial en mettant en lumière les enjeux et les outils nécessaires pour monitorer efficacement le frontend.

Ce que présente le talk

Henry Lagarde nous rappelle que, traditionnellement, le monitoring se concentre sur le backend. Cependant, avec l'augmentation des interactions utilisateur et la complexité croissante des applications web, il est impératif d'apporter une observabilité au frontend. Cette présentation explore comment le monitoring peut fournir des insights précieux sur les usages, la latence et le tracing end-to-end, permettant ainsi des décisions éclairées et une réduction des erreurs en production.

Points techniques importants

L'importance de l'observabilité

L'observabilité est essentielle pour comprendre le comportement des utilisateurs et diagnostiquer les problèmes. Henry souligne que le frontend, souvent considéré comme une boîte noire, nécessite des outils pour traquer les erreurs et analyser les performances.

Outils et techniques de monitoring

Henry présente plusieurs outils et techniques pour améliorer l'observabilité du frontend :

  • Métriques : Utilisées pour évaluer la santé de l'application. Des outils comme Grafana Loki, Datadog et Kibana permettent de collecter et d'analyser des logs.
  • Tracing : Des outils comme Jaeger et Tempo aident à comprendre les interactions entre les services, ce qui est crucial pour le débogage.
  • Error Tracking : Des solutions comme Sentry agrègent les erreurs et permettent de créer des alertes, facilitant ainsi l'identification des problèmes.
  • Analytics : Outils tels que Google Analytics et Metabase sont utilisés pour prendre des décisions basées sur les données d'utilisation.
  • Real-Time User Monitoring (RUM) : Permet d'analyser en temps réel comment les utilisateurs interagissent avec l'application.

OpenTelemetry

Henry introduit OpenTelemetry, un projet open source qui permet d'instrumenter, collecter et exporter des métriques, logs et traces. Ce framework est neutre vis-à-vis des fournisseurs, ce qui permet une flexibilité dans l'intégration des outils de monitoring.

  • Autoinstrumentation : OpenTelemetry permet une instrumentation automatique dans le navigateur, facilitant la collecte de données sans nécessiter de configuration complexe.
  • Personnalisation : Les développeurs peuvent personnaliser les métriques et les traces pour répondre aux besoins spécifiques de leur application.

Sécurité et bonnes pratiques

Henry insiste sur l'importance de la sécurité dans le monitoring. Des vérifications doivent être mises en place pour éviter l'envoi de données non pertinentes ou potentiellement nuisibles. Par exemple, l'utilisation de schémas de validation pour les métriques permet de contrôler ce qui est envoyé au serveur.

Ce qu'il faut retenir

L'observabilité du frontend est essentielle pour garantir la performance et la fiabilité des applications web modernes. Les outils comme OpenTelemetry offrent des solutions flexibles et puissantes pour monitorer les interactions utilisateur, les performances et les erreurs. En intégrant ces outils, les équipes de développement peuvent prendre des décisions basées sur des données concrètes, améliorant ainsi l'expérience utilisateur et réduisant les risques en production.

Réflexions Darkwood

L'évolution vers des architectures de plus en plus distribuées et complexes nécessite une approche intégrée de l'observabilité. Alors que les systèmes deviennent plus automatisés, la capacité à monitorer chaque couche, du frontend au backend, devient cruciale. L'intégration d'agents d'IA pour analyser les données de monitoring pourrait également transformer la manière dont nous diagnostiquons et résolvons les problèmes. En fin de compte, l'observabilité ne doit pas être perçue comme une simple fonctionnalité, mais comme une composante essentielle de la gouvernance des systèmes modernes, permettant une orchestration fluide et une amélioration continue des workflows de développement.

Fiche programme

De 1 000 à 5 000 utilisateurs : scaler GitLab sans (trop) souffrir.

  • Speakers : Lucas DRAGO (LinkedIn), Adrien Gooris (X · LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 23/04/2026, 10:30 à 11:15 · Salle Neuilly 153

Ce talk partage un retour d’expérience concret sur la gestion et le scaling de GitLab à grande échelle : défis d’architecture, dette technique, reprise de contrôle après dépréciations, refonte des sauvegardes et choix techniques clés. Il livre bonnes pratiques et leçons apprises pour administrer une plateforme critique en constante évolution.

De 1 000 à 5 000 utilisateurs : scaler GitLab sans (trop) souffrir

Dans un monde où la scalabilité des applications est devenue un enjeu crucial, le talk de Lucas Drago et Adrien Gooris, présenté lors de la conférence Devox, aborde la montée en charge de GitLab au sein de Michelin. Ce retour d'expérience met en lumière les défis architecturaux et techniques rencontrés lors de la transition d'une infrastructure de 1 000 à 5 000 utilisateurs, tout en partageant des bonnes pratiques et des leçons apprises.

Ce que présente le talk

Le talk se concentre sur les défis concrets liés à la gestion et au scaling de GitLab. Les intervenants discutent des dépréciations d'architectures historiques, de la dette technique, et de la nécessité de repenser les stratégies de sauvegarde. Ils exposent également les choix techniques qui ont permis de surmonter ces obstacles, tout en maintenant un service critique en constante évolution.

Points techniques importants

Architecture et Scalabilité

L'architecture initiale de GitLab, décrite comme un "single server", est adaptée pour un maximum de 1 000 utilisateurs. Elle repose sur une machine virtuelle unique où tous les composants (Rails, PostgreSQL, Sidekiq, etc.) cohabitent. Cette approche, bien que simple, présente des limites en termes de scalabilité.

  • Transition vers une architecture distribuée : Pour gérer l'augmentation des utilisateurs, Michelin a dû évoluer vers une architecture plus complexe, impliquant des clusters de services comme Gitaly et Praefect. Cela permet de répartir la charge et d'améliorer la résilience.

Gestion de la dette technique

L'un des principaux défis rencontrés a été la gestion de la dette technique accumulée au fil des ans. Les intervenants soulignent l'importance de :

  • Identifier les dépréciations : Par exemple, l'abandon de NFS a nécessité une refonte des stratégies de sauvegarde.
  • Mettre en place des solutions de backup/restore fiables : La stratégie de sauvegarde a dû être repensée pour s'assurer que les données critiques soient protégées.

Outils et Technologies

Les intervenants mettent en avant plusieurs outils et technologies qui ont été décisifs dans leur parcours :

  • GitLab Omnibus : Un gestionnaire de services qui facilite le déploiement et la gestion des différents composants de GitLab. Il permet une configuration fine des services via un fichier de configuration centralisé.
  • Sidekiq et Redis : Utilisés pour gérer les tâches en arrière-plan, ces outils sont essentiels pour maintenir la performance de la plateforme.

Performance et Orchestration

La performance est un enjeu majeur lorsqu'il s'agit de scaler une application comme GitLab. Les intervenants abordent :

  • L'importance de l'orchestration : L'utilisation de conteneurs et d'outils d'orchestration (comme Kubernetes) pourrait être envisagée pour améliorer la gestion des ressources et la scalabilité.
  • Répartition des charges : La mise en place de stratégies de load balancing est cruciale pour éviter les goulets d'étranglement.

Ce qu'il faut retenir

Le talk de Lucas Drago et Adrien Gooris offre un aperçu précieux des défis et solutions liés au scaling de GitLab. Les points clés à retenir incluent :

  • La nécessité d'une architecture évolutive dès le départ.
  • L'importance de la gestion proactive de la dette technique.
  • L'utilisation d'outils comme GitLab Omnibus pour simplifier la gestion des services.
  • La mise en place de stratégies de sauvegarde robustes et de répartition de charges.

Réflexions Darkwood

Le parcours de Michelin dans le scaling de GitLab illustre parfaitement l'évolution des systèmes logiciels modernes. À mesure que les entreprises adoptent des architectures de plus en plus complexes, la nécessité d'automatiser les processus et de gérer efficacement les ressources devient primordiale. L'intégration d'agents IA pour l'optimisation des workflows et la gouvernance des systèmes pourrait transformer la manière dont les entreprises gèrent leur infrastructure.

En somme, la scalabilité ne se limite pas à la capacité d'absorber plus d'utilisateurs, mais implique également une réflexion profonde sur l'architecture, l'automatisation et la résilience des systèmes.

Fiche programme

J'ai codé 47 pipelines IaC avant de comprendre: le guide du pipeline ultime

  • Speakers : Natalie Godec (X · LinkedIn · Bluesky)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 17:00 à 17:30 · Salle Paris 141

Ce talk présente la création d’un pipeline CI/CD Terraform universel et réutilisable, capable de détecter automatiquement les environnements modifiés, d’exécuter les déploiements en parallèle via GitHub Actions, d’intégrer des scans de sécurité et des validations, et de gérer les approbations manuelles pour la production, sans maintenance de listes statiques.

J'ai codé 47 pipelines IaC avant de comprendre: le guide du pipeline ultime

Dans un monde où l'infrastructure en tant que code (IaC) devient la norme, la gestion des pipelines CI/CD pour des environnements multiples représente un défi majeur. La session animée par Natalie Godec, architecte cloud chez Zencore, aborde cette problématique avec une approche pragmatique et une solution universelle pour la création de pipelines Terraform.

Ce que présente le talk

Ce talk expose la conception d'un pipeline CI/CD Terraform réutilisable, capable de détecter automatiquement les environnements modifiés et d'exécuter des déploiements en parallèle via GitHub Actions. L'objectif est de créer un système qui intègre des scans de sécurité, des validations et des approbations manuelles pour la production, tout en évitant la maintenance de listes statiques d'environnements.

Points techniques importants

Architecture du pipeline

Le pipeline proposé par Godec repose sur une architecture modulaire qui permet de gérer des environnements variés sans nécessiter de configurations statiques. La clé réside dans la détection automatique des changements dans les pull requests (PR), ce qui permet d'exécuter uniquement les étapes nécessaires pour les environnements affectés.

Détection des changements

L'un des points forts de cette approche est l'utilisation d'actions GitHub pour identifier les fichiers modifiés dans une PR. Cela permet de déterminer quels environnements doivent être déployés, évitant ainsi des exécutions inutiles pour des environnements non affectés.

Exécution parallèle

Grâce aux "matrix strategies" de GitHub Actions, le pipeline peut exécuter des déploiements en parallèle. Cela améliore considérablement la vitesse des déploiements, surtout lorsque plusieurs environnements sont impliqués.

Validation et sécurité

Godec souligne l'importance de la validation du code et des scans de sécurité dans le pipeline. Elle recommande l'utilisation d'outils comme Checkov pour intégrer des contrôles de sécurité, garantissant que le code respecte les normes établies.

Approvals manuelles

Pour les déploiements en production, le talk insiste sur la nécessité d'une approbation manuelle. Cela permet d'ajouter une couche de sécurité et de contrôle, essentielle dans des environnements sensibles.

Documentation et traçabilité

Une autre composante essentielle du pipeline est la traçabilité des changements. Chaque déploiement doit être documenté, permettant de suivre les modifications effectuées dans chaque environnement, ce qui est crucial pour la conformité et la sécurité.

Ce qu'il faut retenir

  • Pipeline universel : Un pipeline CI/CD Terraform qui s'adapte automatiquement aux changements d'environnements sans nécessiter de maintenance manuelle.
  • Détection automatique : Utilisation d'actions GitHub pour identifier les environnements affectés par des changements dans les PR.
  • Exécution parallèle : Déploiements simultanés grâce aux stratégies de matrice de GitHub Actions, augmentant l'efficacité.
  • Validation et sécurité : Intégration de scans de sécurité et validation du code pour garantir la conformité.
  • Approvals manuelles : Nécessité d'une validation humaine pour les déploiements en production, renforçant la sécurité.

Réflexions Darkwood

La session de Natalie Godec met en lumière l'évolution des systèmes logiciels vers une automatisation accrue, où les pipelines CI/CD deviennent des éléments centraux de l'infrastructure moderne. Avec l'augmentation de la complexité des environnements cloud et des exigences de sécurité, la capacité à gérer des déploiements de manière dynamique et sécurisée est primordiale.

L'intégration d'agents d'IA pour surveiller et optimiser les workflows pourrait être une prochaine étape logique. En automatisant davantage les processus de détection et de validation, les équipes de développement pourraient se concentrer sur l'innovation plutôt que sur la maintenance des pipelines.

En somme, cette approche vers des pipelines intelligents et adaptatifs pourrait transformer non seulement la manière dont nous gérons l'infrastructure, mais aussi l'ensemble de l'écosystème de développement logiciel.

Fiche programme

Du Sidecar à l'Ambient : Comprendre l'évolution du Service Mesh avec Istio

  • Speakers : Andrew Hatoum (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : ADVANCED
  • Langue : French
  • Créneau : 23/04/2026, 17:50 à 18:20 · Salle Paris 241

La session présente le mode Ambient d’Istio, évolution « sidecar‑less » du Service Mesh. Elle détaille son architecture (ztunnel, waypoint proxies), la séparation L4/L7 et son impact opérationnel. Une démonstration live sur Kubernetes compare les modes Sidecar et Ambient, avec analyse d’observabilité via Kiali pour évaluer sa maturité.

Du Sidecar à l'Ambient : Comprendre l'évolution du Service Mesh avec Istio

La session animée par Andrew Hatoum, consultant DevOps chez Zenika, aborde une évolution majeure dans le domaine des architectures de microservices : le mode Ambient d'Istio. Cette approche, qui se veut « sidecar-less », promet de simplifier la gestion des services tout en conservant les avantages d'un Service Mesh. Dans un contexte où la complexité des infrastructures Kubernetes ne cesse d'augmenter, cette présentation est d'une pertinence indéniable.

Ce que présente le talk

Andrew Hatoum nous plonge dans les détails du mode Ambient d'Istio, qui marque une rupture avec le modèle Sidecar traditionnel. Ce nouveau mode vise à réduire l'empreinte opérationnelle tout en maintenant la robustesse des services. La session inclut une démonstration live sur Kubernetes, où les différences entre les modes Sidecar et Ambient sont mises en lumière, notamment à travers l'outil Kiali pour l'observabilité.

Points techniques importants

Architecture d'Istio

Le modèle traditionnel de Service Mesh repose sur une architecture Sidecar, où chaque pod est accompagné d'un proxy. Cette approche, bien que sécurisée, entraîne un couplage fort entre les applications et l'infrastructure, rendant la gestion des ressources complexe.

Avec le mode Ambient, Istio introduit une nouvelle architecture :

  • ZTunnel : Proxy de couche L4, gérant la communication réseau.
  • Waypoint Proxies : Proxy de couche L7, s'occupant des requêtes applicatives.

Cette séparation des responsabilités permet de décharger les applications de la gestion des proxys, tout en optimisant la consommation des ressources.

Séparation L4/L7

La distinction entre les couches L4 et L7 est cruciale pour la performance et la sécurité :

  • L4 : Gère le transport des données, permettant des connexions TCP sans surcharge d'un proxy dans chaque pod.
  • L7 : Gère les requêtes HTTP, offrant des fonctionnalités avancées comme le filtrage des requêtes et la gestion des politiques de sécurité.

Cette séparation permet une gestion plus fine des flux de données et une meilleure scalabilité.

Observabilité avec Kiali

L'utilisation de Kiali pour visualiser les flux de données dans le Service Mesh est essentielle. La démonstration a montré comment Kiali permet de suivre les performances des services, d'analyser les latences et de détecter les anomalies. Cela devient d'autant plus pertinent dans un environnement où les microservices interagissent de manière complexe.

Démonstration Live

La session a inclus une démonstration pratique déployant l'application Bookinfo dans un cluster Kubernetes. Andrew a illustré la cohabitation des modes Sidecar et Ambient, mettant en avant les différences en termes de consommation de ressources et de latence. Le mode Ambient a montré une empreinte opérationnelle réduite, ce qui est un atout majeur dans des environnements à grande échelle.

Ce qu'il faut retenir

  • Le mode Ambient d'Istio représente une avancée significative dans la gestion des Service Mesh, en réduisant le couplage entre les applications et l'infrastructure.
  • La séparation des couches L4 et L7 permet une meilleure gestion des ressources et une sécurité renforcée.
  • L'observabilité est un élément clé pour évaluer la performance des services et la santé du système, avec des outils comme Kiali.

Réflexions Darkwood

L'évolution vers des architectures « sidecar-less » comme le mode Ambient d'Istio illustre une tendance générale vers la simplification des infrastructures. À mesure que les systèmes deviennent plus complexes, l'automatisation et l'orchestration jouent un rôle crucial dans la gestion des workflows. La séparation des responsabilités entre les couches L4 et L7 pourrait inspirer de nouvelles approches dans la conception des architectures modernes, favorisant une meilleure gouvernance et une sécurité renforcée. En intégrant ces innovations, l'industrie du développement pourrait voir une transformation significative dans la manière dont les applications sont conçues et déployées, rendant les systèmes plus résilients face aux défis futurs.

Fiche programme

GitOps et le multi-environnements, une histoire de promotion

  • Speakers : Romain Boulanger (LinkedIn · Mastodon)
  • Type : Tools-in-Action
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 23/04/2026, 17:50 à 18:20 · Salle Neuilly 153

GitOps et le multi-environnements, une histoire de promotion

Dans un contexte où l'automatisation des déploiements devient essentielle pour la gestion des infrastructures cloud, le talk de Romain Boulanger sur GitOps et la gestion des multi-environnements s'inscrit parfaitement dans les préoccupations actuelles des développeurs. En mettant en lumière l'outil Kargo, il aborde les défis de la promotion des applications à travers différents environnements, tout en s'appuyant sur des standards éprouvés comme Flux CD et Argo CD.

Ce que présente le talk

Romain Boulanger, architecte cloud chez Piguet Galland & Cie S.A., présente une approche pratique du GitOps, en se concentrant sur la promotion des modifications d'un environnement à un autre. Il explique comment GitOps, en tant que méthode de déploiement sur Kubernetes, peut être optimisé pour gérer plusieurs environnements (développement, qualité, production) à l'aide de Kargo, un outil qui facilite cette orchestration.

Points techniques importants

GitOps : Définition et principes

Le GitOps repose sur l'idée de déclarer l'état désiré des ressources Kubernetes via des fichiers de configuration versionnés dans Git. Cela implique :

  • Source de vérité : Git devient le référentiel unique pour les configurations, garantissant que l'état des clusters Kubernetes est conforme à ce qui est défini dans le dépôt.
  • Boucle de réconciliation : Un opérateur GitOps observe en permanence l'état du cluster et le réconcilie avec l'état désiré défini dans Git.

Outils GitOps

Boulanger met en avant deux outils majeurs de la Cloud Native Computing Foundation (CNCF) : Flux CD et Argo CD. Ces outils, ayant atteint le statut "Graduated", sont reconnus pour leur maturité et leur capacité à fonctionner dans des environnements de production.

  • Argo CD : Choisi par l'équipe de Piguet Galland, cet outil se distingue par son interface graphique et sa capacité à gérer des applications multi-environnements grâce à des concepts comme les ApplicationSets et les AppProjects.

Promotion entre environnements

Un des défis majeurs abordés est la promotion des images d'une version à une autre à travers différents environnements :

  • Stratégie de promotion : L'idée est de partir d'une branche principale (par exemple main) et d'utiliser des configurations spécifiques pour chaque environnement, que ce soit via des dossiers ou des fichiers de valeurs Helm.
  • Automatisation des déploiements : L'orchestration des déploiements entre les environnements de test, qualité et production est cruciale. Kargo vient ajouter une couche d'orchestration pour gérer le cycle de vie des applications et faciliter cette promotion.

Kargo : Un outil d'orchestration

Kargo se positionne comme un complément à Argo CD, apportant des fonctionnalités d'orchestration qui manquent à ce dernier. Il permet :

  • Gestion des promotions : Kargo facilite la promotion des images entre les différents environnements, tout en intégrant des mécanismes de notification et de gestion des versions.
  • Interface utilisateur : L'outil offre une interface intuitive pour visualiser et gérer les déploiements, ce qui est essentiel pour les équipes souhaitant maintenir un contrôle sur leurs environnements.

Ce qu'il faut retenir

Le talk de Romain Boulanger souligne l'importance d'adopter des pratiques GitOps pour le déploiement sur Kubernetes, tout en mettant en avant la nécessité d'outils comme Kargo pour gérer efficacement la promotion des applications à travers différents environnements. La combinaison de Git comme source de vérité et d'outils d'orchestration permet d'améliorer la fiabilité et l'efficacité des processus de déploiement.

Réflexions Darkwood

L'évolution vers des systèmes logiciels de plus en plus automatisés et orchestrés est inéluctable. Avec l'essor des pratiques GitOps, les équipes de développement doivent se préparer à intégrer des outils qui non seulement facilitent le déploiement, mais aussi assurent une gouvernance rigoureuse des environnements. Kargo, en ajoutant une couche d'orchestration à des outils comme Argo CD, illustre cette tendance vers une automatisation accrue, où les agents IA et les workflows intelligents joueront un rôle central dans la gestion des infrastructures cloud. Cette dynamique pourrait transformer la manière dont les organisations abordent le développement et le déploiement d'applications, rendant les processus plus fluides et moins sujets aux erreurs humaines.

Fiche programme

Limits, Requests, QoS, PriorityClasses, démystifions le scheduling dans K8s !

  • Speakers : Denis Germain (LinkedIn · Bluesky · Mastodon), Quentin JOLY (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 10:30 à 11:15 · Salle Paris 141

Cette session démystifie la gestion des ressources dans Kubernetes (limits, requests, QoS, PriorityClasses) : pourquoi et comment les configurer, leurs impacts sur la performance et l’ordonnancement, et ce qui arrive en cas de manque de ressources, le tout illustré par des démonstrations pratiques poussant les clusters à leurs limites.

Limits, Requests, QoS, PriorityClasses : démystifions le scheduling dans K8s !

La gestion des ressources dans Kubernetes est un sujet crucial pour assurer la performance et la fiabilité des applications en production. La session présentée par Denis Germain et Quentin Joly lors de la conférence "Server-side & Cloud Platforms" aborde les concepts de limits, requests, QoS et PriorityClasses, des éléments souvent mal compris mais essentiels pour optimiser l'ordonnancement dans Kubernetes.

Ce que présente le talk

Cette session vise à éclaircir la gestion des ressources dans Kubernetes, en expliquant comment configurer correctement les limits et requests, ainsi que leur impact sur la performance et l'ordonnancement des applications. À travers des démonstrations pratiques, les intervenants montrent ce qui se passe lorsque les ressources viennent à manquer, et comment ces configurations influencent le comportement des clusters.

Points techniques importants

Architecture et Scheduling

Kubernetes, en tant qu'orchestrateur de conteneurs, repose sur un composant clé : le scheduler. Ce dernier est responsable de la distribution des pods sur les nœuds disponibles, en tenant compte des ressources spécifiées par les développeurs. Les concepts de limits et requests sont fondamentaux dans ce processus :

  • Limits : Ce sont des contraintes strictes sur les ressources qu'un pod peut consommer. Par exemple, si une application est limitée à 100m CPU, elle ne pourra jamais dépasser cette consommation.
  • Requests : Contrairement aux limits, les requests indiquent la quantité de ressources qu'un pod nécessite pour fonctionner de manière optimale. Cela aide le scheduler à décider où placer le pod.

Impact des Limits et Requests

Les intervenants soulignent l'importance de bien configurer ces paramètres. Une mauvaise configuration peut entraîner des performances dégradées :

  • Ressources incompressibles : RAM et disque, où un dépassement entraîne des échecs.
  • Ressources compressibles : CPU, qui peut être partagé, mais dont une mauvaise gestion peut mener à des ralentissements significatifs.

Démonstrations pratiques

Les démonstrations illustrent comment des configurations différentes de limits affectent les performances des applications :

  1. Calcul de nombres premiers : Deux pods identiques sont créés, l'un avec une limite de 100m CPU et l'autre avec un cœur complet. Les résultats montrent une différence de performance significative, le pod avec plus de ressources étant capable de traiter beaucoup plus de requêtes par seconde.

  2. Serveur web : Une application sensible à la latence est testée sans limites de CPU, puis avec une limite définie. Les résultats révèlent que même avec une limite théoriquement adéquate, les temps de réponse peuvent exploser, illustrant les effets secondaires imprévus de l'imposition de limites.

QoS et PriorityClasses

Les Quality of Service (QoS) dans Kubernetes permettent de classer les pods selon leurs besoins en ressources. Les PriorityClasses, quant à elles, déterminent l'importance relative des pods lors de l'allocation des ressources. Ces mécanismes sont cruciaux pour garantir que les applications critiques obtiennent les ressources nécessaires en cas de contention.

Ce qu'il faut retenir

  • Limits et requests sont des éléments essentiels pour la gestion des ressources dans Kubernetes, influençant directement l'ordonnancement et les performances des applications.
  • Une configuration inadéquate peut entraîner des problèmes de performance, même si les ressources semblent suffisantes sur le papier.
  • Les démonstrations pratiques illustrent l'importance de tester et d'optimiser ces configurations dans des environnements réels.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures de microservices et des environnements cloud-native nécessite une compréhension approfondie de la gestion des ressources. L'automatisation des workflows et l'orchestration des conteneurs, comme le fait Kubernetes, sont des étapes cruciales pour garantir la résilience et la scalabilité des applications.

L'intégration d'agents intelligents pourrait également transformer la manière dont nous gérons les ressources, en permettant une orchestration dynamique et adaptative. À mesure que les systèmes deviennent plus complexes, la gouvernance des ressources et la capacité à anticiper les besoins en performance deviendront des compétences essentielles pour les équipes de développement.

Fiche programme

Lorsqu'un simple bug réseau vous emmène dans les entrailles de Linux...

  • Speakers : Florian Forestier (LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 11:35 à 12:20 · Salle Neuilly 151

Découvrez comment, sans expérience préalable, nous avons identifié, corrigé et soumis un patch pour un bug de six ans dans le Kernel Linux. Cette présentation démystifie le Kernel, montre l’accessibilité de sa communauté et guide pas à pas, sans prérequis technique, vers une première contribution.

Lorsqu'un simple bug réseau vous emmène dans les entrailles de Linux...

Dans un monde où le développement logiciel est souvent perçu comme un domaine réservé aux experts, la session présentée par Florian Forestier lors de la conférence sur les plateformes serveur et cloud a révélé que même les développeurs avec peu d'expérience peuvent s'attaquer à des problèmes complexes, comme un bug dans le Kernel Linux. Ce talk met en lumière l'accessibilité de la communauté Linux et démontre comment une approche méthodique peut mener à des contributions significatives, même pour ceux qui n'ont jamais plongé dans les entrailles du système d'exploitation.

Ce que présente le talk

Florian Forestier partage son expérience d'identification et de correction d'un bug vieux de six ans dans le Kernel Linux, un projet de code ouvert utilisé à l'échelle mondiale. L'objectif est de démystifier le Kernel et de montrer qu'il est possible de contribuer à ce vaste projet sans prérequis techniques. La présentation est un guide pas à pas, illustrant comment une équipe de développeurs, initialement peu familiers avec le Kernel, a pu résoudre un problème réseau complexe.

Points techniques importants

Contexte et Problématique

L'histoire commence avec l'arrivée de nouveaux serveurs dans une petite entreprise, où une équipe de développeurs est confrontée à un problème réseau. Les serveurs, bien que puissants, ne parviennent pas à établir une connexion réseau fonctionnelle. L'équipe, composée de développeurs avec une expérience de 4 à 6 ans, se retrouve à devoir diagnostiquer un problème qui semble dépasser leur domaine d'expertise.

Diagnostic et Investigation

  1. Outils de Diagnostic:

    • LSPCI : Utilisé pour lister les périphériques connectés, confirmant que les cartes réseau sont bien reconnues par le système.
    • IP Link : Montre que, bien que les cartes soient présentes, elles ne peuvent pas être configurées.
    • Dmesg : Permet d'accéder aux logs du système, révélant des erreurs critiques lors de l'initialisation des cartes.
  2. Problèmes Identifiés:

    • Les cartes réseau sont reconnues par le Kernel, mais échouent à s'initialiser correctement.
    • Les logs indiquent des échecs liés à des drivers, suggérant que le problème pourrait être lié à la compatibilité entre le matériel et le Kernel.

Recherche de Solutions

L'équipe explore plusieurs pistes pour résoudre le problème :

  • Recherche de Drivers : Les tentatives de trouver des drivers compatibles sur Internet se révèlent infructueuses, car les drivers disponibles sont souvent obsolètes ou spécifiques à d'autres distributions Linux.
  • Tests de Distributions : L'équipe teste différentes distributions Linux (Debian, Ubuntu, CentOS, Alpine) dans l'espoir de trouver une solution, mais sans succès.

Contribution au Kernel

Face à l'impasse, l'équipe envisage de contribuer au Kernel en développant un correctif. Cela soulève des questions sur la manière dont les contributions au Kernel sont perçues et intégrées, ainsi que sur la nécessité d'une documentation claire pour les nouveaux contributeurs.

Ce qu'il faut retenir

La session souligne plusieurs points clés :

  • Accessibilité du Kernel Linux : Le Kernel n'est pas un code mystique, mais un projet ouvert à tous, où chacun peut contribuer.
  • Importance de la communauté : La collaboration et le partage d'informations sont essentiels pour résoudre des problèmes complexes.
  • Processus de contribution : Même sans expérience préalable, il est possible d'apprendre et de contribuer au développement du Kernel.

Réflexions Darkwood

L'expérience partagée par Florian Forestier illustre une tendance croissante dans le développement logiciel : l'automatisation et l'accessibilité des systèmes complexes. À mesure que les outils et les frameworks évoluent, la barrière à l'entrée pour contribuer à des projets comme le Kernel Linux diminue. Cela ouvre la voie à une nouvelle génération de développeurs qui, grâce à des workflows et des outils collaboratifs, peuvent s'attaquer à des défis techniques sans précédent.

Cette dynamique pourrait transformer l'industrie du développement, favorisant une culture de partage et d'innovation. À l'avenir, l'intégration d'agents d'IA dans le processus de contribution pourrait également faciliter la détection et la correction de bugs, rendant le développement encore plus accessible et efficace.

Fiche programme

Le DevOps est mort, vive le Platform Engineering !

  • Speakers : Pierre Andrieux (LinkedIn), Diogo Sobral (LinkedIn)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 13:30 à 14:15 · Salle Neuilly 252AB

Ce talk critique les limites du modèle DevOps "you build it, you run it" et présente le Platform Engineering comme solution, via les Internal Developer Platforms (IDP) qui simplifient l’infrastructure pour les développeurs. Démonstration de Backstage et analyse des gains en efficacité, autonomie et satisfaction des équipes.

Le DevOps est mort, vive le Platform Engineering !

Dans un paysage technologique en constante évolution, la manière dont les équipes de développement interagissent avec l'infrastructure est cruciale. Le talk présenté par Pierre Andrieux et Diogo Sobral lors de la conférence sur les plateformes cloud et serveur aborde une critique pertinente du modèle DevOps traditionnel, tout en proposant le Platform Engineering comme une solution viable pour surmonter les défis actuels.

Ce que présente le talk

Le talk remet en question le modèle DevOps "you build it, you run it", souvent perçu comme la panacée pour une livraison logicielle rapide. Les intervenants soulignent que la majorité des développeurs ne souhaitent pas gérer l'infrastructure complexe qui accompagne ce modèle. Ils introduisent le concept de Platform Engineering, mettant en avant les Internal Developer Platforms (IDP) comme moyen de simplifier l'infrastructure tout en préservant l'autonomie des équipes.

Points techniques importants

Les limites du modèle DevOps

  • Charge cognitive : Les développeurs sont souvent submergés par la gestion de l'infrastructure, des configurations multi-cloud, de l'observabilité et des pipelines CI/CD. Cette surcharge nuit à leur capacité à se concentrer sur le développement d'applications.
  • Complexité croissante : Le paysage des outils et des technologies a explosé, rendant la gestion de l'infrastructure de plus en plus complexe. Le talk illustre cette complexité avec le paysage des outils de la Cloud Native Computing Foundation (CNCF).

L'émergence du Platform Engineering

  • Internal Developer Platforms (IDP) : Ces plateformes internes visent à réduire la charge cognitive des développeurs en fournissant des outils et des processus standardisés. Elles permettent aux équipes de se concentrer sur le développement sans se soucier des détails d'infrastructure.
  • Self-service et automatisation : Le Platform Engineering favorise l'automatisation des processus, permettant aux développeurs d'accéder rapidement aux ressources nécessaires sans passer par des processus de ticketing longs et fastidieux.

Amélioration des DORA metrics

  • Performance : Le talk souligne que l'implémentation d'IDP peut améliorer les DORA metrics, qui mesurent la performance des équipes de développement. Cela inclut des réductions significatives du temps nécessaire pour mettre en place des environnements de développement et déployer des applications.
  • Satisfaction des équipes : En réduisant les frictions et en améliorant l'expérience développeur, les IDP contribuent à une plus grande satisfaction des équipes, ce qui est crucial dans un contexte de turnover élevé.

Ce qu'il faut retenir

Le modèle DevOps, bien qu'important, présente des limites qui peuvent entraver l'efficacité des équipes de développement. Le Platform Engineering, avec ses IDP, émerge comme une solution pour simplifier l'infrastructure, réduire la charge cognitive et améliorer la satisfaction des développeurs. L'accent mis sur l'automatisation et le self-service est essentiel pour répondre aux besoins croissants des équipes dans un environnement de développement moderne.

Réflexions Darkwood

L'évolution vers le Platform Engineering marque une étape significative dans la transformation des systèmes logiciels. Alors que les organisations cherchent à automatiser davantage leurs workflows, le rôle des agents IA et des outils de gouvernance devient de plus en plus central. Les IDP représentent non seulement un moyen d'améliorer l'efficacité, mais aussi une réponse à la nécessité d'une orchestration plus intelligente des ressources. À mesure que les architectures modernes continuent d'évoluer, l'intégration de ces concepts pourrait redéfinir la manière dont les équipes de développement interagissent avec l'infrastructure, ouvrant la voie à une nouvelle ère de collaboration et d'innovation.

Fiche programme

Détectives de la prod : résoudre l’enquête avant le crash

  • Speakers : Sébastien Ferrer (LinkedIn)
  • Type : Conference
  • Niveau : BEGINNER
  • Langue : French
  • Créneau : 24/04/2026, 14:35 à 15:20 · Salle Maillot

Cette conférence dévoile la gestion des incidents en production par des équipes réduites mais réactives. Elle présente une méthodologie d’enquête efficace, alliant outils, organisation et intuition, et propose des bonnes pratiques de troubleshooting, logging et monitoring pour optimiser la résolution collective des incidents.

Détectives de la prod : résoudre l’enquête avant le crash

Dans un monde où la disponibilité des services est primordiale, la gestion des incidents en production est devenue un enjeu stratégique. La session présentée par Sébastien Ferrer, ingénieur chez OVHcloud, aborde cette thématique cruciale, en mettant en lumière les méthodologies et les bonnes pratiques nécessaires pour faire face à des situations critiques. Ce talk s'inscrit dans un contexte où les équipes doivent être réactives et efficaces, souvent avec des ressources limitées.

Ce que présente le talk

La conférence se concentre sur la gestion des incidents en production, en présentant une méthodologie d’enquête qui allie outils, organisation et intuition. L'objectif est de transformer chaque crise en une enquête méthodique, permettant ainsi une résolution rapide et efficace des problèmes. Sébastien Ferrer partage des retours d'expérience concrets et des bonnes pratiques en matière de troubleshooting, logging et monitoring, offrant aux participants des clés pour optimiser la gestion des incidents dans leurs propres projets.

Points techniques importants

Méthodologie de gestion des incidents

  • Run et Troubleshooting : Le concept de "run" est introduit comme la phase de maintenance opérationnelle d'un service en production. Ferrer explique que le troubleshooting est un processus essentiel qui consiste à identifier et résoudre les incidents. Il souligne l'importance de la méthode d'analyse des causes profondes (RCA) pour résoudre durablement les problèmes.

  • Dashboard de Morning Shake : Un outil fondamental pour le suivi des incidents. Ce tableau de bord permet d'obtenir une vue d'ensemble de l'état des services en un coup d'œil, facilitant ainsi l'anticipation des incidents avant qu'ils ne surviennent.

Outils et pratiques

  • Priorisation des incidents : Le speaker aborde la classification des incidents selon leur priorité (P1 à P5), où P1 représente les incidents critiques nécessitant une attention immédiate. Cette hiérarchisation est cruciale pour la gestion efficace des ressources.

  • Métriques clés : Deux métriques principales sont mises en avant : le Time to Acknowledge (TTA) et le Time to Restore Service (TRS). Ces indicateurs permettent de mesurer la réactivité et l'efficacité des équipes face aux incidents.

Collaboration et communication

  • Point de contact : La personne en charge du run joue un rôle central en tant que point de contact pour l'équipe. Cette fonction est essentielle pour assurer une communication fluide entre les différentes parties prenantes, surtout en période de crise.

  • Intuition et expérience : Ferrer évoque l'importance de développer une intuition sur les incidents, même lorsque l'on est peu familier avec un projet. Cela nécessite une approche collaborative et une bonne connaissance des outils à disposition.

Ce qu'il faut retenir

La gestion des incidents en production est un processus complexe qui nécessite une méthodologie rigoureuse, des outils adaptés et une communication efficace. Les bonnes pratiques de troubleshooting, la priorisation des incidents et l'utilisation de métriques clés sont des éléments essentiels pour optimiser la résolution des problèmes. L'intuition, bien que précieuse, doit être soutenue par des données et des expériences passées.

Réflexions Darkwood

L'évolution des systèmes logiciels vers des architectures de microservices rend la gestion des incidents encore plus critique. Avec la montée en puissance de l'automatisation et des agents intelligents, la capacité à diagnostiquer et résoudre des problèmes en temps réel sera déterminante pour la résilience des systèmes. L'orchestration des workflows et la gouvernance des services deviendront des enjeux majeurs pour garantir une disponibilité continue et une expérience utilisateur optimale. En intégrant ces pratiques dans le développement logiciel, les équipes peuvent non seulement améliorer leur efficacité opérationnelle, mais aussi renforcer la confiance des utilisateurs dans leurs services.

Fiche programme

Performance de backend Spring : les techniques que tout dev devrait connaître

  • Speakers : Florian Beaufumé (X · LinkedIn · Bluesky)
  • Type : Conference
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 15:40 à 16:25 · Salle Neuilly 252AB

Performance de backend Spring : les techniques que tout dev devrait connaître

Dans un monde où les applications doivent répondre à des exigences de performance toujours croissantes, optimiser les backends Spring devient une nécessité. Cette session animée par Florian Beaufumé, spécialiste JavaSpring, aborde des techniques essentielles pour améliorer la performance des applications, en se concentrant sur des optimisations souvent négligées.

Ce que présente le talk

Florian Beaufumé partage son expérience en matière d'audit et d'optimisation des performances des applications Spring. Il met en lumière des techniques simples mais efficaces pour éviter les lenteurs et la consommation excessive de ressources. Parmi les sujets abordés, on trouve le paramétrage des entités JPA, la gestion des transactions, l'utilisation de caches, et bien d'autres. L'objectif est de fournir aux développeurs des outils pratiques pour rendre leurs backends plus rapides et économes.

Points techniques importants

Identification des problèmes de performance

Florian commence par souligner l'importance d'identifier les problèmes de performance avant de les résoudre. Il présente plusieurs techniques :

  • Logs de requêtes : Un filtre Spring simple pour enregistrer les requêtes en cours, le statut et la durée. Cela permet de détecter rapidement les requêtes anormales.
  • Show SQL : Activer le logging des requêtes SQL en développement pour comprendre le comportement de l'application.
  • Logging sélectif : Configurer Hibernate pour loguer uniquement les requêtes lentes, ce qui est crucial pour l'analyse en production.

Optimisations des requêtes Hibernate

Florian aborde ensuite les optimisations spécifiques aux requêtes Hibernate :

  • Chargement Lazy vs Eager : Il recommande de configurer les relations JPA en Lazy par défaut, tout en chargeant les données de manière agressive lorsque nécessaire. Cela permet d'éviter les requêtes N+1, un problème courant en matière de performance.
  • Joint Fetching : Utiliser des jointures pour charger plusieurs entités en une seule requête, réduisant ainsi le nombre d'appels à la base de données.

Gestion des transactions et des connexions

Florian évoque également l'importance de la gestion des transactions et des connexions :

  • Pool de connexions : Une configuration adéquate du pool de connexions est essentielle pour éviter les goulets d'étranglement.
  • Transactions : Une gestion appropriée des transactions peut réduire la latence et améliorer la réactivité de l'application.

Utilisation de caches

L'implémentation de caches est une autre technique clé pour améliorer les performances :

  • Cache de second niveau : Utiliser le cache de second niveau d'Hibernate pour réduire le nombre d'accès à la base de données.
  • Caches distribués : Pour les applications à grande échelle, envisager des solutions de cache distribuées pour améliorer la scalabilité.

Outils de mesure

Florian conclut cette section en présentant des outils de mesure :

  • Gatling : Un outil de test de performance permettant de simuler des charges et d'analyser les performances de l'application.
  • Métriques Hibernate : Activer les métriques d'Hibernate pour obtenir des rapports détaillés sur les performances des requêtes.

Ce qu'il faut retenir

Les performances des backends Spring peuvent être significativement améliorées par des techniques d'optimisation simples mais souvent sous-utilisées. Les développeurs doivent porter une attention particulière à la configuration des entités JPA, à la gestion des transactions, et à l'utilisation de caches. En intégrant des outils de mesure et de logging, ils peuvent identifier et résoudre rapidement les problèmes de performance.

Réflexions Darkwood

L'optimisation des performances des backends est un enjeu crucial dans l'évolution des systèmes logiciels modernes. À mesure que les applications deviennent plus complexes et que les exigences de scalabilité augmentent, l'automatisation et l'orchestration des workflows jouent un rôle de plus en plus important. L'intégration d'agents IA pour surveiller et ajuster dynamiquement les performances pourrait transformer la manière dont nous concevons et gérons nos architectures. En adoptant une approche proactive et en utilisant des outils adaptés, les développeurs peuvent non seulement améliorer les performances de leurs applications, mais aussi contribuer à l'évolution d'un écosystème logiciel plus résilient et performant.

Fiche programme

Observabilité CI/CD : Normaliser avec CDEvents

  • Speakers : David Bernard (LinkedIn)
  • Type : Tools-in-Action
  • Niveau : INTERMEDIATE
  • Langue : French
  • Créneau : 24/04/2026, 17:00 à 17:30 · Salle Neuilly 153

Observabilité CI/CD : Normaliser avec CDEvents

L'observabilité dans les pipelines CI/CD est devenue un enjeu crucial pour les équipes de développement. Alors que les outils de CI/CD se multiplient, la nécessité d'une visibilité unifiée se fait sentir. La session présentée par David Bernard lors de la conférence Devox aborde cette problématique en proposant une solution basée sur CDEvents, un standard émergent pour normaliser les événements de livraison.

Ce que présente le talk

David Bernard explore comment les ingénieurs de plateforme peuvent surmonter la fragmentation des outils CI/CD (GitHub Actions, Jenkins, ArgoCD) en adoptant une approche normalisée avec CDEvents. L'objectif est de fournir une observabilité cohérente des pipelines, permettant ainsi de mesurer la performance de livraison sans avoir à corréler manuellement des logs dispersés. La session se concentre sur la construction d'une architecture d'observabilité CI/CD utilisant CDEvents, tout en discutant des avantages et des inconvénients de cette approche.

Points techniques importants

Architecture et outils

L'architecture proposée repose sur plusieurs composants clés :

  • Collecteur CDviz : Ce collecteur joue un rôle central en intégrant les événements de différents outils CI/CD et en les stockant dans une base de données (PostgreSQL/TimescaleDB).
  • Visualisation avec Grafana : Les données collectées sont visualisées à l'aide de Grafana, permettant de créer des dashboards pertinents pour suivre des métriques telles que la fréquence de déploiement, les délais de promotion et la durée des pipelines.

CDEvents

CDEvents représente un format de message standardisé, visant à unifier les événements de livraison. Ce standard, soutenu par la CD Foundation, permet d'éviter le verrouillage fournisseur tout en facilitant l'interopérabilité entre différents outils. Les événements sont structurés de manière à inclure des informations contextuelles essentielles, telles que le type d'événement, la source et le timestamp.

Observabilité et métriques

L'observabilité est abordée à travers plusieurs types de tableaux de bord :

  • Tableaux de bord de performance : Ces dashboards permettent de visualiser les performances des pipelines, d'identifier les goulets d'étranglement et de comparer les durées de déploiement entre différentes équipes.
  • Tableaux de bord d'incidents : Ils fournissent une vue d'ensemble des incidents survenus, facilitant ainsi la gestion et la résolution des problèmes.

Automatisation et intégration

La session évoque également l'ouverture vers l'automatisation des workflows CI/CD. En intégrant des événements dans des queues et en utilisant des outils d'orchestration (comme Argo Workflows ou N8N), il devient possible de déclencher automatiquement des pipelines en réponse à des événements spécifiques.

Ce qu'il faut retenir

  • La normalisation des événements avec CDEvents permet d'améliorer l'observabilité des pipelines CI/CD.
  • Une architecture basée sur un collecteur et une base de données permet de centraliser les données issues de différents outils.
  • La visualisation des métriques via Grafana offre une meilleure compréhension des performances des pipelines.
  • L'intégration d'événements dans des workflows automatisés ouvre la voie à une plus grande efficacité dans la gestion des déploiements.

Réflexions Darkwood

L'évolution des systèmes logiciels vers une approche plus intégrée et normalisée est inéluctable. L'adoption de standards comme CDEvents pourrait transformer la manière dont les équipes interagissent avec leurs outils CI/CD, facilitant ainsi l'automatisation et l'orchestration des workflows. En normalisant les événements, les entreprises peuvent non seulement améliorer leur observabilité, mais également réduire le verrouillage fournisseur, favorisant une architecture plus flexible et adaptable. Dans un monde où la rapidité et l'efficacité sont essentielles, cette approche pourrait bien devenir un pilier de l'innovation dans le développement logiciel.

Fiche programme

Conclusion : L'Humain, Chef d'Orchestre d'un Écosystème Augmenté

Au terme de ce panorama de Devoxx France 2026, une réalité s'impose : le métier de développeur ne disparaît pas, il se métamorphose. Les interventions de cette année, qu'il s'agisse des démonstrations d'outils comme Antigravity ou des réflexions pragmatiques sur le "vibe coding", soulignent un changement de paradigme. Nous ne sommes plus seulement des rédacteurs de syntaxe, mais des gardiens de la cohérence, de la sécurité et de l'éthique des systèmes que nous déployons.

Ce qu'il faut retenir de cette édition :

La maturité des outils : L'écosystème s'est structuré autour de standards (MCP) et de frameworks d'évaluation robustes pour "mesurer l'immesurable".

La fin du mythe du remplacement : L'IA est un levier de productivité qui libère du temps pour la créativité et la résolution de problèmes complexes, à condition de conserver un esprit critique aiguisé.

L'importance du discernement : Comme le rappelait Laurence Devillers, l'IA reste un outil au service du bien commun, dont nous sommes les pilotes responsables.

Les 212 replays disponibles sont autant de boussoles pour naviguer dans ce nouvel océan technologique. Devoxx 2026 nous l'a prouvé : l'avenir du développement sera collaboratif, agentique et, plus que jamais, porté par l'ingéniosité humaine. Bon visionnage et bon code !

Site

  • Plan du Site
  • Contact
  • Mentions légales

Network

  • Hello
  • Blog
  • Apps
  • Photos

Social

Darkwood 2026, tous droits réservés