Darkwood Blog Blog
  • Articles
fr
  • de
  • en
Connexion
  • Blog
  • Articles

🚀 J’ai reconstruit un LLM
 avec des pixels.

le 26 avril 2026

Les Large Language Models (LLM) reposent sur des concepts abstraits : distribution de probabilité, génération autoregressive, optimisation à grande échelle.

Ces mécanismes sont difficiles à observer directement.

Une approche alternative consiste Ă  projeter ces concepts dans un systĂšme visuel et dĂ©terministe, permettant d’en Ă©tudier les dynamiques.

Ce travail s’inspire d’une dĂ©monstration initiale partagĂ©e sur Twitter : Allen Explains thread

L’objectif est de construire un prototype pĂ©dagogique permettant de :

  • reprĂ©senter une gĂ©nĂ©ration sĂ©quentielle
  • observer un processus d’optimisation
  • comparer diffĂ©rents rĂ©gimes d’entraĂźnement

Architecture du systĂšme

Le prototype est implémenté en PHP (Symfony 8) et repose sur quatre composants principaux :

  1. Automate cellulaire (Game of Life)
  2. Langage lambda (AST JSON)
  3. Algorithme génétique
  4. Pipeline de streaming (NDJSON + SSE)

Code source complet : llm-game-of-life

Représentation : du texte à la grille

Un LLM modélise une distribution :

[ P(x_1, x_2, ..., x_n) ]

décomposée en :

[ \prod_{t=1}^{n} P(x_t \mid x_{<t}) ]

Dans ce prototype, cette structure est transposée :

| LLM | Prototype | | -------------- | ---------- | | Token | Cellule | | Séquence | Grille | | Génération | Frame | | ModÚle | Programme | | Inference loop | Simulation |

Chaque frame correspond à une étape de génération.

Le flux SSE produit une séquence :

frame₀ → frame₁ → frame₂ → 


équivalente à une génération autoregressive.

ModÚle : programme plutÎt que réseau

Contrairement aux LLM traditionnels, aucun rĂ©seau de neurones n’est utilisĂ©.

Le modĂšle est dĂ©fini comme un programme dans un mini langage lambda, reprĂ©sentĂ© sous forme d’AST JSON :

{
  "type": "sequence",
  "nodes": [
    { "type": "birth", "x": 1, "y": 1 },
    { "type": "next" }
  ]
}

Ce programme agit comme une fonction de transition sur la grille.

Cette approche remplace :

  • les poids d’un modĂšle → par des instructions
  • les couches → par des transformations explicites

Optimisation : algorithme génétique

L’entraünement repose sur une population de programmes.

Chaque génération suit :

  1. Évaluation (fitness)
  2. Sélection
  3. Crossover
  4. Mutation
  5. Élitisme

Ce processus remplace la descente de gradient.

Entraßnement non supervisé

Le mode non supervisé maximise une fonction de fitness basée sur :

  • entropie (diversitĂ©)
  • mouvement (variation entre frames)
  • durĂ©e de vie

Objectif :

[ \text{fitness} = f(\text{entropy}, \text{motion}, \text{lifetime}) ]

Ce régime est analogue au pretraining :

  • absence de cible
  • exploration du espace de solutions

Entraßnement supervisé

Le mode supervisé introduit une cible :

  • glider
  • blinker
  • block

La fitness devient :

[ \text{fitness} = -d(\text{frame}, \text{target}) + \lambda \cdot \text{penalty} ]

oĂč :

  • (d) est une distance entre grilles
  • la pĂ©nalitĂ© limite la taille des programmes

Ce mode correspond Ă  un fine-tuning.

Préférences et sélection

Un mĂ©canisme de comparaison peut ĂȘtre introduit :

  • deux programmes produisent deux sĂ©quences
  • une prĂ©fĂ©rence est appliquĂ©e
  • la sĂ©lection favorise le meilleur

Ce schéma correspond à une simplification de RLHF / DPO :

[ \max \log P(\text{preferred}) - \log P(\text{rejected}) ]

Génération et streaming

Les résultats sont produits en NDJSON et diffusés via SSE :

  • chaque chunk = une frame
  • chaque stream = une gĂ©nĂ©ration

Interface de visualisation basée sur canvas :

  • rendu matriciel
  • affichage temps rĂ©el
  • mĂ©triques (fitness, gĂ©nĂ©ration, seed)

Slides de présentation : slidewire presentation

Benchmark et reproductibilité

Le systĂšme inclut un pipeline de benchmark :

  • seed dĂ©terministe
  • double exĂ©cution
  • hash de sĂ©quence

Métriques :

  • durĂ©e (duration_ms)
  • mĂ©moire (peak_memory_mb)
  • fitness finale
  • reproductibilitĂ©

Limites

Ce prototype ne vise pas à reproduire un LLM réel :

  • pas de transformer
  • pas de tokenisation
  • pas de modĂšle probabiliste
  • pas de gradient

Il s’agit d’une analogie computationnelle, utile pour :

  • observer une dynamique d’optimisation
  • visualiser une gĂ©nĂ©ration sĂ©quentielle
  • comparer diffĂ©rents rĂ©gimes d’apprentissage

Conclusion

Les LLM modernes reposent sur des mécanismes difficiles à appréhender directement.

La transposition dans un systĂšme visuel permet de :

  • rendre observable la gĂ©nĂ©ration
  • matĂ©rialiser l’optimisation
  • isoler les concepts fondamentaux

Cette approche ne remplace pas les modùles existants, mais propose un outil d’exploration conceptuelle.

  • Source de la publication twitter : https://x.com/allen_explains/status/2044757995549319172?s=12
  • Les source du projet : https://github.com/matyo91/llm-game-of-life
  • Les slides de la prĂ©sentation : https://github.com/matyo91/slidewire

Ressources

  • What are the principles we can use to build LLM-powered software that is actually good enough to put in the hands of production customers? https://github.com/humanlayer/12-factor-agents
  • AIE Miami Keynote & Talks ft. OpenCode. Google Deepmind, OpenAI, and more! : https://www.youtube.com/watch?v=6IxSbMhT7v4
  • AIE Miami Day 2 ft. Cerebras, OpenCode, Cursor, Arize AI, and more! : https://www.youtube.com/watch?v=DeM_u2Ik0sk
  • Comment l'IA transforme le gĂ©nie logiciel : une conversation avec Gergely Orosz, @pragmaticengineer : https://www.youtube.com/watch?v=CS5Cmz5FssI
  • Microsoft at ICLR 2026: Deep Learning, LLM Reasoning, Generative Models : https://www.linkedin.com/pulse/microsoft-iclr-2026-deep-learning-llm-reasoning-generative-h74se/
  • ASUS DGX Spark: KI auf dem Schreibtisch – Nie wieder Token‑Kosten! | Live Modellvergleich : https://www.youtube.com/watch?v=dP4zE-DTWAg
  • 🟣 [SOMMET VIRTUEL JOUR 1/5] Comment dĂ©passer 99% des gens grĂące Ă  l'IA : https://www.youtube.com/watch?v=yzhg9Ks859I
  • PrĂȘt Ă  faire tourner votre propre agent ? : https://hermes-agent.org/fr/
  • PaperClip + Agent HermĂšs, c'est de la folie ! : https://www.youtube.com/watch?v=PUaZ5o8u0wY
  • 30-minute workshop by the creator of Claude Code that will teach you more about vibe-coding : https://x.com/heyamit_/status/2046489651775713498?s=46
  • What Young People Expect from HR: Why the Generational Approach is a Misleading Concept : https://www.insign.fr/en/insights/young-workforce-expectations-generational-approach-an-intellectual-scam

Site

  • Plan du Site
  • Contact
  • Mentions lĂ©gales

Network

  • Hello
  • Blog
  • Apps
  • Photos

Social

Darkwood 2026, tous droits réservés