Skip to content
View Krigsexe's full-sized avatar
:electron:
Focusing
:electron:
Focusing

Organizations

@Alixia-ch

Block or report Krigsexe

Block user

Prevent this user from interacting with your repositories and sending you notifications. Learn more about blocking users.

You must be logged in to block users.

Maximum 250 characters. Please don't include any personal information such as legal names or email addresses. Markdown supported. This note will be visible to only you.
Report abuse

Contact GitHub support about this user’s behavior. Learn more about reporting abuse.

Report abuse
Krigsexe/README.md

"L'intelligence n'est pas une fonction que l'on appelle, c'est une homéostasie que l'on maintient."

Julien GELEE — AI Architect | Epistemic Systems Explorer | Lead Developer

FR d'abord • EN below


ARES / SYNAPSE — Programme de recherche

ARES n'est pas un chatbot. Ce n'est pas un nouveau LLM. Ce n'est pas une AGI.
ARES est une architecture épistémique qui transforme des modèles de langage existants en systèmes de raisonnement fiables, traçables et auto-régulés.

Principe fondateur : l'intelligence n'est pas native aux modèles ; elle émerge de l'architecture qui les cadre.
Objectif : passer d'une IA probabiliste rapide à un organisme cognitif conçu pour la justesse (Slow AI), avec contrôle humain.

Essence

ARES repose sur quatre idées opérationnelles :

  • Architecture over scaling : la fiabilitĂ© est une propriĂ©tĂ© du système, pas du nombre de paramètres.
  • CausalitĂ© + simulation : un World Model Ă©pistĂ©mique qui simule puis valide.
  • Certification end-to-end : le système sait quand douter, relancer, trianguler, certifier.
  • TraçabilitĂ© totale : outputs et processus sont auditables, quantifiĂ©s, persistĂ©s.

Origine : d'AIRIS à l'espace épistémique

AIRIS est né dans Minecraft : un agent apprend par interaction causale (obstacles, actions, conséquences), puis explore et construit ; en multi-agent, des structures émergent (villes, économies, écosystèmes).
ARES transpose ce mécanisme : au lieu d'un monde physique, l'espace épistémique ; au lieu de murs, des incohérences ; au lieu de craft d'objets, craft de connaissance validée.

JEPA complète AIRIS : au lieu de prédire des pixels ou de reconstruire des tokens, JEPA vise la prédiction de représentations abstraites pour apprendre un modèle interne du monde.[page:1]
Cette logique sert de base au World Model ARES : simuler dans un espace latent, puis valider causalement.

Cerveau : deux raisonneurs en dialogue

ARES n'est pas un modèle unique, c'est un protocole de cognition :

  • Raisonneur A (Explorateur) : hypothèses, exploration, gĂ©nĂ©ration de plans, ouverture de branches.
  • Raisonneur B (Critic) : contradiction, validation, relance, dĂ©cision de stopper ou d'investir plus de calcul.
  • Encodeur φ : embeddings pour la persistance et le rappel.

Le Critic est le moteur de curiosité contrôlée : sans criticité, le système converge trop vite ; avec criticité, le système sait pousser ou s'arrêter en fonction de la cohérence et du coût.

Auto-régulation des ressources : les raisonneurs voient l'état du système (VRAM/RAM/CPU, agents actifs, budget) et arbitrent curiosité versus saturation (éviter l'auto-empoisonnement).

Action cognitive : boucle atomique

ARES exécute une boucle cognitive indivisible :

  1. Simulation (World Model) : projection d'états futurs dans un espace latent.
  2. Validation causale (AIRIS) : rejet des trajectoires incohérentes avec l'expérience et les contraintes.
  3. Triangulation (SYNAPSE) : recherche, confrontation, pondération, consolidation.
  4. Certification (CE²) : mesure de cohérence ; en cas de rupture (Resonant Shock), relance automatique.

Exécution parallèle : plusieurs agents explorent des branches en parallèle (approche de type Monte Carlo épistémique), puis agrégation et décision.

Triangulation : au-delĂ  des sources simples

SYNAPSE ne fait pas "des recherches" ; il apprend à évaluer la fiabilité :

  • LittĂ©rature acadĂ©mique : densitĂ© thĂ©orique, faible volume, haute valeur.
  • Terrain : grande base empirique, biais possibles, mais signal massif sur la rĂ©alitĂ© opĂ©rationnelle.
  • Historique interne : ce qui a dĂ©jĂ  Ă©chouĂ© ou tenu dans des cas similaires.

Le système apprend ces patterns et ajuste ses pondérations de confiance (apprentissage causal sur les sources, pas table fixe).

Kernel : bloc unifié (pas empilé)

Le Kernel ARES est conçu comme un seul bloc cohérent :

  • mHC : stabilitĂ© de la rĂ©cursion par contrainte spectrale et projection (Birkhoff / Sinkhorn-Knopp).
  • TACU / Chromatine : gestion dynamique de densitĂ© d'information (VRAM ↔ RAM ↔ ZRAM ↔ NVMe), hibernation des agents inactifs, activation des agents utiles.
  • Optimisations GPU : fusion de kernels, mixed precision, rĂ©duction des passes inutiles.
  • AIOS : orchestration du cycle de vie des agents (spawn, suspend, resume, terminate), isolation, scheduling.

Objectif : Slow AI stable et soutenable sur hardware grand public, sans divergence et avec contrôle de coût.

Persistance : un cerveau qui apprend

Stockage : index vectoriel (HNSW/USearch) + base de données.

Tout est persisté :

  • Embeddings, relations, graph de causalitĂ©.
  • Niveaux de confiance, contradictions rencontrĂ©es.
  • Trajectoires de raisonnement (ce qui a Ă©tĂ© tentĂ©, ce qui a Ă©chouĂ©, ce qui a Ă©tĂ© certifiĂ©).

La persistance n'est pas un cache : c'est un apprentissage cumulatif qui réduit la dépense future et augmente la prudence.

Traçabilité : outputs et processus

ARES applique SYMBIOSE end-to-end :

  • Output : sources, niveau de confiance, certificat (hash), coĂ»t estimĂ©.
  • Processus : logs complets (Ă©tapes, dĂ©cisions du Critic, agents lancĂ©s, rĂ©sultats, mĂ©triques système, consommation).

Objectif : auditabilité totale, reproductibilité, et capacité à expliquer pourquoi le système a conclu X plutôt que Y.

Self-awareness : conscience read-only

ARES a un accès en lecture seule à :

  • Son code et son architecture.
  • Ses configurations et curseurs.
  • Ses mĂ©triques historiques et sa base de connaissances.

Il peut proposer des améliorations (architecturales, paramétriques, opérationnelles), mais ne peut jamais s'auto-modifier. L'humain valide.

Déploiement : agnostique et modulable

ARES est agnostique au backend et au mode d'exécution.

Trois modes officiels :

  • Full local : tout s'exĂ©cute sur la machine (raisonneurs, embeddings, index, kernel).
  • Full API : raisonneurs et/ou fonctions critiques exĂ©cutĂ©s via fournisseurs externes (Claude, GPT, etc.), avec les mĂŞmes protocoles Ă©pistĂ©miques.
  • Hybrid : orchestration et persistance locales, avec dĂ©lĂ©gation ciblĂ©e (par exemple Critic local + modèle API, ou local pour exploration + API pour validation).

Même architecture, mêmes garanties, différents backends selon contraintes (confidentialité, coût, latence, disponibilité GPU).

Interfaces

  • CLI : contrĂ´le fin, scripts, reproductibilitĂ©.
  • UI : panneau de pilotage (agents, budgets, cycles, modes guidĂ©/autonome), enrichissement en cours de route.
  • API : intĂ©gration externe (pipelines R&D, produits, outillage interne).

Statut

  • Vision : stabilisĂ©e (Jan 2026).
  • ImplĂ©mentation : Kernel + orchestration + mĂ©triques de cohĂ©rence en cours.
  • PrioritĂ© : assemblage end-to-end (UI → pipeline → gateway → BDD) avant toute dĂ©claration de "fait".

English Version (Aligned)

ARES / SYNAPSE — Research Program

ARES is not a chatbot. It is not a new LLM. It is not an AGI.
ARES is an epistemic architecture that turns existing language models into reliable, traceable, self-regulated reasoning systems.

Foundational principle: intelligence is not native to the model; it emerges from the framing architecture.
Goal: move from fast probabilistic AI to a cognitive organism optimized for correctness (Slow AI), under strict human control.

Essence

ARES is built on four operational ideas:

  • Architecture over scaling: reliability is a system property, not a parameter-count property.
  • Causality + simulation: an epistemic World Model that simulates, then validates.
  • End-to-end certification: the system knows when to doubt, relaunch, triangulate, and certify.
  • Total traceability: both outputs and process are auditable, quantified, and persisted.

Origin: from AIRIS to Epistemic Space

AIRIS emerged in Minecraft: an agent learns causal interaction (obstacles, actions, consequences), then explores and builds; at scale, multi-agent ecosystems emerge (cities, economies, environments).
ARES transposes the same mechanism to epistemic space: inconsistencies become walls; validated knowledge becomes the craftable object.

JEPA complements AIRIS: instead of predicting pixels or reconstructing tokens, JEPA aims to predict abstract representations to learn an internal model of the world.[page:1]
This becomes the basis for the ARES World Model: simulate in latent space, then validate causally.

Brain: dialoguing reasoners

ARES is not a single model; it is a cognition protocol:

  • Reasoner A (Explorer): hypotheses, exploration, plan generation, branch opening.
  • Reasoner B (Critic): contradiction, validation, relaunch, stop-or-invest decisions.
  • φ Encoder: embeddings for persistence and recall.

The Critic is the controlled-curiosity engine: without criticism, the system converges too fast; with it, the system knows when to push or when to stop based on coherence and cost.

Resource self-regulation: reasoners observe system state (VRAM/RAM/CPU, active agents, budget) and arbitrate curiosity versus saturation to avoid self-poisoning.

Cognitive action: atomic loop

ARES runs an indivisible cognitive loop:

  1. Simulation (World Model): project future states in a latent space.
  2. Causal validation (AIRIS): reject trajectories inconsistent with experience and constraints.
  3. Triangulation (SYNAPSE): search, confrontation, weighting, consolidation.
  4. Certification (CE²): coherence measurement; if a Resonant Shock is detected, automatic relaunch.

Parallel execution: multiple agents explore branches in parallel (epistemic Monte Carlo), then aggregate and decide.

Triangulation: beyond simple sources

SYNAPSE does not merely "search"; it learns source reliability:

  • Academic literature: high theoretical density, low volume, high value.
  • Field signal: massive empirical feedback, noisy but often operationally decisive.
  • Internal history: what failed or held in similar cases.

The system learns patterns and adapts confidence weighting (causal learning about sources, not a fixed table).

Kernel: unified block (not stacked)

The ARES Kernel is designed as a single coherent block:

  • mHC: recursive stability via spectral constraints and projection (Birkhoff / Sinkhorn-Knopp).
  • TACU / Chromatin: dynamic information density across memory tiers (VRAM ↔ RAM ↔ ZRAM ↔ NVMe), agent hibernation and activation.
  • GPU optimizations: kernel fusion, mixed precision, elimination of redundant passes.
  • AIOS: agent lifecycle orchestration (spawn, suspend, resume, terminate), isolation, scheduling.

Goal: stable and sustainable Slow AI on consumer hardware, without divergence and with controlled cost.

Persistence: a learning brain

Storage: vector index (HNSW/USearch) + database.

Everything is persisted:

  • Embeddings, relations, causal graph.
  • Confidence levels, encountered contradictions.
  • Reasoning trajectories (attempts, failures, certifications).

Persistence is not cache: it is cumulative learning that reduces future cost and increases prudence.

Traceability: outputs and process

ARES applies SYMBIOSE end-to-end:

  • Output: sources, confidence level, certificate (hash), estimated cost.
  • Process: full logs (steps, Critic decisions, spawned agents, results, system metrics, resource usage).

Goal: total auditability, reproducibility, and the ability to justify why conclusion X was preferred over Y.

Self-awareness: read-only

ARES has read-only access to:

  • Its code and architecture.
  • Its configurations and control parameters.
  • Its historical metrics and full knowledge base.

It can propose improvements, but can never self-modify. Humans approve.

Deployment: agnostic and modular

ARES is backend-agnostic and execution-mode agnostic.

Three official modes:

  • Full local: everything runs on-device (reasoners, embeddings, index, kernel).
  • Full API: reasoners and/or critical functions run via external providers (Claude, GPT, etc.), with the same epistemic protocols.
  • Hybrid: local orchestration and persistence with targeted delegation (e.g., local Critic + API model, or local exploration + API validation).

Same architecture, same guarantees, different backends depending on constraints (privacy, cost, latency, GPU availability).

Interfaces

  • CLI: fine control, scripting, reproducibility.
  • UI: control panel (agents, budgets, cycles, guided/autonomous), live enrichment.
  • API: external integration (R&D pipelines, products, internal tooling).

Status

  • Vision: stabilized (Jan 2026).
  • Implementation: Kernel + orchestration + coherence metrics in progress.
  • Priority: end-to-end assembly (UI → pipeline → gateway → DB) before claiming completion.

"A system that chooses what it learns after verifying it — perhaps that's real intelligence."

v1.1.0 — Epistemic Gold Standard • 2026

Pinned Loading

  1. AI-Context-Engineering AI-Context-Engineering Public

    âśł ODIN: Autonomous AI Agent Framework - Context Engineering - Best way for Vibe Coders and Devs too...

    Python 7

  2. Ai-Ops Ai-Ops Public

    100% open-source, self-hosted (cloud/on-premises) AIOps solution with local LLM based on Qwen2.5-coder

    Python 1

  3. Majordome Majordome Public

    Agentic Windows application for intelligent file organization and automated PC maintenance

    TypeScript 1

  4. Yggdrasil Yggdrasil Public

    Together, towards an ethical, sovereign and verifiable "Proto AGI" // built by humanity, for humanity.

    TypeScript 1