Der Reddit-Thread (r/aiagents) und das GitHub-Repo 666ghj/MiroFish werden gerade massiv geteilt. Grund: Das Projekt verspricht eine „A Simple and Universal Swarm Intelligence Engine, Predicting Anything“. Klingt nach Marketing – also habe ich mir den Code, die Architektur und Use Cases angesehen.

Was ist MiroFish?

  • Multi-Agent-Vorhersage-Engine: Baut aus „Seed“-Informationen (News, Policy Drafts, Finanzdaten, sogar Roman-Manuskripte) eine parallele Gesellschaft mit tausenden KI-Agenten.
  • Ziel: Verhalten von Gruppen simulieren („Swarm Intelligence“) und daraus Vorhersagen / Reports ableiten.
  • Praxisbeispiele (laut README & Demo):
  • Öffentliche Meinung zu einer Uni-Krise (Bilibili-Demo)
  • Alternative Enden für „Traum der Roten Kammer“ (Literatur)
  • In Arbeit: Finanz- und Geopolitik-Szenarien

Architektur in Kurzform

  1. GraphRAG + Seed Parsing – extrahiert Entitäten, Beziehungen und Ereignisse aus dem Input.
  2. Agent Factory – generiert Personas mit Gedächtnis (Zep Cloud), Motivationen und Interaktionsregeln.
  3. Simulation Layer – zweigleisiger Simulator (Node/Python) mit Zeitfortschritt, Ereignis-Queue, „God Mode“-Interventionen.
  4. Report Agent – nutzt LLM (Standard: Qwen-Plus via Aliyun Dashscope) plus Tools (SQL, Graph Queries) für Prognoseberichte.
  5. Frontend – React/Next UI für Monitoring + Interaktion (Chat mit Agents, Parametertuning).

Installation & Stack

Komponente Details
LLM OpenAI-kompatibel; Default qwen-plus (Aliyun). Jede API mit OpenAI-SDK-Syntax funktioniert.
Memory Zep Cloud für Langzeit-Gedächtnis & Vektorsuche.
Backend Python 3.11/3.12 + uv (Package Manager).
Frontend Node 18+, React/Next.
Deploy npm run setup:all (lokal) oder docker compose up -d (Front 3000 / API 5001).

Hardware-Anforderungen

Szenario Empfehlung
Proof of Concept 4 vCPU, 16 GB RAM, 30 GB SSD. Kein GPU nötig. (Getestet auf Hetzner CX32 & M2 Mac mini.)
Mittlere Simulationen (≤2 k Agents) 8 vCPU, 32 GB RAM, 60 GB SSD. Optional NVIDIA T4/RTX 3060 für lokale LLMs.
Große Simulationen / Dauerbetrieb Dedizierte Server (z. B. 16+ vCPU, 64–128 GB RAM). README verweist auf Shanda Cloud-Instanzen/OASIS-Cluster.

Tipps aus der Community (Reddit + GitHub Issues):
- GPU nur nötig, wenn du Modelle lokal betreiben willst; ansonsten reichen Cloud-LLMs.
- Zep Cloud Free Tier trägt einfache Szenarien, aber bei >10 k Speicher-Events brauchst du einen eigenen Vector Store.
- Docker Deployment eignet sich für Windows-Anwender:innen (WSL2). macOS/Linux laufen nativ.
- Deutsche Übersetzung inkl. Setup-Guide: BEKO2210/MiroFish-DE.

Tutorial: MiroFish mit lokalem LLM (Ollama + LiteLLM)

So nutzt du MiroFish komplett ohne externe LLM-APIs:

  1. Ollama installieren
    bash curl -fsSL https://ollama.com/install.sh | sh # macOS / Linux # Windows: https://ollama.com/download ollama pull qwen2:7b # oder llama3, mistral, ...

    Tipp: Apple Silicon oder Linux-Server mit mind. 32 GB RAM bringen spürbar bessere Laufzeiten.

  2. OpenAI-kompatible Schnittstelle starten (LiteLLM als Proxy)
    bash pip install litellm litellm --model ollama/qwen2:7b --host 0.0.0.0 --port 4000 \ --ollama-base http://localhost:11434 --num-workers 4
    Jetzt lauscht LiteLLM auf http://localhost:4000/v1 und übersetzt OpenAI-Calls → Ollama.

  3. MiroFish .env setzen
    env LLM_BASE_URL=http://localhost:4000/v1 LLM_MODEL_NAME=ollama/qwen2:7b LLM_API_KEY=demo # beliebiger Platzhalter, LiteLLM prüft ihn nicht

  4. MiroFish starten
    bash npm run setup:all npm run dev

  5. Kosten & Performance im Blick behalten

  6. Sub-7B-Modelle liefern schnellere Simulationen, aber weniger Konsistenz.
  7. Für >2 k Agents empfiehlt sich GPU-Unterstützung (z. B. RTX 4090, A100) oder ein zweiter LiteLLM-Node.
  8. Logs aufpassen: LiteLLM gibt Token-Kosten, Durchsatz und Fehler direkt aus.

Damit läuft das komplette System on-prem – praktisch für sensible Szenarien (z. B. vertrauliche Policy-Tests oder EU-DSG-Konformität).

Wofür taugt es (realistisch)?

  • Policy / Krisen-Kommunikation: Null-Risk-Testfeld für Narrative und Gegenmaßnahmen (vgl. Demo „Wuhan University Incident“).
  • Produkt/Feature-Futures: Simuliert Community-Reaktionen, Feature-Adoption, Dissonanzen – guter Input fürs CX-Team.
  • Storytelling / Games: KI-generierte Welten für Autorenstudios (Visual Novels, Alternate History).
  • Education: Lehr-Use-Cases für Komplexität, Systemdenken, Collective Intelligence.

Grenzen & offene Fragen

Thema Beobachtung
Validierung Keine Benchmarks vs. Realwelt-Daten veröffentlicht. „Faithful Digital Mirror“ bleibt ein Versprechen.
Bias & Seed-Qualität Garbage-in → Garbage-out. Seed-Daten definieren die komplette Simulation.
Rechenaufwand Mehrere tausend Agents + Memory → LLM-Kosten explodieren schnell. README warnt vor >40 Runden mit qwen-plus.
Transparenz Engine basiert u. a. auf hauseigenem OASIS-Framework (von Shanda). Kein vollständiger Einblick in alle Module.
Einsatzethik „Predict anything“ kann auch Missbrauch begünstigen (z. B. Disinformation, Manipulation). Governance-Fragen offen.

Einschätzung

MiroFish ist mehr als ein Gimmick – es kombiniert moderne Bausteine (GraphRAG, Langzeit-Memory, Multi-Agent-Sim) zu einer interaktiven Vorhersageplattform. Der Code ist sauber modular, Docker-Deploys laufen ohne großen Schmerz. ABER: Ergebnisse sind so gut wie die Seeds und Prompt-Designs. Wer es im Unternehmen einsetzen will, sollte es als „Entscheidungs-Sandkasten“ begreifen, nicht als Orakel.

Quellen: GitHub: 666ghj/MiroFish, Reddit r/aiagents, MiroFish-DE Übersetzung.