MiroFish: Was kann die Open-Source-Schwarm-Intelligenz wirklich vorhersagen?
Der Reddit-Thread ( r/aiagents ) und das GitHub-Repo 666ghj/MiroFish werden gerade massiv geteilt. Grund: Das Projekt verspricht eine „A Simple and Universal Swarm Intelligence Engine, Predicting Anything“. Klingt nach M …
AI-Builders, Strateg:innen, Innovationsteams.
Grundverständnis von Multi-Agent-Simulationen und LLM-APIs.
Der Reddit-Thread (r/aiagents) und das GitHub-Repo 666ghj/MiroFish werden gerade massiv geteilt. Grund: Das Projekt verspricht eine „A Simple and Universal Swarm Intelligence Engine, Predicting Anything“. Klingt nach Marketing – also habe ich mir den Code, die Architektur und Use Cases angesehen.
Was ist MiroFish?
- Multi-Agent-Vorhersage-Engine: Baut aus „Seed“-Informationen (News, Policy Drafts, Finanzdaten, sogar Roman-Manuskripte) eine parallele Gesellschaft mit tausenden KI-Agenten.
- Ziel: Verhalten von Gruppen simulieren („Swarm Intelligence“) und daraus Vorhersagen / Reports ableiten.
- Praxisbeispiele (laut README & Demo):
- Öffentliche Meinung zu einer Uni-Krise (Bilibili-Demo)
- Alternative Enden für „Traum der Roten Kammer“ (Literatur)
- In Arbeit: Finanz- und Geopolitik-Szenarien
Architektur in Kurzform
- GraphRAG + Seed Parsing – extrahiert Entitäten, Beziehungen und Ereignisse aus dem Input.
- Agent Factory – generiert Personas mit Gedächtnis (Zep Cloud), Motivationen und Interaktionsregeln.
- Simulation Layer – zweigleisiger Simulator (Node/Python) mit Zeitfortschritt, Ereignis-Queue, „God Mode“-Interventionen.
- Report Agent – nutzt LLM (Standard: Qwen-Plus via Aliyun Dashscope) plus Tools (SQL, Graph Queries) für Prognoseberichte.
- Frontend – React/Next UI für Monitoring + Interaktion (Chat mit Agents, Parametertuning).
Installation & Stack
| Komponente | Details |
|---|---|
| LLM | OpenAI-kompatibel; Default qwen-plus (Aliyun). Jede API mit OpenAI-SDK-Syntax funktioniert. |
| Memory | Zep Cloud für Langzeit-Gedächtnis & Vektorsuche. |
| Backend | Python 3.11/3.12 + uv (Package Manager). |
| Frontend | Node 18+, React/Next. |
| Deploy | npm run setup:all (lokal) oder docker compose up -d (Front 3000 / API 5001). |
Hardware-Anforderungen
| Szenario | Empfehlung |
|---|---|
| Proof of Concept | 4 vCPU, 16 GB RAM, 30 GB SSD. Kein GPU nötig. (Getestet auf Hetzner CX32 & M2 Mac mini.) |
| Mittlere Simulationen (≤2 k Agents) | 8 vCPU, 32 GB RAM, 60 GB SSD. Optional NVIDIA T4/RTX 3060 für lokale LLMs. |
| Große Simulationen / Dauerbetrieb | Dedizierte Server (z. B. 16+ vCPU, 64–128 GB RAM). README verweist auf Shanda Cloud-Instanzen/OASIS-Cluster. |
Tipps aus der Community (Reddit + GitHub Issues):
- GPU nur nötig, wenn du Modelle lokal betreiben willst; ansonsten reichen Cloud-LLMs.
- Zep Cloud Free Tier trägt einfache Szenarien, aber bei >10 k Speicher-Events brauchst du einen eigenen Vector Store.
- Docker Deployment eignet sich für Windows-Anwender:innen (WSL2). macOS/Linux laufen nativ.
- Deutsche Übersetzung inkl. Setup-Guide: BEKO2210/MiroFish-DE.
Tutorial: MiroFish mit lokalem LLM (Ollama + LiteLLM)
So nutzt du MiroFish komplett ohne externe LLM-APIs:
-
Ollama installieren
bash curl -fsSL https://ollama.com/install.sh | sh # macOS / Linux # Windows: https://ollama.com/download ollama pull qwen2:7b # oder llama3, mistral, ...Tipp: Apple Silicon oder Linux-Server mit mind. 32 GB RAM bringen spürbar bessere Laufzeiten.
-
OpenAI-kompatible Schnittstelle starten (LiteLLM als Proxy)
bash pip install litellm litellm --model ollama/qwen2:7b --host 0.0.0.0 --port 4000 \ --ollama-base http://localhost:11434 --num-workers 4
Jetzt lauscht LiteLLM aufhttp://localhost:4000/v1und übersetzt OpenAI-Calls → Ollama. -
MiroFish
.envsetzen
env LLM_BASE_URL=http://localhost:4000/v1 LLM_MODEL_NAME=ollama/qwen2:7b LLM_API_KEY=demo # beliebiger Platzhalter, LiteLLM prüft ihn nicht -
MiroFish starten
bash npm run setup:all npm run dev -
Kosten & Performance im Blick behalten
- Sub-7B-Modelle liefern schnellere Simulationen, aber weniger Konsistenz.
- Für >2 k Agents empfiehlt sich GPU-Unterstützung (z. B. RTX 4090, A100) oder ein zweiter LiteLLM-Node.
- Logs aufpassen: LiteLLM gibt Token-Kosten, Durchsatz und Fehler direkt aus.
Damit läuft das komplette System on-prem – praktisch für sensible Szenarien (z. B. vertrauliche Policy-Tests oder EU-DSG-Konformität).
Wofür taugt es (realistisch)?
- Policy / Krisen-Kommunikation: Null-Risk-Testfeld für Narrative und Gegenmaßnahmen (vgl. Demo „Wuhan University Incident“).
- Produkt/Feature-Futures: Simuliert Community-Reaktionen, Feature-Adoption, Dissonanzen – guter Input fürs CX-Team.
- Storytelling / Games: KI-generierte Welten für Autorenstudios (Visual Novels, Alternate History).
- Education: Lehr-Use-Cases für Komplexität, Systemdenken, Collective Intelligence.
Grenzen & offene Fragen
| Thema | Beobachtung |
|---|---|
| Validierung | Keine Benchmarks vs. Realwelt-Daten veröffentlicht. „Faithful Digital Mirror“ bleibt ein Versprechen. |
| Bias & Seed-Qualität | Garbage-in → Garbage-out. Seed-Daten definieren die komplette Simulation. |
| Rechenaufwand | Mehrere tausend Agents + Memory → LLM-Kosten explodieren schnell. README warnt vor >40 Runden mit qwen-plus. |
| Transparenz | Engine basiert u. a. auf hauseigenem OASIS-Framework (von Shanda). Kein vollständiger Einblick in alle Module. |
| Einsatzethik | „Predict anything“ kann auch Missbrauch begünstigen (z. B. Disinformation, Manipulation). Governance-Fragen offen. |
Einschätzung
MiroFish ist mehr als ein Gimmick – es kombiniert moderne Bausteine (GraphRAG, Langzeit-Memory, Multi-Agent-Sim) zu einer interaktiven Vorhersageplattform. Der Code ist sauber modular, Docker-Deploys laufen ohne großen Schmerz. ABER: Ergebnisse sind so gut wie die Seeds und Prompt-Designs. Wer es im Unternehmen einsetzen will, sollte es als „Entscheidungs-Sandkasten“ begreifen, nicht als Orakel.
Quellen: GitHub: 666ghj/MiroFish, Reddit r/aiagents, MiroFish-DE Übersetzung.