Tag

#llm

1 Artikel

AirLLM: 70B-Modelle auf 4 GB VRAM

Der Hype um neue Frontier-Modelle hat eine hässliche Kehrseite: Hardwarepreise und Cloud-Bills explodieren. AirLLM tritt genau dazwischen – ein Apache-2.0-Projekt, das „nur“ durch cleveres Laden der Modellschichten plötz …