mirror of
https://github.com/Memo-2023/mana-monorepo.git
synced 2026-05-14 21:21:10 +02:00
Final cleanup of references missed in previous rename commits: - Dockerfiles: PUBLIC_MANA_CORE_AUTH_URL → PUBLIC_MANA_AUTH_URL - Go modules: github.com/manacore/* → github.com/mana/* (7 go.mod files) - launchd plists: com.manacore.* → com.mana.* (14 files renamed + content) - Image assets: *_Manacore_AI_Credits* → *_Mana_AI_Credits* (11 files) - .env.example files: ManaCore brand strings → Mana - .prettierignore: stale apps/manacore/* paths → apps/mana/* - Markdown docs (CLAUDE.md, /docs/*): mana-core-auth → mana-auth, etc. Excluded from rename: .claude/, devlog/, manascore/ (historical content), client testimonials, blueprints, npm package refs (@mana-core/*). Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
4 KiB
4 KiB
Ollama Models Management
Dokumentation zum Hinzufügen und Verwalten von Ollama-Modellen auf dem Mac Mini Server.
Aktuelle Modelle
| Modell | Größe | Typ | Performance | Beschreibung |
|---|---|---|---|---|
gemma3:4b |
3.3 GB | Text | ~53 t/s | Standard - schnell für einfache Aufgaben |
gemma3:12b |
8 GB | Text | ~30 t/s | Empfohlen - gute Balance |
gemma3:27b |
16 GB | Text | ~15 t/s | Beste Qualität, langsamer |
phi3.5:latest |
2.2 GB | Text | ~60 t/s | Microsoft - kompakt & effizient |
ministral-3:3b |
3 GB | Text | ~55 t/s | Mistral Mini - sehr schnell |
llava:7b |
4.7 GB | Vision | ~25 t/s | Bildverständnis |
qwen3-vl:4b |
3.3 GB | Vision | ~40 t/s | Qwen Vision-Language |
deepseek-ocr:latest |
6.7 GB | Vision | ~20 t/s | OCR & Dokumente |
qwen2.5-coder:7b |
4.7 GB | Code | ~35 t/s | Code-Generierung |
qwen2.5-coder:14b |
10 GB | Code | ~20 t/s | Erweiterte Code-Generierung |
Neues Modell hinzufügen
Schritt 1: Modell auf Server installieren
# Via SSH auf Mac Mini
ssh mana-server
# Modell herunterladen
/opt/homebrew/bin/ollama pull <model-name>
# Beispiel:
/opt/homebrew/bin/ollama pull gemma3:12b
Schritt 2: Modell im LLM Playground registrieren
Datei: services/llm-playground/src/lib/stores/models.svelte.ts
Füge das Modell in MODEL_METADATA hinzu:
export const MODEL_METADATA: Record<string, { description: string; modality: Modality }> = {
// ... bestehende Modelle ...
// Neues Modell hinzufügen:
'neues-modell:tag': {
description: 'Kurze Beschreibung des Modells',
modality: 'text', // oder 'vision' oder 'code'
},
};
Schritt 3: Optional - Als Standard setzen
Datei: services/llm-playground/src/lib/stores/settings.svelte.ts
const defaultSettings: Settings = {
model: 'ollama/neues-modell:tag', // Standard-Modell ändern
// ...
};
Schritt 4: Deployment
# Playground neu bauen und deployen
pnpm --filter @mana/llm-playground build
# Auf Mac Mini deployen
ssh mana-server "cd ~/projects/mana-monorepo && docker compose -f docker-compose.macmini.yml up -d --build llm-playground"
Modality-Typen
| Typ | Beschreibung | Pattern-Erkennung |
|---|---|---|
text |
Standard Text-Generierung | Default |
vision |
Bildverständnis (LLaVA, etc.) | llava, vision, -vl, ocr, moondream |
code |
Code-Generierung | coder, codellama, starcoder |
Die Modality wird automatisch erkannt, wenn das Modell nicht in MODEL_METADATA ist.
Server-Verwaltung
Modelle auflisten
ssh mana-server "/opt/homebrew/bin/ollama list"
Modell entfernen
ssh mana-server "/opt/homebrew/bin/ollama rm <model-name>"
Speicherort der Modelle
Die Modelle liegen auf der externen 4TB SSD:
- Pfad:
/Volumes/TillJakob-S04/ManaData/ollama/models - Symlink:
~/.ollama -> /Volumes/TillJakob-S04/ManaData/ollama
Ollama Service
# Status prüfen
ssh mana-server "pgrep -x ollama && echo 'Running' || echo 'Stopped'"
# Neustarten
ssh mana-server "/opt/homebrew/bin/brew services restart ollama"
# Logs
ssh mana-server "tail -f /opt/homebrew/var/log/ollama.log"
Performance-Empfehlungen
RAM-Nutzung
| Modell-Größe | Min. RAM | Empfohlen |
|---|---|---|
| 3-4B | 4 GB | 8 GB |
| 7-8B | 6 GB | 12 GB |
| 12-14B | 10 GB | 16 GB |
| 27B+ | 16 GB | 24+ GB |
Mac Mini M4 hat 16 GB RAM - daher maximal ein 27B Modell gleichzeitig laden.
Gleichzeitige Modelle
Ollama lädt Modelle bei Bedarf. Wenn ein neues Modell angefragt wird und nicht genug RAM frei ist, wird das vorherige entladen. Für beste Performance:
- Hauptsächlich ein Modell verwenden
- Zwischen ähnlichen Größen wechseln
- Nach großen Modellen (27B) kurz warten vor kleinen Anfragen
Changelog
| Datum | Änderung |
|---|---|
| 2026-02-01 | gemma3:12b, gemma3:27b, qwen2.5-coder:14b hinzugefügt |
| 2026-02-01 | MODEL_METADATA System eingeführt |
| 2026-02-01 | Standard-Modell auf gemma3:4b geändert |