Ceph Kapazitätsrechner
Raw (Marketing TB):0 TB
Raw (Ceph TiB):0 TiB
Nutzbar (Netto):0 TiB
Sicherer Füllgrad (Full Ratio):0 TiB
Effizienz:0 %
Erläuterung der Einstellungen
Damit die Planung deines Ceph-Clusters gelingt, ist es wichtig, die technischen Parameter des Rechners zu verstehen:
- Basis-Einheit (TB vs. TiB): Festplattenhersteller rechnen in Dezimal-Terabyte (Basis 1000). Ceph und Betriebssysteme rechnen jedoch in Binär-Tebibyte (Basis 1024). Eine „12 TB“ Platte bietet in Ceph nur etwa 10,9 TiB Rohkapazität.
- Redundanz-Modus: * Replication: Erstellt vollständige Kopien (Standard: 3x). Sehr performant, aber teuer (33% Effizienz).
- Erasure Coding (EC): Zerlegt Daten in Häppchen ($k$) und fügt Prüfsummen ($m$) hinzu. Höhere Effizienz (oft > 60%), aber rechenintensiver.
- N-1 Reserve: In einem gesunden Cluster muss immer genug Platz frei sein, damit beim Ausfall des größten Nodes dessen Daten auf die restlichen Server verteilt werden können (Self-Healing).
- Sicherer Füllgrad (80%): Ceph sollte niemals zu 100% gefüllt werden. Ab 85% („Nearfull“) sinkt die Performance drastisch, ab 95% („Full“) stoppt Ceph alle Schreibvorgänge, um Datenverlust zu verhindern.
Was ist Ceph?
Ceph ist eine Open-Source Software-Defined-Storage-Lösung, die darauf ausgelegt ist, auf Standard-Hardware (Commodity Servers) zu laufen. Anstatt einen einzelnen, teuren Storage-Filer zu kaufen, verbindet Ceph viele einzelne Server (Nodes) zu einem riesigen Speicher-Pool.
Die Kernvorteile von Ceph sind:
- Kein Single Point of Failure: Fällt ein Server oder eine Platte aus, bleiben die Daten verfügbar.
- Unbegrenzte Skalierbarkeit: Du kannst jederzeit neue Nodes hinzufügen, während das System läuft.
- Self-Healing: Das System erkennt Fehler selbstständig und stellt die gewünschte Redundanz ohne manuelles Eingreifen wieder her.
Best Practices für maximale Effizienz
Die Planung eines Clusters ist immer ein Abwägen zwischen Kosten (Effizienz), Sicherheit und Performance.
Wie viele Nodes werden benötigt?
- Replikation (3x): Du brauchst mindestens 3 Nodes. Mit nur 2 Nodes hättest du bei einem Ausfall keine Kopie mehr übrig, um das System wieder „gesund“ zu machen.
- Erasure Coding: Die Faustformel lautet $k + m + 1$ Nodes. Für ein EC 4+2 Profil (4 Daten-Chunks, 2 Sicherheits-Chunks) solltest du also mindestens 7 Nodes einplanen. So kann ein kompletter Server ausfallen und Ceph hat immer noch genug Ziele, um die Daten wieder im $4+2$ Schema zu verteilen.
Effizienz-Vergleich
| Strategie | Min. Nodes (Empfohlen) | Effizienz (Netto/Brutto) | Sicherheit |
| Replica 3x | 3 | 33,3% | Hoch (schnelles Recovery) |
| EC 2+1 | 4 | 66,7% | Mittel (1 Fehler toleriert) |
| EC 4+2 | 7 | 66,7% | Sehr Hoch (2 Fehler toleriert) |
| EC 8+3 | 12 | 72,7% | Extrem Hoch |
Tipps für den Aufbau
- Gleiche OSD-Größen: Nutze nach Möglichkeit Festplatten derselben Größe. Ceph füllt OSDs prozentual. Hast du gemischte Größen (z.B. 4 TB und 12 TB), werden die kleinen Platten viel schneller voll, was das gesamte Cluster blockieren kann.
- Netzwerk-Bandbreite: Für Ceph sind 10 GbE Netzwerke das absolute Minimum. Im Falle eines Festplattenausfalls muss Ceph Terabytes an Daten über das Netzwerk kopieren. Ein 1 GbE Netz würde hier zum Flaschenhals und die Performance deiner Anwendungen lahmlegen.
- OSD-Verteilung: Plane etwa 10 bis 15 OSDs (Disks) pro Node ein. Zu viele Platten in einem einzelnen Server erhöhen das Risiko: Fällt dieser eine Server aus, muss das Netzwerk eine gewaltige Menge an Daten gleichzeitig kompensieren.
