Eine technische Einführung in das verteilte Speichersystem Ceph und seine Anwendungsbereiche
Ceph ist ein verteiltes Speichersystem, das mit vielversprechenden Attributen wie "selbstheilend" und "selbstlernende Lastverteilung" beschrieben wird. In dieser Schulung lernen Sie am praktischen Beispiel die grundlegenden Funktionen von Ceph und seinen Komponenten kennen. Und lernen welche Performance- und Betriebsaspekte zu beachten sind, bevor Ceph in den Produktionsbetrieb übernommen wird. Auch auf den laufenden Betrieb geht der Kurs detailliert ein und beleuchtet Troubleshooting, Upgrades und Cluster-Umbauten.
Praktische Inhalte werden über virtuelle Instanzen in einer OpenStack Public-Cloud-Umgebung vermittelt. Dabei steht jedem Teilnehmer ein virtueller Ceph-Cluster zur Verfügung.
Trainer und Dozenten
Florian Haas ist seit 2011 aktives Mitglied der Ceph-Community, hat vielfach Kurse und Schulungen zum Thema abgehalten und ist eines der deutschsprachigen "Gesichter" von Ceph. Er hat über Ceph bei der Cephalocon, beim OpenStack/OpenInfra Summit und vielen anderen Konferenzen referiert, Kunden beim Einsatz von Ceph in verschiedensten Umgebungen unterstützt und alle Ecken und Kanten von Ceph genau kennengelernt.
Voraussetzungen
Sie sollten die Linux Grundlagen, wie z.B. die in unserem Kurs Linux Admin Grundlagen vermittelten Inhalte, gut beherrschen.
Erfahrung im Betrieb von Storage-Systemen ist von Vorteil; auch Detailkenntnisse über Dateisysteme und TCP/IP-Netzwerke sind hilfreich.
Inhalt
Ceph-Design und -Architektur
- Object Storage
- Distributed Storage
- Horizontale Skalierbarkeit
Ceph-Serverkomponenten
- Ceph Object Storage Daemons (OSDs)
- Ceph Monitors (MONs)
- Ceph Metadatenserver (MDSs)
- MGRs und Überwachungskomponenten (Prometheus, Grafana)
Praktische Installation eines Ceph-Clusters
Verteilte Datenspeicherung in Ceph im Detail
- CRUSH-Algorithmus
- Einsatz von CRUSH für effiziente, hochverfügbare Datenspeicherung
- Bedeutung von Pools und Placement Groups (PGs)
Ceph-Authentifizierung und Security
- CephX-Identitäten
- Berechtigungen (Capabilities)
RADOS block device (RBD)
- RBD-Design
- Kernel RBD (rbd.ko)
- RBD-Integration in libvirt, Qemu/KVM and Cloudplattformen
RADOS Gateway (rgw)
- Installation
- Verwendung
Ceph-Dateisystem (CephFS)
- ceph-fuse
- Kernel CephFS
- libcephfs
Performance von Speichersystemen
- Performancemetriken and Benchmarks
- I/O-Subsystem-Performance
- Netzwerkperformance
- Einfluss von CPU und RAM
Messung der Performance von Ceph-Systemen
- Lokale I/O- und Netzwerk-Benchmarks
- Ceph OSD Benchmarks
- RADOS Benchmarks
- RBD Benchmarks
- CephFS Benchmarks
Ceph-Server-Performanceoptimierung
- OSD-Performanceoptimierung
- BlueStore
- Optimierung der OSD-Datenverteilung
- CRUSH-Geräteklassen
Ceph-Client-Performanceoptimierung
- RBD-Caching
- RBD/libvirt/qemu-kvm-Integration
Troubleshooting
- Umgang mit Ausfällen
- Recovery
Ceph-Wartung und -Upgrades
- Umverteilung von Diensten
- Clusterknoten hinzufügen und herauslösen
- Ceph-Upgrades
- Betriebssystem-Upgrades in Ceph-Clustern
- Ceph Object Storage Daemons (OSDs)
- Ceph Monitors (MONs)
- Ceph Metadatenserver (MDSs)
- MGRs und Überwachungskomponenten (Prometheus, Grafana)
Praktische Installation eines Ceph-Clusters
Verteilte Datenspeicherung in Ceph im Detail
- CRUSH-Algorithmus
- Einsatz von CRUSH für effiziente, hochverfügbare Datenspeicherung
- Bedeutung von Pools und Placement Groups (PGs)
Ceph-Authentifizierung und Security
- CephX-Identitäten
- Berechtigungen (Capabilities)
RADOS block device (RBD)
- RBD-Design
- Kernel RBD (rbd.ko)
- RBD-Integration in libvirt, Qemu/KVM and Cloudplattformen
RADOS Gateway (rgw)
- Installation
- Verwendung
Ceph-Dateisystem (CephFS)
- ceph-fuse
- Kernel CephFS
- libcephfs
Performance von Speichersystemen
- Performancemetriken and Benchmarks
- I/O-Subsystem-Performance
- Netzwerkperformance
- Einfluss von CPU und RAM
Messung der Performance von Ceph-Systemen
- Lokale I/O- und Netzwerk-Benchmarks
- Ceph OSD Benchmarks
- RADOS Benchmarks
- RBD Benchmarks
- CephFS Benchmarks
Ceph-Server-Performanceoptimierung
- OSD-Performanceoptimierung
- BlueStore
- Optimierung der OSD-Datenverteilung
- CRUSH-Geräteklassen
Ceph-Client-Performanceoptimierung
- RBD-Caching
- RBD/libvirt/qemu-kvm-Integration
Troubleshooting
- Umgang mit Ausfällen
- Recovery
Ceph-Wartung und -Upgrades
- Umverteilung von Diensten
- Clusterknoten hinzufügen und herauslösen
- Ceph-Upgrades
- Betriebssystem-Upgrades in Ceph-Clustern
- CRUSH-Algorithmus
- Einsatz von CRUSH für effiziente, hochverfügbare Datenspeicherung
- Bedeutung von Pools und Placement Groups (PGs)
Ceph-Authentifizierung und Security
- CephX-Identitäten
- Berechtigungen (Capabilities)
RADOS block device (RBD)
- RBD-Design
- Kernel RBD (rbd.ko)
- RBD-Integration in libvirt, Qemu/KVM and Cloudplattformen
RADOS Gateway (rgw)
- Installation
- Verwendung
Ceph-Dateisystem (CephFS)
- ceph-fuse
- Kernel CephFS
- libcephfs
Performance von Speichersystemen
- Performancemetriken and Benchmarks
- I/O-Subsystem-Performance
- Netzwerkperformance
- Einfluss von CPU und RAM
Messung der Performance von Ceph-Systemen
- Lokale I/O- und Netzwerk-Benchmarks
- Ceph OSD Benchmarks
- RADOS Benchmarks
- RBD Benchmarks
- CephFS Benchmarks
Ceph-Server-Performanceoptimierung
- OSD-Performanceoptimierung
- BlueStore
- Optimierung der OSD-Datenverteilung
- CRUSH-Geräteklassen
Ceph-Client-Performanceoptimierung
- RBD-Caching
- RBD/libvirt/qemu-kvm-Integration
Troubleshooting
- Umgang mit Ausfällen
- Recovery
Ceph-Wartung und -Upgrades
- Umverteilung von Diensten
- Clusterknoten hinzufügen und herauslösen
- Ceph-Upgrades
- Betriebssystem-Upgrades in Ceph-Clustern
- RBD-Design
- Kernel RBD (rbd.ko)
- RBD-Integration in libvirt, Qemu/KVM and Cloudplattformen
RADOS Gateway (rgw)
- Installation
- Verwendung
Ceph-Dateisystem (CephFS)
- ceph-fuse
- Kernel CephFS
- libcephfs
Performance von Speichersystemen
- Performancemetriken and Benchmarks
- I/O-Subsystem-Performance
- Netzwerkperformance
- Einfluss von CPU und RAM
Messung der Performance von Ceph-Systemen
- Lokale I/O- und Netzwerk-Benchmarks
- Ceph OSD Benchmarks
- RADOS Benchmarks
- RBD Benchmarks
- CephFS Benchmarks
Ceph-Server-Performanceoptimierung
- OSD-Performanceoptimierung
- BlueStore
- Optimierung der OSD-Datenverteilung
- CRUSH-Geräteklassen
Ceph-Client-Performanceoptimierung
- RBD-Caching
- RBD/libvirt/qemu-kvm-Integration
Troubleshooting
- Umgang mit Ausfällen
- Recovery
Ceph-Wartung und -Upgrades
- Umverteilung von Diensten
- Clusterknoten hinzufügen und herauslösen
- Ceph-Upgrades
- Betriebssystem-Upgrades in Ceph-Clustern
- ceph-fuse
- Kernel CephFS
- libcephfs
Performance von Speichersystemen
- Performancemetriken and Benchmarks
- I/O-Subsystem-Performance
- Netzwerkperformance
- Einfluss von CPU und RAM
Messung der Performance von Ceph-Systemen
- Lokale I/O- und Netzwerk-Benchmarks
- Ceph OSD Benchmarks
- RADOS Benchmarks
- RBD Benchmarks
- CephFS Benchmarks
Ceph-Server-Performanceoptimierung
- OSD-Performanceoptimierung
- BlueStore
- Optimierung der OSD-Datenverteilung
- CRUSH-Geräteklassen
Ceph-Client-Performanceoptimierung
- RBD-Caching
- RBD/libvirt/qemu-kvm-Integration
Troubleshooting
- Umgang mit Ausfällen
- Recovery
Ceph-Wartung und -Upgrades
- Umverteilung von Diensten
- Clusterknoten hinzufügen und herauslösen
- Ceph-Upgrades
- Betriebssystem-Upgrades in Ceph-Clustern
- Lokale I/O- und Netzwerk-Benchmarks
- Ceph OSD Benchmarks
- RADOS Benchmarks
- RBD Benchmarks
- CephFS Benchmarks
Ceph-Server-Performanceoptimierung
- OSD-Performanceoptimierung
- BlueStore
- Optimierung der OSD-Datenverteilung
- CRUSH-Geräteklassen
Ceph-Client-Performanceoptimierung
- RBD-Caching
- RBD/libvirt/qemu-kvm-Integration
Troubleshooting
- Umgang mit Ausfällen
- Recovery
Ceph-Wartung und -Upgrades
- Umverteilung von Diensten
- Clusterknoten hinzufügen und herauslösen
- Ceph-Upgrades
- Betriebssystem-Upgrades in Ceph-Clustern
- RBD-Caching
- RBD/libvirt/qemu-kvm-Integration
Troubleshooting
- Umgang mit Ausfällen
- Recovery
Ceph-Wartung und -Upgrades
- Umverteilung von Diensten
- Clusterknoten hinzufügen und herauslösen
- Ceph-Upgrades
- Betriebssystem-Upgrades in Ceph-Clustern
- Umverteilung von Diensten
- Clusterknoten hinzufügen und herauslösen
- Ceph-Upgrades
- Betriebssystem-Upgrades in Ceph-Clustern
Kurszeiten
Wer möchte, reist bis 22 Uhr am Vortag an und nutzt den Abend bereits zum Fachsimpeln am Kamin oder im Park.
An Kurstagen gibt es bei uns ab 8 Uhr Frühstück.
Unsere Kurse beginnen um 9 Uhr und enden um 18 Uhr.
Neben den kleinen Pausen gibt es eine Stunde Mittagspause mit leckerem, frisch in unserer Küche zubereitetem Essen.
Nach der Schulung anschließend Abendessen und Angebote für Fachsimpeln, Ausflüge uvm. Wir schaffen eine Atmosphäre, in der Fachleute sich ungezwungen austauschen. Wer das nicht will, wird zu nichts gezwungen und findet auch jederzeit Ruhe.
Termine und Anmeldung
-
13. Mai, 3 Tage **
Ceph anmelden -
23. September 2025, 3 Tage
Ceph anmelden -
16. Dezember 2025, 3 Tage
Ceph anmelden
Haben Sie einen anderen Wunschtermin?