Bevor der Cluster erstellt wird, müssen folgende Bedingungen auf allen vier Nodes erfüllt sein:
Proxmox VE ist auf allen Nodes installiert und über das Web-Interface erreichbar.
Alle Nodes laufen auf der gleichen Proxmox-Version. Unterschiedliche Versionen können zu Inkompatibilitäten führen.
Datum, Uhrzeit und Zeitzone sind auf allen Nodes identisch konfiguriert. Corosync ist sehr empfindlich gegenüber Zeitabweichungen.
Alle Nodes können sich gegenseitig über das Netzwerk erreichen — insbesondere UDP 5405–5412 (Corosync) und TCP 22 (SSH).
Die Hostnames sind eindeutig und auflösbar, z.B. pve1 bis pve4.
Es existieren noch keine VMs oder Container auf den Nodes, die dem Cluster beitreten. Bestehende Konfigurationen werden beim Join überschrieben.
Wichtig: Nodes die bereits einem anderen Cluster angehören, müssen vorher vollständig bereinigt werden. Ein direkter Wechsel zwischen Clustern ist nicht möglich.
Schritt 02
Cluster erstellen
Node 1 — pve1
Auf Node 1 über das Web-Interface zugreifen und zum Cluster-Bereich navigieren:
WebUI›Datacenter›Cluster›Create Cluster
Feld
Wert
Cluster Name
Frei wählbar, z.B. homelab
Link
0 — reicht bei einem einzelnen Switch-Netzwerk aus.
IP
Management-IP von Node 1 (die bei der Installation vergebene Adresse)
Nach dem Erstellen des Clusters unter Cluster → Join Information die Join-Information kopieren. Diese wird für den Beitritt aller weiteren Nodes benötigt.
Tipp: Die Join-Information enthält den Fingerprint und die Cluster-Adresse. Sie kann jederzeit erneut abgerufen werden, solange Node 1 erreichbar ist. Dieselbe Join-Information gilt für alle Nodes.
Schritt 03
Node 2 beitreten
Node 2 — pve2
Auf Node 2 über das Web-Interface zugreifen und den Cluster-Bereich öffnen:
WebUI›Datacenter›Cluster›Join Cluster
Die von Node 1 kopierte Join-Information einfügen.
Das Root-Passwort von Node 1 eingeben — nicht das eigene Passwort von Node 2.
Join klicken und abwarten bis der Vorgang abgeschlossen ist.
Nach dem Join erscheint Node 2 im Web-Interface von Node 1 in der linken Seitenleiste unter Datacenter. Ab jetzt kann der gesamte Cluster von beiden Nodes aus verwaltet werden.
Zwischenstand: 2 Nodes im Cluster — Quorum liegt bei 2 Stimmen. Fällt eine Node aus, ist der Cluster nicht mehr handlungsfähig. Deshalb Node 3 zeitnah hinzufügen.
Schritt 04
Node 3 beitreten
Node 3 — pve3
Auf Node 3 das Web-Interface öffnen und den identischen Join-Vorgang durchführen:
WebUI›Datacenter›Cluster›Join Cluster
Dieselbe Join-Information von Node 1 einfügen.
Root-Passwort von Node 1 eingeben.
Join klicken und abwarten.
Zwischenstand: 3 Nodes im Cluster — Quorum liegt bei 2 Stimmen. Ab jetzt kann eine Node ausfallen, ohne dass der Cluster die Handlungsfähigkeit verliert. Das ist der empfohlene Minimalzustand für zuverlässigen Betrieb.
Schritt 05
Node 4 beitreten
Node 4 — pve4
Auf Node 4 den Join-Vorgang ein letztes Mal wiederholen:
WebUI›Datacenter›Cluster›Join Cluster
Join-Information von Node 1 einfügen.
Root-Passwort von Node 1 eingeben.
Join klicken und abwarten.
Reihenfolge beachten: Immer nur eine Node zur gleichen Zeit joinen. Den Join-Vorgang der vorherigen Node abwarten, bevor die nächste hinzugefügt wird. Parallele Joins können den Cluster beschädigen.
Schritt 06
Cluster-Status prüfen
Nach dem letzten Join sollten alle vier Nodes im Web-Interface unter Datacenter in der linken Seitenleiste sichtbar sein — unabhängig davon, über welche Node man zugreift.
Zur Verifizierung auf einer beliebigen Node die Shell öffnen und den Cluster-Status abfragen:
# Cluster-Status und Quorum anzeigenpvecm status# Alle Nodes und ihre Votes auflistenpvecm nodes
Die erwartete Ausgabe von pvecm nodes sollte vier Einträge zeigen:
Membership information
~~~~~~~~~~~~~~~~~~~~~~
Nodeid Votes Name
1 1 pve1 (local)
2 1 pve2
3 1 pve3
4 1 pve4
4
Nodes
4
Votes
3
Quorum
1
Max. Ausfall
Schritt 07
Quorum & gerade Node-Anzahl
Proxmox nutzt Corosync für die Cluster-Kommunikation und ein Quorum-System um sicherzustellen, dass alle Nodes einen konsistenten Zustand haben. Das Quorum ist die Mindestanzahl an Stimmen, die benötigt wird, damit der Cluster operieren kann.
Bei 4 Nodes hat jede Node 1 Stimme, insgesamt also 4. Das Quorum liegt bei 3 — das bedeutet: maximal 1 Node darf ausfallen. Fallen 2 Nodes aus, verliert der Cluster die Handlungsfähigkeit: VMs können nicht mehr gestartet, gestoppt oder migriert werden.
Gerade Anzahl: Bei 4 Nodes besteht das theoretische Risiko eines Split-Brain — zwei Hälften des Clusters halten sich jeweils für die Mehrheit. In einem Homelab-Setup, wo alle Nodes am selben Switch im selben Raum hängen, ist dieses Risiko praktisch vernachlässigbar. Problematisch wird es erst bei geographisch verteilten Setups.
Wer auf Nummer sicher gehen will, kann ein Quorum Device (QDevice) einrichten — ein leichtgewichtiger Dienst auf einem externen Gerät (z.B. ein Raspberry Pi oder das Synology NAS), der als fünfte Stimme dient. Damit steigt die Ausfalltoleranz auf 2 Nodes.
# QDevice einrichten (auf einer beliebigen Cluster-Node)pvecm qdevice setup <IP-DES-QDEVICE>
Für das Homelab: Solange alle 4 Nodes am selben Netzwerk hängen und du nicht planst, einzelne Nodes regelmäßig herunterzufahren, ist ein QDevice optional. Wenn du aber häufig an einzelnen Nodes bastelst und der Cluster währenddessen weiterlaufen soll, ist es eine sinnvolle Absicherung.