Proxmox Cluster Fusion

4 Nodes WebUI Quorum
Schritt 01

Voraussetzungen

Bevor der Cluster erstellt wird, müssen folgende Bedingungen auf allen vier Nodes erfüllt sein:

  1. Proxmox VE ist auf allen Nodes installiert und über das Web-Interface erreichbar.
  2. Alle Nodes laufen auf der gleichen Proxmox-Version. Unterschiedliche Versionen können zu Inkompatibilitäten führen.
  3. Datum, Uhrzeit und Zeitzone sind auf allen Nodes identisch konfiguriert. Corosync ist sehr empfindlich gegenüber Zeitabweichungen.
  4. Alle Nodes können sich gegenseitig über das Netzwerk erreichen — insbesondere UDP 5405–5412 (Corosync) und TCP 22 (SSH).
  5. Die Hostnames sind eindeutig und auflösbar, z.B. pve1 bis pve4.
  6. Es existieren noch keine VMs oder Container auf den Nodes, die dem Cluster beitreten. Bestehende Konfigurationen werden beim Join überschrieben.
Wichtig: Nodes die bereits einem anderen Cluster angehören, müssen vorher vollständig bereinigt werden. Ein direkter Wechsel zwischen Clustern ist nicht möglich.
Schritt 02

Cluster erstellen

Node 1 — pve1

Auf Node 1 über das Web-Interface zugreifen und zum Cluster-Bereich navigieren:

WebUI Datacenter Cluster Create Cluster
FeldWert
Cluster Name Frei wählbar, z.B. homelab
Link 0 — reicht bei einem einzelnen Switch-Netzwerk aus.
IP Management-IP von Node 1 (die bei der Installation vergebene Adresse)

Nach dem Erstellen des Clusters unter Cluster → Join Information die Join-Information kopieren. Diese wird für den Beitritt aller weiteren Nodes benötigt.

Tipp: Die Join-Information enthält den Fingerprint und die Cluster-Adresse. Sie kann jederzeit erneut abgerufen werden, solange Node 1 erreichbar ist. Dieselbe Join-Information gilt für alle Nodes.
Schritt 03

Node 2 beitreten

Node 2 — pve2

Auf Node 2 über das Web-Interface zugreifen und den Cluster-Bereich öffnen:

WebUI Datacenter Cluster Join Cluster
  1. Die von Node 1 kopierte Join-Information einfügen.
  2. Das Root-Passwort von Node 1 eingeben — nicht das eigene Passwort von Node 2.
  3. Join klicken und abwarten bis der Vorgang abgeschlossen ist.

Nach dem Join erscheint Node 2 im Web-Interface von Node 1 in der linken Seitenleiste unter Datacenter. Ab jetzt kann der gesamte Cluster von beiden Nodes aus verwaltet werden.

Zwischenstand: 2 Nodes im Cluster — Quorum liegt bei 2 Stimmen. Fällt eine Node aus, ist der Cluster nicht mehr handlungsfähig. Deshalb Node 3 zeitnah hinzufügen.
Schritt 04

Node 3 beitreten

Node 3 — pve3

Auf Node 3 das Web-Interface öffnen und den identischen Join-Vorgang durchführen:

WebUI Datacenter Cluster Join Cluster
  1. Dieselbe Join-Information von Node 1 einfügen.
  2. Root-Passwort von Node 1 eingeben.
  3. Join klicken und abwarten.
Zwischenstand: 3 Nodes im Cluster — Quorum liegt bei 2 Stimmen. Ab jetzt kann eine Node ausfallen, ohne dass der Cluster die Handlungsfähigkeit verliert. Das ist der empfohlene Minimalzustand für zuverlässigen Betrieb.
Schritt 05

Node 4 beitreten

Node 4 — pve4

Auf Node 4 den Join-Vorgang ein letztes Mal wiederholen:

WebUI Datacenter Cluster Join Cluster
  1. Join-Information von Node 1 einfügen.
  2. Root-Passwort von Node 1 eingeben.
  3. Join klicken und abwarten.
Reihenfolge beachten: Immer nur eine Node zur gleichen Zeit joinen. Den Join-Vorgang der vorherigen Node abwarten, bevor die nächste hinzugefügt wird. Parallele Joins können den Cluster beschädigen.
Schritt 06

Cluster-Status prüfen

Nach dem letzten Join sollten alle vier Nodes im Web-Interface unter Datacenter in der linken Seitenleiste sichtbar sein — unabhängig davon, über welche Node man zugreift.

Zur Verifizierung auf einer beliebigen Node die Shell öffnen und den Cluster-Status abfragen:

# Cluster-Status und Quorum anzeigen
pvecm status

# Alle Nodes und ihre Votes auflisten
pvecm nodes

Die erwartete Ausgabe von pvecm nodes sollte vier Einträge zeigen:

Membership information
~~~~~~~~~~~~~~~~~~~~~~
Nodeid  Votes  Name
     1      1  pve1 (local)
     2      1  pve2
     3      1  pve3
     4      1  pve4
4
Nodes
4
Votes
3
Quorum
1
Max. Ausfall
Schritt 07

Quorum & gerade Node-Anzahl

Proxmox nutzt Corosync für die Cluster-Kommunikation und ein Quorum-System um sicherzustellen, dass alle Nodes einen konsistenten Zustand haben. Das Quorum ist die Mindestanzahl an Stimmen, die benötigt wird, damit der Cluster operieren kann.

Bei 4 Nodes hat jede Node 1 Stimme, insgesamt also 4. Das Quorum liegt bei 3 — das bedeutet: maximal 1 Node darf ausfallen. Fallen 2 Nodes aus, verliert der Cluster die Handlungsfähigkeit: VMs können nicht mehr gestartet, gestoppt oder migriert werden.

Gerade Anzahl: Bei 4 Nodes besteht das theoretische Risiko eines Split-Brain — zwei Hälften des Clusters halten sich jeweils für die Mehrheit. In einem Homelab-Setup, wo alle Nodes am selben Switch im selben Raum hängen, ist dieses Risiko praktisch vernachlässigbar. Problematisch wird es erst bei geographisch verteilten Setups.

Wer auf Nummer sicher gehen will, kann ein Quorum Device (QDevice) einrichten — ein leichtgewichtiger Dienst auf einem externen Gerät (z.B. ein Raspberry Pi oder das Synology NAS), der als fünfte Stimme dient. Damit steigt die Ausfalltoleranz auf 2 Nodes.

# QDevice einrichten (auf einer beliebigen Cluster-Node)
pvecm qdevice setup <IP-DES-QDEVICE>
Für das Homelab: Solange alle 4 Nodes am selben Netzwerk hängen und du nicht planst, einzelne Nodes regelmäßig herunterzufahren, ist ein QDevice optional. Wenn du aber häufig an einzelnen Nodes bastelst und der Cluster währenddessen weiterlaufen soll, ist es eine sinnvolle Absicherung.