Inhaltsverzeichnis

Hochfahren eines TightGate-Pro Clusters

Die nachfolgende Anleitung beschreibt das Vorgehen beim Starten eines TightGate-Pro Clusters mit externer Ceph Datenhaltung. Die Prozedur des Hochfahrens ist einzuhalten, damit die Clusterkomponenten sich optimal finden und der Cluster schnellstmöglich einsatzbereit ist.

Das Hochfahren erfolgt in mehreren Schritten:

Schritt 1: Booten des TightGate-Pro Zeit-Servers

Im ersten Schritt ist derjenige TightGate-Pro Server zu starten, welcher als Zeitserver für die Ceph-Server dient. Dieser sollte bereits bekannt sein, meist wird dafür der erste TightGate-Pro Server verwendet. Der TightGate-Pro wird starten, kann sich aber nicht mit dem Cluster verbinden, da dieser noch nicht läuft. Zu diesem Zeitpunkt ist das in Ordnung, es wird jetzt nur der Dienst als Zeitgeber benötigt. Die Einbindung in den Cluster erfolgt dann zu einem späteren Zeitpunkt.

Hinweis

Die Ermittlung des von den Ceph-Servern verwendeten TightGate-Pro Zeitservers kann bei einem laufenden Ceph-System ermittelt werden, indem man dort als Administrator root in der Konsole folgenden Befehl ausführt: cat /etc/ntp.conf | grep server
Die Ausgabe des Befehls listet die IP-Adressen derjenigen TightGate-Pro Server auf, die als Zeitserver verwendet werden.

Schritt 2: Booten der Ceph-Server

Um die Datenhaltung für TightGate-Pro zu aktivieren, sind nun möglichst zeitgleich alle Ceph-Server anzuschalten. Diese fahren hoch und sind fertig, wenn eine Login-Promt an der Konsole angezeigt wird. Nachdem alle Ceph-Server gestartet sind, ist zu kontrollieren, dass sich alle Ceph-Server verbunden haben und der Cluster ordnungsgemäß läuft. Die Prüfung erfolgt wie folgt:

Hinweis! Die Ceph-Server brauchen nach einem Neustart etwas Zeit, um sich gegenseitig auf denselben Datenhaltungsstand zu bringen. Ist der Status nach ca. 5 Minuten nicht up, so kann mit einer Fehlersuche begonnen werden.

Schritt 3: Booten der TightGate-Pro Server

Nachdem der Ceph-Cluster läuft und sich gefunden hat, werden die TightGate-Pro Server der Reihe nach gestartet. Sind alle gestartet und haben sich dabei mit dem Cluster verbunden, so wird der unter Schritt 1 vorab gestartete TightGate-Pro neu gestartet (reboot). Beim Hochfahren der TightGate-Pro Server kann folgende Meldung während des Boot-Prozesse beobachtet werden, sofern die Verbindung zu den Ceph-Servern erfolgreich ist (die IPs der Cephs sind beispielhaft):

 Mounting Ceph from /home/user: trying monitors: 192.168.111.101:6789, 192.168.111.102:6789, 192.168.111.103:6789 mounted … ready! 
 Mounting Ceph from /home/backuser/backup: trying monitors: 192.168.111.101:6789, 192.168.111.102:6789, 192.168.111.103:6789 mounted … ready!

Schritt 4: Funktionskontrolle

Sind alle TightGate-Pro Server hochgefahren und im Cluster verbunden, kann der ordnungsgemäße Zustand folgendermaßen überprüft werden: