Hochfahren eines TightGate-Pro Clusters
Die nachfolgende Anleitung beschreibt das Vorgehen beim Starten eines TightGate-Pro Clusters mit externer Ceph Datenhaltung. Die Prozedur des Hochfahrens ist einzuhalten, damit die Clusterkomponenten sich optimal finden und der Cluster schnellstmöglich einsatzbereit ist.
Das Hochfahren erfolgt in mehreren Schritten:
Schritt 1: Booten des TightGate-Pro Zeit-Servers
Im ersten Schritt ist derjenige TightGate-Pro Server zu starten, welcher als Zeitserver für die Ceph-Server dient. Dieser sollte bereits bekannt sein, meist wird dafür der erste TightGate-Pro Server verwendet. Der TightGate-Pro wird starten, kann sich aber nicht mit dem Cluster verbinden, da dieser noch nicht läuft. Zu diesem Zeitpunkt ist das in Ordnung, es wird jetzt nur der Dienst als Zeitgeber benötigt. Die Einbindung in den Cluster erfolgt dann zu einem späteren Zeitpunkt.
Hinweis
Die Ermittlung des von den Ceph-Servern verwendeten TightGate-Pro Zeitservers kann bei einem laufenden Ceph-System ermittelt werden, indem man dort als Administrator root in der Konsole folgenden Befehl ausführt: cat /etc/ntp.conf | grep server
Die Ausgabe des Befehls listet die IP-Adressen derjenigen TightGate-Pro Server auf, die als Zeitserver verwendet werden.
Schritt 2: Booten der Ceph-Server
Um die Datenhaltung für TightGate-Pro zu aktivieren, sind nun möglichst zeitgleich alle Ceph-Server anzuschalten. Diese fahren hoch und sind fertig, wenn eine Login-Promt an der Konsole angezeigt wird. Nachdem alle Ceph-Server gestartet sind, ist zu kontrollieren, dass sich alle Ceph-Server verbunden haben und der Cluster ordnungsgemäß läuft. Die Prüfung erfolgt wie folgt:
- Anmeldung als Administrator root an der Konsole des ersten Ceph-Servers.
- Ausführen des Befehls ceph osd tree
- Zeigt die Ausgabe des Befehls den Status up an, ist der Cluster erfolgreich gestartet.
Hinweis! Die Ceph-Server brauchen nach einem Neustart etwas Zeit, um sich gegenseitig auf denselben Datenhaltungsstand zu bringen. Ist der Status nach ca. 5 Minuten nicht up, so kann mit einer Fehlersuche begonnen werden.
Schritt 3: Booten der TightGate-Pro Server
Nachdem der Ceph-Cluster läuft und sich gefunden hat, werden die TightGate-Pro Server der Reihe nach gestartet. Sind alle gestartet und haben sich dabei mit dem Cluster verbunden, so wird der unter Schritt 1 vorab gestartete TightGate-Pro neu gestartet (reboot). Beim Hochfahren der TightGate-Pro Server kann folgende Meldung während des Boot-Prozesse beobachtet werden, sofern die Verbindung zu den Ceph-Servern erfolgreich ist (die IPs der Cephs sind beispielhaft):
Mounting Ceph from /home/user: trying monitors: 192.168.111.101:6789, 192.168.111.102:6789, 192.168.111.103:6789 mounted … ready! Mounting Ceph from /home/backuser/backup: trying monitors: 192.168.111.101:6789, 192.168.111.102:6789, 192.168.111.103:6789 mounted … ready!
Schritt 4: Funktionskontrolle
Sind alle TightGate-Pro Server hochgefahren und im Cluster verbunden, kann der ordnungsgemäße Zustand folgendermaßen überprüft werden:
- Anmeldung mit dem TightGate-Viewer als normaler Benutzer am ersten TightGate-Pro und Aufruf folgender URL im Browser Firefox: http://localhost/
- Im erscheinenden Anmeldefenster mit dem Benutzernamen status und dem zugehörigen Passwort von der Passwortliste anmelden.
- Auf der Statusseite rechts auf den Menüpunkt Cluster-Status klicken. Der Cluster-Status wird für alle TightGate-Pro Server und deren Dienste angezeigt. Sind alle TightGate-Pro Server verfügbar und der Status für alle System auf grün ist der Start erfolgreich abgeschlossen.