Cluster

Ein Verbundrechnersystem oder Cluster bezeichnet eine Anzahl von Einzelrechnern, die zu einem logischen Verbund gekoppelt sind. Ein Cluster wird in der Regel als ein zusammenhängendes Gerät betrachtet.

Warnung: Die Grundeinstellungen des Clusters sind werk­seitig vorkonfiguriert und sollten nur durch den Kundendienst der m-privacy GmbH geändert werden. Unsachgemäße Änderungen gefährden den Betrieb des gesamten Clusters.

Die Konfiguration der Clustereinstellungen erfordert eine Anmeldung als Administrator config an der Konsole. Das Untermenü Cluster befindet sich im Hauptmenü.

Um den Clustermodus zu aktivieren muss der Menüpunkt Ja im Clustermenü ausgewählt werden. Erst danach öffnet sich das Konfigurationsmenü.

Die nachfolgende Schematische Abbildung verdeutlicht den Aufbau eines TightGate-Pro Clusters mit Ceph-Datenhaltung.

Folgende Konfigurationseinstellungen sind unabhängig von der der Art der zentralen Datenhaltung zu setzen:

MenüpunktBeschreibung
Cluster-Basis-Name*Im Cluster verwendeter Rechnername ohne die angehängte lau­fende Nummer. Aus diesem Namen werden die verwendeten Rechnernamen im Cluster generiert.
Cluster-Partner-IP-Netzwerk*Cluster-Netzwerk, über das die einzelnen TightGate-Pro (Nodes) mit der Datenhaltung innerhalb des Verbunds kommunizieren.
Achtung: Die IPv4-Adressen der Nodes im Clusternetzwerk müs­sen immer aufeinander folgende IPv4-Adressen erhalten. Diese sind unabhängig vom Klienten-Netzwerk.
Anzahl Teil-Cluster*Anzahl der Teil-Cluster, die in diesem Verbund arbeiten sollen. Haben sie nur einen zentralen Standort an dem alle Nutzer arbeiten, so ist hier eine 1 anzugeben. Haben Sie einen zentralen Standort sowie weitere Nebenstandorte, die jeweils eigene TightGate-Pro Server haben, so ist die Anzahl für jeden Standort hochzuzählen. Es sind maximal 9 Teil-Cluster erlaubt.
Loadbalancer auf diesem KnotenAuswahl, ob dieser Knoten als Loadbalancer arbeiten für einen oder mehrere Teil-Cluster arbeiten soll. Es ist darauf zu achten, dass pro Teil-Cluster nicht mehr als 3 Loadbalancer arbeiten.

Im nächsten Schritt muss festgelegt werden, wie die Datenhaltung bei TightGate-Pro realisiert wurde. Folgende Möglichkeiten bietet TightGate-Pro:

  • Externe Ceph-Datenhaltung
  • Lokal virtualisierte Ceph-Datenhaltung
  • Integrierte Ceph-Datenhaltung (veraltet)
  • Gluster-Datenhaltung (veraltet)

Hinweis: Die veralteten Datenhaltungen werden hier nicht weiter dokumentiert. Sie werden sukzessive abgelöst.

Externe Ceph-Datenhaltung

Sofern ein externes Ceph die Daten für den TightGate-Pro Cluster vorhält, sind folgende Konfigurationen vorzunehmen:

MenüpunktEinstellungBeschreibung
Verteilte Ceph-Datenhaltung* Ja Aktiviert das Untermenü für die Datenhaltung per Ceph.
Externer/KVM-Ceph-Cluster* Ja Aktiviert die verteilte Datenhaltung per Ceph und öffnet das weitere Untermenü.
Ceph-Monitor-IPs*192.168.111.101
192.168.111.102
192.168.111.103
Alle IPv4-Adressen der externen Ceph-Monitore. Das Ceph-Netz ist in der Standardkonfiguration durch die m-privacy das Netzwerk 192.168.111.101 ff.
In einem Cluster mit 5 Ceph Nodes sind die Monitor-IPs noch um die Adressen 192.168.111.104 und 192.168.111.105 zu ergänzen.
Ceph-Benutzer*tgproDer Benutzer, welche auf der Ceph-Datenhaltung Zugriffsrechte für das Home-Verzeichnis und das Backup-Verzeichnis hat.
Ceph-Passwort*Das Passwort für den "tgpro"-Benutzer.
Ceph-homeuser-Unterpfad*homeuserPfad zu dem HOME-Verzeichnis in der Ceph-Datenhaltung.
Ceph-backup-Unterpfad*backupPfad zu dem BACKUP-Verzeichnis in der Ceph-Datenhaltung.
—–
Gemeinsamer Update-Cache*JaAktiviert einen gemeinsamen Update-Cache auf der Ceph-Datenhaltung. So können alle TightGate-Pro (Nodes) direkt von dort Updates durchführen und müssen Updates nicht individuell herunterladen.
—–
Teil-Cluster: XXX*Das Untermenü wird im nächsten Abschnitt ausführlich dargestellt.
—–
Verteilte Cluster-Datenhaltung*Nein
KVM mit Ceph startenNein

Virtualisierte Ceph-Datenhaltung

Sofern eine integrierte virtuelle Ceph-Datenhaltung im Einsatz ist, sind folgende Konfigurationen vorzunehmen:

MenüpunktEinstellungBeschreibung
Verteilte Ceph-Datenhaltung* Nein Deaktiviert das Untermenü für die Datenhaltung per externem Ceph.
Verteilte Cluster-Datenhaltung* Nein Deaktiviert das Untermenü für die Datenhaltung per Gluster.
KVM mit Ceph starten Ja Aktiviert die virtuelle Datenhaltung per Ceph und öffnet das weitere Untermenü.
KVM-Netzwerk-Bridge brX Name der Netzwerkbrücke, welche verwendet wird, um die kvm durchzuleiten
KVM-Netzwerk-MAC-Adresse 52:54:01:XXX MAC-Adresse des KVM-Netzwerks
KVM-Partition /dev/xxx Partition, auf der die ceph-KVM-Partition installiert ist.
KVM Anzahl CPUs 1-9 Anzahl der CPUs, welche für die ceph-kvm zur Verfügung stehen.
KVM-Speichergröße in MB 2048 Größe des Hauptspeichers, welcher für die ceph-kvm zur Verfügung steht.

Konfiguration eines TightGate-Pro Teil-Clusters

MenüpunktEinstellungBeschreibung
Teil-Cluster-Name * Frei wählbarer Name für den Teil-Cluster
Hostnamen-Basis-Nummer*1Nummer des ersten Nodes im Teil-Cluster. Die Nummer wird wird den ersten Node im Teil-Cluster angehangen und dann hochgezählt. Im Standard wird bei 1 begonnen.
Basis-IP*192.168.111.xBasis-IP des Teil-Cluster-Netzwerks. Die IP sollte den Standard nicht verlassen und sich nur im Hostanteil des Netzwerks 192.168.111.0 unterscheiden. Pro Teil-Cluster gibt es eine Basis-IP bei der begonnen wird und dann für die Anzahl der Nodes hochgezählt wird. Es ist darauf zu achten, dass genügend IP-Adressen für die Anzahl der Nodes im Teil-Cluster vorhanden sind.
Wichtig: Es ist unbedingt notwendig, dass alle Nodes im Teil-Cluster fortlaufenden IP-Adresse haben.
Anzahl Nodes* Anzahl der Nodes im Teil-Cluster.
DNS-Domäne* DNS-Domänen-Name dieses Teil-Clusters im Loadbalancer. Das gilt nur für die Namensauflösung der TightGate-Viewer.
Klienten-Basis-IP*10.10.10.0Klienten-IP-Adresse des ersten TightGate-Pro im Teil-Cluster.
Wichtig: Es ist unbedingt notwendig, dass alle Nodes im Teil-Cluster fortlaufenden IP-Adresse haben.
Max. Anzahl DNS-Einträge*Maximale Anzahl DNS-Einträge dieses Teil-Clusters im Loadbalancer.
Weitere DNS-Einträge*Eintragung weiterer beliebiger DNS-Einträge für den Teil-Cluster. Für jeden Eintrag wird automatisch eine Rückauflösung mit angelegt.