Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite

Transcription

Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
Red Hat Enterprise Linux 5
Aperçu général de la Cluster Suite
Red Hat Cluster Suite de Red Hat Enterprise Linux 5
Édition 3
Landmann
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
Red Hat Cluster Suite de Red Hat Enterprise Linux 5
Édition 3
Landmann
[email protected] m
Note légale
Copyright © 2009 Red Hat, Inc.
T his document is licensed by Red Hat under the Creative Commons Attribution-ShareAlike 3.0 Unported
License. If you distribute this document, or a modified version of it, you must provide attribution to Red
Hat, Inc. and provide a link to the original. If the document is modified, all Red Hat trademarks must be
removed.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section
4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, JBoss, MetaMatrix, Fedora, the Infinity Logo,
and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux ® is the registered trademark of Linus T orvalds in the United States and other countries.
Java ® is a registered trademark of Oracle and/or its affiliates.
XFS ® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States
and/or other countries.
MySQL ® is a registered trademark of MySQL AB in the United States, the European Union and other
countries.
Node.js ® is an official trademark of Joyent. Red Hat Software Collections is not formally related to or
endorsed by the official Joyent Node.js open source or commercial project.
T he OpenStack ® Word Mark and OpenStack Logo are either registered trademarks/service marks or
trademarks/service marks of the OpenStack Foundation, in the United States and other countries and
are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or
sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
Résumé
L'aperçu de Red Hat Cluster Suite fournit un résumé de Red Hat Cluster Suite pour Red Hat Enterprise
Linux 5.3
Table des matières
Table des matières
.Introduction
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .4. . . . . . . . . .
1. Conventions d'écriture
4
1.1. Conventions typographiques
5
1.2. Conventions pour citations mises en avant
6
1.3. Notes et avertissements
7
2. Commentaire
8
.Chapitre
. . . . . . . . .1.
. . Aperçu
. . . . . . . . de
. . . Red
. . . . .Hat
. . . . Cluster
. . . . . . . . Suite
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .9. . . . . . . . . .
1.1. Les bases d'un cluster
9
1.2. Red Hat Cluster Suite Introduction
10
1.3. Cluster Infrastructure
11
1.3.1. Gestion du cluster
11
1.3.2. Gestion du verrouillage
12
1.3.3. Fencing
13
1.3.4. Système de configuration du cluster
16
1.4. Gestion des services à haute disponibilité
17
1.5. Red Hat GFS
20
1.5.1. Performance et évolutivité supérieures
21
1.5.2. Performance, évolutivité, prix modéré
22
1.5.3. Économie et performance
22
1.6. Gestionnaire de volumes logiques du cluster
23
1.7. Périphérique bloc du réseau global (GNBD)
25
1.8. Serveur virtuel Linux
26
1.8.1. T wo-T ier LVS T opology
28
1.8.2. T hree-T ier LVS T opology
30
1.8.3. Méthodes de routage
31
1.8.3.1. Routage NAT
31
1.8.3.2. Routage direct
32
1.8.4. La persistance et les marques de pare-feu
34
1.8.4.1. Persistence
34
1.8.4.2. Marques de pare-feu
34
1.9. Outils d'administration du cluster
34
1.9.1. Conga
35
1.9.2. Interface graphique d'administration du cluster
37
1.9.2.1. Cluster Configuration T ool
37
1.9.2.2. Cluster Status T ool
39
1.9.3. Outils d'administration en ligne de commande
40
1.10. Interface utilisateur graphique d'administration du serveur virtuel Linux
41
1.10.1. CONT ROL/MONIT ORING
42
1.10.2. GLOBAL SET T INGS
43
1.10.3. REDUNDANCY
44
1.10.4. VIRT UAL SERVERS
45
1.10.4.1. La sous-section VIRT UAL SERVER
46
1.10.4.2. La sous-section REAL SERVER
48
1.10.4.3. EDIT MONIT ORING SCRIPT S Subsection
50
.Chapitre
. . . . . . . . .2.
. . Résumé
. . . . . . . . . des
. . . . composants
. . . . . . . . . . . . . de
. . . .Red
. . . . Hat
. . . . Cluster
. . . . . . . . Suite
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
............
2.1. Composants de cluster
52
2.2. Pages de manuel
57
2.3. Matériel compatible
59
. . . . . . . . . . . .de
Historique
. . .révision
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
............
1
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
.Index
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
............
C
60
F
60
I
60
L
61
M
61
N
61
O
61
P
61
R
62
T
62
2
Table des matières
3
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
Introduction
Ce document fournit un aperçu de haut niveau de Red Hat Cluster Suite pour Red Hat Enterprise Linux 5
et est organisé de la manière suivante :
Chapitre 1, Aperçu de Red Hat Cluster Suite
Chapitre 2, Résumé des composants de Red Hat Cluster Suite
Bien qu'il s'agisse d'un aperçu, vous devriez avoir des connaissances pratiques avancées de Red Hat
Enterprise Linux et comprendre les concepts de serveur informatique pour obtenir une bonne
compréhension du contenu de ce document.
Pour davantage d'informations sur l'utilisation de Red Hat Enterprise Linux, reportez-vous aux
ressources suivantes :
Guide d'installation de Red Hat Enterprise Linux — Fournit des informations à propos de l'installation
de Red Hat Enterprise Linux 5.
Guide de déploiement de Red Hat Enterprise Linux — Fournit des informations à propos du
déploiement, de la configuration et de l'administration de Red Hat Enterprise Linux 5.
Pour davantage d'informations à propos de Red Hat Cluster Suite pour Red Hat Enterprise Linux 5,
reportez-vous aux ressources suivantes :
Configuration et gestion d'un cluster Red Hat — Fournit des informations à propos de l'installation, la
configuration et la gestion des composants Red hat Cluster.
LVM Administrator's Guide: Configuration and Administration — Provides a description of the Logical
Volume Manager (LVM), including information on running LVM in a clustered environment.
Système de fichiers GFS : configuration et administration — Fournit des informations à propos de
l'installation, la configuration et la maintenance de Red Hat GFS (Red Hat Global File System).
Système de fichiers GFS 2 : configuration et administration — Fournit des informations à propos de
l'installation, la configuration et la maintenance de Red Hat GFS (Red Hat Global File System 2).
Utilisation de "Device-Mapper Multipath" — Fournit des informations à propos de l'utilisation de la
fonctionnalité "Device-Mapper Multipath" de Red Hat Enterprise Linux 5.
Utilisation de GNBD avec le système de fichiers GFS — Fournit un aperçu de l'utilisation de GNBD
(de l'anglais Global Network Block Device) avec Red Hat GFS.
Administration du serveur virtuel Linux — Fournit des informations à propos de la configuration de
systèmes et services à hautes performances avec le serveur virtuel Linux (LVS de l'anglais Linux
Virtual Server).
Notes de mise à jour de Red Hat Cluster Suite — Fournit des informations à propos de la version
courante de Red Hat Cluster Suite.
La documentation de Red Hat Cluster Suite et les autres documents de Red Hat sont disponibles en
version HT ML, PDF et RPM sur le CD-ROM de documentation de Red Hat Enterprise Linux et en ligne à
l'adresse suivante : http://www.redhat.com/docs/.
1. Conventions d'écriture
Ce manuel utilise plusieurs conventions pour souligner l'importance de certains mots ou expressions,
mais aussi en vue d'attirer l'attention sur certains passages d'informations précis.
Pour les éditions sur support papier et numérique (PDF), ce manuel utilise des caractères issus de
Liberation Fonts. La police de caractères Liberation Fonts est également utilisée pour les éditions HT ML
si elle est installée sur votre système. Sinon, des polices de caractères alternatives équivalentes sont
4
Introduction
utilisées. Notez que Red Hat Enterprise Linux 5 et versions supérieures contiennent la police Liberation
Fonts par défaut.
1.1. Conventions typographiques
Quatre conventions typographiques sont utilisées pour attirer l'attention sur certains mots et
expressions. Ces conventions et les circonstances auxquelles elles s'appliquent sont les suivantes.
Caractères gras à espacem ent fixe
Utilisé pour surligner certaines entrées du système, y compris les commandes shell, les noms de
fichiers et les chemins d'accès. Également utilisé pour surligner les touches et les combinaisons de
touches. Par exemple :
Pour consulter le contenu du fichier m on_nouvel_ouvrage_littéraire qui se situe
dans votre dossier courant, saisissez la commande cat
m on_nouvel_ouvrage_littéraire à la demande du terminal et appuyez sur Entrée
pour exécuter la commande.
L'exemple ci-dessus contient un nom de fichier, une commande shell et une touche, tous présentés
sous forme de caractères gras à espacement fixe et tous bien distincts grâce au contexte.
Les combinaisons de touches se distinguent des touches individuelles par le signe « plus », qui
connecte les différentes parties de la combinaison. Par exemple :
Appuyez sur Entrée pour exécuter la commande.
Appuyez sur Ctrl+Alt+F2 pour basculer sur un terminal virtuel.
Le premier exemple présente une touche particulière sur laquelle appuyer. Le second exemple affiche
une combinaison de touches : un ensemble de trois touches sur lesquelles il faut appuyer
simultanément.
Si le code source est mentionné, les noms de classes, les méthodes, les fonctions, les noms de
variables et les valeurs de retour citées dans un paragraphe seront présentées comme ci-dessus, en
caractères gras à espacem ent fixe. Par exemple :
Les classes de fichiers comprennent le nom de classe filesystem pour les noms de
fichier, file pour les fichiers et dir pour les dossiers. Chaque classe correspond à un
ensemble de permissions associées.
Caractères gras proportionnels
Cette convention marque le surlignage des mots ou phrases que l'on rencontre sur un système,
comprenant des noms d'application, des boîtes de dialogue textuelles, des boutons étiquettés, des
cases à cocher et des boutons d'options mais aussi des intitulés de menus et de sous-menus. Par
exemple :
Sélectionnez Système → Préférences → Souris à partir de la barre du menu principal
pour lancer les Préférences de la souris. À partir de l'onglet Boutons, cliquez sur la
case à cocher Pour gaucher puis cliquez sur Ferm er pour faire passer le bouton
principal de la souris de la gauche vers la droite (ce qui permet l'utilisation de la souris par
la main gauche).
Pour insérer un caractère spécial dans un fichier gedit, choisissez Applications →
Accessoires → T able des caractères depuis la barre du menu principal. Ensuite,
5
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
choisissez Recherche → T rouver… depuis la barre du menu T able des caractères,
saisissez le nom du caractère dans le champ Recherche puis cliquez sur Suivant. Le
caractère recherché sera surligné dans la T able des caractères. Double-cliquez sur
le caractère surligné pour le placer dans le champ T exte à copier, puis cliquez sur le
bouton Copier. Vous pouvez désormais revenir à votre document et choisir Modifier →
Coller depuis la barre du menu gedit.
Le texte ci-dessus contient des noms d'applications, des noms de menus et d'autres éléments
s'appliquant à l'ensemble du système, des boutons et textes que l'on trouve dans une interface
graphique. Ils sont tous présentés sous la forme gras proportionnel et identifiables en fonction du
contexte.
Italique gras à espacement fixe ou Italique gras proportionnel
Qu'ils soient en caractères gras à espacement fixe ou à caractères gras proportionnels, l'ajout de
l'italique indique la présence de texte remplaçable ou variable. Les caractères en italique indiquent la
présence de texte que vous ne saisissez pas littéralement ou de texte affiché qui change en fonction
des circonstances. Par exemple :
Pour se connecter à une machine distante en utilisant ssh, saisissez ssh nom
d'utilisateur@ domain.name (nom.domaine) après l'invite de commande de la console.
Si la machine distante est exem ple.com et que votre nom d'utilisateur pour cette machine
est john, saisissez ssh john@ exam ple.com .
La commande m ount -o rem ount système de fichiers monte le système de fichiers
nommé. Ainsi, pour monter /hom e dans le système de fichiers, la commande est m ount -o
rem ount /hom e.
Pour connaître la version d'un paquet actuellement installé, utilisez la commande rpm -q
paquet. Elle vous permettra de retourner le résultat suivant : version-de-paquet.
Remarquez que les mots en gras italique ci-dessus — username (nom d'utilisateur), domain.name
(nom.domaine), file-system (système de fichiers), package (paquetage), version et release (sortie
commerciale). Chaque mot est un espace réservé au texte, soit pour le texte que vous entrez lors de la
saisie d'une commande, soit pour le texte affiché par le système.
Mis à part l'utilisation habituelle de présentation du titre d'un ouvrage, les caractères italiques indiquent
l'utilisation initiale d'un terme nouveau et important. Ainsi :
Publican est un système de publication DocBook.
1.2. Conventions pour citations mises en avant
Les sorties de terminaux et les citations de code source sont mis en avant par rapport au texte
avoisinant.
Les sorties envoyées vers un terminal sont en caractères Rom ains à espacem ent fixe et
présentées ainsi :
books
books_tests
Desktop
Desktop1
documentation
downloads
drafts
images
mss
notes
photos
scripts
stuff
svgs
svn
Les citations de code source sont également présentées en rom ains à espacem ent fixe mais
sont présentés et surlignés comme suit :
6
Introduction
static int kvm_vm_ioctl_deassign_device(struct kvm *kvm,
struct kvm_assigned_pci_dev *assigned_dev)
{
int r = 0;
struct kvm_assigned_dev_kernel *match;
mutex_lock(&kvm->lock);
match = kvm_find_assigned_dev(&kvm->arch.assigned_dev_head,
assigned_dev->assigned_dev_id);
if (!match) {
printk(KERN_INFO "%s: device hasn't been assigned before, "
"so cannot be deassigned\n", __func__);
r = -EINVAL;
goto out;
}
kvm_deassign_device(kvm, match);
kvm_free_assigned_device(kvm, match);
out:
mutex_unlock(&kvm->lock);
return r;
}
1.3. Notes et avertissements
Enfin, nous utilisons trois styles visuels pour attirer l'attention sur des informations qui auraient pu être
normalement négligées :
Note
Une remarque est une forme de conseil, un raccourci ou une approche alternative par rapport à
une tâche à entreprendre. L'ignorer ne devrait pas provoquer de conséquences négatives, mais
vous pourriez passer à côté d'une astuce qui vous aurait simplifiée la vie.
Important
Les blocs d'informations importantes détaillent des éléments qui pourraient être facilement
négligés : des modifications de configurations qui s'appliquent uniquement à la session actuelle
ou des services qui ont besoin d'être redémarrés avant toute mise à jour. Si vous ignorez une
case étiquetée « Important », vous ne perdrez aucunes données mais cela pourrait être source
de frustration et d'irritation.
Avertissement
Un avertissement ne devrait pas être ignoré. Ignorer des avertissements risque fortement
d'entrainer des pertes de données.
7
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
2. Commentaire
Si vous trouvez des fautes de frappe ou si vous avez des suggestions pour améliorer ce manuel,
n'hésitez surtout pas à nous en faire part ! Veuillez envoyer vos remarques par l'entremise de Bugzilla
(http://bugzilla.redhat.com/bugzilla/) dans la rubrique Docum entation-cluster.
Be sure to mention the document's identifier:
Cluster_Suite_Overview(EN)-5 (2008-12-11T15:49)
By mentioning this document's identifier, we know exactly which version of the guide you have.
Si vous avez une suggestion afin d'améliorer cette documentation, essayez d'être le plus précis
possible. Si vous avez trouvé une erreur, veuillez inclure le numéro de section et quelques passages du
texte pour que nous puissions retrouver l'erreur facilement.
8
Chapitre 1. Aperçu de Red Hat Cluster Suite
Chapitre 1. Aperçu de Red Hat Cluster Suite
Les systèmes en clusters offrent de la fiabilité, de l'évolutivité et de la disponibilité aux services de
production critiques. À l'aide de Red Hat Cluster Suite, vous pouvez créer un cluster en fonction de vos
besoins en matière de performance, haute disponibilité, répartition de charge, évolutivité, partage de
fichiers et économie. Ce chapitre fournit un aperçu des composants et fonctions de Red Hat Cluster
Suite à travers les sections suivantes :
Section 1.1, « Les bases d'un cluster »
Section 1.2, « Red Hat Cluster Suite Introduction »
Section 1.3, « Cluster Infrastructure »
Section 1.4, « Gestion des services à haute disponibilité »
Section 1.5, « Red Hat GFS »
Section 1.6, « Gestionnaire de volumes logiques du cluster »
Section 1.7, « Périphérique bloc du réseau global (GNBD) »
Section 1.8, « Serveur virtuel Linux »
Section 1.9, « Outils d'administration du cluster »
Section 1.10, « Interface utilisateur graphique d'administration du serveur virtuel Linux »
1.1. Les bases d'un cluster
Un cluster se compose d'un ou plusieurs ordinateurs (appelés noeuds ou membres) qui travaillent
ensemble afin d'effectuer une tâche. Il y a quatre types majeurs de cluster :
Stockage
Haute disponibilité
Répartition de charge
Haute performance
Les clusters de stockage fournissent une image consistante d'un système de fichiers à travers les
serveurs d'un cluster, permettant aux serveurs de lire et d'écrire de façon simultanée sur un système de
fichiers partagé. Un cluster de stockage simplifie l'administration du stockage en limitant l'installation et
l'application de correctifs à un seul système de fichiers. De plus, avec un système de fichiers au niveau
du cluster, les copies redondantes de données de l'application sont éliminées et la récupération de
sauvegardes et de pertes de données est simplifiée. Red Hat Cluster Suite fournit la mise en cluster du
stockage à travers Red Hat GFS.
Les clusters à haute disponibilité fournissent une disponibilité permanente des services en éliminant les
points de défaillance uniques et en passant les services d'un noeud du cluster à un autre lors de
l'échec d'un noeud. En règle générale, les services dans un cluster à haute disponibilité lisent et
écrivent les données (à partir de systèmes de fichiers montés en lecture-écriture). Par conséquent, un
cluster à haute disponibilité doit conserver l'intégrité des données étant donné qu'un noeud du cluster
prend le contrôle d'un service à partir d'un autre noeud. Les échecs de noeuds au sein d'un cluster à
haute disponibilité ne sont pas visibles par les clients en dehors du cluster (les clusters à haute
disponibilité sont parfois appelés des clusters failover). Red Hat Cluster Suite fournit la mise en cluster
à haute disponibilité à travers son composant de gestion des services à haute disponibilité.
Les clusters de répartition de charge distribuent les requêtes de service réseau vers plusieurs noeuds
du cluster afin de répartir la charge de ces requêtes. La répartition de charge fournit une évolutivité
rentable car vous pouvez faire correspondre le nombre de nœuds conformément aux exigences de
charge. Si le noeud d'un cluster de répartition de charge devient inopérant, le logiciel de répartition de
charge détecte l'échec et redirige les requêtes vers d'autres noeuds du cluster. Les échecs de noeuds
9
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
dans un cluster de répartition de charge ne sont pas visibles par les clients en dehors du cluster. Red
Hat Cluster Suite fournit la répartition de charge à travers LVS (de l'anglais Linux Virtual Server).
Les clusters à haute performance utilisent les nœuds du cluster pour effectuer des calculs simultanés.
Un cluster à haute performance permet aux applications de travailler en parallèle, ce qui accroît les
performances de l'application (les clusters à haute performance sont également appelés des clusters
de calcul ou des grilles informatique).
Remarque
Les types de cluster résumés dans le texte précédent reflètent les configurations de base ; vos
besoins pourraient exiger une combinaison des différents clusters décrits.
1.2. Red Hat Cluster Suite Introduction
Red Hat Cluster Suite (RHCS) est un ensemble intégré de composants logiciels pouvant être déployés
dans diverses configurations afin de répondre à vos besoins en termes de performance, haute
disponibilité, répartition de charge, évolutivité, partage de fichiers et économie.
RHCS consists of the following major components (refer to Figure 1.1, « Red Hat Cluster Suite
Introduction »):
Infrastructure de cluster — Fournit des fonctions fondamentales pour que les noeuds puissent
travailler ensemble afin de former un cluster : gestion des fichiers de configuration, gestion des
adhésions, gestion du verrouillage et fencing.
Gestion de services à haute disponibilité — Fournit un failover de services à partir du noeud d'un
cluster vers un autre lorsqu'un noeud devient inopérant.
Outils d'administration du cluster — Outils de configuration et de gestion pour le paramétrage, la
configuration et la gestion d'un cluster Red Hat. Les outils sont utilisés avec les composants
d'infrastructure de cluster, les composants à haute disponibilité et de gestion des services, et le
stockage.
Serveur virtuel Linux (LVS de l'anglais Linux Virtual Server) — Logiciel de routage qui fournit une
adresse IP de répartition de charge. LVS s'exécute dans une paire de serveurs redondants qui
distribuent les demandes des clients de façon égale vers des serveurs réels situés derrière les
serveurs LVS.
Vous pouvez compléter Red Hat Cluster Suite avec les composants suivants, qui font partie d'un
paquetage optionnel (ils ne font donc pas partie de Red Hat Cluster Suite) :
Red Hat GFS (de l'anglais Global File System) — Fournit un système de fichiers en cluster à utiliser
avec Red Hat Cluster Suite. GFS permet à plusieurs noeuds de partager le stockage au niveau bloc
comme si le stockage était connecté localement à chaque noeud du cluster.
Gestionnaire de volumes logiques en cluster (CLVM de l'anglais Cluster Logical Volume Manager) —
Fournit une gestion de volumes du stockage en cluster.
Note
When you create or modify a CLVM volume for a clustered environment, you must ensure that
you are running the clvm d daemon. For further information, refer to Section 1.6,
« Gestionnaire de volumes logiques du cluster ».
10
Chapitre 1. Aperçu de Red Hat Cluster Suite
Périphérique bloc du réseau global (GNBD de l'anglais Global Network Block Device) — Un
composant auxiliaire de GFS qui exporte le stockage de niveau bloc vers Ethernet. Ceci est un
moyen économique permettant de rendre le stockage de niveau bloc disponible à Red Hat GFS.
For a lower level summary of Red Hat Cluster Suite components and optional software, refer to
Chapitre 2, Résumé des composants de Red Hat Cluster Suite.
Figure 1.1. Red Hat Cluster Suite Introduction
Remarque
Figure 1.1, « Red Hat Cluster Suite Introduction » includes GFS, CLVM, and GNBD, which are
components that are part of an optional package and not part of Red Hat Cluster Suite.
1.3. Cluster Infrastructure
L'infrastructure de cluster de Red Hat Cluster Suite fournit les fonctions de base pour que les
ordinateurs d'un groupe (appelés noeuds ou membres) travaillent ensemble afin de former un cluster.
Une fois qu'un cluster est établi en utilisant l'infrastructure de cluster, vous pouvez utiliser d'autres
composants de Red Hat Cluster Suite pour répondre à vos besoins en matière d'utilisation du cluster
(par exemple afin de configurer un cluster pour le partage de fichiers sur un système de fichiers GFS ou
pour paramétrer un service failover). L'infrastructure de cluster effectue les fonctions suivantes :
Gestion du cluster
Gestion du verrouillage
Fencing
Gestion de la configuration du cluster
1.3.1. Gestion du cluster
Cluster management manages cluster quorum and cluster membership. CMAN (an abbreviation for
cluster manager) performs cluster management in Red Hat Cluster Suite for Red Hat Enterprise Linux 5.
11
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
CMAN is a distributed cluster manager and runs in each cluster node; cluster management is distributed
across all nodes in the cluster (refer to Figure 1.2, « CMAN/DLM Overview »).
CMAN keeps track of cluster quorum by monitoring the count of cluster nodes. If more than half the
nodes are active, the cluster has quorum. If half the nodes (or fewer) are active, the cluster does not
have quorum, and all cluster activity is stopped. Cluster quorum prevents the occurrence of a "splitbrain" condition — a condition where two instances of the same cluster are running. A split-brain
condition would allow each cluster instance to access cluster resources without knowledge of the other
cluster instance, resulting in corrupted cluster integrity.
Le quorum est déterminé par le biais de messages de communication entre les noeuds du cluster via
Ethernet. De façon facultative, le quorum peut être déterminé par une combinaison de messages qui
communiquent via Ethernet et à travers un disque quorum. Pour le quorum via Ethernet, le quorum se
compose de 50 pourcent des noeuds plus 1. Pour le quorum via le disque quorum, le quorum se
compose de conditions spécifiées par l'utilisateur.
Remarque
Par défaut, chaque noeud a un vote pour le quorum. De façon facultative, vous pouvez configurer
les noeuds du cluster afin qu'ils aient plus d'un vote.
CMAN assure le suivi des adhésions en analysant les messages des autres noeuds du cluster.
Lorsque les adhésions au cluster changent, le gestionnaire de cluster notifie les autres composants
d'infrastructure, qui ensuite effectuent une action appropriée. Par exemple, si le noeud A joint un cluster
et monte un système de fichiers GFS que les noeuds B et C ont déjà monté, un journal supplémentaire
et une gestion du verrouillage sont requis pour que le noeud A puisse utiliser ce système de fichiers. Si
un noeud du cluster ne transmet pas de message pendant une période de temps définie, le gestionaire
de cluster supprime le noeud du cluster et indique aux autres composants de l'infrastructure de cluster
que le noeud n'est plus un membre. Encore une fois, d'autres composants d'infrastructure de cluster
déterminent quelles sont les actions à effectuer suite à la notification indiquant que le noeud ne fait plus
partie du cluster. Par exemple, le composant Fencing déconnecterait le noeud qui n'est plus membre.
Figure 1.2. CMAN/DLM Overview
1.3.2. Gestion du verrouillage
Lock management is a common cluster-infrastructure service that provides a mechanism for other
cluster infrastructure components to synchronize their access to shared resources. In a Red Hat cluster,
12
Chapitre 1. Aperçu de Red Hat Cluster Suite
DLM (Distributed Lock Manager) is the lock manager. As implied in its name, DLM is a distributed lock
manager and runs in each cluster node; lock management is distributed across all nodes in the cluster
(refer to Figure 1.2, « CMAN/DLM Overview »). GFS and CLVM use locks from the lock manager. GFS
uses locks from the lock manager to synchronize access to file system metadata (on shared storage).
CLVM uses locks from the lock manager to synchronize updates to LVM volumes and volume groups
(also on shared storage).
1.3.3. Fencing
Fencing is the disconnection of a node from the cluster's shared storage. Fencing cuts off I/O from
shared storage, thus ensuring data integrity. T he cluster infrastructure performs fencing through the
fence daemon, fenced.
Lorsque CMAN détermine l'échec d'un noeud, il le communique aux autres composants de
l'infrastructure de cluster. Lorsque fenced est averti de l'échec, il déconnecte le noeud qui a échoué.
D'autres composants d'infrastructure de cluster déterminent les actions à effectuer — autrement dit, ils
effectuent les récupérations qui doivent être faites. Par exemple, DLM et GFS, lorsqu'ils sont informés
d'un échec, suspendent toute activité jusqu'à ce que fenced ait terminé la déconnexion du noeud qui a
échoué. Suite à la confirmation de la déconnexion du noeud, DLM et GFS effectuent la récupération. DLM
libère les verrous du noeud ayant échoué et GFS récupère le fichier journal.
Le programme fencing détermine à partir du fichier de configuration du cluster le mode fencing à utiliser.
Deux éléments clés dans le fichier de configuration du cluster définissent le mode fencing : l'agent fence
et le périphérique fence. Le programme fencing effectue un appel sur l'agent fence spécifié dans le
fichier de configuration du cluster. L'agent fence, pour sa part, déconnecte le noeud via le périphérique
fence. Lorsque la déconnexion est terminée, le programme fencing notifie le gestionnaire de cluster.
Red Hat Cluster Suite fournit une grande variété de méthodes fencing :
Power fencing — Une méthode fencing qui utilise un contrôleur de courant pour éteindre un noeud
inopérant.
Fibre Channel switch fencing — Une méthode fencing qui désactive le port Fibre Channel connectant
le stockage à un noeud inopérant.
GNBD fencing — A fencing method that disables an inoperable node's access to a GNBD server.
Other fencing — D'autres méthodes fencing qui désactivent les E/S ou le courant d'un noeud
inopérant, y compris IBM Bladecenters, PAP, DRAC/MC, HP ILO, IPMI, IBM RSA II et autres.
Figure 1.3, « Power Fencing Example » shows an example of power fencing. In the example, the fencing
program in node A causes the power controller to power off node D. Figure 1.4, « Fibre Channel Switch
Fencing Example » shows an example of Fibre Channel switch fencing. In the example, the fencing
program in node A causes the Fibre Channel switch to disable the port for node D, disconnecting node D
from storage.
13
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
Figure 1.3. Power Fencing Example
Figure 1.4 . Fibre Channel Switch Fencing Example
Spécifier une méthode fencing consiste à éditer le fichier de configuration du cluster pour lui assigner le
nom d'une méthode fencing, l'agent fence et le périphérique fence de chaque noeud du cluster.
T he way in which a fencing method is specified depends on if a node has either dual power supplies or
multiple paths to storage. If a node has dual power supplies, then the fencing method for the node must
specify at least two fencing devices — one fencing device for each power supply (refer to Figure 1.5,
« Fencing a Node with Dual Power Supplies »). Similarly, if a node has multiple paths to Fibre Channel
14
Chapitre 1. Aperçu de Red Hat Cluster Suite
storage, then the fencing method for the node must specify one fencing device for each path to Fibre
Channel storage. For example, if a node has two paths to Fibre Channel storage, the fencing method
should specify two fencing devices — one for each path to Fibre Channel storage (refer to Figure 1.6,
« Fencing a Node with Dual Fibre Channel Connections »).
Figure 1.5. Fencing a Node with Dual Power Supplies
Figure 1.6. Fencing a Node with Dual Fibre Channel Connections
15
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
Vous pouvez configurer un noeud avec une ou plusieurs méthodes fencing. Lorsque vous configurez un
noeud avec une méthode fencing, il s'agit de la seule méthode fencing disponible pour déconnecter ce
noeud. Lorsque vous configurez un noeud avec plusieurs méthodes fencing, les méthodes fencing sont
disposées en cascade, les unes après les autres, en fonction de l'ordre dans lequel elles apparaissent
dans le fichier de configuration du cluster. Si un noeud échoue, il est déconnecté en utilisant la première
méthode fencing spécifiée dans le fichier de configuration. Si la première méthode fencing ne réussit
pas, la méthode fencing suivante spécifiée pour ce noeud est utilisée. Si aucune des méthodes fencing
ne réussit, le processus recommence avec la première méthode fencing spécifiée et continue à
parcourir les autres méthodes fencing, en fonction de l'ordre dans lequel elles apparaissent dans le
fichier de configuration, jusqu'à ce qu'un des noeuds soit déconnecté.
1.3.4. Système de configuration du cluster
T he Cluster Configuration System (CCS) manages the cluster configuration and provides configuration
information to other cluster components in a Red Hat cluster. CCS runs in each cluster node and makes
sure that the cluster configuration file in each cluster node is up to date. For example, if a cluster system
administrator updates the configuration file in Node A, CCS propagates the update from Node A to the
other nodes in the cluster (refer to Figure 1.7, « CCS Overview »).
Figure 1.7. CCS Overview
Other cluster components (for example, CMAN) access configuration information from the configuration
file through CCS (refer to Figure 1.7, « CCS Overview »).
16
Chapitre 1. Aperçu de Red Hat Cluster Suite
Figure 1.8. Accessing Configuration Information
Le fichier de configuration du cluster (/etc/cluster/cluster.conf) est un fichier XML qui décrit les
caractéristiques suivantes du cluster :
Nom du cluster — Affiche le nom du cluster, le niveau de révision du fichier de configuration et des
propriétés de base du minutage fence utilisées lorsqu'un noeud joint un cluster ou qu'il est
déconnecté.
Cluster — Affiche chaque noeud du cluster, en spécifiant le nom du noeud, l'ID du noeud, le nombre
de votes du quorum et la méthode fencing pour ce noeud.
Périphérique fence — Affiche les périphériques fence du cluster. Les paramètres varient en fonction
du type de périphérique fence. Par exemple, pour un contrôleur de courant utilisé comme
périphérique fence, la configuration du cluster définit le nom du contrôleur de courant, son adresse
IP, son identifiant de connexion et son mot de passe.
Ressources gérées — Affiche les ressources nécessaires afin de créer les services cluster. Les
ressources gérées inclues la définition de domaines failover, les ressources (par exemple une
adresse IP) et les services. Ensemble, les ressources gérées définissent les services cluster et le
comportement failover des services cluster.
1.4. Gestion des services à haute disponibilité
La gestion de services à haute disponibilité permet de créer et gérer des services cluster à haute
disponibilité dans un cluster Red Hat. Le composant clé pour la gestion de services à haute disponibilité
dans un cluster Red Hat, rgm anager, implémente un failover "à froid" ("cold failover") pour les
applications "off-the-shelf". Dans un cluster Red Hat, une application est configurée avec d'autres
ressources de cluster pour former un service cluster à haute disponibilité. Un service cluster à haute
disponibilité peut, en cas d'échec, passer d'un noeud du cluster à un autre sans interruption apparente
pour les clients du cluster. Un failover de service cluster peut se produire si le noeud d'un cluster
échoue ou si un administrateur système de clusters déplace le service d'un noeud à un autre (par
exemple, en vue de l'arrêt d'un noeud du cluster).
Pour créer un service à haute disponibilité, vous devez le configurer dans le fichier de configuration du
cluster. Un service cluster comprend les ressources du cluster. Les ressource du cluster sont des blocs
17
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
de construction que vous créez et gérez dans le fichier de configuration du cluster — Par exemple, une
adresse IP, un script d'initialisation d'applications ou une partition partagée Red Hat GFS.
You can associate a cluster service with a failover domain. A failover domain is a subset of cluster
nodes that are eligible to run a particular cluster service (refer to Figure 1.9, « Les domaines failover »).
Remarque
Les domaines failover ne sont pas requis pour l'opération.
Un service cluster peut être démarré sur un seul noeud du cluster à la fois afin de maintenir l'intégrité
des données. Vous pouvez spécifier des priorités failover dans un domaine failover. La spécification des
priorités failover consiste à assigner un niveau de priorité à chaque noeud du domaine failover. Le
niveau de priorité détermine l'ordre failover — il détermine ainsi le noeud vers lequel un service cluster
devrait être dirigé. Si vous ne spécifiez pas de priorité failover, un service cluster peut, en cas d'échec,
être dirigé vers n'importe quel noeud de son domaine failover. Vous pouvez également spécifier si un
service cluster est restreint à démarrer seulement sur les noeuds de son domaine failover associé
(lorsqu'il est associé à un domaine failover sans restriction, un service cluster peut être démarré sur
n'importe quel noeud du cluster si aucun membre du domaine failover n'est disponible).
In Figure 1.9, « Les domaines failover », Failover Domain 1 is configured to restrict failover within that
domain; therefore, Cluster Service X can only fail over between Node A and Node B. Failover Domain 2 is
also configured to restrict failover with its domain; additionally, it is configured for failover priority. Failover
Domain 2 priority is configured with Node C as priority 1, Node B as priority 2, and Node D as priority 3. If
Node C fails, Cluster Service Y fails over to Node B next. If it cannot fail over to Node B, it tries failing
over to Node D. Failover Domain 3 is configured with no priority and no restrictions. If the node that
Cluster Service Z is running on fails, Cluster Service Z tries failing over to one of the nodes in Failover
Domain 3. However, if none of those nodes is available, Cluster Service Z can fail over to any node in
the cluster.
18
Chapitre 1. Aperçu de Red Hat Cluster Suite
Figure 1.9. Les domaines failover
Figure 1.10, « Web Server Cluster Service Example » shows an example of a high-availability cluster
service that is a web server named "content-webserver". It is running in cluster node B and is in a
failover domain that consists of nodes A, B, and D. In addition, the failover domain is configured with a
failover priority to fail over to node D before node A and to restrict failover to nodes only in that failover
domain. T he cluster service comprises these cluster resources:
Une ressource pour l'adresse IP — Adresse IP 10.10.10.201.
An application resource named "httpd-content" — a web server application init script
/etc/init.d/httpd (specifying httpd).
A file system resource — Red Hat GFS named "gfs-content-webserver".
19
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
Figure 1.10. Web Server Cluster Service Example
Les clients accèdent au service cluster à travers l'adresse IP 10.10.10.201, permettant l'interaction avec
l'application du serveur Web, httpd-content. L'application httpd-content utilise le système de fichiers gfscontent-webserver. Si le noeud B échoue, le service cluster content-webserver passe au noeud D. Si le
noeud D n'est pas disponible ou s'il échoue aussi, le service passe au noeud A. Le failover se produira
sans interruption apparente pour les clients du cluster. Le service cluster sera accessible à partir d'un
autre noeud du cluster à travers la même adresse IP que celle utilisée avant le failover.
1.5. Red Hat GFS
Red Hat GFS est un système de fichiers en cluster qui permet aux noeuds d'un cluster d'accéder en
même temps à un périphérique bloc partagé entre les noeuds. GFS est un système de fichiers natif qui
s'interface directement avec la couche VFS de l'interface du système de fichiers du noyau Linux. GFS
utilise des métadonnées distribuées et plusieurs fichiers journaux afin d'optimiser les opérations au
sein d'un cluster. Pour maintenir l'intégrité du système de fichiers, GFS utilise un gestionnaire de
verrouillage afin de coordonner les E/S. Lorsqu'un noeud change les données d'un système de fichiers
GFS, ce changement est immédiatement visible aux autres noeuds du cluster utilisant ce système de
fichiers.
En utilisant Red Hat GFS, vous pouvez atteindre une disponibilité maximale de l'application avec les
avantages suivants :
Simplification de votre infrastructure de données.
Installation et application de correctifs, une seule fois, pour l'ensemble du cluster.
Élimine le besoin de copies redondantes des données de l'application (duplication).
Active l'accès concurrent aux données en lecture/écriture par plusieurs clients.
Simplifie la récupération des sauvegardes et de pertes de données (un seul système de fichiers
20
Chapitre 1. Aperçu de Red Hat Cluster Suite
à sauvegarder ou à restaurer).
Maximise l'utilisation des ressources de stockage ; minimise les coûts d'administration du stockage.
Permet de gérer le stockage dans sa globalité plutôt que par partition.
Diminue dans l'ensemble le stockage en éliminant le besoin de réplication des données.
Varie la dimension du cluster en ajoutant, à la volée, des serveurs ou du stockage.
Plus de stockage du partitionnement via des techniques complexes.
Ajoute, à la volée, des serveurs au cluster en les montant sur le système de fichiers commun.
Les noeuds qui démarrent Red Hat GFS sont configurés et gérés avec les outils de gestion et de
configuration de Red Hat Cluster Suite. La gestion de volumes est gérée par le biais du gestionnaire de
volumes logiques du cluster (CLVM de l'anglais Cluster Logical Volume Manager). Red Hat GFS fournit le
partage de fichiers entre les noeuds GFS d'un cluster Red Hat. GFS fournit une vue unique et cohérente
de l'espace de noms du système de fichiers sur les noeuds GFS d'un cluster Red Hat. GFS permet aux
applications d'être installées et démarrées sans trop de connaissances quant à l'infrastructure de
stockage sous-jacente. De plus, GFS fournit des fonctionnalités qui sont généralement requises dans
les environnements d'entreprise, telles que les quotas, de multiples fichiers journaux et la prise en
charge de "multipath".
GFS fournit une méthode versatile de stockage en réseau en fonction de vos besoins en matière de
performance, évolutivité et économie pour votre environnement de stockage. Ce chapitre fournit des
informations de base, concises pour vous aider à comprendre GFS.
You can deploy GFS in a variety of configurations to suit your needs for performance, scalability, and
economy. For superior performance and scalability, you can deploy GFS in a cluster that is connected
directly to a SAN. For more economical needs, you can deploy GFS in a cluster that is connected to a
LAN with servers that use GNBD (Global Network Block Device) or to iSCSI (Internet Small Computer
System Interface) devices. (For more information about GNBD, refer to Section 1.7, « Périphérique bloc
du réseau global (GNBD) ».)
Les sections suivantes fournissent des exemples sur la façon dont GFS peut être déployé afin de
répondre à vos besoins en matière de performance, évolutivité et économie :
Section 1.5.1, « Performance et évolutivité supérieures »
Section 1.5.2, « Performance, évolutivité, prix modéré »
Section 1.5.3, « Économie et performance »
Remarque
Les exemples de déploiement de GFS reflètent les configurations de base ; vos besoins peuvent
nécessiter une combinaison des configurations illustrées dans ces exemples.
1.5.1. Performance et évolutivité supérieures
You can obtain the highest shared-file performance when applications access storage directly. T he GFS
SAN configuration in Figure 1.11, « GFS with a SAN » provides superior file performance for shared files
and file systems. Linux applications run directly on cluster nodes using GFS. Without file protocols or
storage servers to slow data access, performance is similar to individual Linux servers with directly
connected storage; yet, each GFS application node has equal access to all data files. GFS supports over
300 GFS nodes.
21
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
Figure 1.11. GFS with a SAN
1.5.2. Performance, évolutivité, prix modéré
Multiple Linux client applications on a LAN can share the same SAN-based data as shown in Figure 1.12,
« GFS and GNBD with a SAN ». SAN block storage is presented to network clients as block storage
devices by GNBD servers. From the perspective of a client application, storage is accessed as if it were
directly attached to the server in which the application is running. Stored data is actually on the SAN.
Storage devices and data can be equally shared by network client applications. File locking and sharing
functions are handled by GFS for each network client.
Figure 1.12. GFS and GNBD with a SAN
1.5.3. Économie et performance
Figure 1.13, « GFS et GNBD avec un stockage directement connecté » shows how Linux client
applications can take advantage of an existing Ethernet topology to gain shared access to all block
storage devices. Client data files and file systems can be shared with GFS on each client. Application
22
Chapitre 1. Aperçu de Red Hat Cluster Suite
failover can be fully automated with Red Hat Cluster Suite.
Figure 1.13. GFS et GNBD avec un stockage directement connecté
1.6. Gestionnaire de volumes logiques du cluster
Le gestionnaire de volumes logiques du cluster (CLVM de l'anglais Cluster Logical Volume Manager)
fournit une version de LVM2 à l'échelle du cluster. CLVM fournit les mêmes capacités que LVM2 sur un
noeud unique mais rend les volumes disponibles à tous les noeuds d'un cluster Red Hat. Les volumes
logiques créés avec CLVM sont disponibles à tous les noeuds d'un cluster.
T he key component in CLVM is clvm d. clvm d is a daemon that provides clustering extensions to the
standard LVM2 tool set and allows LVM2 commands to manage shared storage. clvm d runs in each
cluster node and distributes LVM metadata updates in a cluster, thereby presenting each cluster node
with the same view of the logical volumes (refer to Figure 1.14, « CLVM Overview »). Logical volumes
created with CLVM on shared storage are visible to all nodes that have access to the shared storage.
CLVM allows a user to configure logical volumes on shared storage by locking access to physical
storage while a logical volume is being configured. CLVM uses the lock-management service provided by
the cluster infrastructure (refer to Section 1.3, « Cluster Infrastructure »).
Remarque
Le stockage partagé utilisé dans Red Hat Cluster Suite exige que vous exécutiez le démon du
gestionnaire de volume logique du cluster (clvm d) or bien lesagents High Availability Logical
Volume Management (HA-LVM). Si vous n'êtes pas en mesure d'utiliser le démon clvm d, ni HALVM pour des raisons opérationnelles, ou parce que vous ne possédez pas d'accès, vous ne
pouvez pas utiliser un instance-simple LVM sur le disque partagé, car cela pourrait aboutir à une
corruption des données. Si vous avez des questions, veuillez contacter votre représentant
commercial Red Hat.
23
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
Remarque
L'utilisation de CLVM requiert de mineurs changements dans /etc/lvm /lvm .conf afin de
gérer le verrouillage à l'échelle du cluster.
Figure 1.14 . CLVM Overview
You can configure CLVM using the same commands as LVM2, using the LVM graphical user interface
(refer to Figure 1.15, « LVM Graphical User Interface »), or using the storage configuration function of the
Conga cluster configuration graphical user interface (refer to Figure 1.16, « Conga LVM Graphical User
Interface ») . Figure 1.17, « Creating Logical Volumes » shows the basic concept of creating logical
volumes from Linux partitions and shows the commands used to create logical volumes.
Figure 1.15. LVM Graphical User Interface
24
Chapitre 1. Aperçu de Red Hat Cluster Suite
Figure 1.16. Conga LVM Graphical User Interface
Figure 1.17. Creating Logical Volumes
1.7. Périphérique bloc du réseau global (GNBD)
25
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
GNBD fournit un accès aux périphériques blocs à Red Hat GFS à travers T CP/IP. GNBD est similaire
dans son concept à NBD ; cependant, GNBD est spécifique à GFS et personnalisé pour être utilisé
exclusivement avec GFS. GNBD est utile lorsque le besoin de technologies plus robustes, telles que
Fibre Channel ou un seul initiateur SCSI, n'est pas nécessaire ou à des prix excessifs.
GNBD consists of two major components: a GNBD client and a GNBD server. A GNBD client runs in a
node with GFS and imports a block device exported by a GNBD server. A GNBD server runs in another
node and exports block-level storage from its local storage (either directly attached storage or SAN
storage). Refer to Figure 1.18, « Aperçu de GNBD ». Multiple GNBD clients can access a device
exported by a GNBD server, thus making a GNBD suitable for use by a group of nodes running GFS.
Figure 1.18. Aperçu de GNBD
1.8. Serveur virtuel Linux
LVS (de l'anglais Linux Virtual Server) est un ensemble de composants logiciels intégrés permettant de
répartir la charge IP à travers un ensemble de serveurs réels. LVS s'exécute sur une paire d'ordinateurs
ayant la même configuration : un routeur LVS actif et un routeur LVS de sauvegarde. Le routeur LVS actif
joue deux rôles :
Il répartit la charge à travers les serveurs réels.
Il vérifie l'intégrité des services sur chaque serveur réel.
Le routeur LVS de sauvegarde surveille le routeur LVS actif et prend le pas sur ce dernier s'il échoue.
Figure 1.19, « Components of a Running LVS Cluster » provides an overview of the LVS components
and their interrelationship.
26
Chapitre 1. Aperçu de Red Hat Cluster Suite
Figure 1.19. Components of a Running LVS Cluster
Le démon pulse est exécuté sur les deux routeurs LVS actifs et passifs. Sur le routeur LVS de
sauvegarde, pulse envoie un signal heartbeat à l'interface publique du routeur actif afin de s'assurer
que le routeur LVS actif fonctionne correctement. Sur le routeur LVS actif, pulse démarre le démon lvs
et répond aux requêtes heartbeat du routeur LVS de sauvegarde.
Une fois démarré, le démon lvs appelle l'utilitaire ipvsadm afin de configurer et maintenir la table de
routage IPVS (de l'anglais IP Virtual Server) dans le noyau et démarre un processus nanny pour
chaque serveur virtuel configuré sur chaque serveur réel. Chaque processus nanny vérifie l'état d'un
service configuré sur un serveur réel et indique au démon lvs si le service sur ce serveur réel ne
fonctionne pas correctement. Si un dysfonctionnement est détecté, le démon lvs demande à l'utilitaire
ipvsadm de supprimer ce serveur réel de la table de routage IPVS.
Si le routeur LVS de sauvegarde ne reçoit pas de réponse à partir du routeur LVS actif, il initie un failover
en appelant send_arp afin de réassigner toutes les adresses IP virtuelles aux adresses matérielles
NIC (adresse MAC) du routeur LVS de sauvegarde. Il envoie également une commande au routeur LVS
actif via les interfaces réseau publiques et privées afin d'arrêter le démon lvs sur le routeur LVS actif et
démarre le démon lvs sur le routeur LVS de sauvegarde afin d'accepter les requêtes pour les serveurs
virtuels configurés.
Pour un utilisateur externe accédant à un service hôte (tel qu'un site Web ou une application de base de
données), LVS apparaît comme un serveur. Cependant, l'utilisateur accède aux serveurs réels derrière
les routeurs LVS.
Parce qu'il n'y a pas de composant intégré dans LVS pour partager les données à travers les serveurs
réels, vous disposez de deux options de base :
Synchroniser les données à travers les serveurs réels.
Ajouter une troisième couche à la topologie pour l'accès aux données partagées.
La première option est préférable pour les serveurs qui n'autorisent pas un grand nombre d'utilisateurs
27
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
à télécharger ou changer des données sur les serveurs réels. Si les serveurs réels autorisent un grand
nombre d'utilisateurs à modifier les données, par exemple un site Web de e-commerce, ajouter une
troisième couche est préférable.
Il existe de nombreuses façons pour synchroniser les données entre les serveurs réels. Vous pouvez
par exemple utiliser des scripts shell afin de poster simultanément des pages Web mises à jour sur les
serveurs réels. Vous pouvez également utiliser des programmes comme rsync pour répliquer les
données modifiées à travers tous les noeuds à un intervalle défini. T outefois, dans les environnements
où les utilisateurs téléchargent fréquemment des fichiers ou émettent des transactions avec la base de
données, l'utilisation de scripts ou de la commande rsync pour la synchronisation des données ne
fonctionne pas de façon optimale. Par conséquent, pour les serveurs réels avec un nombre élevé de
téléchargements, transactions de base de données, ou autre trafic similaire, une topologie trois tiers est
plus appropriée pour la synchronisation des données.
1.8.1. Two-Tier LVS Topology
Figure 1.20, « T wo-T ier LVS T opology » shows a simple LVS configuration consisting of two tiers: LVS
routers and real servers. T he LVS-router tier consists of one active LVS router and one backup LVS
router. T he real-server tier consists of real servers connected to the private network. Each LVS router
has two network interfaces: one connected to a public network (Internet) and one connected to a private
network. A network interface connected to each network allows the LVS routers to regulate traffic
between clients on the public network and the real servers on the private network. In Figure 1.20, « T woT ier LVS T opology », the active LVS router uses Network Address Translation (NAT) to direct traffic from
the public network to real servers on the private network, which in turn provide services as requested.
T he real servers pass all public traffic through the active LVS router. From the perspective of clients on
the public network, the LVS router appears as one entity.
Figure 1.20. T wo-T ier LVS T opology
Les requêtes de service arrivant au routeur LVS sont adressées à une adresse IP virtuelle (VIP de
l'anglais Virtual IP). Il s'agit d'une adresse routable publiquement que l'administrateur du site associe à
un nom de domaine pleinement qualifié, tel que www.exemple.com et qui est assignée à un ou plusieurs
28
Chapitre 1. Aperçu de Red Hat Cluster Suite
serveurs virtuels [1] . Notez qu'une adresse VIP migre d'un routeur LVS à l'autre durant le failover, ainsi
cette adresse IP est toujours en présence d'un routeur (également appelée adresse IP flottante).
Les adresses VIP peuvent avoir un alias pour le même périphérique connectant le routeur LVS au
réseau public. Par exemple, si eth0 est connecté à Internet, plusieurs serveurs virtuels peuvent être
nommés eth0:1. De façon alternative, chaque serveur virtuel peut être associé à un périphérique
différent par service. Par exemple, le trafic HT T P peut être traité sur eth0:1 et le trafic FT P peut être
traité sur eth0:2.
Seul un routeur LVS peut être actif à un moment donné. Le rôle du routeur LVS actif est de rediriger les
requêtes de service, des adresses IP virtuelles vers les serveurs réels. La redirection est basée sur un
de ces huit algorithmes de répartition de charge :
Programmation Round-Robin — Distribue chaque requête consécutivement autour d'un pool de
serveurs réels. En utilisant cet algorithme, tous les serveurs réels sont traités de la même manière,
sans prendre en compte la capacité ou la charge.
Programmation Weighted Round-Robin — Distribue chaque requête consécutivement autour d'un
pool de serveurs réels mais donne plus de travail aux serveurs ayant une plus grande capacité. La
capacité est indiquée par un facteur de poids assigné par l'utilisateur, qui est ensuite ajusté en
fonction des informations de charge dynamiques. Cette option est préférée s'il y a des différences
sensibles entre la capacité des serveurs réels d'un pool de serveurs. Cependant, si la charge des
requêtes varie considérablement, un serveur très alourdi pourrait répondre à plus de requêtes qu'il
ne devrait.
Least-Connection — Distribue davantage de requêtes aux serveurs réels ayant moins de
connexions actives. Ceci est un genre d'algorithme de programmation dynamique. C'est une bonne
option s'il y a un degré de variation important au niveau de la charge des requêtes. Il s'agit de
l'algorithme qui correspond le mieux à un pool de serveurs où chaque noeud du serveur a
approximativement la même capacité. Si les serveurs réels ont des capacités différentes, la
programmation weighted least-connection constitue un meilleur choix.
Weighted Least-Connections (par défaut) — Distribue davantage de requêtes aux serveurs ayant
moins de connexions actives en fonction de leurs capacités. La capacité est indiquée par un facteur
de poids assigné par l'utilisateur, qui est ensuite ajusté en fonction des informations de charge
dynamiques. L'ajout de poids rend l'algorithme idéal lorsque le pool de serveurs réels contient du
matériel avec différentes capacités.
Programmation Locality-Based Least-Connection — Distribue davantage de requêtes aux serveurs
ayant moins de connexions actives en fonction de leur adresse IP de destination. Cet algorithme est
dédié à une utilisation au sein d'un cluster de serveurs proxy-cache. Il achemine les paquets d'une
adresse IP vers le serveur de cette adresse à moins que ce serveur soit au-delà de ses capacités,
auquel cas il assigne l'adresse IP au serveur réel le moins chargé.
Programmation Locality-Based Least-Connection avec programmation répliquée — Distribue
davantage de paquets aux serveurs ayant moins de connexions actives en fonction de leur adresse
IP de destination. Cet algorithme est également dédié à une utilisation au sein d'un cluster de
serveurs proxy-cache. Il diffère de la programmation Locality-Based Least-Connection car il mappe
l'adresse IP cible à un sous-groupe de noeuds de serveurs réels. Les requêtes sont ensuite routées
vers le serveur de ce sous-groupe ayant le moins de connexions. Si tous les noeuds pour l'adresse
IP de destination sont en-dessus de leurs capacités, il réplique un nouveau serveur pour cette
adresse IP de destination en ajoutant le serveur réel ayant le moins de connexions à partir du pool
entier de serveurs réels vers le sous-groupe de serveurs réels. Le noeud le plus chargé est ensuite
retiré du sous-groupe de serveurs réels pour éviter les excès de réplication.
Programmation Source Hash — Distribue les requêtes vers le pool de serveurs réels en cherchant
l'adresse IP source dans une table de hachage statique. Cet algorithme est dédié aux routeurs LVS
avec plusieurs pare-feu.
29
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
De plus, le routeur LVS contrôle dynamiquement la santé globale des services spécifiques sur les
serveurs réels à travers de simples scripts send/expect. Pour aider à détecter la santé de services
nécessitant des données dynamiques, tels que HT T PS ou SSL, vous pouvez également appeler des
exécutables externes. Si le service d'un serveur réel ne fonctionne plus correctement, le routeur LVS
actif arrête de lui envoyer des travaux jusqu'à ce qu'il fonctionne à nouveau.
Le routeur LVS de sauvegarde joue le rôle de système de secours. Régulièrement, les routeurs LVS
échangent des messages "heartbeat" à travers l'interface publique externe primaire et, en cas d'échec,
l'interface privée. Si le routeur LVS de sauvegarde ne reçoit pas de message "heartbeat" dans un
intervalle défini, il initie un failover et endosse le rôle de routeur LVS actif. Durant le failover, le routeur
LVS de sauvegarde récupère les adresses VIP desservies par le routeur ayant échoué en utilisant une
technique appelée ARP spoofing — où le routeur LVS de sauvegarde s'annonce lui-même comme
destinataire des paquets IP adressés au noeud défaillant. Lorsque le noeud ayant échoué fonctionne à
nouveau, le routeur LVS de sauvegarde reprend son rôle de routeur de sauvegarde.
T he simple, two-tier configuration in Figure 1.20, « T wo-T ier LVS T opology » is suited best for clusters
serving data that does not change very frequently — such as static web pages — because the
individual real servers do not automatically synchronize data among themselves.
1.8.2. Three-Tier LVS Topology
Figure 1.21, « T hree-T ier LVS T opology » shows a typical three-tier LVS configuration. In the example,
the active LVS router routes the requests from the public network (Internet) to the second tier — real
servers. Each real server then accesses a shared data source of a Red Hat cluster in the third tier over
the private network.
30
Chapitre 1. Aperçu de Red Hat Cluster Suite
Figure 1.21. T hree-T ier LVS T opology
Cette topologie est bien adaptée aux serveurs FT P occupés, où les données accessibles sont stockées
sur un serveur central, hautement disponible et accédées par chaque serveur réel via un répertoire NFS
exporté ou un partage Samba. Cette topologie est également recommandée pour les sites web qui
accèdent à une base de données centrale, à haute disponibilité pour réaliser des transactions. De plus,
en utilisant une configuration active-active avec un cluster Red Hat, vous pouvez configurer un cluster à
haute disponibilité afin qu'il remplisse ces deux rôles simultanément.
1.8.3. Méthodes de routage
Vous pouvez utiliser le routage de traduction d'adresses réseau (NAT de l'anglais Network Address
T ranslation) ou le routage direct avec LVS. Les sections suivantes décrivent brièvement le routage NAT
et le routage direct avec LVS.
1.8.3.1. Routage NAT
Figure 1.22, « LVS Implemented with NAT Routing », illustrates LVS using NAT routing to move requests
between the Internet and a private network.
31
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
Figure 1.22. LVS Implemented with NAT Routing
Dans cet exemple, il y a deux NIC dans le routeur LVS actif. La NIC pour Internet a une adresse IP réelle
sur eth0 et une adresse IP flottante possédant un alias sur eth0:1. La NIC pour l'interface réseau privée
a une adresse IP réelle sur eth1 et une adresse IP flottante possédant un alias sur eth1:1. En cas de
failover, l'interface virtuelle exposée à Internet et celle privée exposée à l'interface virtuelle sont
récupérées simultanément par le routeur LVS de sauvegarde. T ous les serveurs réels sur le réseau
privé utilisent l'adresse IP flottante pour le routeur NAT comme leur route par défaut afin de
communiquer avec le routeur LVS actif pour que leurs capacités à répondre aux requêtes Internet ne
soit pas détériorées.
In the example, the LVS router's public LVS floating IP address and private NAT floating IP address are
aliased to two physical NICs. While it is possible to associate each floating IP address to its physical
device on the LVS router nodes, having more than two NICs is not a requirement.
En utilisant cette topologie, le routeur LVS actif reçoit la requête et la redirige vers le serveur approprié.
Le serveur réel traite ensuite la requête et retourne les paquets au routeur LVS. Le routeur LVS utilise la
traduction d'adresses réseau pour remplacer l'adresse du serveur réel dans les paquets avec l'adresse
VIP publique des routeurs LVS. Ce processus est appelé IP masquerading car les adresses IP
courantes des serveurs réels sont cachées des clients effectuant la requête.
En utilisant le routage NAT , un serveur réel peut être n'importe quel type d'ordinateur exécutant une
variété de systèmes d'exploitation. Le principal inconvénient du routage NAT est que le routeur LVS peut
devenir un goulet d'étranglement dans les grands déploiements car il doit traiter les requêtes entrantes
et sortantes.
1.8.3.2. Routage direct
Le routage direct offre des performances supérieures par rapport au routage NAT . Le routage direct
permet aux serveurs réels de traiter et router les paquets directement vers un utilisateur les demandant
plutôt que de passer les paquets sortants à travers le routeur LVS. Le routage direct réduit les risques
de problèmes de performance réseau en reléguant le travail du routeur LVS pour ne traiter que les
32
Chapitre 1. Aperçu de Red Hat Cluster Suite
paquets entrants.
Figure 1.23. LVS Implemented with Direct Routing
Dans une configuration LVS classique de routage direct, un routeur LVS reçoit des requêtes serveur
entrantes par l'intermédiaire d'une adresse IP virtuelle (VIP) et utilise un algorithme de programmation
pour diriger les requêtes vers les serveurs réels. Chaque serveur réel traite les requêtes et envoie les
réponses directement aux clients sans passer par les routeurs LVS. Le routage direct permet une plus
grande évolutivité car les serveurs réels peuvent être ajoutés sans charge supplémentaire sur le
routeur LVS pour router les paquets sortants du serveur réel vers le client.
S'il existe de nombreux avantages à l'utilisation du routage direct dans LVS, il existe aussi des
limitations. Le problème le plus courant avec le routage direct et LVS est le Protocole de résolution
d'adresses (ARP de l'anglais Address Resolution Protocol).
In typical situations, a client on the Internet sends a request to an IP address. Network routers typically
send requests to their destination by relating IP addresses to a machine's MAC address with ARP. ARP
requests are broadcast to all connected machines on a network, and the machine with the correct
IP/MAC address combination receives the packet. T he IP/MAC associations are stored in an ARP cache,
which is cleared periodically (usually every 15 minutes) and refilled with IP/MAC associations.
Le problème avec les requêtes ARP dans une configuration LVS de routage direct est que dans la
mesure où l'adresse IP d'une requête client doit être associée à une adresse MAC pour être traitée,
l'adresse virtuelle du routeur LVS doit également être associée à une adresse MAC. Cependant, parce
que le routeur LVS et les serveurs réels ont la même adresse VIP, la requête ARP est diffusée à tous
les noeuds associés à l'adresse VIP. Cela peut causer plusieurs problèmes, tels que l'adresse VIP
associée directement à un des serveurs réels et traitant les requêtes directement, sans passer par le
33
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
routeur LVS et ainsi allant à l'encontre du but de la configuration LVS. L'utilisation d'un routeur LVS avec
un CPU puissant qui répond rapidement aux requêtes clients ne résout pas forcément ce problème. Si le
routeur LVS est sous une charge élevée, il peut répondre à la requête ARP plus lentement qu'un
serveur réel sous-utilisé répondant plus rapidement et qui se fait attribuer l'adresse VIP dans le cache
ARP du client effectuant la requête.
Pour résoudre ce problème, les requêtes entrantes devraient uniquement associer l'adresse VIP au
routeur LVS, qui traitera correctement les requêtes et les enverra au pool de serveurs réels. Ceci peut
être fait en utilisant le pool de filtrage des paquets arptables.
1.8.4. La persistance et les marques de pare-feu
Dans certains cas il se peut qu'un client veuille se reconnecter plusieurs fois au même serveur réel,
plutôt que d'avoir un algorithme de répartition de charge qui envoie sa requête au meilleur serveur
disponible. Ceci est par exemple valable pour les formulaires Web ayant plusieurs pages, les cookies,
SSL et les connexions FT P. Dans ces cas un client ne fonctionne pas correctement à moins que les
transactions soient traitées par le même serveur afin de garder le contexte. LVS fournit deux
fonctionnalités différentes pour traiter cela : la persistance et les marques de pare-feu.
1.8.4 .1. Persistence
Lorsqu'elle est activée, la persistance agit comme un minuteur. Lorsqu'un client se connecte à un
service, LVS se souvient de sa dernière connexion pendant une période de temps spécifique. Si le client
se connecte à nouveau avec la même adresse IP avant la fin de cette période, le client est envoyé vers
le même serveur auquel il s'était connecté précédemment — sans passer par le mécanisme de
répartition de charge. Lorsqu'une connexion est effectuée après cette période, elle est traitée en
fonction des règles de programmation mises en place.
La persistance vous permet également de spécifier un masque de sous-réseau à appliquer sur
l'adresse IP du client afin de contrôler les adresses qui ont un plus haut niveau de persistance et ainsi
grouper les connexions vers ce sous-réseau.
Le groupement de connexions destinées à différents ports peut être important pour les protocoles qui
utilisent plus d'un port pour communiquer, tels que FT P. Cependant, la persistance n'est pas la façon la
plus efficace de gérer le problème de groupement de connexions destinées à différents ports. Dans de
telles situations, il est préférable d'utiliser les marques de pare-feu.
1.8.4 .2. Marques de pare-feu
Les marques de pare-feu sont un moyen simple et efficace pour grouper les ports utilisés par un
protocole ou un groupe de protocoles connexes. Par exemple, si LVS est déployé pour exécuter un site
de e-commerce, les marques de pare-feu peuvent être utilisées pour empaqueter les connexions HT T P
sur le port 80 et sécuriser les connexions HT T PS sur le port 443. En assignant la même marque de
pare-feu au serveur virtuel pour chaque protocole, les informations d'état de la transaction peuvent être
préservées car le routeur LVS redirige toutes les requêtes vers le même serveur réel après qu'une
connexion soit ouverte.
Parce qu'elles sont simples à utiliser et efficaces, les administrateurs LVS devraient utiliser, dès que
possible, les marques de pare-feu afin de grouper les connexions. T outefois, vous devriez toujours
ajouter la persistance aux serveurs virtuels conjointement aux marques de pare-feu pour vous assurer
que les clients soient reconnectés au même serveur pendant une période désirée.
1.9. Outils d'administration du cluster
Red Hat Cluster Suite fournit une variété d'outils pour configurer et gérer votre cluster Red Hat. Cette
section fournit un aperçu des outils d'administration disponibles avec Red Hat Cluster Suite :
34
Chapitre 1. Aperçu de Red Hat Cluster Suite
Section 1.9.1, « Conga »
Section 1.9.2, « Interface graphique d'administration du cluster »
Section 1.9.3, « Outils d'administration en ligne de commande »
1.9.1. Conga
Conga est un ensemble intégré de composants logiciels qui fournit une configuration et une gestion
centralisées des clusters et du stockage Red Hat. Conga fournit les fonctionnalités principales
suivantes :
Une interface Web pour la gestion du cluster et du stockage
Un déploiement automatisé des données du cluster et des paquetages de support
Une Intégration facile avec les clusters existants
Il n'est pas nécessaire de s'authentifier à nouveau
L'intégration du statut et des fichiers journaux du cluster
Un contrôle minutieux des autorisations des utilisateurs
Les principaux composants de Conga sont luci et ricci. Ils peuvent être installés séparément. luci est
un serveur qui s'exécute sur un ordinateur et qui communique avec plusieurs clusters et ordinateurs via
ricci. ricci est un agent qui est démarré sur chaque ordinateur (un membre du cluster ou un ordinateur
autonome) géré par Conga.
luci est accessible via un navigateur Web et fournit trois fonctionnalités principales qui sont accessibles
à travers les onglets suivants :
homebase — Fournit des outils pour l'ajout et la suppression d'ordinateurs et d'utilisateurs. Ces
outils vous permettent également de configurer les privilèges des utilisateurs. Seul un administrateur
système peut accéder à cet onglet.
cluster — Fournit des outils pour la création et la configuration des clusters. Chaque instance de
luci liste les clusters qui ont été configurés avec ce serveur luci. Un administrateur système peut
administrer tous les clusters listés sur cet onglet. Les autres utilisateurs peuvent seulement
administrer les clusters pour lesquels ils ont des privilèges (accordés par un administrateur).
storage — Fournit des outils pour l'administration à distance du stockage. Avec ces outils, vous
pouvez gérer le stockage des ordinateurs qu'ils appartiennent à un cluster ou pas.
Pour administrer un cluster ou le stockage, un administrateur ajoute (ou enregistre) un cluster ou un
ordinateur au serveur luci. Lorsqu'un cluster ou un ordinateur est enregistré avec luci, le nom de
domaine FQDN ou l'adresse IP de chaque ordinateur est stocké dans une base de données luci.
Vous pouvez peupler la base de données d'une instance luci à partir d'une autre instance luci. Cela
vous offre la possibilité de répliquer une instance de serveur luci et fournit un chemin d'accès de test et
de mise à niveau efficace. Quand vous installez une instance luci, sa base de données est vide.
T outefois, vous pouvez importer une partie ou la totalité d'une base de données luci à partir d'un
serveur luci existant lors du déploiement d'un nouveau serveur luci.
Chaque instance luci dispose d'un utilisateur lors de l'installation initiale — admin. Seul l'utilisateur
admin peut ajouter des systèmes à un serveur luci. De plus, l'utilisateur admin peut créer des comptes
utilisateur supplémentaires et déterminer les utilisateurs qui sont autorisés à accéder aux clusters et
ordinateurs enregistrés dans la base de données luci. Il est possible d'importer des utilisateurs avec
une opération batch dans un nouveau serveur luci, tout comme il est possible d'importer des clusters
ou des ordinateurs.
Lorsqu'un ordinateur est ajouté à un serveur luci pour être administré, l'authentification est effectuée
35
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
qu'une seule fois. Aucune authentification n'est nécessaire par la suite (sauf si le certificat utilisé est
révoqué par un CA). Ensuite, vous pouvez configurer et gérer à distance les clusters et le stockage à
travers l'interface utilisateur luci. luci et ricci communiquent ensemble via XML.
Les figures suivantes illustrent des exemples d'affichage des trois onglets principaux de luci :
homebase, cluster et storage.
Pour davantage d'informations à propos de Conga, reportez-vous à la Configuration et gestion d'un
cluster Red Hat et à l'aide en ligne disponibles avec le serveur luci.
Figure 1.24 . L'onglet homebase de luci
Figure 1.25. L'onglet cluster luci
36
Chapitre 1. Aperçu de Red Hat Cluster Suite
Figure 1.26. L'onglet storage de luci
1.9.2. Interface graphique d'administration du cluster
T his section provides an overview of the system -config-cluster cluster administration graphical
user interface (GUI) available with Red Hat Cluster Suite. T he GUI is for use with the cluster
infrastructure and the high-availability service management components (refer to Section 1.3, « Cluster
Infrastructure » and Section 1.4, « Gestion des services à haute disponibilité »). T he GUI consists of two
major functions: the Cluster Configuration T ool and the Cluster Status T ool. T he Cluster
Configuration T ool provides the capability to create, edit, and propagate the cluster configuration file
(/etc/cluster/cluster.conf). T he Cluster Status T ool provides the capability to manage highavailability services. T he following sections summarize those functions.
Section 1.9.2.1, « Cluster Configuration T ool »
Section 1.9.2.2, « Cluster Status T ool »
1.9.2.1. Cluster Configuration T ool
You can access the Cluster Configuration T ool (Figure 1.27, « Cluster Configuration T ool ») through
the Cluster Configuration tab in the Cluster Administration GUI.
37
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
Figure 1.27. Cluster Configuration T ool
L'Cluster Configuration T ool représente les composants de configuration du cluster au sein du
fichier de configuration (/etc/cluster/cluster.conf) avec un affichage graphique hiérarchique
dans le panneau de gauche. Un icône en forme de triangle à gauche du nom d'un composant indique
que le composant possède un ou plusieurs composants de second niveau. En cliquant sur cet icône
vous pouvez agrandir et réduire la partie de l'arborescence située sous le composant. Les composants
affichés dans l'interface utilisateur graphique sont structurés de la manière suivante :
Cluster Nodes — Affiche les noeuds du cluster. Les neuds sont représentés par nom en tant
qu'éléments de second niveau sous le composant Cluster Nodes.
Fence Devices — Affiche les périphériques fence. Les périphériques fence sont représentés en
tant qu'éléments de second niveau sous le composant Fence Devices. En utilisant les boutons de
configuration situés en bas du cadre de droite (sous Properties), vous pouvez ajouter des
périphériques fence, en supprimer et modifier leurs propriétés. Les périphériques fence doivent être
définis avant que vous puissiez configurer le fencing (avec le bouton Manage Fencing For
T his Node) pour chaque noeud.
Ressources gérées — Affiche les domaines failover, les ressources et les services.
Failover Dom ains — Pour la configuration d'un ou plusieurs sous-groupes de noeuds du
cluster utilisés pour exécuter un service à haute disponibilité en cas d'échec d'un noeud. Les
domaines failover sont représentés en tant qu'éléments de second niveau sous sous le
composant Failover Dom ains. En utilisant les boutons de configuration en bas du cadre de
droite (sous Properties), vous pouvez créer des domaines failover (lorsque Failover
Dom ains est sélectionné) ou modifier les propriétés d'un domaine failover (lorsqu'il est
38
Chapitre 1. Aperçu de Red Hat Cluster Suite
sélectionné).
Resources — Pour la configuration de ressources partagées à utiliser avec les services à
haute disponibilité. Les ressources partagées sont constituées de systèmes de fichiers,
d'adresses IP, d'exports et de montages NFS et de scripts utilisateur disponibles pour un service
à haute disponibilité au sein du cluster. Les ressources sont représentées en tant qu'éléments
de second niveau sous sous le composant Resources. En utilisant les boutons de configuration
en bas du cadre de droite (sous Properties), vous pouvez créer des ressources (lorsque
Resources est sélectionné) ou modifier les propriétés d'une ressource (lorsqu'une ressource
est sélectionnée).
Remarque
L'Cluster Configuration T ool offre également la possibilité de configurer des
ressources privées. Une ressource privée est une ressource qui est configurée pour être
utilisée avec un seul service. Vous pouvez configurer une ressource privée au sein d'un
composant Service avec l'interface utilisateur graphique.
Services — Pour la création et la configuration de services à haute disponibilité. Un service est
configuré en lui assignant des ressources (partagées ou privées), un domaine failover et une
politique de récupération. Les services sont représentés en tant qu'éléments de niveau
secondaire sous Services. En utilisant les boutons de configuration en bas du cadre de droite
(sous Properties), vous pouvez créer des services (lorsque Services est sélectionné) ou
modifier les propriétés d'un service (lorsqu'un service est sélectionné).
1.9.2.2. Cluster Status T ool
You can access the Cluster Status T ool (Figure 1.28, « Cluster Status T ool ») through the Cluster
Management tab in Cluster Administration GUI.
39
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
Figure 1.28. Cluster Status T ool
Les noeuds et services affichés dans l'Cluster Status T ool sont déterminés par le fichier de
configuration du cluster (/etc/cluster/cluster.conf). Vous pouvez utiliser l'Cluster Status
T ool pour activer, désactiver, redémarrer ou déplacer un service à haute disponibilité.
1.9.3. Outils d'administration en ligne de commande
In addition to Conga and the system -config-cluster Cluster Administration GUI, command line
tools are available for administering the cluster infrastructure and the high-availability service
management components. T he command line tools are used by the Cluster Administration GUI and init
scripts supplied by Red Hat. T ableau 1.1, « Outils en ligne de commande » summarizes the command
line tools.
40
Chapitre 1. Aperçu de Red Hat Cluster Suite
T ableau 1.1. Outils en ligne de commande
Outil en ligne de
commande
Utilisé avec
Utilité
ccs_tool —
Outil système de
configuration du
cluster
Cluster
Infrastructure
ccs_tool est un programme permettant d'effectuer des
mises à jour en ligne du fichier de configuration du cluster. Il
offre la possibilité de créer et modifier les composants
d'infrastructure du cluster (par exemple, la création d'un
cluster, l'ajout et la suppression d'un noeud). Pour
davantage d'informations à propos de cet outil, reportezvous à la page de manuel ccs_tool(8).
cm an_tool —
Outil de gestion
du cluster
Cluster
Infrastructure
cm an_tool est un programme qui contrôle le gestionnaire
de cluster CMAN. Il offre la possibilité de joindre un cluster,
quitter un cluster, supprimer un noeud ou changer les votes
quorum attendus d'un noeud du cluster. Pour davantage
d'informations à propos de cet outil, reportez-vous à la page
de manuel cman_tool(8).
fence_tool —
Outil Fence
Cluster
Infrastructure
fence_tool est un programme utilisé pour joindre ou
quitté le domaine fence par défaut. Plus précisément, il
démarre le démon fence (fenced) pour joindre le domaine
et arrête fenced pour quitter le domaine. Pour davantage
d'informations à propos de cet outil, reportez-vous à la page
de manuel fence_tool(8).
clustat —
Utilitaire de statut
du cluster
Composants de
gestion des
services à haute
disponibilité
La commande clustat indique le statut du cluster. Elle
affiche les informations d'appartenance, le mode du quorum
et l'état de tous les services utilisateur configurés. Pour
davantage d'informations à propos de cet outil, reportezvous à la page de manuel clustat(8).
clusvcadm —
Utilitaire
d'administration
des services
utilisateur du
cluster
Composants de
gestion des
services à haute
disponibilité
La commande clusvcadm vous permet d'activer,
désactiver, déplacer et redémarrer les services à haute
disponibilité au sein d'un cluster. Pour davantage
d'informations à propos de cet outil, reportez-vous à la page
de manuel clusvcadm(8).
1.10. Interface utilisateur graphique d'administration du serveur
virtuel Linux
Cette section fournit un aperçu de l'outil de configuration LVS disponible avec Red Hat Cluster Suite —
L'Piranha Configuration T ool. L'Piranha Configuration T ool est une application Web qui offre une
approche structurée afin de créer le fichier de configuration pour LVS —
/etc/sysconfig/ha/lvs.cf.
Pour accéder à l'Piranha Configuration T ool, le service piranha-gui doit être en cours d'exécution
sur le routeur LVS actif. Vous pouvez accéder à l'Piranha Configuration T ool localement ou à
distance avec un navigateur Web. Localement, utilisez l'adresse suivante : http://localhost:3636.
Pour accéder à l'Piranha Configuration T ool à distance, utilisez le nom de domaine ou l'adresse IP
réelle suivi de :3636. Si vous accédez à l'Piranha Configuration T ool à distance, vous devez
diposer d'une connexion ssh vers le routeur LVS actif en tant que super-utilisateur (root).
41
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
Starting the Piranha Configuration T ool causes the Piranha Configuration T ool welcome page to
be displayed (refer to Figure 1.29, « T he Welcome Panel »). Logging in to the welcome page provides
access to the four main screens or panels: CONT ROL/MONIT ORING, GLOBAL SET T INGS,
REDUNDANCY, and VIRT UAL SERVERS. In addition, the VIRT UAL SERVERS panel contains four
subsections. T he CONT ROL/MONIT ORING panel is the first panel displayed after you log in at the
welcome screen.
Figure 1.29. T he Welcome Panel
Les sections suivantes fournissent une brève description des pages de configuration de l'Piranha
Configuration T ool.
1.10.1. CONTROL/MONITORING
Le panneau CONT ROL/MONIT ORING affiche l'état d'exécution. Il affiche le statut du démon pulse, de la
table de routage LVS et des processus nanny créés par LVS.
42
Chapitre 1. Aperçu de Red Hat Cluster Suite
Figure 1.30. T he CONT ROL/MONIT ORING Panel
Auto update
Permet à l'affichage des états d'être mis à jour automatiquement à un intervalle de temps
configurable par l'utilisateur et défini dans la zone de texte Update frequency in
seconds (la valeur par défaut est 10 secondes).
Il n'est pas recommandé de paramétrer la mise à jour automatique à un intervalle inférieur à 10
secondes. Cela peut rendre la reconfiguration de l'intervalle Auto update difficile car la page
sera mise à jour trop fréquemment. Si vous rencontrez ce problème, cliquez sur un autre
panneau et retournez ensuite sur CONT ROL/MONIT ORING.
Update inform ation now
Permet de mettre à jour manuellement les informations d'état.
CHANGE PASSWORD
En cliquant sur ce bouton vous affichez une page d'aide qui vous indique comment modifier le
mot de passe administrateur de l'Piranha Configuration T ool.
1.10.2. GLOBAL SETTINGS
T he GLOBAL SET T INGS panel is where the LVS administrator defines the networking details for the
primary LVS router's public and private network interfaces.
Figure 1.31. T he GLOBAL SET T INGS Panel
43
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
T he top half of this panel sets up the primary LVS router's public and private network interfaces.
Prim ary server public IP
L'adresse IP réelle routable publiquement pour le noeud LVS primaire.
Prim ary server private IP
L'adresse IP réelle pour une interface réseau alternative sur le noeud LVS primaire. Cette
adresse est seulement utilisée en tant que canal "hearbeat" alternatif par le routeur de
sauvegarde.
Use network type
Selection du routage NAT .
T he next three fields are specifically for the NAT router's virtual network interface connected the private
network with the real servers.
NAT Router IP
Il s'agit de l'adresse IP flottante privée. Cette adresse IP flottante devrait être utilisée comme la
passerelle pour les serveurs réels.
NAT Router netm ask
If the NAT router's floating IP needs a particular netmask, select it from drop-down list.
NAT Router device
Définit le nom du périphérique de l'interface réseau pour l'adresse IP flottante, par exemple
eth1:1.
1.10.3. REDUNDANCY
Le panneau REDUNDANCY vous permet de configurer le noeud du routeur LVS de sauvegarde et de
définir plusieurs options d'analyse "hearbeat".
44
Chapitre 1. Aperçu de Red Hat Cluster Suite
Figure 1.32. T he REDUNDANCY Panel
Redundant server public IP
L'adresse IP réelle publique pour le routeur LVS de sauvegarde.
Redundant server private IP
T he backup router's private real IP address.
Le reste du panneau permet de configurer le canal "hearbeat" qui est utilisé par le noeud de
sauvegarde pour surveiller le nœud primaire en cas d'échec.
Heartbeat Interval (seconds)
Définit le nombre de secondes entre les messages "hearbeat" — l'intervalle utilisé par le noeud
de sauvegarde pour vérifier l'état fonctionnel du noeud LVS primaire.
Assum e dead after (seconds)
Si le noeud LVS primaire ne répond pas après ce nombre de secondes, le noeud du routeur
LVS de sauvegarde initiera un failover.
Heartbeat runs on port
Définit le port utilisé par le message "hearbeat" pour communiquer avec le noeud LVS primaire.
Le port par défaut est 539 si cette zone de texte est vide.
1.10.4. VIRTUAL SERVERS
45
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
Le panneau VIRT UAL SERVERS affiche des informations sur les serveurs virtuels actuellement définis.
Chaque entrée du tableau indique le statut du serveur virtuel, le nom du serveur, l'adresse IP virtuelle
assignée au serveur, le masque de réseau de l'adresse IP virtuelle, le numéro de port avec lequel le
service communique, le protocole utilisé et l'interface périphérique virtuelle.
Figure 1.33. T he VIRT UAL SERVERS Panel
Chaque serveur affiché dans le panneau VIRT UAL SERVERS peut être configuré sur les écrans ou
sous-sections suivantes.
Pour ajouter un service, cliquez sur le bouton ADD. Pour supprimer un service, sélectionnez le bouton
radio correspondant et cliquez sur le bouton DELET E.
Pour activer ou désactiver un serveur virtuel à partir du tableau, sélectionnez le bouton radio
correspondant et cliquez sur le bouton (DE)ACT IVAT E.
Après avoir ajouté un serveur virtuel, vous pouvez le configurer en sélectionnant le bouton radio
correspondant et en cliquant sur le bouton EDIT afin d'afficher la sous-section VIRT UAL SERVER.
1.10.4 .1. La sous-section VIRT UAL SERVER
T he VIRT UAL SERVER subsection panel shown in Figure 1.34, « T he VIRT UAL SERVERS
Subsection » allows you to configure an individual virtual server. Links to subsections related specifically
to this virtual server are located along the top of the page. But before configuring any of the subsections
related to this virtual server, complete this page and click on the ACCEPT button.
46
Chapitre 1. Aperçu de Red Hat Cluster Suite
Figure 1.34 . T he VIRT UAL SERVERS Subsection
Nam e
Il s'agit d'un nom descriptif pour identifier le serveur virtuel. Ce nom ne correspond pas au nom
d'hôte de la machine, saisissez donc un nom facile à identifier. Vous pouvez même référencer
le protocole utilisé par le serveur virtuel, par exemple HT T P.
Application port
Le numéro de port à travers lequel l'application service écoutera.
Protocol
Donne le choix entre UDP et T CP, dans un menu déroulant.
Virtual IP Address
T he virtual server's floating IP address.
Virtual IP Network Mask
Le masque de réseau pour ce serveur virtuel, dans un menu déroulant.
Firewall Mark
Permet de saisir une valeur entière de marque de pare-feu lors du groupement de protocoles
multiports ou de la création d'un serveur virtuel multiports pour des protocoles distincts mais
liés.
Device
Le nom du périphérique réseau auquel vous voulez lier l'adresse IP flottante définie dans la
47
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
zone de texte Virtual IP Address.
Vous devriez créer un alias pour l'adresse IP flottante publique à l'interface Ethernet connectée
au réseau public.
Re-entry T im e
Une valeur entière qui définit le nombre de secondes avant que le routeur LVS actif essaie
d'utiliser un serveur réel suite à l'échec du serveur réel.
Service T im eout
Une valeur entière qui définit le nombre de secondes avant qu'un serveur réel soit considéré
comme étant inactif et indisponible.
Quiesce server
Lorsque le bouton radio Quiesce server est sélectionné, à chaque fois qu'un nouveau
noeud de serveur réel est connecté, la table least-connections est remise à zéro pour que le
routeur LVS actif dirige les requêtes comme si tous les serveurs réels venaient d'être ajoutés
au cluster. Cette option empêche au nouveau serveur de s'enliser avec un nombre élevé de
connexions suite à son arrivée au sein du cluster.
Load m onitoring tool
Le routeur LVS peut surveiller la charge des différents serveurs réels en utilisant rup ou
ruptim e. Si vous sélectionnez rup à partir du menu déroulant, chaque serveur réel doit
exécuter le service rstatd. Si vous sélectionnez ruptim e, chaque serveur réel doit exécuter
le service rwhod.
Scheduling
Permet de sélectionner l'algorithme de programmation préféré à partir de ce menu déroulant. La
valeur par défaut est Weighted least-connection.
Persistence
Peut être utilisé si vous avez besoin de connexions persistantes sur le serveur virtuel durant
les transactions client. Spécifie, par l'intermédiaire de ce champ, le nombre de secondes
d'inactivité autorisé avant qu'une connexion expire.
Persistence Network Mask
Pour limiter la persistance à un sous-réseau particulier, sélectionnez le masque réseau
approprié à partir du menu déroulant.
1.10.4 .2. La sous-section REAL SERVER
Cliquez sur le lien de la sous-section REAL SERVER en haut du panneau pour afficher la sous-section
EDIT REAL SERVER. Cette sous-section affiche le statut des hôtes du serveur physique pour un
service virtuel particulier.
48
Chapitre 1. Aperçu de Red Hat Cluster Suite
Figure 1.35. T he REAL SERVER Subsection
Click the ADD button to add a new server. T o delete an existing server, select the radio button beside it
and click the DELET E button. Click the EDIT button to load the EDIT REAL SERVER panel, as seen in
Figure 1.36, « T he REAL SERVER Configuration Panel ».
Figure 1.36. T he REAL SERVER Configuration Panel
49
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
Ce panneau est composé de trois zones de texte :
Nam e
Un nom descriptif pour le serveur réel.
Remarque
Ce nom ne correspond pas au nom d'hôte de la machine, saisissez donc un nom facile à
identifier.
Address
T he real server's IP address. Since the listening port is already specified for the associated
virtual server, do not add a port number.
Weight
An integer value indicating this host's capacity relative to that of other hosts in the pool. T he
value can be arbitrary, but treat it as a ratio in relation to other real servers.
1.10.4 .3. EDIT MONIT ORING SCRIPT S Subsection
Cliquez sur le lien MONIT ORING SCRIPT S en haut de la page. La sous-section EDIT MONIT ORING
SCRIPT S permet à l'administrateur de spécifier une séquence de caractères send/expect afin de
vérifier que le service pour le serveur virtuel soit fonctionnel sur chaque serveur réel. C'est également ici
que l'administrateur peut spécifier des scripts personnalisés pour vérifier les services nécessitant des
données qui changent dynamiquement.
Figure 1.37. T he EDIT MONIT ORING SCRIPT S Subsection
50
Chapitre 1. Aperçu de Red Hat Cluster Suite
Sending Program
Pour une vérification de service plus avancée, vous pouvez utiliser ce champ afin de spécifier
le chemin d'accès d'un script de vérification de service. Cette fonction est particulièrement utile
pour les services qui requièrent que les données soient changées dynamiquement, par
exemple HT T PS ou SSL.
Pour utiliser cette fonctionnalité, vous devez écrire un script qui retourne une réponse textuelle.
Paramétrez le script pour qu'il soit exécutable et saisissez son chemin d'accès dans le champ
Sending Program .
Remarque
Si un programme externe est saisi dans le champ Sending Program , le champ Send
est ignoré.
Send
Saisissez dans ce champ une chaîne de caractères que le démon nanny enverra à chaque
serveur réel. Par défaut le champ d'envoi est configuré pour HT T P. Vous pouvez modifier cette
valeur selon vos besoins. Si vous laissez ce champ vide, le démon nanny essaie d'ouvrir le
port et, s'il réussit, suppose que le service est en cours d'exécution.
Une seule séquence send est autorisée dans ce champ et elle ne peut contenir que des
caractères imprimables, ASCII ainsi que les caractères d'échappement suivants :
\n pour une nouvelle ligne.
\r pour un retour à la ligne.
\t pour un onglet.
\ pour échapper le caractère qui suit.
Expect
La réponse textuelle que le serveur devrait retourner s'il fonctionne correctement. Si vous avez
écrit votre propre programme d'envoi, saisissez la réponse désirée.
[1] Un s erveur virtuel es t un s ervic e c o nfig uré p o ur éc o uter s ur une ad res s e IP virtuelle s p éc ifiq ue.
51
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
Chapitre 2. Résumé des composants de Red Hat Cluster Suite
Ce chapitre fournit un résumé des composants de Red Hat Cluster Suite et se compose des sections
suivantes :
Section 2.1, « Composants de cluster »
Section 2.2, « Pages de manuel »
Section 2.3, « Matériel compatible »
2.1. Composants de cluster
T ableau 2.1, « Composants du sous-système logiciel de Red Hat Cluster Suite » summarizes Red Hat
Cluster Suite components.
52
Chapitre 2. Résumé des composants de Red Hat Cluster Suite
T ableau 2.1. Composants du sous-système logiciel de Red Hat Cluster Suite
Fonction
Composant
Description
Conga
luci
Système de gestion à distance - Station
de gestion.
ricci
Système de gestion à distance - Station
gérée.
Cluster
Configuration T ool
system -config-cluster
Commande utilisée pour gérer la
configuration du cluster dans un mode
graphique.
Gestionnaire de
volumes logiques en
cluster (CLVM)
clvm d
Il s'agit du démon qui distribue les mises
à jour de métadonnées LVM au sein du
cluster. Il doit être exécuté sur tous les
noeuds du cluster et renverra une erreur
si un noeud du cluster n'exécute pas ce
démon.
lvm
Outils LVM2. Fournit les outils en ligne de
commande pour LVM2.
system -config-lvm
Fournit une interface utilisateur
graphique pour LVM2.
lvm .conf
Le fichier de configuration LVM. Le
chemin d'accès complet est
/etc/lvm /lvm .conf.
ccs_tool
ccs_tool fait partie du système de
configuration du cluster (CCS). Il est
utilisé pour effectuer des mises à jour en
ligne des fichiers de configuration CCS.
De plus, il peut être utilisé pour mettre à
niveau les fichiers de configuration du
cluster à partir des archives CSS créées
avec GFS 6.0 (et les versions
précédentes) au format XML utilisé avec
cette version de Red Hat Cluster Suite.
ccs_test
Commande de diagnostique et de test
utilisée pour récupérer des informations
à partir des fichiers de configuration à
travers le démon ccsd.
ccsd
Démon CCS exécuté sur tous les noeuds
du cluster qui fournit des données du
fichier de configuration au logiciel cluster.
cluster.conf
Il s'agit du fichier de configuration du
cluster. Le chemin d'accès complet est
/etc/cluster/cluster.conf.
cm an.ko
Le module noyau pour CMAN.
cm an_tool
Il s'agit de la partie frontale de
l'administration de CMAN. Cet outil
démarre et arrête CMAN et peut changer
certains paramètres internes tels que les
votes.
Système de
configuration du cluster
(CCS)
Gestionnaire de cluster
(CMAN)
53
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
Gestionnaire du groupe
de ressources
(rgmanager)
Fence
54
dlm _controld
Démon démarré par le script init de cm an
afin de gérer dlm dans le noyau ; il n'est
pas encore utilisé par l'utilisateur.
gfs_controld
Démon démarré par le script init de cm an
afin de gérer gfs dans le noyau ; il n'est
pas encore utilisé par l'utilisateur.
group_tool
Utilisé afin d'obtenir une liste des
groupes liés au fencing, DLM, GFS, ainsi
que des informations de débogage ; Cet
outil inclut également ce que cm an_tool
services fournissait dans RHEL 4.
groupd
Démon démarré par le script init de cm an
afin de servir d'interface entre
openais/cm an et
dlm _controld/gfs_controld/fenc
ed; il n'est pas encore utilisé par
l'utilisateur.
libcm an.so.<version
number>
Bibliothèque pour les programmes ayant
besoin d'interagir avec cm an.ko.
clusvcadm
Commande utilisée pour activer,
désactiver, déplacer et redémarrer
manuellement les services utilisateur
dans un cluster.
clustat
Commande utilisée pour afficher le statut
du cluster, y compris l'adhésion aux
noeuds et les services en cours
d'exécution.
clurgm grd
Démon utilisé pour traiter les requêtes
des services utilisateur y compris le
démarrage, la désactivation, le
déplacement et le redémarrage d'un
service.
clurm tabd
Démon utilisé pour traiter des tables de
montage NFS clusterisées.
fence_apc
Agent fence pour le commutateur de
courant APC.
fence_bladecenter
Agent fence pour IBM Bladecenters avec
l'interface T elnet.
fence_bullpap
Agent fence pour l'interface du
processeur d'administration de la
plateforme (PAP de l'anglais Platform
Administration Processor) Bull
Novascale.
fence_drac
Agent fence pour la carte d'accès à
distance Dell.
fence_ipm ilan
Agent fence pour les machines
contrôlées par l'interface de gestion
intelligente de matériel (IPMI de l'anglais
Intelligent Platform Management
Interface) sur un LAN.
Chapitre 2. Résumé des composants de Red Hat Cluster Suite
fence_wti
Agent fence pour le commutateur de
courant WT I.
fence_brocade
Agent fence pour le commutateur
Brocade Fibre Channel
fence_m cdata
Agent fence pour le commutateur McData
Fibre Channel.
fence_vixel
Agent fence pour le commutateur Vixel
Fibre Channel.
fence_sanbox2
Agent fence pour le commutateur
SANBox2 Fibre Channel.
fence_ilo
Agent fence pour les interfaces HP ILO
(formerly fence_rib).
fence_rsa
Agent fence d'E/S pour IBM RSA II.
fence_gnbd
Agent fence utilisé avec le stockage
GNBD.
fence_scsi
Agent fence d'E/S pour les réservations
SCSI persistances.
fence_egenera
Agent fence utilisé avec le système
Egenera BladeFrame.
fence_m anual
Agent fence pour une interaction
manuelle. REMARQUE : ce composant
n'est pas supporté dans les
environnements de production.
fence_ack_m anual
Interface utilisateur pour l'agent
fence_m anual.
fence_node
Un programme qui effectue des E/S
fence sur un seul noeud.
fence_xvm
Agent fence d'E/S pour les machines
virtuelles Xen.
fence_xvm d
Agent hôte fence d'E/S pour les
machines virtuelles Xen.
fence_tool
Un programme pour joindre et quitter le
domaine fence.
fenced
Le démon fence d'E/S
DLM
libdlm .so.<version
number>
Bibliothèque pour la prise en charge du
gestionnaire de verrouillage distribué
(DLM de l'anglais Distributed Lock
Manager).
GFS
gfs.ko
Module noyau qui implémente le système
de fichiers GFS et qui est chargé sur les
noeuds du cluster GFS.
gfs_fsck
Commande qui répare un système de
fichiers GFS qui n'est pas monté.
gfs_grow
Commande qui incrémente un système
de fichiers GFS monté.
gfs_jadd
Commande qui ajoute des fichiers
journaux dans un système de fichiers
GFS.
55
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
GNBD
LVS
56
gfs_m kfs
Commande qui crée un système de
fichiers GFS sur un périphérique de
stockage.
gfs_quota
Commande qui gère les quotas sur un
système de fichiers GFS monté.
gfs_tool
Commande qui configure ou règle un
système de fichiers monté. Cette
commande peut également regrouper
une variété d'informations à propos du
système de fichiers.
m ount.gfs
Assistant de montage appelé par
m ount(8); il n'est pas utilisé par
l'utilisateur.
gnbd.ko
Module noyau qui implémente le pilote de
périphérique GNBD sur les clients.
gnbd_export
Commande permettant de créer, exporter
et gérer les GNBD sur un serveur GNBD.
gnbd_im port
Commande permettant d'importer et
gérer les GNBD sur un client GNBD.
gnbd_serv
Un démon serveur qui permet à un
noeud d'exporter le stockage local à
travers le réseau.
pulse
T his is the controlling process which
starts all other daemons related to LVS
routers. At boot time, the daemon is
started by the
/etc/rc.d/init.d/pulse script. It
then reads the configuration file
/etc/sysconfig/ha/lvs.cf. On the
active LVS router, pulse starts the LVS
daemon. On the backup router, pulse
determines the health of the active router
by executing a simple heartbeat at a
user-configurable interval. If the active
LVS router fails to respond after a userconfigurable interval, it initiates failover.
During failover, pulse on the backup
LVS router instructs the pulse daemon
on the active LVS router to shut down all
LVS services, starts the send_arp
program to reassign the floating IP
addresses to the backup LVS router's
MAC address, and starts the lvs
daemon.
lvsd
Le démon lvs s'exécute sur le routeur
LVS actif une fois qu'il est appelé par
pulse. Il lit le fichier de configuration
/etc/sysconfig/ha/lvs.cf, appelle
l'utilitaire ipvsadm pour construire et
maintenir la table de routage IPVS et
assigne un processus nanny à chaque
Chapitre 2. Résumé des composants de Red Hat Cluster Suite
service LVS configuré. Si nanny reporte
une panne sur un serveur réel, lvs
indique à l'utilitaire ipvsadm de
supprimer le serveur réel de la table de
routage IPVS.
Disque quorum
ipvsadm
Ce service met à jour la table de routage
IPVS dans le noyau. Le démon lvs
configure et administre LVS en appelant
ipvsadm pour ajouter, changer ou
supprimer les entrées dans la table de
routage IPVS.
nanny
Le démon d'analyse nanny est démarré
sur le routeur LVS actif. À travers ce
démon, le routeur LVS actif détermine
l'état de fonctionnement de chaque
serveur réel et, éventuellement, analyse
sa charge de travail. Un processus
séparé est démarré pour chaque service
défini sur chaque serveur réel.
lvs.cf
Il s'agit du fichier de configuration LVS. Le
chemin d'accès complet pour le fichier
est /etc/sysconfig/ha/lvs.cf.
Directement ou indirectement, tous les
démons obtiennent leurs informations de
configuration à partir de ce fichier.
Piranha Configuration T ool
Il s'agit de l'outil Web pour analyser,
configurer et administrer LVS. Il s'agit de
l'outil par défaut pour maintenir le fichier
de configuration LVS
/etc/sysconfig/ha/lvs.cf.
send_arp
Ce programme envoie les diffusions ARP
lorsque l'adresse IP flottante change d'un
nœud à un autre durant le failover.
qdisk
Un démon de quorum basé sur les
disques pour CMAN / Linux-Cluster.
m kqdisk
Utilitaire pour le disque quorum du
cluster.
qdiskd
Démon pour le disque quorum du cluster.
2.2. Pages de manuel
Cette section répertorie les pages de manuel qui sont pertinentes à Red Hat Cluster Suite, comme une
ressource supplémentaire.
Infrastructure de cluster
ccs_tool (8) - L'outil utilisé pour effectuer des mises à jour en ligne de fichiers de configuration
CSS
ccs_test (8) - L'outil de diagnostique pour un système de configuration du cluster en cours
d'exécution
57
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
ccsd (8) - Le démon utilisé pour accéder aux fichiers de configuration du cluster CCS
ccs (7) - Système de configuration du cluster
cman_tool (8) - Outil de gestion du cluster
cluster.conf [cluster] (5) - Le fichier de configuration pour les produits du cluster
qdisk (5) - Un démon de quorum basé sur les disques pour CMAN / Linux-Cluster
mkqdisk (8) - Utilitaire pour le disque quorum du cluster
qdiskd (8) - Démon pour le disque quorum du cluster
fence_ack_manual (8) - Programme exécuté par un opérateur dans le cadre d'un fence d'E/S
manuel
fence_apc (8) - Agent fence d'E/S pour APC MasterSwitch
fence_bladecenter (8) - Agent fence d'E/S pour IBM Bladecenter
fence_brocade (8) - Agent fence d'E/S pour les commutateurs Brocade FC
fence_bullpap (8) - Agent fence d'E/S pour l'architecture Bull FAME contrôlée par une console de
gestion PAP
fence_drac (8) - Agent fence pour la carte d'accès à distance Dell
fence_egenera (8) - Agent fence d'E/S pour le BladeFrame Egenera
fence_gnbd (8) - Agent fence d'E/S pour les clusters GFS basés sur GNBD
fence_ilo (8) - Agent fence d'E/S pour la carte HP Integrated Lights Out
fence_ipmilan (8) - Agent fence d'E/S pour les machines contrôlées par IPMI à travers un LAN
fence_manual (8) - programme exécuté par fenced dans le cadre du fence d'E/S manuel.
fence_mcdata (8) - Agent fence d'E/S pour les commutateurs McData FC
fence_node (8) - Un programme qui effectue des opérations fence d'E/S sur un seul noeud
fence_rib (8) - I/O Agent fence pour la carte Compaq Remote Insight Lights Out
fence_rsa (8) - I/O Agent fence d'E/S pour IBM RSA II
fence_sanbox2 (8) - Agent fence d'E/S pour les commutateurs QLogic SANBox2 FC
fence_scsi (8) - Agent fence d'E/S pour les réservations SCSI persistantes
fence_tool (8) - Un programme pour joindre et quitter le domaine fence.
fence_vixel (8) - Agent fence d'E/S pour les commutateurs Vixel FC
fence_wti (8) - Agent fence d'E/S pour le commutateur WT I Network Power
fence_xvm (8) - Agent fence d'E/S pour les machines virtuelles Xen
fence_xvmd (8) - Agent hôte fence d'E/S pour les machines virtuelles Xen.
fenced (8) - Le démon fence d'E/S
Gestion des services à haute disponibilité
clusvcadm (8) - Utilitaire d'administration des services utilisateur du cluster
clustat (8) - Utilitaire de statut du cluster
Clurgmgrd [clurgmgrd] (8) - Démon du gestionnaire de groupes de ressources (service cluster)
clurmtabd (8) - Démon de la table de montage distante NFS du cluster
GFS
gfs_fsck (8) - Vérificateur de système de fichiers GFS hors ligne
gfs_grow (8) - Agrandit un système de fichiers GFS
gfs_jadd (8) - Ajoute des fichiers journaux à un système de fichiers.
gfs_mount (8) - Options de montage GFS
gfs_quota (8) - Manipule les quotas des disques GFS
gfs_tool (8) - interface pour les appels gfs ioctl
58
Chapitre 2. Résumé des composants de Red Hat Cluster Suite
Gestionnaire de volumes logiques du cluster
clvmd (8) - Démon LVM du cluster
lvm (8) - Outils LVM2
lvm.conf [lvm] (5) - Fichier de configuration pour LVM2
lvmchange (8) - Change les attributs du gestionnaire de volumes logiques
pvcreate (8) - Initialise un disque ou une partition pour utiliser avec LVM
lvs (8) - Reporte des informations à propos de volumes logiques
Périphérique bloc de réseau global
gnbd_export (8) - L'interface pour exporter les GNBD
gnbd_import (8) - Manipule les périphériques blocs GNBD sur un client
gnbd_serv (8) - Démon serveur gnbd
LVS
pulse (8) - Démon émettant des signaux ("heartbeat") afin d'analyser le bon fonctionnement des
noeuds du cluster.
lvs.cf [lvs] (5) - fichier de configuration pour lvs
lvscan (8) - Scanne (tous les disques) pour les volumes logiques
lvsd (8) - Démon pour contrôler les services Red Hat de mise en cluster
ipvsadm (8) - Administration du serveur virtuel Linux
ipvsadm-restore (8) - Restaure le tableau IPVS à partir de stdin
ipvsadm-save (8) - Enregistre le tableau IPVS vers stdout
nanny (8) - Outil pour l'analyse du statut des services du cluster
send_arp (8) - Outil pour informer le réseau d'une nouvelle correspondance adresse IP/adresse
MAC
2.3. Matériel compatible
Pour obtenir des informations à propos du matériel compatible avec les composants Red Hat Cluster
Suite (par exemple les périphériques fence supportés, les périphériques de stockage et les
commutateurs Fibre Channel), reportez-vous aux instructions de configuration du matériel à l'adresse
suivante : http://www.redhat.com/cluster_suite/hardware/.
59
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
Historique de révision
Version 3-7.4 00
Rebuild with publican 4.0.0
2013-10-31
Rüdiger Landmann
Version 3-7
Rebuild for Publican 3.0
2012-07-18
Anthony T owns
Version 1.0-0
T ue Jan 20 2008
Consolidation de points de notes de sortie
Paul Kennedy
Index
C
cluster
- displaying status, Cluster Status T ool
cluster administration
- displaying cluster and service status, Cluster Status T ool
cluster component compatible hardware, Matériel compatible
cluster component man pages, Pages de manuel
cluster components table, Composants de cluster
Cluster Configuration T ool
- accessing, Cluster Configuration T ool
cluster service
- displaying status, Cluster Status T ool
command line tools table, Outils d'administration en ligne de commande
compatible hardware
- cluster components, Matériel compatible
Conga
- overview, Conga
Conga overview, Conga
F
feedback, Commentaire
I
60
Historique de révision
introduction, Introduction
- other Red Hat Enterprise Linux documents, Introduction
L
LVS
- direct routing
- requirements, hardware, Routage direct
- requirements, network, Routage direct
- requirements, software, Routage direct
- routing methods
- NAT , Méthodes de routage
- three tiered
- high-availability cluster, T hree-T ier LVS T opology
M
man pages
- cluster components, Pages de manuel
N
NAT
- routing methods, LVS, Méthodes de routage
network address translation (voir NAT )
O
overview
- economy, Red Hat GFS
- performance, Red Hat GFS
- scalability, Red Hat GFS
P
Piranha Configuration T ool
- CONT ROL/MONIT ORING, CONT ROL/MONIT ORING
- EDIT MONIT ORING SCRIPT S Subsection, EDIT MONIT ORING SCRIPT S Subsection
- GLOBAL SET T INGS, GLOBAL SET T INGS
- login panel, Interface utilisateur graphique d'administration du serveur virtuel Linux
- necessary software, Interface utilisateur graphique d'administration du serveur virtuel
Linux
- REAL SERVER subsection, La sous-section REAL SERVER
61
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite
- REDUNDANCY, REDUNDANCY
- VIRT UAL SERVER subsection, VIRT UAL SERVERS
- Firewall Mark , La sous-section VIRT UAL SERVER
- Persistence , La sous-section VIRT UAL SERVER
- Scheduling , La sous-section VIRT UAL SERVER
- Virtual IP Address , La sous-section VIRT UAL SERVER
- VIRT UAL SERVERS, VIRT UAL SERVERS
R
Red Hat Cluster Suite
- components, Composants de cluster
T
table
- cluster components, Composants de cluster
- command line tools, Outils d'administration en ligne de commande
62