Problèmes Liés Aux Volumes Logiques; Problèmes Liés Au Stockage Partagé; Test Des Mécanismes D'isolement - Dell PowerEdge Cluster SE600L Guide D'installation

Table des Matières

Publicité

Si vous ne parvenez pas à identifier le périphérique SCSI (sd) correspondant au disque virtuel, utilisez la commande suivante :
[root]# grep -A 5 "MD Virtual" /var/log/dmesg
Les dernières lignes affichées concernent le disque virtuel. Par exemple :
Vendor (Fabricant) : DELL 
Model (Modèle) : MD Virtual Disk Rev: 0670
Type: Direct-Access (Accès direct) 
ANSI SCSI revision (Numéro de révision ANSI SCSI) : 05
scsi(5:0:0:0): Enabled tagged queuing, queue depth 62. (File d'attente activée, longueur de la file d'attente 62.)
SCSI device sdb: 2032423936 512-byte hdwr sector(1040601 MB) (2032423936 secteur matériel de 512 octets (1040601 Mo))
sdb: Write Protect is off (Protection en écriture désactivée)
Il est également possible de faire correspondre le nom World Wide localisé dans divers fichiers résidant dans les répertoires /var/mpp, /proc/mpp
et /proc/scsi/mpp. Pour plus d'informations, reportez-vous à la documentation fournie avec la baie de stockage.
 Problèmes liés aux volumes logiques 
Il se peut que vous deviez redémarrer le gestionnaire de volumes logiques en cluster avec la commande :
[root]# service clvmd restart
Vérifiez que tous les nœ uds ont une vue cohérente du stockage partagé avec la commande partprobe ou en cliquant sur reprobe storage (réanalyser le 
stockage) dans Conga. En dernier recours, redémarrez tous les nœ uds ou sélectionnez restart cluster (redémarrer le cluster) dans Conga.
 Problèmes liés au stockage partagé 
Si vous rencontrez des erreurs lors de la création du volume logique en cluster, il se peut que vous deviez supprimer les étiquettes précédentes du disque 
virtuel, le cas échéant.
AVIS :
Cette opération détruit toutes les données présentes sur le disque virtuel.
Exécutez la commande suivante à partir d'un des nœ uds :
[root@node1 ~]# pvremove -ff {/dev/sdXY}
Où {/dev/sdXY} correspond à la partition destinée aux données. Consultez la sortie du journal /proc/mpp pour le vérifier. Par exemple :
[root@node1 ~]# pvremove -ff /dev/sdb1
Si vous utilisez Conga, cliquez sur reprobe storage (réanalyser le stockage), sinon entrez :
[root@node1 ~]# partprobe /dev/sdb
Si vous avez créé une image des nœ uds avec une méthode de clonage, alors l'identificateur unique (uuid) des volumes logiques du système peut être le 
même. Vous devrez peut-être changer d'uuid avec la commande pvchange --uuid ou vgchange --uuid. Pour plus d'informations, consultez le document LVM
Administrator's Guide (en anglais) sur le site Web de Red Hat à l'adresse www.redhat.com/docs/manuals/enterprise.
 Test des mécanismes d'isolement 
Isolez chaque nœ ud pour vous assurer que l'isolement fonctionne correctement.
 
1. Consultez les journaux du nœ ud 1 avec la commande suivante :
[root@node1]# tail -f /var/log/messages
 
2. Isolez le nœ ud 2 en exécutant la commande suivante :
[root@node1]# fence_node {nom d'hôte complet ou adresse ip du nœ ud2}
 
3. Consultez les journaux sur le nœ ud 1 et la console sur le nœ ud 2. Le nœ ud 1 devrait isoler correctement le nœ ud 2. 
 
4. Continuez à consulter le fichier de messages pour connaître les changements d'état. Vous pouvez également utiliser l'outil Cluster Status pour afficher 
une vue du nœ ud au sein du cluster. Le paramètre -i 2 actualise l'outil toutes les deux secondes. Pour plus d'informations sur les clusters, voir : [root]#
clustat -i 2
 
5. Une fois que vous avez correctement isolé un nœ ud, répétez cette procédure pour le second nœ ud.

Publicité

Table des Matières
loading

Table des Matières