La reproduction de ce document de quelque manière que ce soit sans l'autorisation écrite de Dell Inc. est strictement interdite.
Marques mentionnées dans le document : Dell, le logo DELL, PowerEdge, PowerVault e t OpenManage sont des marques de Dell Inc. ; Intel est une marque déposée d'Intel
Corporation; Red Hat e t Red Hat Enterprise Linux sont des marques déposées de Red Hat, Inc. aux États-Unis et dans d'autres pays.
D'autres marques et noms de marques peuvent être utilisés dans ce document pour faire référence aux entités se réclamant de ces marques et de ces noms ou à leurs produits.
Dell Inc. dénie tout intérêt propriétaire vis-à-vis des marques et des noms de marque autres que les siens.
Sommaire des Matières pour Dell PowerEdge Cluster SE600L
Page 1
La reproduction de ce document de quelque manière que ce soit sans l'autorisation écrite de Dell Inc. est strictement interdite. Marques mentionnées dans le document : Dell, le logo DELL, PowerEdge, PowerVault e t OpenManage sont des marques de Dell Inc. ; Intel est une marque déposée d'Intel Corporation; Red Hat e t Red Hat Enterprise Linux sont des marques déposées de Red Hat, Inc. aux États-Unis et dans d'autres pays. D'autres marques et noms de marques peuvent être utilisés dans ce document pour faire référence aux entités se réclamant de ces marques et de ces noms ou à leurs produits. Dell Inc. dénie tout intérêt propriétaire vis-à-vis des marques et des noms de marque autres que les siens. Janvier 2008 Rév. A00...
Retour à la page Contenu Liste de vérification pour la configuration du cluster Systèmes Dell™ PowerEdge™ Cluster SE600L - Guide d'installation et de dépannage Tableau A-1. A vérifier pour la création du cluster Élément Vérifié Configuration physique Câblage Contrôleurs RAC (Remote Access Controllers) configurés dans le BIOS Accès Telnet au module DRAC activé (le cas échéant) Interrupteurs d'alimentation réseau configurés (le cas échéant) Systèmes d'exploitation installés et mis à jour Cluster et son stockage Pilote HBA SAS (progiciel mptlinux) Pilote MPP (progiciel linuxrdac) Baie de stockage Dell™ PowerVault™ MD3000 configurée ...
Retour à la page Contenu Présentation Systèmes Dell™ PowerEdge™ Cluster SE600L - Guide d'installation et de dépannage Services pouvant être mis en cluster Configuration prise en charge Autres documents utiles Ce document donne des instructions sur la configuration d'un système Dell™ PowerEdge™ Cluster SE600L doté de deux serveurs PowerEdge connectés à une ® ® baie de stockage SCSI (SAS) Dell PowerVault™ MD3000 à l'aide de Red Hat Enterprise Linux 5.1 Advanced Platform, Red Hat Cluster Suite (RHCS) et Red Hat Global File System (GFS). Services pouvant être mis en cluster La mise en cluster est un processus qui consiste à configurer au minimum deux systèmes en vue de fournir des services comme si ceux-ci émanaient d'un seul système. Ces systèmes sont appelés nœ uds de cluster. Vous pouvez utiliser la mise en cluster pour activer l'équilibrage de la charge entre deux nœ uds, le traitement parallèle, la haute disponibilité et le stockage du cluster. Les services pouvant faire l'objet d'une mise en cluster sont présentés ci-dessous : Equilibrage de la charge : les clusters d'équilibrage de la charge acceptent des demandes émanant de clients et utilisent un algorithme défini pour ...
Configuration minimale requise Le système PowerEdge Cluster SE600L prend en charge le système d'exploitation Red Hat Enterprise Linux 5.1 Advanced Platform. La liste ci-dessous présente la configuration minimale prise en charge : Au moins 1 Go d'espace disque sur chaque nœ ud. Au moins 512 Mo de RAM sur chaque nœ ud. REMARQUE : La quantité de RAM prise en charge pour chaque nœ ud dépend également du nœ ud de cluster. REMARQUE : L'exécution de versions différentes de Red Hat Enterprise Linux dans un cluster est uniquement prise en charge lors de l'installation d'une mise à niveau. Nœuds de cluster Le système PowerEdge Cluster SE600L requiert l'utilisation de deux systèmes PowerEdge homogènes. Chaque système PowerEdge doit exécuter le système d'exploitation Red Hat Enterprise Linux 5.1 AP. Le tableau 1-1 présente la configuration minimale requise pour chaque système PowerEdge du cluster. Tableau 1-1. Configuration requise pour les nœuds du cluster Composant Configuration minimale requise Processeur Au moins un processeur par nœ...
(en anglais). Le système PowerEdge Cluster SE600L a été testé avec le matériel suivant : Contrôleur DRAC (Dell Remote Access Controller) 5 Interface de gestion de plateforme intelligente (IPMI) PowerEdge ® Interrupteur d'alimentation réseau APC (AP7867A) REMARQUE : Il est recommandé d'utiliser deux méthodes d'isolement, par exemple un interrupteur d'alimentation réseau et un contrôleur d'accès distant (DRAC ou IPMI). Logiciels de gestion du stockage Les sections suivantes présentent les divers composants logiciels de gestion du stockage. Dell PowerVault Modular Disk Storage Manager Client...
Le support Dell PowerVault MD3000 Resource (Ressource Dell PowerVault MD3000) contient toute la documentation du système mentionnée dans la présente section, notamment celle concernant les outils de configuration et de gestion. Le document Dell PowerVault Modular Disk Storage Manager User's Guide (Dell PowerVault Modular Disk Storage Manager - Guide d'utilisation) contient des instructions sur l'utilisation des logiciels de gestion permettant de configurer la baie de stockage. Le document Dell PowerVault MD Systems Support Matrix (Matrice de support des systèmes Dell PowerVault MD) contient des informations concernant les ...
Câblage de la souris, du clavier et du moniteur Si vous installez le cluster dans un rack, il est recommandé, mais non obligatoire, de connecter une souris, un clavier et un moniteur. Consultez la documentation fournie avec le rack pour savoir comment connecter les nœ uds. Câblage des blocs d'alimentation Pour vous assurer que les spécifications relatives à l'alimentation sont respectées, consultez la documentation fournie avec chaque composant de la solution cluster. Il est recommandé de respecter les consignes suivantes pour protéger la solution cluster contre les pannes liées aux coupures de courant : Reliez chacun des blocs d'alimentation à un circuit de courant alternatif distinct. Reliez chacun des blocs d'alimentation à un interrupteur d'alimentation réseau optionnel distinct. Utilisez des onduleurs (UPS). Dans certains environnements, pensez à utiliser des générateurs de secours et des sources d'alimentation provenant de différentes stations électriques. figure 2-1 et la figure 2-2 présentent le câblage recommandé pour l'alimentation d'une solution cluster comprenant deux systèmes Dell™ PowerEdge™ et un système de stockage. Pour garantir la redondance de l'alimentation, les blocs d'alimentation principaux de tous les composants sont regroupés sur un ou deux circuits, et les blocs d'alimentation redondants sur un circuit différent. Figure 2-1. Exemple de câblage - Systèmes PowerEdge équipés d'un seul bloc d'alimentation REMARQUE : Cette illustration sert uniquement à montrer la répartition de l'alimentation entre les composants. Figure 2-2. Exemple de câblage - Systèmes PowerEdge équipés de deux blocs d'alimentation...
REMARQUE : Cette illustration sert uniquement à montrer la répartition de l'alimentation entre les composants. Câblage des réseaux public et privé Les cartes réseau des nœ uds permettent au moins deux connexions réseau pour chaque nœ ud. Ces connexions sont décrites dans le tableau 2-1. Tableau 2-1. Connexions réseau Connexion Description réseau Réseau public Toutes les connexions au réseau local du client. Pour que le basculement vers le réseau privé soit pris en charge, au moins un réseau public doit être configuré en mode mixte (public et privé). Réseau privé Connexion dédiée permettant le partage des informations sur l'état et l'intégrité du cluster entre les nœ uds du cluster. Les cartes réseau connectées au réseau local permettent également une redondance des communications en cas de panne de l'interconnexion du cluster. Si vous disposez de cartes DRAC optionnelles, reliez-les au réseau privé. Dans cette configuration, utilisez un commutateur réseau et non la topologie point à point. Si vous disposez de blocs d'alimentation optionnels, reliez-les au réseau privé. Branchez les câbles des ports Ethernet du contrôleur de stockage PowerVault MD3000 au réseau privé.
Câblage du réseau public Toute carte réseau prise en charge par un système exécutant TCP/IP peut être utilisée pour établir la connexion avec les segments du réseau public. Vous pouvez installer des cartes d'interface réseau (NIC) supplémentaires pour prendre en charge des segments de réseau public additionnels ou fournir une redondance en cas de défaillance de la carte d'interface réseau principale ou du port de commutation. Câblage du réseau privé La connexion du réseau privé aux nœ uds est assurée par une seconde carte réseau ou par une carte réseau suivante installée sur chaque nœ ud. Ce réseau est utilisé pour les communications internes du cluster. Reliez tous les composants réseau du cluster, y compris les cartes d'interface du réseau privé des nœ uds du cluster, les interrupteurs d'alimentation réseau, les contrôleurs d'accès distants (DRAC/IPMI) et les ports Ethernet du contrôleur de stockage MD3000. Le tableau 2-2 répertorie les composants matériels requis et la méthode de connexion pour deux configurations de réseau privé possibles. Tableau 2-2. Composants matériels et connexions pour un réseau privé Méthode Composants matériels Connexion Commutateur Cartes réseau et commutateurs Fast Ethernet Utilisez des câbles Ethernet standard pour relier les cartes réseau des deux nœ uds à un réseau ou Ethernet Gigabit. commutateur Fast Ethernet ou Ethernet Gigabit. Point à point Cartes réseau Ethernet Gigabit cuivre.
Page 11
Cette section contient des informations concernant la connexion du cluster à un système de stockage. La gestion du stockage peut être effectuée en mode intrabande via l'interface entre système hôte et contrôleur ou bien en mode hors bande (connexion Ethernet). Pour la gestion hors bande du stockage, reliez les ports Ethernet de la baie de stockage au réseau public. REMARQUE : Il est recommandé de configurer l'enceinte de stockage Dell PowerVault™ MD3000 pour l'utilisation de la gestion hors bande avec un nœ ud de gestion dédié. Câblage du cluster dans une configuration non redondante avec un adaptateur HBA SAS 5/E Chaque nœ ud du cluster est connecté au système de stockage au moyen d'un adaptateur HBA SAS 5/E à port double et de deux câbles SAS. Dans cette configuration, il existe plusieurs chemins redondants entre le nœ ud et le système de stockage. En cas de défaillance d'un composant (port, câble, contrôleur de stockage, par exemple) du chemin du système de stockage, le pilote MPP (Multi-Path Proxy) réachemine automatiquement les demandes d'E/S vers un chemin de secours de sorte que la baie de stockage puisse fonctionner sans interruption. Pour câbler le cluster : ...
Page 12
2. Connectez le noeud 2 au système de stockage. a. Installez un câble SAS entre le port 0 de l'adaptateur HBA du nœ ud de cluster 2 et le port In-1 du module contrôleur RAID 0. b. Installez un câble SAS entre le port 1 de l'adaptateur HBA du nœ ud de cluster 2 et le port In-1 du module contrôleur RAID 1. Figure 2-5. Configuration de cluster redondante avec deux adaptateurs HBA SAS 5/E Retour à la page Contenu ...
Préparation du système d'exploitation Configuration des nœ uds pour l'accès au stockage Installation et configuration du système de stockage partagé Opérations requises Pour installer le système Dell™ PowerEdge™ Cluster SE600L, vérifiez que vous disposez des éléments suivants : Les composants répertoriés à la section Composants requis ® ® Le support d'installation de Red Hat Enterprise Linux 5.1 Advanced Platform Le disque Dell PowerVault™ MD3000 Resource ou l'image ISO la plus récente du support, disponible à l'adresse suivante support.dell.com. Sélection d'une infrastructure de gestion Assurez-vous d'avoir effectué le câblage et terminé l'installation du matériel . Avant de poursuivre, sélectionnez l'infrastructure de gestion. Pour gérer une baie de stockage, vous disposez de deux méthodes : Gestion hors bande : les données sont séparées des commandes et des événements. Elles transitent via les câbles d'interface SAS reliant les systèmes hôtes aux contrôleurs, tandis que les commandes et les événements sont transmis au moyen de câbles Ethernet. Gestion intrabande : les commandes, les événements et les données sont tous transmis via les câbles d'interface SAS reliant les systèmes hôtes aux contrôleurs. Contrairement à la gestion hors bande, les commandes et les événements résident sur le même réseau que les données. REMARQUE : Il est recommandé d'utiliser la gestion hors bande pour le système PowerEdge Cluster SE600L. Configuration des nœuds de cluster Pour préparer les nœ...
Une fois qu'un adaptateur est sélectionné, ses propriétés s'affichent comme suit : 4. Notez l'adresse SAS. L'adresse SAS servira à attribuer des disques virtuels. 5. Faites basculer l'option Boot support (Prise en charge de l'amorçage) sur Disabled (Désactivée). Ce champ permet de démarrer à partir de la baie de stockage PowerVault MD3000 et n'est pas pris en charge par les systèmes PowerEdge Cluster SE600L. 6. Enregistrez la configuration et quittez. 7. Recommencez la procédure pour tous les autres adaptateurs SAS 5/E. 8. Quittez l'utilitaire de configuration et redémarrez le système. Configuration de l'accès à distance 1. Pendant l'auto-test de démarrage du BIOS, utilisez la combinaison de touches <Ctrl><E> pour accéder au menu Remote Access Configuration Utility (Utilitaire de configuration de l'accès distant) lorsque le message suivant s'affiche : 2. Le menu Remote Access Configuration Utility (Utilitaire de configuration de l'accès distant) apparaît.
3. Si vous avez acheté les systèmes PowerEdge avec les cartes DRAC (Dell Remote Access Controller), vérifiez que l'option IPMI Over LAN (IPMI sur réseau local) est désactivée (sur Off). Si cette option est activée, une carte d'interface réseau (NIC) supplémentaire peut être nécessaire pour une configuration entièrement redondante. Ce problème se produit lorsque l'interface IPMI utilise une des cartes NIC intégrées, empêchant ainsi toute configuration réseau redondante sans NIC supplémentaire. REMARQUE : Si vous utilisez l'interface IPMI à la place d'une carte DRAC pour l'isolement d'un système PowerEdge 1950, une configuration entièrement redondante est impossible vu le nombre limité de logements disponibles pour des cartes supplémentaires. 4. Dans le menu Remote Access Configuration Utility (Utilitaire de configuration de l'accès distant), sélectionnez LAN Parameters (Paramètres du réseau local) et attribuez une adresse IP ou sélectionnez DHCP. REMARQUE : Si vous utilisez l'option DHCP, vous devez attribuer l'adresse IP à partir d'un serveur DHCP. Notez l'adresse MAC de ce menu pour attribuer ultérieurement une IP statique via DHCP. Pour des instructions sur la configuration d'un serveur DHCP, consultez la section "Configuration d'un serveur DHCP" du Guide de déploiement Red Hat disponible à l'adresse www.redhat.com/docs/manuals/enterprise/RHEL-5- manual/fr-FR/index.html. REMARQUE : Assurez-vous que l'adresse IP attribuée se trouve sur le même sous-réseau que le réseau privé du cluster, car les nœ uds communiquent avec les contrôleurs d'accès à distance dans le cadre des opérations d'isolement de cluster.
Si le support du système d'exploitation n'est pas fourni avec le système PowerEdge, téléchargez les images ISO les plus récentes de Red Hat Enterprise Linux (version 5 pour les systèmes 64 bits x86_64) depuis le site Web de Red Hat, rhn.redhat.com. S'il vous faut un support physique, contactez votre représentant commercial Dell. Lorsque vous avez obtenu les images ISO ou le support physique approprié, choisissez l'une des méthodes d'installation suivantes. Installation du système d'exploitation à l'aide d'un support physique Créez un support physique pour l'installation. Pour plus d'informations, consultez la section "Pouvez-vous installer à partir du CD-ROM ou du DVD" du Guide d'installation Red Hat disponible à l'adresse www.redhat.com/docs/manuals/enterprise/RHEL-5-manual/fr-FR/index.html. REMARQUE : Vous pouvez également utiliser le support Dell Systems Build and Update Utility pour installer le système d'exploitation. Vous pouvez le télécharger à partir du site du support technique de Dell, support.dell.com. Installation du système d'exploitation via le réseau Créez un serveur pour l'installation réseau. Pour plus d'informations, consultez la section "Préparation à une installation réseau" du Guide d'installation Red Hat disponible à l'adresse www.redhat.com/docs/manuals/enterprise/RHEL-5-manual/fr-FR/index.html. Installation à l'aide d'un fichier kickstart Le système PowerEdge Cluster SE600L s'installe facilement avec le script kickstart SE600L disponible à l'adresse http://linux.dell.com/files/se600l/ks.cfg. Notez que les nœ uds doivent être connectés à Internet pour pouvoir utiliser ce script. S'ils n'ont pas accès à Internet, vous devrez créer votre propre fichier ...
Page 17
RHEL 5.1 (registered with RHN, running SE600L HA Cluster) kernel images/os/linux/redhat/rhel/5.1/x86_64/vmlinuz append initrd=images/os/linux/redhat/rhel/5.1/x86_64/initrd.img Utilisation d'un support pour une installation du système d'exploitation à partir du réseau Vous pouvez démarrer à partir de n'importe quel CD ou DVD Red Hat Enterprise Linux 5.1 et spécifier le serveur utilisé pour l'installation réseau à l'aide du paramètre askmethod. Par exemple : boot: linux askmethod Vous pouvez également utiliser le fichier kickstart créé à la section Installation à l'aide d'un fichier kickstart. Par exemple : boot: linux ks=http://linux.dell.com/files/se600l/ks.cfg REMARQUE : Si vous avez modifié le script kickstart SE600L ou fourni votre propre script, indiquez ce fichier kickstart à la place. Synchronisation des horloges système des nœuds Synchronisez les horloges système de tous les nœ uds. Pour plus d'informations sur la configuration de l'horloge système, consultez le Guide de déploiement Red Hat disponible à l'adresse www.redhat.com/docs/manuals/enterprise/RHEL-5-manual/fr-FR/index.html. Enregistrement des nœuds sur RHN Enregistrez tous les nœ...
Installation des groupes de cluster Si vos systèmes ont été installés avec le fichier kickstart, les groupes de cluster adéquats devraient déjà définis. Exécutez la commande suivante pour vérifier ou installer les groupes : [root]# yum groupinstall "Mise en cluster" "Cluster de stockage" Logithèques de la communauté Dell Les systèmes Dell PowerEdge peuvent être gérés à l'aide de l'utilitaire yum, qui gère déjà les modules pour Red Hat Enterprise Linux 5.1 sur vos nœ uds. L'accès à tous les logiciels Linux fournis par Dell, aux mises à jour de micrologiciel Dell PowerEdge, à certains pilotes dkms et à d'autres logiciels libres est ainsi facilité. Pour plus d'informations, visitez le site Web linux.dell.com/repo/software/ Si vos nœ uds n'ont pas accès à internet, ignorez cette section et mettez à jour manuellement les micrologiciels pour vos systèmes PowerEdge, le cas échéant. Visitez le site Web du support technique de Dell support.dell.com pour obtenir des informations. REMARQUE : Les référentiels sont pris en charge par la communauté, mais pas officiellement par Dell. Pour le support, utilisez la liste de diffusion linux- poweredge à l'adresse suivante lists.us.dell.com. Vous pouvez également obtenir les dernières images ISO MD3000 et OMSA (OpenManage Server ...
Une fois ces étapes effectuées, chaque nœ ud a accès au même stockage partagé. Pour plus d'informations, lisez le fichier Readme.txt qui se trouve sur le support Dell PowerVault MD3000 Resource. Utilisation du support Dell PowerVault MD3000 Resource Les pilotes HBA SAS et MPP sont disponibles sur le support Dell PowerVault MD3000 Resource. Si vous n'utilisez pas la logithèque de la communauté Dell ou que votre support est antérieur à la version 14, téléchargez les images ISO les plus récentes depuis le site Web du support technique de Dell support.dell.com. Opérations requises Avant de lancer l'installation du support Dell PowerVault MD3000 Resource, vérifiez que les modules libXp, libXtst et les modules de développement du noyau ...
Page 20
[root]# system-config-display Entrez runlevel 5 avec la commande suivante : [root]# init 5 Ou démarrez X avec la commande suivante : [root]# startx 4. Pour afficher la documentation contenue dans le support Dell PowerVault MD3000 Resource, installez un navigateur Web sur votre système : [root]# yum install firefox Lancement du menu principal Pour installer le logiciel requis : 1. Il existe deux manières d'accéder au support Dell PowerVault MD3000 Resource : ...
Page 21
REMARQUE : Le pilote SAS 5/E est fourni sous la forme d'un module DKMS (Dynamic Kernel Module Support). Pour plus d'informations sur le module DKMS, consultez la page www.linux.dell.com/dkms. REMARQUE : Effectuez les procédures suivantes sur les nœ uds de cluster uniquement. N'installez pas le pilote HBA SAS sur les nœ uds de gestion dédiés. Suivez les étapes de la section Lancement du menu principal. 2. Sélectionnez Option 2. Install SAS 5/E Adapter Driver (Installer le pilote de l'adaptateur SAS 5/E). Suivez les instructions à l'écran pour terminer ...
2. Sélectionnez 4. Install Multi-Pathing driver (Installer le pilote MPP) 3. Suivez les instructions à l'écran pour terminer l'installation. Le message suivant s'affiche ensuite : DKMS: install Completed (DKMS : installation terminée) Vous devez redémarrer votre ordinateur pour que les nouveaux paramètres prennent effet. Pour plus d'informations sur l'installation du pilote MPP RDAC, consultez le fichier RDACreadme.txt situé sur le support Dell PowerVault MD3000 Resource. Installation et configuration du système de stockage partagé Cette section donne des informations sur l'installation et la configuration des systèmes de stockage partagés. REMARQUE : Pour obtenir la version la plus récente du micrologiciel PowerVault MD3000, consultez le site Web du support technique de Dell à l'adresse support.dell.com. Utilisez PowerVault Modular Disk Storage Manager pour mettre le micrologiciel à jour. Pour plus d'informations, consultez la section Installation de PowerVault Modular Disk Storage Manager et la documentation fournie avec la baie de stockage.
REMARQUE : Avant de créer des disques virtuels, vous devez organiser les disques physiques en groupes et définir les paramètres d'accès des systèmes hôtes. Vous pouvez ensuite créer des disques virtuels dans ces groupes de disques. Un groupe de disques ne peut pas prendre en charge plus de 30 lecteurs physiques. Pour créer un disque virtuel, vous disposez de deux méthodes : Configuration automatique Configuration manuelle Pour plus d'informations sur la création de groupes de disques et de disques virtuels, consultez la documentation de PowerVault Modular Disk Storage Manager. REMARQUE : Dell conseille d'utiliser un niveau RAID autre que RAID 0 (aussi appelé "striping" ou "répartition"). Les configurations RAID 0 fournissent de meilleurs performances mais ne permettent pas de tolérance de pannes. Pour plus d'informations sur la configuration des niveaux RAID du système, consultez la documentation du système de stockage. Création de mappages entre les systèmes hôtes et les disques virtuels Créez des mappages entre systèmes hôtes et disques virtuels pour attribuer des disques virtuels aux groupes de systèmes hôtes contenant des nœ uds de cluster : 1. Cliquez sur l'onglet Configure (Configurer) et sélectionnez le lien Create Host-to-Virtual Disk Mappings (Créer des mappages entre les systèmes hôtes et les disques virtuels).
Page 24
2. Une fois la configuration terminée, assurez-vous que le mappage a été correctement créé en cliquant sur le lien Host-to-Virtual Disk Mappings (Mappages entre les systèmes hôtes et les disques virtuels), dans l'onglet Summary (Résumé). Retour à la page Contenu ...
Retour à la page Contenu Configuration du cluster Systèmes Dell™ PowerEdge™ Cluster SE600L - Guide d'installation et de dépannage Configuration d'un cluster haute disponibilité Configuration d'un cluster de stockage Gestion des services ® Cette section explique comment installer et configurer Red Hat Cluster Suite et Global File System sur un système de cluster Dell™ PowerEdge™ SE600L à l'aide de Conga et des outils de la ligne de commande (CLI). Conga est une suite logicielle de configuration et de gestion récente basée sur un modèle serveur/agent. Vous pouvez accéder au serveur de gestion (luci) à ...
7. Vérifiez que l'option Enable Shared Storage Support (Activer le support de stockage partagé) est sélectionnée, puis cliquez sur Submit (Envoyer). Conga télécharge et installe tous les logiciels de cluster requis, crée un fichier de configuration et redémarre chaque nœ ud du cluster. Consultez la fenêtre d'état de Conga pour obtenir des détails sur la progression de ces opérations sur chaque nœ ud. Configuration de l'isolement (fencing) à l'aide de Conga Dans un système PowerEdge Cluster SE600L, les interrupteurs d'alimentation réseau constituent la méthode d'isolement la plus fiable. Pour plus d'informations sur la configuration des interrupteurs d'alimentation réseau pour l'accès à distance, voir la documentation fournie avec ces composants. Configurez les interrupteurs d'alimentation réseau et les contrôleurs d'accès à distance, tels que le DRAC (Dell Remote Access Controller) ou l'IMPI (Intelligent Platform Management Interface) sur le même réseau privé que les nœ uds du cluster. Consultez la section Configuration de l'accès à distance pour plus d'informations. Vous devriez utiliser les contrôleurs d'accès à distance (DRAC ou IPMI, par exemple) comme méthodes secondaires à moins qu'aucun interrupteur d'alimentation réseau ne soit disponible. Dans ce cas, configurez la méthode secondaire sur manual (manuelle). Utilisez un utilitaire de journalisation pour recevoir une notification en cas de panne de la méthode d'isolement Pour plus d'informations, consultez Test des mécanismes d'isolement ainsi que la section "Fencing" du document "Cluster Suite Overview" disponible (en anglais) à l'adresse www.redhat.com/docs/manuals/enterprise/RHEL-5-manual/fr-...
Pour plus d'informations, consultez les documents LVM Administrator's Guide et Global File System disponibles (en anglais) à l'adresse www.redhat.com/docs/manuals/enterprise/RHEL-5-manual/fr-FR/index.html. Les procédures de configuration d'un cluster de stockage avec Conga et les outils d'interface de commande (CLI) sont toutes deux documentées. Vous pouvez utiliser l'une ou l'autre méthode. Configuration d'un cluster de stockage avec Conga Pour configurer un cluster de stockage avec Conga : 1. Ouvrez une session sur Conga. ...
3. Assurez-vous que l'option Clustered (En cluster) est définie sur True (Vrai). 4. Dans le volet de droite, sélectionnez la nouvelle partition de données. Dans cet exemple, il s'agit de la partition /dev/sdb1. 5. Cliquez sur Create (Créer). Le nouveau groupe de volume est affiché. Vérifiez que la taille du groupe de volume est correcte. 6. Cliquez sur New Logical Volume (Nouveau volume logique). Entrez une valeur dans le champ Logical Volume Name (Nom du volume logique) pour identifier le volume logique de stockage partagé. Par exemple, clustered_lv. ...
Page 29
5. Définissez l'indicateur lvm de la partition de données. Utilisez la commande set : (parted) set 1 lvm on 6. Vérifiez que les partitions sont correctement configurées : (parted) print Disk geometry for /dev/sdb 0kB - 1000GB (Géométrie du disque pour /dev/sdb 0 Ko - 1000 Go) For Model: DELL MD Virtual Disk (scsi) Disk /dev/sdb: 1000GB (Disque /dev/sdb : 1000 Go) Disk label type: gpt (Type d'étiquette du disque : gpt) Number (Nombre) Start (Début) End (Fin) Size (Taille) FileSystemName (NomSystèmeFichiers) Flags (Indicateurs) 1 17.4kB 1000MB 1000MB primary lvm 7. Quit parted. Les modifications sont immédiatement enregistrées. ...
Page 30
1. Créez un volume physique (pv) : [root@node1 ~]# pvcreate {votre partition de périphérique mpp} Où {votre partition de périphériqe mpp} correspond à la partition que vous venez de créer. Par exemple : [root@node1 ~]# pvcreate /dev/sdb1 Le message suivant s'affiche : Physical volume "/dev/sdb1" successfully created.(Volume physique "/dev/sdb1" correctement créé.) 2. Créez un groupe de volume (vg) : [root@node1 ~]# vgcreate {nom du groupe de volume} {votre partition de périphérique mpp} Où {votre partition de périphérique mpp} correspond à ce que vous avez choisi pour identifier ce groupe de volume et {votre partition de périphérique mpp} correspond à la partition de données que vous avez créée. Par exemple : [root@node1 ~]# vgcreate clustered_vg /dev/sdb1 Le message suivant s'affiche : Volume group clustered_vg successfully created (Groupe de volume clustered_vg correctement créé). 3. Créez un volume logique (lv) : [root@node1 ~]# lvcreate {taille du volume logique} -n {nom du volume logique} {nom du groupe de volume} Où {taille du volume logique} correspond à l'une des options suivantes : -l 100%FREE (LIBRES) (consomme tout l'espace disponible) ¡...
Page 31
Recherchez le terme cluster. L'entrée suivante s'affiche : # Type of locking to use. (# Type de verrouillage à utiliser.) Defaults to local file-based locking (1). (Verrouillage basé sur les fichiers locaux utilisé par défaut (1).) # Turn locking off by setting to 0 (dangerous: risks metadata corruption (# Désactivez le verrouillage en définissant la valeur sur 0 (danger : risques de corruption des métadonnées)) # if LVM2 commands get run concurrently). (# si des commandes LVM2 sont exécutées en même temps).) # Type 2 uses the external shared library locking_library. (# Le type 2 utilise la bibliothèque partagée externe locking_library.) # Type 3 uses built-in clustered locking. (# Le type 3 utilise le verrouillage en cluster intégré.) locking_type = 1 Définissez locking_type sur 3 pour activer la prise en charge du volume logique (lvm) en cluster, comme cela est indiqué dans les commentaires : locking_type = 3 6. Lancez le service clustered lvm daemon (clvmd) en tapant : service clvmd start Vérifiez que le service clvmd démarre à l'amorçage : chkconfig clvmd on Création d'un système de fichiers gloabl à l'aide des outils de ligne de commande (CLI) ...
Resource Groups: 8 (Groupes de ressources : 8) Locking Protocol: lock_dlm (Protocole de verrouillage : lock_dlm) Lock Table: SE600L:MD3000_gfs (Table de verrouillage : SE600L:MD3000_gfs) Syncing... (Synchronisation en cours...) All Done (Terminé) Gestion des services Cette section indique comment créer et tester des services sur un système PowerEdge Cluster SE600L. Création de services Vous trouverez ci-dessous une présentation des procédures à effectuer pour créer des services : 1. Cliquez sur Cluster List (Liste des clusters). 2. Sélectionnez le nom du cluster, puis cliquez sur Services dans le volet de gauche. 3. Sélectionnez Add a service (Ajouter un service). ...
Page 33
Vous pouvez également gérer des services à l'aide ded l'interface de ligne de commande (CLI). Utilisez la commande suivante : [root]# clusvcadm Par exemple, pour déplacer un service du nœud 1 au nœud 2, entrez la commande suivante : [root]# clusvcadm -r service_name node2 Utilisez la commande clustat pour afficher le statut du cluster : [root]# clustat Retour à la page Contenu ...
Retour à la page Contenu Dépannage Systèmes Dell™ PowerEdge™ Cluster SE600L - Guide d'installation et de dépannage Connectivité physique Problèmes liés au fichier de configuration Vérification de la connectivité du nœ ud Identification du disque virtuel Problèmes liés au réseau Problèmes liés aux volumes logiques Etat du cluster Problèmes liés au stockage partagé Dépannage de Conga Test des mécanismes d'isolement Cette section présente diverses méthodes permettant d'identifier des problèmes possibles et de tester les fonctionnalités du système Dell™ PowerEdge™ Cluster SE600L haute disponibilité. Connectivité physique Vérifiez toutes les connexions physiques. Déconnectez tous les câbles et vérifiez s'ils ne sont pas endommagés, puis reconnectez-les fermement. Si le problème persiste, essayez de permuter un câble avec un autre et voyez si le problème vient du câble ou du périphérique. Vérification de la connectivité du nœud Pour vérifier la connectivité, procédez comme suit : Sur le nœ ud1 : [root@nœud1]# ping {nom d'hôte complet du nœud2} Par exemple : [root@nœud1]# ping nœud2.local Sur le nœ...
Nov 28 15:37:56 node2 openais[3450]: [CLM ] New Configuration: (Nouvelle configuration :) Nov 28 15:37:56 node2 kernel: dlm: closing connection to node 2 (fermeture de la connexion au nœud 2) Nov 28 15:37:56 node2 fenced[3466]: node1.ha.lab not a cluster member after 0 sec post_fail_delay (node1.ha.lab n'est pas un membre du cluster après post_fail_delay de 0 sec) Nov 28 15:37:56 node2 openais[3450]: [CLM ] r(0) ip(172.16.0.2) Nov 28 15:37:56 node2 fenced[3466]: fencing node "node1.example.com"...
Si vous ne parvenez pas à identifier le périphérique SCSI (sd) correspondant au disque virtuel, utilisez la commande suivante : [root]# grep -A 5 "MD Virtual" /var/log/dmesg Les dernières lignes affichées concernent le disque virtuel. Par exemple : Vendor (Fabricant) : DELL Model (Modèle) : MD Virtual Disk Rev: 0670 Type: Direct-Access (Accès direct) ANSI SCSI revision (Numéro de révision ANSI SCSI) : 05 scsi(5:0:0:0): Enabled tagged queuing, queue depth 62. (File d'attente activée, longueur de la file d'attente 62.) SCSI device sdb: 2032423936 512-byte hdwr sector(1040601 MB) (2032423936 secteur matériel de 512 octets (1040601 Mo)) sdb: Write Protect is off (Protection en écriture désactivée) Il est également possible de faire correspondre le nom World Wide localisé dans divers fichiers résidant dans les répertoires /var/mpp, /proc/mpp et /proc/scsi/mpp. Pour plus d'informations, reportez-vous à la documentation fournie avec la baie de stockage. Problèmes liés aux volumes logiques Il se peut que vous deviez redémarrer le gestionnaire de volumes logiques en cluster avec la commande : [root]# service clvmd restart Vérifiez que tous les nœ uds ont une vue cohérente du stockage partagé avec la commande partprobe ou en cliquant sur reprobe storage (réanalyser le ...