Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Historique de révision du document Révision A, 28 avril 2017 Révision B, 24 août 2017 Révision C, 1er octobre 2017 Révision D, 24 janvier 2018 Révision E, 15 mars 2018 Révision F, 19 avril 2018 Modifications Sections touchées Mise à...
Page 3
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Modification des sections majeures suivantes en « Déchargement iSCSI dans les environnements sous-sections sous Déchargement iSCSI dans les Linux » à la page 151 environnements Linux: « Différences avec bnx2i » à la page 152 ...
Page 4
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Dans la procédure Pour configurer SR-IOV sous « Configuration de SR-IOV sous Linux » à la Linux : page 192 Dansl' Étape 12, commande modifiée de ip link show/ifconfig -a en ip link show | grep -i vf -b2.
Page 5
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Mise à jour de la section comme suit : « Installation des pilotes de périphérique sur les deux serveurs » à la page 205 Dans l’introduction, ajout de « Pour mettre à jour le noyau vers le tout dernier noyau Linux en amont, accédez à...
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Paramètres facultatifs du pilote Linux ......Valeurs opérationnelles par défaut du pilote Linux ....Messages du pilote Linux .
Page 8
Configuration du commutateur Ethernet Cisco Nexus 6000 ..Configuration du commutateur Ethernet Dell Z9100 ....Configuration de RoCE sur l'adaptateur pour Windows Server ..
Page 9
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Configuration des paramètres d'affinité d'IRQ ....Configuration de la préparation de périphériques de traitement par blocs ..........Configuration d’iSER sous ESXi 6.7 .
Page 10
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Considérations relatives à Open-iSCSI et au démarrage à partir de SAN ..........Démarrage iSCSI L4 pour RHEL 6.9 à...
Page 11
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Configuration de NVMe-oF avec RDMA Installation des pilotes de périphérique sur les deux serveurs... Configuration du serveur cible ........Configuration du serveur initiateur .
Page 12
Commutateurs testés ......... . Configuration du commutateur Dell Z9100 Contraintes en matière de fonctionnalités...
Page 14
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Affectation d'un vmknic pour PVRDMA ........6-10 Réglage de la règle de pare-feu.
Page 15
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx 10-8 Configuration de Red Hat Enterprise Linux 7.4 ......11-1 Configuration système pour SR-IOV : Périphériques intégrés .
Page 16
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Liste des Tableaux Tableau Page Exigences du matériel hôte ......... . . Exigences minimales du système d'exploitation hôte .
QL41264HMCU-DE Adaptateur réseau convergent 10/25Gb Public visé Ce guide est destiné aux administrateurs système et autres membres du personnel technique responsables de la configuration et de la gestion des ® ® adaptateurs installés sur des serveurs Dell PowerEdge dans des ® ® ®...
Windows, Linux et VMware. Chapitre 4 Mise à niveau du micrologiciel décrit comment utiliser le progiciel de mise à jour Dell (DUP) pour mettre à niveau le micrologiciel de l'adaptateur. Chapitre 5 Configuration de prédémarrage de l'adaptateur décrit les...
Adaptateurs série 41xxx. L'Annexe C Configuration du commutateur Dell Z9100 décrit la configuration du port de commutateur Dell Z9100 pour 25 Gbits/s. L'Annexe D Contraintes en matière de fonctionnalités fournit des informations sur les contraintes en matière de fonctionnalités mises en œuvre dans la version actuelle.
Page 20
Préface Conventions de la documentation Le texte en police indique un nom de fichier, un chemin d'accès à Courier un répertoire, ou un texte de ligne de commande. Par exemple : Pour revenir vers le répertoire racine à partir de n'importe où dans la structure de fichiers : Entrez , puis appuyez sur ENTRÉE.
Préface Avis légaux 1|2|3|4 (Points de suspension) indiquent que l'élément précédent peut être répété. Par exemple : signifie une ou plusieurs instances de x... signifie zéro ou plusieurs instances de [x...] Des points de suspension verticaux, dans le cadre d'un exemple de sortie de commande, indiquent où...
Préface Avis légaux Exigences EMI et EMC Conformité à l'alinéa 15 de la FCC : Classe A Déclaration de conformité FCC : Cet appareil est conforme à la section 15 des règlements FCC. Son fonctionnement est soumis aux deux conditions suivantes : (1) ce périphérique ne doit pas provoquer d'interférences nuisibles et (2) ce périphérique doit accepter to :te interférence reçue, y compris les interférences pouvant altérer son fonctionnement.
Préface Avis légaux Format de langue coréenne - Classe A VCCI : Classe A Ceci est un produit de Classe A sur la base de la norme du Conseil de contrôle volontaire des interférences (Voluntary Control Council for Interference - VCCI). Si cet équipement est utilisé...
Présentation du produit Ce chapitre fournit les informations suivantes concernant les Adaptateurs série 41xxx : Description fonctionnelle Fonctionnalités « Spécifications de l'adaptateur » à la page 3 Description fonctionnelle ® Les adaptateurs QLogic FastLinQ 41000 Series comprennent des adaptateurs réseau convergents 10 et 25 Gb et des adaptateurs Ethernet intelligents conçus pour la mise en réseau accélérée des données de systèmes de serveurs.
Page 25
1–Présentation du produit Fonctionnalités Fonctionnalités liées aux performances : Déchargements de somme de contrôle TCP, IP, UDP Déchargement de segmentation TCP (TSO) Large segment offload (LSO) (Déchargement de grands segments) Déchargement de segments génériques (GSO) ...
1–Présentation du produit Spécifications de l'adaptateur Mémoire NVRAM flash série Interface de gestion de l'alimentation PCI (v1.1) Prise en charge de BAR (base address register) 64 bits Prise en charge du processeur EM64T Prise en charge du démarrage iSCSI et FCoE Spécifications de l'adaptateur Les spécifications de l'Adaptateur série 41xxx comprennent les caractéristiques physiques de l'adaptateur et les références de conformité...
Installation du matériel Ce chapitre fournit les informations suivantes concernant l'installation du matériel : Exigences système « Précautions de sécurité » à la page 5 « Liste de vérification de préinstallation » à la page 6 « Installation de l'adaptateur » à la page 6 ...
2–Installation du matériel Liste de vérification de préinstallation Liste de vérification de préinstallation Avant d'installer l'adaptateur, procédez ainsi : Assurez-vous que votre système répond bien à la configuration matérielle et logicielle requise décrite dans la section « Exigences système » à la page Vérifiez si votre système utilise le BIOS le plus récent.
2–Installation du matériel Installation de l'adaptateur Alignez le bord du connecteur de l'adaptateur sur le logement du connecteur PCIe dans le système. En exerçant une pression égale sur les deux coins de la carte adaptateur, enfoncez celle-ci dans le logement jusqu'à ce qu'elle soit bien positionnée. Une fois l'adaptateur correctement positionné, le connecteur du port de l'adaptateur est aligné...
Messages du pilote Linux Statistiques Les pilotes Linux des Adaptateur série 41xxx et la documentation complémentaire sont disponibles sur la page de support Dell : dell.support.com Tableau 3-1 décrit les pilotes Linux des Adaptateur série 41xxx : Tableau 3-1. Pilotes Linux des Adaptateurs série 41xxx QLogic...
Page 32
3–Installation des pilotes Installation du logiciel pilote pour Linux Tableau 3-1. Pilotes Linux des Adaptateurs série 41xxx QLogic (Suite) Pilote Description Linux qede Pilote Ethernet Linux pour les Adaptateurs série 41xxx. Ce pilote contrôle directement le matériel et est responsable de l'envoi et de la réception des paquets Ethernet au nom de la pile réseau hôte Linux.
Installation des pilotes Linux sans RDMA Pour installer les pilotes Linux sans RDMA : Téléchargez les pilotes Linux de l'Adaptateur série 41xxx à partir de Dell : dell.support.com Supprimez les pilotes Linux existants en suivant les instructions de la section «...
Page 34
3–Installation des pilotes Installation du logiciel pilote pour Linux rmmod qed depmod -a Pour RHEL : cd /lib/modules/<version>/extra/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Pour SLES : cd /lib/modules/<version>/updates/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Pour supprimer les pilotes Linux dans un environnement non-RDMA : Pour obtenir le chemin vers les pilotes actuellement installés, entrez la commande suivante : modinfo <driver name>...
3–Installation des pilotes Installation du logiciel pilote pour Linux Pour supprimer les pilotes Linux dans un environnement RDMA : Pour obtenir le chemin vers les pilotes installés, entrez la commande suivante : modinfo <driver name> Déchargez et supprimez les pilotes Linux. modprobe -r qedr modprobe -r qede modprobe -r qed...
3–Installation des pilotes Installation du logiciel pilote pour Linux Installez le RPM qui vient d'être compilé : rpm -ivh RPMS/<arch>/qlgc-fastlinq-<version>.<arch>.rpm REMARQUE L'option peut être requise sur certaines distributions Linux en --force cas de conflit. Les pilotes seront installés dans les chemins d'accès suivants. Pour SLES : /lib/modules/<version>/updates/qlgc-fastlinq Pour RHEL :...
Chapitre 7 Configuration d'iWARP. Pour installer les pilotes Linux dans un environnement avec OFED préinstallé : Téléchargez les pilotes Linux de l'Adaptateur série 41xxx à partir du site Dell : dell.support.com Configurez RoCE sur l'adaptateur comme indiqué à la section «...
3–Installation des pilotes Installation du logiciel pilote pour Linux Paramètres facultatifs du pilote Linux Tableau 3-2 décrit les paramètres facultatifs pour le pilote qede. Tableau 3-2. Paramètres facultatifs du pilote qede Paramètre Description Contrôle le niveau de verbosité du pilote de manière similaire à ethtool debug -s <dev>...
3–Installation des pilotes Installation du logiciel pilote pour Windows Tableau 3-3. Valeurs opérationnelles par défaut du pilote Linux (Suite) Valeur par défaut du pilote Valeur par défaut du pilote Opération qede — 4078 (plage : 128 à 8191) Tx Ring Size (Taille d'anneau Tx) —...
3–Installation des pilotes Installation du logiciel pilote pour Windows Installation des pilotes Windows Installez le logiciel pilote Windows à l'aide du progiciel de mise à jour Dell (Dell Update Package – DUP) : Exécution du DUP dans l'IUG ...
Page 41
3–Installation des pilotes Installation du logiciel pilote pour Windows ® Dans la fenêtre de bienvenue de l'Assistant QLogic Super Installer (Figure 3-2), cliquez sur Suivant. Figure 3-2. Assistant QLogic InstallShield : Fenêtre de bienvenue AH0054602-02 F...
Page 42
3–Installation des pilotes Installation du logiciel pilote pour Windows Procédez ainsi dans la fenêtre de contrat de licence de l'Assistant (Figure 3-3) : Lisez le contrat de licence du logiciel de l'utilisateur final QLogic. Pour continuer, sélectionnez I accept the terms in the license agreement (J'accepte les conditions du contrat de licence).
Page 43
3–Installation des pilotes Installation du logiciel pilote pour Windows Remplissez la fenêtre de type d'installation de l'Assistant (Figure 3-4) comme suit : Sélectionnez l'un des types d'installation suivants : Cliquez sur Complète pour installer toutes les fonctions du programme. ...
Page 44
3–Installation des pilotes Installation du logiciel pilote pour Windows This feature, and all subfeatures, will be installed on the local hard drive (Cette fonctionnalité et toutes ses sous-fonctionnalités seront installées sur le disque dur local) : marque la fonction et toutes ses sous-fonctions pour installation ...
Page 45
3–Installation des pilotes Installation du logiciel pilote pour Windows Figure 3-6. Assistant InstallShield : Fenêtre Prêt à installer le programme AH0054602-02 F...
Page 46
3–Installation des pilotes Installation du logiciel pilote pour Windows Une fois l'installation terminée, la fenêtre Assistant InstallShield terminé apparaît (Figure 3-7). Cliquez sur Finish (Terminer) pour fermer le programme d'installation. Figure 3-7. Assistant InstallShield : Fenêtre Terminé AH0054602-02 F...
DUP, les versions précédentes installées, les messages d'erreur et d'autres informations au sujet de l'installation. Pour fermer la fenêtre Dell Update Package, cliquez sur CLOSE (FERMER). Figure 3-8. Fenêtre Dell Update Package Options d'installation de DUP Pour personnaliser le comportement d'installation de DUP, utilisez les options de ligne de commande suivantes.
3–Installation des pilotes Installation du logiciel pilote pour Windows (Avancé) Utilisez l'option pour envoyer tout le texte suivant /passthrough directement au logiciel d'installation QLogic du DUP. Ce mode /passthrough supprime toutes les interfaces GUI fournies, mais pas nécessairement celles du logiciel QLogic.
3–Installation des pilotes Installation du logiciel pilote pour Windows Gestion des propriétés de l'adaptateur Pour afficher ou modifier les propriétés de l'Adaptateur série 41xxx : Dans le panneau de configuration, cliquez sur le Gestionnaire de périphériques. Sur les propriétés de l'adaptateur sélectionné, cliquez sur l'onglet Avancé. Sur la page Avancé...
3–Installation des pilotes Installation du logiciel pilote pour Windows Définition des options de gestion de l'alimentation Vous pouvez définir les options de gestion de l'alimentation de façon à ce que le système d'exploitation désactive le contrôleur pour économiser de l'énergie ou de façon à...
3–Installation des pilotes Installation du logiciel pilote pour VMware Installation du logiciel pilote pour VMware Cette section décrit le pilote VMware ESXi qedentv pour les Adaptateurs série 41xxx. Pilotes et jeux de pilotes VMware Installation des pilotes VMware ...
3–Installation des pilotes Installation du logiciel pilote pour VMware Tableau 3-5. Paquets de pilotes ESXi par version Version du Version ESXi Protocole Nom du pilote pilote qedentv 3.0.7.5 ESXi 6.5 FCoE qedf 1.2.24.0 iSCSI qedil 1.0.19.0 RoCE qedrntv 3.0.7.5.1 ESXi 6.0u3 qedentv 2.0.7.5 FCoE...
Page 53
3–Installation des pilotes Installation du logiciel pilote pour VMware Pour installer le pilote VMware : Téléchargez le pilote VMware des Adaptateur série 41xxx à partir de la page de support VMware : www.vmware.com/support.html Allumez l'hôte ESX et connectez-vous à un compte doté du rôle Administrateur.
3–Installation des pilotes Installation du logiciel pilote pour VMware Option 2 : Pour installer tous les fichiers VIB individuels en même temps en entrant la commande suivante : # esxcli software vib install –d /tmp/qedentv-bundle-2.0.3.zip Pour mettre à niveau un pilote existant : Suivez les étapes correspondant à...
3–Installation des pilotes Installation du logiciel pilote pour VMware Tableau 3-6. Paramètres facultatifs des pilotes VMware (Suite) Paramètre Description Spécifie le nombre de files d'attente de mise à l'échelle en réception utilisées par l'hôte ou par le trafic en tunnel de LAN virtuel extensible (VXLAN) pour une fonction physique (PF).
3–Installation des pilotes Installation du logiciel pilote pour VMware Paramètres par défaut des pilotes VMware Tableau 3-7 énumère les valeurs par défaut des paramètres des pilotes VMware. Tableau 3-7. Paramètres par défaut des pilotes VMware Paramètre Par défaut Speed (Vitesse) Négociation automatique avec annonce de toutes les vitesses.
3–Installation des pilotes Installation du logiciel pilote pour VMware Suppression du pilote VMware Pour supprimer le fichier .vib (qedentv), entrez la commande suivante : # esxcli software vib remove --vibname qedentv Pour supprimer le pilote, entrez la commande suivante : # vmkload_mod -u qedentv Prise en charge de FCoE Tableau 3-8...
: Double-cliquez sur l'icône représentant le fichier du progiciel de mise à jour Dell du micrologiciel. L'écran de démarrage du progiciel de mise à jour Dell apparaît, comme illustré à la Figure 4-1. Cliquez sur Install (Installer) pour continuer.
Page 59
Le programme d'installation indique qu'il est en train de charger le nouveau micrologiciel, tel qu'illustré à la Figure 4-2. Figure 4-2. Progiciel de mise à jour Dell : Chargement du nouveau micrologiciel Une fois le chargement terminé, le programme d'installation affiche le résultat de l'installation, tel qu'illustré à la Figure 4-3.
Page 60
4–Mise à niveau du micrologiciel Exécution du DUP en double-cliquant Figure 4-3. Progiciel de mise à jour Dell : Résultats de l'installation Cliquez sur Yes (Oui) pour redémarrer le système. Cliquez sur Finish (Terminer) pour terminer l'installation, tel qu'illustré à la Figure 4-4.
Pour exécuter le DUP du micrologiciel depuis une ligne de commande : Tapez la commande suivante : C:\> Network_Firmware_2T12N_WN32_<version>_X16.EXE Figure 4-5 indique les options qui peuvent être utilisées pour personnaliser l'installation du progiciel de mise à jour Dell. Figure 4-5. Options de ligne de commande du DUP AH0054602-02 F...
Installed version: 08.07.26 Continue? Y/N:Y Y entered; update was forced by user Executing update... WARNING: DO NOT STOP THIS PROCESS OR INSTALL OTHER DELL PRODUCTS WHILE UPDATE IS IN PROGRESS. THESE ACTIONS MAY CAUSE YOUR SYSTEM TO BECOME UNSTABLE! ................
Page 63
4–Mise à niveau du micrologiciel Exécution du DUP à l'aide du fichier .bin Device: BCM57810 10 Gigabit Ethernet rev 10 (p2p2) Application: BCM57810 10 Gigabit Ethernet rev 10 (p2p2) Update success. Would you like to reboot your system now? Continue? Y/N:Y AH0054602-02 F...
Configuration de prédémarrage de l'adaptateur Au cours du processus d'amorçage hôte, vous pouvez choisir de cliquer sur Pause et d'effectuer des tâches de gestion de l'adaptateur à l'aide de l'application Human Infrastructure Interface (HII). Il s'agit des tâches suivantes : ...
5–Configuration de prédémarrage de l'adaptateur Mise en route Mise en route Pour démarrer l'application HII : Ouvrez la fenêtre de configuration du système (System Setup) de votre plateforme. Pour plus d'informations sur le lancement de la configuration du système, consultez le manuel d'utilisation de votre système. Dans la fenêtre de configuration du système (Figure 5-1), sélectionnez...
Page 66
5–Configuration de prédémarrage de l'adaptateur Mise en route Figure 5-3. Page de configuration principale Sous Configuration au niveau du périphérique, définissez le Mode de partitionnement sur NPAR pour ajouter l'option Configuration de partitionnement NIC à la page de configuration principale, de la façon indiquée dans la Figure 5-4.
5–Configuration de prédémarrage de l'adaptateur Mise en route Dans la Figure 5-3 et la Figure 5-4, la page de configuration principale montre les éléments suivants : Propriétés d'image du micrologiciel (voir « Affichage des propriétés d'image du micrologiciel » à la page Configuration au niveau du périphérique (voir «...
5–Configuration de prédémarrage de l'adaptateur Affichage des propriétés d'image du micrologiciel Tableau 5-1. Propriétés de l'adaptateur (Suite) Propriété d'adaptateur Description Adresse MAC permanente de déchargement iSCSI de Adresse MAC iSCSI périphérique attribuée par le fabricant Adresse MAC virtuelle Adresse MAC de déchargement iSCSI de périphérique définie par l'utilisateur iSCSI Adresse MAC permanente de déchargement FCoE de...
5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres au niveau du périphérique Version de pilote EFI est la version de pilote d'Extensible Firmware Interface (EFI). Version de micrologiciel L2B est la version de micrologiciel de déchargement pour le démarrage. Figure 5-5.
Page 70
5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres au niveau du périphérique Pour configurer les paramètres au niveau du périphérique : Sur la page de configuration principale, sélectionnez Configuration au niveau du périphérique (voir la Figure 5-3 à la page 43), puis appuyez sur ENTRÉE.
5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres NIC Configuration des paramètres NIC La configuration NIC comprend le réglage des paramètres suivants : Vitesse de liaison Mode NIC + RDMA Prise en charge du protocole RDMA Mode d'amorçage ...
Page 72
5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres NIC 25 Gbps active le mode de vitesse fixe 25GbE sur le port. Ce mode n'est pas disponible sur tous les adaptateurs. SmartAN (valeur par défaut) active le mode de vitesse de liaison FastLinQ SmartAN™...
Page 73
5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres NIC iSCSI active le démarrage à distance iSCSI sur la voie de déchargement de matériel. Le mode iSCSI est disponible uniquement si le Déchargement iSCSI est activé sur la troisième partition en mode NPAR (voir «...
5–Configuration de prédémarrage de l'adaptateur Configuration de Data Center Bridging À l'invite, cliquez sur Oui pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Pour configurer le mode de démarrage du port : Pour une installation à distance PXE UEFI, sélectionnez PXE comme Mode de démarrage.
Page 75
5–Configuration de prédémarrage de l'adaptateur Configuration de Data Center Bridging Sur la page de Paramètres de Data Center Bridging (DCB), entrez la Priorité RoCE v1 sous forme de valeur de 0 à 7. Ce paramètre indique le numéro de priorité de classe de trafic DCB utilisé pour le trafic RoCE et doit correspondre au nombre utilisé...
5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage FCoE Configuration du démarrage FCoE REMARQUE Le menu de configuration de démarrage FCoE est uniquement visible si le Mode de déchargement FCoE est activé sur la deuxième partition en mode NPAR (voir Figure 5-18 à...
5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage iSCSI Figure 5-10. Configuration de cible FCoE Cliquez sur Précédent. À l'invite, cliquez sur Oui pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Configuration du démarrage iSCSI REMARQUE Le menu de Configuration de démarrage iSCSI est uniquement visible si le Mode de déchargement iSCSI est activé...
Page 78
5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage iSCSI Configuration d'initiateur iSCSI Configuration de la première cible iSCSI Configuration de la deuxième cible iSCSI Appuyez sur ENTRÉE. Choisissez les valeurs des paramètres de configuration iSCSI appropriés : ...
Page 79
5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage iSCSI Cliquez sur Précédent. À l'invite, cliquez sur Oui pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Figure 5-11. Paramètres généraux iSCSI AH0054602-02 F...
Page 80
5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage iSCSI Figure 5-12. Paramètres de configuration de l'initiateur iSCSI Figure 5-13. Paramètres de la première cible iSCSI AH0054602-02 F...
Page 81
5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage iSCSI Figure 5-14. Paramètres de la deuxième cible iSCSI AH0054602-02 F...
5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Configuration des partitions Vous pouvez configurer des plages de bande passante pour chaque partition sur l'adaptateur. Pour des informations spécifiques à la configuration de partition sous VMware ESXi 6.0/6.5, voir Partitionnement pour VMware ESXi 6.0 et ESXi 6.5.
Page 83
5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Sur la page Allocation de la bande passante globale (Figure 5-16), cliquez sur le champ de bande passante d'émission (TX) maximale et minimale pour chaque partition, afin d'allouer de la bande passante. Il y a huit partitions par port en mode double port.
Page 84
5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Bande passante TX maximale de la partition n indique la bande passante maximale d'émission (TX) de la partition sélectionnée, exprimée en pourcentage de la vitesse de liaison maximale du port physique. Plage admise : de à...
Page 85
5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Pour configurer la deuxième partition, sélectionnez Configuration de la partition 2 pour ouvrir la page de configuration de la partition 2. Si le déchargement FCoE est présent, la configuration de la partition 2 (Figure 5-18) affiche les paramètres suivants : ...
Page 86
5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Figure 5-18. Configuration de la partition 2 : Déchargement FCoE Pour configurer la troisième partition, sélectionnez Configuration de la partition 3 pour ouvrir la page de configuration de la partition 3 (Figure 5-17).
5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Pour configurer les partitions Ethernet restantes, y compris la précédente (si elle n'est pas activée pour le déchargement), ouvrez la page pour une partition 2 ou une partition Ethernet supérieure (voir la Figure 5-20).
Page 88
5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Une réinstallation du pilote est requise parce que les fonctions de stockage peuvent conserver l'énumération plutôt que , comme illustré lorsque vous vmnicX vmhbaX entrez la commande suivante sur le système : # esxcfg-scsidevs -a vmnic4 qedf...
Configuration de RoCE Ce chapitre décrit la configuration de RDMA over converged Ethernet (RoCE v1 et v2) sur l'Adaptateur série 41xxx, le commutateur Ethernet, et l'hôte Windows ou Linux, y compris : Systèmes d'exploitation pris en charge et OFED ...
6–Configuration de RoCE Planification pour RoCE Tableau 6-1. Prise en charge des SE pour RoCE v1, RoCE v2, iWARP et OFED (Suite) Système d'exploitation Préinstallé OFED 3.18-3 GA OFED-4.8-1 GA RHEL 7.3 RoCE v1, RoCE v2, iWARP, RoCE v1, RoCE v2, iSER iWARP RHEL 7.4...
6–Configuration de RoCE Préparation du commutateur Ethernet Configuration du commutateur Ethernet Cisco Nexus 6000 Les étapes de configuration du commutateur Ethernet Cisco Nexus 6000 pour RoCE comprennent la configuration des adressages de classes, la configuration des adressages de stratégies, l'application de la stratégie et l'affectation d'un ID VLAN au port de commutateur.
1,5 Configuration du commutateur Ethernet Dell Z9100 Pour configurer le commutateur Ethernet Dell Z9100 pour RoCE, voir la procédure dans Annexe C Configuration du commutateur Dell Z9100.
Page 94
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Tableau 6-2. Propriétés avancées pour RoCE (Suite) Propriétés Valeur ou description Mode RDMA RoCE v1 ou RoCE v2. La valeur iWARP s'applique uniquement lors de la configuration des ports pour iWARP, comme décrit au Chapitre 7 Configuration d'iWARP.
Page 95
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server À l'aide de Windows PowerShell, vérifiez que RDMA est activé sur l'adaptateur. La commande répertorie les Get-NetAdapterRdma adaptateurs qui prennent en charge RDMA (les deux ports sont activés). REMARQUE Si vous configurez RoCE sur Hyper-V, n'attribuez pas d'ID de VLAN à...
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Affichage des compteurs RDMA La procédure suivante s’applique également à iWARP. Pour afficher les compteurs RDMA pour RoCE : Lancez Performance Monitor. Ouvrez la boîte de dialogue Ajouter des compteurs. La Figure 6-2 montre un exemple.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server REMARQUE Si les compteurs Cavium RDMA ne sont pas répertoriés dans la boîte de dialogue Moniteur de performance Ajouter des compteurs, ajoutez- les manuellement en émettant la commande suivante à partir de l’emplacement du pilote : Sélectionnez l'un des types de compteur suivants : Contrôle de la congestion FastLinQ Cavium :...
Page 98
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Figure 6-3 présente des exemples de sorties de la surveillance du compteur. Figure 6-3. Performance Monitor : Compteurs FastLinQ Cavium Tableau 6-3 fournit des détails à propos des compteurs d’erreurs. Table 6-3.
Page 99
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Table 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur S’applique S’applique d’erreurs Description Dépannage à RoCE ? à iWARP ? RDMA Mauvaise L’interlocuteur a retourné une — réponse du réponse mal formulée.
Page 100
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Table 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur S’applique S’applique d’erreurs Description Dépannage à RoCE ? à iWARP ? RDMA Demande Le côté distant a reçu un Les causes possibles distante du message non valide sur le canal.
Page 101
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Table 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur S’applique S’applique d’erreurs Description Dépannage à RoCE ? à iWARP ? RDMA Nombre de Le nombre maximum de Le pair à distance a tentatives nouvelles tentatives dues au RNR peut-être cessé...
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Table 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur S’applique S’applique d’erreurs Description Dépannage à RoCE ? à iWARP ? RDMA Demande L’interlocuteur a détecté un Indique un mauvais distante de message entrant non valide comportement l'interlocuteur...
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Configuration de RoCE pour RHEL Pour que vous puissiez configurer RoCE sur l'adaptateur, vous devez avoir installé et configuré OFED (Open Fabrics Enterprise Distribution) sur l'hôte RHEL. Pour préparer OFED préinstallé pour RHEL : Pendant l'installation ou la mise à...
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux perftest-x.x.x.x86_64.rpm (requis pour les applications de bande passante et de latence) Installez les pilotes Linux, comme décrit à la section « Installation des pilotes Linux avec RDMA » à la page Vérification de la configuration RoCE sous Linux Après avoir installé...
Page 105
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux qede 96670 1 qedr 2075255 2 qede,qedr ib_core 88311 qedr, rdma_cm, ib_cm, ib_sa,iw_cm,xprtrdma,ib_mad,ib_srp, ib_ucm,ib_iser,ib_srpt,ib_umad, ib_uverbs,rdma_ucm,ib_ipoib,ib_isert Configurez l'adresse IP et activez le port à l'aide d'une méthode de configuration, comme ifconfig : # ifconfig ethX 192.168.10.10/24 up Entrez la commande : Pour chaque fonction PCI, vous devriez...
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Sur le client, entrez la commande suivante : ibv_rc_pingpong -d <ib-dev> -g 0 <server L2 IP address> Voici des exemples de tests ping pong réussis sur le serveur et le client : Ping sur le serveur : root@captain:~# ibv_rc_pingpong -d qedr0 -g 0 local address:...
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux fe80:0000:0000:0000:020e:1e00:0350:c5b0 VLAN ID 3 GID[ REMARQUE La valeur GID par défaut est zéro (0) pour les paramètres dos à dos ou pause. Pour les configurations de serveur/commutateur, vous devez identifier la valeur GID correcte. Si vous utilisez un commutateur, consultez la documentation de configuration correspondante pour connaître les paramètres appropriés.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux GID[ 0000:0000:0000:0000:0000:ffff:1e01:010a GID[ 0000:0000:0000:0000:0000:ffff:1e01:010a GID[ 3ffe:ffff:0000:0f21:0000:0000:0000:0004 GID[ 3ffe:ffff:0000:0f21:0000:0000:0000:0004 GID[ 0000:0000:0000:0000:0000:ffff:c0a8:6403 GID[ 0000:0000:0000:0000:0000:ffff:c0a8:6403 Vérification de l'adresse et de l'index GID de RoCE v1 ou v2 à partir des paramètres sys et class Utilisez l'une des options suivantes pour vérifier l'adresse et l'index GID de RoCE v1 ou RoCE v2 à...
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux REMARQUE Vous devez spécifier les valeurs de l'index GID de RoCE v1 ou RoCE v2 en fonction de la configuration de serveur ou de commutateur (Pause/PFC). Utilisez l'index GID pour l'adresse IPv6 locale de liaison, l'adresse IPv4 ou l'adresse IPv6.
Page 110
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Pour vérifier RoCE v2 via des sous-réseaux différents Définissez la configuration de routage du serveur et du client en utilisant la configuration DCBX-PFC. Paramètres système : Adresse IP de VLAN du serveur : 192.168.100.3 et Passerelle :192.168.100.1 Adresse IP de VLAN du client : 192.168.101.3 et Passerelle :192.168.101.1...
Page 111
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Paramètres de commutateur du serveur : Figure 6-4. Paramètres de commutateur, serveur Paramètres de commutateur du client : Figure 6-5. Paramètres de commutateur, client AH0054602-02 F...
Page 112
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Configuration des paramètres de RoCE v1 ou RoCE v2 pour les applications RDMA_CM Pour configurer RoCE, utilisez les scripts suivants du paquet source FastLinQ : # ./show_rdma_cm_roce_ver.sh qedr0 is configured to IB/RoCE v1 qedr1 is configured to IB/RoCE v1 # ./config_rdma_cm_roce_ver.sh v2 configured rdma_cm for qedr0 to RoCE v2...
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Configuration de RoCE sur l'adaptateur pour VMware ESX Cette section fournit les procédures et informations suivantes pour la configuration de RoCE : Configuration des interfaces RDMA Configuration de MTU ...
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Par exemple : # esxcli network vswitch standard add -v roce_vs Ceci permet de créer un nouveau commutateur virtuel appelé roce_vs. Pour associer le port NIC QLogic au vSwitch, entrez la commande suivante : # esxcli network vswitch standard uplink add -u <uplink device>...
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Par exemple : # esxcfg-vswitch -m 4000 roce_vs # esxcli rdma device list Name Driver State Speed Paired Uplink Description ------- ------- ------ ---- ------- ------------- ------------------------------- vmrdma0 qedrntv Active 2048 25 Gbps...
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Shared receive queues allocated: 0 Shared receive queue events: 0 Protection domains allocated: 1 Memory regions allocated: 3 Address handles allocated: 0 Memory windows allocated: 0 Configuration d'un périphérique RDMA paravirtuel (PVRDMA) Pour configurer un PVRDMA à...
Page 117
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Cliquez avec le bouton droit sur RoCE-VDS, puis cliquez sur Ajouter et gérer les hôtes. Sous Ajouter et gérer les hôtes, configurez les éléments suivants : Affecter les liaisons montantes. Sélectionnez dans la liste de ...
Page 118
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Sur la page Récapitulatif du pare-feu, cliquez sur Modifier. Dans la boîte de dialogue Modifier le profil de sécurité, en dessous de Nom, faites défiler, cochez la case pvrdma, puis cochez la case Définir pare-feu.
Configuration d'iWARP Internet Wide Area RDMA Protocol (iWARP) est un protocole de réseau informatique qui met en œuvre RDMA pour un transfert de données efficace sur les réseaux IP. iWARP est conçu pour de multiples environnements, y compris les réseaux locaux, les réseaux de stockage, les réseaux de centres de données et les WAN.
7–Configuration d'iWARP Configuration d'iWARP sous Windows Sur la page de configuration NIC : Définissez le Mode NIC + RDMA sur Activé. Définissez la Prise en charge du protocole RDMA sur iWARP. Cliquez sur Précédent. Sur la page de configuration principale, cliquez sur Terminer. Dans la boîte de dialogue Avertissement –...
Page 121
7–Configuration d'iWARP Configuration d'iWARP sous Windows À l'aide de Windows PowerShell, vérifiez que le RDMA est activé. La sortie de la commande (Figure 7-1) montre les adaptateurs qui Get-NetAdapterRdma prennent en charge RDMA. Figure 7-1. Commande Windows PowerShell : Get-NetAdapterRdma À...
Page 122
7–Configuration d'iWARP Configuration d'iWARP sous Windows Figure 7-3. Perfmon : Ajouter des compteurs Si un trafic iWARP est exécuté, les compteurs apparaissent comme indiqué dans l'exemple de la Figure 7-4. Figure 7-4. Perfmon : Vérification du trafic iWARP AH0054602-02 F...
7–Configuration d'iWARP Configuration d'iWARP sous Linux REMARQUE Pour plus d'informations sur l’affichage des compteurs Cavium RDMA dans Windows, voir « Affichage des compteurs RDMA » à la page 73 Pour vérifier la connexion SMB : À l'invite de commande, entrez la commande de la manière net use suivante :...
7–Configuration d'iWARP Configuration d'iWARP sous Linux Applications iWARP prises en charge Exécution de perftest pour iWARP Configuration de NFS-RDMA Prise en charge d'iWARP RDMA-Core sous SLES 12 SP3, RHEL 7.4, et OFED 4.8x Installation du pilote Installez les pilotes RDMA de la façon indiquée dans le Chapitre 3 Installation des pilotes.
7–Configuration d'iWARP Configuration d'iWARP sous Linux L'exemple suivant montre les entrées de commande pour changer le protocole RDMA en iWARP sur plusieurs interfaces NPAR : # modprobe qed rdma_protocol_map=04:00.1-3,04:00.3-3,04:00.5-3, 04:00.7-3,04:01.1-3,04:01.3-3,04:01.5-3,04:01.7-3 #modprobe -v qedr # ibv_devinfo |grep iWARP transport: iWARP (1) transport: iWARP (1) transport:...
7–Configuration d'iWARP Configuration d'iWARP sous Linux active_mtu: 1024 (3) sm_lid: port_lid: port_lmc: 0x00 link_layer: Ethernet Applications iWARP prises en charge Les applications RDMA prises en charge par Linux pour iWARP comprennent ce qui suit : ibv_devinfo, ib_devices ib_send_bw/lat, ib_write_bw/lat, ib_read_bw/lat, ib_atomic_bw/lat Pour iWARP, toutes les applications doivent utiliser le gestionnaire de communication RDMA (rdma_cm) avec l'option ...
7–Configuration d'iWARP Configuration d'iWARP sous Linux TX depth : 128 CQ Moderation : 100 : 1024[B] Link type : Ethernet GID index Max inline data : 0[B] rdma_cm QPs : ON Data ex. method : rdma_cm ---------------------------------------------------------------------------- local address: LID 0000 QPN 0x0192 PSN 0xcde932 GID: 00:14:30:196:192:110:00:00:00:00:00:00:00:00:00:00 remote address: LID 0000 QPN 0x0098 PSN 0x46fffc GID: 00:14:30:196:195:62:00:00:00:00:00:00:00:00:00:00...
Page 128
7–Configuration d'iWARP Configuration d'iWARP sous Linux Incluez le port RDMA par défaut 20049 dans ce fichier comme suit : # echo rdma 20049 > /proc/fs/nfsd/portlist Pour mettre les répertoires locaux à la disposition des clients NFS à monter, entrez la commande comme suit : exportfs # exportfs -v...
7–Configuration d'iWARP Configuration d'iWARP sous Linux Prise en charge d'iWARP RDMA-Core sous SLES 12 SP3, RHEL 7.4, et OFED 4.8x La bibliothèque d'espace utilisateur libqedr fait partie du rdma-core. Toutefois, le libqedr non préinstallé ne prend pas en charge SLES 12 SP3, RHEL 7.4, OFED 4.8x.
Page 130
7–Configuration d'iWARP Configuration d'iWARP sous Linux ping data: rdma-ping-2: CDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrst ping data: rdma-ping-3: DEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstu ping data: rdma-ping-4: EFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstuv client DISCONNECT EVENT... Pour exécuter des applications d'OFED préinstallé, telles que perftest et d'autres applications InfiniBand, entrez la commande suivante pour définir le chemin d'accès à...
Configuration d'iSER Ce chapitre fournit les procédures de configuration des extensions iSCSI pour RDMA (iSCSI Extensions for RDMA – iSER) sous Linux (RHEL et SLES) et ESXi 6.7, y compris : Avant de commencer Configuration d'iSER pour RHEL «...
8–Configuration d'iSER Configuration d'iSER pour RHEL Configuration d'iSER pour RHEL Pour configurer iSER pour RHEL : Installez OFED préinstallé, comme indiqué à la section « Configuration de RoCE pour RHEL » à la page 80. Les versions d'OFED non préinstallées ne sont pas prises en charge pour iSER parce que le module ib_isert n'est pas disponible dans les versions d'OFED non préinstallées 3.18-2 GA/3.18-3 GA.
Page 133
8–Configuration d'iSER Configuration d'iSER pour RHEL Figure 8-1 montre un exemple de ping RDMA réussi. Figure 8-1. Ping RDMA réussi Vous pouvez utiliser une cible TCM-LIO Linux pour tester iSER. La configuration est identique pour les cibles iSCSI, mais vous entrez la commande sur les portails concernés.
Page 134
8–Configuration d'iSER Configuration d'iSER pour RHEL Pour changer le mode de transport à iSER, entrez la commande . Par exemple : iscsiadm iscsiadm -m node -T iqn.2015-06.test.target1 -o update -n iface.transport_name -v iser Pour vous connecter à la cible iSER, entrez la commande iscsiadm Par exemple : iscsiadm -m node -l -p 192.168.100.99:3260 -T...
8–Configuration d'iSER Configuration d'iSER pour SLES 12 Pour vérifier un nouveau périphérique iSCSI, comme le montre la Figure 8-4, entrez la commande lsscsi Figure 8-4. Vérification de nouveau périphérique iSCSI Configuration d'iSER pour SLES 12 Étant donné que targetcli n'est pas préinstallé sur SLES 12.x, vous devez effectuer la procédure suivante.
8–Configuration d'iSER Utilisation d'iSER avec iWARP sous RHEL et SLES Démarrez l'utilitaire targetcli, puis configurez vos cibles sur le système cible iSER. REMARQUE Les versions de targetcli ne sont pas les mêmes sous RHEL et SLES. Veillez à utiliser les backstores correctes pour configurer vos cibles. ...
Page 137
8–Configuration d'iSER Utilisation d'iSER avec iWARP sous RHEL et SLES Figure 8-5 montre la configuration de la cible pour LIO. Figure 8-5. Configuration de cible LIO Pour configurer un initiateur pour iWARP : Pour détecter la cible LIO iSER à l'aide du port 3261, entrez la commande comme suit : iscsiadm # iscsiadm -m discovery -t st -p 192.168.21.4:3261 -I iser...
8–Configuration d'iSER Optimisation des performances Linux Optimisation des performances Linux Considérez les améliorations de configuration des performances Linux suivantes décrites dans cette section. Configuration des UC sur le mode Performances maximales Configuration des paramètres sysctl du noyau Configuration des paramètres d'affinité...
8–Configuration d'iSER Configuration d’iSER sous ESXi 6.7 Configuration des paramètres d'affinité d'IRQ L'exemple suivant configure respectivement les cœurs d'UC 0, 1, 2 et 3 pour interrompre les demandes (IRQ) XX, YY, ZZ et XYZ. Effectuez ces étapes pour chaque IRQ attribuée à un port (par défaut, huit files d'attente par port). systemctl disable irqbalance systemctl stop irqbalance Affiche les IRQ attribuées à...
Configuration iSCSI Ce chapitre fournit les informations suivantes concernant la configuration de iSCSI : Démarrage iSCSI « Configuration du démarrage iSCSI » à la page 127 « Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI »...
9–Configuration iSCSI Démarrage iSCSI Configuration du démarrage iSCSI La configuration du démarrage iSCSI comprend : Sélection du mode de démarrage iSCSI préféré Configuration de la cible iSCSI Configuration des paramètres d'initialisation iSCSI Sélection du mode de démarrage iSCSI préféré L'option de mode de démarrage apparaît sous Configuration iSCSI (Figure 9-1)
9–Configuration iSCSI Démarrage iSCSI Configuration de la cible iSCSI La configuration de la cible iSCSI varie en fonction des fournisseurs cibles. Pour plus d'informations sur la configuration de la cible iSCSI, reportez-vous à la documentation du fournisseur. Pour configurer la cible iSCSI : Sélectionnez la procédure appropriée en fonction de votre cible iSCSI : ®...
Page 146
9–Configuration iSCSI Démarrage iSCSI Table 9-1. Options de configuration Option Description Cette option est spécifique à IPv4. Contrôle si le logiciel hôte de TCP/IP parameters via DHCP démarrage iSCSI obtient les informations d'adresse IP via DHCP (Paramètres TCP/IP via DHCP) (Enabled) (Activé) ou par le biais d'une configuration IP statique (Disabled) (Désactivé).
9–Configuration iSCSI Démarrage iSCSI Configuration du mode de démarrage UEFI de l'adaptateur Pour configurer le mode de démarrage : Redémarrez votre système. Accédez au menu Utilitaires système (Figure 9-2). REMARQUE Le démarrage SAN est pris en charge uniquement dans l'environnement UEFI.
Page 148
9–Configuration iSCSI Démarrage iSCSI Dans Configuration du système, Paramètres de périphérique, sélectionnez le périphérique QLogic (Figure 9-3). Reportez-vous au guide d'utilisation OEM pour accéder au menu de configuration de périphérique PCI. Figure 9-3. Configuration du système : Utilitaire de configuration des paramètres de périphérique AH0054602-02 F...
Page 149
9–Configuration iSCSI Démarrage iSCSI Sur la page de configuration principale, sélectionnez Configuration NIC (Figure 9-4), et appuyez sur ENTRÉE. Figure 9-4. Sélection de la configuration NIC AH0054602-02 F...
9–Configuration iSCSI Configuration du démarrage iSCSI Sur la page « Configuration NIC » (Figure 9-5), sélectionnez Protocole de démarrage, et appuyez sur ENTRÉE pour sélectionner UEFI iSCSI HBA (exige le mode NPAR). Figure 9-5. Configuration du système : Configuration NIC, Protocole de démarrage Choisissez l'une des options de configuration suivantes : ...
Page 151
9–Configuration iSCSI Configuration du démarrage iSCSI Pour configurer les paramètres de démarrage iSCSI par le biais d'une configuration statique : Sur la page de configuration principale HII du périphérique, sélectionnez Configuration iSCSI (Figure 9-6), et appuyez sur ENTRÉE. Figure 9-6. Configuration du système : Configuration iSCSI Sur la page de configuration iSCSI, sélectionnez Paramètres généraux iSCSI (Figure...
Page 152
9–Configuration iSCSI Configuration du démarrage iSCSI Sur la page des paramètres généraux iSCSI (Figure 9-8), appuyez sur les touches FLÈCHE VERS LE HAUT et FLÈCHE VERS LE BAS pour sélectionner un paramètre, puis appuyez sur la touche ENTRÉE pour sélectionner ou saisir les valeurs suivantes : ...
Page 153
9–Configuration iSCSI Configuration du démarrage iSCSI Sélectionnez Paramètres de l'initiateur iSCSI (Figure 9-9) et appuyez sur ENTRÉE. Figure 9-9. Configuration du système : Sélectionner les paramètres d'initiateur iSCSI Sur la page des paramètres d'initiateur iSCSI (Figure 9-10), sélectionnez les paramètres suivants, puis entrez une valeur pour chacun d'eux : ...
Page 154
9–Configuration iSCSI Configuration du démarrage iSCSI REMARQUE Notez ce qui suit pour les éléments précédents comportant des astérisques (*) : Vous verrez IPv6 ou IPv4 (par défaut) en fonction de la version IP définie sur la page des paramètres généraux iSCSI (Figure 9-8 à...
Page 155
9–Configuration iSCSI Configuration du démarrage iSCSI Sélectionnez Paramètres de la première cible iSCSI (Figure 9-11) et appuyez sur ENTRÉE. Figure 9-11. Configuration du système : Sélection des paramètres de la première cible iSCSI Sur la page Paramètres cibles iSCSI, définissez l'option Connexion sur Activé...
Page 156
9–Configuration iSCSI Configuration du démarrage iSCSI Figure 9-12. Configuration du système : Paramètres de la première cible iSCSI Retournez à la page Configuration du démarrage iSCSI, puis appuyez sur la touche ÉCHAP. AH0054602-02 F...
Page 157
9–Configuration iSCSI Configuration du démarrage iSCSI Si vous souhaitez configurer un deuxième périphérique cible iSCSI, sélectionnez Paramètres de la deuxième cible iSCSI (Figure 9-13), et entrez les valeurs des paramètres comme vous l'avez fait à l'étape Sinon, passez à l'étape Figure 9-13.
9–Configuration iSCSI Configuration du démarrage iSCSI Cliquez sur Oui pour enregistrer les modifications, ou suivez les instructions de l'OEM pour enregistrer la configuration au niveau du périphérique. Par exemple, cliquez sur Oui pour confirmer la modification des paramètres (Figure 9-14). Figure 9-14.
Page 159
9–Configuration iSCSI Configuration du démarrage iSCSI Pour plus d'informations sur la configuration des options, reportez-vous au Tableau 9-1 à la page 123. REMARQUE Lors de l'utilisation d'un serveur DHCP, les entrées du serveur DNS sont écrasées par les valeurs provenant du serveur DHCP. Cela se produit même si les valeurs fournies localement sont valides et que le serveur DHCP ne transmet aucune information concernant le serveur DNS.
9–Configuration iSCSI Configuration du démarrage iSCSI ID de LAN virtuel : Selon les besoins Mode de démarrage LAN virtuel : Activé Figure 9-15. Configuration du système : paramètres généraux iSCSI Activation de l'authentification CHAP Assurez-vous que l'authentification CHAP est activée sur la cible. Pour activer l'authentification CHAP : Accédez à...
9–Configuration iSCSI Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI Dans la fenêtre Paramètres de la première cible iSCSI, entrez les valeurs utilisées lors de la configuration de la cible iSCSI : ID CHAP (facultatif si CHAP bidirectionnel) Secret CHAP (facultatif si CHAP bidirectionnel ;...
9–Configuration iSCSI Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI Tableau 9-2 répertorie les paramètres de l'option DHCP 17. Table 9-2. Définition des paramètres de l'option DHCP 17 Paramètre Définition Une chaîne littérale "iscsi:" Adresse IP ou nom de domaine complet (FQDN) de la cible iSCSI <servername>...
9–Configuration iSCSI Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI Tableau 9-3 répertorie les sous-options de l'option DHCP 43. Table 9-3. Définition des sous-options de l'option DHCP 43 Sous-option Définition Informations sur la première cible iSCSI au format du chemin racine standard : "iscsi:"<servername>":"<protocol>":"<port>":"<LUN>": "<targetname>"...
9–Configuration iSCSI Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI Configuration de DHCP pour le démarrage iSCSI pour IPv6 Le serveur DHCPv6 peut fournir plusieurs options, y compris la configuration IP sans état ou avec état, ainsi que des informations pour le client DHCPv6. Pour un démarrage iSCSI, les adaptateurs QLogic prennent en charge les configurations DHCP suivantes : ...
9–Configuration iSCSI Déchargement iSCSI sous Windows Server Le contenu de l'option 17 devrait être le suivant : <2-byte Option Number 201|202|203> <2-byte length> <data> Configuration des VLAN pour le démarrage iSCSI Le trafic iSCSI sur le réseau peut être isolé dans un VLAN de couche 2 pour le séparer du trafic général.
9–Configuration iSCSI Déchargement iSCSI sous Windows Server Si vous détenez une licence adéquate pour le déchargement iSCSI, vous pouvez configurer votre Adaptateur série 41xxx compatible iSCSI de sorte à décharger le traitement iSCSI du processeur hôte. Les sections suivantes décrivent la façon de permettre au système de bénéficier de la fonction de déchargement iSCSI de QLogic.
Page 167
9–Configuration iSCSI Déchargement iSCSI sous Windows Server Sur la page de configuration (Figure 9-17), cliquez sur Modifier pour modifier le nom de l'initiateur. Figure 9-17. Propriétés de l'initiateur d'iSCSI, page de configuration Dans la boîte de dialogue Nom de l'initiateur iSCSI, entrez le nouveau nom IQN de l'initiateur, puis cliquez sur OK.
Page 168
9–Configuration iSCSI Déchargement iSCSI sous Windows Server Dans Propriétés de l'initiateur d'iSCSI, cliquez sur l'onglet Détection. Sur la page Détection (Figure 9-19), sous Portails cibles, cliquez sur Détecter le portail. Figure 9-19. Initiateur iSCSI – Détecter le portail cible AH0054602-02 F...
Page 169
9–Configuration iSCSI Déchargement iSCSI sous Windows Server Dans la boîte de dialogue Détecter le portail cible (Figure 9-20) : Dans la zone Adresse IP ou Nom DNS, entrez l'adresse IP de la cible. Cliquez sur Avancé. Figure 9-20. Adresse IP du portail cible Dans la boîte de dialogue Paramètres avancés (Figure 9-21), procédez...
Page 170
9–Configuration iSCSI Déchargement iSCSI sous Windows Server Cliquez sur OK. Figure 9-21. Sélection de l'adresse IP de l'initiateur Dans Propriétés de l'initiateur iSCSI, page Détection, cliquez sur OK. AH0054602-02 F...
Page 171
9–Configuration iSCSI Déchargement iSCSI sous Windows Server Cliquez sur l'onglet Cibles, puis sur la page Cibles (Figure 9-22), cliquez sur Connexion. Figure 9-22. Connexion à la cible iSCSI AH0054602-02 F...
9–Configuration iSCSI Déchargement iSCSI sous Windows Server Dans la boîte de dialogue Connexion à la cible, (Figure 9-23), cliquez sur Avancé. Figure 9-23. Boîte de dialogue Connexion à la cible Dans la boîte de dialogue Adaptateur local, sélectionnez l'adaptateur <nom ou modèle>...
9–Configuration iSCSI Déchargement iSCSI sous Windows Server Question : Comment savoir si la connexion est déchargée ? Réponse : Utilisez l'initiateur logiciel iSCSI Microsoft. Depuis une ligne de commande, saisissez . Depuis Initiator oiscsicli sessionlist Name (Nom de l'initiateur), une connexion iSCSI déchargée affiche une entrée commençant par .
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Suivez les instructions à l'écran. Sur la fenêtre qui affiche la liste des disques disponibles pour l'installation, le disque de la cible iSCSI devrait être visible. Il s'agit d'un disque connecté via le protocole de démarrage iSCSI et situé...
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Cette section fournit les informations suivantes sur le déchargement iSCSI sous Linux : Différences avec bnx2i Configuration de qedi.ko Vérification des interfaces iSCSI sous Linux Considérations relatives à Open-iSCSI et au démarrage à partir de SAN Différences avec bnx2i Il existe plusieurs différences importantes entre qedi –...
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Vérification des interfaces iSCSI sous Linux Après l'installation et le chargement du module du noyau qedi, vous devez vérifier que les interfaces iSCSI ont été détectées correctement. Pour vérifier les interfaces iSCSI sous Linux : Pour vérifier que le module qedi et les modules du noyau associés sont activement chargés, entrez la commande suivante : # lsmod | grep qedi...
Page 177
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Pour vous assurer que le service iscsiuio est exécuté, entrez la commande suivante : # systemctl status iscsiuio.service iscsiuio.service - iSCSI UserSpace I/O driver Loaded: loaded (/usr/lib/systemd/system/iscsiuio.service; disabled; vendor preset: disabled) Active: active (running) since Fri 2017-01-27 16:33:58 IST; 6 days ago Docs: man:iscsiuio(8) Process: 3745 ExecStart=/usr/sbin/iscsiuio (code=exited, status=0/SUCCESS)
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Pour vérifier que la session iSCSI a été créée, entrez la commande suivante : # iscsiadm -m session qedi: [297] 192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000007 (non-flash) Pour vérifier les périphériques iSCSI, entrez la commande iscsiadm # iscsiadm -m session -P3 ************************ Attached SCSI devices:...
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Pour démarrer à partir de SAN à l'aide des solutions Dell OEM : Sur la page « Configuration NIC », sélectionnez Protocole de démarrage, et appuyez sur ENTRÉE pour sélectionner Environ. exéc. Prédémarrag hérité.
Page 180
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux # rpm -ivh --force iscsiuio-2.11.5.2-1.rhel6u9.x86_64.rpm Modifiez le fichier , ajoutez la commande suivante, /etc/init.d/iscsid puis enregistrez le fichier : modprobe -q qedi Par exemple : echo -n $"Starting $prog: " modprobe -q iscsi_tcp modprobe -q ib_iser modprobe -q cxgb3i modprobe -q cxgb4i...
Page 181
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Créez un enregistrement Iface pour une interface L4. Tapez la commande suivante : # iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -o new New interface qedi.14:02:ec:ce:dc:71 added Le format de l’enregistrement Iface doit être .
Page 182
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux kernel /vmlinuz-2.6.32-696.el6.x86_64 ro root=/dev/mapper/vg_prebooteit-lv_root rd_NO_LUKS iscsi_firmware LANG=en_US.UTF-8 rd_NO_MD SYSFONT=latarcyrheb-sun16 crashkernel=auto rd_NO_DM rd_LVM_LV=vg_prebooteit/lv_swap KEYBOARDTYPE=pc KEYTABLE=us rd_LVM_LV=vg_prebooteit/lv_root selinux=0 initrd /initramfs-2.6.32-696.el6.x86_64.img Montez le fichier en entrant la commande suivante : initramfs # dracut -f Redémarrez le serveur et ouvrez le HII. Dans le HII, activez le mode déchargement de l’iSCSI.
Page 183
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux #systemctl daemon-reload Redémarrez les services iscsid et iscsiuio en entrant les commandes suivantes : # systemctl restart iscsiuio # systemctl restart iscsid Créez un enregistrement Iface pour l’interface L4 en entrant la commande suivante : # iscsiadm -m iface -I qedi.
Page 184
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Créez un nouveau fichier en entrant la commande suivante : grub.cfg # grub2-mkconfig -o /boot/efi/EFI/redhat/grub.cfg Montez le fichier en entrant la commande suivante : initramfs # dracut -f Redémarrez le serveur et ouvrez le HII. Dans le HII, activez le mode déchargement de l’iSCSI.
Page 185
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Modifiez le fichier et trouvez l’élément suivant : /etc/sysconfig/kernel INITRD_MODULES=”ata_piix ata_generic” Remplacez-le par : INITRD_MODULES=”ata_piix ata_generic qedi” Enregistrez le fichier. Modifiez le fichier , modifiez la /etc/modprobe.d/unsupported-modules valeur pour à 1 et enregistrez le fichier : allow_unsupported_modules allow_unsupported_modules 1 Trouvez et supprimez les fichiers suivants :...
Page 186
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Enregistrez la configuration et redémarrez le serveur. REMARQUE Le système d'exploitation peut maintenant démarrer via l'interface de déchargement. Démarrage iSCSI L4 pour SLES 12 SP1/SP2 à partir de la migration SAN Pour migrer d'une interface sans déchargement vers une interface avec déchargement : Démarrez dans le système d'exploitation iSCSI sans déchargement/L2 démarrage à...
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Démarrage UEFI : pour SLES /boot/efi/EFI/sles/grub.cfg Créez un nouveau fichier en entrant la commande suivante : grub.cfg # grub2-mkconfig -o <new file name> Comparez l’ancien fichier et le nouveau fichier pour grub.cfg grub.cfg vérifier les modifications apportées.
Page 188
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Allez à et mettez le paramètre /etc/default/grub rd.iscsi.ibft rd.iscsi.firmware Tapez la commande suivante : grub2-mkconfig -o /boot/efi/EFI/suse/grub.cfg Pour charger le module multichemin, entrez la commande suivante : modprobe dm_multipath Pour activer le démon multichemin, entrez les commandes suivantes : systemctl start multipathd.service systemctl enable multipathd.service systemctl start multipathd.socket...
9–Configuration iSCSI Configuration du démarrage iSCSI à partir du SAN pour RHEL 7.4 et les versions ultérieures Allez sur la page « Configuration principale », puis sélectionnez Configuration iSCSI. Sur la page « Configuration iSCSI », sélectionnez Paramètres généraux iSCSI. Sur la page «...
Page 190
9–Configuration iSCSI Configuration du démarrage iSCSI à partir du SAN pour RHEL 7.4 et les versions ultérieures Appuyez sur ‘e’ pour modifier l'élément sélectionné ou sur ‘c’ pour une invite de commande Pour installer un pilote non préinstallé, saisissez . Sinon, passez à l'étape Sélectionnez la ligne de noyau, puis saisissez Utilisez la commande suivante, puis appuyez sur ENTRÉE.
Page 191
9–Configuration iSCSI Configuration du démarrage iSCSI à partir du SAN pour RHEL 7.4 et les versions ultérieures Si votre configuration l'exige, chargez le disque de mise à jour de pilote FastLinQ lorsque vous êtes invité à introduire des disques de pilote supplémentaires.
Page 192
9–Configuration iSCSI Configuration du démarrage iSCSI à partir du SAN pour RHEL 7.4 et les versions ultérieures Modifiez le fichier /sysroot/usr/libexec/iscsi-mark-root-nodes trouvez l’élément suivant : if [ "$transport" = bnx2i ]; then Remplacez-le par : if [ "$transport" = bnx2i ] || [ "$transport" = qedi ]; then Démontez le système de fichiers à...
Configuration de FCoE Ce chapitre fournit les informations de configuration suivantes de Fibre Channel over Ethernet (FCoE) : Démarrage FCoE à partir de SAN « Injection (intégration) de pilotes de l'adaptateur dans les fichiers image Windows » à la page 178 «...
10–Configuration de FCoE Démarrage FCoE à partir de SAN Préparation du BIOS système pour la version de FCoE et le démarrage Pour préparer le BIOS du système, modifiez la séquence de démarrage du système et spécifiez le protocole de démarrage du BIOS, si nécessaire. Spécification du protocole de démarrage du BIOS Le démarrage FCoE à...
Page 195
10–Configuration de FCoE Démarrage FCoE à partir de SAN REMARQUE Le démarrage SAN est pris en charge uniquement dans l'environnement UEFI. Assurez-vous que l'option de démarrage du système est UEFI et non le BIOS hérité. Sur la page Paramètres de périphérique, sélectionnez le périphérique QLogic (Figure 10-2).
Page 196
10–Configuration de FCoE Démarrage FCoE à partir de SAN Sur la page de configuration principale, sélectionnez Configuration NIC (Figure 10-3), et appuyez sur ENTRÉE. Figure 10-3. Configuration du système : Configuration NIC Sur la page de configuration NIC, sélectionnez Mode de démarrage, et appuyez sur ENTRÉE pour sélectionner FCoE comme mode de démarrage préféré.
Page 197
10–Configuration de FCoE Démarrage FCoE à partir de SAN Figure 10-4. Configuration du système : Mode FCoE activé Pour configurer les paramètres de démarrage FCoE : Sur la page de configuration principale HII du périphérique, sélectionnez Configuration FCoE, et appuyez sur ENTRÉE. Sur la page de configuration FCoE, sélectionnez Paramètres généraux FCoE, et appuyez sur ENTRÉE.
Page 198
10–Configuration de FCoE Démarrage FCoE à partir de SAN Figure 10-5. Configuration du système : Paramètres généraux FCoE Retournez à la page Configuration FCoE. Appuyez sur ÉCHAP et sélectionnez Paramètres de cible FCoE. Appuyez sur ENTRÉE. Dans le menu Paramètres de cible FCoE, activez Connexion à la cible FCoE préférée.
10–Configuration de FCoE Démarrage FCoE à partir de SAN Figure 10-6. Configuration du système : Paramètres généraux FCoE Démarrage FCoE à partir de SAN pour Windows Les informations du démarrage FCoE à partir SAN pour Windows comprennent : Installation du démarrage FCoE Windows Server 2012 R2 et 2016 ...
10–Configuration de FCoE Démarrage FCoE à partir de SAN Chargez les images de démarrage FCoE QLogic les plus récentes dans la NVRAM de l'adaptateur. Configurez la cible FCoE de sorte à autoriser une connexion depuis le périphérique distant. Assurez-vous que l'espace disque soit suffisant sur la cible pour contenir l'installation du nouveau système d'exploitation.
10–Configuration de FCoE Injection (intégration) de pilotes de l'adaptateur dans les fichiers image Windows Injection (intégration) de pilotes de l'adaptateur dans les fichiers image Windows Pour injecter des pilotes de l'adaptateur dans les fichiers image Windows : Procurez-vous le paquet de pilotes le plus récent pour la version Windows Server applicable (2012, 2012 R2 ou 2016).
10–Configuration de FCoE Configuration du déchargement FCoE pour Linux REMARQUE Notez ce qui suit concernant le support d'installation du système d'exploitation : Le support d'installation du système d'exploitation devrait être un lecteur local. Les chemins réseau des supports d'installation du système d'exploitation ne sont pas pris en charge.
10–Configuration de FCoE Différences entre qedf et bnx2fc REMARQUE En cas d’installation avec SLES 11 ou SLES 12, le paramètre n’est pas requis car l’Adaptateur série 41xxx ne requiert withfcoe=1 plus le démon logiciel FCoE. Différences entre qedf et bnx2fc Il existe des différences significatives entre qedf –...
10–Configuration de FCoE Vérification des périphériques FCoE sous Linux REMARQUE Reportez-vous au Chapitre 3 Installation des pilotes pour plus de renseignements sur l'installation des pilotes FastLinQ. Le chargement du module du noyau qedf.ko effectue les actions suivantes : # modprobe qed # modprobe libfcoe # modprobe qedf Vérification des périphériques FCoE sous Linux...
10–Configuration de FCoE Configuration du démarrage FCoE à partir du SAN pour RHEL 7.4 et les versions ultérieures 243.991851] [0000:21:00.3]: [qedf_link_update:489]:5: LINK UP (40 GB/s). Vérifiez les périphériques FCoE détectés à l'aide de lsblk -S # lsblk -S NAME HCTL TYPE VENDOR MODEL...
Page 206
10–Configuration de FCoE Configuration du démarrage FCoE à partir du SAN pour RHEL 7.4 et les versions ultérieures Utilisez la commande suivante, puis appuyez sur ENTRÉE. linux dd modprobe.blacklist=qed modprobe.blacklist=qede modprobe.blacklist=qedr modprobe.blacklist=qedi modprobe.blacklist=qedf Vous pouvez utiliser l'option au lieu de inst.dd linux dd Le processus d'installation vous invite à...
Page 207
10–Configuration de FCoE Configuration du démarrage FCoE à partir du SAN pour RHEL 7.4 et les versions ultérieures Poursuivez l'installation. Vous pouvez ignorer le test de support. Cliquez sur Suivant pour poursuivre l'installation. Dans la fenêtre de Configuration (Figure 10-8), sélectionnez la langue à utiliser pendant le processus d'installation, et cliquez ensuite sur Continuer.
Configuration de SR-IOV Single Root Input/Output Virtualization (SR-IOV) est une spécification de PCI-SIG qui permet à un seul périphérique PCI Express (PCIe) d'apparaître sous la forme de plusieurs périphériques PCIe physiques distincts. SR-IOV permet d'isoler les ressources PCIe à des fins de performance, d'interopérabilité et de gestion. REMARQUE Certaines fonctionnalités SR-IOV peuvent ne pas être entièrement activées dans la version actuelle.
Page 209
11–Configuration de SR-IOV Configuration de SR-IOV sous Windows Sur la page Périphériques intégrés (Figure 11-1) : Définissez l'option Activation globale SR-IOV sur Activé. Cliquez sur Précédent. Figure 11-1. Configuration système pour SR-IOV : Périphériques intégrés Sur la page de configuration principale de l'adaptateur sélectionné, cliquez sur Configuration au niveau du périphérique.
Page 210
11–Configuration de SR-IOV Configuration de SR-IOV sous Windows Sur la page de configuration principale, cliquez sur Terminer. Dans la boîte de dialogue Avertissement – Enregistrement des modifications, cliquez sur Oui pour enregistrer la configuration. Dans la boîte de dialogue Succès – Enregistrement des modifications, cliquez sur OK.
Page 211
11–Configuration de SR-IOV Configuration de SR-IOV sous Windows Cochez la case Activer single-root I/O virtualization (SR-IOV), et cliquez ensuite sur Appliquer. REMARQUE Veillez à activer SR-IOV lorsque vous créez le vSwitch. Cette option n'est pas disponible après que le vSwitch est créé. Figure 11-4.
Page 212
11–Configuration de SR-IOV Configuration de SR-IOV sous Windows Pour obtenir les capacités de commutateur de machine virtuelle, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Get-VMSwitch -Name SR-IOV_vSwitch | fl La sortie de la commande comprend les capacités SR-IOV Get-VMSwitch suivantes : IovVirtualFunctionCount...
Page 213
11–Configuration de SR-IOV Configuration de SR-IOV sous Windows Figure 11-5. Paramètres de la VM : Activation de SR-IOV Installez les pilotes QLogic pour les adaptateurs détectés dans la VM. Utilisez les pilotes les plus récents disponibles auprès du fournisseur de votre système d'exploitation hôte (n'utilisez pas les pilotes préinstallés).
Page 214
11–Configuration de SR-IOV Configuration de SR-IOV sous Windows Après l'installation des pilotes, l'adaptateur QLogic est répertorié dans la VM. La Figure 11-6 montre un exemple. Figure 11-6. Gestion de périphériques : VM avec adaptateur QLogic Pour afficher les détails de VF pour SR-IOV, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator>...
11–Configuration de SR-IOV Configuration de SR-IOV sous Linux Configuration de SR-IOV sous Linux Pour configurer SR-IOV sous Linux : Accédez à la configuration système du BIOS du serveur, puis cliquez sur Paramètres BIOS système. Sur la page Paramètres BIOS système, cliquez sur Périphériques intégrés. Sur la page Périphériques intégrés du système (voir Figure 11-1 à...
Page 216
11–Configuration de SR-IOV Configuration de SR-IOV sous Linux Sur la page Configuration système, sélectionnez Paramètres de périphérique. Sur la page Paramètres de périphérique, sélectionnez le Port 1 de l'adaptateur QLogic. Sur la page Configuration au niveau du périphérique (Figure 11-9) : Définissez le Mode de virtualisation sur SR-IOV.
Page 217
11–Configuration de SR-IOV Configuration de SR-IOV sous Linux Figure 11-10. Modification du fichier grub.conf pour SR-IOV Enregistrez le fichier et redémarrez le système. grub.conf Pour vérifier que les modifications ont été appliquées, entrez la commande suivante : dmesg | grep iommu Une sortie réussie de la commande input–output memory management unit (IOMMU) devrait afficher, par exemple :...
Page 218
11–Configuration de SR-IOV Configuration de SR-IOV sous Linux Pour un port spécifique, activez une quantité de VF. Entrez la commande suivante pour activer, par exemple, 8 VF sur l'instance PCI 04 :00.0 (bus 4, périphérique 0, fonction 0) : [root@ah-rh68 ~]# echo 8 > /sys/devices/pci0000:00/0000:00:02.0/0000:04:00.0/sriov_numvfs Vérifiez la sortie de la commande (Figure...
Page 219
11–Configuration de SR-IOV Configuration de SR-IOV sous Linux Figure 11-12. Sortie de la commande ip link show Attribuez et vérifiez les adresses MAC : Pour attribuer une adresse MAC à la VF, entrez la commande suivante : ip link set <pf device> vf <vf index> mac <mac address> Assurez-vous que l'interface VF est opérationnelle et exécutée avec l'adresse MAC attribuée.
Page 220
11–Configuration de SR-IOV Configuration de SR-IOV sous Linux Éteignez la VM et attachez la VF. (Certains systèmes d'exploitation prennent en charge la connexion à chaud de VF à la VM). Dans la boîte de dialogue Machine virtuelle (Figure 11-13), cliquez sur Ajouter un matériel.
11–Configuration de SR-IOV Configuration de SR-IOV sous VMware Cliquez sur Terminer. Figure 11-14. Ajouter un nouveau matériel virtuel Allumez la VM et entrez la commande suivante : check lspci -vv|grep -I ether Installez les pilotes pour les adaptateurs détectés dans la VM. Utilisez les pilotes les plus récents disponibles auprès du fournisseur de votre système d'exploitation hôte (n'utilisez pas les pilotes préinstallés).
Page 222
11–Configuration de SR-IOV Configuration de SR-IOV sous VMware Sur la page Configuration au niveau du périphérique (voir Figure 11-2 à la page 186) : Définissez le Mode de virtualisation sur SR-IOV. Cliquez sur Précédent. Sur la page de configuration principale, cliquez sur Terminer. Enregistrez les paramètres de configuration et redémarrez le système.
Page 223
11–Configuration de SR-IOV Configuration de SR-IOV sous VMware 0000:05:03.7 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_15] 0000:05:0e.0 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_0] 0000:05:0e.1 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_1] 0000:05:0e.2 Network controller: QLogic Corp.
Page 224
11–Configuration de SR-IOV Configuration de SR-IOV sous VMware Figure 11-15. Paramètres de modification de l'hôte VMware Pour valider les VF par port, entrez la commande comme suit : esxcli [root@localhost:~] esxcli network sriovnic vf list -n vmnic6 VF ID Active PCI Address Owner World ID -----...
Page 225
11–Configuration de SR-IOV Configuration de SR-IOV sous VMware false 005:02.2 false 005:02.3 false 005:02.4 false 005:02.5 false 005:02.6 false 005:02.7 false 005:03.0 false 005:03.1 false 005:03.2 false 005:03.3 false 005:03.4 false 005:03.5 false 005:03.6 false 005:03.7 Installez les pilotes QLogic pour les adaptateurs détectés dans la VM. Utilisez les pilotes les plus récents disponibles auprès du fournisseur de votre système d'exploitation hôte (n'utilisez pas les pilotes préinstallés).
Configuration de NVMe-oF avec RDMA Le protocole Non-Volatile Memory Express over Fabrics (NVMe-oF) permet d'utiliser des transports alternatifs vers PCIe pour étendre la distance sur laquelle peuvent se connecter un périphérique hôte NVMe et un lecteur ou sous-système de stockage NVMe. NVMe-oF définit une architecture commune qui prend en charge une gamme de matrices réseau de stockage pour le protocole de stockage de blocs NVMe sur une matrice réseau de stockage.
Page 227
12–Configuration de NVMe-oF avec RDMA Figure 12-1 illustre un exemple de réseau. Adaptateur série Adaptateur série 41xxx 41xxx Figure 12-1. Réseau NVMe-oF Le processus de configuration de NVMe-oF couvre les procédures suivantes : Installation des pilotes de périphérique sur les deux serveurs Configuration du serveur cible Configuration du serveur initiateur Préconditionnement du serveur cible...
12–Configuration de NVMe-oF avec RDMA Installation des pilotes de périphérique sur les deux serveurs Installation des pilotes de périphérique sur les deux serveurs Après installation de votre système d'exploitation (RHEL 7.4 ou SLES 12 SP3), installez les pilotes de périphérique sur les deux serveurs. Pour mettre à jour le noyau vers le tout dernier noyau Linux en amont, accédez à...
12–Configuration de NVMe-oF avec RDMA Configuration du serveur cible Si des changements ont été apportés au noyau, redémarrez sur ce nouveau noyau de système d’exploitation. Pour obtenir des instructions sur la configuration du noyau de démarrage par défaut, accédez à : https://wiki.centos.org/HowTos/Grub2 Activez et démarrez le service RDMA comme suit : # systemctl enable rdma.service...
12–Configuration de NVMe-oF avec RDMA Configuration du serveur cible Tableau 12-1. Paramètres de cible Commande Description Autoriser n'importe quel hôte à se connecter. # echo 1 > attr_allow_any_host Créer un espace de noms # mkdir namespaces/1 Définir le chemin d'accès au périphérique NVMe. # echo -n /dev/nvme0n1 >namespaces/ Le chemin d'accès au périphérique NVMe peut 1/device_path...
12–Configuration de NVMe-oF avec RDMA Configuration du serveur initiateur Configuration du serveur initiateur Vous configurez le serveur initiateur après le processus de redémarrage. Une fois le serveur en fonctionnement, vous ne pouvez plus modifier la configuration sans redémarrage. Si vous utilisez le script de démarrage pour configurer le serveur initiateur, pensez à...
Page 232
12–Configuration de NVMe-oF avec RDMA Configuration du serveur initiateur Figure 12-2. NQN de sous-système Connectez la cible NVMe-oF détectée ( ) à l'aide de nvme-qlogic-tgt1 NQN. Entrez la commande suivante après chaque redémarrage du serveur. Par exemple : # nvme connect -t rdma -n nvme-qlogic-tgt1 -a 1.1.1.1 -s 1023 Confirmez la connexion de la cible NVMe-oF au périphérique NVMe-oF de la façon suivante : # dmesg | grep nvme...
12–Configuration de NVMe-oF avec RDMA Préconditionnement du serveur cible Préconditionnement du serveur cible Les serveurs cibles NVMe qui sont testés non préinstallés présentent un niveau de performance plus élevé qu'attendu. Avant l'exécution d'une batterie d'essais, le serveur cible doit être prérempli ou préconditionné. Pour préconditionner le serveur cible : Procédez à...
12–Configuration de NVMe-oF avec RDMA Optimisation des performances Exécutez l'utilitaire FIO pour mesurer la latence du périphérique NVMe-oF initiateur. Tapez la commande suivante : # fio --filename=/dev/nvme0n1 --direct=1 --time_based --rw=randread --refill_buffers --norandommap --randrepeat=0 --ioengine=libaio --bs=4k --iodepth=1 --numjobs=1 --runtime=60 --group_reporting --name=temp.out FIO indique deux types de latence : soumission et achèvement.
12–Configuration de NVMe-oF avec RDMA Optimisation des performances Hyperthreading = désactivé Configurez les paramètres du noyau Linux en modifiant le fichier grub (/etc/default/grub). Ajoutez les paramètres à la fin de la ligne GRUB_CMDLINE_LINUX : GRUB_CMDLINE_LINUX="nosoftlockup intel_idle.max_cstate=0 processor.max_cstate=1 mce=ignore_ce idle=poll" Enregistrez le fichier grub.
12–Configuration de NVMe-oF avec RDMA Optimisation des performances #!/bin/bash #RSS affinity setup script #input: the device name (ethX) #OFFSET=0 0/1/2 0/1/2/3 #FACTOR=1 OFFSET=0 FACTOR=1 LASTCPU='cat /proc/cpuinfo | grep processor | tail -n1 | cut -d":" -f2' MAXCPUID='echo 2 $LASTCPU ^ p | dc' OFFSET='echo 2 $OFFSET ^ p | dc'...
Page 237
12–Configuration de NVMe-oF avec RDMA Optimisation des performances for CPUFREQ in /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor; do [ -f $CPUFREQ ] || continue; echo -n performance > $CPUFREQ; done cat /sys/devices/system/cpu/cpu0/cpufreq/scaling_governor Pour configurer les paramètres de réseau ou de mémoire : sysctl -w net.ipv4.tcp_mem="16777216 16777216 16777216" sysctl -w net.ipv4.tcp_wmem="4096 65536 16777216"...
Windows Server 2016 Ce chapitre fournit les informations suivantes concernant Windows Server 2016 : Configuration des interfaces RoCE avec Hyper-V « RoCE sur Switch Embedded Teaming » à la page 220 « Configuration de QoS pour RoCE » à la page 222 «...
13–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V Création d'un commutateur virtuel Hyper-V avec une NIC virtuelle RDMA Suivez les procédures de cette section pour créer un commutateur virtuel Hyper-V, puis activez RDMA dans la VNIC hôte. Pour créer un commutateur virtuel Hyper-V avec une NIC virtuelle RDMA : Lancez le Gestionnaire Hyper-V.
13–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V Sur la page Avancé (Figure 13-2) : Sous Propriété, sélectionnez Network Direct (RDMA). Sous Valeur, sélectionnez Activé. Cliquez sur OK. Figure 13-2. Propriétés de la carte Ethernet virtuelle Hyper-V Pour activer RDMA, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator>...
13–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V Pour définir l'ID VLAN sur la NIC virtuelle hôte, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Set-VMNetworkAdaptervlan -VMNetworkAdapterName ""New Virtual Switch" -VlanId 5 -Access -Management05 REMARQUE Prenez note de ce qui suit concernant l'ajout d'un ID VLAN à une NIC virtuelle hôte : ...
13–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V Pour attribuer un ID VLAN au port virtuel, entrez la commande suivante : Set-VMNetworkAdapterVlan -VMNetworkAdapterName SMB -VlanId 5 -Access -ManagementOS Mappage du lecteur SMB et exécution du trafic RoCE Pour mapper le lecteur SMB et exécuter le trafic RoCE : Lancez Performance Monitor (Perfmon).
13–Windows Server 2016 RoCE sur Switch Embedded Teaming Si le trafic RoCE est exécuté, les compteurs apparaissent comme indiqué à Figure 13-6. Figure 13-6. Performance Monitor montre le trafic RoCE RoCE sur Switch Embedded Teaming Switch Embedded Teaming (SET) est la solution alternative d'association de NIC de Microsoft qui peut être utilisée dans les environnements incluant Hyper-V et la pile SDN (Software Defined Networking) dans Windows Server 2016 Technical Preview.
13–Windows Server 2016 RoCE sur Switch Embedded Teaming Création d'un commutateur virtuel Hyper-V avec des NIC virtuelles RDMA et SET Pour créer un commutateur virtuel Hyper-V avec des NIC virtuelles RDMA et SET : Pour créer un SET, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator>...
13–Windows Server 2016 Configuration de QoS pour RoCE REMARQUE Prenez note de ce qui suit lors de l'ajout d'un ID VLAN à une NIC virtuelle hôte : Assurez-vous que l'ID VLAN n'est pas affecté à l'interface physique lors de l'utilisation d'une NIC virtuelle hôte pour RoCE. ...
Page 246
13–Windows Server 2016 Configuration de QoS pour RoCE Activez QoS sur le miniport comme suit : Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Avancé. Sur la page Propriétés avancées de l'adaptateur (Figure 13-9), sous Propriété, sélectionnez Qualité de service, puis définissez la valeur sur Activé.
Page 247
13–Windows Server 2016 Configuration de QoS pour RoCE Figure 13-10. Propriétés avancées : Configuration d'ID VLAN Pour activer le contrôle de flux basé sur la priorité pour RoCE pour une priorité spécifique, entrez la commande suivante : PS C:\Users\Administrators> Enable-NetQoSFlowControl -Priority 4 REMARQUE Si vous configurez RoCE sur Hyper-V, n'attribuez pas d'ID VLAN à...
Page 248
13–Windows Server 2016 Configuration de QoS pour RoCE True Global False Global False Global False Global Pour configurer QoS et attribuer la priorité pertinente à chaque type de trafic, entrez les commandes suivantes (où la Priorité 4 correspond à RoCE et la Priorité...
13–Windows Server 2016 Configuration de QoS pour RoCE Name Algorithm Bandwidth(%) Priority PolicySet IfIndex IfAlias ---- --------- ------------ -------- --------- ------- ------- [Default] 2-3,5-7 Global RDMA class Global TCP class Global Pour afficher la QoS de l'adaptateur réseau à partir de la configuration précédente, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator>...
Page 250
13–Windows Server 2016 Configuration de QoS pour RoCE Pour installer le rôle DCB sur l'hôte, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrators> Install-WindowsFeature Data-Center-Bridging REMARQUE Pour cette configuration, configurez le Protocole DCBX sur CEE. Pour définir le mode DCBX Willing sur Vrai, entrez la commande PowerShell suivante : PS C:\Users\Administrators>...
Page 251
13–Windows Server 2016 Configuration de QoS pour RoCE Attribuez un ID VLAN à l'interface (requis pour PFC) comme suit : Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Avancé. Sur la page Propriétés avancées de l'adaptateur (Figure 13-12), sous Propriété, sélectionnez ID VLAN, puis définissez la valeur. Cliquez sur OK.
13–Windows Server 2016 Configuration de VMMQ Création d'une VM et activation de VMMQ sur VMNetworkadapters dans la VM NIC virtuelle VMMQ par défaut et maximum Activation et désactivation de VMMQ sur une NIC de gestion Surveillance des statistiques de trafic Activation de VMMQ sur l'adaptateur Pour activer VMMQ sur l'adaptateur : Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Avancé.
13–Windows Server 2016 Configuration de VMMQ Configuration du port virtuel par défaut et non-par défaut de paires de files d'attente (QP) max VMMQ Pour configurer le port virtuel par défaut et non-par défaut de paires de files d'attente (QP) maximum VMMQ : Ouvrez la fenêtre miniport, et cliquez sur l'onglet Avancé.
Page 255
13–Windows Server 2016 Configuration de VMMQ Sous Type de connexion : Cliquez sur Réseau externe. Cochez la case Autoriser le système d'exploitation de gestion à partager cette carte réseau. Figure 13-15. Gestionnaire de commutateur virtuel Cliquez sur OK. AH0054602-02 F...
13–Windows Server 2016 Configuration de VMMQ Activation de VMMQ sur le commutateur de machine virtuelle Pour activer VMMQ sur le commutateur de machine virtuelle : Entrez la commande Windows PowerShell suivante : PS C:\Users\Administrators> Set-VMSwitch -name q1 -defaultqueuevmmqenabled $true -defaultqueuevmmqqueuepairs 4 Obtention de la fonction de commutateur de machine virtuelle Pour obtenir la fonction de commutateur de machine virtuelle : ...
13–Windows Server 2016 Configuration de VMMQ Création d'une VM et activation de VMMQ sur VMNetworkadapters dans la VM Pour créer une machine virtuelle (VM) et activer VMMQ sur les VMNetworkadapters dans la VM : Créez une VM. Ajoutez le VMNetworkadapter à la VM. Affectez un commutateur virtuel au VMNetworkadapter.
13–Windows Server 2016 Configuration de VXLAN Surveillance des statistiques de trafic Pour surveiller le trafic de fonction virtuelle dans une machine virtuelle, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Use get-netadapterstatistics | fl Configuration de VXLAN Les informations de configuration de VXLAN comprennent : ...
13–Windows Server 2016 Configuration des Espaces de stockage direct Déploiement d'un réseau défini par logiciel Pour profiter du déchargement de tâches d'encapsulation VXLAN sur les machines virtuelles, vous devez déployer une pile de réseau défini par logiciel (Software-Defined Networking – SDN) qui utilise un contrôleur réseau Microsoft. Pour plus de détails, reportez-vous au lien de Microsoft TechNet suivant sur les réseaux définis par logiciel : https://technet.microsoft.com/en-us/windows-server-docs/networking/sdn/...
13–Windows Server 2016 Configuration des Espaces de stockage direct REMARQUE Les disques utilisés dans cet exemple sont des disques NVMe ™ 400 G x4 et SSD 200 G x12. Déploiement d'un système hyper-convergé Cette section comprend les instructions pour installer et configurer les composants d'un système hyper-convergé...
Page 262
Activez le port du commutateur et assurez-vous que le port du commutateur prend en charge le mode d'association indépendante du commutateur et fait également partie de plusieurs réseaux VLAN. Exemple de configuration de commutateur Dell : no ip address mtu 9416...
13–Windows Server 2016 Configuration des Espaces de stockage direct REMARQUE Les commandes précédentes configurent la NIC virtuelle à partir du commutateur virtuel que vous venez de configurer pour le système d'exploitation de gestion à utiliser. Pour configurer la NIC virtuelle hôte pour utiliser un VLAN, entrez les commandes suivantes : Set-VMNetworkAdapterVlan -VMNetworkAdapterName "SMB_1"...
Page 264
13–Windows Server 2016 Configuration des Espaces de stockage direct Étape 3. Configuration d'un témoin de cluster Étape 4. Disques de nettoyage utilisés pour les Espaces de stockage direct Étape 5. Activation des Espaces de stockage direct Étape 6.
Page 265
13–Windows Server 2016 Configuration des Espaces de stockage direct La commande Windows PowerShell suivante peut être placée dans un fichier Windows PowerShell script ( ) et exécutée à partir du système de gestion .PS1 dans une console ouverte Windows PowerShell (ou Windows PowerShell ISE) avec privilèges d'Administrateur.
13–Windows Server 2016 Déploiement et gestion de Nano Server Configure le cache des Espaces de stockage direct S'il existe plusieurs types de support disponibles pour l'utilisation d'Espaces de stockage direct, il configure le type le plus efficace en tant que périphériques de cache (dans la plupart des cas, lecture et écriture).
13–Windows Server 2016 Déploiement et gestion de Nano Server Rôles et fonctionnalités Tableau 13-1 montre les rôles et les fonctionnalités disponibles dans cette version de Nano Server, ainsi que les options Windows PowerShell qui installeront les paquets correspondants. Certains paquets sont installés directement avec leurs propres options Windows PowerShell (par exemple ).
13–Windows Server 2016 Déploiement et gestion de Nano Server Tableau 13-1. Rôles et fonctionnalités de Nano Server (Suite) Rôle ou fonctionnalité Article Agent System Center Virtual Machine Manager -Packages Microsoft-Windows-Server- SCVMM-Package -Packages Microsoft-Windows-Server- SCVMM-Compute-Package Remarque : Utilisez ce paquet uniquement si vous surveillez Hyper-V.
Page 269
13–Windows Server 2016 Déploiement et gestion de Nano Server Changez le répertoire au dossier dans lequel vous avez copié les fichiers à l'étape Importez le script NanoServerImageGenerator en entrant la commande suivante : Import-Module .\NanoServerImageGenerator.psm1 -Verbose Pour créer un VHD qui définit un nom d'ordinateur et inclut les pilotes OEM et Hyper-V, entrez la commande Windows PowerShell suivante : REMARQUE Cette commande vous demande un mot de passe administrateur pour...
Page 270
13–Windows Server 2016 Déploiement et gestion de Nano Server INFO : Creating single partition... INFO : Formatting windows volume... INFO : Windows path (I:) has been assigned. INFO : System volume location: I: INFO : Applying image to VHD. This could take a while... INFO : Image was applied successfully.
13–Windows Server 2016 Déploiement et gestion de Nano Server Déploiement de Nano Server sur une machine virtuelle Pour créer un disque dur virtuel (VHD) Nano Server pour s'exécuter dans une machine virtuelle : Téléchargez l'image du SE Windows Server 2016. Accédez au dossier à...
Page 272
13–Windows Server 2016 Déploiement et gestion de Nano Server La commande précédente met environ 10 à 15 minutes pour créer un fichier VHD. Voici un exemple de sortie de cette commande : PS C:\Nano> New-NanoServerImage –DeploymentType Guest –Edition Datacenter -MediaPath C:\tmp\TP4_iso\Bld_10586_iso -BasePath .\Base -TargetPath .\Nano1\VM_NanoServer.vhd -ComputerName Nano-VM1 –GuestDrivers cmdlet New-NanoServerImage at command pipeline position 1...
13–Windows Server 2016 Déploiement et gestion de Nano Server Obtenez l'adresse IP de l'ordinateur de Nano Server. Utilisez l'outil d'accès à distance Windows PowerShell (ou un autre outil de gestion à distance) pour vous connecter et gérer à distance le serveur. Gestion à...
13–Windows Server 2016 Déploiement et gestion de Nano Server Démarrage de la session Windows PowerShell à distance À une session Windows PowerShell locale élevée, démarrez la session Windows PowerShell à distance en entrant les commandes suivantes : $ip = "<IP address of Nano Server>" $user = "$ip\Administrator"...
Page 275
13–Windows Server 2016 Déploiement et gestion de Nano Server Pour déterminer si les pilotes sont installés et que la liaison est établie, entrez la commande Windows PowerShell suivante : [172.28.41.152]: PS C:\Users\Administrator\Documents> Get-NetAdapter Figure 13-19 montre un exemple de sortie. Figure 13-19.
Page 276
13–Windows Server 2016 Déploiement et gestion de Nano Server Figure 13-21 montre un exemple de sortie. Figure 13-21. Commande Windows PowerShell : New-Item [172.28.41.152]: PS C:\> New-SMBShare -Name "smbshare" -Path C:\smbshare -FullAccess Everyone Figure 13-22 montre un exemple de sortie. Figure 13-22.
Page 277
13–Windows Server 2016 Déploiement et gestion de Nano Server Figure 13-23 montre la sortie de la commande. Figure 13-23. Commande Windows PowerShell : Get-NetAdapterStatistics AH0054602-02 F...
Dépannage Ce chapitre fournit les informations de dépannage suivantes : Liste de vérification pour le dépannage « Vérification du chargement des pilotes à jour » à la page 256 « Vérification de la connectivité du réseau » à la page 257 «...
14–Dépannage Vérification du chargement des pilotes à jour Essayez d'insérer l'adaptateur dans un autre logement. Si cette nouvelle position assure son fonctionnement, il se peut que le logement d'origine de votre système soit défectueux. Remplacez l'adaptateur défectueux par un adaptateur en bon état de fonctionnement.
14–Dépannage Vérification de la connectivité du réseau firmware-version: mfw 8.4.7.0 storm 8.4.7.0 bus-info: 0000:04:00.2 Si vous avez chargé un nouveau pilote, mais que vous n'avez pas encore redémarré, la commande n'affiche pas d'informations à jour sur le pilote. modinfo Entrez plutôt la commande suivante pour afficher les journaux.
14–Dépannage Virtualisation Microsoft avec Hyper-V Utilisez la commande suivante puis appuyez sur ENTRÉE. ping <ip_address> Les statistiques ping affichées indiquent si la connectivité réseau fonctionne. Test de la connectivité réseau pour Linux Pour vérifier que l'interface Ethernet est opérationnelle : Pour vérifier l'état de l'interface Ethernet, entrez la commande ifconfig Pour vérifier les statistiques de l'interface Ethernet, entrez la commande...
14–Dépannage Problèmes divers Problèmes divers Problème : L'Adaptateur série 41xxx s'est arrêté et un message d'erreur s'affiche, indiquant une défaillance de son ventilateur. Solution : L'adaptateur Adaptateur série 41xxx peut s'arrêter intentionnellement afin d'éviter des dommages irréversibles. Contactez le support technique QLogic pour obtenir de l'aide. Problème : Dans un environnement ESXi, lorsque le pilote iSCSI (qedil) est installé, parfois, le client d’infrastructure virtuelle ne peut pas...
Voyants de l'adaptateur Tableau A-1 répertorie les voyants d'état de liaison et d'activité de port de l'adaptateur. Tableau A-1. Voyants de liaison et d'activité de port de l'adaptateur Voyant de port État du voyant État du réseau Voyant de liaison Désactivé...
Câbles et modules optiques Cette annexe fournit les informations suivantes concernant les câbles et les modules optiques pris en charge : Spécifications prises en charge « Câbles et modules optiques testés » à la page 262 « Commutateurs testés » à la page 266 Spécifications prises en charge Les Adaptateurs série 41xxx prennent en charge divers câbles et modules optiques conformes à...
être explicitement configuré pour se connecter à l'adaptateur à 25 Gbits/s. Pour configurer un port de commutateur Dell Z9100 pour la connexion à l'Adaptateur série 41xxx à 25 Gb/s : Établissez une connexion de port série entre votre station de travail de gestion et le commutateur.
Page 291
Pour plus d'informations sur la configuration du commutateur Dell Z9100, reportez-vous au Guide de configuration du commutateur Dell Z9100 sur le site Web de support Dell : support.dell.com AH0054602-02 F...
Contraintes en matière de fonctionnalités Cette annexe fournit des informations sur les contraintes en matière de fonctionnalités mises en œuvre dans la version actuelle. Ces contraintes de coexistence de fonctionnalités peuvent être supprimées dans une version future. À ce moment, vous devriez pouvoir utiliser les combinaisons de fonctionnalités sans aucune étape de configuration supplémentaire outre celles habituellement exigées pour activer les fonctionnalités.
Page 293
D–Contraintes en matière de fonctionnalités Le démarrage SAN et NIC sur base est pris en charge uniquement sur certaines PF Le démarrage PXE et Ethernet n'est actuellement pris en charge que sur PF0 et PF1. Dans la configuration NPAR, les autres PF ne prennent pas en charge le démarrage PXE et Ethernet.
Glossaire ACPI bande passante La spécification Advanced Configuration Mesure du volume de données pouvant and Power Interface (ACPI) fournit une être transmises à une vitesse de norme ouverte pour la gestion de transmission donnée. Un port Fibre l'alimentation et la configuration unifiées Channel 1 Gb/s ou 2 Gb/s peut effectuer de périphériques axées sur le système des transmissions/réceptions à...
Page 295
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx carte réseau Voir NIC. Data center bridging. Apporte des améliorations aux spécifications de cible pont 802.1 afin de satisfaire les exigences Point final de périphérique de stockage des protocoles et applications du centre d'une session SCSI. Les initiateurs de données.
Page 296
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx eCore Ethernet Une couche entre le système d'exploitation Technologie LAN la plus utilisée qui et le matériel et le micrologiciel. Elle est transmet des informations entre des propre au périphérique et indépendante ordinateurs, typiquement à des vitesses du SE.
Page 297
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx file transfer protocol Voir FTP. Internet protocol. Méthode par laquelle les données sont envoyées d'un ordinateur à l'autre sur Internet. IP spécifie le format File transfer protocol. Protocole de réseau des paquets, également appelés standard servant à...
Page 298
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx LLDP mémoire non volatile expresse Un protocole de Couche 2 neutre quant au Voir NVMe. fournisseur qui permet à un périphérique message signaled interrupts réseau de publier son identité et ses capacités sur le réseau local. Ce protocole Voir MSI, MSI-X.
Page 299
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx NPAR périphérique partitionnement NIC. Division d'un port Une cible, généralement un lecteur de NIC en plusieurs partitions ou fonctions disque. Matériel tel qu'un lecteur de physiques, dotées chacune d'une bande disque, un lecteur de bande, une passante et d'une personnalité...
Page 300
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx RDMA over Converged Ethernet SerDes Voir RoCE. Serializer/deserializer. Paire de blocs fonctionnels couramment utilisés au cours reduced instruction set computer des communications à haute vitesse pour Voir RISC. compenser l'entrée/sortie limitée. Ces blocs convertissent les données entre les remote direct memory access données série et les interfaces parallèles Voir RDMA.
Page 301
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx UEFI Type-length-value. Informations facultatives Unified extensible firmware interface. pouvant être codées en tant qu'élément à Spécification qui détaille une interface l'intérieur du protocole. Les champs de type servant à transmettre le contrôle du et de longueur sont de taille fixe (en règle système pour l'environnement de générale, 1-4 octets) et le champ de valeur préamorçage (après l'allumage du...
Page 302
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Machine virtuelle. Mise en œuvre logicielle d'une machine (ordinateur) qui exécute des programmes comme une machine réelle. wake on LAN Voir WoL. Wake on LAN. Norme de réseau informatique Ethernet qui permet à un ordinateur d'être allumé...