Dell Intel PRO Family of Adapters Manuel utilisateur

Ajouter à Mes manuels
47 Des pages
Dell Intel PRO Family of Adapters Manuel utilisateur | Fixfr
Guide de l’utilisateur d’Intel® Ethernet iSCSI Boot
Les informations qui suivent ont été communiquées par le fournisseur du périphérique mentionné. Elles n’ont pas été vérifiées
par Dell et sont soumises aux Restrictions et avertissements ci-dessous.
Ce manuel concerne Intel® Boot Agent. Pour plus amples d’informations sur le produit, cliquez sur l’un des liens ci-dessous.
Présentation
Configuration minimale requise
Installation et configuration
Configuration du microprogramme
Configuration de la cible iSCSI
Configuration du serveur DHCP
Configuration sous Microsoft* Windows*
Configuration sous Linux
iSCSI over DCB (Pontage de centre de données)
Dépannage
Problèmes connus
Assistance
Glossaire
Utilitaire pour microprogramme de mémoire flash Ethernet Intel®
Kit de mise à jour Dell du microprogramme de carte Intel
Licence du logiciel
Les informations contenues dans ce document pourront faire l’objet de modifications sans préavis.
Copyright © 2001-2014, Intel Corporation. Tous droits réservés.
Marques commerciales utilisées dans ce texte : Dell et le logo DELL sont des marques commerciales de Dell Computer
Corporation. Intel est une marque commerciale d’Intel Corporation, déposées aux Etats-Unis et dans d’autres pays.
* Les autres marques et noms de produit utilisés dans ce document font référence aux entités revendiquant les marques et les
noms de leurs produits. Intel renonce à tout intérêt propriétaire dans les marques et noms de produits qui ne lui
appartiennent pas.
Restrictions et avertissements
Les informations contenues dans le présent document, y compris l’ensemble des instructions, avertissements ainsi que les
approbations et les homologations de réglementation, ont été soumises par le fournisseur et n’ont été ni vérifiées ni testées
de façon indépendante par Dell. Dell décline toute responsabilité en cas de dommage résultant du respect ou du non respect
de ces instructions.
Toutes les déclarations ou revendications relatives aux propriétés, capacités, vitesses ou qualifications du dispositif mentionné
dans le présent document sont communiquées par le revendeur et non pas par Dell. Dell n’est pas en mesure de certifier
l’exactitude de ces déclarations, d’en garantir l’exhaustivité ou de les justifier. Veuillez vous adresser à votre fournisseur pour
toute question relative à ces déclarations.
Contrôle des exportations
Le client reconnaît que ces produits, qui peuvent inclure des technologies ou des logiciels, sont sujets aux lois et
réglementations relatives aux douanes et à l’exportation des États-Unis et peuvent également être sujets aux lois et
réglementations relatives aux douanes et à l’exportation du pays dans lequel les produits sont fabriqués et/ou reçus. Le client
accepte de respecter ces lois et réglementations. En vertu de la loi des États-Unis, les produits ne peuvent être vendus, loués
ou cédés de quelque manière que ce soit à des utilisateurs finaux ou des pays faisant l'objet de restrictions. De plus, les
produits ne peuvent être vendus, loués, transférés ou utilisés par un utilisateur engagé dans des activités liées aux armes de
destruction massive, y compris mais sans s’y limiter, les activités liées à la conception, au développement, à la production ou
à l’utilisation d’armes, de matériaux, ou de bâtiments nucléaires, de missiles, de projets liés aux missiles, ou d’armes
chimiques ou biologiques.
Dernière révision : 29 avril2014
Retour à la table des matières
Présentation : Guide de l’utilisateur d’Intel® Ethernet iSCSI Boot
Le démarrage iSCSI Ethernet Intel® est conçu pour la famille Gigabit et 10 Gigabit des cartes PCI Express Server. Le
démarrage iSCSI Ethernet Intel® permet l'amorçage à partir d'une unité de disque iSCSI distante se trouvant sur un SAN
(Storage Area Network) basé sur la norme iSCSI. Ce guide couvre l’installation du matériel et du logiciel, les procédures de
configuration et les conseils de dépannage pour l’installation et le démarrage d’un système utilisant ces cartes.
iSCSI over DCB (Pontage de centre de données)
Les cartes Intel® Ethernet prennent en charge les initiateurs de logiciel iSCSI natifs sur le système d’exploitation sous-jacent.
Dans le cas de Windows, l’initiateur du logiciel Microsoft iSCSI permet de connecter un hôte Windows à une batterie de disque
de stockage externe iSCSI en utilisant une carte Intel Ethernet. Pour Windows Server 2008 et Windows Server 2012,
l’initiateur iSCSI est fourni.
Dans le cas de distributions Open Source, pratiquement toutes les distributions prennent en charge un initiateur de logiciel
iSCSI ouvert et les cartes Intel® Ethernet les prennent en charge. Consultez la documentation traitant de votre distribution
pour obtenir plus de détails de configuration sur chaque initiateur iSCSI ouvert.
Les cartes Intel® 10 Gigabit 82599 et X540 prennent en charge l’iSCSI dans un nuage de pontage de centre de données.
Utilisée avec les commutateurs et les cibles prenant en charge la fonction TVL de l’application iSCSI/DCB, cette solution peut
garantir la bande passante minimum pour le trafic iSCSI entre l’hôte et la cible. Cette solution permet aux administrateurs de
stockage de segmenter le trafic iSCSI du trafic du réseau local, de la même façon qu’ils peuvent actuellement segmenter le
FCoE à partir du trafic du réseau local. Auparavant, le trafic iSCSI dans un environnement pris en charge par DCB était
considéré comme un trafic de réseau local par les fournisseurs de commutateur. Consultez votre fournisseur de commutateurs
et de cibles pour vérifier qu’il prend en charge la fonction TVL de l’application iSCSI/DCB.
iSCSI Over DCB
Procédures d’installation rapide
Pour toute information sur la configuration requise, reportez-vous à la section Configuration minimale requise.
Pour installer et préparer un système pour iSCSI Boot, suivez la procédure ci-dessous.
1. Installez des cartes compatibles avec Intel® iSCSI Boot sur le système. Pour obtenir une liste des cartes prises en
charge, reportez-vous à la section Cartes réseau Intel® prises en charge.
2. Installez le tout dernier microprogramme d'amorçage iSCSI en utilisant le Kit de mise à jour Dell du microprogramme de
carte Intel.
La commande "BOOTUTIL -UP -ALL" programme le microprogramme sur la ROM flash de toutes les cartes compatibles
avec iSCSI Boot dans le système. Reportez-vous à la section Utilitaire iSCSI DOS pour de plus amples détails.
3. Connectez la ou les cartes du système initiateur iSCSI à un réseau doté du disque cible iSCSI.
4. Suivez les instructions de la section Configuration du microprogramme pour configurer le microprogramme du
démarrage iSCSI Ethernet Intel®. Vous pourrez ainsi démarrer à partir d’un disque cible iSCSI préconfiguré.
5. Pour configurer le système initiateur afin de démarrer à partir d’un disque iSCSI distant sous Microsoft Windows*, suivez
les étapes des sections Configuration sous Windows ou Configuration sous Linux.
6. Après avoir suivi les étapes ci-dessus, reportez-vous à la section Dépannage si vous avez des problèmes.
REMARQUE : pour les cartes suivantes, iSCSI est activé via l’environnement uEFI.
Carte
Carte
Carte
Carte
Carte
Carte
Carte
Carte
réseau Intel® Ethernet 10G 2P X540-t
réseau Intel® Ethernet 10G 2P X520
Intel® Ethernet 10G 4P X540/I350 rNDC
Intel® Ethernet 10G 4P X520/I350 rNDC
Intel® Ethernet 10G 2P X520-k bNDC
Intel® Gigabit 4P X540/I350 rNDC
Intel® Gigabit 4P X520/I350 rNDC
Intel® Gigabit 4P I350 bNDC
Pour cela, procédez comme suit :
1. Allez à Configuration du système.
2. Choisissez un port et passez à la configuration.
3. Spécifiez le protocole de démarrage : PXE, FCoE, iSCSI principale ou iSCSI secondaire.
REMARQUE : les cartes suivantes ne prennent pas en charge le protocole de démarrage FCoE :
Carte réseau Gigabit 2 ports Intel® ET pour serveurs
Carte réseau Gigabit 4 ports Intel® ET pour serveurs
Carte mezzanine 2 ports Intel® Ethernet X520 10GbE KX4
Carte réseau Ethernet Intel® X520-T2 pour serveurs
Carte Intel® Gigabit 4P X520/I350 rNDC
Carte Intel® Gigabit 4P X540/I350 rNDC
Carte mezzanine Intel® Gigabit 4P I350-t
Carte réseau Intel® Gigabit 2P I350-t
Carte réseau Intel® Gigabit 4P I350-t
Carte Intel® Gigabit 4P I350-t rNDC
Carte Intel® Gigabit 4P I350 bNDC
Carte Intel® Gigabit 2P I350 LOM
Veuillez lire toutes les restrictions et les avertissements.
Retour à la table des matières
Retour à la table des matières
Configuration minimale requise : Guide de l’utilisateur d’Intel®
Ethernet iSCSI Boot
Compatibilité du matériel système concernant les cartes réseau
Cartes réseau Intel® prises en charge
Systèmes d’exploitation 32 bits pris en charge
Configuration minimale requise de plateforme pour Intel® 64 Architecture (Intel® 64)
Compatibilité du matériel système concernant les cartes réseau
Avant d’installer des cartes Intel Gigabit Server et le microprogramme Intel® iSCSI Boot, vérifiez que votre système
correspond à la configuration minimale suivante.
Un des types d’emplacement suivants, en fonction de votre carte : Un emplacement PCI Express (version 1.0a ou
ultérieure) 1x, 4x, 8x ou 16x.
Dernière version du BIOS de votre ordinateur.
Cartes réseau Intel® prises en charge
Cartes réseau Intel® 10 Gigabit
Carte réseau 10 Gigabit Intel® AT pour serveurs
Carte réseau 10 Gigabit Intel® XF SR pour serveurs
Carte réseau 10 Gigabit 2 ports Intel® AF DA pour serveurs
Carte mezzanine 2 ports Intel® Ethernet X520 10GbE KX4
Carte mezzanine 2 ports Intel® Ethernet X520 10GbE KX4-KR
Carte réseau Ethernet Intel® X520-2 pour serveurs
Carte réseau Intel® Ethernet 10G 2P X540-t
Carte Intel® Ethernet 10G 2P X520
Carte Intel® Ethernet 10G 4P X540/I350 rNDC
Carte Intel® Ethernet 10G 4P X520/I350 rNDC
Carte Intel® Ethernet 10G 2P X520-k bNDC
Cartes réseau Gigabit et périphériques Intel
Carte réseau Intel® PRO/1000 PT pour serveurs
Carte réseau 2 ports Intel® PRO/1000 PT pour serveurs
Carte réseau Intel® PRO/1000 PF pour serveurs
Carte réseau Gigabit 2 ports Intel® ET pour serveurs
Carte réseau Gigabit 4 ports Intel® ET pour serveurs
Carte mezzanine 4 ports Intel® Gigabit ET
Carte réseau Intel® Gigabit 2P I350-t
Carte réseau Intel® Gigabit 4P I350-t
Carte Intel® Gigabit 4P I350-t rNDC
Carte Intel® Gigabit 4P X540/I350 rNDC
Carte Intel® Gigabit 4P X520/I350 rNDC
Carte mezzanine Intel® Gigabit 4P I350-t
Carte Intel® Gigabit 2P I350-t LOM
Carte Intel® Gigabit 4P I350 bNDC
Carte Intel® Gigabit 2P I350 LOM
REMARQUE : lors de l'utilisation d'un démarrage à distance iSCSI avec une carte réseau Intel, aucune carte de bus
hôte (HBA) Brocade ne doit être installée sur le système.
Systèmes d’exploitation 32 bits pris en charge
Le démarrage iSCSI Ethernet Intel® est pris en charge pour l’amorçage à distance des systèmes d’exploitation IA-32
suivants :
Microsoft Windows Server 2008 x86.
Configuration minimale requise de plateforme pour Intel® 64
Architecture (Intel® 64)
Le démarrage iSCSI Ethernet Intel® est pris en charge pour l’amorçage à distance des systèmes d’exploitation Intel® 64
suivants :
Microsoft Windows Server 2012 R2
Microsoft Windows Server 2012
Microsoft Windows Server 2008 R2
RHEL6.5
SLES11 SP3
Une plateforme prenant en charge Intel® 64 fonctionnera en mode 64 bits ou en mode compatible 32 bits. Pour qu’elle
fonctionne en mode 64 bits, les exigences suivantes doivent être satisfaites :
Le système Intel® 64 doit posséder un BIOS de 64 bits.
Un système d’exploitation 64 bits doit être installé.
Le programme d’installation des pilotes de carte ne répertorie que les pilotes compatibles avec le système d’exploitation en
cours d’exécution.
Si le système est exécuté en mode compatible, seuls les pilotes IA-32 seront disponibles.
Si le système est exécuté en mode 64 bits, seuls les pilotes Intel® 64 seront disponibles.
Veuillez lire toutes les restrictions et les avertissements.
Retour à la table des matières
Retour à la table des matières
Installation et configuration : Guide de l’utilisateur d’Intel®
Ethernet iSCSI Boot
Cette section fournit des instructions pour l’installation et la configuration des composants Intel® iSCSI Boot. La première
étape après la préparation du matériel consiste à programmer le microprogramme Intel® Ethernet iSCSI Boot sur une carte
compatible avec iSCSI Boot. Reportez-vous à la section Installation du microprogramme ci-dessous.
La configuration d’iSCSI Boot par défaut utilise DHCP. En cas d’utilisation d’une IP fixe, il est nécessaire de configurer le
microprogramme pour une configuration à IP fixe. Consultez la section Configuration du microprogramme.
Dans un environnement Microsoft Windows, suivez les instructions détaillées de la section Configuration Microsoft* Windows.
Dans les environnements Linux, suivez les instructions détaillées de la section Configuration Linux.
Installation du microprogramme
Pour activer Intel® Ethernet iSCSI Boot, le microprogramme doit être chargé en tant que ROM optionnelle lors de l’amorçage
du BIOS dans le système. "Intel® iSCSI Boot" suivi du numéro de version du microprogramme, s’affiche si le
microprogramme a été installé correctement.
La mémoire Flash des cartes PCI Express Intel est chargée de plusieurs jeux de microprogrammes, y compris iSCSI Boot et
PXE. Pour activer l'amorçage iSCSI Boot, vous devez exécuter l'utilitaire BootUtil pour sélectionner le microprogramme iSCSI
Boot. Vous pouvez reconfigurer le microprogramme de la mémoire Flash de la carte selon les besoins, en passant à PXE par
exemple, en exécutant à nouveau l'utilitaire BootUtil et en sélectionnant une option de microprogramme différente.
Si vous installez ou mettez à niveau le microprogramme de démarrage iSCSI Ethernet Intel® sur une carte du serveur à deux
ports ou à port unique Intel PRO/1000 PT/PF ou sur une carte réseau Intel 10 Gigabit pour serveur, utilisez l’utilitaire DOS
BootUtil pour installer le microprogramme. BootUtil n’est pas un utilitaire destiné pour la configuration des réseaux locaux sur
carte mère (LOM). Si vous utilisez un système serveur d’un constructeur OEM prenant en charge Intel® iSCSI Boot, consultez
les instructions fournies par le constructeur pour activer l’amorçage Intel® iSCSI Boot.
REMARQUE : Pour les cartes suivantes, iSCSI est activé via l’environnement uEFI.
Carte
Carte
Carte
Carte
Carte
Carte
Carte
Carte
réseau Intel® Ethernet 10G 2P X540-t
réseau Intel® Ethernet 10G 2P X520
Intel® Ethernet 10G 4P X540/I350 rNDC
Intel® Ethernet 10G 4P X520/I350 rNDC
Intel® Ethernet 10G 2P X520-k bNDC
Intel® Gigabit 4P X540/I350 rNDC
Intel® Gigabit 4P X520/I350 rNDC
Intel® Gigabit 4P I350 bNDC
Pour cela, procédez comme suit :
1. Allez à Configuration du système.
2. Choisissez un port et passez à la configuration.
3. Spécifiez le protocole de démarrage : PXE, FCoE, iSCSI principale ou iSCSI secondaire.
REMARQUE : les cartes suivantes ne prennent pas en charge le protocole de démarrage FCoE :
Carte réseau Gigabit 2 ports Intel® ET pour serveurs
Carte réseau Gigabit 4 ports Intel® ET pour serveurs
Carte mezzanine 2 ports Intel® Ethernet X520 10GbE KX4
Carte réseau Ethernet Intel® X520-T2 pour serveurs
Carte Intel® Gigabit 4P X520/I350 rNDC
Carte Intel® Gigabit 4P X540/I350 rNDC
Carte mezzanine Intel® Gigabit 4P I350-t
Carte réseau Intel® Gigabit 2P I350-t
Carte réseau Intel® Gigabit 4P I350-t
Carte Intel® Gigabit 4P I350-t rNDC
Carte Intel® Gigabit 4P I350 bNDC
Carte Intel® Gigabit 2P I350 LOM
REMARQUE : si vous mettez à jour le microprogramme depuis la version 13.x, vous devez d'abord effectuer une mise à
jour vers la version 14.0.12 avant d'effectuer la mise à jour vers la version 14.5.x.
Veuillez lire toutes les restrictions et les avertissements.
Retour à la table des matières
Retour à la table des matières
Configuration du microprogramme : Guide de l’utilisateur
d’Intel® Ethernet iSCSI Boot
Menu Intel® iSCSI Boot de sélection des ports
Menu Intel® iSCSI Boot spécifique aux ports
Menu de configuration Intel® iSCSI Boot
Configuration CHAP iSCSI
L’utilitaire Intel® iSCSI Boot comporte un menu de configuration permettant d’activer deux ports réseau sur un système
comme des périphériques iSCSI Boot. Pour configurer Intel iSCSI Boot, mettez le système sous tension ou réinitialisez-le, puis
appuyez sur les touches Ctrl-D lorsque le message "Press <Ctrl-D> to run setup..." s’affiche. Une fois que vous avez
appuyé sur les touches Ctrl-D, le menu Intel® iSCSI Boot de sélection des ports s’ouvre.
REMARQUE : lors du démarrage d’un système d’exploitation depuis un disque local, Intel® Ethernet iSCSI Boot doit
être désactivé sur tous les ports réseau.
Menu Intel® Ethernet iSCSI Boot de sélection des ports
Le premier écran du menu Intel® iSCSI Boot de configuration des ports affiche une liste des cartes compatibles avec Intel
iSCSI Boot. Pour chaque port de la carte, l’adresse MAC associée, l’ID de périphérique PCI, l’emplacement du bus PCI, du
périphérique ou de la fonction et un champ indiquant l’état Intel® Ethernet iSCSI Boot s’affichent. Jusqu'à 16 ports capables
d'amorçage iSCSI peuvent être affichés dans le menu de sélection des ports, 4 à la fois dans une liste déroulante. S’il existe
d’autres cartes compatibles avec Intel® iSCSI Boot, elles ne sont pas répertoriées dans le menu de configuration. L’utilisation
de ce menu est décrite ci-dessous :
Un port réseau du système peut être sélectionné comme port d’amorçage principal en appuyant sur la touche "P" une
fois que le port est mis en surbrillance. Le port d’amorçage principal sera le premier port utilisé par Intel® iSCSI Boot
pour connecter la cible iSCSI. Un seul port peut être sélectionné comme port d’amorçage principal.
Un port réseau du système peut être sélectionné comme port d’amorçage secondaire en appuyant sur la touche "S" une
fois que le port est mis en surbrillance. Le port d’amorçage secondaire sera utilisé pour se connecter à la cible iSCSI
uniquement si le port d’amorçage principal ne peut pas établir la connexion. Un seul port peut être sélectionné comme
port d’amorçage secondaire.
Appuyez sur la touche "D" lorsqu’un port réseau est mis en surbrillance pour désactiver iSCSI Boot sur ce port.
Appuyez sur la touche "B" lorsqu’un port réseau est mis en surbrillance pour faire clignoter un témoin sur ce port.
Appuyez sur la touche Échap pour quitter le menu de sélection du port.
Appuyez sur la touche ENTRÉE pour ouvrir le Menu iSCSI Boot spécifique aux ports pour ce port.
REMARQUES :
il est possible que deux cartes principales soient configurées si une carte précédemment configurée comme carte
principale est ajoutée au système alors qu’une autre carte principale y est déjà configurée. Désactivez l’une des
cartes ou configurez-en une comme carte secondaire.
Lors de la configuration du port principal et du port secondaire, chaque port peut posséder des paramètres de
cible différents. Ainsi, si la cible iSCSI principale ne parvient pas à se connecter à sa cible, le port secondaire
tente de se connecter à sa cible.
Menu Intel® iSCSI Boot spécifique aux ports
Le menu de configuration iSCSI spécifique aux ports possède quatre options :
Configuration iSCSI Boot - Sélectionnez cette option pour accéder au menu de configuration d’Intel® iSCSI Boot. Ce
menu est décrit en détails dans la section ci-dessous et permet de configurer les paramètres iSCSI du port réseau
sélectionné.
Configuration de CHAP - Sélectionnez cette option pour accéder à l’écran de configuration CHAP. Le menu de
configuration CHAP est décrit en détail dans la section ci-dessous.
Ignorer les modifications et quitter - Sélectionnez cette option pour ignorer toutes les modifications apportées dans
les écrans Configuration de iSCSI Boot et Configuration de CHAP et pour retourner au menu Intel® iSCSI Boot de
sélection des ports.
Enregistrer les modifications et quitter - Sélectionnez cette option pour enregistrer toutes les modifications
apportées dans les écrans Configuration de iSCSI Boot et Configuration de CHAP. Après avoir sélectionné cette option,
le menu Intel® iSCSI Boot de sélection des ports s’affiche.
Menu de configuration Intel® iSCSI Boot
Le menu de configuration de iSCSI Boot permet de configurer les paramètres de iSCSI Boot et IP (Internet Protocol) d’un port
spécifique. Les paramètres iSCSI peuvent être configurés manuellement ou récupérés de façon dynamique depuis un serveur
DHCP. Vous trouverez ci-dessous les options du menu de configuration d’Intel® iSCSI Boot :
Utiliser une configuration IP dynamique (DHCP) - Cochez cette case pour que iSCSI Boot tente d’obtenir l’adresse
IP du client, le masque de sous-réseau et l’adresse IP de la passerelle d’un serveur DHCP. Si cette case est cochée, les
champs suivants ne sont pas visibles.
Nom de l’initiateur - Entrez le nom de l’initiateur iSCSI devant être utilisé par Intel iSCSI Boot lors de la connexion à
une cible iSCSI. La valeur entrée dans ce champ est globale et utilisée par tous les ports activés pour iSCSI Boot du
système. Ce champ peut être laissé vide si la case "Use DHCP For Target Configuration" (Utiliser DHCP pour la
configuration cible) est cochée. Pour obtenir des informations sur l’obtention dynamique du nom de l’initiateur iSCSI
d’un serveur DHCP, reportez-vous à la section Configuration du serveur DHCP.
IP de l’initiateur - Entrez dans ce champ l’adresse IP du client devant être utilisée pour ce port dans une configuration
IP statique. Cette adresse IP sera utilisée par le port pendant toute la session iSCSI. Cette option est visible si DHCP
n’est pas activé.
Masque de sous-réseau - Entrez l’adresse IP du masque de sous-réseau dans ce champ. Il s’agit de l’adresse IP du
masque de sous-réseau utilisé sur le réseau et auquel le port sélectionné se connectera pour iSCSI. Cette option est
visible si DHCP n’est pas activé.
IP de la passerelle - Entrez dans ce champ l’adresse IP de la passerelle réseau. Ce champ doit être rempli si la cible
iSCSI se trouve sur un sous-réseau différent de celui du port Intel iSCSI Boot sélectionné. Cette option est visible si
DHCP n’est pas activé.
Utiliser DHCP pour les informations de la cible iSCSI - Cochez cette case pour que Intel iSCSI Boot tente d’obtenir
l’adresse IP de la cible iSCSI, le numéro de port IP, le nom de la cible iSCSI et l’ID de l’unité logique iSCSI d’un serveur
DHCP du réseau. Pour obtenir des informations sur la configuration des paramètres iSCSI de la cible en utilisant DHCP,
voir la section Configuration du serveur DHCP. Lorsque cette case est cochée, les champs suivants ne sont pas visibles.
Nom de la cible - Entrez dans ce champ le nom IQN de la cible iSCSI. Cette option est visible si DHCP n’est pas activé
pour la cible iSCSI.
REMARQUE : les noms IQN cibles peuvent être différents sur le port principal et le port secondaire.
IP de la cible - Entrez dans ce champ l’adresse IP de la cible iSCSI. Cette option est visible si DHCP n’est pas activé
pour la cible iSCSI.
Port de la cible - Numéro du port TCP. Cette option est visible si DHCP n’est pas activé pour la cible iSCSI.
LUN d’amorçage - Entrez dans ce champ l’ID LUN du disque d’amorçage de la cible iSCSI. Cette option est visible si
DHCP n’est pas activé pour la cible iSCSI.
REMARQUE : les unités logiques d'amorçage peuvent être différentes sur le port principal et le port secondaire
car le port principal et le port secondaire peuvent posséder des cibles différentes.
Configuration CHAP iSCSI
Intel® iSCSI Boot prend en charge l’authentification CHAP MD5 à sens unique avec une cible iSCSI. Intel® iSCSI Boot utilise
l’algorithme "MD5 Message Digest Algorithm" développé par RSA Data Security, Inc. Le menu Configuration CHAP iSCSI
comporte les options d’activation de l’authentification CHAP suivantes :
Utiliser CHAP - Cochez cette case pour activer l’authentification CHAP sur ce port. CHAP permet à la cible d’authentifier
l’initiateur. Après l’activation de l’authentification CHAP, le nom d’utilisateur et mot de passe de la cible doivent être
entrés.
Nom d’utilisateur - Entrez le nom d’utilisateur CHAP dans ce champ. Ce nom doit être identique au nom d’utilisateur
CHAP configuré sur la cible iSCSI.
Secret de la cible - Entrez le mot de passe CHAP dans ce champ. Il doit être identique au mot de passe CHAP
configuré sur la cible iSCSI et doit comporter entre 12 et 16 caractères. Ce mot de passe ne doit pas être identique au
Secret de l’initiateur.
Utiliser CHAP mutuel - Cochez cette case pour activer l’authentification CHAP mutuelle sur ce port. L’authentification
CHAP mutuelle permet à l’initiateur d’authentifier la cible. Après l’activation de l’authentification CHAP mutuelle, le mot
de passe de l’initiateur doit être entré. L’authentification CHAP mutuelle ne peut être sélectionnée que si l’option Utiliser
CHAP est sélectionnée elle aussi.
Secret de l’initiateur - Entrez le mot de passe de l’authentification CHAP mutuelle dans ce champ. Ce mot de passe
doit également être configuré sur la cible iSCSI et doit comporter entre 12 et 16 caractères. Ce mot de passe ne doit
pas être identique au Secret de la cible.
La fonctionnalité d’authentification CHAP de ce produit nécessite les mentions suivantes :
Ce produit comprend un logiciel de cryptographie écrit par Eric Young (eay@cryptsoft.com). Ce produit comprend un
logiciel écrit par Tim Hudson (tjh@cryptsoft.com).
Ce produit comprend un logiciel développé par OpenSSL Project à utiliser avec OpenSSL Toolkit
(http://www.openssl.org).
Intel PROSet pour le Gestionnaire de périphériques Windows
Bon nombre des fonctions du menu Intel® iSCSI Boot de sélection des ports peuvent être configurées ou modifiées en utilisant
Intel PROSet pour le Gestionnaire de périphériques Windows. Reportez-vous au Guide de l’utilisateur des cartes réseau Intel®
afin de savoir comment installer et utiliser Intel PROSet pour le Gestionnaire de périphériques Windows.
ID du VLAN
Le champ ID du VLAN était estompé dans l’écran du microprogramme iSCSI Boot car l’initiateur Microsoft* iSCSI Boot ne
prend pas en charge les réseaux locaux virtuels.
Veuillez lire toutes les restrictions et les avertissements.
Retour à la table des matières
Retour à la table des matières
Configuration de la cible iSCSI : Guide de l’utilisateur d’Intel®
Ethernet iSCSI Boot
Pour obtenir des informations spécifiques sur la configuration du système iSCSI cible et du volume disque, reportez-vous aux
instructions fournies par son fabricant. Vous trouverez ci-dessous les étapes de base nécessaires à la configuration du
démarrage iSCSI Ethernet Intel® pour qu’il fonctionne avec la plupart des systèmes iSCSI cibles. Les étapes peuvent être
différentes en fonction du fabricant.
REMARQUE : pour que la cible prenne en charge iSCSI Boot, elle doit pouvoir prendre en charge plusieurs sessions du
même initiateur. L’initiateur du microprogramme iSCSI Boot et l’initiateur High du SE doivent établir une session iSCSI
simultanément. Ces initiateurs utilisent tous les deux le même nom et la même adresse IP pour se connecter et
accéder au disque du SE, mais ils établissent des sessions iSCSI différentes. Pour que la cible prenne en charge iSCSI
Boot, elle doit pourvoir prendre en charge l’ouverture de plusieurs sessions et la connexion de plusieurs clients.
1. Configurez un volume disque sur votre système iSCSI cible. Notez l’ID de l’unité logique de ce volume, qui sera utilisé
lors de la configuration du microprogramme du démarrage iSCSI Ethernet Intel®.
2. Notez le nom IQN (iSCSI Qualified Name) de la cible iSCSI. Cette valeur sera utilisée comme nom de la cible iSCSI lors
de la configuration du microprogramme Intel® iSCSI Boot. L’IQN ressemble habituellement à ce qui suit :
iqn.1986-03.com.intel:target1
3. Configurez le système iSCSI cible pour qu’il accepte la connexion iSCSI de l’initiateur iSCSI. Cela nécessite
habituellement que le nom IQN de l’initiateur ou l’adresse MAC soient répertoriés afin d’autoriser l’accès de l’initiateur
au volume disque. Reportez-vous à la Configuration du microprogramme pour obtenir des informations sur la définition
du nom de l’initiateur iSCSI.
4. Un protocole d’authentification à sens unique peut être activé optionnellement pour sécuriser les communications. Le
protocole CHAP (Challenge-Handshake Authentication Protocol) peut être activé en configurant le nom d’utilisateur et le
mot de passe sur le système iSCSI cible. Pour configurer CHAP sur l’initiateur iSCSI, reportez-vous à la Configuration
du microprogramme pour plus de détails.
Pour configurer votre cible matérielle iSCSI, consultez la documentation de votre produit.
Démarrage depuis des cibles de taille supérieure à 2 To
Vous pouvez vous connecter et démarrer depuis une unité logique cible de taille supérieure à 2 téraoctets avec les restrictions
suivantes :
La taille des blocs de la cible doit être de 512 octets.
Les systèmes d'exploitation suivants sont pris en charge :
VMware* ESX 5.0 ou versions ultérieures
Red Hat* Enterprise Linux* 6.3 ou versions ultérieures
SUSE* Enterprise Linux 11SP2 ou versions ultérieures
Microsoft* Windows Server* 2012 ou versions ultérieures
Il est possible que vous ne puissiez accéder qu'au 2 premiers téraoctets de données.
REMARQUE : le pilote de vidage sur incident ne prend pas en charge les unités logiques cibles de taille supérieure à
2 To.
Veuillez lire toutes les restrictions et les avertissements.
Retour à la table des matières
Retour à la table des matières
Configuration du serveur DHCP : Guide de l’utilisateur d’Intel®
Ethernet iSCSI Boot
Si vous utilisez le protocole DHCP (Dynamic Host Configuration Protocol), le serveur DHCP doit être configuré pour fournir les
configurations d’amorçage iSCSI à l’initiateur iSCSI. Il est indispensable de configurer le serveur DHCP pour qu’il spécifie
l’option de chemin d’accès racine 17 et l’option de nom d’hôte 12 lorsqu’il renvoie les informations de cible iSCSI en réponse à
l’initiateur iSCSI. L’option DHCP 3, liste des routeurs, peut être nécessaire, en fonction de la configuration du réseau.
REMARQUE : la détection des conflits doit être activée sur le serveur DHCP.
Option de chemin d’accès racine DHCP 17 :
La chaîne de configuration de l’option du chemin d’accès racine iSCSI utilise le format suivant :
ISCSI:<nom du serveur ou adresse IP>:<protocole>:<port>:<LUN>:<nomcible>
Exemples :
iscsi:192.168.0.20:6:3260:0:iqn.1986-03.com.intel:target1
Nom du serveur : Nom du serveur iSCSI ou adresse IPv4 littérale valide. Exemple : 192.168.0.20.
Protocole : Protocole de transport utilisé par iSCSI. La valeur par défaut est TCP (6). Aucun autre
protocole n’est pris en charge.
Port : Numéro du port de la cible iSCSI. La valeur par défaut 3260 est utilisée si ce champ est laissé en
blanc.
Unité logique : ID de l’unité logique configuré sur le système iSCSI cible. L’ID de l’unité logique entré doit
être au format hexadécimal. Par exemple, un ID LUN de 64 (décimal) doit être configuré sous la forme 40
(hexadécimal). La valeur par défaut est zéro.
Nom de la cible : Nom de la cible iSCSI qui identifie de façon unique la cible iSCSI au format IQN.
Exemple : iqn.1986-03,com.intel:target1
Option de nom d’hôte DHCP 12 :
Configurez l’option 12 avec le nom d’hôte de l’initiateur iSCSI.
Option DHCP 3, liste des routeurs :
Configure l’option 3 avec l’adresse IP de la passerelle ou du routeur, si l’initiateur iSCSI et la cible iSCSI se trouvent sur des
sous-réseaux différents.
Veuillez lire toutes les restrictions et les avertissements.
Retour à la table des matières
Retour à la table des matières
Configuration du démarrage iSCSI Ethernet Intel® sous
Microsoft Windows* : Guide de l’utilisateur d’Intel® Ethernet
iSCSI Boot
Installation et configuration d’Intel iSCSI/DCB sous Microsoft* Windows*
iSCSI Over DCB
Configuration du démarrage iSCSI Ethernet Intel®
Installation et configuration d’Intel iSCSI/DCB sous Microsoft*
Windows*
Conditions requises pour la carte
Cette fonctionnalité n'est prise en charge que sur les cartes réseau X520 et X540.
Installation
Sur l’écran d’installation du logiciel Intel, sélectionnez la case iSCSI/DCB. Le processus d’installation installe le service DCB
correspondant et la fonction TLV de l’application iSCSI/DCB.
Configuration
1. Dans Windows Device Manager (Gestionnaire de périphériques Windows), ouvrez Networking Adapters (Cartes
réseau) et mettez en surbrillance la carte appropriée (comme la carte Intel® Ethernet Server X520). Cliquez à droite de
la souris sur Intel adapter (Carte Intel) et sélectionnez Properties (Propriétés).
2. Dans Property Page (Page propriétés), sélectionnez l’onglet Data Center (Centre de données).
3. Les fonctions de pontage de centre de données peuvent être définies sur le commutateur ou la carte. Nous vous
recommandons d’utiliser la fonction switch settings (Paramètres du commutateur) sauf en cas d’impossibilité. En
sélectionnant switch settings, la classe de trafic iSCSI et les garanties de bande passante minimum sont définies par
les paramètres DCB dans le commutateur compatible avec DCB. Avant tout, vous pouvez pousser les paramètres DCB
pour un commutateur unique vers un nombre d’hôtes plutôt que d’essayer de configurer chaque hôte. Pour que la carte
définisse la classe de trafic et la bande passante, décochez les paramètres du commutateur et définissez le trafic
approprié (0-7), ainsi que le pourcentage de la bande passante que vous souhaitez attribuer pour le trafic iSCSI.
L’onglet Data Center (Centre de données) permet d’obtenir un retour d’information comme l’état du DCB, opérationnel
ou non opérationnel, ainsi que les détails supplémentaires, même s’ils sont non opérationnels. Il est important de noter
que le DCB doit négocier entre la carte et son partenaire de liaison, en général un commutateur. Si le commutateur
n’est pas compatible avec le DCB, l’établissement de liaison DCB échoue mais la connexion iSCSI n’est pas perdue.
iSCSI over DCB (Pontage de centre de données)
L’installation iSCSI comprend l’installation de l’agent iSCSI DCB (iscsidcb.exe), qui est un service de mode utilisateur.
Prise en charge - le matériel : iSCSI Over DCB est pris en charge par toutes les cartes compatibles avec FCoE.
Prise en charge - logiciel : Windows Server 2012 R2, Windows Server 2012, Windows Server 2008 SP2, Windows Server 2008
SP2 (avec rôle Hyper-V), Windows Server 2008 R2, Windows Server 2008 R2 (avec rôle Hyper-V).
REMARQUE : DCB ne s’installe pas dans un VM. iSCSI over DCB n’est pris en charge que dans le système d’exploitation
de base. Un initiateur iSCSI fonctionnant dans un VM ne tirera aucun avantage des améliorations DCB Ethernet.
Configuration iSCSI Over DCB
iSCSI Over DCB est configuré à partir de l’onglet Data Center (Centre de données) d’Intel® PROSet dans le Gestionnaire
de périphériques Windows*.
La bande passante iSCSI (après amorçage) est configurée via le DCB, si ce dernier est installé.
En mode local, la baisse ou l’augmentation du pourcentage de la bande passage FCoE ou iSCSI diminue ou augmente
respectivement les paramètres de la bande passante du réseau local.
FCoE/iSCSI ne peut coexister sur la même priorité utilisateur.
Les pourcentages de bande passante pour le réseau local, FCOE (si installé) et iSCSI (si installé) doivent atteindre
100%.
Utilisation d’iSCSI over DCB avec l’association ANS
L’agent Intel® iSCSI est responsable du maintien de tous les routeurs filtrants en ce qui concerne le trafic iSCSI de balisage de
priorité sur les cartes activée DCB. L’agent iSCSI crée et maintient un filtre de trafic pour une association ANS si au moins un
membre de l’association a un état DCB "opérationnel". Cependant, si une carte de l’association n’a pas l’état DCB
"opérationnel", l’agent iSCSI enregistre une erreur pour cette carte dans le journal d’événements Windows. Ces messages
d’erreur signalent à l’administrateur les problèmes de configuration qui doivent être traités, mais n’ont aucun effet sur le
balisage ou le flux du trafic iSCSI de cette association, à moins que le retrait du filtre TC ne soit mentionné.
Configuration du démarrage iSCSI Ethernet Intel® sous Microsoft
Windows*
Conditions requises
Installation de Windows Server 2008 et de Windows Server 2012
Prise en charge du vidage sur incident
Conditions requises
1. Suivez les étapes d’installation pour installer des cartes compatibles avec le démarrage iSCSI Ethernet Intel® avec prise
en charge du microprogramme de démarrage iSCSI Intel.
2. Créez une unité logique (LUN) cible sur un système iSCSI cible disponible. Configurez cette unité logique pour qu’elle
soit accessible par l’adresse MAC de la carte de l’hôte en cours d’amorçage.
3. Assurez-vous que le système de l’initiateur iSCSI démarre le microprogramme iSCSI Boot. Le microprogramme doit être
configuré correctement, pouvoir se connecter à la cible iSCSI et détecter le disque d’amorçage.
4. Obtenez la dernière version de l’initiateur logiciel iSCSI Microsoft* avec prise en charge intégrée de l’amorçage du
logiciel à partir d’ici.
5. Pour configurer le système d’amorçage Windows Server 2008, suivez les étapes d’Installation de Windows Server 2008.
6. Pour activer la prise en charge du vidage sur incident, suivez les étapes de Prise en charge du vidage sur incident.
7. Pour toute information sur iSCSI Over DCB, consultez iSCSI Over DCB.
Installation de Windows Server 2008 et de Windows Server 2012
Installation depuis Microsoft Media
REMARQUE : Windows Server 2008 et Windows Server 2012 prennent en charge de façon native l’installation d’une
cible iSCSI sans disque local et le démarrage iSCSI sous le SE.
REMARQUE : dans Windows Server 2008, Dell Update Package (DUP) n’installe pas par défaut le composant DCB du
pilote Intel en raison de la nécessité de redémarrage imposée par Microsoft. Pour installer le composant DCB (iSCSI),
1. Accédez au panneau de configuration et sélectionnez Ajout/Suppression de programmes.
2. Sélectionnez le programme Connexions réseau Intel® et cliquez sur le bouton Modifier.
3. Sélectionnez l’option d’installation de DCB (iSCSI).
1. Installer Windows Server 2008 et Windows Server 2012
2. Sélectionnez une unité logique iSCSI dans l’écran "Où souhaitez-vous installer Windows ?". Le support d’installation de
Windows Server prend en charge le contrôleur réseau par défaut. Continuez pour terminer l’installation du SE.
3. Si aucune unité logique iSCSI n’est répertoriée dans l’écran "Où souhaitez-vous installer Windows ?", cliquez sur
"Charger un pilote" pour installer le pilote réseau des contrôleurs réseau. Les pilotes de réseau se trouvent sur le CD
Pilote de réseau Intel ou peuvent être téléchargés sur le site http://www.intel.com/support/fr/network/sb/CS006120.htm vers un support USB. Si une unité logique iSCSI est répertoriée, continuez pour terminer l’installation du
SE.
4. Pour les contrôleurs réseau de 10 gigabits, après avoir suivi l’étape 3 ci-dessus, suivez les étapes ci-dessous dans la
fenêtre de sélection du pilote si l’unité logique iSCSI n’est toujours pas répertoriée.
a. Créez le répertoire WINPE INF du pilote.
i. Créez un répertoire temporaire (par exemple, f:\temp\winpe sur le support USB).
ii. Copiez tous les fichiers du répertoire approprié du CD dans le répertoire temporaire. Ne copiez PAS les
fichiers INF du répertoire dans le répertoire temporaire.
iii. Décompressez les fichiers INF du même répertoire que celui de l’étape ii ci-dessus dans le répertoire
temporaire.
b. Appuyez sur les touches Maj.+F10 pour afficher l’invite de commande de Windows PE.
c. Entrez "drvload <chemin d’accès>", où <chemin d’accès> correspond au chemin d’accès du répertoire WinPE inf.
d. Fermez la fenêtre de sélection du pilote en cliquant sur le X dans l’angle supérieur droit de la fenêtre.
L’application redémarre automatiquement depuis l’écran d’installation initial, avec le pilote réseau installé.
Continuez pour terminer l’installation du SE.
Installation WDS de Windows Server 2008 et de Windows Server 2012
Microsoft fournit WDS, Windows Deployment Services, pour acquérir à distance une image d’installation. Une carte réseau est
affectée à la ROM optionnelle PXE afin de récupérer l’image d’installation et une autre carte est affectée à la ROM optionnelle
iSCSI pour la destination de l’installation de Windows Server* 2008 ou de Windows Server 2012. Il est possible que
l’utilisateur doive préparer une image de démarrage personnalisée selon l’article MS TechNet sur Windows Deployment
Services.
Configuration de WDS
1. Préparez l’environnement WDS et l’image de démarrage personnalisée selon l’article de MS TechNet.
2. Injectez le pilote réseau et INF depuis le répertoire approprié dans l’image de démarrage personnalisée. Pour déterminer
depuis quel répertoire copier les fichiers, reportez-vous à la section Déterminer le répertoire de pilotes Windows pour
l’installation de Windows Server 2008.
REMARQUE : Windows Server* 2012 R2 utilise NDIS 6.4, Windows Server 2012 utilise NDIS 6.3, Windows Server 2008
R2 utilise NDIS 6.2 et Windows Server 2008 SP1 ou SP2 utilisent NDIS 6.1.
Configuration du système
1.
2.
3.
4.
5.
6.
Installez une carte dont la mémoire flash contient Intel® Boot Agent ou configurez le LOM sur votre système pour PXE.
Installez une carte dont la mémoire flash contient la ROM optionnelle iSCSI.
Démarrez le système.
Accédez au menu de configuration du BIOS et configurez la carte PXE comme périphérique de démarrage principal.
Redémarrez le système.
Accédez à l’écran de configuration iSCSI en appuyant sur CTRL-D et activez le port principal. Activez les ports
secondaires si votre configuration l’exige. Entrez les paramètres statiques si vous n’utilisez pas DHCP. Pour davantage
d’informations sur les options de l’écran de configuration iSCSI, cliquez ici.
REMARQUE : si vous voulez utiliser strictement DHCP, vous devez activer l’option 60 pour PXE, ainsi que les
options 12 et 17 pour iSCSI sur le serveur DHCP.
7. Redémarrez le système.
8. Assurez-vous que la ROM optionnelle iSCSI se connecte à l’unité logique iSCSI et que la ROM optionnelle PXE se
connecte au serveur WDS.
Installation
1. Démarrez le système via PXE sur le serveur WDS Server, en vérifiant que la ROM optionnelle iSCSI s’est connectée à
votre cible.
2. Choisissez l’image de démarrage de Windows Server 2008 ou de Windows Server 2012 que vous avez modifiée avec les
pilotes réseau.
3. Sélectionnez une unité logique iSCSI dans l’écran "Où voulez-vous installer Windows ?". Continuez pour terminer
l’installation du SE.
Si aucune unité logique iSCSI n’est présente dans l’écran "Où souhaitez-vous installer Windows ?".
A. Intégrez l’autre INF, sujet traité dans l’étape 2 de la section Configuration de WDS ci-dessus, dans l’image
d’amorçage personnalisée sur votre serveur WDS. Redémarrez et tentez une nouvelle installation.
OU
B. Chargez manuellement les pilotes réseau :
i. À l'aide de la commande "setup -a", décompressez l'archive de mise à jour de pilotes Dell pour extraire les
pilotes. Si une unité logique iSCSI est répertoriée (étape 3 ci-dessus), continuez pour terminer
l’installation du SE.
ii. Sur un autre système, créez un répertoire de pilotes WINPE INF sur un support amovible.
1. Créez un répertoire temporaire (par exemple, F:\temp\winpe sur le support USB).
2. Copiez tous les fichiers depuis le répertoire PROXGB\\Win32\\NDISxx (ou
PROXGB\\Winx64\\NDISxx) vers le répertoire temporaire. NDISxx indique la version NDIS. Ne
copiez PAS les fichiers .INF du répertoire NDISxx dans le répertoire temporaire.
3. Extrayez les fichiers .INF du fichier PROXGB\\Win32\\NDISxx\\WinPE\\*.zip dans le répertoire
temporaire.
iii. Redémarrez et suivez les instructions ci-dessus jusqu'à ce que vous arriviez à "Où souhaitez-vous installer
Windows ?"
iv. Appuyez sur les touches Maj+F10 pour afficher l’invite de commande Windows PE et connectez le support
amovible au système.
v. Entrez "drvload <chemin d’accès>", où <chemin d’accès> correspond à l’emplacement du répertoire
temporaire créé à l’étape A ci-dessus.
vi. Cliquez sur Actualiser dans l’écran "Où souhaitez-vous installer Windows ?".
vii. L’unité logique iSCSI s’affiche une fois que l’actualisation est terminée. Continuez pour terminer
l’installation.
Prise en charge du vidage sur incident
Pour assurer un vidage complet de la mémoire,
définissez une taille de fichier d'échange égale ou supérieure à la quantité de mémoire vive installée sur le système pour
vider complètement la mémoire ;
veillez à ce que l'espace libre disponible sur le disque dur soit suffisant en fonction de la quantité de mémoire vive
installée sur le système.
Il est possible que le vidage de la mémoire ne soit pas complet si ces conditions ne sont pas remplies.
Microsoft Windows Server 2008 et Server 2012
La création du fichier de vidage sur incident est prise en charge par le pilote de vidage sur incident iSCSI Intel pour Windows
Server 2008 x86/x64 ou Server 2012 x86/x64 amorcés par iSCSI. Un correctif logiciel est disponible pour la génération de
fichier de vidage sur incident utilisant Intel 10 Gigabit Ethernet sur : http://support.microsoft.com/kb/970312.
REMARQUE : ce correctif logiciel n’est pas nécessaire pour Intel 1 Gigabit Ethernet.
Pour configurer la prise en charge du vidage sur incident, procédez comme suit :
1. Configurez Windows iSCSI Boot comme décrit dans la documentation précédente.
2. Installez Intel PROSet pour le Gestionnaire de périphériques Windows à l’aide de l’exécution automatique depuis le CD
Intel Network Driver si ce n’est pas déjà fait.
3. Ouvrez Intel PROSet pour le Gestionnaire de périphériques Windows et sélectionnez l’onglet Boot Options.
4. Depuis Settings (Paramètres), sélectionnez ISCSI Remote Boot Crash Dump (Vidage sur incident ISCSI Remote Boot) et
Value Enabled (Valeur activée) et cliquez sur OK.
Plateformes amorcées par l’initiateur iSCSI UEFI natif
À partir de la version 2.2.0.0, le pilote iSCSI de vidage de la mémoire sur incident prend également en charge les plateformes
amorcées à l’aide de l’initiateur iSCSI UEFI natif sur les cartes réseau Intel prises en charge. Cette prise en charge est
possible sur Windows Server 2008 ou postérieur et uniquement sur une architecture 64 bits. Tous les correctifs logiciels
répertoriés dans la prise en charge du vidage sur incident pour Microsoft Windows Server 2008 doivent également être
appliqués.
Comme sur les plateformes UEFI les cartes réseau ne fournissent pas forcément de ROM optionnelle iSCSI existante, l’onglet
des options d’amorçage dans DMIX ne permet pas forcément d’activer le pilote iSCSI de vidage de la mémoire sur incident. Si
c’est le cas, l’entrée de registre suivante doit être créée :
HKLM\SYSTEM\CurrentControlSet\Control\Class\{4D36E97B-E325-11CE-BFC1-08002BE10318}\
<IDInstance>\Parameters
DumpMiniport REG_SZ iscsdump.sys
Veuillez lire toutes les restrictions et les avertissements.
Retour à la table des matières
Retour à la table des matières
Configuration d’installation Linux pour le démarrage iSCSI
Ethernet Intel® : Guide de l’utilisateur d’Intel® Ethernet iSCSI
Boot
Installation de l’initiateur Open-iSCSI
Configuration de l’initiateur Open-iSCSI
Configuration logicielle DCBx
Installation du démarrage iSCSI Ethernet Intel®
Installation de l’initiateur Open-iSCSI
1. Installez les utilitaires de l’initiateur Open-iSCSI.
#yum -y install iscsi-initiator-utils
Configuration de l’initiateur Open-iSCSI
1. Reportez-vous au site www.open-iscsi.org/docs/README.
2. Configurez votre batterie de disques iSCSI pour obtenir l’accès.
Consultez /etc/iscsi/initiatorname.iscsi pour le nom de l’initiateur hôte Linux
Mettez à jour votre gestionnaire de volume avec ce nom d’initiateur hôte.
3. Définissez iscsi pour démarrer à l’amorçage.
#chkconfig iscscd on
#chkconfig iscsi on
4. Démarrez le service iSCSI (192.168.x.x correspond à l’adresse IP de votre cible).
#iscsiadm -n discovery -t s -p 192.168.x.x
Observez les noms cibles donnés par la détection iscsi.
5. Connectez-vous sur la cible (-m XXX -T correspond à XXX -l XXX -).
iscsiadm -m node -T iqn.2123-01.com:yada:yada: -p 192.168.2.124 -l
Configuration logicielle DCBx
Le protocole DCBx (Échange de pontage de centre de données) propose des services permettant d’établir une matrice Ethernet
sans perte de paquets à la fois pour FCoE et pour iSCSI. La plupart des configurations FCoE et plusieurs réseaux iSCSI doit
avoir le protocole DCBx configuré et installé. Les instructions pour la configuration du DCBx sont ici.
Installation du démarrage iSCSI Ethernet Intel®
Cette section décrit comment installer Linux sur un disque dur de sorte que le disque soit amorçable avec une carte compatible
Intel® iSCSI Boot. Il existe deux méthodes :
Installation directe sur un disque dur d’une batterie de disques de stockage iSCSI (installation à distance).
Installation sur un disque dur local, puis transfert de ce disque dur ou de cette image de SE sur une cible iSCSI
(installation locale).
Pour plus d’informations sur l’énumération de périphériques SCSI, reportez-vous à Annexe A à la fin de ce document.
iSCSI Boot est pris en charge par les systèmes d’exploitation suivants.
SUSE* Linux Enterprise Server 11
Red Hat* Enterprise Linux
SUSE* Linux Enterprise Server 10
REMARQUE : actuellement, seul SLES11 SP3 est pris en charge. SLES fournit une prise en charge native de l’amorçage
et de l’installation à distance iSCSI. Cela signifie qu’aucune étape supplémentaire n’est nécessaire en dehors du
programme d’installation pour installer sur une cible iSCSI utilisant une carte Intel Gigabit PCI Express Server.
Reportez-vous à la documentation de SLES10 pour des instructions sur l’installation sur une unité logique iSCSI.
Red Hat Enterprise Linux
REMARQUE : actuellement, seul Red Hat Enterprise Linux 6.5 est pris en charge. RHEL assure une prise en charge
native de l’amorçage et de l’installation d’Intel® iSCSI Boot. Cela signifie qu’aucune étape supplémentaire n’est
nécessaire en dehors du programme d’installation pour installer sur une cible iSCSI utilisant une carte Intel Gigabit PCI
Express Server. Reportez-vous à la documentation de RHEL6.5 pour des instructions sur l’installation sur une unité
logique iSCSI.
Annexe A : Énumération des périphériques
Les unités logiques iSCSI sont détectées en tant que nœuds de périphériques SCSI. L’énumération des périphériques SCSI est
dynamique. Le sous-système SCSI crée des nœuds de périphériques afin qu’ils soient détectés, à commencer par /dev/sda
puis dans l’ordre alphabétique. Dans le cas d’une énumération d’unités logiques iSCSI, les périphériques SCSI locaux tels que
les disques ou les périphériques USB ont une incidence sur ce processus. Si un nœud de périphérique est créé pour un
périphérique USB avant une détection iSCSI, le périphérique USB est représenté par /dev/sda et les unités logiques iSCSI
commenceront par /dev/sdb. Cependant, si ce système est redémarré sans le périphérique USB, les unités logiques iSCSI
commencent par /dev/sda. Il est important de configurer le grub correctement pour qu’il pointe vers le nœud de périphérique
correct afin d’effectuer l’amorçage depuis un disque dur iSCSI.
Lors de l’installation sur une unité logique iSCSI, il arrive souvent qu’un périphérique dépendant du sous-système SCSI soit
utilisé pour l’installation des supports. Par exemple, l’utilisation d’un lecteur flash USB pour le DUM (Driver Update Media).
Comme indiqué précédemment, cela affecte la manière dont le grub doit être configuré lors de l’installation.
Voici un exemple illustrant comment les mappages de nœuds de périphériques iSCSI peuvent être différents entre l’installation
et le démarrage. Dans cet exemple, l’utilisateur utilise un lecteur flash USB comme DUM. Ce périphérique étant utilisé pour
copier des fichiers sur le système, il est présent avant la détection iSCSI. Cependant, lors de l’amorçage avec le disque iSCSI
Boot, aucun lecteur flash USB n’est nécessaire et il n’est donc pas connecté.
Installation à distance :
Lecteur flash USB ou de disquette USB
/dev/sda
LUN 0
/dev/sdb
LUN 1
/dev/sdc
Amorçage :
LUN 0
/dev/sda
LUN 1
/dev/sdb
Si le périphérique USB est connecté après l’amorçage, il est énuméré comme tel, Lecteur flash USB ou de disquette USB
/dev/sdc.
Il est également possible que d’autres périphériques USB soient connectés au système et il incombe alors à l’utilisateur de
déterminer s’ils affecteront le mappage des nœuds de périphériques lors de l’amorçage.
Annexe B : Installation locale sur un périphérique IDE
Après avoir effectué une installation locale sur un périphérique IDE, l’utilisateur doit modifier le grub afin que, lors de
l’amorçage, la partition racine soit identifiée comme un périphérique SCSI. Lors d’une installation sur un disque dur IDE local,
le nœud de périphérique utilisé se présente sous la forme /dev/hdX, mais, lorsque ce volume est exposé par la cible iSCSI,
l’initiateur voit le disque dur comme un périphérique SCSI et il se présente sous la forme /dev/sdX. Ce changement doit être
effectué dans le fichier de configuration de grub. Ce type de problème illustre la nécessité pour l’utilisateur de bien
comprendre les concepts décrits dans ce document, car les spécificités peuvent être très différentes.
Annexe C : Longueur inhabituelle de l’amorçage
Dans certains cas, si l’amorçage du système prend un temps inhabituel, vous pouvez tenter de commenter la ligne suivante du
fichier /etc/init.d/iptables:
$IPTABLES-restore $OPT $IPTABLES_DATA
if [ $? -eq 0 ]; then
success; echo
else
failure; echo; return 1
Cela peut être nécessaire, car il est possible que la commande réinitialise la connexion.
Annexe D : Vidage sur incident pour Linux
SUSE Linux Enterprise Server : l’utilitaire Netdump peut être utilisé pour vider l’image de disque lorsque le système se bloque.
Veuillez lire toutes les restrictions et les avertissements.
Retour à la table des matières
Retour à la table des matières
Pontage de centre de données (DCB) pour Connexions réseau
Intel® : Guide de l’utilisateur d’Intel® Ethernet iSCSI Boot
Présentation
DCB pour Linux
Présentation
Le pontage de centre de données est une collection d’extensions basées sur des normes à l’Ethernet classique. Il fournit une
couche de transport sans perte pour les centres de données qui autorise la convergence des LAN et SAN sur une infrastructure
Unified Fabric unique. Il améliore le fonctionnement du trafic vital pour l’entreprise.
Le pontage de centre de données est une infrastructure souple qui définit les capacités nécessaires pour que les commutateurs
et points d’extrémité fassent partie du tissu d’un centre de données. Il comprend les capacités suivantes :
Priority-based flow control (PFC ; IEEE 802.1Qbb) (Contrôle de flux basé sur des priorités)
Enhanced transmission selection (ETS ; IEEE 802.1Qaz) (Sélection améliorée des transmissions)
Congestion notification (CN) (Notification de congestion)
Extensions de la norme Link Layer Discovery Protocol (IEEE 802.1AB) permettant l’utilisation du protocole DCBX (Data
Center Bridging Capability Exchange)
Deux versions de DCBX sont prises en charge :
Version 1 : Cette version de DCBX est stipulée dans l’Annexe F de la norme FC-BB-5 (FCoE) comme la version de DCBX
utilisée dans les implémentations pré-FIP de FCoE.
Version 2 : La spécification est accessible en suivant un lien dans le document suivant :
http://www.ieee802.org/1/files/public/docs2008/dcb-baseline-contributions-1108-v1.01.pdf
Pour davantage d’informations sur DCB, y compris la spécification du protocole DCBX, visitez le site
http://www.intel.com/technology/eedc/ ou http://www.ieee802.org/1/pages/dcbridges.html.
Pour connaître la configuration requise, cliquez ici.
DCB pour Linux
Contexte
Conditions requises
Fonctionnalité
Options
Mise en place
Fonctionnement
Test
Présentation de dcbtool
Options de dcbtool
Commandes
Questions-réponses
Problèmes connus
Licence
Contexte
Les couches qdiscs ont été introduites à partir du noyau 2.4.x. La raison de cet effort était de fournir la qualité de service (QS)
dans le logiciel, car le matériel ne fournissait pas les interfaces nécessaires pour sa prise en charge. Dans le noyau 2.6.23,
Intel a poussé la notion de prise en charge de plusieurs files d’attente dans la couche qdisc. Cela permet de mapper les files
d’attente logicielles de la structure qdisc dans plusieurs files d’attente matérielles des périphériques sous-jacents. Dans le cas
des cartes Intel, ce mécanisme est utilisé pour mapper les files d’attente qdisc sur les files d’attente de vos contrôleurs
matériels.
Dans les centres de données, la perception est que le protocole Ethernet traditionnel a une latence élevée et qu’il a tendance à
perdre des trames, ce qui le rend inacceptable dans les applications de stockage.
Intel et de nombreux autres leaders de l’industrie se sont efforcés de résoudre ces problèmes. En particulier, plusieurs groupes
de travail de la commission d’élaboration des normes IEEE 802.1 travaillent sur des améliorations permettant de résoudre ces
problèmes. Vous trouverez ci-dessous les commissions de normalisation applicables :
Sélection de transmission avancée
IEEE 802.1Qaz
Lossless Traffic Class
Priority Flow Control : IEEE 802,1Qbb
Congestion Notification : IEEE 802,1Qau
DCB Capability exchange protocol : IEEE 802,1Qaz
La solution logicielle proposée représente l’implémentation de ces efforts par Intel. Il est important de noter que beaucoup de
ces normes n’ont pas été ratifiées : il s’agit d’une version pré-ratification et nous recommandons aux utilisateurs de consulter
fréquemment Sourceforge. Alors que nous avons travaillé avec les principaux fabricants d’écosystèmes sur la validation de
cette version, de nombreux fabricants développent toujours des solutions. Alors que ces solutions sont rendues disponibles et
que les normes sont ratifiées, nous travaillerons avec les partenaires des écosystèmes et les commissions de normalisation
pour nous assurer que la solution Intel fonctionne comme prévu.
Conditions requises
Version RHEL 6 ou ultérieure ou SLES 11 SP1 ou ultérieure.
Noyau Linux de version 2.6.29 ou ultérieure.
Pilote Linux ixgbe (pour cartes Intel® 82599 et X540) à partir d’un noyau 2.6.29 ou ultérieur.
La version 2.6.29 ou une version plus récente du module "iproute2" doit être téléchargée et installée pour obtenir une
version de l’utilitaire tc pouvant détecter plusieurs files d’attente.
Recherchez les nouvelles versions à : http://www.linuxfoundation.org/en/Net:Iproute2
La version 2.5.33 de Flex doit être installée (pour prendre en charge iproute2). SLES10 possède une version plus
ancienne de Flex. La dernière source Flex peut être obtenue sur le site http://flex.sourceforge.net/
Une bibliothèque netlink à jour doit être installée pour compiler lldpad.
Carte Intel® 82599 ou X540.
Fonctionnalité
lldpad
Exécute le Protocole de détection sur la couche de liaison (LLDP) sur toutes les interfaces prises en charge.
Exécute le protocole d’échange de capacités DCB pour échanger les données de configuration DCB avec le périphérique
pair en utilisant LLDP.
Prend en charge les versions du protocole d’échange de capacités DCB décrites ici :
Version pré-CEE : <aucun lien disponible>
Version CEE : <http://www.ieee802.org/1/files/public/docs2008/az-wadekar-dcbx-capability-exchange-discoveryprotocol-1108-v1.01.pdf>
Version IEEE : IEEE Std 802.1Qaz-2011 <aucun lien disponible>
Récupère la configuration DCB et la stocke dans un fichier de configuration.
Contrôle les paramètres DCB du pilote réseau en fonction du protocole d’échange de capacités DCB. L’interaction avec
un pilote réseau compatible est assurée par des opérations DCB ajoutées à l’interface rtnetlink dans le noyau 2.6.29.
Prend en charge les fonctionnalités DCB suivantes : Enhanced Transmission Selection, Priority Flow Control, FCoE et
FCoE Logical Link Status.
Fournit une interface permettant aux applications clientes d’interroger et de configurer les fonctionnalités DCB. Génère
des événements d’interface client lorsque la configuration opérationnelle ou l’état d’une fonctionnalité est modifiée.
lldptool
dcbtool
Interagit avec dcbd via l’interface client.
Demande l’état de la configuration locale, l’état opérationnel et l’état de la configuration du pair concernant les
fonctionnalités DCB prises en charge.
Prend en charge la configuration des fonctionnalités DCB prises en charge.
Le mode interactif permet d’entrer plusieurs commandes de façon interactive et d’afficher les messages d’événement.
Active ou désactive l’interface DCB.
Options
lldpad prend en charge les options de ligne de commande suivantes :
-h
afficher les informations d’utilisation
configfile : utiliser le fichier spécifié comme fichier de configuration au lieu du fichier par défaut /etc/sysconfig/dcbd/dcbd.conf
exécuter dcbd comme daemon
afficher dcbd versionSetup
terminer le système d’exploitation en cours d’exécution lldpad
supprimer les enregistrements de l’état lldpad
-f
-d
-v
-k
-s
Mise en place
1. Chargez le module ixgbe.
2. Vérifiez que le service lldpad est fonctionnel. Si lldpad est installé, exécutez la commande "service lldpad status" (État
du service lldpad) pour vérifier, "service lldpad start" (Démarrage du service lldpad) pour démarrer ou "lldpad -d"
depuis la ligne de commande pour démarrer.
3. Activez DCB sur le port ixgbe sélectionné : dcbtool sc ethX dcb on.
4. La commande dcbtool peut être utilisée pour interroger DCB et modifier sa configuration (par exemple, différents
pourcentages sur les files d’attente). Utilisez la commande dcbtool -h pour afficher une liste d’options.
Fonctionnement DCBX
lldpad et dcbtool peuvent être utilisés pour configurer un pilote compatible avec DCB, tel que le pilote ixgbe, qui prend en
charge l’interface DCB rtnetlink. Une fois que les fonctionnalités DCB sont configurées, l’étape suivante consiste à classer le
trafic à identifier avec une priorité 802.1p et les fonctionnalités DCB associées. Pour cela, vous pouvez utiliser la commande
’tc’ pour configurer qdisc et des filtres pour que le trafic réseau soit transmis sur différentes files d’attente.
Le mécanisme d’action skbedit peut être utilisé dans un filtre tc pour classer les modèles de trafic avec une valeur
queue_mapping spécifique de 0 à 7. Le pilote ixgbe place le trafic possédant une valeur queue_mapping donnée sur la file
d’attente matérielle correspondante et étiquette les trames sortantes avec la valeur de priorité 802.1p correspondante.
Configurez les files d’attente qdisc multiples pour l’interface sélectionnée :
# tc qdisc add dev ethX root handle 1: multiq
La configuration de la valeur queue_mapping dans un filtre TC permet au pilote ixgbe de classer un paquet dans une file
d’attente. Vous trouverez ci-dessous des exemples montrant comment filtrer le trafic dans différentes files d’attente en
utilisant des ID de flux :
# tc filter add dev ethX protocol ip parent 1: u32 match ip dport 80 \
0xffff action skbedit queue_mapping 0
# tc filter add dev ethX protocol ip parent 1: u32 match ip dport 53 \
0xffff action skbedit queue_mapping 1
# tc filter add dev ethX protocol ip parent 1: u32 match ip dport 5001 \
0xffff action skbedit queue_mapping 2
# tc filter add dev ethX protocol ip parent 1: u32 match ip dport 20 \
0xffff action skbedit queue_mapping 7
Voici un exemple de configuration de filtre basé sur EtherType. Dans cet exemple, le type EtherType est 0x8906.
# tc filter add dev ethX protocol 802_3 parent 1: handle 0xfc0e basic match \
’cmp(u16 at 12 layer 1 mask 0xffff eq 35078)’ action skbedit queue_mapping 3
Test
Pour tester une configuration enchaînée, utilisez les commandes tc pour configurer qdisc et les filtres pour les ports TCP 5000
à 5007. Utilisez ensuite un outil, tel que iperf, pour générer le trafic UDP ou TCP sur les ports 5000 à 5007.
Les statistiques de chaque file d’attente du pilote ixgbe peuvent être examinées à l’aide de l’utilitaire ethtool : ethtool -S
ethX
# tc qdisc add dev ethX root handle 1: multiq
# tc filter add dev ethX protocol ip parent 1: \
u32 match ip dport 5000 0xffff action skbedit queue_mapping 0
# tc filter add dev ethX protocol ip parent 1: \
u32 match ip sport 5000 0xffff action skbedit queue_mapping 0
# tc filter add dev ethX protocol ip parent 1: \
u32 match ip dport 5001 0xffff action skbedit queue_mapping 1
# tc filter add dev ethX protocol ip parent 1: \
u32 match ip sport 5001 0xffff action skbedit queue_mapping 1
# tc filter add dev ethX protocol ip parent 1: \
u32 match ip dport 5002 0xffff action skbedit queue_mapping 2
# tc filter add dev ethX protocol ip parent 1: \
u32 match ip sport 5002 0xffff action skbedit queue_mapping 2
# tc filter add dev ethX protocol ip parent 1: \
u32 match ip dport 5003 0xffff action skbedit queue_mapping 3
# tc filter add dev ethX protocol ip parent 1: \
u32 match ip sport 5003 0xffff action skbedit queue_mapping 3
# tc filter add dev ethX protocol ip parent 1: \
u32 match ip dport 5004 0xffff action skbedit queue_mapping 4
# tc filter add dev ethX protocol ip parent 1: \
u32 match ip sport 5004 0xffff action skbedit queue_mapping 4
# tc filter add dev ethX protocol ip parent 1: \
u32 match ip dport 5005 0xffff action skbedit queue_mapping 5
# tc filter add dev ethX protocol ip parent 1: \
u32 match ip sport 5005 0xffff action skbedit queue_mapping 5
# tc filter add dev ethX protocol ip parent 1: \
u32 match ip dport 5006 0xffff action skbedit queue_mapping 6
# tc filter add dev ethX protocol ip parent 1: \
u32 match ip sport 5006 0xffff action skbedit queue_mapping 6
# tc filter add dev ethX protocol ip parent 1: \
u32 match ip dport 5007 0xffff action skbedit queue_mapping 7
# tc filter add dev ethX protocol ip parent 1: \
u32 match ip sport 5007 0xffff action skbedit queue_mapping 7
Présentation de dcbtool
dcbtool permet d’interroger et de définir les paramètres DCB d’une interface Ethernet compatible avec DCB. Il se connecte à
l’interface client de dcbd pour effectuer ces opérations. dcbtool fonctionne en mode interactif s’il est exécuté sans commande.
En mode interactif, dcbtool fonctionne également comme "event listener" et imprime les événements reçus de dcbd alors
qu’ils arrivent.
Synopsis
dcbtool -h
dcbtool -v
dcbtool [-rR]
dcbtool [-rR] [commande] [arguments de la commande]
Options
-h
-v
-r
-R
Affiche
Affiche
Affiche
Affiche
le message d’utilisation de dcbtool.
les informations sur la version de dcbtool.
les messages bruts de l’interface client dcbd ainsi que les sorties lisibles.
uniquement les messages bruts de l’interface client dcbd.
Commandes
help
Affiche le message d’utilisation de dcbtool.
ping
Commande de test. Le daemon dcbd répond "PONG" si l’interface client est opérationnelle.
license
Affiche les informations concernant la licence dcbtool.
quit
quitter le mode interactif.
Les commandes suivantes permettent d’interagir avec le daemon lldpad pour gérer les fonctionnalités du daemon et de DCB
sur les interfaces compatibles avec DCB.
Commandes de configuration générales de lldpad :
Permet d’obtenir la version configurée ou opérationnelle du protocole d’échange de capacités DCB. Si ces versions
<gc|go>
sont différentes, la version configurée est appliquée (et devient la version opérationnelle) une fois que dcbd est
dcbx
redémarré.
sc dcbx
v:[1|2]
Permet de définir la version du protocole d’échange de capacités DCB qui sera utilisée au prochain démarrage de
dcbd.
Les informations concernant la version 2 sont accessibles à : http://www.ieee802.org/1/files/public/docs2008/azwadekar-dcbx-capability-exchange-discovery-protocol-1108-v1.01.pdf.
Commandes DCB par interface :
go <ifname> <fonctionnalité>
Permet d’obtenir la configuration de la fonctionnalité sur interface ifname.
go <ifname> <fonctionnalité>
Permet d’obtenir l’état de la fonctionnalité sur interface ifname.
gp <ifname> <fonctionnalité>
Permet d’obtenir la configuration de la fonctionnalité du pair sur interface
ifname.
sc <ifname> <fonctionnalité>
<arguments>
Définit la configuration de la fonctionnalité sur interface ifname.
La fonctionnalité peut être une des suivantes :
dcb
État DCB du port
pg
Groupes de priorité
pfc
Contrôle de flux des priorités (Priority Flow Control)
app:<subtype>
Données spécifiques à l’application
ll:<subtype>
État de la liaison logique
Le sous-type peut être :
0|fcoe Fiber Channel over Ethernet (FCoE)
Les arguments peuvent comprendre :
e:<0|1>
Contrôle l’activation de la fonctionnalité.
a:<0|1>
Contrôle si la fonctionnalité est annoncée au pair via DCBX.
w:<0|1>
Contrôle si la fonctionnalité peut changer sa configuration opérationnelle en fonction de ce
qu’elle reçoit du pair.
[arguments spécifiques à la
fonctionnalité]
Arguments spécifiques à une fonctionnalité DCB.
Arguments spécifiques à la fonctionnalité pour dcb :
Activation ou désactivation on/off de l’interface. Les commandes go et gp ne sont pas nécessaires pour la fonctionnalité dcb.
De plus, les paramètres "enable", "advertise" et "willing" ne sont pas requis.
Arguments spécifiques à la fonctionnalité pour pg :
pgid:xxxxxxxx
ID du groupe de priorité des 8 priorités. De gauche à droite (priorités 0 à 7), x est la valeur de l’ID du
groupe de priorité correspondant, qui peut être de 0 à 7 pour les groupes de priorité dont l’allocation
de bande passante est f (ID de groupe de priorité 15) pour le groupe de priorité non restreint.
pgpct:x,x,x,x,x,x,x,x
Pourcentage de la bande passante de la liaison alloué au groupe de priorité. De gauche à droite
(groupes de priorité 0 à 7), x est le pourcentage de bande passante alloué au groupe de priorité
correspondant. La bande passante totale doit être égale à 100 %.
uppct:x,x,x,x,x,x,x,x
Pourcentage de priorité de la bande passante du groupe de priorité. De gauche à droite (priorités 0 à
7), x est le pourcentage de bande passante du groupe de priorité alloué à la priorité correspondante.
La somme des pourcentages des priorités qui appartiennent au même groupe de priorité doit être
égale à 100 % (sauf pour le groupe de priorité 15).
strict:xxxxxxxx
Paramètre de priorité stricte. De gauche à droite (priorités 0 à 7), x est 0 ou 1. 1 indique que la
priorité peut utiliser toute la bande passante allouée à son groupe de priorité.
up2tc:xxxxxxxx
Priorité au mappage des classes de trafic. De gauche à droite (priorités 0 à 7), x est la classe de trafic
(0 à 7) à laquelle la priorité est mappée.
Arguments spécifiques à la fonctionnalité pour pfc :
pfcup:xxxxxxxx
Activer/désactiver le contrôle de flux sur priorité. De gauche à droite (priorités 0 à 7), x est 0 ou 1. 1
indique que la priorité correspondante est configurée pour transmettre les pauses de priorité.
Arguments spécifiques à la fonctionnalité pour app : <sous-type>
xx est une valeur hexadécimale représentant un bitmap de 8 bits où le bit défini sur 1 indique la
priorité que les trames des applications spécifiées doivent utiliser. Le bit de priorité inférieur est
mappé sur 0.
appcfg:xx
Arguments spécifiques à la fonctionnalité pour II : <sous-type> :
status:
[0|1]
Pour les tests, l’état de la liaison logique peut être défini sur 0 ou 1. Ce paramètre n’est pas persistant dans le
fichier de configuration.
Exemples
Activer DCB sur l’interface eth2
dcbtool sc eth2 dcb on
Affecter des priorités
Affecter des priorités 0 à 3 au groupe de priorité 0, des priorités 4 à 6 au groupe de priorité 1 et la priorité 7 à la priorité non
restreinte. De plus, allouer 25 % de la bande passante de la liaison au groupe de priorité 0 et 75 % au groupe 1.
dcbtool sc eth2 pg pgid:0000111f pgpct:25,75,0,0,0,0,0,0
Activer la transmission du contrôle de flux sur priorité
Activer la transmission du contrôle de flux sur priorité à la priorité 3 et affecter FCoE à la priorité 3.
dcbtool sc eth2 pfc pfcup:00010000
dcbtool sc eth2 app:0 appcfg:08
Questions-réponses
Comment Intel a-t-il vérifié sa solution DCB ?
Réponse - La solution Intel est en évolution constante alors que les normes pertinentes se solidifient et que davantage de
fabricants introduisent des systèmes compatibles avec DCB. Ceci dit, nous avons initialement utilisé des tests automatisés
pour vérifier l’ordinateur en état DCB. À mesure que l’ordinateur d’état devenait plus robuste et que nous disposions de
davantage de matériel compatible avec DCB, nous avons commencé à effectuer des tests sur plusieurs cartes. Finalement,
nous avons introduit des commutateurs compatibles avec DCB sur notre banc d’essai.
Problèmes connus
Sur les noyaux antérieurs à la version 2.6.26, tso sera désactivé lorsque le pilote sera mis en mode DCB.
Un blocage d’unité de transmission peut être observé lorsque la priorité stricte d’une liaison est définie et lorsqu’un trafic
important est transmis sur la priorité stricte de la liaison.
Licence
dcbd et dcbtool - Configuration du daemon DCB et du DCB avec utilitaire de ligne de commande
Copyright (C) 2007-2013 Intel Corporation.
Des portions de dcbd et de dcbtool (en somme, la structure des programmes) sont basées sur :
hostapd-0.5.7
Copyright (c) 2004-2007, Jouni Malinen <j@w1.fi>
Ce programme est un logiciel libre ; vous pouvez le redistribuer ou le modifier selon les conditions générales de la Licence
publique générale GNU, version 2, telle que publiée par de la Free Software Foundation.
Ce programme est distribué dans l’espoir qu’il sera utile, mais SANS AUCUNE GARANTIE ; sans même une garantie induite de
QUALITÉ MARCHANDE ou D’ADAPTATION À UN USAGE PARTICULIER. Reportez-vous à la Licence publique générale GNU pour
davantage d’informations.
Vous avez dû recevoir une copie de la Licence publique générale GNU avec ce programme ; dans le cas contraire, écrivez à la
Free Software Foundation, Inc., 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 États-Unis.
La Licence publique générale GNU est inclue dans cette distribution, dans le fichier appelé "COPYING".
Veuillez lire toutes les restrictions et les avertissements.
Retour à la table des matières
Retour à la table des matières
Dépannage : Guide de l’utilisateur d’Intel® Ethernet iSCSI Boot
Le tableau ci-dessous répertorie les problèmes pouvant survenir lors de l’utilisation du démarrage iSCSI Ethernet Intel®. Une
cause et une solution possibles sont fournies pour chaque problème.
Problème
Le démarrage iSCSI Ethernet
Intel® ne se charge pas lors du
démarrage du système et la
bannière d’authentification ne
s’affiche pas.
Solution
Tandis que l’écran de connexion système peut s’afficher pendant plus longtemps lors
du démarrage du système, le démarrage iSCSI Ethernet Intel® peut ne pas s’afficher
pendant le POST. Il peut s’avérer nécessaire de désactiver une fonctionnalité du BIOS
du système pour afficher les messages provenant d’iSCSI Boot. Dans le menu du
BIOS système, désactivez toute option d’amorçage silencieux ou d’amorçage rapide.
Désactivez également les images de démarrage du BIOS. Ces options peuvent
supprimer la sortie du démarrage iSCSI Ethernet Intel®.
Le démarrage iSCSI Ethernet Intel® n’a pas été installé sur la carte ou la ROM flash
de la carte n’est pas activée. Mettez à jour la carte réseau à l’aide de la dernière
version de l’utilitaire BootUtil, comme décrit dans la section Installation et
configuration. Si l’utilitaire BootUtil signale que la ROM flash est désactivée, utilisez la
commande "BootUtil -flashenable" pour activer la ROM flash et mettre la carte à
jour.
Il est possible que le système BIOS supprime la sortie d’Intel® iSCSI Boot.
La mémoire du système BIOS peut être insuffisante pour charger iSCSI Boot. Essayez
de désactiver les contrôleurs de disque et les périphériques inutilisés dans le menu de
configuration du système BIOS. Les contrôleurs SCSI, le contrôleur RAID, les
connexions réseau PXE activées et les copies shadow du système BIOS réduisent tous
la mémoire disponible pour Intel® iSCSI Boot. Désactivez ces périphériques et
redémarrez le système pour voir si Intel® iSCSI Boot peut s’initialiser. Si la
désactivation des périphériques dans le menu du BIOS système ne résout pas le
problème, essayez d’enlever les lecteurs de disque ou contrôleurs de disque du
système. Certains fabricants permettent de désactiver des périphériques inutilisés à
l’aide de cavaliers.
Après avoir installé Intel® iSCSI
Boot, le système ne démarre pas à
partir d’un disque dur local ou d’un
périphérique d’amorçage réseau.
Le système ne répond plus après
qu’Intel® iSCSI Boot affiche la
bannière d’authentification ou la
connexion à la cible iSCSI.
Une erreur système irrécupérable s’est produite lors de l’initialisation d’iSCSI Boot.
Mettez le système sous tension et appuyez sur la touche "S" ou "Échap." avant
qu’Intel iSCSI Boot ne s’initialise. Cela permet de contourner le processus
d’initialisation d’Intel® iSCSI Boot et permet au système de s’amorcer depuis un
disque local. Utilisez l’utilitaire BootUtil pour mettre à jour le microprogramme avec la
dernière version d’Intel® iSCSI Boot. Si le problème persiste, utilisez la commande
"BootUtil -flashdisable" pour désactiver Intel® iSCSI Boot.
"Intel® Ethernet iSCSI Boot"
(Démarrage iSCSI Ethernet
Intel®) n’est pas répertorié
comme périphérique d’amorçage
dans le menu des périphériques
d’amorçage du BIOS système.
Il est possible que le BIOS système ne prenne pas en charge le démarrage iSCSI
Ethernet Intel®. Mettez à jour le BIOS système avec la version la plus récente du
fabricant du système.
Message d’erreur affiché :
"Failed to detect link" (Échec de la
détection de liaison)
Intel® iSCSI Boot n’a pas pu détecter la liaison sur le port réseau. Vérifiez le témoin
de détection de la liaison, situé à l’arrière de la carte réseau. Le témoin de liaison vert
doit s’allumer lorsque la liaison est établie avec le partenaire de liaison. Si le témoin
de liaison s’allume alors que le message d’erreur s’affiche, essayez d’exécuter les
tests Intel de diagnostic de liaison et de câblage à l’aide de DIAGS.EXE sous DOS ou
d’Intel PROSet sous Windows.
Message d’erreur affiché :
"DHCP Server not found!" (Serveur
DHCP introuvable!)
iSCSI a été configuré pour récupérer une adresse IP sur un serveur DHCP mais aucun
serveur DHCP n’a répondu à la demande de détection DHCP. Ce problème peut avoir
plusieurs causes :
ou
La mise à jour du BIOS système peut être la solution.
Un conflit peut exister avec un autre périphérique installé. Essayez de désactiver les
contrôleurs de disque et de réseau inutilisés. Certains contrôleurs SCSI et RAID sont
connus pour provoquer des problèmes de compatibilité avec Intel® iSCSI Boot.
Le serveur DHCP peut avoir utilisé toutes les réservations d’adresses IP
"ERROR: Could not establish TCP/IP
connection with iSCSI target
(erreur : impossible d’établir une
connexion TCP/IP avec la cible
iSCSI). No disk found!" (Aucun
disque trouvé).
disponibles.
Le système iSCSI client peut exiger qu’une adresse IP statique lui soit affectée
sur le réseau connecté.
Il est possible qu’aucun serveur DHCP ne se trouve sur le réseau.
Le protocole STP (Spanning Tree Protocol) du commutateur réseau peut
empêcher le port d’Intel® iSCSI Boot de contacter le serveur DHCP. Activez le
paramètre portfast sur le port du commutateur auquel est connecté l’initiateur
ou reportez-vous à la documentation du commutateur réseau pour savoir
comment désactiver le protocole STP.
Message d’erreur affiché :
"PnP Check Structure is invalid!"
(La structure de la vérification Plug
and play n’est pas valide!)
Intel® iSCSI Boot n’a pas pu détecter de BIOS PCI Plug and Play. Si ce message
s’affiche, le démarrage iSCSI Ethernet Intel® ne peut pas être exécuté sur le
système en question. Un BIOS PCI entièrement conforme à Plug and Play est
nécessaire pour exécuter le démarrage iSCSI Ethernet Intel®.
Message d’erreur affiché :
"Invalid iSCSI connection
information" (Informations non
valides de connexion iSCSI)
Les informations de configuration iSCSI reçues du DHCP ou configurées de façon
statique dans le menu de configuration sont incomplètes et la tentative de connexion
au système iSCSI cible a échoué. Vérifiez que le nom de l’initiateur iSCSI, le nom de
la cible iSCSI, l’adresse IP de la cible et le numéro de port de la cible sont configurés
correctement dans le menu de configuration iSCSI (pour une configuration statique)
ou sur le serveur DHCP (pour une configuration BOOTP dynamique).
Message d’erreur affiché :
"Unsupported SCSI disk block size!"
(Taille non prise en charge pour les
blocs de disque SCSI!)
Le système iSCSI cible est configuré pour utiliser une taille de bloc de disque qui n’est
pas prise en charge par le démarrage iSCSI Ethernet Intel®. Configurez le système
iSCSI cible pour qu’il utilise une taille de bloc de 512 octets.
Message d’erreur affiché :
"Re-directing login to [IP address]"
(Redirection de l’ouverture de
session vers [adresse IP]
Le démarrage iSCSI Ethernet Intel® a reçu une commande de redirection du système
iSCSI cible. La tentative de connexion actuelle va être annulée et une deuxième
tentative va être effectuée vers la cible spécifiée par la commande de redirection. Le
système iSCSI cible est configuré pour rediriger l’initiateur iSCSI vers une cible
différente. Vérifiez la configuration du système iSCSI cible ou configurez Intel® iSCSI
Boot pour qu’il se connecte à la nouvelle cible.
Message d’erreur affiché :
"ERROR: Could not establish TCP/IP
connection with iSCSI target
system." (ERREUR : impossible
d’établir une connexion TCP/IP
avec le système iSCSI cible)
Le démarrage iSCSI Ethernet Intel® n’a pas pu établir une connexion TCP/IP avec le
système iSCSI cible. Vérifiez que l’adresse IP de l’initiateur et de la cible, le masque
de sous-réseau et les paramètres du port et de la passerelle sont configurés
correctement. Le cas échéant, vérifiez les paramètres du serveur DHCP. Vérifiez que
le système iSCSI cible est connecté à un réseau auquel l’initiateur du démarrage
iSCSI Ethernet Intel® peut accéder. Vérifiez que le système n’est pas bloqué par un
pare-feu.
Message d’erreur affiché :
"ERROR: CHAP authentication with
target failed." (ERREUR : échec de
l’authentification CHAP de la cible)
Le nom d’utilisateur ou le secret CHAP ne correspondent pas à la configuration CHAP
du système iSCSI cible. Vérifiez que la configuration CHAP du port d’Intel® iSCSI
Boot correspond à celle du système iSCSI cible. Désactivez CHAP dans le menu de
configuration d’iSCSI Boot s’il n’est pas activé sur la cible.
Message d’erreur affiché :
"ERROR: Login request rejected by
iSCSI target system." (ERREUR :
demande de connexion rejetée par
le système iSCSI cible)
Une demande de connexion a été envoyée au système iSCSI cible, mais elle a été
rejetée. Vérifiez que le nom de l’initiateur iSCSI, le nom de la cible, le numéro d'unité
logique (LUN) et les paramètres d’authentification CHAP correspondent à ceux du
système iSCSI cible. Vérifiez que la cible est configurée pour autoriser l’initiateur
Intel® iSCSI Boot à accéder à une unité logique.
Lors de l’installation de Linux sur
Net App Filer, lorsqu’une recherche
de disque cible a réussi, des
messages d’erreur peuvent
sembler similaires à ceux qui sont
indiqués ci-dessous.
Si ces messages d’erreur s’affichent, les interfaces iSCSI inutilisées de Net App Filer
doivent être désactivées.
Iscsi-sfnet:hostx: Connect
failed with rc -113: Aucun
chemin d’accès pour
atteindre l’hôte
Iscsi-sfnet:hostx:
establish_session failed.
Could not connect to target
(Impossible de se connecter
à la cible).
"Continuous=no" doit être ajouté au fichier iscsi.conf.
Message d’erreur affiché :
"ERROR: iSCSI target not found."
(Erreur : cible iSCSI non trouvée)
Une connexion TCP/IP a été établie vers l’adresse IP cible, cependant une adresse
iSCSI cible portant le nom de cible iSCSI spécifié est introuvable sur le système cible.
Vérifiez que le nom de la cible iSCSI et le nom de l’initiateur configurés correspondent
aux paramètres de la cible iSCSI.
Message d’erreur affiché :
"ERROR: iSCSI target cannot
accept any more connections."
(ERREUR : la cible iSCSI ne peut
pas accepter d’autres connexions.)
La cible iSCSI ne peut pas accepter de nouvelle connexion. Cette erreur peut être
provoquée par une limite configurée sur la cible iSCSI ou une limitation de ressources
(absence de disque disponible).
Message d’erreur affiché :
"ERROR: iSCSI target has reported
an error." (Erreur : la cible iSCSI a
signalé une erreur.)
Une erreur est survenue sur la cible iSCSI. Vérifiez la cible iSCSI pour déterminer la
source de l’erreur et vérifier sa configuration.
Message d’erreur affiché :
"ERROR: There is an IP address
conflict with another system on the
network (ERREUR : un conflit
d’adresses IP existe avec un autre
système du réseau).
Un système utilisant la même adresse IP que le client de ROM optionnelle iSCSI a été
trouvé.
Les associations ne sont pas prises
en charge par iSCSI Boot sous
Windows.
La création d’une association avec les cartes iSCSI principale et secondaire et la
sélection de cette association lors de l’installation de l’initiateur Microsoft peut
échouer, avec des réamorçages à répétition. Ne sélectionnez pas d’association pour
l’amorçage iSCSI, même si elle peut être sélectionnée lors de l’installation de
l’initiateur.
Si une adresse IP statique est utilisée, tentez de remplacer l’adresse IP par une
adresse qui n’est pas utilisée par un autre client du réseau.
Si l’adresse IP est affectée par un serveur DHCP, assurez-vous qu’aucun client du
réseau n’utilise une adresse IP entrant en conflit avec la plage d’adresses IP utilisée
par le serveur DHCP.
Pour l’équilibrage de la charge et la prise en charge du basculement, vous pouvez
utiliser Microsoft Multipath I/O (MPIO). Consultez le guide de l’utilisateur de
l’initiateur Microsoft iSCSI Software pour savoir comment configurer MPIO.
Des erreurs système peuvent se
produire si DHCP réutilise des
adresses IP après expiration de
leur bail.
Retour à la table des matières
Si vous utilisez DHCP pour la configuration IP de l’initiateur ou de la cible, une panne
de système peut se produire si le DHCP réutilise ces adresses IP une fois qu’elles sont
venues à expiration. Nous vous recommandons d’utiliser des adresses IP statiques ou
des adresses IP réservées pour le DHCP pour éviter ce problème.
Retour à la table des matières
Problèmes connus : Guide de l’utilisateur d’Intel® Ethernet iSCSI
Boot
Problèmes connus sous Windows
Problèmes connus sous Linux
Problèmes connus sous iSCSI/DCB
Problèmes connus
Les éléments de la liste à puces suivante sont des problèmes généraux connus et des avertissements :
Si vous utilisez DHCP pour la configuration IP de l’initiateur ou de la cible, une panne de système peut se produire si le
DHCP réutilise ces adresses IP une fois qu’elles sont venues à expiration. Nous vous recommandons d’utiliser des
adresses IP statiques ou des adresses IP réservées pour le DHCP pour éviter ce problème.
Le branchement à chaud, le remplacement à chaud et les autres fonctionnalités de connexion à chaud ne sont pas pris
en charge par l’interface iSCSI Boot. Ne tentez pas de brancher ou de remplacer à chaud une interface iSCSI Boot.
Vous recevrez un message d’erreur si vous tentez d’arrêter une interface iSCSI Boot.
La fonctionnalité WoL n’est pas prise en charge sur l’interface iSCSI Boot dans les modes de mise en veille prolongée et
de mise en attente.
IPv6 n’est pas pris en charge par iSCSI Boot.
Il est déconseillé de configurer plusieurs interfaces sur le même sous-réseau. Reportez-vous à la base de connaissances
Microsoft http://support.microsoft.com/kb/175767.
Il est possible qu’ipconfig n’affiche pas l’état de liaison correct une fois qu’iSCSI Boot est configuré. Reportez-vous à la
base de connaissances Microsoft http://support.microsoft.com/kb/927750.
Il est vivement conseillé d’utiliser le port rapide sur le commutateur connecté à l’interface d’amorçage iSCSI pour éviter
un dépassement de délai provoqué par une longue convergence du traitement STP (Straight-Through Processing) des
données sans interruption.
Ne tentez pas de modifier les adresses IP des interfaces sur les initiateurs exécutant le trafic iSCSI Boot. Le système
redémarrera ou tombera en panne si des adresses IP ne peuvent pas être atteintes par la cible.
La modification de l’adresse IP de l’interface iSCSI Boot n’est pas autorisée. L’adresse IP sera héritée de la table iBFT.
Il est possible que Netmon ne fonctionne pas s’il est installé avant l’image. Le message d’erreur "No network drivers
were found, consult your manual to make sure that you have correctly installed network monitoring" (Aucun pilote
réseau n’a été trouvé. Consultez votre manuel pour vérifier que vous avez correctement installé la surveillance réseau)
peut s’afficher si vous tentez de lancer Netmon. Utilisez plutôt Wireshark ou un autre outil de surveillance réseau.
Le fichier d’échange doit être désactivé si iSCSI Boot est utilisé sans disque dur local sur le serveur. Pour désactiver le
fichier d’échange dans Windows Server 2008 :
1. Dans le menu Démarrage, cliquez avec le bouton droit de la souris sur Ordinateur et ouvrez les Propriétés.
2. Dans la liste Tâches, cliquez sur Paramètres système avancés.
3. Dans l’onglet Avancé, cliquez sur Paramètres dans la section Performances.
4. Cliquez sur l’onglet Avancé.
5. Allez à la section Mémoire virtuelle et cliquez sur Modifier.
6. Désélectionnez l’option Gérer automatiquement le fichier d’échange pour tous les lecteurs.
7. Cliquez sur Aucun fichier d’échange, puis sur Définir et enfin sur OK.
La création automatique des filtres de trafic iSCSI pour DCB n’est prise en charge que
sur les réseaux qui utilisent l’adressage IPv4
L’option iSCSI for DCB (Pontage de centre de données) utilise les filtres de trafic QOS (Qualité de service) pour étiqueter les
paquets sortants avec une priorité. Intel iSCSI Agent utilise l’adressage IPv4 pour créer de façon dynamique ces filtres de
trafic en fonction de la demande des réseaux.
Ouverture de session iSCSI IPv6 sur des batteries Dell EqualLogic utilisant des
trames étendues
Pour ouvrir une session iSCSI en utilisant IPv6 et des trames étendues avec des batteries Dell EqualLogic, le délestage avec
contrôle d'intégrité TCP/UDP doit être désactivé sur la carte iSCSI Intel.
Problèmes connus sous Windows*
L’initiateur Microsoft n’amorce pas sans liaison sur le port d’amorçage
Après avoir configuré le système pour Intel® iSCSI Boot avec deux ports connectés à une cible et avoir redémarré le système
avec succès, l’initiateur Microsoft redémarrera continuellement le système si vous tentez ultérieurement de démarrer le
système alors que seul le port d’amorçage secondaire est connecté à la cible.
Pour contourner cette limitation, procédez comme suit :
1. À l’aide de l’Éditeur du Registre, développez la clé de registre suivante :
HKEY_LOCAL_MACHINE\System\CurrentControlSet\Services\Tcpip\Parameters.
2. Créez une valeur DWORD appelée DisableDHCPMediaSense et définissez la valeur sur 0.
Déplacement de la carte sur un autre emplacement PCI
Dans une installation Windows*, si vous déplacez la carte iSCSI dans un emplacement PCI différent de celui qui était utilisé
lors de l’installation des pilotes et de l’initiateur iSCSI Boot Microsoft, une erreur système (blue screen) se produit au milieu de
l’écran de démarrage Windows. Le code d’erreur est 0x0000007B. Le problème disparaît si vous replacez la carte dans
l’emplacement PCI d’origine. Nous vous recommandons de ne pas déplacer la carte une fois que la cible iSCSI a été établie. Il
s’agit d’un problème connu du SE.
Si vous devez placer la carte dans un autre connecteur, procédez comme suit :
1.
2.
3.
4.
5.
6.
7.
8.
Arrêtez le système à l’aide du SE puis retirez la carte précédente.
Installez une nouvelle carte dans un autre connecteur.
Configurez la nouvelle carte pour iSCSI Boot.
Effectuez un démarrage iSCSI sous le SE via la carte d’origine.
Configurez la nouvelle carte pour qu’elle puisse être démarrée sous le SE.
Redémarrez.
Placez l’ancienne carte dans un autre connecteur.
Répétez les étapes 3 à 6 pour l’ancienne carte que vous venez de déplacer.
La désinstallation du pilote peut entraîner une erreur système (blue screen)
Si le pilote du périphérique utilisé pour l’amorçage iSCSI Boot est désinstallé à l’aide du Gestionnaire de périphériques, une
erreur système Windows (blue screen) se produit lors du redémarrage et le SE doit être réinstallé. Il s’agit d’un problème
connu de Windows.
Les cartes flashées avec une image iSCSI ne sont pas supprimées du Gestionnaire de
périphériques lors de la désinstallation
Lors de la désinstallation, tous les autres logiciels de connexion réseau Intel sont supprimés, mais les pilotes des cartes iSCSI
Boot dont la priorité d’amorçage est définie sur Principale ou Secondaire ne sont pas désinstallés.
Amorçage et associations Intel® iSCSI sous Windows
Les associations ne sont pas prises en charge par iSCSI Boot. La création d’une association avec les cartes iSCSI principale et
secondaire et la sélection de cette association lors de l’installation de l’initiateur Microsoft peut échouer, avec des réamorçages
à répétition. Ne sélectionnez pas d’association pour l’amorçage iSCSI, même si elle peut être sélectionnée lors de l’installation
de l’initiateur.
Pour l’équilibrage de la charge et la prise en charge du basculement, vous pouvez utiliser Microsoft Multipath I/O (MPIO).
Consultez le guide de l’utilisateur de l’initiateur Microsoft iSCSI Software pour savoir comment configurer MPIO.
Le SE iSCSI ne parvient pas à entrer en veille prolongée
La veille prolongée de Microsoft Windows n’est pas prise en charge avec iSCSI Boot. Un système sous Windows qui a été
amorcé par l’intermédiaire d’iSCSI ne passe pas en veille prolongée. S’il y a une tentative de veille prolongée dans ce cas, le
code d’erreur affiché est 0xC0000010.
Le pilote F6 ne prend pas en charge le mode veille
Si vous effectuez une fonction F6 Windows sans installation Disque local, n’utilisez pas le mode veille.
Des paramètres CHAP non valides peuvent provoquer une erreur générale (blue
screen) sous Windows Server 2008
Si un nom d’utilisateur et secret CHAP de port iSCSI Boot ne correspondent pas au nom d’utilisateur et au secret du CHAP de
la cible, il est possible qu’une erreur système fatale (blue screen) se produise sous Windows Server 2008 ou que le système
redémarre lors de l’installation ou de l’amorçage. Assurez-vous que tous les paramètres CHAP correspondent à ceux définis
sur la ou les cibles.
Installation de Windows Server 2008 lors d’une installation WDS
Si vous effectuez une installation WDS et tentez de mettre à jour manuellement les pilotes lors de l’installation, les pilotes sont
chargés mais l'unité logique de la cible iSCSI ne s’affiche pas dans la liste des emplacements d’installation. Il s’agit d’une
limitation WDS connue, actuellement sans résolution. En conséquence, l’installation doit être effectuée depuis un support DVD
ou USB. Reportez-vous à la base de connaissances Microsoft sur le site http://support.microsoft.com/kb/960924.
Vidage sur incident Intel® iSCSI Boot pour les connexions réseau Intel 82598EB 10
Gigabit non pris en charge sous Windows Server 2008
Le vidage sur incident n’est pas pris en charge actuellement pour ces connexions sous Windows Server 2008.
La définition d’une adresse administrée localement (LAA) sur un port activé pour
l’amorçage iSCSI entraîne une défaillance du système lors du prochain réamorçage
Ne définissez pas d’adresse administrée localement sur les ports sur lesquels iSCSI Boot est activé.
La création automatique des filtres de trafic iSCSI pour DCB, avec les cartes virtuelles
créées par Hyper-V, n’est prise en charge que sur Microsoft* Windows Server* 2008
version R2 et ultérieure
L’option iSCSI for DCB (Pontage de centre de données désactivé) utilise les filtres de trafic QOS (Qualité de service) pour
étiqueter les paquets sortants avec une priorité. Intel iSCSI Agent crée de façon dynamique ces filtres de trafic en fonction de
Windows Server 2008 R2 et des versions ultérieures.
iSCSI over DCB avec Microsoft* Windows Server* 2012
iSCSI over DCB (balisage de priorité) n’est pas possible sur le port sur lequel VMSwitch est créé. Cela est exclu de par la
conception de Microsoft* Windows Server* 2012.
Problèmes connus sous Linux
Échec intermittent du démarrage à distance avec la carte réseau X540 sur SLES 11
SP3
Le démarrage à distance avec SuSE11 SP3 et une carte réseau x540 peut s'interrompre de manière intermittente. C'est dû à
un problème de synchronisation impliquant DCB dans certaines configurations matérielles.
Un correctif pour ce problème peut être trouvé ici : SuSE FCoE Bootable Driver Kit.
Channel Bonding
Le Channel Bonding Linux présente des problèmes de compatibilité de base avec iSCSI Boot et ne doit pas être utilisé.
Incompatibilité de LRO et de iSCSI
Le délestage des grandes réceptions (Large Receive Offloads, LRO) est incompatible avec la cible iSCSI ou le trafic de
l’initiateur. Une situation de panique peut se produire en cas de réception du trafic iSCSI via le pilote ixgbe alors que le
délestage LRO est activé. Pour contourner ce problème, le pilote doit être construit et installé avec :
# make CFLAGS_EXTRA=-DIXGBE_NO_LRO install
Retour à la table des matières
Retour à la table des matières
Assistance : Guide de l’utilisateur d’Intel® Ethernet iSCSI Boot
Web et sites Internet
http://www.support.dell.com
Techniciens d’assistance à la clientèle
Si les procédures de dépannage ne permettent pas de résoudre le problème, contactez la société Dell pour obtenir une
assistance technique. Pour obtenir les numéros de téléphone de l’assistance à la clientèle de Dell, consultez la documentation
de votre ordinateur.
Avant d’appeler...
Installez-vous devant votre ordinateur, exécutez le logiciel et munissez-vous de la documentation.
Le technicien peut vous demander les informations suivantes :
Votre adresse et votre numéro de téléphone
Le nom et le numéro du modèle du produit qui fait l’objet de votre appel
Le numéro de référence du produit
Les noms et numéros de version des logiciels utilisés avec le produit
Le nom et le numéro de version du système d’exploitation utilisé
Le type de votre ordinateur (fabricant et numéro de modèle)
Les cartes d’extension ou additionnelles installées
La capacité mémoire de votre ordinateur.
Veuillez lire toutes les restrictions et les avertissements.
Retour à la table des matières
Retour à la table des matières
Glossaire : Guide de l’utilisateur d’Intel® Ethernet iSCSI Boot
Le glossaire définit des termes, abréviations et acronymes associés directement à Intel® iSCSI Boot.
TERMES
DÉFINITIONS
BIOS
Basic Input/Output System (système d’entrée/de sortie de base). Programme que le microprocesseur
utilise pour démarrer le système lorsque l’ordinateur est mis sous tension.
CHAP
Challenge Handshake Authentication Protocol. CHAP est le protocole d’authentification standard utilisé
sur les réseaux SAN iSCSI.
CLP
Command Line Protocol (protocole de ligne de commande).
DHCP
Dynamic Host Configuration Protocol (protocole dynamique de configuration de l’hôte). Protocole
Internet standard défini par l’IETF. DHCP permet de fournir de façon dynamique les valeurs de
configuration des communications, telles que les adresses réseau au démarrage des ordinateurs clients.
DHCP est défini par les sections 1534, 2131 et 2132 d’IETF et de RFC.
Microprogramme,
mémoire ROM
flash ou ROM
d’options
Mémoire rémanente (non volatile) intégrée aux connexions réseau Intel®. La ROM flash est utilisée pour
stocker Intel® iSCSI Boot.
Dans tout ce Guide de l’utilisateur, le mot microprogramme est synonyme de ROM flash ou ROM
optionnelle.
iBFT
La table du microprogramme d’amorçage iSCSI (iBFT) est un bloc d’informations contenant divers
paramètres utiles au processus d’amorçage iSCSI. L’iBFT est le mécanisme utilisé pour transmettre les
valeurs de paramètres du microprogramme d’amorçage iSCSI (iBF) au système d’exploitation. L’iBF est
modifié et enregistré dans l’iBFT. L’iBFT est à la disposition du système d’exploitation Windows pour
permettre la cohérence du processus d’amorçage.
Initiateur iSCSI
Système client dans une configuration SAN iSCSI. L’initiateur iSCSI se connecte au système cible iSCSI
pour accéder aux lecteurs de la cible iSCSI.
Cible iSCSI
Système serveur dans une configuration SAN iSCSI. Le système cible iSCSI héberge les lecteurs cibles
iSCSI auxquels accède un initiateur iSCSI.
SAN
Storage Area Network.
LUN
Numéro d’unité logique (Logical Unit Number). Un ID LUN désigne un volume de disque SCSI spécifique
géré par un contrôleur SCSI.
MPIO
Microsoft Multipath I/O, E/S Microsoft à trajets multiples.
Plug and Play
(PnP)
Technologie Plug and Play. Plug and Play se rapporte à un ensemble de spécifications de normes
industrielles permettant aux périphériques installés de se configurer automatiquement.
Veuillez lire toutes les restrictions et les avertissements.
Retour à la table des matières
Utilitaire pour microprogramme de mémoire flash Ethernet
Intel®
Présentation
Exécution de BootUtil
Paramètres de ligne de commande
Exemples
Codes de sortie DOS
Présentation
L’utilitaire pour microprogramme de mémoire flash Ethernet Intel® (BootUtil) est un utilitaire qui peut être utilisé pour
programmer la ROM optionnelle PCI de la mémoire flash des cartes réseaux Intel PCI Express prises en charge et pour mettre
à jour les configurations système. BootUtil remplace les utilitaires existants et fournit les fonctionnalités des anciens utilitaires
IBAUTIL, ISCSIUTL, LANUTIL et FLAUTIL. Il prend en charge toutes les cartes prises en charge par les utilitaires précédents.
REMARQUES :
la mise à jour de la mémoire flash de la carte à l’aide de l’utilitaire BootUtil efface toute image de
microprogramme se trouvant sur la mémoire flash.
Si vous mettez à jour le microprogramme depuis la version 13.x, vous devez d'abord effectuer une mise à jour
vers la version 14.0.12 avant d'effectuer la mise à jour vers la version 14.5.x.
Après avoir mis à jour le microprogramme au moyen du Lifecycle Controller ou avoir lancé le Kit de mise à jour du
pilote du microprogramme, le système doit être mis hors tension (prise secteur débranchée) et redémarré pour
que tous les changements soient pris en compte.
Intel fournit les microprogrammes flash au format de fichier FLB pour la programmation de la mémoire flash :
Intel® Boot Agent comme ROM optionnelle PXE pour les BIOS existants
(http://www.intel.com/support/fr/network/adapter/pro100/bootagent/)
Intel® Boot Agent comme ROM optionnelle iSCSI pour les BIOS existants
(http://www.intel.com/support/fr/network/iscsi/remoteboot/)
Connectivité réseau, pilote réseau UEFI (http://www.intel.com/support/fr/network/sb/cs-006120.htm)
Il est possible que les OEM fournissent des images de microprogramme flash personnalisées pour les cartes réseau OEM.
Reportez-vous aux instructions fournies par les OEM.
BootUtil permet à l’utilisateur de transférer le microprogramme pris en charge sur la mémoire flash de la carte à partir du
fichier FLB maître inclus. Cette ROM optionnelle comprend des pilotes PXE, iSCSI et UEFI ainsi qu’une image programmée
directement sur la mémoire flash. BootUtil construit également les images combinées des cartes prises en charge et
programme également ces images sur la mémoire flash. Les images discrètes et combinées étant prises en charge, la
commande -BOOTENABLE fonctionne UNIQUEMENT avec les images combinées.
Le fichier FLB maître (BOOTIMG.FLB) est le nouveau support de toutes les nouvelles ROM de démarrage optionnelles Intel(R).
Ce fichier remplace les fichiers FLB pour iSCSI, PXE et EFI.
REMARQUE : BootUtil prend en charge les anciens fichiers flb afin de préserver la compatibilité avec les utilitaires
précédents.
Sans option de ligne de commande, l’utilitaire BootUtil affiche une liste de tous les ports réseau Intel du système. BootUtil
permet également à l’utilisateur d’activer ou de désactiver la mémoire flash sur des ports spécifiques en utilisant l’option FLASHENABLE ou -FLASHDISABLE afin de contrôler l’accès au microprogramme depuis le système.
BootUtil permet à l’utilisateur de définir individuellement les configurations iSCSI Boot à l’aide des options -NIC=xx [OPTION]=[VALEUR]. L’option -I est spécifique à iSCSI et ne fonctionne pas sur les configurations PXE.
REMARQUES :
BootUtil peut afficher jusqu’à 128 ports de carte.
aucun paramètre de configuration n’est pris en charge pour le pilote UEFI.
les fonctionnalités des utilitaires précédents, tels que IBAUTIL, sont préservées dans BootUtil, mais la syntaxe de
certaines commandes peut être différente.
BootUtil se trouve dans le répertoire \BOOTUTIL du CD d’installation du logiciel. Consultez toujours le site de l’assistance à la
clientèle de Dell (http://www.support.dell.com) pour obtenir les dernières informations et mises à jour de composants.
Dell fournit également un kit de mise à jour du microprogramme Dell (FW-DUP) qu’il est possible d’utiliser pour actualiser le
flash. Pour en savoir plus sur FW-DUP, cliquez ici.
REMARQUE : l'option de démarrage de la ROM optionnelle est désactivée par défaut pour FCoE, iSCSI Boot et PXE sur
toutes les cartes réseau Intel 10 Gigabit pour serveurs expédiées par Dell. L’option de démarrage de la ROM optionnelle
est désactivée par défaut pour iSCSI Boot et PXE sur toutes les cartes réseau Intel Gigabit pour serveurs expédiées par
Dell.
Exécution de BootUtil
Sous DOS, la syntaxe des options de ligne de commande BootUtil est la suivante : BootUtil [-option] ou -[OPTION]=
[VALUE]
Pour pouvoir exécuter la version Linux de BootUtil, le pilote qv doit être chargé en premier. Si ce pilote n’est pas installé,
procédez comme suit pour le charger.
1. Ouvrez une session root et créez un répertoire temporaire pour générer le pilote Intel® Network Connections Tools.
2. Dans ce répertoire temporaire, copiez "install" ainsi que le fichier iqvlinux.tar.gz correspondant à votre plateforme. Les
versions prises en charge de Linux sont Linux 32 (x86) et Linux64e (x64). Le fichier iqvlinux.tar.gz approprié se trouve
dans le répertoire correspondant à votre plateforme
3. Allez au répertoire temporaire et exécutez la commande : './install'
Le pilote qv est installé et les fichiers du répertoire temporaire peuvent être supprimés.
4. Copiez vers votre système la bonne version de BootUtil à partir du répertoire approprié du CD.
Paramètres de ligne de commande
BootUtil accepte un paramètre exécutable et ses options non exécutables associées dans une exécution. Si des options
exécutables conflictuelles sont spécifiées (ex : utilisation simultanée de -FLASHENABLE et de -UPDATE), BootUtil se ferme avec
un message d’erreur.
Le cas échéant, les options sont répertoriées par groupes logiques.
REMARQUE : sur les cartes suivantes, une seule image, iSCSI Boot ou ROM optionnelle PXE, est autorisée pour tous les
ports, sachant que tous les ports partagent la même mémoire flash. Il n’est pas possible d’avoir un port avec une image
flash pour iSCSI Boot et l’autre port avec une image flash pour la ROM optionnelle PXE.
Carte
Carte
Carte
Carte
Carte
Carte
réseau
réseau
réseau
réseau
réseau
réseau
2 ports Intel® PRO/1000 PT pour serveurs
Intel® PRO/1000 PT pour serveurs
Intel® PRO/1000 PF pour serveurs
10 Gigabit Intel® XF SR pour serveurs
10 Gigabit Intel® AT pour serveurs
10 Gigabit 2 ports Intel® AF DA pour serveurs
REMARQUE : si vous exécutez BootUtil sans aucune option de ligne de commande, l’utilitaire affiche la liste de toutes
les cartes réseau Intel prises en charge installées sur le système.
Options générales
Paramètre
Description
-HELP ou -?
Affiche une liste d’options.
-EXITCODES
Affiche les codes de sortie retournés par BootUtil au système d’exploitation.
-IMAGEVERSION ou -IV
Affiche les types de microprogramme et les numéros de version depuis une image de
ressources.
Si cette option est utilisée avec l’option -ALL, chaque image de ressources est affichée
continuellement pour toutes les cartes.
Si elle est utilisée avec l’option -NIC, l’image de ressources se trouve dans la
mémoire flash de la carte.
Si elle est utilisée avec l’option -FILE, l’image de ressources se trouve dans le fichier
FLB.
-E
Recense tous les ports réseau pris en charge par le système.
-O=[NOMDUFICHIER]
Toutes les sorties textes sont redirigées vers le nom de fichier spécifié. Commande à
utiliser avec l’option -E ou -NIC.
Si vous utilisez l’option -E, une liste de toutes les cartes/adresses MAC est
enregistrée dans le fichier spécifié.
Si vous utilisez l’option -NIC, toutes les options de configuration iSCSI Boot sont
enregistrées dans un seul fichier suivant la carte spécifiée.
-I=[NOMDUFICHIER]
Lit les options de configuration iSCSI Boot dans le fichier script spécifié et les
paramètres du programme concernant le port sélectionné.
-FILE=[NOMDUFICHIER]
Spécifie le nom de fichier pour les options -SAVEIMAGE, RESTOREIMAGE, SAVECONFIG et -RESTORECONFIG.
-P
Marque un temps d’arrêt sur l’écran après l’affichage de la 25ème ligne. En mode
Attente, la dernière ligne sur l’écran précise que l’écran est en mode Attente et que
l’utilisateur peut appuyer sur Entrée pour continuer.
-NODPL
Avec ce paramètre, BootUtil n'affiche pas l'emplacement du périphérique PCI.
Option de programmation de la mémoire flash
Paramètre
Description
-SAVEIMAGE
Enregistre l’image de microprogramme existante dans la mémoire flash de la carte
spécifiée par l’option -NIC dans un fichier du disque. Le fichier de destination est
spécifié par l’option -FILE.
-RESTOREIMAGE
Restaure l’image de microprogramme précédemment enregistrée sur la même carte
réseau en utilisant l’option -NIC. Le fichier source est spécifié par l’option -FILE.
-QUIET
Exécute BootUtil sans invites de confirmation. Cette option est utilisée avec l’option IMAGEVERSION, -UP, -UPDATE, -RESTOREIMAGE ou -HELP.
Options de gestion de l’alimentation
Paramètre
Description
-WOLDISABLE ou -WOLD
Désactive la fonctionnalité Wake on LAN du port sélectionné.
-WOLENABLE ou -WOLE
Active la fonctionnalité Wake On LAN du port sélectionné.
Options d’activation/désactivation de la mémoire flash de la carte
Paramètre
-FLASHENABLE ou -FE
Description
Active la capacité d’exécution du microprogramme de la mémoire flash de la carte
sélectionnée.
REMARQUE : ce paramètre n’est pas pris en charge sur les cartes utilisant une
ROM optionnelle combinée.
REMARQUE : ce paramètre n’est pas pris en charge sur les cartes suivantes.
Carte mezzanine 4 ports Intel® Gigabit ET
Carte mezzanine Intel® Gigabit 4P I350-t
Carte mezzanine 2 ports Intel® Ethernet X520 10GbE KX4
Carte
Carte
Carte
Carte
-FLASHDISABLE ou -FD
mezzanine 2 ports Intel® Ethernet X520 10GbE KX4-KR
Intel® Ethernet 10G 2P X520-k bNDC
réseau Intel® Ethernet 10G 2P X540-t
Intel® Ethernet 10G 4P X540/I350 rNDC
Désactive la capacité d’exécution du microprogramme de la mémoire flash de la carte
sélectionnée.
REMARQUE : ce paramètre n’est pas pris en charge sur les cartes utilisant une
ROM optionnelle combinée.
REMARQUE : ce paramètre n’est pas pris en charge sur les cartes suivantes.
Carte
Carte
Carte
Carte
Carte
Carte
Carte
-BOOTENABLE=[iSCSIPRIMARY |
iSCSISECONDARY | PXE | FCoE |
disabled]
mezzanine 4 ports Intel® Gigabit ET
mezzanine Intel® Gigabit 4P I350-t
mezzanine 2 ports Intel® Ethernet X520 10GbE KX4
mezzanine 2 ports Intel® Ethernet X520 10GbE KX4-KR
Intel® Ethernet 10G 2P X520-k bNDC
réseau Intel® Ethernet 10G X540-t
Intel® Ethernet 10G 4P X540/I350 rNDC
Sélectionne le type de microprogramme flash à activer ou désactiver sur le port
sélectionné. La ROM optionnelle combinée peut avoir toutes ces capacités. La ROM
optionnelle monolithique possède des capacités PXE, iSCSI, ou FCoE mais pas toutes.
Cette commande ne fonctionne pas sur la ROM optionnelle monolithique.
REMARQUE : cette commande manuelle ne s’applique pas au pilote réseau
UEFI.
Le pilote réseau UEFI est activé par défaut et automatiquement chargé à moins
que les ports réseau ne soient déjà utilisés par un autre microprogramme
flash.
BOOTENABLE=DISABLED
Désactive les fonctionnalités d’amorçage iSCSI, FCoE et PXE du BIOS existant.
BOOTENABLE=ISCSIPRIMARY
Active l’amorçage iSCSI et désactive PXE et FCoE à partir du BIOS existant.
BOOTENABLE=PXE
Active l’amorçage PXE et désactive iSCSI et FCoE à partir du BIOS existant.
BOOTENABLE=FCOE
Active l’amorçage FCoE et désactive PXE et iSCSI à partir du BIOS existant.
Options de sélection des cartes
Paramètre
Description
-ALL
Sélectionne tous les ports réseau pris en charge et trouvés sur le système.
-NIC=XX
Sélectionne un port réseau spécifique du système. Si elle est utilisée avec une option
exécutable, elle imprime la configuration de démarrage iSCSI du port sélectionné ou
l’enregistre dans un fichier lorsque l’option -O est utilisée.
-TARGET=XX
Il s’agit d’une option de sélection spécifique FCoE. Les valeurs légales sont 1, 2, 3 et
4. Cette option est requise pour la configuration des commandes -WWPN, -FCOELUN,
-FCOEVLAN et -BOOTORDER.
-BLINK
Fait clignoter le voyant du port sélectionné pendant dix secondes et permet ainsi
d’identifier la carte. Ce paramètre doit être utilisé avec l’option -NIC ou -ALL.
REMARQUE : ce paramètre n’est pas pris en charge sur les cartes mezzanines
Intel® Ethernet.
Options FCoE Remote Boot
Options de configuration FCoE Remote Boot
Options de configuration FCoE
-[OPTION]=[VALEUR]
Description
Ces options doivent être utilisées avec l’option -NIC=XX. Elles ne peuvent
pas être utilisées avec l'option -ALL.
-WWPNPREFIX
Spécifie le préfixe à utiliser avec WWPN. Le préfixe de 4 chiffres hexadécimaux. Les
séparateurs "-" ou ":", sont autorisés mais optionnels. Par exemple, BOOTUTIL NIC=1 -WWPNPREFIX=20-00.
-WWNNPREFIX
Spécifie le préfixe à utiliser avec WWNN. Le préfixe de 4 chiffres hexadécimaux. Les
séparateurs "-" ou ":", sont autorisés mais optionnels. Par exemple, BOOTUTIL NIC=1 -WWNNPREFIX=10-00.
-SHOWFCOE
Affiche les configurations cible FCoE pour la carte réseau sélectionnée.
Options de configuration cible
FCoE
-[OPTION]=[VALEUR]
-WWPN
Description
Ces options doivent être utilisées avec l’option -NIC=XX et l’option TARGET=XX. Elles ne peuvent pas être utilisées avec l'option -ALL.
Spécifie le WWPN pour la cible sélectionnée. Le WWPN est composé de 16 chiffres
hexadécimaux ou 8 octets. Chaque octet peut être dissocié en utilisant un séparateur
optionnel l "-" ou ":".
Exemple :
BOOTUTIL -NIC=1 -TARGET=1 -WWPN=00-11-22-33-44-55-66-77
-FCOELUN
Spécifie le numéro d'unité logique (LUN) de la cible FCoE sélectionnée. Plage valide :
0 à 255.
-FCOEVLAN
Spécifie le VLAN à utiliser pour se connecter à la cible sélectionnée. Plage valide : 0 à
4094.
Exemple :
BOOTUTIL -NIC=1 -TARGET=2 -WWPN=0011223344556677 -FCOELUN=0 FCOEVLAN=1 -BOOTORDER=2
-BOOTORDER
Spécifie l’ordre d’amorçage pour la cible sélectionnée. Plage valide : 1 à 4. Si une
valeur 0 est attribuée, alors la cible sera exécutée selon l’ordre d’amorçage. Les
valeurs d’ordre de démarrage 1 à 4 ne peuvent être attribuées qu’une fois aux cibles
se trouvant sur tous les ports activés pour un démarrage FCoE.
REMARQUE : ces commandes peuvent être utilisées sur la même ligne pour
configurer une cible entière en une seule fois.
Exemple :
BOOTUTIL -NIC=1 -TARGET=2 -WWPN=0011223344556677 -FCOELUN=0 FCOEVLAN=1 -BOOTORDER=2
Exemples
Les exemples suivants indiquent comment entrer des lignes de commande BootUtil type.
Exemple 1 :
pour activer le microprogramme de la mémoire flash sur la première carte réseau pour que le système soit en mesure
d’exécuter le microprogramme de la mémoire flash :
BootUtil -NIC=1 -FLASHENABLE
Exemple 2 :
pour activer le microprogramme de la mémoire flash sur toutes les cartes réseau :
BootUtil -ALL -FD
Exemple 3 :
pour afficher les types et versions de microprogrammes de mémoire flash intégrée BootUtil :
BootUtil -IMAGEVERSION
Exemple 4 :
pour désactiver le microprogramme sur le deuxième port réseau du système :
BootUtil -NIC=2 -BOOTENABLE=DISABLED
REMARQUE : cette commande fonctionne uniquement sur une carte utilisant une ROM optionnelle combinée et non une
ROM optionnelle discrète.
Exemple 5 :
pour obtenir de l’aide :
BootUtil -?
Codes de sortie DOS
BootUtil retourne les codes de sortie à l’environnement DOS. Les codes de sortie possibles sont énumérés ci-dessous :
Nom du code
Valeur
Toutes les opérations BootUtil ont été exécutées avec succès
0
Paramètre de ligne de commande non valide
1
Des cartes réseau non prises en charge ont été détectées
2
Port réseau non valide sélectionné
3
Échec de l’opération FLASH
4
Échec de l’opération de lecture de l’EEPROM
5
Échec de l’opération d’écriture de l’EEPROM
6
Contenu du fichier manquant ou endommagé
7
Interruption définitive par l’opérateur
8
LOM non prise en charge pour l’opération sélectionnée
9
Le port réseau n’est pas amorçable
10
Échec de la programmation des configurations de démarrage iSCSI
13
Échec de l’allocation de la mémoire vive
14
Échec de l’opération du fichier
15
Échec de l’opération FCoE
16
Veuillez lire toutes les restrictions et les avertissements.
Kit de mise à jour Dell du microprogramme de carte Intel
Le kit de mise à jour Dell (Dell Update Package) du microprogramme de carte Intel est fourni par Dell. Sous la forme d’un
fichier auto-extractible qui actualise le microprogramme en mode silencieux, il comprend tous les fichiers de support et les
images EEPROM et Flash nécessaires.
Les éléments suivants sont indispensables à l’utilisation du DUP sur les systèmes Linux :
DKMS doit être installé.
Un noyau ou des sources de noyau pris en charge par Dell doivent être installés.
REMARQUE : si le noyau n’est pas un noyau pris en charge par Dell, les packages "compile" et "make" doivent
également être inclus.
REMARQUE : le DUP n’est pas pris en charge sur ESX et sur Citrix XenServer. Il est toutefois possible d’actualiser ces
systèmes d'exploitation avec le DUP via Lifecycle Controller.
Veuillez lire toutes les restrictions et les avertissements.
Retour à la table des matières
Contrat de licence du logiciel : Guide d’utilisation des cartes
réseau Intel®
CONTRAT DE LICENCE DU LOGICIEL INTEL (licence finale)
IMPORTANT - À LIRE AVANT TOUTE TENTATIVE DE COPIE, D’INSTALLATION OU D’UTILISATION.
Veuillez ne pas utiliser ou charger ce logiciel et tout programme associé (regroupés sous la désignation
"Logiciel") tant que vous n’avez pas lu attentivement les conditions suivantes. En chargeant ou en utilisant le
Logiciel, vous acceptez les termes de ce contrat. Si vous êtes en désaccord avec les termes de ce contrat, veuillez
ne pas installer ou utiliser le Logiciel.
CONTRATS DE LICENCE
Veuillez noter :
Si vous êtes un administrateur réseau, reportez-vous à la "Licence de site" ci-dessous.
Si vous êtes un utilisateur final, reportez-vous à la "Licence utilisateur unique" ci-dessous.
Licence de site. Vous pouvez copier le Logiciel sur les ordinateurs de votre organisation afin que les employés puissent
l’utiliser et vous pouvez sauvegarder un nombre raisonnable de copies du Logiciel, conformément à ces conditions :
1. Ce Logiciel est concédé sous licence pour une utilisation exclusive avec les produits composants Intel.
L’utilisation du Logiciel avec des produits composants autres que Intel n’est pas couverte par cette licence.
2. Vous n’êtes pas autorisés à copier, modifier, louer, vendre, distribuer, ni transférer une partie quelconque du Logiciel,
sauf dans la mesure prévue par le présent Contrat, et vous vous engagez à empêcher toute copie non autorisée du
Logiciel.
3. Vous n’êtes pas autorisés à reconstituer la logique du Logiciel, à le décompiler ou à le désassembler.
4. Vous n’êtes pas autorisés à concéder une sous-licence du Logiciel ou à permettre à plusieurs utilisateurs de l’utiliser
simultanément.
5. Le Logiciel peut inclure des portions sujettes à des termes complémentaires aux présents, définis dans une licence
accompagnant ces portions.
LICENCE UTILISATEUR UNIQUE. Vous pouvez copier le Logiciel sur un seul ordinateur pour une utilisation personnelle et
non commerciale, et vous pouvez effectuer une copie de sauvegarde du Logiciel, conformément à ces conditions :
1. Ce Logiciel est concédé sous licence pour une utilisation exclusive avec les produits composants Intel.
L’utilisation du Logiciel avec des produits composants autres que Intel n’est pas couverte par cette licence.
2. Vous n’êtes pas autorisés à copier, modifier, louer, vendre, distribuer, ni transférer une partie quelconque du Logiciel,
sauf dans la mesure prévue par le présent Contrat, et vous vous engagez à empêcher toute copie non autorisée du
Logiciel.
3. Vous n’êtes pas autorisés à reconstituer la logique du Logiciel, à le décompiler ou à le désassembler.
4. Vous n’êtes pas autorisés à concéder une sous-licence du Logiciel ou à permettre à plusieurs utilisateurs de l’utiliser
simultanément.
5. Le Logiciel peut inclure des portions sujettes à des termes complémentaires aux présents, définis dans une licence
accompagnant ces portions.
PROPRIÉTÉ DU LOGICIEL ET COPYRIGHT (DROITS D’AUTEUR). Intel ou ses fournisseurs demeurent les propriétaires de
toutes les copies du Logiciel. Le logiciel est protégé par la loi sur le copyright, les lois en vigueur aux États-Unis et dans
d’autres pays, ainsi que par les dispositions de traités internationaux. Vous n’êtes pas autorisés à retirer la mention de
copyright du Logiciel. Intel peut modifier le Logiciel ou des éléments référencés dans ce document, à tout moment et sans
préavis, mais n’est pas dans l’obligation de mettre à jour le Logiciel ni d’offrir une assistance. Sauf stipulation expresse
contraire, Intel exclut tout droit, explicite ou implicite, vis à vis des brevets, copyrights et marques Intel, et tout autre droit de
propriété intellectuelle. Vous pouvez transférer le Logiciel uniquement si le bénéficiaire accepte d’être lié par ces termes et si
vous ne conservez aucune copie du Logiciel.
GARANTIE LIMITÉE DU SUPPORT. Si le logiciel a été remis par Intel sur un support physique, Intel garantit que celui-ci est
exempt de défauts matériels pendant une période de quatre-vingt-dix jours à compter de la date de livraison par Intel. Si un
tel défaut est détecté, renvoyez le support à Intel qui pourra choisir de le remplacer ou d’employer une autre méthode de
livraison.
EXCLUSION DE TOUTE AUTRE GARANTIE. À L’EXCEPTION DES CAS CI-DESSUS, LE LOGICIEL EST FOURNI "EN
L’ÉTAT", SANS GARANTIE EXPRESSE OU IMPLICITE D’AUCUNE SORTE, NOTAMMENT TOUTE GARANTIE DE
QUALITÉ MARCHANDE, D’ABSENCE DE CONTREFAÇON OU D’ADÉQUATION À UN USAGE PARTICULIER. Intel ne
garantit pas la précision ni l’exhaustivité des informations, des textes, des graphiques, des liens ou d’autres éléments
contenus dans le Logiciel et ne peut en être tenu responsable.
LIMITATION DE RESPONSABILITÉ. EN AUCUN CAS INTEL OU SES FOURNISSEURS NE POURRONT ÊTRE TENUS
POUR RESPONSABLES DE TOUT DOMMAGE, DE QUELQUE NATURE QUE CE SOIT (Y COMPRIS, MAIS DE MANIÈRE
NON LIMITATIVE, TOUTE PERTE DE BÉNÉFICES, INTERRUPTION D’ACTIVITÉ OU PERTE D’INFORMATIONS),
RÉSULTANT DE L’UTILISATION OU DE L’IMPOSSIBILITÉ D’UTILISER LE LOGICIEL, ET CE MÊME SI INTEL A ÉTÉ
PRÉVENU DE L’ÉVENTUALITÉ DE TELS DOMMAGES. CERTAINES JURIDICTIONS N’AUTORISENT PAS L’EXCLUSION
OU LA LIMITATION DE RESPONSABILITÉ POUR LES GARANTIES IMPLICITES OU LES DOMMAGES INDIRECTS OU
ACCESSOIRES, DE SORTE QUE LA LIMITATION CI-DESSUS PEUT NE PAS VOUS ÊTRE APPLICABLE. VOUS POUVEZ
ÉGALEMENT DISPOSER D’AUTRES DROITS QUI VARIENT DE JURIDICTION EN JURIDICTION.
RÉSILIATION DE CE CONTRAT. Intel peut résilier ce contrat à tout moment si vous n’en respectez pas les termes. Dans ce
cas, vous devez immédiatement détruire le Logiciel et retourner toutes les copies dudit Logiciel à Intel.
LOIS APPLICABLES. Toute réclamation établie dans le cadre de ce contrat sera régie par les lois de l’État de Californie
(États-Unis), à l’exception de ses principes de conflit des lois et de la convention des Nations Unies sur les contrats pour la
vente de biens. Vous n’êtes pas autorisés à exporter le Logiciel en infraction des lois et des régulations d’exportation
applicables. Intel n’est contraint par aucun autre contrat à moins que celui-ci ne soit établi par écrit et signé par un
représentant habilité d’Intel.
LIMITATION DES DROITS DU GOUVERNEMENT. Le Logiciel est fourni avec des "DROITS LIMITÉS". L’utilisation, la
duplication ou la diffusion par le gouvernement est soumise à des restrictions comme indiqué dans les clauses FAR52.227-14
et DFAR252.227-7013 et seq. ou son successeur. L’utilisation du Logiciel par le gouvernement constitue la reconnaissance des
droits de propriété de Intel mentionnés dans ce document. Le sous-traitant ou le fabricant est Intel.
Veuillez lire toutes les restrictions et les avertissements.
Retour à la table des matières

Manuels associés