▼
Scroll to page 2
of
218
ESCALA Serveur d’E-S virtuel REFERENCE 86 F1 81FA 01 ESCALA Serveur d’E-S virtuel Hardware Mai 2009 BULL CEDOC 357 AVENUE PATTON B.P.20845 49008 ANGERS CEDEX 01 FRANCE REFERENCE 86 F1 81FA 01 L’avis juridique de copyright ci–après place le présent document sous la protection des lois de Copyright qui prohibent, sans s’y limiter, des actions comme la copie, la distribution, la modification et la création de produits dérivés. Copyright © Bull SAS 2009 Imprimé en France Marques déposées Toutes les marques citées dans ce manuel sont la propriété de leurs détenteurs respectifs. Tous les noms de marques ainsi que les noms de produits matériels et/ou logiciels sont régis par le droit des marques et/ou des brevets. La citation des noms de marques et de produits est purement informative et ne constitue pas une violation du droit des marques et/ou des brevets. Des corrections ou des modifications au contenu de ce document peuvent intervenir sans préavis. Bull SAS ne pourra pas être tenu pour responsable des éventuelles erreurs qui pourraient être contenues dans ce manuel, ni pour tout dommage pouvant résulter de son application. Table des matières Avis aux lecteurs canadiens . . . . . . . . . . . . . . . . . . . . . . . . . . vii Virtual I/O Server . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Virtual I/O Server - Nouveautés. . . . . . . . . . . . . . . . . . . . . . Présentation du serveur Virtual I/O Server . . . . . . . . . . . . . . . . . . Prise en charge de système d’exploitation pour les partitions logiques client VIOS . . . . Composants de Virtual I/O Server . . . . . . . . . . . . . . . . . . . . Connexion optique virtuelle . . . . . . . . . . . . . . . . . . . . . . Connexion optique virtuelle pour les systèmes gérés par la console HMC . . . . . . Connexion optique virtuelle pour les systèmes gérés par IVM . . . . . . . . . . Interface SCSI virtuelle . . . . . . . . . . . . . . . . . . . . . . . Présentation du sous-système de stockage Virtual I/O Server. . . . . . . . . . Mémoire physique . . . . . . . . . . . . . . . . . . . . . . . . Volumes physiques . . . . . . . . . . . . . . . . . . . . . . . Volumes logiques . . . . . . . . . . . . . . . . . . . . . . . Référentiel de supports virtuels. . . . . . . . . . . . . . . . . . . Pools de stockage . . . . . . . . . . . . . . . . . . . . . . . Unités optiques . . . . . . . . . . . . . . . . . . . . . . . . Bande . . . . . . . . . . . . . . . . . . . . . . . . . . . Stockage virtuel . . . . . . . . . . . . . . . . . . . . . . . . . Disque . . . . . . . . . . . . . . . . . . . . . . . . . . . Optique . . . . . . . . . . . . . . . . . . . . . . . . . . Bande . . . . . . . . . . . . . . . . . . . . . . . . . . . Compatibilité d’unité dans un environnement Virtual I/O Server . . . . . . . Unités de mappage . . . . . . . . . . . . . . . . . . . . . . . . Réseaux virtuels . . . . . . . . . . . . . . . . . . . . . . . . . . Carte Ethernet hôte . . . . . . . . . . . . . . . . . . . . . . . . Internet Protocol version 6 . . . . . . . . . . . . . . . . . . . . . Unités d’agrégation de liaisons ou EtherChannel . . . . . . . . . . . . . . Cartes Ethernet virtuelles . . . . . . . . . . . . . . . . . . . . . . Réseaux locaux virtuels (VLAN) . . . . . . . . . . . . . . . . . . . Cartes Ethernet partagées. . . . . . . . . . . . . . . . . . . . . . Mémoire partagée . . . . . . . . . . . . . . . . . . . . . . . . . Partition VIOS de pagination . . . . . . . . . . . . . . . . . . . . . Gestion du serveur Virtual I/O Server . . . . . . . . . . . . . . . . . . Interface de ligne de commande Virtual I/O Server . . . . . . . . . . . . . Logiciels Tivoli et Virtual I/O Server . . . . . . . . . . . . . . . . . . Logiciel Systems Director . . . . . . . . . . . . . . . . . . . . . . Scénarios de configuration relatifs au serveur Virtual I/O Server . . . . . . . . . . Scénario : Configuration d’un serveur Virtual I/O Server sans marquage VLAN . . . . Scénario : Configuration d’un serveur Virtual I/O Server avec marquage VLAN . . . . Scénario : Configuration de la reprise par transfert de carte Ethernet partagée . . . . . Scénario : Configuration de la fonction de sauvegarde via l’interface réseau sur les partitions AIX sans marquage VLAN . . . . . . . . . . . . . . . . . . . . . . Scénario : Configuration de la fonction MPIO pour les partitions logiques client AIX . . . Planification de Virtual I/O Server . . . . . . . . . . . . . . . . . . . . Spécifications . . . . . . . . . . . . . . . . . . . . . . . . . . . Limites et restrictions . . . . . . . . . . . . . . . . . . . . . . . . Prévision de la capacité . . . . . . . . . . . . . . . . . . . . . . . Planification de l’interface SCSI virtuelle. . . . . . . . . . . . . . . . . Temps d’attente de l’interface SCSI virtuelle . . . . . . . . . . . . . . Bande passante de l’interface SCSI virtuelle. . . . . . . . . . . . . . . Considérations sur le dimensionnement de l’interface SCSI virtuelle . . . . . . Planification des cartes Ethernet partagées . . . . . . . . . . . . . . . . Configuration requise pour le réseau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . logiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . client . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2 2 3 5 7 9 11 12 13 13 13 16 17 18 18 18 18 19 20 20 22 23 23 25 25 25 26 26 29 31 36 37 38 41 42 42 44 46 . . . . . . . . . . . . 49 51 54 54 55 56 56 56 57 58 60 60 iii Sélection de cartes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Allocation de processeur . . . . . . . . . . . . . . . . . . . . . . . . . . . Allocation de mémoire . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration requise pour la mémoire partagée . . . . . . . . . . . . . . . . . . . . . Remarques relatives à la redondance . . . . . . . . . . . . . . . . . . . . . . . . . Partitions logiques client . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fonction MPIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fonction miroir des partitions logiques client . . . . . . . . . . . . . . . . . . . . Multitraitement HACMP . . . . . . . . . . . . . . . . . . . . . . . . . . . Unités d’agrégation de liaisons ou EtherChannel . . . . . . . . . . . . . . . . . . . Reprise par transfert de carte Ethernet partagée . . . . . . . . . . . . . . . . . . . Partition logique Virtual I/O Server . . . . . . . . . . . . . . . . . . . . . . . . Fonction multi-path (multi-accès) . . . . . . . . . . . . . . . . . . . . . . . . RAID . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Unités d’agrégation de liaisons ou EtherChannel . . . . . . . . . . . . . . . . . . . Configuration de la redondance à l’aide de cartes Fibre Channel virtuelles . . . . . . . . . . . Remarques sur la sécurité . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation de Virtual I/O Server et des partitions logiques client . . . . . . . . . . . . . . . . Installation de Virtual I/O Server et des partitions logiques client en déployant une planification système. . Saisie du code d’activation de PowerVM Editions via la console HMC version 7 . . . . . . . . . Importation d’une planification système dans une console HMC . . . . . . . . . . . . . . Déploiement d’une planification système via la console HMC . . . . . . . . . . . . . . . Finalisation de l’installation de Virtual I/O Server . . . . . . . . . . . . . . . . . . . Installation manuelle de Virtual I/O Server via la console HMC version 7 . . . . . . . . . . . . Saisie du code d’activation de PowerVM Editions via la console HMC version 7 . . . . . . . . . Création de la partition logique et du profil de partition Virtual I/O Server via la console HMC version 7 Installation de Virtual I/O Server à partir de la console HMC . . . . . . . . . . . . . . . Installation de Virtual I/O Server à partir d’un CD ou d’un DVD . . . . . . . . . . . . . . Finalisation de l’installation de Virtual I/O Server . . . . . . . . . . . . . . . . . . . Affichage et acceptation du contrat de licence de Virtual I/O Server . . . . . . . . . . . . Réinstallation de Virtual I/O Server pour une partition VIOS de pagination . . . . . . . . . . . . Migration de Virtual I/O Server . . . . . . . . . . . . . . . . . . . . . . . . . . . Migration de Virtual I/O Server à partir de la console HMC . . . . . . . . . . . . . . . . . Migration de Virtual I/O Server à partir d’une unité DVD . . . . . . . . . . . . . . . . . Configuration de Virtual I/O Server . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration d’unités SCSI virtuelles sur le serveur Virtual I/O Server . . . . . . . . . . . . . Création de l’unité cible virtuelle sur le serveur Virtual I/O Server . . . . . . . . . . . . . . Création d’une unité cible virtuelle sur un serveur Virtual I/O Server avec mappage vers un volume physique ou logique, une unité de bande ou une unité optique physique. . . . . . . . . . . Création d’une unité cible virtuelle sur un serveur Virtual I/O Server qui mappe un fichier ou un volume logique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Création d’une unité cible virtuelle sur un serveur Virtual I/O Server avec mappage vers une unité optique virtuelle associée à un fichier. . . . . . . . . . . . . . . . . . . . . . . Définition des attributs de règle de réservation d’une unité . . . . . . . . . . . . . . . Création de pools de stockage de volumes logiques sur un serveur Virtual I/O Server . . . . . . . Création de pools de stockage de fichiers sur un serveur Virtual I/O Server . . . . . . . . . . Création du référentiel de supports virtuels sur un serveur Virtual I/O Server . . . . . . . . . Création de volumes logiques et de groupes de volumes sur un serveur Virtual I/O Server . . . . . Configuration de Virtual I/O Server pour la prise en charge des fonctions de verrouillage SCSI-2 . . . Identification des disques exportables . . . . . . . . . . . . . . . . . . . . . . . Configuration d’unités Ethernet virtuelles sur le serveur Virtual I/O Server . . . . . . . . . . . Création d’une carte Ethernet virtuelle via la console HMC version 7. . . . . . . . . . . . . Configuration d’une carte Ethernet partagée . . . . . . . . . . . . . . . . . . . . . Configuration d’une unité d’agrégation de liaisons ou EtherChannel . . . . . . . . . . . . . Affectation de la carte Fibre Channel virtuelle à une carte Fibre Channel physique . . . . . . . . . Configuration des agents et des clients Tivoli sur le serveur Virtual I/O Server . . . . . . . . . . Configuration de l’agent Tivoli Monitoring . . . . . . . . . . . . . . . . . . . . . Configuration de l’agent Tivoli Usage and Accounting Manager . . . . . . . . . . . . . . Configuration du client Tivoli Storage Manager . . . . . . . . . . . . . . . . . . . . Configuration des agents TotalStorage Productivity Center . . . . . . . . . . . . . . . . Configuration de l’agent Director . . . . . . . . . . . . . . . . . . . . . . . . . . iv Virtual I/O Server . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 64 66 67 68 69 69 70 70 71 71 72 72 73 73 73 76 77 77 78 78 80 83 84 84 84 85 86 88 88 89 90 91 92 94 94 95 . 95 . 97 . . . . . . . . . . . . . . . . . . . 99 100 101 102 102 103 103 105 106 106 108 111 111 113 113 115 116 117 119 Configuration de Virtual I/O Server en tant que client LDAP . . . . . . . . . . . . . . . . Configuration de Virtual I/O Server pour les systèmes POWER6 . . . . . . . . . . . . . . . Gestion du serveur Virtual I/O Server . . . . . . . . . . . . . . . . . . . . . . . . . Gestion de la mémoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Importation et exportation de groupes de volumes et de pools de stockage de volumes logiques . . . Importation de groupes de volumes et de pools de stockage de volumes logiques . . . . . . . Exportation de groupes de volumes et de pools de stockage de volumes logiques . . . . . . . Mappage de disques virtuels sur des disques physiques . . . . . . . . . . . . . . . . . Augmentation de la capacité de l’unité . . . . . . . . . . . . . . . . . . . . . . . Modification de la longueur de file d’attente de l’interface SCSI virtuelle . . . . . . . . . . . Sauvegarde et restauration de fichiers et de systèmes de fichiers . . . . . . . . . . . . . . Gestion du stockage à l’aide d’ TotalStorage Productivity Center . . . . . . . . . . . . . . Gestion des réseaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Modification de la configuration réseau de la partition logique Virtual I/O Server . . . . . . . . Activation et désactivation du protocole GVRP . . . . . . . . . . . . . . . . . . . . Gestion du protocole SNMP sur le serveur Virtual I/O Server . . . . . . . . . . . . . . . Mise à niveau de Virtual I/O Server de IPv4 vers IPv6 . . . . . . . . . . . . . . . . . Sauvegarde du serveur Virtual I/O Server. . . . . . . . . . . . . . . . . . . . . . . Sauvegarde du serveur Virtual I/O Server sur bande . . . . . . . . . . . . . . . . . . Sauvegarde du serveur Virtual I/O Server sur un ou plusieurs DVD . . . . . . . . . . . . . Sauvegarde du serveur Virtual I/O Server sur un système de fichiers distant via un fichier nim_resources.tar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sauvegarde du serveur Virtual I/O Server sur un système de fichiers distant via une image mksysb . . Sauvegarde des unités virtuelles définies par l’utilisateur . . . . . . . . . . . . . . . . . Planification des sauvegardes de Virtual I/O Server . . . . . . . . . . . . . . . . . . Sauvegarde du serveur Virtual I/O Server à l’aide du gestionnaire Tivoli Storage Manager . . . . . Sauvegarde du serveur Virtual I/O Server à l’aide de la fonction automatisée du gestionnaire Tivoli Storage Manager . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sauvegarde du serveur Virtual I/O Server à l’aide de la sauvegarde incrémentielle du gestionnaire Tivoli Storage Manager . . . . . . . . . . . . . . . . . . . . . . . . . . . Restauration de Virtual I/O Server . . . . . . . . . . . . . . . . . . . . . . . . . Restauration de Virtual I/O Server à partir d’une bande magnétique . . . . . . . . . . . . . Restauration de Virtual I/O Server à partir d’un ou plusieurs DVD . . . . . . . . . . . . . Restauration de Virtual I/O Server à partir d’un fichier nim_resources.tar via la console HMC . . . . Restauration de Virtual I/O Server via un serveur NIM à partir d’un fichier mksysb . . . . . . . Restauration des unités virtuelles définies par l’utilisateur . . . . . . . . . . . . . . . . Restauration de Virtual I/O Server avec Tivoli Storage Manager . . . . . . . . . . . . . . Installation ou remplacement d’une carte PCI sur le serveur Virtual I/O Server lorsque le système est sous tension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Guide d’initiation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation d’une carte PCI. . . . . . . . . . . . . . . . . . . . . . . . . . . Remplacement d’une carte PCI . . . . . . . . . . . . . . . . . . . . . . . . . Annulation de la configuration d’une carte de mémoire . . . . . . . . . . . . . . . . . Préparation des partitions logiques client . . . . . . . . . . . . . . . . . . . . . . Arrêt des partitions logiques . . . . . . . . . . . . . . . . . . . . . . . . . . Affichage des informations et des statistiques sur le serveur Virtual I/O Server, sur le serveur et sur les ressources virtuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Surveillance de Virtual I/O Server . . . . . . . . . . . . . . . . . . . . . . . . . . Sécurité sur le serveur Virtual I/O Server . . . . . . . . . . . . . . . . . . . . . . . . Connexion au serveur Virtual I/O Server à l’aide d’OpenSSH . . . . . . . . . . . . . . . . Configuration du renforcement de la sécurité du système de Virtual I/O Server . . . . . . . . . . Définition d’un niveau de sécurité . . . . . . . . . . . . . . . . . . . . . . . . Modification des paramètres dans un niveau de sécurité . . . . . . . . . . . . . . . . . Affichage des paramètres de sécurité en cours . . . . . . . . . . . . . . . . . . . . Suppression des paramètres de niveau de sécurité . . . . . . . . . . . . . . . . . . . Configuration des paramètres du pare-feu du serveur Virtual I/O Server . . . . . . . . . . . . Configuration d’un client Kerberos sur le serveur Virtual I/O Server . . . . . . . . . . . . . . Gestion des utilisateurs sur le serveur Virtual I/O Server. . . . . . . . . . . . . . . . . . Identification et résolution des incidents liés au serveur Virtual I/O Server. . . . . . . . . . . . . Identification et résolution des incidents liés à la partition logique Virtual I/O Server . . . . . . . . Identification et résolution des problèmes liés à l’interface SCSI virtuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 120 121 121 121 121 122 123 125 126 127 128 128 128 129 129 130 131 132 132 . . . . . 133 134 135 136 137 . 137 . . . . . . . . 138 138 139 140 140 141 142 143 . . . . . . . 144 144 145 145 146 147 148 . . . . . . . . . . . . . . . 148 149 150 151 154 154 154 154 155 155 155 156 157 157 158 Table des matières v Résolution de l’échec de configuration d’une carte Ethernet partagée . . . . . . Résolution des incidents de connectivité Ethernet . . . . . . . . . . . . Activation des shells non interactifs sur Virtual I/O Server, version 1.3 ou supérieure Récupération lorsque les disques sont introuvables . . . . . . . . . . . . . Identification et résolution des incidents relatifs aux partitions logiques client AIX . . Informations de référence pour Virtual I/O Server . . . . . . . . . . . . . . Description des commandes du serveur Virtual I/O Server et du gestionnaire Integrated Manager . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration des attributs des agents et des clients Tivoli . . . . . . . . . . Statistiques sur le protocole GVRP . . . . . . . . . . . . . . . . . . Attributs du réseau . . . . . . . . . . . . . . . . . . . . . . . Statistiques sur la reprise par transfert d’une carte Ethernet partagée . . . . . . . Statistiques relatives à une carte Ethernet partagée . . . . . . . . . . . . . Types d’utilisateur pour le serveur Virtual I/O Server . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Virtualization . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 159 160 161 162 164 . . . . . . . . . . . . . . . . . . . . . 164 164 167 173 183 191 197 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 Documentation sur l’interface de programmation . Marques . . . . . . . . . . . . . . . Dispositions . . . . . . . . . . . . . . vi Virtual I/O Server . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 . 201 . 201 Avis aux lecteurs canadiens Le présent document a été traduit en France. Voici les principales différences et particularités dont vous devez tenir compte. Illustrations Les illustrations sont fournies à titre d’exemple. Certaines peuvent contenir des données propres à la France. Terminologie La terminologie des titres IBM peut différer d’un pays à l’autre. Reportez-vous au tableau ci-dessous, au besoin. IBM France IBM Canada ingénieur commercial représentant agence commerciale succursale ingénieur technico-commercial informaticien inspecteur technicien du matériel Claviers Les lettres sont disposées différemment : le clavier français est de type AZERTY, et le clavier français-canadien, de type QWERTY. OS/2 - Paramètres canadiens Au Canada, on utilise : v les pages de codes 850 (multilingue) et 863 (français-canadien), v le code pays 002, v le code clavier CF. Nomenclature Les touches présentées dans le tableau d’équivalence suivant sont libellées différemment selon qu’il s’agit du clavier de la France, du clavier du Canada ou du clavier des États-Unis. Reportez-vous à ce tableau pour faire correspondre les touches françaises figurant dans le présent document aux touches de votre clavier. vii Recommandations à l’utilisateur Ce matériel utilise et peut émettre de l’énergie radiofréquence. Il risque de parasiter les communications radio et télévision s’il n’est pas installé et utilisé conformément aux instructions du constructeur (instructions d’utilisation, manuels de référence et manuels d’entretien). Si cet équipement provoque des interférences dans les communications radio ou télévision, mettez-le hors tension puis sous tension pour vous en assurer. Il est possible de corriger cet état de fait par une ou plusieurs des mesures suivantes : v Réorienter l’antenne réceptrice ; v Déplacer l’équipement par rapport au récepteur ; v Éloigner l’équipement du récepteur ; v Brancher l’équipement sur une prise différente de celle du récepteur pour que ces unités fonctionnent sur des circuits distincts ; v S’assurer que les vis de fixation des cartes et des connecteurs ainsi que les fils de masse sont bien serrés ; v Vérifier la mise en place des obturateurs sur les connecteurs libres. Si vous utilisez des périphériques non IBM avec cet équipement, nous vous recommandons d’utiliser des câbles blindés mis à la terre, à travers des filtres si nécessaire. En cas de besoin, adressez-vous à votre détaillant. Le fabricant n’est pas responsable des interférences radio ou télévision qui pourraient se produire si des modifications non autorisées ont été effectuées sur l’équipement. viii Virtual I/O Server L’obligation de corriger de telles interférences incombe à l’utilisateur. Au besoin, l’utilisateur devrait consulter le détaillant ou un technicien qualifié pour obtenir de plus amples renseignements. Brevets Il est possible qu’IBM détienne des brevets ou qu’elle ait déposé des demandes de brevets portant sur certains sujets abordés dans ce document. Le fait qu’IBM vous fournisse le présent document ne signifie pas qu’elle vous accorde un permis d’utilisation de ces brevets. Vous pouvez envoyer, par écrit, vos demandes de renseignements relatives aux permis d’utilisation au directeur général des relations commerciales d’IBM, 3600 Steeles Avenue East, Markham, Ontario, L3R 9Z7. Assistance téléphonique Si vous avez besoin d’assistance ou si vous voulez commander du matériel, des logiciels et des publications IBM, contactez IBM direct au 1 800 465-1234. Avis aux lecteurs canadiens ix x Virtual I/O Server Virtual I/O Server Gérez Virtual I/O Server et les partitions logiques client à l’aide de la console HMC et de l’interface de ligne de commande du serveur Virtual I/O Server. La fonction PowerVM Editions inclut le support d’installation du logiciel Virtual I/O Server. Virtual I/O Server simplifie le partage des ressources d’E-S physiques entre les partitions logiques client au sein du serveur. Si vous installez Virtual I/O Server sur une partition logique d’un système géré via la console HMC, vous pouvez utiliser la console HMC et l’interface de ligne de commande Virtual I/O Server pour gérer le serveur Virtual I/O Server et les partitions logiques client. Si vous installez Virtual I/O Server sur un système géré sans connexion à une console HMC, lorsque vous installez Virtual I/O Server la partition logique Virtual I/O Server devient la partition de gestion. Celle-ci inclut l’interface Web de gestion de système Integrated Virtualization Manager et une interface de ligne de commande que vous pouvez utiliser pour gérer le système. Information associée PowerVM Information Roadmap Integrated Virtualization Manager Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes Virtual I/O Server - Nouveautés Prenez connaissance des nouveautés et modifications significatives de la rubrique Virtual I/O Server depuis la dernière mise à jour de cette collection. Mai 2009 La documentation a fait l’objet des mises à jour suivantes : v Vous pouvez utiliser l’interface graphique de la console HMC version 7 édition 3.4.2 ou ultérieure pour effectuer diverses tâches relatives à la mémoire virtuelle et au réseau pour un serveur Virtual I/O Server. Dans les versions précédentes, vous deviez effectuer ces tâches dans l’interface de ligne de commande de Virtual I/O Server. Les tâches suivantes ont été mises à jour et contiennent désormais des liens aux instructions concernant l’interface graphique de la console HMC, lorsque approprié. – – – – – – – Création d’une unité cible virtuelle sur un serveur Virtual I/O Server Création de pools de stockage de volumes logiques sur un serveur Virtual I/O Server Création de pools de stockage de fichiers sur un serveur Virtual I/O Server Création du référentiel de supports virtuels sur un serveur Virtual I/O Server Création de volumes logiques et de groupes de volumes sur un serveur Virtual I/O Server Configuration d’une carte Ethernet partagée Affectation de la carte Fibre Channel virtuelle à une carte Fibre Channel physique – Augmentation de la capacité de l’unité v La mémoire du pool de mémoire partagée peut être partagée entre plusieurs partitions logiques via la technologie PowerVM Active Memory Sharing (ou mémoire partagée). Une partition logique Virtual I/O Server (VIOS) qui est affectée au pool de mémoire partagée (appelée ici partition VIOS de pagination) permet d’accéder aux unités d’espace de pagination des partitions logiques qui sont affectées au pool de mémoire partagée. Les informations suivantes concernant la mémoire partagée sont nouvelles : 1 – Mémoire partagée – Partition VIOS de pagination – Configuration requise pour la partition VIOS de pagination Pour plus d’informations sur les nouveautés concernant la mémoire partagée, voir Partitions logiques Nouveautés. Novembre 2008 v La technologie de virtualisation NPIV (N_Port ID Virtualization) et les cartes Fibre Channel virtuelles permettent de configurer le système géré de sorte que plusieurs partitions logiques puissent accéder à la mémoire physique indépendante par l’intermédiaire de la même carte Fibre Channel physique. Les informations suivantes concernant les cartes Fibre Channel virtuelles sont nouvelles : – Connexion optique virtuelle – Configuration d’une carte Fibre Channel virtuelle – «Affectation de la carte Fibre Channel virtuelle à une carte Fibre Channel physique», à la page 111 – Gestion de carte virtuelle Fiber Channel à l’aide du gestionnaire Integrated Virtualization Manager – Configuration de la redondance à l’aide de cartes Fibre Channel virtuelles Présentation du serveur Virtual I/O Server Découvrez les concepts de Virtual I/O Server et ses composants principaux. Le logiciel Virtual I/O Server se trouve sur une partition logique. Ce logiciel facilite le partage des ressources d’E-S physiques entre des partitions logiques client au sein du serveur. Virtual I/O Server met à disposition une cible SCSI, une connexion optique virtuelle, une carte Ethernet partagée et la fonction PowerVM Active Memory Sharing pour les partitions logiques client du système. Ainsi, les partitions logiques client peuvent partager des unités SCSI, des cartes Fibre Channel et des cartes Ethernet et augmenter la quantité de mémoire dont les partitions logiques peuvent disposer avec des unités d’espace de pagination. Le logiciel Virtual I/O Server requiert que la partition logique soit dédiée uniquement à son utilisation. Virtual I/O Server fait partie du dispositif matériel PowerVM Editions. L’utilisation de Virtual I/O Server facilite les opérations suivantes : v Partage des ressources physiques entre les partitions logiques du système v Création de partitions logiques sans utiliser des ressources d’E-S physiques supplémentaires v Création d’un nombre plus élevé de partitions logiques que d’emplacements d’E-S ou d’unités physiques avec la possibilité pour les partitions logiques de disposer d’E-S dédiées et/ou d’E-S virtuelles v Optimisation de l’utilisation des ressources physiques du système v Réduction de l’infrastructure de réseau de systèmes (SAN) Information associée Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes Prise en charge de système d’exploitation pour les partitions logiques client VIOS Virtual I/O Server prend en charge les partitions logiques client qui exécutent les systèmes d’exploitation suivants sur les serveurs équipés du processeur POWER6 ci-après. 2 Virtual I/O Server Tableau 1. Prise en charge de système d’exploitation pour les partitions logiques client du serveur Virtual I/O Server Système d’exploitation Serveurs à base de processeurs POWER6 AIX 5.3 ou version ultérieure Tous les serveurs équipés du processeur POWER6 ® SUSE Linux Enterprise Server 10 Service Pack 2 ou supérieur v 19F/HA SUSE Linux Enterprise Server 10 Service Pack 1 v 03E/4A v 25F/2A v 04E/8A v 17M/MA Red Hat Enterprise Linux version 5.2 v 19F/HA v 25F/2A Red Hat Enterprise Linux version 5.1 v 03E/4A v 04E/8A v 17M/MA Red Hat Enterprise Linux version 4.7 19F/HA Red Hat Enterprise Linux version 4.6 25F/2A Red Hat Enterprise Linux version 4.5 v 03E/4A v 04E/8A v 17M/MA Composants de Virtual I/O Server Cette rubrique présente brièvement les cartes SCSI virtuelles, le réseau virtuel et Integrated Virtualization Manager. Les principaux composants de Virtual I/O Server sont les suivants : v Cartes SCSI virtuelles v Réseaux virtuels v Integrated Virtualization Manager Les sections suivantes présentent brièvement chaque composant. Cartes SCSI virtuelles Les cartes physiques, et les unités de disque ou les unités optiques connectées à la partition logique Virtual I/O Server peuvent être partagées par une ou plusieurs partitions logiques client. Virtual I/O Server constitue un sous-système de stockage local qui fournit des numéros d’unité logique (LUN) compatibles avec SCSI. Virtual I/O Server peut exporter un pool de mémoire physique hétérogène en tant que pool homogène de mémoire de bloc sous la forme de disques SCSI. Contrairement aux sous-systèmes de stockage classiques qui se trouvent physiquement sur le réseau de systèmes (SAN), les unités SCSI exportées par le serveur Virtual I/O Server sont limitées au domaine du serveur. Bien que les numéros d’unité logique (LUN) SCSI soient compatibles avec SCSI, ils risquent de ne pas répondre aux besoins de toutes les applications, notamment celles qui se trouvent dans un environnement réparti. Les types d’unité de périphérique SCSI sont pris en charge : v Disque sauvegardé par un volume logique v Disque sauvegardé par un volume physique Virtual I/O Server 3 v v v v Disque sauvegardé par un fichier Unités optiques (DVD-RAM et DVD-ROM) Unités optiques sauvegardées par des fichiers Unités de bande Réseaux virtuels Virtual I/O Server fournit les technologies de réseaux virtuels qui suivent. Tableau 2. Technologies de réseaux virtuels sur le serveur Virtual I/O Server Technologies de réseaux virtuels Description Carte Ethernet partagée Une carte Ethernet partagée est une passerelle Ethernet de couche 2 qui connecte entre eux les réseaux physiques. Elle permet aux partitions logiques du réseau local virtuel (VLAN) de partager l’accès à une carte Ethernet physique et de communiquer avec des systèmes situés hors du serveur. Avec une carte Ethernet partagée, les partitions logiques du réseau local virtuel (VLAN) interne peuvent partager le réseau VLAN avec des serveurs autonomes. Sur les systèmes reposant sur un processeur POWER6, vous pouvez affecter un port Ethernet hôte logique d’une carte Ethernet hôte logique, parfois appelée carte Ethernet virtuelle intégrée, en tant que carte réelle d’une carte Ethernet partagée. Une carte Ethernet hôte est une carte Ethernet physique directement intégrée au bus GX+ sur un système géré. Les cartes de réseau Ethernet hôtes offrent un débit élevé, une faible latence et le support de la virtualisation pour les connexions Ethernet. La carte Ethernet partagée de Virtual I/O Server prend en charge IPv6. IPv6 est le protocole IP de future génération et remplace graduellement la norme Internet actuelle, Internet Protocol version 4 (IPv4). La principale amélioration d’IPv6 est l’extension de l’espace adresse IP de 32 à 128 bits, offrant un nombre d’adresses IP uniques pratiquement illimité. Reprise par transfert de carte Ethernet partagée La fonction de reprise par transfert de carte Ethernet partagée assure la redondance, car elle permet de configurer une carte Ethernet partagée de secours sur une autre partition logique Virtual I/O Server, laquelle peut être utilisée en cas de défaillance de la carte Ethernet partagée principale. La connectivité réseau des partitions logiques client est maintenue, sans interruption. agrégation de liaisons (ou EtherChannel) Une unité d’agrégation de liaisons (ou EtherChannel) est une technologie de regroupement de ports réseau permettant de regrouper plusieurs cartes Ethernet. Les cartes constituent alors une unité Ethernet unique. agrégation de liaisons offre un meilleur débit via une seule adresse IP que ne le permettrait une seule carte Ethernet. Réseaux locaux virtuels (VLAN) Les réseaux locaux virtuels (VLAN) permettent de segmenter le réseau physique de manière logique. 4 Virtual I/O Server Integrated Virtualization Manager Le gestionnaire Integrated Virtualization Manager est doté d’une interface Web et d’une interface de ligne de commande qui permettent de gérer certains serveurs qui utilisent le serveur Virtual I/O Server. Sur le système géré, vous pouvez créer des partitions logiques, gérer les opérations de stockage virtuel et les cartes de réseau Ethernet virtuelles, et afficher des informations relatives au serveur. Integrated Virtualization Manager est fourni avec le serveur Virtual I/O Server, mais il est activé et utilisable uniquement sur certaines plateformes, et ce lorsqu’aucune console HMC (Hardware Management Console) n’est présente. Connexion optique virtuelle Grâce à NPIV (N_Port ID Virtualization), vous pouvez configurer le système géré de sorte que plusieurs partitions logiques puissent accéder à la mémoire physique indépendante par l’intermédiaire de la même carte Fibre Channel physique. Pour accéder à la mémoire physique d’un réseau de systèmes (SAN) typique utilisant le canal optique, la mémoire physique est mappée aux unités logiques (LUN), lesquelles étant mappées aux ports des cartes Fibre Channel physiques. Chacun de ces ports est identifié par un nom de port universel (WWPN). NPIV est une technologie standard destinée aux réseaux à canal optique, permettant de connecter plusieurs partitions logiques à un port physique de la carte Fibre Channel physique. Chaque partition logique est identifiée par un WWPN unique, ce qui signifie que vous avez la possibilité de connecter chaque partition logique à la mémoire physique indépendante d’un réseau SAN. Pour activer NPIV sur le système géré, vous devez créer une partition logique Virtual I/O Server (version 2.1 ou ultérieure) offrant les ressources virtuelles aux partitions logiques clients. Vous attribuez les cartes Fibre Channel physiques (prenant en charge NPIV) à la partition logique Virtual I/O Server. Ensuite, vous connectez les cartes Fibre Channel virtuelles des partitions logiques clients à celles de la partition logique Virtual I/O Server. Une carte Fibre Channel virtuelle est une carte virtuelle dotant les partitions logiques clients d’une connexion Fibre Channel au réseau de systèmes, par l’intermédiaire de la partition logique Virtual I/O Server. La partition logique Virtual I/O Server assure la connexion entre les cartes Fibre Channel virtuelles de la partition logique Virtual I/O Server et les cartes Fibre Channel physiques du système géré. La figure ci-dessous illustre un système géré configuré pour utiliser NPIV. Virtual I/O Server 5 La figure illustre les connexions suivantes : v Un réseau de systèmes (SAN) connecte trois unités de mémoire physique à une carte Fibre Channel physique du système géré. Cette carte est attribuée au Virtual I/O Server et prend en charge NPIV. v La carte Fibre Channel physique se connecte à trois cartes Fibre Channel virtuelles Virtual I/O Server. Les cartes virtuelles Virtual I/O Server se connectent au même port physique de la carte Fibre Channel physique. v Chaque carte Fibre Channel virtuelle du serveur Virtual I/O Server se connecte à une carte Fibre Channel virtuelle de la partition logique client. Chaque carte Fibre Channel virtuelle de chaque partition logique client reçoit une paire de WWPN uniques. La partition logique client utilise un WWPN pour se connecter à tout moment au réseau SAN. L’autre WWPN est utilisé pour déplacer la partition logique client vers un autre système géré. Grâce à leurs WWPN uniques et aux connexions Fibre Channel virtuelles à la carte Fibre Channel physique, les systèmes d’exploitation équipant les partitions logiques clients peuvent reconnaître, instancier et gérer leur mémoire physique se trouvant sur le réseau SAN. Dans la figure précédente, les partitions logiques clients 1, 2 et 3 accèdent respectivement aux mémoires physiques 1, 2 et 3. Virtual I/O Server ne pouvant pas y accéder, il n’émule pas la mémoire physique à laquelle les partitions logiques clients ont accès. Virtual I/O Server fournit aux partitions logiques client une connexion aux cartes Fibre Channel physiques du système géré. Les cartes Fibre Channel virtuelles des partitions logiques clients et celles de la partition logique Virtual I/O Server entretiennent toujours une relation univoque. En d’autres termes, chaque carte Fibre Channel virtuelle d’une partition logique client doit se connecter à une seule carte Fibre Channel virtuelle de la partition logique Virtual I/O Server, et inversement. Grâce aux outils SAN, vous pouvez diviser en zones et masquer les unités logiques contenant des WWPN attribués à des cartes Fibre Channel virtuelles sur des partitions logiques clients. Le réseau SAN 6 Virtual I/O Server utilise les WWPN attribués aux cartes Fibre Channel virtuelles de la partition logique client de la même manière que les WWPN attribués aux ports physiques. Vous pouvez configurer des cartes Fibre Channel virtuelles sur des partitions logiques clients dotées des systèmes d’exploitation suivants : v AIX version 6.1 avec niveau technologique 2 ou ultérieur v AIX 5.3 avec niveau technologique 9 v SUSE Linux Enterprise Server 11 ou supérieur Concepts associés «Configuration de la redondance à l’aide de cartes Fibre Channel virtuelles», à la page 73 Les configurations de la redondance permettent de protéger votre réseau contre les défaillances de carte physique et les défaillances de Virtual I/O Server. Connexion optique virtuelle pour les systèmes gérés par la console HMC Sur les systèmes gérés par la console HMC (Hardware Management Console), vous pouvez déplacer de manière dynamique des cartes Fibre Channel virtuelles à partir de la partition logique Virtual I/O Server et de chaque partition logique client. Vous pouvez également afficher les informations relatives aux cartes Fibre Channel virtuelles et physiques et aux noms de port universels (WWPN) à l’aide des commandes du serveur Virtual I/O Server. Pour activer NPIV (N_Port ID Virtualization) sur le système géré, il suffit de créer les cartes Fibre Channel virtuelles et les connexions requises comme suit : v Vous pouvez utiliser la console HMC pour créer des cartes Fibre Channel virtuelles sur la partition logique Virtual I/O Server et les associer à celles des partitions logiques clients. v Vous pouvez utiliser la console HMC pour créer des cartes Fibre Channel virtuelles sur chaque partition logique client et les associer à celles de la partition logique Virtual I/O Server. Lorsque vous créez une carte Fibre Channel virtuelle sur une partition logique client, la console HMC génère une paire de WWPN uniques pour la carte Fibre Channel virtuelle client. v Vous connectez les cartes Fibre Channel virtuelles du serveur Virtual I/O Server aux ports physiques de la carte Fibre Channel physique en exécutant la commande vfcmap sur le serveur Virtual I/O Server. La console HMC génère des WWPN en fonction de la plage de noms disponibles à utiliser avec le préfixe dans les données techniques essentielles du système géré. Le préfixe à 6 chiffres est donné lors de l’achat du système géré et comporte 32 000 paires de WWPN. Lorsque vous supprimez une carte Fibre Channel virtuelle d’une partition logique client, l’hyperviseur supprime ses WWPN. La console HMC ne réutilise pas les WWPN supprimés lors de la génération de WWPN pour les cartes Fibre Channel virtuelles suivantes. Si vous ne disposez pas de WWPN, vous devez vous procurer un code d’activation contenant un autre préfixe avec 32 000 autres paires de WWPN. Pour éviter que la carte Fibre Channel physique ne soit un point unique de défaillance pour la connexion entre la partition logique client et sa mémoire physique sur le réseau SAN, ne connectez pas deux cartes Fibre Channel virtuelles entre la même partition logique client et la même carte Fibre Channel physique. Préférez plutôt connecter chaque carte Fibre Channel virtuelle à une carte Fibre Channel physique différente. Vous pouvez déplacer de manière dynamique des cartes Fibre Channel virtuelles de la partition logique Virtual I/O Server et des partitions logiques clients. Virtual I/O Server 7 Tableau 3. Tâches de partitionnement logique dynamique et résultats pour les cartes Fibre Channel Depuis ou vers une partition Ajout ou suppression dynamique de logique client ou une partition la carte Fibre Channel virtuelle logique Virtual I/O Server Résultat Ajout d’une carte Fibre Channel virtuelle A une partition logique client La console HMC génère une paire de WWPN uniques pour la carte Fibre Channel virtuelle. Ajout d’une carte Fibre Channel virtuelle A une partition logique Virtual I/O Server Vous devez connecter la carte Fibre Channel virtuelle au port physique d’une carte Fibre Channel physique. Retrait d’une carte Fibre Channel virtuelle D’une partition logique client v L’hyperviseur supprime les WWPN et ne les réutilise pas. v Vous devez retirer la carte Fibre Channel virtuelle associée du serveur Virtual I/O Server ou l’associer à une autre carte Fibre Channel virtuelle d’une partition logique client. Retrait d’une carte Fibre Channel virtuelle D’une partition logique Virtual I/O Server v Virtual I/O Server supprime la connexion au port physique de la carte Fibre Channel physique. v Vous devez retirer la carte Fibre Channel virtuelle associée de la partition logique client ou l’associer à une autre carte Fibre Channel virtuelle de la partition logique Virtual I/O Server. Le tableau ci-dessous répertorie les commandes du serveur Virtual I/O Server permettant d’afficher les informations relatives aux cartes Fibre Channel. Tableau 4. Commandes du serveur Virtual I/O Server permettant d’afficher les informations relatives aux cartes Fibre Channel Commande Virtual I/O Server Informations affichées par la commande lsmap v Affiche les cartes Fibre Channel virtuelles du serveur Virtual I/O Server connectées à la carte Fibre Channel physique v Affiche les attributs des cartes Fibre Channel virtuelles des partitions logiques clients associées aux cartes Fibre Channel virtuelles du serveur Virtual I/O Server connectées à la carte Fibre Channel physique lsnports Affiche les informations relatives aux ports physiques des cartes Fibre Channel physiques prenant en charge NPIV, notamment : v Le nom et le code d’emplacement du port physique v Le nombre de ports physiques disponibles v Le nombre total de WWPN que peut prendre en charge le port physique v Si les commutateurs auxquels les cartes Fibre Channel physiques sont connectées prennent en charge NPIV 8 Virtual I/O Server Vous pouvez également exécuter la commande lshwres sur la console HMC pour afficher le nombre restant de WWPN et le préfixe utilisé pour les générer. Connexion optique virtuelle pour les systèmes gérés par IVM Sur les systèmes gérés par le gestionnaire IVM (Integrated Virtualization Manager), vous pouvez ajouter dynamiquement aux partitions logiques des noms de port universel (WWPN) et les en retirer, et vous pouvez changer de façon dynamique les ports physiques auxquels ces noms WWPN sont affectés. Vous pouvez également afficher les informations concernant les cartes Fibre Channel virtuelles et physiques à l’aide des commandes lsmap et lsnports. Pour activer NPIV (N_Port ID Virtualization) sur le système géré, il suffit de créer une paire de noms WWPN pour une partition logique et d’affecter directement la paire aux ports physiques des cartes Fibre Channel physiques. Vous pouvez affecter plusieurs partitions logiques à un même port physique en affectant une paire de noms WWPN à chaque partition logique du même port physique. Lorsque vous attribuez une paire de noms WWPN à une partition logique, le gestionnaire IVM crée automatiquement les connexions suivantes : v Le gestionnaire IVM crée une carte Fibre Channel virtuelle sur la partition de gestion et l’associe à celle de la partition logique. v Le gestionnaire IVM génère une paire de noms WWPN uniques et crée une carte Fibre Channel virtuelle sur la partition logique client. Il affecte les WWPN à la carte Fibre Channel virtuelle de la partition logique client, puis associe celle-ci à la carte Fibre Channel virtuelle de la partition de gestion. Lorsque vous affectez des noms WWPN d’une partition logique à un port physique, le gestionnaire IVM connecte la carte Fibre Channel virtuelle de la partition de gestion au port physique de la carte Fibre Channel physique. Le gestionnaire IVM génère des WWPN en fonction de la plage de noms disponibles à utiliser avec le préfixe dans les données techniques essentielles du système géré. Le préfixe à 6 chiffres est donné lors de l’achat du système géré et comporte 32 768 paires de WWPN. Lorsque vous supprimez la connexion entre une partition logique et un port physique, l’hyperviseur supprime les WWPN attribués à la carte Fibre Channel virtuelle de la partition logique. Le gestionnaire IVM ne réutilise pas les WWPN supprimés lors de la génération de WWPN pour les cartes Fibre Channel virtuelles suivantes. Si vous ne disposez pas de WWPN, vous devez vous procurer un code d’activation contenant un autre préfixe avec 32 768 paires de WWPN. Pour éviter que la carte Fibre Channel physique ne soit un point unique de défaillance pour la connexion entre la partition logique et sa mémoire physique sur le réseau SAN, n’attribuez pas deux fois une partition logique à une carte Fibre Channel physique. Par exemple, n’affectez pas une paire WWPN d’une partition logique au port physique d’une carte Fibre Channel physique pour ensuite affecter une autre paire WWPN de la même partition logique à un autre port physique de la même carte Fibre Channel physique. Préférez plutôt affecter les paires WWPN de chaque partition logique à une carte Fibre Channel physique différente. Pour pouvez ajouter des paires WWPN d’une nouvelle partition logique sans les affecter à un port physique. La possibilité de générer des noms WWPN indépendamment de l’affectation à un port physique pour une partition logique permet de communiquer ces noms à l’administrateur de réseau de systèmes (SAN). Celui-ci peut ainsi configurer la connexion au réseau de systèmes de façon appropriée pour que la partition logique puisse se connecter au réseau SAN quel que soit le port physique utilisé par la partition pour la connexion. Vous pouvez ajouter dynamiquement une paire WWPN à une partition logique ou l’en retirer. Vous pouvez également changer de façon dynamique le port physique affecté à une paire WWPN. Virtual I/O Server 9 Tableau 5. Tâches de partitionnement logique dynamique et résultats Action Résultat Ajout dynamique d’une paire WWPN à une partition logique v Le gestionnaire IVM crée une carte Fibre Channel virtuelle sur la partition de gestion et l’associe à celle de la partition logique. v Le gestionnaire IVM génère une paire de noms WWPN uniques et crée une carte Fibre Channel virtuelle sur la partition logique. Il attribue les WWPN à la carte Fibre Channel virtuelle de la partition logique, puis l’associe à la carte Fibre Channel virtuelle de la partition de gestion. Affectation dynamique d’une paire WWPN à un port physique Le gestionnaire IVM connecte la carte Fibre Channel virtuelle de la partition de gestion au port physique de la carte Fibre Channel physique. Retrait dynamique d’une paire WWPN d’une partition logique v Le gestionnaire IVM supprime la connexion entre la carte Fibre Channel virtuelle de la partition de gestion et le port physique de la carte Fibre Channel physique. v Le gestionnaire IVM supprime la carte Fibre Channel virtuelle de la partition de gestion. v Le gestionnaire IVM supprime la carte Fibre Channel virtuelle de la partition logique. Le gestionnaire IVM supprime les WWPN et ne les réutilise pas. Changement dynamique de l’affectation de port physique d’une paire WWPN Le gestionnaire IVM remplace la connexion de la carte Fibre Channel virtuelle sur la partition de gestion par celle au port physique nouvellement affecté. Lorsque vous changez le port physique par une valeur nulle, le gestionnaire IVM conserve la carte Fibre Channel virtuelle sur la partition de gestion mais supprime la connexion au port physique sur la carte Fibre Channel physique. Si vous réaffectez ultérieurement un port physique à la paire WWPN, le gestionnaire IVM réutilise la carte Fibre Channel virtuelle d’origine sur la partition de gestion pour le port physique nouvellement affecté. Le tableau ci-dessous répertorie les commandes du serveur Virtual I/O Server permettant d’afficher les informations relatives aux cartes Fibre Channel. Tableau 6. Commandes du serveur Virtual I/O Server permettant d’afficher les informations relatives aux cartes Fibre Channel Commande Virtual I/O Server Informations affichées par la commande lsmap v Affiche les cartes Fibre Channel virtuelles du serveur Virtual I/O Server connectées à la carte Fibre Channel physique v Affiche les attributs des cartes Fibre Channel virtuelles des partitions logiques clients associées aux cartes Fibre Channel virtuelles du serveur Virtual I/O Server connectées à la carte Fibre Channel physique 10 Virtual I/O Server Tableau 6. Commandes du serveur Virtual I/O Server permettant d’afficher les informations relatives aux cartes Fibre Channel (suite) Commande Virtual I/O Server Informations affichées par la commande lsnports Affiche les informations relatives aux ports physiques des cartes Fibre Channel physiques prenant en charge NPIV, notamment : v Le nom et le code d’emplacement du port physique v Le nombre de ports physiques disponibles v Le nombre total de WWPN que peut prendre en charge le port physique v Si les commutateurs auxquels les cartes Fibre Channel physiques sont connectées prennent en charge NPIV Interface SCSI virtuelle L’interface SCSI virtuelle permet aux partitions logiques client de partager l’espace de stockage sur disque, les unités de bande et les unités optiques affectés à la partition logique Virtual I/O Server. Les disques, les unités de bande et les unités optiques associés aux cartes physiques dans la partition logique Virtual I/O Server peuvent être partagés par une ou plusieurs partitions logiques client. Le serveur Virtual I/O Server est un sous-système de stockage standard qui fournit des numéros d’unité logique (LUN) compatibles avec l’interface SCSI standard. Virtual I/O Server est capable d’exporter un pool de mémoire physique hétérogène en tant que pool homogène de mémoire de bloc sous forme de disques SCSI. Le serveur Virtual I/O Server est un sous-système de stockage localisé. Contrairement aux sous-systèmes de stockage classiques qui se trouvent physiquement sur le réseau de systèmes (SAN), les unités SCSI exportées par le serveur Virtual I/O Server sont limitées au domaine du serveur. Par conséquent, bien que les numéros d’unité logique (LUN) SCSI soient compatibles avec SCSI, ils risquent de ne pas répondre aux besoins de toutes les applications, notamment celles qui se trouvent dans un environnement réparti. Les types d’unité SCSI pris en charge sont les suivants : v Disque associé à un volume logique v v v v v Disque associé à un volume physique Disque associé à un fichier Optique (CD-ROM, DVD-RAM et DVD-ROM) DVD-RAM optique associé à un fichier Unités de bande L’interface SCSI virtuelle est basée sur une relation client/serveur. Virtual I/O Server contient les ressources physiques ainsi que la carte serveur SCSI virtuelle, et joue le rôle de serveur ou d’unité cible SCSI. Les partitions logiques client comportent un initiateur SCSI appelé carte client SCSI virtuelle qui accède aux cibles SCSI virtuelles en tant que numéros d’unité logique (LUN) SCSI standard. Vous configurez les cartes virtuelles à l’aide de la console HMC ou du gestionnaire Integrated Virtualization Manager. La configuration et la fourniture de ressources de disque virtuel sont effectuées par le biais de Virtual I/O Server. Les disques physiques appartenant au Virtual I/O Server peuvent être exportés et affectés ensemble à une partition logique client ou partitionnés en volumes logiques ou fichiers. Les volumes et fichiers logiques peuvent ensuite être affectés à différentes partitions logiques. Par conséquent, l’interface SCSI virtuelle permet de partager des cartes et des unités de disque. Pour mettre un volume physique, un volume logique ou un fichier à la disposition d’une partition client, il doit être affecté à une carte SCSI virtuelle du serveur Virtual I/O Server. La partition logique client accède aux disques qui lui sont alloués via la carte client SCSI virtuelle. La carte client SCSI virtuelle reconnaît les unités SCSI standard et les numéros d’unité logique (LUN) via la carte virtuelle. Virtual I/O Server 11 La figure suivante illustre une configuration SCSI virtuelle standard. Remarque : Pour que les partitions logiques client puissent accéder aux unités virtuelles, Virtual I/O Server doit être pleinement opérationnel. Présentation du sous-système de stockage Virtual I/O Server Cette rubrique décrit le sous-système de stockage Virtual I/O Server. Le sous-système de stockage Virtual I/O Server est un sous-système de stockage standard qui fournit des numéros d’unité logique (LUN) compatibles SCSI standard. Virtual I/O Server est un sous-système de stockage localisé. Contrairement aux sous-systèmes de stockage classiques qui se trouvent physiquement sur le réseau de systèmes (SAN), les unités SCSI exportées par le serveur Virtual I/O Server sont limitées au domaine du serveur. À l’instar des sous-systèmes de stockage sur disque classiques, le serveur Virtual I/O Server dispose d’une partie front-end et d’une partie back-end distinctes. La partie front-end est assurée par l’interface à laquelle les partitions logiques se connectent pour afficher les numéros d’unité logique (LUN) compatibles SCSI standard. Les unités présentes sur la partie front-end sont appelées unités SCSI virtuelles. La partie back-end est composée des ressources de mémoire physique. Ces ressources physiques incluent le stockage sur disque physique, les unités SAN et de stockage interne, les unités optiques, les unités de bande, les volumes logiques et les fichiers. Pour créer une unité virtuelle, vous devez allouer et attribuer une part de mémoire physique à une carte serveur SCSI virtuelle. Ce processus crée une instance d’unité virtuelle (vtscsiX ou vtoptX). L’instance d’unité peut être considérée comme une unité de mappage. Il ne s’agit pas d’une unité réelle, mais plutôt d’un mécanisme de gestion du mappage de la partie de stockage back-end physique avec l’unité SCSI virtuelle front-end. Cette unité de mappage permet de recréer de manière persistante les allocations physiques/virtuelles lors du redémarrage de Virtual I/O Server. 12 Virtual I/O Server Mémoire physique Cette rubrique fournit des informations sur la mémoire physique, sur les volumes logiques ainsi que sur les unités et configurations prises en charge par Virtual I/O Server. Volumes physiques : Les volumes physiques peuvent être exportés vers des partitions client en tant que disques SCSI virtuels. Virtual I/O Server est capable de récupérer un pool de stockage de disques physiques hétérogènes associé et de l’exporter en tant que pool de stockage homogène sous forme de numéros d’unité logique (LUN) de disque SCSI. Virtual I/O Server doit pouvoir identifier précisément un volume physique à chaque redémarrage, même si un événement, tel qu’une reconfiguration de réseau de systèmes (SAN) ou un changement de carte a eu lieu. Des attributs de volume physique, tels que le nom, l’adresse et l’emplacement, peuvent être modifiés après un redémarrage du système en raison d’une reconfiguration SAN. Toutefois, Virtual I/O Server doit être en mesure de détecter qu’il s’agit de la même unité et de mettre à jour les mappages d’unité virtuelle. De ce fait, pour qu’un volume physique puisse être exporté en tant qu’unité virtuelle, il doit être doté d’un identificateur unique (UDID), d’un identificateur physique (PVID) ou d’un attribut de volume IEEE. Pour plus d’informations sur la procédure permettant de déterminer si vos disques comportent l’un de ces identificateurs, voir «Identification des disques exportables», à la page 105. Pour gérer les volumes physiques, utilisez les commandes ci-après. Tableau 7. Commandes liées aux volumes physiques, accompagnées d’une description Commande liée aux volumes physiques Description lspv Affiche des informations sur un volume physique dans un groupe de volumes. Commande migratepv Déplacer les partitions physiques attribuées, d’un volume physique vers un ou plusieurs volumes physiques. Volumes logiques : Cette rubrique décrit le mode d’exportation des volumes logiques vers les partitions client en tant que disques SCSI virtuels. Un volume logique est une portion d’un volume physique. Une hiérarchie de structures est utilisée pour gérer l’espace de stockage sur disque. Chaque unité de disque ou numéro d’unité logique (LUN), appelé volume physique, porte un nom (/dev/hdisk0, par exemple). Chaque volume physique en cours d’utilisation appartient à un groupe de volumes ou est utilisé directement pour le stockage virtuel. Tous les volumes physiques d’un groupe de volumes sont divisés en partitions physiques de taille identique. Le nombre de partitions physiques de chaque zone varie en fonction de la capacité totale de l’unité de disque. Dans un groupe de volumes sont définis un ou plusieurs volumes logiques. Il s’agit de groupes d’informations situés sur des volumes physiques. Les données des volumes logiques apparaissent comme étant contiguës aux yeux de l’utilisateur mais peuvent ne pas l’être sur le volume physique. Cela permet de redimensionner ou déplacer les volumes logiques et de répliquer leur contenu. Chaque volume logique est composé d’une ou de plusieurs partitions logiques. Chaque partition logique correspond à une partition physique au moins. Bien que les partitions logiques soient numérotées de manière consécutive, les partitions physiques sous-jacentes ne sont pas nécessairement consécutives ou contiguës. Virtual I/O Server 13 Après l’installation, le système est doté d’un groupe de volumes (rootvg) composé d’un ensemble de volumes logiques de base nécessaire au démarrage du système. Vous pouvez utiliser les commandes décrites dans le tableau suivant pour gérer des volumes logiques. Tableau 8. Commandes liées aux volumes logiques, accompagnées d’une description Commande liée aux volumes logiques Description chlv Cette commande modifie les caractéristiques d’un volume logique. cplv Cette commande copie le contenu d’un volume logique sur un nouveau volume logique. extendlv Augmente la taille d’un volume logique. lslv Affiche les informations relatives à un volume logique. mklv Créer un volume logique. mklvcopy Crée une copie d’un volume logique. rmlv Supprime les volumes logiques d’un groupe de volumes. rmlvcopy Supprime une copie d’un volume logique. Le fait de créer un ou plusieurs groupes de volumes distincts plutôt que d’utiliser des volumes logiques créés dans le groupe de volumes rootvg permet d’installer de nouvelles versions de Virtual I/O Server, tout en conservant les données client grâce à l’exportation et à l’importation des groupes de volumes créés pour les E-S virtuelles. Remarques : v La taille des volumes logiques faisant office de disques virtuels doit être inférieure à 1 téraoctet (à savoir 1 099 511 627 776 octets). v Pour bénéficier de performances optimales, évitez d’utiliser des volumes logiques (sur le serveur Virtual I/O Server) car les disques virtuels sont copiés ou segmentés sur plusieurs volumes physiques. Groupes de volumes : Informations relatives aux groupes de volumes. Un groupe de volumes est un type de pool de stockage contenant un ou plusieurs volumes physiques de tailles et de types différents. Un volume physique peut appartenir à un seul groupe de volumes par système. Le serveur Virtual I/O Server peut comporter jusqu’à 4096 groupes de volumes actifs. Lorsqu’un volume physique est attribué à un groupe de volumes, les blocs physiques de support de stockage qu’il contient sont organisés en partitions physiques de taille déterminée par le système lors de la création du groupe de volumes. Pour plus d’informations, voir «Partitions physiques», à la page 15. Lorsque vous installez Virtual I/O Server, le groupe de volumes root, appelé rootvg, est automatiquement créé. Il contient l’ensemble de volumes logiques de base requis pour démarrer la partition logique du système. Le groupe de volumes rootvg contient un espace de pagination, le fichier journal, les données d’amorçage et la mémoire de cliché se trouvant tous sur un volume logique distinct. rootvg possède des attributs distincts des groupes de volumes définis par l’utilisateur. Par exemple, rootvg ne peut pas être importé ou exporté. Lorsque vous exécutez une commande ou une procédure sur le groupe de volumes rootvg, vous devez bien connaître ses caractéristiques spécifiques. Tableau 9. Commandes liées aux groupes de volumes fréquemment utilisés, accompagnées d’une description Commande Description activatevg Active un groupe de volumes 14 Virtual I/O Server Tableau 9. Commandes liées aux groupes de volumes fréquemment utilisés, accompagnées d’une description (suite) Commande Description chvg Modifie les attributs d’un groupe de volumes deactivatevg Désactive un groupe de volumes exportvg Exporte la définition d’un groupe de volumes extendvg Ajoute un volume physique à un groupe de volumes importvg Importe une nouvelle définition de groupe de volumes lsvg Affiche des informations sur un groupe de volumes mkvg Crée un groupe de volumes reducevg Supprime un volume physique d’un groupe de volumes syncvg Synchronise les copies de volume logique qui ne sont pas à jour Les petits systèmes peuvent ne nécessiter qu’un seul groupe de volumes pour contenir tous les volumes physiques (au-delà du groupe de volumes rootvg). Vous pouvez créer des groupes de volumes distincts afin de faciliter la maintenance étant donné que les groupes qui ne sont pas en cours de maintenance peuvent rester actifs. Comme le groupe de volumes rootvg doit toujours rester connecté, il contient uniquement le nombre minimal de volumes physiques nécessaires au fonctionnement du système. Il est recommandé de ne pas utiliser rootvg pour les données client. Vous pouvez déplacer des données d’un volume physique vers un autre appartenant au même groupe de volumes grâce à la commande migratepv. Cette commande permet de libérer un volume physique de sorte qu’il puisse être retiré du groupe de volumes. Par exemple, il est possible de déplacer les données d’un volume physique à remplacer. Partitions physiques : Cette rubrique fournit des informations relatives aux partitions physiques. Lorsque vous ajoutez un volume physique à un groupe de volumes, le volume physique est partitionné en unités d’espace contiguës et de taille égale appelées partitions physiques. Une partition physique représente la plus petite unité d’allocation d’espace de stockage et constitue un espace contigu sur un volume physique. Les volumes physiques héritent de la taille de la partition physique du groupe de volumes. Partitions logiques : Cette rubrique contient des informations relatives aux partitions de mémoire logique. Lorsque vous créez un volume logique, vous devez préciser sa taille en mégaoctets ou en gigaoctets. Le système attribue le nombre de partitions logiques nécessaires à la création d’un volume logique faisant au moins la taille définie. Une partition logique est composée d’une ou deux partitions physiques, selon que le volume logique est défini avec la fonction miroir activée ou non. Si la fonction miroir n’est pas activée, il n’existe qu’une seule copie du volume logique (valeur par défaut). Dans ce cas, il existe un mappage direct d’une partition logique en une partition physique. Chaque instance (y compris la première) est appelée copie. Quorums : Informations relatives aux quorums. Virtual I/O Server 15 On parle de quorum lorsque la majorité des zones de description de groupe de volumes (VGDA), des zones d’état de groupe de volumes (VGSA) et des disques correspondants sont actifs. Un quorum garantit l’intégrité des données des zones VGDA/VGSA en cas de défaillance de disque. Chaque disque physique d’un groupe de volumes détient au moins une zone VGDA/VGSA. Lorsqu’un groupe de volumes est créé sur un seul disque, il possède initialement deux zones VGDA/VGSA sur ce disque. Si un groupe de volumes est composé de deux disques, l’un d’eux est toujours doté de deux zones VGDA/VGSA, mais l’autre n’en détient qu’une seule. Si le groupe de volumes est composé de trois disques ou plus, une seule zone VGDA/VGSA est allouée à chaque disque. Un quorum est perdu lorsque 51 % des zones VGDA/VGSA n’existent plus et qu’il n’est dès lors plus possible d’accéder à suffisamment de disques et aux zones VGDA/VGSA correspondantes. Lorsqu’un quorum est perdu, le groupe de volumes est automatiquement désactivé de sorte que le gestionnaire de volume logique ne puisse plus accéder aux disques. Cela empêche l’envoi d’autres E-S de disque vers ce groupe de volumes. Ainsi, les données ne sont plus perdues ou présumées écrites lorsqu’un incident physique se produit. Suite à la désactivation, l’utilisateur est informé, grâce au journal des erreurs, qu’un incident matériel s’est produit et qu’il va falloir effectuer une opération de maintenance. Un groupe de volumes désactivé en raison de la perte de son quorum peut être réactivé à l’aide de la commande activatevg -f. Référentiel de supports virtuels : Le référentiel de supports virtuels constitue un conteneur unique dans lequel stocker et gérer des fichiers de support optique virtuel sauvegardés sur fichier. Les supports stockés dans le référentiel peuvent être chargés dans des unités optiques virtuelles sauvegardées sur fichier en vue de leur exportation vers des partitions clientes. Un seul référentiel peut être créé dans un Virtual I/O Server. Le référentiel de supports virtuels est disponible avec Virtual I/O Server version 1.5 ou ultérieure. Pour le créer et le gérer, les commandes suivantes sont utilisées. Tableau 10. Commandes liées au référentiel de supports virtuels avec leur description Commande Description chrep Permet de modifier les caractéristiques du référentiel de supports virtuels chvopt Permet de modifier les caractéristiques d’un support optique virtuel loadopt Permet de charger un support optique virtuel sauvegardé sur fichier dans une unité optique virtuelle sauvegardée sur fichier lsrep Permet d’afficher des informations sur le référentiel de supports virtuels lsvopt Permet d’afficher des informations sur les unités optiques virtuelles sauvegardées sur fichier mkrep Permet de créer le référentiel de supports virtuels mkvdev Permet de créer des unités optiques virtuelles sauvegardées sur fichier mkvopt Permet de créer des supports optiques virtuels sauvegardés sur fichier rmrep Permet de supprimer le référentiel de supports virtuels rmvopt Permet de supprimer des supports optiques virtuels sauvegardés sur fichier unloadopt Permet de décharger des supports optiques virtuels sauvegardés sur fichier d’une unité optique virtuelle sauvegardée sur fichier 16 Virtual I/O Server Pools de stockage : Cette section contient des informations sur les pools de stockage de volumes logiques et les pools de stockage de fichiers. Dans Virtual I/O Server version 1.5 et supérieure, vous pouvez créer les types de pool de stockage suivants : v Pools de stockage de volumes logiques (LVPOOL) v Pools de stockage de fichiers (FBPOOL) A l’instar des groupes de volumes, les pools de stockage de volumes logiques sont des ensembles composés d’un ou de plusieurs volumes physiques. La taille et le type des volumes physiques composant un pool de stockage de volumes logiques peuvent varier. Les pools de stockage de fichiers sont créés dans un pool de stockage de volumes logiques parent et contiennent un volume logique incluant un système de fichiers et des fichiers. Les pools de stockage de volumes logiques stockent des unités de sauvegarde de volume logique, des pools de stockage sauvegardés sur fichiers et le référentiel de supports virtuels. Les pools de stockage de fichiers stockent des unités de sauvegarde sur fichiers. L’utilisation de pools de stockage n’exige pas de connaissances approfondies en matière de gestion de groupes de volumes et de volumes logiques pour créer et affecter une mémoire logique à une partition logique client. Les unités créées à l’aide d’un pool de stockage ne sont pas limitées à la taille des volumes physiques. Pour créer et gérer des pools de stockage, utilisez les commandes ci-après. Tableau 11. Commandes liées aux pools de stockage, accompagnées d’une description Commande Description chsp Permet de modifier les caractéristiques d’un pool de stockage chbdsp Permet de modifier les caractéristiques d’une unité de sauvegarde au sein d’un pool de stockage. lssp Permet d’afficher des informations relatives à un pool de stockage mkbdsp Permet de définir une partie de l’espace de stockage d’un pool de stockage en tant qu’unité de sauvegarde d’une carte SCSI virtuelle. mksp Permet de créer un pool de stockage rmbdsp Permet de dissocier une unité de secours de sa carte SCSI virtuelle et de la supprimer du système rmsp Permet de supprimer un pool de stockage de fichiers Pour chaque partition logique Virtual I/O Server, un seul pool de stockage par défaut peut être modifié par l’administrateur principal. Si le pool de stockage par défaut n’est pas modifié par l’administrateur principal, le pool de volumes logiques rootvg est utilisé comme pool de stockage par défaut. Ne créez pas de mémoire client dans rootvg. Si vous créez un ou plusieurs pools de stockage de volumes logiques au lieu d’utiliser le volume rootvg, vous pourrez installer les nouvelles versions de Virtual I/O Server et conserver les données client en exportant et en important les groupes de volumes créés pour les E-S virtuelles. Sauf mention contraire, les commandes liées aux pools de stockage s’appliquent au pool de stockage par défaut. Cela peut être utile pour les systèmes dans lesquels l’intégralité ou la plupart des unités de sauvegarde se trouvent dans un pool de stockage unique. Virtual I/O Server 17 Remarque : Vous ne pouvez pas utiliser les pools de stockage lorsque vous affectez l’ensemble des volumes physiques en tant qu’unités de secours. Unités optiques : Les unités optiques peuvent être exportées par le serveur Virtual I/O Server. Cette rubrique fournit des informations sur les types d’unité optique pris en charge. Virtual I/O Server prend en charge l’exportation d’unités SCSI optiques. Ces dernières sont appelées unités optiques SCSI virtuelles. Les unités optiques virtuelles peuvent être sauvegardées par des unités de DVD ou des fichiers. En fonction de l’unité de secours, Virtual I/O Server exportera l’unité optique virtuelle avec l’un des profils suivants : v DVD-ROM v DVD-RAM Les unités optiques virtuelles sauvegardées par des unités optiques physiques ne peuvent être affectées qu’à une seule partition logique à la fois. Pour utiliser l’unité sur une autre partition logique client, vous devez d’abord la supprimer de la partition logique en cours, puis la réaffecter à l’autre partition logique. Bande : Les unités de bande peuvent être exportées par le serveur Virtual I/O Server. Cette rubrique fournit des informations sur les types d’unité de bande pris en charge. Virtual I/O Server prend en charge l’exportation d’unités de bande physiques vers des partitions logiques client. Ces unités sont appelées unités de bande SCSI virtuelles. Les unités de bande SCSI virtuelles sont sauvegardées par des unités de bande physiques. Les unités de bande SCSI virtuelles ne peuvent être affectées qu’à une seule partition logique client à un moment donné. Pour utiliser l’unité sur une partition logique client différente, vous devez d’abord la supprimer de sa partition logique actuelle, puis la réaffecter à la partition logique qui l’utilisera. Restriction : v L’unité de bande physique doit être une unité de bande connectée SAS. v Virtual I/O Server ne prend pas en charge la fonction de déplacement de support, même si l’unité de secours prend cette dernière en charge. v Il est recommandé d’attribuer l’unité de bande à sa propre carte de Virtual I/O Server ; en effet, les unités de bande envoient souvent de gros volumes de données, ce qui peut affecter les performances des autres unités sur la carte. Stockage virtuel Les disques, les bandes et les unités optiques sont pris en charge en tant qu’unités SCSI virtuelles. Cette rubrique décrit le mode de fonctionnement de ces unités dans un environnement virtualisé et indique les unités prises en charge. Disque : Les unités de disque peuvent être exportées par le serveur Virtual I/O Server. Cette rubrique fournit des informations sur les types de disque et les configurations pris en charge. Virtual I/O Server prend en charge l’exportation des unités SCSI de disque. Ces unités sont appelées disques SCSI virtuels. Tous les disques SCSI virtuels doivent être associés à une mémoire physique. Vous pouvez utiliser les types de mémoire physique suivants pour sauvegarder les disques virtuels : v Un disque SCSI virtuel associé à un disque physique v Un disque SCSI virtuel associé à un volume logique 18 Virtual I/O Server v Un disque SCSI virtuel associé à un fichier Dans les trois cas, toutes les règles SCSI standard s’appliquent à l’unité. L’unité SCSI virtuelle va se comporter comme une unité de disque compatible SCSI standard ; elle peut servir d’unité d’amorçage ou de poste NIM (Network Installation Management) cible, par exemple. Délai d’attente du chemin d’accès à la carte client SCSI virtuelle La fonction de délai d’attente du chemin d’accès à la carte client SCSI virtuelle (VSCSI) permet à la carte client de détecter si un Virtual I/O Server ne répond pas aux requêtes d’E-S. Utilisez cette fonction uniquement dans les configurations dans lesquelles des unités sont mises à la disposition d’une partition logique client à partir de plusieurs serveurs Virtual I/O Server. Il peut s’agir de configurations utilisant la fonction MPIO ou dans lesquelles un groupe de volumes est mis en miroir par des unités sur plusieurs serveurs Virtual I/O Server. Si aucune requête d’E-S exécutée sur la carte du serveur VSCSI n’a été servie dans le délai (en secondes) indiqué par la valeur de délai d’attente du chemin VSCSI, une ou plusieurs tentatives de contact de la carte du serveur VSCSI sont effectuées pendant 60 secondes. Si au terme de 60 secondes, aucune réponse de la carte du serveur n’intervient, toutes les requêtes d’E-S en attente vers cette carte échouent et une erreur est consignée dans le journal d’erreurs de la partition logique client. Si la fonction MPIO est utilisée, le module MPIO Path Control tentera d’exécuter à nouveau les requêtes d’E-S sur un autre chemin. Dans le cas contraire, les requêtes échouées seront renvoyées aux applications. Si les unités sur cette carte appartiennent au groupe de volumes mis en miroir, ces unités seront indiquées comme manquantes et le gestionnaire de volume logique enregistrera les erreurs dans le journal d’erreurs de la partition logique client. Si l’une des unités ayant échoué est le groupe de volumes root (rootvg) de la partition logique, et que ce dernier n’est pas accessible via un autre chemin ou n’est pas mis en miroir sur un autre Virtual I/O Server, la partition logique client peut se fermer. La carte client VSCSI tente alors de rétablir la communication avec le serveur Virtual I/O Server et enregistre un message dans le journal des erreurs du système dès qu’elle est en mesure de le faire. Les groupes de volumes en miroir doivent être resynchronisés manuellement en exécutant la commande varyonvg lorsque les unités manquantes seront à nouveau disponibles. Un attribut ODM de carte de client VSCSI configurable, vscsi_path_to, est fourni. Cet attribut sert non seulement à indiquer si la fonction est activée, mais également à enregistrer la valeur du délai d’attente du chemin si la fonction est activée. L’administrateur système indique la valeur O pour l’attribut ODM afin de désactiver la fonction ou la durée d’attente, en secondes, avant de vérifier si le chemin d’accès à la carte du serveur a échoué. Si la fonction est activée, une valeur minimale de 30 secondes est requise. Si une valeur comprise entre 0 et 30 secondes est indiquée, la valeur sera remplacée par 30 secondes à la prochaine reconfiguration ou amorçage de la carte. Cette fonction est désactivée par défaut ; la valeur par défaut de vscsi_path_to est donc 0. Soyez vigilant lorsque vous définissez cette valeur, en gardant à l’esprit que lorsque la carte du serveur VSCSI sert la requête d’E-S, l’unité de stockage à laquelle la requête est envoyée peut être locale sur le serveur VIO ou sur un SAN. L’attribut de la carte client vscsi_path_to peut être défini à l’aide de l’utilitaire SMIT ou de la commande chdev -P. La définition de l’attribut peut également être affichée à l’aide de l’utilitaire SMIT ou de la commande lsattr. La définition ne prendra effet que lorsque la carte sera reconfigurée ou que la machine sera réamorcée. Optique : Les unités optiques peuvent être exportées par le serveur Virtual I/O Server. Cette rubrique fournit des informations sur les types d’unité optique pris en charge. Virtual I/O Server 19 Virtual I/O Server prend en charge l’exportation d’unités optiques physiques vers des partitions logiques client. Ces unités sont appelées unités optiques SCSI virtuelles. Les unités optiques SCSI virtuelles peuvent être sauvegardées par des fichiers ou des unités de DVD. En fonction de l’unité de secours, Virtual I/O Server exportera l’unité optique virtuelle avec l’un des profils suivants : v DVD-ROM v DVD-RAM Par exemple, des unités optiques SCSI virtuelles associés à un fichier sont exportées en tant qu’unités de DVD-RAM. Ces unités peuvent être sauvegardées par des fichiers en lecture-écriture ou en lecture seule. Selon les droits d’accès aux fichiers, l’unité peut apparaître pour contenir un disque DVD-ROM ou DVD-RAM. Il n’est pas possible de charger simultanément des fichiers multimédias en lecture-écriture (DVD-RAM) dans plusieurs unités optiques SCSI virtuelles associées à des fichiers. En revanche, les fichiers multimédias en lecture seule (DVD-ROM) peuvent être chargés simultanément dans plusieurs unités optiques SCSI virtuelles associées à des fichiers. Les unités optiques SCSI virtuelles sauvegardées par des unités optiques physiques ne peuvent être affectées qu’à une seule partition logique à un moment donné. Pour utiliser l’unité sur une partition logique client différente, vous devez d’abord la supprimer de sa partition logique actuelle, puis la réaffecter à la partition logique qui l’utilisera. Les unités optiques SCSI virtuelles apparaissent toujours en tant qu’unités SCSI sur les partitions logiques client, que le type d’unité exportée à partir de Virtual I/O Server soit une unité SCSI, IDE, USB ou un fichier. Bande : Les unités de bande peuvent être exportées par le serveur Virtual I/O Server. Cette rubrique fournit des informations sur les types d’unité de bande pris en charge. Virtual I/O Server prend en charge l’exportation d’unités de bande physiques vers des partitions logiques client. Ces unités sont appelées unités de bande SCSI virtuelles. Les unités de bande SCSI virtuelles sont sauvegardées par des unités de bande physiques. Les unités de bande SCSI virtuelles ne peuvent être affectées qu’à une seule partition logique client à un moment donné. Pour utiliser l’unité sur une partition logique client différente, vous devez d’abord la supprimer de sa partition logique actuelle, puis la réaffecter à la partition logique qui l’utilisera. Restriction : v L’unité de bande physique doit être une unité de bande connectée SAS. v Virtual I/O Server ne prend pas en charge la fonction de déplacement de support, même si l’unité de secours prend cette dernière en charge. v Il est recommandé d’attribuer l’unité de bande à sa propre carte de Virtual I/O Server ; en effet, les unités de bande envoient souvent de gros volumes de données, ce qui peut affecter les performances des autres unités sur la carte. Compatibilité d’unité dans un environnement Virtual I/O Server : En savoir plus sur la compatibilité d’unité physique-virtuelle dans un environnement Virtual I/O Server. La compatibilité d’unité physique-virtuelle (p2v) décrite dans le présent document se rapporte uniquement aux données de l’unité et non pas nécessairement aux fonctions de cette dernière. Une unité est compatible p2v lorsque les données qui en sont extraites sont identiques, que l’accès soit direct via une connexion physique ou qu’il soit virtuel (par exemple, par le biais du serveur Virtual I/O Server). En d’autres termes, chaque bloc logique (c’est-à-dire de l’adresse de bloc logique 0 à l’adresse de bloc 20 Virtual I/O Server logique n-1) renvoie des données identiques, à la fois pour les unités physiques et les unités virtuelles. De façon à respecter la conformité p2v, la capacité de l’unité doit également être identique. Les unités de disque virtuel exportées par le serveur Virtual I/O Server sont appelées disques SCSI virtuels. Une unité de disque SCSI virtuel peut être associée à un volume physique complet, un volume logique, une unité multi-accès ou un fichier. La duplication de données (c’est-à-dire les services de copie) et les mouvements d’unités entre environnements physiques et virtuels constituent des opérations communes dans les centres de données actuels. Ces opérations, qui impliquent des unités dans un environnement virtuel, présentent souvent une dépendance par rapport à la conformité p2v. Les services de copie se rapportent aux différentes solutions qui fournissent une fonction de duplication de données, notamment les solutions de migration de données, la fonction FlashCopy, les solutions de copie instantanée et de copie à distance. Ces fonctions sont couramment utilisées pour la reprise après incident, le clonage, la sauvegarde/restauration, etc. Le mouvement d’unités entre environnements physiques et virtuels se rapporte à la capacité de déplacer une unité de disque entre un environnement physique (c’est-à-dire un réseau de systèmes avec connexion directe) et un environnement d’E-S virtuel (c’est-à-dire un réseau de systèmes avec connexion au serveur Virtual I/O Server) et d’utiliser le disque sans avoir à sauvegarder ou à restaurer les données. Cette capacité est très utile pour le regroupement de serveurs. Les opérations ci-dessus peuvent fonctionner si l’unité est compatible p2v. Toutefois, les combinaisons d’unités et les solutions de duplication de données n’ont pas toutes été testées . Reportez-vous aux réclamations du fournisseur de services de copie dans le cadre des unités gérées par Virtual I/O Server. Une unité est compatible p2v si elle répond aux critères suivants : v Il s’agit d’un volume physique complet (c’est-à-dire un numéro d’unité logique). v La capacité de l’unité est identique à la fois dans les environnements physiques et virtuels. v Virtual I/O Server est capable de gérer ce volume physique à l’aide d’un UDID ou d’un ID iEEE. Pour plus d’informations, voir la rubrique Comment déterminer si un volume physique est géré par le format UDID ou IEEE, ci-dessous. Les unités gérées par les solutions multi-accès suivantes au sein du serveur Virtual I/O Server sont supposées être des unités UDID. v Toutes les versions MPIO (Multipath I/O), y compris Subsystem Device Driver Path Control Module (SDDPCM), EMC PCM et Hitachi Dynamic Link Manager (HDLM) PCM v EMC PowerPath 4.4.2.2 ou version ultérieure v IBM® Subsystem Device Driver (SDD) 1.6.2.3 ou version ultérieure v Hitachi HDLM 5.6.1 ou version ultérieure Les unités SCSI virtuelles créées avec des versions antérieures de PowerPath, HDLM et SDD ne sont pas gérées par le format UDID et ne sont pas supposées être conformes p2v. Il est probable que les opérations mentionnées ci-dessus (par exemple, duplication de données ou mouvement entre environnements Virtual I/O Server et non-Virtual I/O Server) ne fonctionnent pas dans ces cas. Comment déterminer si un volume physique est géré par le format UDID ou IEEE : Déterminer si un volume physique est ou a la possibilité d’être géré par le format UDID (identificateur d’unité) ou IEEE. Virtual I/O Server 21 Avant de commencer De façon à déterminer si un volume physique est ou peut être géré par le format UDID, les éléments suivants doivent être vérifiés : v S’il s’agit d’un numéro d’unité logique de Virtual I/O Server existant, déterminez si son format est UDID. v S’il s’agit d’un numéro d’unité logique à déplacer vers le serveur Virtual I/O Server, assurez-vous d’abord que Virtual I/O Server est préparé à voir ce numéro d’unité en tant que numéro d’unité logique UDID en le vérifiant sur l’hôte source. Remarque : Le fait de déplacer un disque physique vers un Virtual I/O Server qui n’est pas capable de gérer l’unité à l’aide du format UDID peut entraîner une perte de données. Dans ce cas, sauvegardez les données avant d’attribuer le numéro d’unité logique au Virtual I/O Server. A propos de cette tâche Pour déterminer si une unité présente un UDID, exécutez les étapes suivantes : Remarque : Ces instructions s’appliquent au Virtual I/O Server. Pour AIX, ignorez l’étape 1 et suivez les mêmes instructions. 1. Entrez oem_setup_env. 2. Entrez odmget -qattribute=unique_id CuAt. Les disques comportant un UDID sont alors répertoriés. Une sortie similaire à ce qui suit apparaît : CuAt: name = "hdisk1" attribute = "unique_id" value = "2708ECVBZ1SC10IC35L146UCDY10-003IBMscsi" type = "R" generic = "" rep = "nl" nls_index = 79 CuAt: name = "hdisk2" attribute = "unique_id" value = "210800038FB50AST373453LC03IBMscsi" type = "R" generic = "" rep = "nl" nls_index = 79 3. Déterminez si une unité est associée à un identificateur d’attribut de volume IEEE en exécutant la commande suivante : lsattr -l hdiskX. Une valeur est indiquée dans la zone ieee_volname pour les disques ayant un identificateur d’attribut de volume IEEE. Une sortie similaire à ce qui suit apparaît : ... cache_method ieee_volname lun_id ... fast_write Write Caching method 600A0B800012DD0D00000AB441ED6AC IEEE Unique volume name 0x001a000000000000 Logical Unit Number Si la zone ieee_volname n’apparaît pas, l’unité n’a pas d’identificateur d’attribut de volume IEEE. Remarque : Les stockages DS4K et FAStT qui utilisent le pilote RDAC (Redundant Disk Array Controller) pour le multi-accès sont gérés à l’aide d’un ID IEEE. Unités de mappage Les unités de mappage permettent de faciliter le mappage des ressources physiques avec une unité virtuelle. 22 Virtual I/O Server Réseaux virtuels Cette section contient des informations sur le réseau Ethernet virtuel, la carte Ethernet hôte (ou carte Ethernet virtuelle intégrée), Internet Protocol version 6 (IPv6), agrégation de liaisons(ou EtherChannel), carte Ethernet partagée, la reprise par transfert de la carte Ethernet partagée et le réseau local virtuel (VLAN). La technologie Ethernet virtuelle facilite la communication IP entre des partitions logiques d’un même système grâce à des systèmes de commutateurs logiciels compatibles VLAN (réseau local virtuel). Avec la technologie de carte Ethernet partagée, les partitions logiques peuvent communiquer avec d’autres systèmes à l’extérieur de l’unité matérielle sans attribution d’emplacements Ethernet physiques aux partitions logiques. Carte Ethernet hôte Une carte Ethernet hôte (HEA) est une carte Ethernet physique directement intégrée au bus GX+ sur un système géré. Les HEA offrent un débit élevé, une faible latence et le support de la virtualisation pour les connexions Ethernet. Les cartes HEA sont également appelées cartes IVE (Integrated Virtual Ethernet). Contrairement à la plupart des types de systèmes d’entrées-sorties, vous ne pouvez jamais affecter la HEA-même à une partition logique. En revanche, plusieurs partitions logiques peuvent être connectées directement à la carte HEA et utiliser ses ressources. Ces partitions logiques peuvent ainsi accéder à des réseaux externes via la HEA sans passer par un pont Ethernet sur une autre partition logique. Pour connecter une partition logique à une HEA, vous devez créer une carte Ethernet hôte logique (LHEA)pour la partition logique. Une carte Ethernet hôte logique (LHEA) est la représentation d’une carte HEA physique sur une partition logique. Pour le système d’exploitation, une LHEA apparaît comme une carte Ethernet physique tout comme une carte Ethernet virtuelle lui apparaît comme une carte Ethernet physique. Lorsque vous créez une carte LHEA pour une partition logique, vous spécifiez les ressources que la partition logique peut utiliser sur la HEA physique véritable. Chaque partition logique peut avoir une LHEA pour chaque HEA physique sur le système géré. Chaque LHEA peut avoir un ou plusieurs ports logiques et chaque port logique peut se connecter à un port physique sur la carte HEA. Vous pouvez créer une LHEA pour une partition logique en utilisant l’une des méthodes suivantes : v Vous pouvez ajouter la LHEA à un profil de partition, fermer la partition logique puis la réactiver en utilisant le profil de partition avec la LHEA. v Vous pouvez ajouter la carte LHEA à une partition logique en cours de fonctionnement via le partitionnement logique dynamique. (cette méthode ne peut être utilisée pour des partitions logiques Linux que si vous installez Red Hat Enterprise Linux version 5.1, Red Hat Enterprise Linux version 4.6 ou une version supérieure de Red Hat Enterprise Linux sur la partition logique). Lorsque vous activez une partition logique, les LHEA du profil de partition sont considérées comme des ressources obligatoires. Si les ressources HEA physiques requises par les LHEA ne sont pas disponibles, la partition logique ne peut pas être activée. Toutefois, lorsque la partition logique est active, vous pouvez supprimer toute LHEA de la partition logique. Une fois que vous avez créé une LHEA pour une partition logique, une unité réseau est créée sur la partition logique. Cette unité réseau est nommée entX sur les partitions logiques AIX et ethX sur les partitions logiquesLinux, X représentant des numéros attribués de façon séquentielle. L’utilisateur peut alors définir une configuration TCP/IP similaire à un système Ethernet physique pour communiquer avec d’autres partitions logiques. Vous pouvez configurer une partition logique de sorte qu’il s’agisse de la seule partition logique ayant accès à un port physique d’une carte HEA, en spécifiant Partition logique espionne pour une carte LHEA affectée à la partition logique. Lorsqu’une carte LHEA est en mode espion, aucune autre partition logique ne peut avoir accès aux ports logiques du port physique associée à cette carte. La configuration d’une partition logique en mode espion peut être souhaitable dans les situations suivantes : Virtual I/O Server 23 v Si vous souhaitez connecter plus de 16 partitions logiques les unes aux autres et à un réseau externe via un port physique sur une carte HEA, vous pouvez créer un port logique sur une partition logique de serveur d’entrées-sorties virtuel et configurer un pont Ethernet entre le port logique et un adaptateur Ethernet virtuel sur un LAN virtuel. Cette approche permet à toutes les partitions logiques des adaptateurs Ethernet virtuels sur le LAN virtuel de communiquer avec le port physique via le pont Ethernet. Si vous configurez un pont Ethernet entre un port logique et une carte Ethernet virtuelle, le port physique qui est connecté au port logique doit avoir les propriétés suivantes : – Le port physique doit être configuré de façon à ce que la partition logique Virtual I/O Server soit la partition logique de mode espion pour le port physique. – Le port physique ne peut avoir qu’un seul port logique. v Vous souhaitez que la partition logique ait un accès dédié à un port physique. v Vous souhaitez utiliser des outils tels que tcpdump ou iptrace. Un port logique peut communiquer avec tous les autres ports logiques connectés au même port physique sur la carte HEA. Le port physique et ses ports logiques associés forment un réseau Ethernet logique. Les paquets de diffusion et de multidiffusion sont distribués sur ce réseau logique comme s’il s’agissait d’un réseau Ethernet physique. Vous pouvez connecter jusqu’à 16 ports logiques à un port physique en utilisant ce réseau logique. Par extension, vous pouvez connecter jusqu’à 16 partitions logiques les unes aux autres et à un réseau externe via ce réseau logique. Le nombre effectif de ports logiques que vous pouvez connecter à un port physique dépend de la valeur de mise à l’échelle multicoeur du groupe de ports physique et du nombre de ports logiques que vous avez créés pour d’autres ports physiques dans le groupe de ports physiques. Par défaut, la valeur de mise à l’échelle multicoeur de chaque groupe de ports physiques est définie à 4, ce qui permet de connecter 4 ports logiques aux ports physiques dans le groupe de ports physiques. Pour connecter 16 ports logiques aux ports physiques dans le groupe de ports physiques, vous devez définir à 1 la valeur de mise à l’échelle multicoeur du groupe de ports physiques puis redémarrer le système géré. Vous pouvez définir chaque port logique pour limiter ou autoriser les paquets référencés pour des réseaux locaux virtuels spécifiques. Vous pouvez définir un port logique acceptant les paquets ayant un ID de réseau local virtuel ou définir un port logique acceptant uniquement les ID réseau local virtuel spécifiés. Vous pouvez spécifier jusqu’à 20 ID de réseau local virtuel pour chaque port logique. Les ports physiques d’une carte HEA sont toujours configurés au niveau du système géré. Si vous utilisez une console HMC pour gérer un système, vous devez utiliser cette console HMC pour configurer les ports physiques sur l’ensemble des HEA appartenant au système géré. De plus, la configuration de port physique s’applique à toutes les partitions logiques qui utilisent le même port physique. (Certaines propriétés peuvent nécessiter une configuration au niveau du système d’exploitation également. Par exemple, la taille de paquet maximale pour un port physique sur la carte HEA doit être définie au niveau du système géré en utilisant la console HMC. Cependant, vous devez également définir la taille de paquet maximale pour chaque port logique au niveau du système d’exploitation.) Par contre, si un système n’est pas partitionné et n’est pas géré par une console HMC, vous pouvez configurer les ports physiques d’une carte HEA au niveau du système d’exploitation tout comme si les ports physiques étaient les ports d’une carte Ethernet physique normale. La carte HEA ne prend pas en charge le mode semi-duplex au niveau matériel. Vous pouvez modifier les propriétés d’un port logique d’une carte LHEA à l’aide d’un partitionnement logique pour supprimer le port logique de la partition logique et le rajouter à la partition par le biais des propriétés modifiées. Si le système d’exploitation de la partition logique ne prend pas en charge le partitionnement logique dynamique pour les cartes LHEA et que vous souhaitez modifier une propriété de port logique autre que celle des VLAN sur lesquels le port logique intervient, vous devez définir un profil de partition pour la partition logique de sorte que le profil de partition contienne les propriétés de port logique voulues et fermer la partition logique puis l’activer à l’aide du profil de partition nouveau ou modifié. Si le système d’exploitation de la partition logique ne prend pas en charge le partitionnement logique dynamique pour les cartes LHEA et que vous souhaitez modifier les VLAN sur lesquels le port 24 Virtual I/O Server logique intervient, vous devez supprimer le port logique d’un profil de partition appartenant à la partition logique, fermer puis activer la partition logique à l’aide du profil de partition modifié, rajouter le port logique au profil de partition par le biais de la configuration VLAN modifiée et de nouveau arrêter puis activer la partition logique à l’aide du profil de partition modifié. Internet Protocol version 6 Internet Protocol version 6 (IPv6) est le protocole IP de future génération et remplace graduellement la norme Internet actuelle Internet Protocol version 4 (IPv4). La principale amélioration d’IPv6 est l’extension de l’espace adresse IP de 32 à 128 bits, offrant un nombre d’adresses IP uniques pratiquement illimité. IPv6 présente plusieurs avantages par rapport à IPv4, notamment la simplification du routage et de l’adressage, la simplification du format d’en-tête, un contrôle amélioré du trafic, l’autoconfiguration et la sécurité. Pour plus d’informations sur IPv6, voir Internet Protocol (IP) Version 6. Unités d’agrégation de liaisons ou EtherChannel Une unité d’agrégation de liaisons, ou EtherChannel, est une technologie de regroupement de ports réseau permettant de regrouper plusieurs cartes Ethernet. Les cartes constituent alors une unité Ethernet unique. agrégation de liaisons offre un meilleur débit via une seule adresse IP que ne le permettrait une seule carte Ethernet. Par exemple, ent0 et ent1 peuvent être regroupées pour former ent3. Le système considère ces cartes regroupées comme une seule et même carte. La même adresse matérielle est fournie à toutes les cartes de l’unité d’agrégation de liaisons, alors les systèmes distants les traitent comme s’il s’agissait d’une seule et même carte. L’agrégation de liaisons améliore la redondance : en cas d’échec d’un lien, l’unité d’agrégation de liaisons bascule sur une autre carte de l’unité afin de conserver la liaison. Dans l’exemple précédent, si ent0 échoue, les paquets sont automatiquement envoyés à la carte disponible suivante ent1, sans interrompre les connexions utilisateur existantes. Apres sa restauration, l’unité ent0 est automatiquement renvoyée au service de l’unité d’agrégation de liaisons. Vous pouvez configurer une carte Ethernet partagée de façon à utiliser une unité d’agrégation de liaisons (ou EtherChannel) en tant que carte physique. Cartes Ethernet virtuelles Les cartes Ethernet virtuelles permettent aux partitions logiques client d’envoyer et de recevoir le trafic réseau, sans qu’une carte Ethernet physique ne soit nécessaire. Les cartes Ethernet virtuelles permettent aux partitions logiques d’un même système de communiquer sans devoir utiliser des cartes Ethernet physiques. Au sein du système, les cartes Ethernet virtuelles sont connectées à un commutateur Ethernet virtuel IEEE 802.1q. Grâce à la fonction de commutation, les partitions logiques peuvent communiquer entre elles au moyen de cartes Ethernet virtuelles et via l’affectation d’ID VLAN (VID). Ces derniers permettent aux cartes Ethernet virtuelles de partager un réseau logique commun. Le système transmet des paquets en les copiant directement de la mémoire de la partition logique de l’expéditeur vers les mémoires tampon du destinataire sans les placer dans une mémoire tampon intermédiaire. Les cartes Ethernet virtuelles peuvent être utilisées sans Virtual I/O Server mais les partitions logiques ne pourront pas communiquer avec des systèmes externes. Dans ce cas de figure, vous pouvez toutefois utiliser une autre carte, appelée carte Ethernet hôte (ou carte Ethernet virtuelle intégrée) afin de faciliter la communication entre les partitions logiques du système et les réseaux externes. Virtual I/O Server 25 Vous pouvez créer des cartes Ethernet virtuelles à l’aide de la console HMC (Hardware Management Console) et les configurer à l’aide de l’interface de ligne de commande Virtual I/O Server. Vous pouvez aussi utiliser le gestionnaire Integrated Virtualization Manager pour créer et gérer des cartes Ethernet virtuelles. Nous recommandons l’utilisation d’un réseau Ethernet virtuel sur le serveur Virtual I/O Server dans les cas suivants : v Si les besoins de la partition logique individuelle en termes de capacité ou de bande passante sont non constants ou inférieurs à la largeur de bande totale d’une carte Ethernet physique. Les partitions logiques qui utilisent la totalité de la largeur de bande ou de la capacité d’une carte Ethernet physique doivent avoir recours à des cartes Ethernet dédiées. v Si vous avez besoin d’une connexion Ethernet alors qu’aucun emplacement n’est disponible pour installer une carte dédiée. Réseaux locaux virtuels (VLAN) Les réseaux locaux virtuels (VLAN) permettent de segmenter le réseau physique de manière logique. Il s’agit d’une méthode permettant de segmenter de façon logique un réseau physique de sorte que la connectivité de couche 2 soit limitée aux membres appartenant au même réseau local virtuel. Cette séparation est effectuée en marquant les paquets Ethernet avec leurs informations d’appartenance au réseau local virtuel (VLAN) puis en limitant la transmission aux membres de ce réseau. Le réseau local virtuel est décrit par la norme IEEE 802.1Q. Les informations relatives aux marques du réseau local virtuel sont appelées ID VLAN (VID). Les ports d’un commutateur sont configurés en tant que membres d’un réseau local virtuel désigné par le VID pour ce port. Le VID par défaut d’un port est appelé VID de port (PVID). Il est possible d’ajouter le VID à un paquet Ethernet à l’aide d’un hôte VLAN (appartenant au réseau local virtuel) ou d’un commutateur dans le cas d’hôtes non VLAN. Par conséquent, les ports d’un commutateur Ethernet doivent être configurés à l’aide des informations indiquant si l’hôte connecté appartient au réseau local virtuel ou non. Pour les hôtes non VLAN, un port est configuré comme non marqué et le commutateur marque tous les paquets qui entrent par ce port avec le PVID. Il va également démarquer tous les paquets qui quittent ce port avant leur transmission vers un hôte non VLAN. Un port utilisé pour connecter des hôtes non VLAN est appelé port non marqué ; il ne peut être le membre que d’un seul réseau local virtuel identifié par son PVID. Les hôtes VLAN peuvent insérer et retirer leurs propres marques et être des membres de plusieurs réseaux locaux virtuels. Ces hôtes sont en général connectés aux ports qui ne retirent pas les marques avant de transmettre les paquets à l’hôte, mais qui vont insérer la marque PVID lorsqu’un paquet non marqué entre par le port. Un port va uniquement admettre les paquets non marqués ou marqués portant la marque de l’un des réseaux locaux virtuels (VLAN) auquel il appartient. Ces règles VLAN s’ajoutent aux règles classiques de routage basées sur l’adresse MAC (contrôle d’accès obligatoire) auxquelles se conforme un commutateur. Par conséquent, un paquet avec une adresse MAC cible de diffusion ou de multidiffusion est également transmis aux ports des membres appartenant au réseau local virtuel identifié par les marques du paquet. Ce mécanisme garantit la séparation logique du réseau physique en fonction de son appartenance à un réseau local virtuel. Cartes Ethernet partagées Les cartes Ethernet partagées de la partition logique Virtual I/O Server permettent aux cartes Ethernet virtuelles des partitions logiques client d’effectuer des envois et des réceptions en dehors du trafic réseau. Une carte Ethernet partagée est un composant de Virtual I/O Server qui joue le rôle de pont entre une carte Ethernet physique et une ou plusieurs cartes Ethernet virtuelles : v La carte réelle peut être une carte Ethernet physique, une unité d’agrégation de liaisons ou EtherChannel, ou une carte Ethernet hôte logique (carte LHEA). La carte réelle ne peut pas être une autre carte Ethernet partagée ou une pseudo-unité VLAN. 26 Virtual I/O Server v La carte Ethernet virtuelle doit être une carte Ethernet d’entrée-sortie virtuelle. Il ne peut pas s’agir d’un autre type d’unité ou de carte. Avec une carte Ethernet partagée, les partitions logiques du réseau virtuel peuvent partager l’accès au réseau physique et communiquer avec des serveurs autonomes et des partitions logiques d’autres systèmes. La carte Ethernet partagée évite à chaque partition logique client de disposer d’une carte physique dédiée pour la connexion au réseau externe. Une carte Ethernet partagée fournit un accès en connectant les réseaux locaux virtuels internes à ceux de commutateurs externes. Avec cette connexion, les partitions logiques peuvent partager le sous-réseau IP avec des systèmes autonomes et d’autres partitions logiques externes. La carte Ethernet partagée achemine vers le réseau externe les paquets sortants envoyés par une carte Ethernet virtuelle, et transmet les paquets entrants à la partition logique client appropriée via la liaison Ethernet virtuelle établie avec cette partition logique. La carte Ethernet partagée traite les paquets au niveau de la couche 2 ; les autres systèmes du réseau physique peuvent ainsi voir l’adresse MAC d’origine et les balises VLAN (réseau local virtuel) du paquet. La carte Ethernet partagée présente une fonction de répartition de bande passante, également connue sous le nom de qualité de service de Virtual I/O Server. La qualité de service permet au Virtual I/O Server d’accorder une priorité plus élevée à certains types de paquets. Conformément à la spécification IEEE 801.q, les administrateurs Virtual I/O Server peuvent faire en sorte que la carte Ethernet partagée examine le trafic marqué VLAN (réseau local virtuel) en mode pont pour vérifier l’existence éventuelle de la zone de priorité VLAN dans l’en-tête VLAN. La zone de priorité VLAN 3 bits permet à chaque paquet individuel d’obtenir une valeur de priorité, de 0 à 7, de façon à ce qu’une distinction s’opère entre le trafic important et le trafic moins important. Le trafic important est envoyé en priorité et utilise davantage de bande passante du serveur Virtual I/O Server que le trafic moins important. Remarque : Pour pouvoir utiliser cette fonction, lorsque la carte de ligne Ethernet virtuelle du serveur Virtual I/O Server est configurée sur une console HMC, vous devez la configurer avec des ID de réseau local virtuel supplémentaires car seul le trafic sur ces ID est transmis au Virtual I/O Server avec une marque VLAN. Le trafic non marqué est toujours traité comme s’il appartenait au niveau de priorité par défaut, c’est-à-dire comme s’il présentait la valeur de priorité 0. En fonction des valeurs de priorité VLAN détectées dans les en-têtes VLAN, les paquets sont priorisés comme suit. Tableau 12. Valeurs de priorité du trafic VLAN et importance relative Valeur de priorité et importance 1 (le plus important) 2 0 (par défaut) 3 4 5 6 7 (le moins important) L’administrateur Virtual I/O Server peut utiliser la qualité de service en paramétrant l’attribut qos_mode de la carte Ethernet partagée sur le mode strict ou loose. Le mode par défaut est disabled. Les définitions suivantes décrivent ces modes : Mode disabled Il s’agit du mode par défaut. Le trafic VLAN ne fait pas l’objet d’un examen en vue de trouver la zone de priorité. Voici un exemple : chdev -dev <nom unité SEA> -attr qos_mode=disabled Virtual I/O Server 27 Mode strict Le trafic important est prioritaire par rapport au trafic moins important. Ce mode fournit de meilleures performances et offre davantage de bande passante au trafic important ; toutefois, il peut entraîner des retards considérables pour le trafic moins important. Voici un exemple : chdev -dev <nom unité SEA> -attr qos_mode=strict Mode loose Une limite est placée sur chaque niveau de priorité ; ainsi, dès qu’un nombre d’octets est envoyé pour un niveau, le niveau suivant est pris en charge. Cette méthode garantit que tous les paquets sont, en définitive, envoyés. Le trafic important reçoit une bande passante inférieure avec ce mode, par rapport au mode strict ; cependant, les limites du mode loose sont telles que davantage d’octets sont envoyés pour le trafic important. Ce dernier reçoit donc tout de même davantage de bande passante que le trafic moins important. Voici un exemple : chdev -dev <nom unité SEA> -attr qos_mode=loose Remarque : En mode strict ou loose, étant donné que la carte Ethernet partagée utilise plusieurs unités d’exécution pour relier le trafic, il est possible que le trafic moins important issu d’une unité d’exécution soit envoyé avant le trafic plus important issu d’une autre unité d’exécution. Protocole GVRP (GARP VLAN Registration Protocol) Les cartes Ethernet partagées sur le serveur Virtual I/O Server version 1.4 ou ultérieure, prennent en charge le protocole GVRP (GARP VLAN Registration Protocol), basé sur le protocole GARP (Generic Attribute Registration Protocol). GVRP permet l’enregistrement dynamique des VLAN sur les réseaux, qui permettent de réduire le nombre d’erreurs dans la configuration d’un réseau étendu. En propageant l’enregistrement sur le réseau par la transmission d’unités BPDU (Bridge Protocol Data Units), les unités du réseau ont une connaissance exacte des VLAN en mode pont configurées sur le réseau. Lorsque GVRP est activé, la communication s’effectue dans un sens, de la carte Ethernet partagée vers le commutateur. La carte Ethernet partagée indique au commutateur quels réseaux locaux virtuels (VLAN) peuvent communiquer avec le réseau. La carte Ethernet partagée ne configure pas les réseaux VLAN pour la communication avec le réseau en fonction des informations reçues du commutateur. La configuration des réseaux VLAN qui communiquent avec le réseau est déterminée de façon statique par les paramètres de configuration de la carte Ethernet virtuelle. Carte Ethernet hôte ou carte Ethernet virtuelle intégrée Avec Virtual I/O Server version 1.4, vous pouvez affecter un port Ethernet hôte logique d’une carte Ethernet hôte logique (LHEA), parfois appelée carte Ethernet virtuelle intégrée, en tant que carte réelle d’une carte Ethernet partagée. Le port Ethernet hôte logique est associé au port physique de la carte Ethernet hôte. La carte Ethernet partagée utilise les interfaces du pilote de périphérique standard fournies par Virtual I/O Server pour communiquer avec la carte Ethernet hôte. Pour utiliser une carte Ethernet partagée avec une carte Ethernet hôte, les conditions suivantes doivent être remplies : v Le port Ethernet hôte logique doit être le seul port attribué au port physique de la carte Ethernet hôte. Aucun autre port de la carte LHEA ne doit être attribué au port physique de la carte Ethernet hôte. v La carte LHEA de la partition logique Virtual I/O Server doit être configurée en mode espion. (Dans un environnement Integrated Virtualization Manager, le mode espion est défini par défaut) Le mode espion permet à la carte LHEA (sur le serveur Virtual I/O Server) de recevoir tout le trafic de type destinataire unique, diffusion et multidiffusion issu du réseau physique. Recommandations Il est conseillé d’utiliser une carte Ethernet partagée sur le serveur Virtual I/O Server dans les cas suivants : 28 Virtual I/O Server v Si les besoins de la partition logique individuelle en termes de capacité ou de bande passante sont non constants ou inférieurs à la largeur de bande totale d’une carte Ethernet physique. Les partitions logiques qui utilisent la totalité de la largeur de bande ou de la capacité d’une carte Ethernet physique doivent avoir recours à des cartes Ethernet dédiées. v Si vous prévoyez de faire migrer une partition logique client d’un système vers un autre. Nous recommandons d’attribuer une carte Ethernet partagée au port Ethernet hôte logique lorsque le nombre de cartes Ethernet requises est supérieur au nombre de ports disponibles sur la carte LHEA ou si vous prévoyez de dépasser ce nombre par la suite. Si le nombre de cartes Ethernet requises est inférieur ou égal au nombre de ports disponibles sur la carte LHEA et si vous ne prévoyez pas d’augmenter le nombre de ports par la suite, vous pouvez utiliser les ports de la carte LHEA pour la connectivité réseau au lieu d’utiliser la carte Ethernet partagée. Mémoire partagée La mémoire partagée est une mémoire physique qui est affectée au pool de mémoire partagée et partagée entre plusieurs partitions logiques. Le pool de mémoire partagée est une collection définie de blocs de mémoire physique qui sont gérés comme un seul pool de mémoire par Hypervisor. Les partitions logiques que vous configurez pour utiliser la mémoire partagée (appelées ci-après partitions de mémoire partagée) partagent la mémoire du pool avec d’autres partitions de mémoire partagée. Vous créez, par exemple, un pool de mémoire partagée avec 16 Go de mémoire physique. Vous créez ensuite trois partitions logiques, vous les configurez pour l’utilisation de la mémoire partagée et activez les partitions de mémoire partagée. Chaque partition de mémoire partagée peut utiliser les 16 Go du pool de mémoire partagée. L’hyperviseur détermine la quantité de mémoire allouée par le pool de mémoire partagée à chaque partition de mémoire partagée en fonction de la charge de travail et de la configuration de mémoire. Lors de l’affectation de la mémoire physique aux partitions de mémoire partagée, l’hyperviseur vérifie que chaque partition de mémoire physique peut accéder uniquement à la mémoire qui lui est allouée à un moment donné. Une partition de mémoire partagée ne peut pas accéder à la mémoire physique allouée à une autre partition de mémoire physique. La quantité de mémoire que vous affectez aux partitions de mémoire partagée peut être supérieure à la quantité de mémoire du pool de mémoire partagée. Ainsi, vous pouvez affecter 12 Go à la partition de mémoire partagée 1, 8 Go à la partition de mémoire partagée 2 et 4 Go à la partition de mémoire partagée 3. Ensemble, les partitions de mémoire partagée utilisent 24 Go de mémoire, alors que le pool de mémoire partagée dispose de seulement 16 Go de mémoire. Dans ce cas, la configuration de la mémoire est considérée comme excédentaire. Ce type de configuration est possible car l’hyperviseur virtualise et gère comme suit l’ensemble de la mémoire des partitions de mémoire partagée au sein du pool de mémoire partagée : 1. Lorsque des partitions de mémoire partagée n’utilisent pas de manière active leurs pages de mémoire, l’hyperviseur affecte ces pages inutilisées aux partitions de mémoire partagée qui en ont besoin. Lorsque le total de la mémoire physique en cours d’utilisation par les partitions de mémoire partagée est inférieur ou égale à la quantité de mémoire du pool de mémoire partagée, la configuration de mémoire est en surcapacité logique. Dans ce type de configuration, le pool de mémoire partagée dispose de suffisamment de mémoire physique pour maîtriser les besoins en mémoire de toues les partitions de mémoire physique à un instant t. L’hyperviseur n’a pas besoin de stocker de données dans la mémoire secondaire. 2. Lorsqu’une partition de mémoire partagée a besoin de davantage de mémoire que ce que l’hyperviseur peut fournir via l’affectation de parts inutilisées du pool de mémoire partagée, l’hyperviseur stocke une partie de la mémoire appartenant à une partition de mémoire partagée dans le pool de mémoire partagée et stocke le reste dans la mémoire secondaire. Lorsque le total de la mémoire physique en cours d’utilisation par les partitions de mémoire partagée est supérieur à la quantité de mémoire du pool de mémoire partagée, la configuration de mémoire est en surcapacité Virtual I/O Server 29 physique. Dans ce type de configuration, le pool de mémoire partagée ne dispose pas de suffisamment de mémoire physique pour maîtriser les besoins en mémoire de toutes les partitions de mémoire physique à un instant t. L’hyperviseur stocke la différence dans la mémoire secondaire. Lorsque le système d’exploitation tente d’accéder aux données, l’hyperviseur peut avoir à extraire les données de la mémoire secondaire pour que le système d’exploitation puisse y accéder. Parce que la mémoire que vous affectez à une partition de mémoire partagée ne réside pas toujours dans le pool de mémoire partagée, la mémoire que vous affectez à une partition de mémoire partagée est la mémoire logique. La mémoire logique est l’espace adresse, affecté à une partition logique, que le système d’exploitation considère comme mémoire principale. Pour une partition de mémoire partagée, un sous-ensemble de la mémoire logique est sauvegardé par la mémoire principale physique (ou mémoire physique du pool de mémoire partagée) et le contenu du reste de la mémoire logique est conservé dans la mémoire secondaire. Une partition logique Virtual I/O Server fournit l’accès à la mémoire secondaire, ou aux unités d’espace de pagination, nécessaires aux partitions de mémoire partagée d’une configuration de mémoire en surcapacité. Une unité d’espace de pagination est une unité logique ou physique qui est utilisée par un serveur Virtual I/O Server pour fournir l’espace de pagination d’une partition de mémoire partagée. L’espace de pagination est une zone de mémoire rémanente utilisée pour contenir des portions de la mémoire logique d’une partition de mémoire partagée ne résidant pas dans le pool de mémoire partagée. Lorsque le système d’exploitation qui s’exécute sur une partition de mémoire partagée tente d’accéder à des données et que ces données se trouvent sur l’unité d’espace de pagination affectée à la partition de mémoire partagée, l’hyperviseur envoie une demande à un serveur Virtual I/O Server pour qu’il extraie les données et les écrive dans le pool de mémoire partagée afin de les rendre accessible au système d’exploitation. Sur les systèmes gérés via une console HMC (Hardware Management Console), vous pouvez affecter simultanément au pool de mémoire partagée jusqu’à deux partitions logiques Virtual I/O Server (VIOS) (appelées ci-après partitions VIOS de pagination). Lorsque vous affectez deux partitions VIOS de pagination au pool de mémoire partagée, vous pouvez configurer les unités d’espace de pagination pour que les deux partitions VIOS de pagination puissent accéder aux mêmes unités d’espace de pagination. Si une partition VIOS de pagination est inaccessible, l’hyperviseur envoie une demande à l’autre partition pour que les données de l’unité d’espace de pagination soient extraites. Vous ne pouvez pas configurer des partitions VIOS de pagination pour l’utilisation de mémoire partagée. Les partitions VIOS de pagination n’utilisent pas la mémoire du pool de mémoire partagée. Vous affectez des partitions VIOS de pagination au pool de mémoire partagée pour qu’elles fournissent l’accès aux unités d’espace de pagination pour les partitions de mémoire partagée qui sont affectées au pool de mémoire partagée. En se basant sur les demandes de charge de travail des partitions de mémoire partagée, l’hyperviseur gère les configurations de mémoire en surcapacité en effectuant les tâches suivantes en continu : v Allocation de portions de mémoire physique du pool de mémoire partagée aux partitions de mémoire partagée selon les besoins v Demande envoyée à une partition VIOS de pagination de lecture et d’écriture de données entre le pool de mémoire partagée et les unités d’espace de pagination selon les besoins La possibilité de partager de la mémoire entre plusieurs partitions logique est appelée technologie PowerVM Active Memory Sharing. La technologie PowerVM Active Memory Sharing est disponible avec PowerVM Enterprise Edition, pour lequel vous devez vous procurer et entrer un code d’activation PowerVM Editions. 30 Virtual I/O Server Référence associée «Configuration requise pour la mémoire partagée», à la page 67 Consultez la configuration requise pour le système, Virtual I/O Server (VIOS), les partitions logiques et les unités d’espace de pagination pour une configuration réussie de la mémoire partagée. Information associée Unité d’espace de pagination Partition VIOS de pagination Une partition logique Virtual I/O Server (VIOS) affectée au pool de mémoire partagée (appelée ci-après partition VIOS de pagination) fournit l’accès aux unités d’espace de pagination pour les partitions logiques affectées au pool de mémoire partagée (appelées ci-après partitions de mémoire partagée). Lorsque le système d’exploitation qui s’exécute sur une partition de mémoire partagée tente d’accéder à des données et que ces données se trouvent sur l’unité d’espace de pagination affectée à la partition de mémoire partagée, l’hyperviseur envoie une demande à une partition VIOS de pagination pour qu’elle extraie les données et les écrive dans le pool de mémoire partagée afin de les rendre accessible au système d’exploitation. Une partition VIOS de pagination n’est pas une partition de mémoire partagée et n’utilise pas la mémoire du pool de mémoire partagée. Une partition VIOS de pagination fournit l’accès aux unités d’espace de pagination pour les partitions de mémoire partagée. Integrated Virtualization Manager Sur les systèmes gérés par le gestionnaire Integrated Virtualization Manager, la partition de gestion est la partition VIOS de pagination pour les partitions de mémoire partagée affectées au pool de mémoire partagée. Lorsque vous créez le pool de mémoire partagée, vous affectez un pool de stockage de pagination au pool de mémoire partagée. Le pool de stockage de pagination fournit les unités d’espace de pagination pour les partitions de mémoire partagée qui sont affectées au pool de mémoire partagée. Console HMC Sur les systèmes gérés via une console HMC (Hardware Management Console), vous pouvez affecter au pool de mémoire partagée une ou deux partitions logiques VIOS. Lorsque vous affectez une seule partition VIOS de pagination au pool de mémoire partagée, cette partition fournit l’accès à l’ensemble des unités d’espace de pagination pour les partitions de mémoire partagée. L’unité d’espace de pagination peut être située dans la mémoire physique du serveur ou sur un réseau de systèmes (SAN). Lorsque vous affectez deux partitions VIOS de pagination au pool de mémoire partagée, vous pouvez configurer chacune de ces partitions pour un accès aux unités d’espace de pagination de l’une des façons suivantes : v Vous pouvez configurer chaque partition VIOS de pagination pour un accès indépendant aux unités d’espace de pagination. Les unités d’espace de pagination accédées par une seule partition VIOS de pagination, ou unités d’espace de pagination indépendantes, peuvent être situées en mémoire physique sur le serveur ou sur un réseau de systèmes (SAN). v Vous pouvez configurer les deux partitions VIOS de pagination pour accéder aux mêmes unités d’espace de pagination (communes). Dans cette configuration, les partitions VIOS de pagination fournissent un accès redondant aux unités d’espace de pagination. Si une partition VIOS de pagination est inaccessible, l’hyperviseur envoie une demande à l’autre partition pour que les données de l’unité d’espace de pagination soient extraites. Les unités d’espace de pagination communes doivent être situées sur un réseau de systèmes pour permettre un accès symétrique depuis les deux partitions VIOS de pagination. v Vous pouvez configurer chaque partition VIOS de pagination pour un accès à des unités d’espace de pagination indépendantes et à unités d’espace de pagination communes. Virtual I/O Server 31 Si vous configurez le pool de mémoire partagée avec deux partitions VIOS de pagination, vous pouvez configurer une partition de mémoire partagée pour qu’elle utilise une partition VIOS de pagination unique ou des partitions VIOS de pagination redondantes. Lorsque vous configurez une partition de mémoire partagée pour une utilisation de partitions VIOS de pagination redondantes, vous affectez une partition principale et une partition secondaire à la partition de mémoire partagée. L’hyperviseur utilise la partition VIOS de pagination principale pour accéder à l’unité d’espace de pagination de la partition de mémoire partagée. A ce stade, la partition principale est la partition VIOS de pagination en cours pour la partition de mémoire partagée. La partition VIOS de pagination en cours est la partition utilisée par Hypervisor à tout moment pour accéder à des données de l’unité d’espace de pagination affectée à la partition de mémoire partagée. Si la partition VIOS de pagination principale est indisponible, Hypervisor utilise la partition secondaire pour accéder à l’unité d’espace de pagination de la partition de mémoire partagée. A ce stade, la partition secondaire devient la partition VIOS de pagination en cours pour la partition de mémoire partagée et le reste même lorsque la partition VIOS de pagination principale est de nouveau disponible. Vous n’avez pas besoin d’affecter les mêmes partions VIOS de pagination principale et secondaire à l’ensemble des partitions de mémoire partagée. Vous pouvez, par exemple, affecter les partitions VIOS de pagination A et B au pool de mémoire partagée. Pour une partition de mémoire partagée, vous pouvez affecter la partition A en tant que partition VIOS de pagination principale et la partition B comme partition VIOS de pagination secondaire. Pour une autre partition de mémoire partagée, vous pouvez faire l’inverse. La figure ci-après représente un exemple de système comportant quatre partitions de mémoire partagée, deux partitions VIOS de pagination et quatre unités d’espace de pagination. 32 Virtual I/O Server L’exemple illustre les options de configuration pour des partitions VIOS de pagination et des unités d’espace de pagination telles que décrites dans le tableau suivant. Virtual I/O Server 33 Tableau 13. Exemples de configurations de partition VIOS de pagination Option de configuration Exemple L’unité d’espace de pagination affectée à une partition de mémoire partagée se trouve en mémoire physique sur le serveur et est accédée par une partition VIOS de pagination unique. L’Unité d’espace de pagination 4 fournit l’espace de pagination pour la Partition de mémoire partagée 4. La Partition de mémoire partagée 4 est affectée de façon à utiliser la Partition VIOS de pagination 2 pour accéder à l’Unité d’espace de pagination 4. L’Unité d’espace de pagination 4 se trouve en mémoire physique sur le serveur et est affectée à la Partition VIOS de pagination 2. La Partition VIOS de pagination 2 est la seule partition VIOS de pagination pouvant accéder à l’Unité d’espace de pagination 4 (cette relation est représentée par la ligne bleue reliant la Partition VIOS de pagination 2 à l’Unité d’espace de pagination 4). L’unité d’espace de pagination affectée à une partition de mémoire partagée se trouve sur un réseau de systèmes (SAN) et est accédée par une partition VIOS de pagination unique. L’Unité d’espace de pagination 1 fournit l’espace de pagination pour la Partition de mémoire partagée 1. La Partition de mémoire partagée 1 est affectée de façon à utiliser la Partition VIOS de pagination 1 pour accéder à l’Unité d’espace de pagination 1. L’Unité d’espace de pagination 1 est connectée au réseau de systèmes. La Partition VIOS de pagination 1 est également connectée au réseau de systèmes. Il s’agit de la seule partition VIOS de pagination à pouvoir accéder à l’Unité d’espace de pagination 1 (cette relation est représentée par la ligne verte reliant la Partition VIOS de pagination 1 à l’Unité d’espace de pagination 1). 34 Virtual I/O Server Tableau 13. Exemples de configurations de partition VIOS de pagination (suite) Option de configuration Exemple L’unité d’espace de pagination affectée à une partition de mémoire partagée se trouve sur un réseau de systèmes (SAN) et est accédée de façon redondante par deux partitions VIOS de pagination. L’Unité d’espace de pagination 2 fournit l’espace de pagination pour la Partition de mémoire partagée 2. L’Unité d’espace de pagination 2 est connectée au réseau de systèmes. Les partitions VIOS de pagination 1 et 2 sont également connectées au réseau de systèmes. Elles peuvent toutes deux accéder à l’Unité d’espace de pagination 2 (ces relations sont représentées par les lignes et verte et bleue reliant respectivement la Partition VIOS de pagination 1 à l’Unité d’espace de pagination 2 et la Partition VIOS de pagination 2 à l’Unité d’espace de pagination 2). La Partition de mémoire partagée 2 est affectée pour utiliser les partitions VIOS de pagination redondantes pour accéder à l’Unité d’espace de pagination 2. La partition VIOS de pagination 1 est configurée en tant que partition principale et la partition VIOS de pagination 2 en tant que partition secondaire. De la même façon, l’Unité d’espace de pagination 3 fournit l’espace de pagination pour la Partition de mémoire partagée 3. L’Unité d’espace de pagination 3 est connectée au réseau de systèmes. Les partitions VIOS de pagination 1 et 2 sont également connectées au réseau de systèmes. Elles peuvent toutes deux accéder à l’Unité d’espace de pagination 3 (ces relations sont représentées par les lignes et verte et bleue reliant respectivement la Partition VIOS de pagination 1 à l’Unité d’espace de pagination 3 et la Partition VIOS de pagination 2 à l’Unité d’espace de pagination 3). La Partition de mémoire partagée 3 est affectée pour utiliser les partitions VIOS de pagination redondantes pour accéder à l’Unité d’espace de pagination 3. La partition VIOS de pagination 2 est configurée en tant que partition principale et la partition VIOS de pagination 1 en tant que partition secondaire. Parce que les partitions VIOS de pagination 1 et 2 ont accès aux unités d’espace de pagination 2 et 3, celles-ci sont des unités d’espace de pagination communes, auxquelles les partitions VIOS de pagination 1 et 2 accèdent de façon redondantes. Si la Partition VIOS de pagination 1 est indisponible et que la Partition de mémoire partagée 2 a besoin d’accéder à des données qui se trouvent sur son unité d’espace de pagination, l’hyperviseur envoie une demande à la Partition VIOS de pagination 2 pour que les données soient récupérées sur l’Unité d’espace de pagination 2. De la même façon, si la Partition VIOS de pagination 2 est indisponible et que la Partition de mémoire partagée 3 a besoin d’accéder aux données sur son unité d’espace de pagination, une demande est envoyée à la Partition VIOS de pagination 1 pour que les données soient extraites sur l’Unité d’espace de pagination 3. Virtual I/O Server 35 Tableau 13. Exemples de configurations de partition VIOS de pagination (suite) Option de configuration Exemple Une partition VIOS de pagination accède à la fois aux unités d’espace de pagination indépendantes et commues. Les unités d’espace de pagination 1 et 4 sont indépendantes car une seule Partition VIOS de pagination peut accéder à chacune d’elles. La Partition VIOS de pagination 1 accède à l’Unité d’espace de pagination 1, et la Partition VIOS de pagination 2 accède à l’Unité d’espace de pagination 4. Les unités d’espace de pagination 2 et 3 sont des unités communes car elles sont accessibles aux deux partitions VIOS de pagination. (Ces relations sont représentées par les lignes verte et bleue reliant les partitions VIOS de pagination aux unités d’espace de pagination.) La Partition VIOS de pagination 1 accède à l’Unité d’espace de pagination indépendant 1, ainsi qu’aux unités d’espace de pagination communes 2 et 3. La Partition VIOS de pagination 2 accède à l’Unité d’espace de pagination indépendant 4, ainsi qu’aux unités d’espace de pagination communes 2 et 3. Lorsqu’une partition VIOS de pagination est affectée au pool de mémoire partagée, vous devez arrêter les partitions de mémoire partagée avant la partition VIOS de pagination, afin que les partitions de mémoire partagée ne soient pas interrompues lorsqu’elles tentent d’accéder à leurs unités d’espace de pagination. Lorsque deux partitions VIOS de pagination sont affectées au pool de mémoire partagée et que les partitions de mémoire partagée sont configurées pour utiliser des partitions VIOS de paginations redondantes, vous n’avez pas besoin d’arrêter les partitions de mémoire partagée pour arrêter une partition VIOS de pagination. Si une partition VIOS de pagination est arrêtée,les partitions de mémoire partagée utilisent l’autre partition VIOS de pagination pour accéder à leurs unités d’espace de pagination. Vous pouvez, par exemple, arrêter une partition VIOS de pagination et installer des mises à jour VIOS sans arrêter les partitions de mémoire partagée. Vous pouvez configurer plusieurs partitions logiques VIOS pour fournir un accès aux unités d’espace de pagination. Cependant, vous ne pouvez pas affecter simultanément plus de deux de ces partitions VIOS au pool de mémoire partagée. Après avoir configuré les partitions de mémoire partagée, vous pouvez modifier ultérieurement la configuration de redondance des partitions VIOS de pagination pour une partition de mémoire partagée en modifiant le profil de partition de la partition de mémoire partagée et en redémarrant la partition de mémoire partagée avec le profil de partition modifié : v Vous pouvez changer les partitions VIOS de pagination qui sont affectées à une partition de mémoire partagée en tant que partitions principale et secondaire. v Vous pouvez changer le nombre de partitions VIOS de pagination qui sont affectées à une partition de mémoire partagée. Gestion du serveur Virtual I/O Server Cette rubrique décrit les outils de gestion du serveur Virtual I/O Server, tels que l’interface de ligne de commande Virtual I/O Server, ainsi que les produits Tivoli qui permettent de gérer les divers aspects du serveur Virtual I/O Server. Sur les systèmes non gérés par une console HMC, le serveur Virtual I/O Server devient la partition de gestion. Celui-ci comporte l’interface graphique Integrated Virtualization Manager qui facilite la gestion du système. Pour plus d’informations, voir Integrated Virtualization Manager. 36 Virtual I/O Server Interface de ligne de commande Virtual I/O Server Cette rubrique explique comment accéder à l’interface de ligne de commande Virtual I/O Server et l’utiliser. Virtual I/O Server est configuré et géré par l’intermédiaire d’une interface de ligne de commande. Dans les environnements ne comportant pas de console HMC, certaines tâches de Virtual I/O Server peuvent également être exécutées à l’aide du gestionnaire Integrated Virtualization Manager. Tous les aspects de l’administration de Virtual I/O Server peuvent être réalisés via l’interface de ligne de commande, notamment : v Gestion des unités (physiques, virtuelles, LVM (Logical Volume Manager)) v Configuration du réseau v Installation et mise à jour du logiciel v Sécurité v Gestion des utilisateurs v Tâches de maintenance En outre, dans les environnements gérés par le gestionnaire Integrated Virtualization Manager, vous pouvez utiliser l’interface de ligne de commande Virtual I/O Server pour gérer les partitions logiques. Lors de votre première connexion au Virtual I/O Server, utilisez l’ID utilisateur padmin (c’est-à-dire celui de l’administrateur principal). Vous êtes invité à entrer un nouveau mot de passe. Shell à accès restreint Lors de la connexion, vous êtes placé dans un shell Korn à accès restreint. Il fonctionne comme un shell Korn standard, sauf que vous ne pouvez pas : v Modifier le répertoire de travail en cours v Attribuer une valeur aux variables SHELL, ENV ou PATH v Indiquer le nom de chemin d’accès de la commande qui contient une barre oblique (/) v Rediriger le résultat d’une commande à l’aide de l’un des caractères suivants : >, >|, <>, >> En conséquence de ces restrictions, vous n’êtes pas en mesure d’exécuter des commandes auxquelles vos variables PATH n’ont pas accès. En outre, ces restrictions vous empêchent d’envoyer directement le résultat de la commande vers un fichier. Par contre, le résultat de la commande peut être dirigé vers la commande tee. Après la connexion, vous pouvez taper help pour obtenir des informations sur les commandes prises en charge. Par exemple, pour obtenir de l’aide sur la commande errlog, tapez help errlog. Mode d’exécution L’interface de ligne de commande Virtual I/O Server fonctionne comme une interface de ligne de commande standard. Les commandes sont exécutées avec les options et les paramètres appropriés. Par exemple, pour répertorier toutes les cartes, entrez : lsdev -type adapter En outre, les scripts peuvent être exécutés dans l’environnement de l’interface de ligne de commande Virtual I/O Server. Outre les commandes d’interface de ligne de commande Virtual I/O Server, les commandes de shell standard suivantes sont fournies : Virtual I/O Server 37 Tableau 14. Commandes de shell standard, accompagnées de leur fonction Commande Fonction awk Permet de mettre les modèles en correspondance et de réaliser des actions sur eux. cat Cette commande permet de concaténer ou d’afficher des fichiers. chmod Cette commande permet de modifier les modes d’ouverture de fichier. cp Permet de copier des fichiers. date Permet d’afficher la date ou l’heure. grep Permet de rechercher un fichier pour un modèle. ls Permet d’afficher le contenu d’un répertoire mkdir Permet de créer un répertoire. man Permet d’afficher des entrées manuelles pour les commandes du serveur Virtual I/O Server. more Permet d’afficher le contenu des fichiers d’un écran à la fois. rm Permet de supprimer des fichiers. sed Permet de fournir un éditeur par flot de données. stty Permet d’affecter des valeurs aux paramètres d’exploitation du poste de travail, de les réinitialiser ou de les notifier. tee Permet d’afficher le résultat d’un programme et de le copier dans un fichier. vi Permet de réviser des fichiers en affichage plein-écran. wc Permet de compter le nombre de lignes, de mots, d’octets et de caractères dans un fichier who Permet d’identifier les utilisateurs connectés. Au fur et à mesure de l’exécution de chaque commande, le journal de l’utilisateur et le journal de commandes global sont mis à jour. Le journal de l’utilisateur contient une liste de chaque commande du serveur Virtual I/O Server, y compris les arguments, que l’utilisateur a exécutée. Un journal de l’utilisateur est créé par utilisateur du système. Ce journal se trouve dans le répertoire principal de l’utilisateur et peut être affiché grâce à la commande cat ou vi. Le journal de commandes global (GCL) comprend toutes les commandes (y compris les arguments) de l’interface de ligne de commande Virtual I/O Server exécutées par tous les utilisateurs, la date et l’heure auxquelles les commandes ont été exécutées et l’ID utilisateur à partir duquel elles ont été exécutées. Il ne peut être consulté que par l’ID utilisateur padmin à l’aide de la commande lsgcl. Si la taille du journal de commandes global est supérieure à 1 Mo, il est tronqué à 250 ko pour empêcher le système de fichiers d’atteindre sa limite de capacité. Remarque : Les commandes Integrated Virtualization Manager sont analysées dans un emplacement distinct et peuvent être affichées dans les journaux d’application ou à l’aide la commande suivante : lssvcevents -t console --filter severities=audit Information associée Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes Logiciels Tivoli et Virtual I/O Server Apprenez à intégrer le serveur Virtual I/O Server dans votre environnement Tivoli pour Tivoli Application Dependency Discovery Manager,Tivoli Monitoring, Tivoli Storage Manager, Tivoli Usage and Accounting Manager, Tivoli Identity Manageret TotalStorage Productivity Center. 38 Virtual I/O Server Tivoli Application Dependency Discovery Manager Tivoli Application Dependency Discovery Manager (TADDM) reconnaît des éléments d’infrastructure détectés dans le centre de données classique, y compris les logiciels d’application, les hôtes et les environnements d’exploitation (notamment Virtual I/O Server), les composants du réseau (tels que les routeurs, les commutateurs, les équilibreurs de charge, les pare-feu et les unités de stockage) et les services réseau (tels que LDAP, NFS et DNS). Suivant les données collectées, TADDM crée et gère automatiquement des mappes d’infrastructure d’application contenant les dépendances d’exécution, les valeurs de configuration et l’historique des changements. Ces informations permettent de déterminer les interdépendances entre les applications de gestion, les applications logicielles et les composants physiques pour garantir et améliorer la disponibilité des applications dans votre environnement. Vous pouvez, par exemple, effectuer les tâches suivantes : v Vous pouvez isoler les incidents logiciels liés à la configuration. v Vous pouvez planifier les modifications logicielles afin de réduire ou d’éliminer les interruptions non prévues. v Vous pouvez créer une définition topologique partagée d’applications en vue d’une utilisation par d’autres applications de gestion. v Vous pouvez déterminer l’effet d’une seule modification de configuration sur une application de gestion ou un service. v Vous voyez les modifications effectuées dans l’environnement d’application et leur emplacement. TADDM comporte un moteur de reconnaissance sans agent et peut donc reconnaître un Virtual I/O Server sans qu’un agent ou un client soit installé et configuré. TADDM utilise au lieu de cela des détecteurs de reconnaissance s’appuyant sur des protocoles ouverts et sécurisés et des mécanismes d’accès pour reconnaître les composants du centre de données. Tivoli Identity Manager Tivoli Identity Manager permet de gérer les identités et les utilisateurs sur plusieurs plateformes, notamment AIX, Windows®, Solaris, etc. Avec Tivoli Identity Manager 4.7 et version ultérieure, vous pouvez également inclure les utilisateurs Virtual I/O Server. Tivoli Identity Manager contient un adaptateur Virtual I/O Server qui sert d’interface entre le serveur Virtual I/O Server et le serveur Tivoli Identity Manager. Il est possible que l’adaptateur ne se trouve pas sur le Virtual I/O Server. Dans ce cas, le serveur Tivoli Identity Manager gère l’accès au Virtual I/O Server en utilisant votre système de sécurité. L’adaptateur s’exécute comme un service, qu’un utilisateur soit connecté ou non au serveur Tivoli Identity Manager. L’adaptateur fonctionne comme un administrateur virtuel de confiance sur le serveur Virtual I/O Server, exécutant des tâches semblables aux suivantes : v Création d’un ID utilisateur autorisant l’accès au Virtual I/O Server. v Modification d’un ID utilisateur existant permettant d’accéder auVirtual I/O Server. Suppression de l’accès à partir d’un ID utilisateur. L’ID utilisateur est supprimé de Virtual I/O Server. Suspension d’un compte utilisateur en désactivant l’accès auVirtual I/O Server. Restauration d’un compte utilisateur en réactivant l’accès au Virtual I/O Server. Modification du mot de passe d’un compte utilisateur sur leVirtual I/O Server. Réconciliation des informations utilisateur de tous les utilisateurs en cours sur le serveur Virtual I/O Server. v Réconciliation des informations utilisateur d’un compte utilisateur donné sur le serveur Virtual I/O Server en effectuant une consultation. v v v v v Virtual I/O Server 39 Tivoli Monitoring Virtual I/O Server V1.3.0.1 (groupe de correctifs 8.1) comporte l’agent Tivoli Monitoring System Edition . Tivoli Monitoring System Edition permet de surveiller la santé et la disponibilité de plusieurs serveurs (y compris Virtual I/O Server) à partir du portail Tivoli Enterprise. Tivoli Monitoring System Edition regroupe les données de Virtual I/O Server, notamment les données relatives aux volumes physiques, aux volumes logiques, aux pools de stockage, aux mappages de mémoire, aux mappages de réseau, à la mémoire réelle, aux ressources du processeur, à la taille des systèmes de fichiers montés, etc. Le portail Tivoli Enterprise permet de visualiser une représentation graphique des données, d’utiliser des seuils prédéfinis afin de recevoir des alertes sur les mesures clés et de résoudre les problèmes d’après les recommandations fournies par la fonction Expert Advice de Tivoli Monitoring. Tivoli Storage Manager Virtual I/O Server 1.4 inclut le client Tivoli Storage Manager. Avec Tivoli Storage Manager, vous pouvez protéger les données de Virtual I/O Server en cas de défaillance ou d’erreur en les stockant dans une hiérarchie d’archivage hors ligne et en les récupérant après un incident. Tivoli Storage Manager améliore la protection des ordinateurs fonctionnant dans divers environnements d’exploitation, notamment Virtual I/O Server, sur différents types de matériel. Si vous configurez le client Tivoli Storage Manager sur le serveur Virtual I/O Server, vous pouvez inclure le serveur Virtual I/O Server dans une infrastructure de sauvegarde standard. Tivoli Usage and Accounting Manager Virtual I/O Server 1.4 inclut l’agent Tivoli Usage and Accounting Manager sur le serveur Virtual I/O Server. Tivoli Usage and Accounting Manager permet de suivre, d’attribuer et de facturer les coûts informatiques via la collecte de données, l’analyse des données et l’édition de rapports sur les ressources utilisées par les entités telles que les centres de coûts, les services et les utilisateurs. Tivoli Usage and Accounting Manager permet de collecter des données provenant de centres de données multi-niveaux qui utilisent Windows, AIX, Virtual I/O Server, HP/UX Sun Solaris, Linux, et VMware. TotalStorage Productivity Center Virtual I/O Server 1.5.2 permet de configurer les agents TotalStorage Productivity Center sur le serveur Virtual I/O Server. TotalStorage Productivity Center est une suite de gestion de l’infrastructure de stockage intégrée conçue pour simplifier et automatiser la gestion des unités de stockage et des réseaux de stockage, ainsi que l’utilisation de la capacité des systèmes de fichiers et des bases de données. Lors de l’installation et de la configuration des agents TotalStorage Productivity Center sur le serveur Virtual I/O Server, vous pouvez utiliser l’interface utilisateur de TotalStorage Productivity Center pour collecter et afficher des informations sur le serveur Virtual I/O Server. Vous pouvez ensuite effectuer les tâches suivantes à l’aide de l’interface utilisateur TotalStorage Productivity Center : 1. Exécuter un travail de repérage pour les agents sur le serveur Virtual I/O Server. 2. Effectuer des sondes, des analyses et des travaux ping pour collecter les informations de stockage relatives au Virtual I/O Server. 3. Générer des rapports à l’aide de Fabric Manager et du gestionnaire de données pour afficher les informations de stockage regroupées. 4. Afficher les informations de stockage regroupées à l’aide du visualiseur de topologie. 40 Virtual I/O Server Tâches associées «Configuration des agents et des clients Tivoli sur le serveur Virtual I/O Server», à la page 113 Vous pouvez configurer et démarrer l’agent Tivoli Monitoring , Tivoli Usage and Accounting Manager, le client Tivoli Storage Manager, et les agents Tivoli TotalStorage Productivity Center. Information associée Centre de documentation IBM Tivoli Application Dependency Discovery Manager IBM Tivoli Identity Manager Documentation IBM Tivoli Monitoring version 6.2.1 Tivoli Monitoring Virtual I/O Server Premium Agent - Guide d’utilisation IBM Tivoli Storage Manager Centre de documentation IBM Tivoli Usage and Accounting Manager Centre de documentation IBM TotalStorage Productivity Center Logiciel Systems Director Cette rubrique décrit l’intégration de Virtual I/O Server à un environnement Systems Director. Systems Director est un logiciel de gestion de plateformes qui rationalise votre mode de gestion des systèmes physiques et virtuels dans un environnement hétérogène. En optimisant les normes de l’industrie, Systems Director prend en charge plusieurs systèmes d’exploitation et technologies de virtualisation sur de nombreuses plateformes non-IBM. Par le biais d’une interface utilisateur unique, Systems Director offre des vues cohérentes pour l’affichage des systèmes gérés, la détermination des relations entre ces systèmes et l’identification de leur statut, ce qui permet de mettre en corrélation les ressources techniques et les besoins métier. Systems Director inclut un ensemble de tâches courantes qui fournissent un grand nombre des fonctions essentielles nécessaires à la gestion de base. Ces tâches comprennent la reconnaissance, l’inventaire, la configuration, l’état de santé du système, la surveillance, les mises à jour, la notification d’événements et l’automatisation sur les systèmes gérés. Les interfaces Web et de ligne de commande Systems Director fournissent un outil cohérent centré sur ces tâches courantes : v Reconnaissance, navigation et visualisation des systèmes sur le réseau, avec inventaire détaillé et relations avec les autres ressources du réseau. v Notifications, envoyées aux utilisateurs, en ce qui concerne les problèmes qui apparaissent sur les systèmes et les modalités de navigation jusqu’à la source du problème. v Notifications, envoyées aux utilisateurs, en ce qui concerne les mises à jour nécessaires des systèmes, puis distribution et installation des mises à jour selon un calendrier. v Analyse des données en temps réel pour les systèmes et définition de seuils critiques indiquant l’émergence de problèmes à l’administrateur. v Configuration de paramètres pour un système unique et création d’un plan de configuration pouvant appliquer ces paramètres à plusieurs systèmes. v Mise à jour des modules d’extension installés en vue d’ajouter des fonctions aux capacités de base. v Gestion du cycle de vie des ressources virtuelles. Virtual I/O Server 41 Tâches associées «Configuration de l’agent Director», à la page 119 Vous pouvez configurer et démarrer l’agent Director sur le serveur Virtual I/O Server. Information associée IBM Systems Director technical overview Scénarios de configuration relatifs au serveur Virtual I/O Server Les scénarios suivants fournissent des exemples de configurations réseau pour la partition logique Virtual I/O Server et les partitions logiques client. Les scénarios et les exemples de configuration ci-après vous permettront d’en apprendre davantage sur Virtual I/O Server et ses composants. Scénario : Configuration d’un serveur Virtual I/O Server sans marquage VLAN Ce scénario vous permettra de vous familiariser avec la création d’un réseau sans marquage VLAN. A propos de cette tâche Contexte Vous êtes l’administrateur système chargé de planifier et de configurer le réseau dans un environnement dans lequel s’exécute Virtual I/O Server. Vous souhaitez configurer un sous-réseau logique unique sur le système qui communique avec le commutateur. Objectif L’objectif de ce scénario est de configurer le réseau dans lequel seul un PVID (ID VLAN de port) est utilisé, les paquets ne sont pas marqués et un réseau interne unique est connecté à un commutateur. Aucun port marqué VLAN n’est configuré sur le commutateur Ethernet et toutes les cartes Ethernet virtuelles sont définies à l’aide d’un PVID par défaut unique et aucun autre VID. Conditions préalables et hypothèses v La console HMC (Hardware Management Console) a été installée et configurée. Pour visualiser le fichier PDF de la rubrique Installation et configuration de la console HMC (environ 3 Mo), voir . oemiphai.pdf v Vous devez avoir compris les concepts de partitionnement décrits dans le document Partitionnement logique. Pour visualiser le fichier PDF de la rubrique Partitionnement logique (environ 1 Mo), voir v v v v . oemiphat.pdf La partition logique Virtual I/O Server a été créée et Virtual I/O Server a été installé. Pour plus d’informations, voir «Installation de Virtual I/O Server et des partitions logiques client», à la page 77. Vous avez créé les autres partitions logiques que vous souhaitez ajouter à la configuration de réseau. Vous disposez d’un commutateur Ethernet et d’un routeur à ajouter à la configuration. Vous avez des adresses IP pour toutes les partitions logiques et tous les systèmes à ajouter à la configuration. Cette procédure décrit le mode de configuration dans un environnement HMC; il est toutefois possible d’effectuer cette configuration dans un environnement Integrated Virtualization Manager. Etapes de la configuration La figure suivante montre la configuration qui va être effectuée avec ce scénario. 42 Virtual I/O Server En utilisant la figure précédente comme guide, suivez la procédure ci-après. 1. Configurez un commutateur Ethernet avec des ports non marqués. Vous pouvez également utiliser un commutateur Ethernet qui n’utilise pas le réseau local virtuel (VLAN). 2. Pour le système S1, utilisez la console HMC pour créer une carte Ethernet virtuelle (V11) pour le serveur Virtual I/O Server avec la valeur Trunk (carte de ligne réseau), un PVID paramétré sur 1 et aucun autre VID. 3. Pour le système S1, utilisez la console HMC pour créer les cartes Ethernet virtuelles V12 et V13 pour les partitions logiques S11 et S12, respectivement, avec un PVID paramétré sur 1 et aucun autre VID. 4. Pour le système S1, utilisez la console HMC pour affecter la carte Ethernet physique E11 au Virtual I/O Server et la connecter au port de commutation Ethernet P1. Virtual I/O Server 43 5. Sur le serveur Virtual I/O Server, configurez la carte Ethernet partagée ent2 avec la carte physique ent0 et la carte virtuelle ent1. 6. Démarrez les partitions logiques. Le processus reconnaît les unités virtuelles créées à l’étape 1. 7. Configurez des adresses IP pour S11 (en0), S12 (en0) et S2 (en0) de manière à ce qu’elles appartiennent toutes au même sous-réseau avec le routeur connecté au port P5 du commutateur Ethernet. Résultats Vous pouvez également configurer la carte Ethernet partagée de la partition logique Virtual I/O Server avec des adresses IP du même sous-réseau. Cette opération est obligatoire uniquement pour la connectivité réseau vers la partition logique Virtual I/O Server. Scénario : Configuration d’un serveur Virtual I/O Server avec marquage VLAN Ce scénario vous permettra de vous familiariser avec la création d’un réseau avec marquage VLAN. A propos de cette tâche Contexte Vous êtes l’administrateur système chargé de planifier et de configurer le réseau dans un environnement dans lequel s’exécute Virtual I/O Server. Vous souhaitez configurer le réseau avec deux sous-réseaux logiques et des partitions logiques sur chaque sous-réseau. Objectif L’objectif de ce scénario est de configurer plusieurs réseaux afin qu’ils puissent partager une seule carte Ethernet physique. Les systèmes appartenant au même sous-réseau doivent être situés sur le même réseau local virtuel (VLAN) et donc avoir le même ID VLAN (VID) qui permet les communications sans devoir passer par un routeur. La séparation entre les sous-réseaux est effectuée en s’assurant que les systèmes des deux sous-réseaux sont associés à des ID VLAN différents. Conditions préalables et hypothèses v La console HMC (Hardware Management Console) a été installée et configurée. Pour visualiser le fichier PDF de la rubrique Installation et configuration de la console HMC (environ 3 Mo), voir . oemiphai.pdf v Vous devez avoir compris les concepts de partitionnement décrits dans le document Partitionnement logique. Pour visualiser le fichier PDF de la rubrique Partitionnement logique (environ 1 Mo), voir v v v v . oemiphat.pdf La partition logique Virtual I/O Server a été créée et Virtual I/O Server a été installé. Pour plus d’informations, voir «Installation de Virtual I/O Server et des partitions logiques client», à la page 77. Vous avez créé les autres partitions logiques AIX ou Linux que vous souhaitez ajouter à la configuration de réseau. Vous disposez d’un commutateur Ethernet et d’un routeur à ajouter à la configuration. Vous avez des adresses IP pour toutes les partitions logiques et tous les systèmes à ajouter à la configuration. Vous ne pouvez pas utiliser la fonction de réseau local virtuel (VLAN) dans un environnement Integrated Virtualization Manager. Etapes de la configuration 44 Virtual I/O Server La figure suivante montre la configuration qui va être effectuée avec ce scénario. En utilisant la figure précédente comme guide, suivez la procédure ci-après. Virtual I/O Server 45 1. Configurez v P1 : Port v P2 : Port v P5 : Port v P6 : Port les ports du commutateur Ethernet comme suit : marqué - VID (ID-VLAN) 1, 2 non marqué - PVID (ID-VLAN de port) 1 non marqué - PVID 1 non marqué - PVID 2 Pour plus d’informations sur la configuration des ports, consultez la documentation accompagnant votre commutateur. 2. Pour le système S1, utilisez la console HMC pour créer des cartes Ethernet virtuelles pour le serveur Virtual I/O Server : v Créez la carte Ethernet virtuelle V11 pour le serveur Virtual I/O Server avec la valeur Trunk (carte de ligne réseau) et le VID fixé à 2. Indiquez une valeur de PVID non utilisée. Cette valeur est obligatoire même si elle n’est pas utilisée. v Créez la carte Ethernet virtuelle V12 pour le serveur Virtual I/O Server avec la valeur Trunk (carte de ligne réseau) et le VID fixé à 1. Indiquez une valeur de PVID non utilisée. Cette valeur est obligatoire même si elle n’est pas utilisée. 3. Pour le système S1, utilisez la console HMC pour créer des cartes Ethernet virtuelles pour les autres partitions logiques : v Créez les cartes Ethernet virtuelles V13 et V14 pour les partitions logiques S11 et S12, respectivement, avec un PVID fixé à 2 et aucun autre VID. v Créez les cartes virtuelles V15 et V16 pour les partitions logiques S13 et S14, respectivement, avec un PVID fixé à 1 et aucun autre VID. 4. Pour le système S1, utilisez la console HMC pour affecter la carte Ethernet physique (E11) au Virtual I/O Server et la connecter au port de commutation Ethernet P1. 5. Sur l’interface de ligne de commande Virtual I/O Server, configurez une carte Ethernet partagée ent3 avec la carte physique ent0 et les cartes virtuelles ent1 et ent2. 6. Configurez des adresses IP pour les cartes suivantes : v S13 (en0), S14 (en0) et S2 (en0) appartiennent au réseau local virtuel (VLAN) 1 et figurent sur le même sous-réseau. Le routeur est connecté au port P5 du commutateur Ethernet. v S11 (en0) et S12 (en0) appartiennent au VLAN 2 et figurent sur le même sous-réseau. Le routeur est connecté au port P6 du commutateur Ethernet. Résultats Vous pouvez configurer la carte Ethernet partagée sur la partition logique Virtual I/O Server avec une adresse IP. Cette opération est obligatoire uniquement pour la connectivité réseau vers le Virtual I/O Server. Comme le réseau marqué VLAN est utilisé, vous devez définir des unités VLAN supplémentaires sur les cartes Ethernet partagées avant de configurer les adresses IP. Scénario : Configuration de la reprise par transfert de carte Ethernet partagée Cette section présente un scénario classique de reprise par transfert de carte Ethernet partagée. A propos de cette tâche Contexte Vous êtes l’administrateur système chargé de planifier et de configurer le réseau dans un environnement dans lequel s’exécute Virtual I/O Server. Vous souhaitez assurer une plus grande disponibilité réseau à la 46 Virtual I/O Server partition logique client sur le système. Pour ce faire, vous pouvez configurer une carte Ethernet partagée de secours sur une autre partition logique Virtual I/O Server. Objectif Dans ce scénario, l’objectif est de configurer une carte Ethernet partagée principale et une de secours sur les partitions logiques Virtual I/O Server de manière à ne pas perdre la connexion réseau des partitions logiques client en cas de défaillance de la carte. Conditions préalables et hypothèses v La console HMC (Hardware Management Console) a été installée et configurée. Pour visualiser le fichier PDF de la rubrique Installation et configuration de la console HMC (environ 3 Mo), voir . oemiphai.pdf v Vous devez avoir compris les concepts de partitionnement décrits dans le document Partitionnement logique. Pour visualiser le fichier PDF de la rubrique Partitionnement logique (environ 1 Mo), voir . oemiphat.pdf v Deux partitions logiques Virtual I/O Server distinctes ont été créées et Virtual I/O Server a été installé dans chacune d’elles. Pour plus d’informations, voir «Installation de Virtual I/O Server et des partitions logiques client», à la page 77. v Vous connaissez le principe et le fonctionnement de la reprise par transfert d’une carte Ethernet partagée. Voir «Reprise par transfert de carte Ethernet partagée», à la page 71. v Vous avez créé les autres partitions logiques que vous souhaitez ajouter à la configuration de réseau. v A chaque partition logique Virtual I/O Server est affectée une carte Ethernet physique disponible. v Vous avez des adresses IP pour toutes les partitions logiques et tous les systèmes à ajouter à la configuration. Vous ne pouvez pas utiliser le gestionnaire Integrated Virtualization Manager avec plusieurs partitions logiques Virtual I/O Server sur le même serveur. L’illustration suivante représente une configuration incluant la fonction de reprise par transfert de carte Ethernet partagée. Les partitions logiques client H1 et H2 accèdent au réseau physique via les cartes Ethernet partagées (c’est-à-dire les cartes principales). Les cartes Ethernet virtuelles utilisées dans la configuration de réseau Ethernet partagée sont définies à l’aide des mêmes informations d’appartenance au réseau local virtuel (PVID, VID), mais présentent des propriétés différentes. Un réseau virtuel dédié constitue le canal de contrôle ; il est indispensable pour faciliter la communication entre l’unité Ethernet partagée principale et celle de secours. Virtual I/O Server 47 En utilisant la figure précédente comme guide, suivez la procédure ci-après. 1. Sur la console HMC, créez les cartes Ethernet virtuelles en procédant comme suit : v Configurez les cartes virtuelles à utiliser pour les données en tant que cartes de ligne réseau ; pour ce faire, sélectionnez l’option correspondante. v Affectez des valeurs de priorité différentes (les valeurs autorisées sont comprises entre 1 et 15) à chaque carte virtuelle. v Configurez une autre carte Ethernet virtuelle à utiliser pour le canal de contrôle et attribuez-lui une valeur PVID unique. Assurez-vous d’utiliser le même PVID lors de la création de cette carte Ethernet virtuelle pour les deux partitions logiques Virtual I/O Server. 2. Sur la ligne de commande du serveur Virtual I/O Server, exécutez la commande suivante pour configurer la carte Ethernet partagée. Exécutez cette commande sur les deux partitions logiques Virtual I/O Server : 48 Virtual I/O Server mkvdev -sea carte_physique -vadapter carte_virtuelle -default carte_virtuelle\ -defaultid PVID_carte_virtuelle -attr ha_mode=auto ctl_chan=carte_canal_contrôle Dans ce scénario, par exemple, nous avons exécuté la commande suivante sur les deux partitions logiques Virtual I/O Server : mkvdev -sea ent0 -vadapter ent1 -default ent1 -defaultid 60 -attr ha_mode=auto ctl_chan=ent2 Scénario : Configuration de la fonction de sauvegarde via l’interface réseau sur les partitions logiques client AIX sans marquage VLAN Suivez ce scénario pour vous familiariser avec l’utilisation d’une configuration de fonction de sauvegarde via l’interface réseau dans les clients d’E-S virtuels qui exécutent des partitions logiques AIX et qui ne sont pas configurés pour le marquage VLAN. A propos de cette tâche Contexte Dans ce scénario, vous souhaitez configurer un environnement virtuel à haute disponibilité pour votre réseau en mode pont à l’aide de la méthode de sauvegarde via l’interface réseau (NIB/Network Interface Backup) pour accéder aux réseaux externes à partir de vos clients d’E-S virtuels. Vous n’envisagez pas d’utiliser le marquage VLAN dans la configuration de votre réseau. Cette méthode requiert la configuration d’une seconde carte Ethernet sur un autre réseau local virtuel (VLAN) pour chaque client et l’utilisation d’une carte d’agrégation de liaisons avec les fonctions NIB. Cette configuration n’est disponible que pour les partitions logiques AIX. En règle générale, une configuration de reprise par transfert de carte Ethernet partagée est recommandée pour la plupart des environnements car elle prend en charge les environnements avec ou sans marquage VLAN. Par ailleurs, la configuration NIB est plus complexe qu’une configuration de reprise par transfert de carte Ethernet partagée, car elle doit être implémentée sur chaque client. La configuration de reprise par transfert de carte Ethernet partagée n’était pas disponible avant la version 1.2 de Virtual I/O Server. La configuration NIB était la seule méthode possible pour un environnement virtuel à haute disponibilité. Dans une configuration NIB, vous pouvez également répartir les clients sur les deux cartes Ethernet partagées de sorte que la moitié d’entre eux utilise la première carte Ethernet partagée et que l’autre moitié utilise la seconde carte Ethernet partagée comme carte primaire. Objectif Créez un environnement Ethernet virtuel à l’aide d’une configuration de la sauvegarde via l’interface réseau, comme le montre la figure suivante. Virtual I/O Server 49 Conditions préalables et hypothèses Avant d’exécuter les tâches de configuration, prenez connaissance des conditions préalables et hypothèses suivantes. v La console HMC (Hardware Management Console) a été installée. Pour visualiser le fichier PDF de la v v v v . rubrique Installation et configuration de la console HMC (environ 3 Mo), voir oemiphai.pdf Deux partitions logiques Virtual I/O Server distinctes ont été créées et Virtual I/O Server a été installé dans chacune d’elles. Pour plus d’informations, voir«Installation de Virtual I/O Server et des partitions logiques client», à la page 77. Vous avez créé les autres partitions logiques que vous souhaitez ajouter à la configuration de réseau. A chaque partition logique Virtual I/O Server est affectée une carte Ethernet physique disponible. Vous avez des adresses IP pour toutes les partitions logiques et tous les systèmes à ajouter à la configuration. Tâches de configuration En vous aidant de l’illustration, effectuez les tâches suivantes pour configurer l’environnement virtuel NIB. 50 Virtual I/O Server 1. Créez une connexion LAN entre les serveurs Virtual I/O Server et le réseau externe : a. Configurez une carte Ethernet partagée sur le serveur Virtual I/O Server primaire qui achemine le trafic entre la carte Ethernet virtuelle et le réseau externe. Voir «Configuration d’une carte Ethernet partagée», à la page 108. b. Configurez une carte Ethernet partagée sur le second Virtual I/O Server, comme à l’étape 1. 2. Pour chaque partition logique client, utilisez la console HMC pour créer une carte Ethernet virtuelle dont le port PVID correspond au port PVID du serveur Virtual I/O Server primaire. Elle sera utilisée comme carte primaire. 3. Pour chaque partition logique client, utilisez la console HMC pour créer une seconde carte Ethernet virtuelle dont le port PVID correspond au port PVID du second Virtual I/O Server (de sauvegarde). Elle sera utilisée comme carte de sauvegarde. 4. Créez la configuration de la fonction de sauvegarde via l’interface réseau (NIB) à l’aide de la configuration d’agrégation de liaisons. Assurez-vous que les conditions suivantes sont respectées : a. Sélectionnez la carte Ethernet primaire. b. Sélectionnez la carte de sauvegarde. c. Indiquez l’adresse Internet devant faire l’objet d’un Ping. Sélectionnez l’adresse IP ou le nom d’hôte d’un hôte en dehors du serveur Virtual I/O Server que la configuration NIB continuera de tester pour détecter l’incident Virtual I/O Server. Résultats Remarque : N’oubliez pas que, lorsque vous configurez la sauvegarde via l’interface réseau (NIB) avec deux cartes Ethernet virtuelles, les réseaux internes doivent rester distincts au niveau de Hypervisor. Vous devez par conséquent utiliser différents PVID pour les deux cartes du client et vous ne pouvez pas utiliser d’autres VID sur celles-ci. Scénario : Configuration de la fonction MPIO pour les partitions logiques client AIX La fonction MPIO (Multi-Path I/O) permet d’accroître la disponibilité des ressources SCSI virtuelles en fournissant à ces dernières des chemins redondants. Cette rubrique explique comment configurer la fonction MPIO (Multi-Path I/O) pour les partitions logiques client AIX. Avant de commencer Pour fournir la fonction MPIO à des partitions logiques client AIX, deux partitions logiques de Virtual I/O Server doivent être configurées sur votre système. Cette procédure suppose que les disques soient déjà alloués aux deux partitions logiques Virtual I/O Server impliquées dans cette configuration. A propos de cette tâche Pour configurer la fonction MPIO, procédez comme suit. Dans ce scénario, nous utiliserons, pour la configuration, les disques hdisk5 (dans la première partition logique Virtual I/O Server) et hdisk7 (dans la deuxième partition logique Virtual I/O Server). La figure suivante montre la configuration qui va être effectuée avec ce scénario. Virtual I/O Server 51 En utilisant la figure précédente comme guide, suivez la procédure ci-après. 1. A l’aide de la console HMC, créez les cartes de serveur SCSI sur les deux partitions logiques Virtual I/O Server. 2. A partir de la console HMC, créez deux cartes SCSI de client virtuel sur les partitions logiques client, chacune devant être mappée avec l’une des partitions logiques Virtual I/O Server. 3. Sur l’une des partitions logiques Virtual I/O Server, indiquez les disques disponibles en entrant lsdev -type disk. Les résultats obtenus sont semblables à ce qui suit : name status hdisk3 hdisk4 hdisk5 description Available Available Available MPIO Other FC SCSI Disk Drive MPIO Other FC SCSI Disk Drive MPIO Other FC SCSI Disk Drive Sélectionnez le disque à utiliser dans la configuration MPIO. Dans ce scénario, nous avons sélectionné hdisk5. 4. Déterminez l’identificateur du disque que vous avez sélectionné. Pour plus d’informations, voir «Identification des disques exportables», à la page 105. Dans ce scénario, le disque n’a pas d’identificateur d’attribut de volume IEEE ni d’identificateur unique (UDID). Par conséquent, la détermination de l’identificateur physique (PVID) exige d’exécuter la commande lspv hdisk5. Les résultats obtenus sont semblables à ce qui suit : hdisk5 00c3e35ca560f919 None La deuxième valeur correspond au PVID. Dans le présent scénario, le PVID est 00c3e35ca560f919. Notez cette valeur. 52 Virtual I/O Server 5. Obtenez la liste des attributs du disque en utilisant la commande lsdev. Dans ce scénario, nous avons saisi lsdev -dev hdisk5 -attr. Les résultats obtenus sont semblables à ce qui suit : .. lun_id 0x5463000000000000 Logical Unit Number ID .. .. pvid 00c3e35ca560f9190000000000000000 Physical volume identifier .. reserve_policy single_path Reserve Policy False False True Prenez note des valeurs des attributs lun_id et reserve_policy. Si la valeur de l’attribut reserve_policy n’est pas no_reserve, vous devez la modifier. Pour attribuer la valeur no_reserve à l’attribut reserve_policy, entrez chdev -dev hdiskx -attr reserve_policy=no_reserve. 6. Sur la deuxième partition logique Virtual I/O Server, obtenez la liste des volumes physiques en entrant la commande lspv. Dans le résultat obtenu, repérez le disque disposant du même PVID que le disque identifié précédemment. Dans ce scénario, le PVID du hdisk7 correspond : hdisk7 00c3e35ca560f919 None Conseil : Bien que les valeurs PVID doivent être identiques, les numéros de disque sur les deux partitions logiques Virtual I/O Server peuvent être différents. 7. Déterminez si l’attribut reserve_policy est paramétré sur no_reserve en utilisant la commande lsdev. Dans ce scénario, nous avons saisi lsdev -dev hdisk7 -attr. Les résultats obtenus sont semblables à ce qui suit : .. lun_id 0x5463000000000000 Logical Unit Number ID .. pvid 00c3e35ca560f9190000000000000000 Physical volume identifier .. reserve_policy single_path Reserve Policy False False Si la valeur de l’attribut reserve_policy n’est pas no_reserve, vous devez la modifier. Pour attribuer la valeur no_reserve à l’attribut reserve_policy, entrez chdev -dev hdiskx -attr reserve_policy=no_reserve. 8. Sur les deux partitions logiques Virtual I/O Server, utilisez la commande mkvdev pour créer les unités virtuelles. Pour chacune, veillez à utiliser la valeur hdisk appropriée. Dans ce scénario, nous utilisons les commandes suivantes : v Sur la première partition logique Virtual I/O Server, nous avons saisi mkvdev -vdev hdisk5 -vadapter vhost5 -dev vhdisk5. v Sur la deuxième partition logique Virtual I/O Server, nous avons entré mkvdev -vdev hdisk7 -vadapter vhost7 -dev vhdisk7. Le même numéro d’unité logique (LUN) est à présent exporté vers la partition logique du client à partir de deux partitions logiques de Virtual I/O Server. 9. Vous pouvez désormais installer AIX sur la partition logique client. Pour plus d’informations sur l’installation d’AIX, voir Installation d’AIX dans un environnement partitionné, dans l’Information Center serveurs et AIX. 10. Une fois que vous avez installé AIX sur la partition logique client, vérifiez MPIO en exécutant la commande suivante : lspath Les résultats obtenus sont semblables à ce qui suit : Enabled hdisk0 vscsi0 Enabled hdisk0 vscsi1 En cas d’échec de l’une des partitions logiques de Virtual I/O Server, le résultat de la commande lspath sera du type suivant : Virtual I/O Server 53 Failed hdisk0 vscsi0 Enabled hdisk0 vscsi1 A moins que l’attribut de vérification de l’état de santé (health check) ne soit activé, l’état reste Failed (Echec), et ce même après récupération du disque. Pour que l’état soit mis à jour automatiquement, entrez chdev -l hdiskx -a hcheck_interval=60 -P. Pour que cette modification prenne effet, vous devez redémarrer la partition logique client. Planification de Virtual I/O Server Cette rubrique vous éclaire sur les différents points à prendre en compte lors de la planification de Virtual I/O Server. La présente section fournit des informations sur la planification relative au Virtual I/O Server. Spécifications Cette rubrique définit les différentes possibilités de configuration, notamment le nombre minimal de ressources nécessaires et le nombre maximal de ressources autorisées. Pour activer le serveur Virtual I/O Server, vous devez disposer de la fonctionnalité matérielle PowerVM Editions (ou Advanced POWER Virtualization). Vous devez également disposer d’une partition logique possédant suffisamment de ressources à partager avec les autres partitions logiques. Vous trouverez ci-après une liste des dispositifs matériels minimaux nécessaires à la création du serveur Virtual I/O Server. Tableau 15. Ressources requises Ressource Configuration requise Console HMC ou gestionnaire La console HMC ou le gestionnaire Integrated Virtualization Manager est nécessaire IVM pour créer la partition logique et allouer les ressources. Carte de mémoire La partition logique du serveur nécessite au moins une carte de mémoire. Disque physique Le disque doit être d’au moins 30 Go. Ce disque peut être partagé. Carte Ethernet Une carte Ethernet est nécessaire si vous souhaitez acheminer le trafic réseau de cartes Ethernet virtuelles vers une carte Ethernet partagée. Mémoire Pour les systèmes équipés du processeur POWER6, vous devez disposer d’au moins 768 Mo de mémoire. Pour les systèmes équipés du processeur POWER5, vous devez disposer d’au moins 512 Mo de mémoire. Processeur Un minimum de 0,1 processeur est requis. Le tableau suivant illustre les limitations liées à la gestion de l’espace de stockage. Tableau 16. Limitations liées à la gestion de l’espace de stockage Catégorie Limitation Groupes de volumes 4096 par système Volumes physiques 1024 par groupe de volumes Partitions physiques 1024 par groupe de volumes Volumes logiques 1024 par groupe de volumes Partitions logiques Aucune limite 54 Virtual I/O Server Limites et restrictions Informations sur les limites de configuration de Virtual I/O Server. Tenez compte des points suivants lors de l’implémentation de l’interface SCSI virtuelle : v L’interface SCSI virtuelle prend en charge les normes de connexion suivantes pour les unités de support : Fibre Channel, SCSI, SCSI RAID, iSCSI, SAS, SATA, USB et IDE. v Le protocole SCSI définit les commandes obligatoires et facultatives. L’interface SCSI virtuelle prend en charge toutes les commandes obligatoires, mais ne prend pas en charge toutes les commandes facultatives. v L’utilisation d’unités SCSI virtuelles a une incidence sur les performances. Le modèle client/serveur étant constitué de couches de fonctions, l’utilisation de l’interface SCSI virtuelle peut consommer davantage de cycles de processeur lors du traitement des demandes d’E-S. v Virtual I/O Server est une partition logique dédiée ne devant être utilisée que pour les opérations liées au Virtual I/O Server. Aucune autre application ne peut s’exécuter sur la partition logique Virtual I/O Server. v Une dégradation des performances peut avoir lieu en cas de ressources insuffisantes. Si un Virtual I/O Server fournit beaucoup de ressources aux autres partitions logiques, vérifiez que vous disposez d’une puissance de processeur suffisante. En cas de charge de travail élevée au niveau des cartes Ethernet virtuelles et des disques virtuels, les partitions logiques peuvent subir des retards lors de l’accès aux ressources. v Les volumes logiques et les fichiers exportés en tant que disques SCSI virtuels sont toujours configurés comme des unités à accès unique sur la partition logique client. v Les volumes logiques ou fichiers exportés en tant que disques SCSI virtuels appartenant au groupe de volumes root (rootvg) ne sont pas persistants si vous réinstallez Virtual I/O Server. En revanche, ils sont persistants si vous mettez à jour Virtual I/O Server avec un nouveau Service Pack. Par conséquent, avant de réinstaller Virtual I/O Server, veillez à sauvegarder les disques virtuels des clients correspondants. Lors de l’exportation de volumes logiques, il est préférable d’exporter les volumes logiques d’un autre groupe que ceux du groupe de volumes root. Lors de l’exportation de fichiers, il est préférable de créer des pools de stockage de fichiers et le référentiel de supports virtuels dans un pool de stockage parent qui ne soit pas le groupe de volumes root. Tenez compte des points suivants lors de l’implémentation de cartes virtuelles : v Seules les cartes Ethernet peuvent être partagées. Les autres types de carte de réseau ne peuvent pas l’être. v L’acheminement IP n’est pas pris en charge sur le serveur Virtual I/O Server. v Le nombre maximal de cartes virtuelles peut être compris entre 2 et 65 536. Toutefois, si vous attribuez une valeur supérieure à 1024 au nombre maximum de cartes virtuelles, il est possible que la partition logique ne parvienne pas à s’activer ou que le microprogramme du serveur ait besoin de davantage de mémoire système pour gérer les cartes virtuelles. Virtual I/O Server prend en charge les partitions logiques client qui exécutent les systèmes d’exploitation suivants sur les serveurs équipés du processeur POWER6 ci-après. Tableau 17. Prise en charge de système d’exploitation pour les partitions logiques client du serveur Virtual I/O Server Système d’exploitation Serveurs à base de processeurs POWER6 AIX 5.3 ou version ultérieure Tous les serveurs équipés du processeur POWER6 SUSE Linux Enterprise Server 10 Service Pack 2 ou supérieur v 19F/HA SUSE Linux Enterprise Server 10 Service Pack 1 v 03E/4A v 25F/2A v 04E/8A v 17M/MA Virtual I/O Server 55 Tableau 17. Prise en charge de système d’exploitation pour les partitions logiques client du serveur Virtual I/O Server (suite) Système d’exploitation Serveurs à base de processeurs POWER6 Red Hat Enterprise Linux version 5.2 v 19F/HA v 25F/2A Red Hat Enterprise Linux version 5.1 v 03E/4A v 04E/8A v 17M/MA Red Hat Enterprise Linux version 4.7 19F/HA Red Hat Enterprise Linux version 4.6 25F/2A Red Hat Enterprise Linux version 4.5 v 03E/4A v 04E/8A v 17M/MA Virtual I/O Server prend en charge les partitions logiques client qui exécutent les systèmes d’exploitation suivants sur les serveurs équipés du processeur POWER5 suivants : v v v v v AIX 5.3 (ou plus) SUSE Linux Enterprise Server 9 (ou plus) SUSE Linux Enterprise Server 10 (ou plus) Red Hat Enterprise Linux version 4 (ou plus) Red Hat Enterprise Linux version 5 (ou ultérieure) Prévision de la capacité Cette rubrique fournit des remarques sur la prévision de la capacité pour le serveur Virtual I/O Server, notamment des informations sur les limites et les ressources matérielles. Les partitions logiques client peuvent utiliser des unités virtuelles, des unités dédiées ou une association de ces deux types d’unité. Avant de commencer à configurer et à installer Virtual I/O Server et des partitions logiques client, planifiez les ressources qui seront utilisées par chaque partition logique. Vous devez prendre en compte les exigences de débit et la charge de travail globale pour décider si vous utiliserez des unités virtuelles ou dédiées, et pour définir les ressources à allouer au Virtual I/O Server. Si on les compare aux disques SCSI dédiés, les disques SCSI virtuels peuvent permettre d’obtenir des valeurs de débit similaires, selon différents facteurs (en particulier, la charge de travail et les ressources de l’unité SCSI virtuelle. Toutefois, les unités SCSI virtuelles sollicitent généralement davantage les processeurs que les unités de stockage directement connectées. Planification de l’interface SCSI virtuelle Informations relatives à la planification de la capacité et aux performances de l’interface SCSI. En termes de performances, la qualité varie selon les sous-systèmes d’E-S. Il en va de même pour l’interface SCSI virtuelle. La présente section décrit les différences de performance entre les E-S physiques et virtuelles. Vous y trouverez les informations suivantes : Temps d’attente de l’interface SCSI virtuelle : Informations relatives au temps d’attente lié à l’interface SCSI virtuelle. Le temps d’attente d’entrée-sortie (E-S) correspond au délai entre le lancement et l’exécution d’une opération d’E-S. Prenons l’exemple d’un programme qui exécute 1000 opérations d’E-S aléatoires sur disque, une par une. Si le temps nécessaire pour exécuter une opération moyenne est de 6 millisecondes, 56 Virtual I/O Server le programme ne s’exécute pas en moins de 6 secondes. Toutefois, si le temps de réponse moyen est abaissé à 3 millisecondes, le temps d’exécution du programme peut être réduit de 3 secondes. Les applications à unités d’exécutions multiples ou qui utilisent des E-S asynchrones peuvent être moins sensibles aux temps d’attente mais dans la plupart des cas, des temps d’attente réduits permettent d’améliorer les performances. L’interface SCSI virtuelle est mise en oeuvre en tant que modèle client-serveur, ce qui se traduit par un temps d’attente qui n’existe pas avec des unités de stockage connectées directement. Ce temps d’attente peut être de 0,03 à 0,06 millisecondes par opération d’E-S, en fonction principalement de la longueur de bloc de la demande. Le temps d’attente moyen est comparable pour les unités virtuelles basées sur des disques physiques et des volumes logiques. Les temps d’attente liés à l’utilisation d’un Virtual I/O Server dans une partition logique de processeur partagé peuvent être plus élevés et plus variables qu’avec un Virtual I/O Server dans une partition dédiée. Pour plus d’informations sur les différences de performances entre les partitions logiques dédiées et les partitions logiques de traitement partagé, voir «Considérations sur le dimensionnement de l’interface SCSI virtuelle», à la page 58. Le tableau suivant identifie les temps d’attente (en millisecondes) pour des transmissions de différentes tailles de bloc sur des disques physiques et des disques SCSI virtuels associés à des volumes logiques. Tableau 18. Augmentation du temps de réponse d’E-S sur disque en fonction de la longueur de bloc (en millisecondes) Type 4 ko 8 ko 32 ko 64 ko 128 ko Disque physique 0,032 0,033 0,033 0,040 0,061 Volume logique 0,035 0,036 0,034 0,040 0,063 Le temps de réponse moyen croît avec l’augmentation de la longueur de bloc. L’augmentation des temps d’attente d’une opération SCSI virtuelle est relativement plus importante sur des longueurs de bloc courtes en raison du temps de réponse moins élevé qui leur est associé. Bande passante de l’interface SCSI virtuelle : Informations relatives à la largeur de bande de l’interface SCSI virtuelle. La largeur de bande d’entrée-sortie correspond à la quantité maximale de données pouvant être lue ou écrite sur une unité de stockage dans une unité de temps. La largeur de bande peut être mesurée à partir d’une seule unité d’exécution ou d’un ensemble d’unités d’exécution s’exécutant simultanément. Même si de nombreuses applications client sont plus sensibles au temps d’attente qu’à la largeur de bande, la largeur de bande joue un rôle essentiel dans de nombreuses opérations courantes, telles que la sauvegarde et la restauration de données rémanentes. Le tableau suivant compare les résultats des tests de largeur de bande pour l’interface SCSI virtuelle et les performances d’E-S physiques. Lors des tests, une unité d’exécution unique fonctionne en mode séquentiel sur un fichier constant de 256 Mo avec un Virtual I/O Server s’exécutant dans une partition dédiée. D’autres opérations d’E-S sont émises lors de la lecture ou de l’écriture sur ce fichier avec une longueur de bloc plus petite. Le test a été effectué à l’aide d’un serveur de stockage avec le code fonction 6239 (type 5704/0625) et une carte à canal optique 2 gigabit associée à un élément RAID0 LUN composé de cinq disques physiques provenant d’un système de disques DS4400 (auparavant un système FAStT700). Le tableau dresse une comparaison de la largeur de bande mesurée en mégaoctets par seconde (Mo/s) via une interface SCSI virtuelle et une connexion locale pour des lectures avec des opérations de longueur de bloc variable. La différence entre les E-S virtuelles et les E-S physiques dans ces tests est attribuable au temps d’attente plus long lorsque les E-S virtuelles sont utilisées. En raison du nombre plus important d’opérations, la largeur de bande mesurée avec des petites longueurs de bloc est moins élevée qu’avec des longueurs de bloc plus grandes. Virtual I/O Server 57 Tableau 19. Comparaison de la largeur de bande physique (en Mo/s) entre le mode physique et le mode interface SCSI virtuelle Type d’E-S 4 ko 8 ko 32 ko 64 ko 128 ko Mode virtuel 20,3 35,4 82,6 106,8 124,5 Physique 24,3 41,7 90,6 114,6 132,6 Considérations sur le dimensionnement de l’interface SCSI virtuelle : Cette rubrique décrit les critères de taille de mémoire et de processeur à prendre en compte lors de l’implémentation de l’interface SCSI virtuelle. Lorsque vous concevez et implémentez un environnement d’application d’interface SCSI virtuelle, prenez en compte les facteurs suivants concernant le dimensionnement : v Quantité de mémoire allouée au Virtual I/O Server v Autorisation d’utilisation des processeurs du serveur Virtual I/O Server v Exécution Virtual I/O Server en tant que partition logique de processeur partagé ou en tant que partition logique de processeur dédié v Limitation de taille de transfert maximale pour les unités physiques et les clients AIX Il n’est pas nécessaire de prendre en compte l’impact au niveau des processeurs des E-S virtuelles sur le client. Les cycles de processeur exécutés sur le client pour effectuer une opération d’E-S de l’interface SCSI virtuelle sont comparables à ceux d’une unité d’E-S connectée en local. Il n’y a donc pas lieu de procéder au dimensionnement sur la partition logique client pour une tâche connue. Ces techniques de dimensionnement ne prévoient pas la combinaison de la fonction Ethernet partagée avec le serveur SCSI virtuel. Si ces deux techniques sont associées, pensez à ajouter des ressources au compte pour l’activité Ethernet partagée avec l’interface SCSI virtuelle. Dimensionnement de l’interface SCSI virtuelle à l’aide des partitions logiques d’un processeur dédié L’allocation d’utilisation des processeurs requise pour un serveur SCSI virtuel est basée sur les débits d’E-S maximum nécessaires. Comme les serveurs SCSI virtuels ne s’exécutent généralement pas à des débits d’E-S maximum en permanence, on risque de ne pas tirer parti du temps processeur disponible lors de l’utilisation des partitions logiques de processeur dédié. La première des méthodes de dimensionnement ci-dessous requiert une bonne connaissance des débits d’E-S et des tailles d’E-S nécessaires sur le serveur SCSI virtuel. Avec la seconde, le serveur SCSI virtuel est dimensionné en fonction de la configuration d’E-S. La méthode de dimensionnement utilisée repose sur l’observation que le temps processeur requis pour effectuer une opération d’E-S sur le serveur SCSI virtuel est relativement constant pour une taille d’E-S donnée. Il s’agit en fait d’une simplification car les différents pilotes de périphérique offrent des performances légèrement différentes. Toutefois, dans la plupart des situations, les périphériques d’E-S pris en charge par le serveur SCSI virtuel sont suffisamment similaires. Le tableau suivant montre le nombre approximatif de cycles par seconde pour les opérations sur disque physique et sur volume logique sur un processeur 1,65 Ghz. Ces chiffres sont mesurés au niveau du processeur physique ; on suppose qu’une opération de traitement multitâche simultané (SMT) est effectuée. Pour les autres fréquences, l’adaptation de ces valeurs en calculant le rapport des fréquences (par exemple, 1,5 Ghz = 1,65 Ghz / 1,5 Ghz X nombre de cycles par opération) donne un résultat suffisamment précis pour que le dimensionnement convienne. Tableau 20. Nombre approximatif de cycles par seconde sur une partition logique 1,65 Ghz Type de disque 4 ko 8 ko 32 ko 64 ko 128 ko Disque physique 45 000 47 000 58 000 81 000 120 000 58 Virtual I/O Server Tableau 20. Nombre approximatif de cycles par seconde sur une partition logique 1,65 Ghz (suite) Type de disque 4 ko 8 ko 32 ko 64 ko 128 ko Volume logique 49 000 51 000 59 000 74 000 105.000 Prenons l’exemple d’un Virtual I/O Server qui utilise trois partitions logiques client pour le stockage sur disque physique. La première partition logique client requiert un maximum de 7000 opérations de 8 Ko par seconde. La deuxième requiert un maximum de 10 000 opérations de 8 Ko par seconde. La troisième nécessite un maximum de 5000 opérations de 128 Ko par seconde. Le nombre de processeurs 1,65 Ghz nécessaire est d’environ ((7 000 × 47 000 + 10 000 × 47 000 + 5 000 × 120 000) / 1 650 000 000) = 0,85 processeur, ce qui équivaut à un processeur unique lors de l’utilisation d’une partition logique de processeur dédié. Si le débit d’E-S des partitions logiques client n’est pas connu, vous pouvez dimensionner le serveur Virtual I/O Server en fonction du débit d’E-S maximum du sous-système de stockage connecté. Ce dimensionnement peut être orienté vers des opérations d’E-S de petite ou de grande taille. Un dimensionnement par rapport à la capacité maximale d’opérations d’E-S volumineuses équilibre la capacité de processeur du serveur Virtual I/O Server en fonction de la largeur de bande d’E-S de l’unité d’E-S connectée. Cette méthode présente un aspect négatif dans la plupart des cas : il est affecté plus d’autorisations d’utilisation des processeurs au Virtual I/O Server que ce qui est généralement utilisé. Prenons l’exemple d’un Virtual I/O Server qui gère 32 disques SCSI physiques. Il est possible d’établir un nombre maximal de processeurs requis en se basant sur des estimations des débits d’E-S pouvant être atteints par les disques. Si vous savez que la charge de travail consiste principalement en opérations aléatoires de 8096 octets, vous pouvez en déduire que chaque disque peut prendre en charge environ 200 opérations d’E-S par seconde (unités 15000 tours par minute). Au maximum, Virtual I/O Server doit gérer environ 32 disques × 200 opérations d’E-S par seconde × 47 000 cycles par opération, soit les performances d’environ 0,19 processeur. Sous un autre angle, un Virtual I/O Server équipé d’un processeur doit pouvoir prendre en charge plus de 150 disques exécutant des opérations d’E-S aléatoires de 8096 octets. Par ailleurs, si Virtual I/O Server est dimensionné pour la largeur de bande maximale, le résultat est un nombre plus grand de processeurs. La différence est due au fait que la largeur de bande maximale suppose des E-S séquentielles. Comme les disques sont plus efficaces pour des opérations d’E-S séquentielles de grande taille que pour des opérations d’E-S aléatoires de petite taille, un nombre beaucoup plus élevé d’opérations d’E-S par seconde peut être exécuté. Prenons l’exemple de disques pouvant prendre en charge 50 Mo par seconde pour des opérations d’E-S de 128 Ko. Cette situation implique que chaque disque peut effectuer en moyenne 390 opérations d’E-S par seconde. Par conséquent, la puissance de traitement requise pour la prise en charge de 32 disques exécutant chacun 390 opérations d’E-S par seconde avec un coût de fonctionnement de 120 000 cycles (32 X 390 X 120 000 / 1 650 000 000) est de 0,91 processeur environ. Un Virtual I/O Server équipé d’un processeur doit pouvoir utiliser 32 disques rapides avec un rendement maximal. Dimensionnement du serveur SCSI virtuel à l’aide des partitions logiques d’un processeur partagé La répartition de serveurs SCSI virtuels en partitions logiques de processeur partagé permet un dimensionnement des ressources processeur plus adéquat et une récupération potentielle du temps processeur non utilisé par des partitions logiques non bridées. Toutefois, l’utilisation de partitions de processeur partagé pour les serveurs SCSI virtuels peut souvent augmenter le temps de réponse d’E-S et rendre plus complexe le dimensionnement des autorisations d’utilisation des processeurs. La méthode de dimensionnement doit être basée sur le même coût de fonctionnement pour les serveurs d’E-S à partitions logiques dédiées, avec l’ajout de la possibilité de l’exécution dans des partitions Virtual I/O Server 59 logiques de processeur partagé. Configurez Virtual I/O Server en mode non bridé. Ainsi, si Virtual I/O Server est sous-dimensionné, il est possible d’obtenir du temps processeur supplémentaire en fonction des opérations d’E-S. Comme le temps d’attente d’E-S avec une interface SCSI virtuelle dépend d’un certain nombre de conditions, procédez comme suit si une partition logique a des besoins importants en termes d’E-S : v Configurez la partition logique avec des E-S physiques si la configuration le permet. v Dans la plupart des cas, la partition logique Virtual I/O Server peut utiliser un processeur partagé, non bridé. Dimensionnement de la mémoire du serveur SCSI virtuel Le dimensionnement de la mémoire dans l’interface SCSI virtuelle est simplifié dans la mesure où aucune mise en mémoire cache des données de fichier n’est effectuée dans la mémoire du serveur SCSI virtuel. De ce fait, les besoins en mémoire du serveur SCSI virtuel sont relativement modestes. Avec des configurations d’E-S importantes et des débits de données très élevés, une allocation de 1 Go de mémoire au serveur SCSI virtuel est probablement suffisante. 512 Mo seront sans doute suffisants pour des situations impliquant des débits d’E-S peu élevés et un nombre réduit de disques connectés. Limitation de taille de transfert maximale de l’interface SCSI virtuelle Si vous ajoutez une autre unité cible virtuelle à la carte serveur SCSI virtuelle et que la taille de transfert maximale de la nouvelle unité cible virtuelle est inférieure à celle des autres unités configurées sur cette carte, Virtual I/O Server ne montre pas la nouvelle unité virtuelle au client. Lors de la création de l’unité cible virtuelle, Virtual I/O Server affiche un message indiquant que le client ne verra pas la nouvelle unité cible tant que vous n’aurez pas redémarré le client. Pour afficher la taille de transfert maximale d’une unité physique, utilisez la commande suivante : lsdev -attr max_transfer -dev hdiskN Planification des cartes Ethernet partagées Cette section fournit des informations sur les performances et la prévision de la capacité de la carte Ethernet partagée. La présente section contient des informations sur la planification et les performances des cartes Ethernet partagées sur le serveur Virtual I/O Server. Configuration requise pour le réseau : Cette rubrique fournit des informations permettant de dimensionner de façon précise l’environnement de cartes Ethernet partagées. Pour planifier l’utilisation de cartes Ethernet partagées, vous devez déterminer vos besoins en matière de réseau. Cette section présente les points à prendre en compte lors du dimensionnement de l’environnement de cartes Ethernet partagées. Le dimensionnement d’un Virtual I/O Server pour une carte Ethernet partagée requiert la prise en compte des facteurs suivants : v Définition de la largeur de bande cible (Mo par seconde), ou besoins en débit de transactions (opérations par seconde). Les performances cible de la configuration doivent être déterminées à partir de vos exigences de charge de travail. v Définition du type de charge de travail (orienté flots de données ou transactions). v Identification de la taille d’unité de transmission maximale (MTU) qui sera utilisée (1500 octets ou grandes trames). v Choix d’un environnement avec ou sans unités d’exécution pour la carte Ethernet partagée. v Connaissance des taux de débit offerts par différentes cartes Ethernet (voir Sélection de cartes). v Détermination des cycles de processeur requis par octet de débit ou par transaction (voir Allocation de processeur). 60 Virtual I/O Server Exigences en termes de largeur de bande Il faut avant tout déterminer la largeur de bande cible sur la carte Ethernet physique du serveur Virtual I/O Server. Cela permet d’identifier le débit de transfert possible entre Virtual I/O Server et les partitions logiques client. Une fois que le débit à atteindre est connu, le type et le nombre adéquats de cartes de réseau peuvent être sélectionnés. Par exemple, vous pouvez utiliser des cartes Ethernet présentant de différents débits. Une ou plusieurs cartes peuvent être utilisées sur chaque réseau ou des cartes peuvent être combinées en utilisant l’agrégation de liaisons (ou EtherChannel). Type de charge de travail Le type de charge de travail prévu doit être pris en compte : flots de données pour les charges de travail (transferts de fichiers ou sauvegarde de données, par exemple) ou charges de travail constituées de petites transactions (par exemple, des appels de procédure distante, RPC). Une charge de travail de type flot de données est constituée de paquets réseau complets volumineux et de paquets TCP plus petits qui leur sont associés. Les charges de travail de type transaction impliquent généralement des paquets plus petits, ou parfois des demandes de petite taille telles qu’une adresse URL et une réponse plus grande, telle qu’une page Web. Il est fréquent qu’un Virtual I/O Server ait à prendre en charge des flots de données et des petits paquets. Dans ce cas, choisissez la taille en fonction des deux modèles. Taille MTU La taille de MTU (unité de transmission maximale) des cartes de réseau doit également être prise en compte. La MTU Ethernet standard est de 1500 octets. Les liaisons Gigabit Ethernet et 10 Gigabit Ethernet peuvent prendre en charge des grandes trames de 9000 octets. Les grandes trames peuvent réduire les cycles de processeur pour les charges de travail de type flot de données. En revanche, pour des charges de travail plus petites, des tailles de MTU élevées ne contribueront peut-être pas à réduire les cycles de processeur. Environnement avec ou sans unités d’exécution Utilisez le mode avec unités d’exécution lorsque l’interface SCSI virtuelle est exécutée sur la même partition logique de Virtual I/O Server que la carte Ethernet partagée. Le mode avec unités d’exécution permet de s’assurer que l’interface SCSI virtuelle et la carte Ethernet partagée partagent les ressources du processeur de manière adaptée. Toutefois, l’utilisation d’unités d’exécution augmente la longueur des chemins d’accès aux instructions, ce qui nécessite des cycles de processeur supplémentaires. Si la partition logique Virtual I/O Server est dédiée uniquement à l’exécution d’unités Ethernet partagées (et des unités virtuelles Ethernet associées), les cartes doivent être configurées de manière à ce que l’utilisation d’unités d’exécution soit désactivée. Pour plus d’informations, voir «Allocation de processeur», à la page 64. Débit des cartes Le fait de connaître les capacités de débit de différentes cartes Ethernet peut vous aider à déterminer les cartes à utiliser comme cartes Ethernet partagées et le nombre de cartes requises. Pour plus d’informations, voir «Sélection de cartes», à la page 62. Autorisation d’utilisation des processeurs Vous devez déterminer la puissance de processeur requise pour transférer les données via les cartes au débit souhaité. Les pilotes de périphérique de réseau consomment généralement une quantité importante de ressources processeur. De petits paquets peuvent entrer à un débit plus élevé et utiliser plus de cycles de processeur que les charges de travail à paquets plus volumineux. Les charges de travail à paquets volumineux sont généralement limitées par la largeur de bande du câble réseau et entrent à un débit plus lent. Ils nécessitent donc moins de puissance de processeur que les charges de travail à petits paquets pour la quantité de données transférées. Virtual I/O Server 61 Sélection de cartes : Cette section fournit les attributs et caractéristiques de performances des différents types de carte Ethernet pour vous permettre de choisir les cartes à utiliser dans votre environnement. Cette section fournit les débits approximatifs de différentes cartes Ethernet définies avec des tailles de MTU (unité de transmission maximale) variées. Vous pouvez ainsi déterminer les cartes requises pour configurer un Virtual I/O Server. Pour ce faire, vous devez connaître le débit souhaité pour la partition logique client. Voici quelques informations générales concernant le débit réseau. Ces chiffres ne sont pas propres à une installation et peuvent servir d’instructions d’ordre général pour le dimensionnement. Dans les tableaux suivants, les estimations des vitesses 100 Mbit, 1 Gbit et 10 Gbit sont arrondies à l’unité inférieure. Tableau 21. Débits de flot de données simplex (monodirectionnel) Vitesse de la carte Débit approximatif Ethernet 10 Mbit 1 Mo/seconde Ethernet 100 Mbit 10 Mo/seconde Ethernet 1000 Mbit (Gigabit Ethernet) 100 Mo/seconde Ethernet 10 000 Mbit (10 Gigabit Ethernet, carte Ethernet hôte ou carte Ethernet virtuelle intégrée) 1000 Mo/seconde Tableau 22. Débits en duplex intégral (bidirectionnel) sur un réseau en duplex intégral Vitesse de la carte Débit approximatif Ethernet 10 Mbit 2 Mo/seconde Ethernet 100 Mbit 20 Mo/seconde Ethernet 1000 Mbit (Gigabit Ethernet) 150 Mo/seconde Ethernet 10 000 Mbit (10 Gigabit Ethernet, carte Ethernet hôte ou carte Ethernet virtuelle intégrée) 1500 Mo/seconde Les tableaux suivants répertorient les débits de charge réseau maximum qui correspondent aux débits de données de charge utilisateur pouvant être obtenus à l’aide de programmes basés sur sockets pour des applications faisant circuler des flots de données. Les débits dépendent du débit binaire du réseau, de la taille MTU, du temps système de niveau physique (tel que les délais intertrames et les bits initiaux), des en-têtes de liaison de données et des en-têtes TCP/IP. On suppose qu’un processeur dont la vitesse se mesure en Gigahertz est utilisé. Ces chiffres sont optimaux pour un réseau local unique. Les résultats obtenus peuvent varier si le trafic réseau circule par le biais de périphériques réseau supplémentaires. Dans les tableaux suivants, le débit binaire brut correspond au débit binaire de support physique et ne reflète pas les délais intertrames, les bits initiaux, les en-têtes et en-queues de liaison de données. Les délais intertrames, les bits initiaux, les en-têtes et en-queues de liaison de données peuvent diminuer le débit binaire utilisable effectif du câble. Les débits de flot de données monodirectionnel (simplex) TCP sont les débits qui peuvent être obtenus en envoyant des données d’une machine à une autre dans un test de mémoire à mémoire. Un support en duplex intégral peut généralement offrir des performances légèrement supérieures parce que les paquets d’accusé de réception TCP peuvent circuler sans utiliser le même fil que les paquets de données entrants. 62 Virtual I/O Server Tableau 23. Débits de flot de données monodirectionnels (simplex) Type de réseau Débit binaire brut (Mbit) Débit de charge (Mbit) Débit de charge (Mo) Ethernet 10 Mbit, semi-duplex 10 6 0,7 Ethernet 10 Mbit, duplex intégral 10 (20 Mbit en duplex intégral) 9,48 1,13 Ethernet 100 Mbit, semi-duplex 100 62 7,3 Ethernet 100 Mbit, duplex intégral 100 (200 Mbit en duplex intégral) 94,8 11,3 Ethernet 1000 Mbit, duplex intégral, MTU de 1500 1000 (2000 Mbit en duplex intégral) 948 113 Ethernet 1000 Mbit, duplex intégral, MTU de 9000 1000 (2000 Mbit en duplex intégral) 989 117,9 Ethernet 1000 Mbit, duplex 10000 intégral, carte Ethernet hôte (ou carte Ethernet virtuelle intégrée) MTU de 1500 9479 1130 Ethernet 1000 Mbit, duplex 10000 intégral, carte Ethernet hôte (ou carte Ethernet virtuelle intégrée) MTU de 9000 9899 1180 Les données circulent dans les deux directions pour les charges de travail de type flot de données TCP en duplex intégral. Un support en duplex intégral peut s’avérer plus avantageux pour les charges de travail pouvant envoyer et recevoir simultanément des paquets. Certains supports, par exemple Ethernet en mode semi-duplex, ne peuvent pas envoyer et recevoir des paquets simultanément. Ils ne fonctionneront pas mieux et diminueront les performances pour des charges de travail en mode duplex. Avec des charges de travail duplex, le débit n’est pas entièrement doublé par rapport à des charges de travail simplex parce que les paquets d’accusé de réception TCP renvoyés par le destinataire utilisent la même voie que les paquets de données circulant dans la même direction. Tableau 24. Débits de flot de données bidirectionnels (duplex) Type de réseau Débit binaire brut (Mbit) Débit de charge (Mbit) Débit de charge (Mo) Ethernet 10 Mbit, semi-duplex 10 5,8 0,7 Ethernet 10 Mbit, duplex intégral 10 (20 Mbit en duplex intégral) 18 2,2 Ethernet 100 Mbit, semi-duplex 100 58 7 Ethernet 100 Mbit, duplex intégral 100 (200 Mbit en duplex intégral) 177 21,1 Ethernet 1000 Mbit, duplex intégral, MTU de 1500 1000 (2000 Mbit en duplex intégral) 1470 (1660 au maximum) 175 (198 au maximum) Ethernet 1000 Mbit, duplex intégral, MTU de 9000 1000 (2000 Mbit en duplex intégral) 1680 (1938 au maximum) 200 (231 au maximum) Ethernet 10 000 Mbit, carte Ethernet hôte (ou carte Ethernet virtuelle intégrée), duplex intégral, MTU de 1500 10000 14680 (15099 au maximum) 1750 (1800 au maximum) Virtual I/O Server 63 Tableau 24. Débits de flot de données bidirectionnels (duplex) (suite) Type de réseau Débit binaire brut (Mbit) Débit de charge (Mbit) Débit de charge (Mo) Ethernet 10 000 Mbit, carte Ethernet hôte (ou carte Ethernet virtuelle intégrée), duplex intégral, MTU de 9000 10000 16777 (19293 au maximum) 2000 (2300 au maximum) Remarque : 1. Les valeurs maximales représentent un débit optimal avec plusieurs sessions TCP s’exécutant dans les deux directions. Les autres débits correspondent à une session TCP unique. 2. Les débits duplex Ethernet 1000 Mbit (Gigabit Ethernet) correspondent à une carte PCI-X dans un emplacement PCI-X. 3. Les débits de données sont obtenus avec TCP/IP utilisant le protocole IPv4. RFC 1323 doit être activé pour les cartes dont la taille MTU est fixée à 9000. Allocation de processeur : Cette section contient des instructions d’allocation de processeur pour les partitions logiques de processeur dédiées et les partitions logiques de processeur partagé. Ces instructions sont différentes pour chaque situation, car une liaison Ethernet avec une taille MTU de 1500 octets utilise plus de cycles de processeur qu’une liaison Ethernet exécutant des grandes trames (MTU de 9000 octets). En général, l’utilisation de processeur pour des charges de travail avec des paquets volumineux sur des grandes trames est à peu près divisée par deux par rapport à des tailles MTU de 1500 octets. Si la taille MTU (unité de transmission maximale) est fixée à 1500, un processeur (1,65 Ghz) doit être fourni par carte Ethernet Gigabit pour pouvoir atteindre la largeur de bande maximale. Cela représente dix cartes Ethernet de 100 Mbit si vous utilisez des réseaux de petite taille. Pour des charges de travail de type transaction moins importantes, prévoyez d’utiliser un processeur complet afin d’obtenir un débit maximal pour la charge de travail Ethernet Gigabit. Par exemple, si deux cartes Ethernet Gigabit sont utilisées, allouez à la partition logique deux processeurs au maximum. Si la taille MTU est fixée à 9000 (grandes trames), 50 % d’un processeur (1,65 Ghz) doit être fourni par carte Ethernet Gigabit pour pouvoir atteindre la largeur de bande maximale. Pour des charges de travail à petits paquets, vous devez prévoir d’utiliser un processeur complet pour assurer le support de la charge de travail Ethernet Gigabit. Les grandes trames n’ont aucun effet dans le cas de charges de travail à petits paquets. carte Ethernet partagée avec une partition logique de processeur dédié Le dimensionnement indiqué est divisé en deux types de charge de travail : flot de données TCP et demande/réponse TCP. Des réseaux MTU 1500 et MTU 9000 ont été utilisés pour le dimensionnement qui est fourni en termes de cycles de machine par octet pour des flots de données ou par transaction dans le cas de charges de travail demande/réponse. Les données des tableaux suivants ont été déduites de la formule suivante : (nombre de processeurs × utilisation processeur × fréquence d’horloge de processeur) / débit en octets par seconde ou transaction par seconde = nombre de cycles par octet ou de transactions. Pour les besoins de ce test, les valeurs ont été mesurées sur une partition logique dotée d’un processeur 1,65 Ghz avec le traitement SMT (traitement simultané à unités d’exécution multiples) activé. 64 Virtual I/O Server Pour les autres fréquences de processeur, les valeurs du tableau peuvent être modifiées en utilisant le rapport des fréquences de processeur sur les valeurs approchées à utiliser pour le dimensionnement. Par exemple, pour une vitesse de processeur de 1,5 Ghz, utilisez 1,65/1,5 × nombre de cycles par octet du tableau. Le résultat de cet exemple correspond à 1,1 fois la valeur du tableau, ce qui revient à un besoin de 10 % de cycles supplémentaires pour compenser la vitesse d’horloge inférieure de 10 % du processeur 1,5 Ghz. Pour utiliser ces valeurs, multipliez le débit requis (en nombre d’octets ou de transactions) par la valeur de cycles par octet des tableaux suivants. Vous connaîtrez ainsi les cycles de machine requis pour une vitesse de 1,65 Ghz. Ajustez ensuite cette valeur en établissant le rapport de la vitesse réelle de la machine sur cette vitesse de 1,65 Ghz. Pour trouver le nombre de processeurs, divisez le résultat par 1 650 000 000 cycles (ou taux de cycles si vous avez procédé à un ajustement pour une machine d’une autre vitesse). Vous avez besoin du nombre de processeurs résultant pour supporter la charge de travail. Par exemple, si Virtual I/O Server doit fournir 200 Mo de débit de flot de données, la formule suivante est utilisée : 200 × 1 024 × 1 024 × 11,2 = 2 348 810 240 cycles / 1 650 000 000 cycles par processeur = 1,42 processeur. En nombres arrondis, Virtual I/O Server a besoin de 1,5 processeurs pour traiter cette charge de travail. Une telle charge de travail peut être traitée avec une partition logique dédiée à 2 processeurs ou une partition logique à 1,5 processeur partagé. Les tableaux suivants montrent le nombre de cycles de machine par octet pour une charge de travail de type flot de données TCP. Tableau 25. Liaison Ethernet partagée avec l’option d’utilisation d’unités d’exécution activée Type de flot de données Débit MTU 1500 et utilisation de processeur Débit MTU 9000 et MTU 1500, cycles par utilisation de octet processeur MTU 9000, cycles par octet Simplex 112,8 Mo à 80,6 % des 11,2 ressources processeur 117,8 Mo à 37,7 % des 5 ressources processeur Duplex 162,2 Mo à 88,8 % des 8,6 ressources processeur 217 Mo à 52,5 % des ressources processeur 3,8 Tableau 26. Liaison Ethernet partagée avec l’option d’utilisation d’unités d’exécution désactivée. Type de flot de données Débit MTU 1500 et utilisation de processeur Débit MTU 9000 et MTU 1500, cycles par utilisation de octet processeur MTU 9000, cycles par octet Simplex 112,8 Mo à 66,4 % des 9,3 ressources processeur 117,8 Mo à 26,7 % des 3,6 ressources processeur Duplex 161,6 Mo à 76,4 % des 7,4 ressources processeur 216,8 Mo à 39,6 % des 2,9 ressources processeur Les tableaux suivants montrent le nombre de cycles de machine par octet pour une charge de travail de type demande/réponse. Une transaction est définie par la taille de demande et de réponse aller-retour. Tableau 27. Liaison Ethernet partagée avec l’option d’utilisation d’unités d’exécution activée Taille de transaction Petits paquets (64 octets) Transactions par seconde et utilisation du serveur Virtual I/O Server 59 722 TPS à 83,4 % des ressources processeur MTU 1500 ou 9000, cycles par transaction 23 022 Virtual I/O Server 65 Tableau 27. Liaison Ethernet partagée avec l’option d’utilisation d’unités d’exécution activée (suite) Taille de transaction Grands paquets (1024 octets) Transactions par seconde et utilisation du serveur Virtual I/O Server 51 956 TPS à 80 % des ressources processeur MTU 1500 ou 9000, cycles par transaction 25 406 Tableau 28. Liaison Ethernet partagée avec l’option d’utilisation d’unités d’exécution désactivée. Taille de transaction Transactions par seconde et utilisation du serveur Virtual I/O Server MTU 1500 ou 9000, cycles par transaction Petits paquets (64 octets) 60 ;249 TPS à 65,6 % des ressources processeur 17 956 Grands paquets (1024 octets) 53 104 TPS à 65 % des ressources processeur 20 196 Les tableaux précédents montrent que l’option d’utilisation d’unités d’exécution de la liaison Ethernet partagée ajoute environ 16 à 20 % de cycles machine par transaction pour les flots de données MTU 1500 et 31 à 38 % pour MTU 9000. L’option d’utilisation d’unités d’exécution augmente le nombre de cycles machine par transaction pour de faibles charges de travail car les unités d’exécution sont démarrées pour chaque paquet. A des taux de charge de travail plus élevés, telles que les charges de travail en duplex intégral ou de demandes/réponses, les unités d’exécution peuvent durer plus longtemps sans attente ou réacheminement. L’option d’utilisation d’unités d’exécution est une option par liaison Ethernet partagée qui peut être configurée à l’aide de commandes du serveur Virtual I/O Server. Désactivez cette option si la liaison Ethernet partagée s’exécute seule dans une partition logique de Virtual I/O Server (sans interface SCSI virtuelle dans la même partition). Vous pouvez activer ou désactiver l’utilisation d’unités d’exécution à l’aide de l’option -attr thread de la commande mkvdev. Pour activer l’utilisation d’unités d’exécution, utilisez l’option -attr thread=1. Pour la désactiver, utilisez l’option -attr thread=0. Par exemple, la commande ci-dessous désactive l’utilisation d’unités d’exécution pour la carte Ethernet partagée ent1 : mkvdev -sea ent1 -vadapter ent5 -default ent5 -defaultid 1 -attr thread=0 Dimensionnement d’un Virtual I/O Server pour une liaison Ethernet partagée sur une partition logique de processeur partagé Vous pouvez créer une partition logique de processeur partagé pour un Virtual I/O Server si ce dernier utilise des réseaux au débit plus lent (par exemple 10/100 Mbit) et qu’une partition logique de processeur complète n’est pas nécessaire. Il est recommandé de ne recourir à cette solution que si la charge de travail du serveur Virtual I/O Server est inférieure à la moitié d’un processeur ou si elle n’est pas constante. Le fait de configurer la partition logique Virtual I/O Server en mode non bridé peut également permettre d’utiliser plus de cycles de processeur pour traiter un débit qui n’est pas constant. Par exemple, si le réseau est utilisé uniquement lorsque d’autres processeurs sont inactifs, la partition logique Virtual I/O Server peut utiliser d’autres cycles de processeur et peut être créée avec des ressources processeur minimales pour traiter une charge de travail peu importante pendant la journée. Si vous créez un Virtual I/O Server dans une partition logique de processeur partagé, ajoutez une autorisation d’utilisation des microprocesseurs supplémentaires à prendre en compte pour le dimensionnement. Allocation de mémoire : Informations relatives à l’allocation et au dimensionnement de la mémoire. 66 Virtual I/O Server En général, 512 Mo de mémoire par partition logique suffisent pour la plupart des configurations. Allouez suffisamment de mémoire aux structures de données du serveur Virtual I/O Server. Les cartes Ethernet et les unités virtuelles utilisent des mémoires tampon de réception dédiées. Ces mémoires tampon permettent de stocker les paquets entrants qui sont envoyés via l’unité sortante. Une carte Ethernet physique utilise généralement 4 Mo pour une unité de transmission maximale (MTU) de 1500 octets ou 16 Mo pour une unité de transmission maximale de 9000 octets dans le cas de mémoires tampon dédiées avec la technologie Gigabit Ethernet. Les autres cartes Ethernet sont similaires. Une liaison Ethernet virtuelle utilise généralement 6 Mo pour les mémoires tampon de réception dédiées. Toutefois, cette valeur peut varier en fonction de la charge de travail. Chaque instance de liaison Ethernet physique ou virtuelle a besoin de mémoire pour cette valeur de mémoires tampon. En outre, le système dispose d’un pool de mémoires tampon mbuf par processeur qui est utilisé si des mémoires tampon supplémentaires sont requises. Ces mémoires tampon occupent généralement 40 Mo. Configuration requise pour la mémoire partagée Consultez la configuration requise pour le système, Virtual I/O Server (VIOS), les partitions logiques et les unités d’espace de pagination pour une configuration réussie de la mémoire partagée. Configuration requise v Le serveur doit être à base de processeur POWER6. v Le microprogramme de serveur doit être à l’édition 3.4.2 ou supérieure. v La console HMC (Hardware Management Console) doit être à la version 7, édition 3.4.2 ou supérieure. v Le gestionnaire Integrated Virtualization Manager doit être à la version 2.1.1 ou supérieure. v La technologie PowerVM Active Memory Sharing doit être activée. La technologie PowerVM Active Memory Sharing est disponible avec PowerVM Enterprise Edition, pour lequel vous devez vous procurer et entrer un code d’activation PowerVM Editions. Configuration requise pour la partition VIOS de pagination v Les partitions logiques Virtual I/O Server fournissant l’accès aux unités d’espace de pagination pour les partitions de mémoire partagée affectées au pool de mémoire partagée (appelées ci-après partitions VIOS de pagination) ne peuvent pas utiliser la mémoire partagée. Les partitions VIOS de pagination doivent utiliser la mémoire dédiée. v Les partitions VIOS de pagination doivent être à la version 2.1.1 ou supérieure. v Sur des systèmes gérés via le gestionnaire IVM, toutes les partitions logiques qui utilisent la mémoire partagée (appelées ci-après partitions de mémoire partagée) doivent utiliser les ressources virtuelles fournies par la partition de gestion. v Sur des systèmes gérés via la console HMC, envisagez de configurer des partitions logiques Virtual I/O Server distinctes en tant que partitions de serveur et partitions VIOS de pagination. Configurez, par exemple, une partition logique Virtual I/O Server pour qu’elle fournisse des ressources virtuelles aux partitions de mémoire partagée, et une autre partition logique Virtual I/O Server en tant que partition VIOS de pagination. v Sur des systèmes gérés via la console HMC, vous pouvez configurer plusieurs partitions logiques Virtual I/O Server pour fournir l’accès aux unités d’espace de pagination. Cependant, vous ne pouvez pas affecter simultanément plus de deux de ces partitions Virtual I/O Server au pool de mémoire partagée. Exigences relatives aux partitions de mémoire partagée v Les partitions de mémoire partagée doivent utiliser des processeurs partagés. v Vous pouvez affecter uniquement des cartes virtuelles aux partitions de mémoire partagée. En d’autres termes, vous ne pouvez ajouter dynamiquement que des cartes virtuelles à des partitions de mémoire partagée. Plus spécifiquement, vous pouvez affecter uniquement des cartes client SCSI, des cartes Ethernet virtuelles, des cartes client Fibre Channel, , ainsi que des cartes série virtuelles aux partitions Virtual I/O Server 67 v v v v de mémoire partagée AIX et Linux. Vous ne pouvez pas affecter de carte HEA (Host Ethernet Adapter) ou de carte HCA (Host Connection Adapter) à des partitions de mémoire partagée. Les partitions de mémoire partagée ne peuvent pas utiliser la synchronisation de barrière. Les partitions de mémoire partagée ne peuvent pas utiliser des pages très volumineuses. AIX doit être à la version 6.1 niveau de technologie TL 3 ou supérieure, pour s’exécuter sur une partition de mémoire partagée. SUSE Linux Enterprise Server doit être à la version 11 ou supérieure pour s’exécuter sur une partition de mémoire partagée. Exigences relatives aux unités d’espace de pagination v Les unités d’espace de pagination de partitions de mémoire partagée AIX ou Linux doivent être au moins de la taille de la mémoire logique maximale de la partition de mémoire partagée. v Les unités d’espace de pagination peuvent uniquement être affectées à un seul pool de mémoire partagée à la fois. Vous ne pouvez pas affecter en même temps une unité d’espace de pagination à un pool de mémoire partagée sur un système et à un autre sur un autre système. v Les unités d’espace de pagination qui sont accédées par une seule partition VIOS de pagination doivent satisfaire les exigences suivantes : – Il peut s’agir de volumes logiques ou physiques. – Elles doivent se trouver dans la mémoire physique du serveur ou sur un réseau de systèmes (SAN). v Les unités d’espace de pagination qui sont accédées de façon redondante par deux partitions VIOS de pagination doivent satisfaire les exigences suivantes : – Il doit s’agir de volumes physiques. – Elles doivent se trouver sur un réseau de systèmes (SAN). – Elles doivent être configurées avec des ID globaux. – Elles doivent être accessibles aux deux partitions VIOS de pagination. – L’attribut de réservation doit être défini sur ″no reserve″. (Le serveur Virtual I/O Server définit automatiquement cet attribut sur ″pas de réserve″ lorsque vous ajoutez l’unité d’espace de pagination au pool de mémoire partagée.) v Les volumes physiques configurés en tant qu’unités d’espace de pagination ne peuvent pas appartenir à un groupe de volumes tel que rootvg. v Les volumes logiques configurés en tant qu’unités d’espace de pagination doivent se trouver dans un groupe de volumes dédié aux unités d’espace de pagination. v Les unités d’espace de pagination doivent être disponibles. Vous ne pouvez pas utiliser un volume physique ou logique en tant qu’unité d’espace de pagination s’il est déjà configuré comme tel ou comme disque virtuel d’une autre partition logique. v Les unités d’espace de pagination ne peuvent pas être utilisées pour initialiser une partition logique. v Après avoir affecté une unité d’espace de pagination au pool de mémoire partagée, vous devez gérer l’unité à l’aide de l’assistant de création/modification du pool de mémoire partagée sur la console HMC ou via la page d’affichage/modification du pool de mémoire partagée sur le gestionnaire Integrated Virtualization Manager. Ne modifiez pas et ne supprimez pas l’unité en utilisant d’autres outils de gestion. Remarques relatives à la redondance Les options de redondance sont disponibles à plusieurs niveaux dans l’environnement d’E-S virtuel. Des options de mise en miroir, de multi-accès et de redondance RAID sont disponibles pour Virtual I/O Server et certaines partitions client. Ethernet agrégation de liaisons (également appelé EtherChannel) est également une option des partitions logiques client, et Virtual I/O Server comporte une fonction de reprise par transfert de carte Ethernet partagée. La fonction de reprise par transfert des noeuds (HACMP) est également prise en charge pour les noeuds utilisant des ressources d’E-S virtuelles. 68 Virtual I/O Server Cette section contient des informations relatives à la fonction de redondance pour les partitions logiques client et Virtual I/O Server. Ces configurations aident à protéger le système contre toute panne de l’un de ses composants physiques (par exemple, disque ou carte réseau) mais n’empêchent pas la partition logique client de perdre l’accès à ses unités en cas de panne du serveur Virtual I/O Server. Pour fournir une redondance au Virtual I/O Server, il est possible d’exécuter une seconde instance de ce dernier dans une autre partition logique. Lorsque l’on exécute deux instances du serveur Virtual I/O Server, on peut utiliser la fonction miroir LVM, la fonction Multi-Path I/O, la fonction de sauvegarde via l’interface réseau ou la fonction de routage Multi-Path avec la détection des passerelles désactivée sur la partition logique client pour fournir un accès haute disponibilité aux ressources virtuelles hébergées sur des partitions logiques Virtual I/O Server. Partitions logiques client Cette rubrique fournit des informations de redondance pour les partitions logiques client. Elle traite également des fonctions MPIO, HACMP et miroir de la partition logique client. Fonction MPIO : Informations sur la fonction MPIO (Multi-Path I/O) pour les partitions logiques client. Plusieurs cartes SCSI virtuelles ou cartes Fibre Channel virtuelles d’une partition logique client peuvent accéder au même disque via plusieurs partitions logiques Virtual I/O Server. Cette section décrit une configuration d’unité multi-path (multi-accès) de l’interface SCSI virtuelle. Si la configuration est correcte, le client reconnaît alors le disque en tant qu’unité MPIO. Si vous utilisez la technologie PowerVM Active Memory Sharing (ou mémoire partagée), vous pouvez aussi utiliser une configuration multi-path afin de permettre à deux partitions logiques VIOS de pagination d’accéder à des unités d’espace de pagination communes. Toutes les unités SCSI virtuelles ne prennent pas en charge la fonction MPIO. Pour créer une configuration MPIO, l’unité exportée à partir de Virtual I/O Server doit se conformer aux règles suivantes : v Elle doit être basée sur un volume physique. Les unités SCSI virtuelles basées sur des volumes logiques ne sont pas prises en charge dans une configuration MPIO. v L’unité doit être accessible à partir de plusieurs partitions logiques Virtual I/O Server. v L’unité doit prendre en charge la fonction MPIO. Remarque : Ces unités compatibles MPIO sont associées à un identificateur unique (UDID) ou à un identificateur de volume IEEE. Pour savoir comment déterminer si les disques sont associés à un identificateur de volume UDID ou IEEE, voir «Identification des disques exportables», à la page 105. Lorsque vous définissez une configuration MPIO pour les unités SCSI virtuelles sur la partition logique client, vous devez tenir compte de la règle de réservation de l’unité sur Virtual I/O Server. Pour que vous puissiez utiliser une configuration MPIO sur le client, aucune unité SCSI virtuelle de Virtual I/O Server ne doit réserver l’unité SCSI virtuelle. Assurez-vous que l’attribut reserve_policy de l’unité a pour valeur no_reserve. La reprise par transfert constitue le comportement par défaut des disques SCSI MPIO virtuels sur la partition logique client. Virtual I/O Server 69 Tâches associées «Définition des attributs de règle de réservation d’une unité», à la page 100 Dans certaines configurations, vous devez tenir compte de la règle de réservation de l’unité sur le serveur Virtual I/O Server. «Scénario : Configuration de la fonction MPIO pour les partitions logiques client AIX», à la page 51 La fonction MPIO (Multi-Path I/O) permet d’accroître la disponibilité des ressources SCSI virtuelles en fournissant à ces dernières des chemins redondants. Cette rubrique explique comment configurer la fonction MPIO (Multi-Path I/O) pour les partitions logiques client AIX. Référence associée «Configuration requise pour la mémoire partagée», à la page 67 Consultez la configuration requise pour le système, Virtual I/O Server (VIOS), les partitions logiques et les unités d’espace de pagination pour une configuration réussie de la mémoire partagée. Fonction miroir des partitions logiques client : Mise en miroir des partitions logiques client à l’aide de deux cartes SCSI virtuelles. La partition client peut jouer le rôle de miroir pour ses volumes logiques grâce à l’utilisation de deux cartes client SCSI virtuelles. Chacune de ces cartes doit être allouée à des partitions distinctes du serveur Virtual I/O Server. Les deux disques physiques sont connectés chacun à des partitions distinctes du serveur Virtual I/O Server et sont mis à la disposition de la partition client via une carte serveur SCSI virtuelle. Cette configuration protège un disque virtuel d’une partition client contre les incidents suivants : v Sur un disque physique v Sur une carte physique v Sur le serveur Virtual I/O Server L’utilisation d’une configuration RAID 1 peut avoir une incidence sur les performances de votre système. Multitraitement HACMP : Cette rubrique fournit des informations sur le multitraitement de cluster haute disponibilité (HACMP) sur le serveur Virtual I/O Server. Fonction HACMP et interface SCSI virtuelle Tenez compte des considérations suivantes lors de l’implémentation de la fonction HACMP et de l’interface SCSI virtuelle : v Le groupe de volumes doit être défini en mode simultané amélioré. Ce mode est recommandé pour le partage de groupes de volumes dans les clusters HACMP car les volumes sont alors accessibles par plusieurs noeuds HACMP. Si les systèmes de fichiers sont utilisés sur les noeuds de secours, ils ne sont montés qu’à partir du point de reprise par transfert. Si les volumes partagés sont accessibles directement (sans système de fichiers) en mode simultané amélioré, ces volumes sont accessibles à partir de plusieurs noeuds ; par conséquent, l’accès doit être contrôlé au niveau d’une couche supérieure. v Si un noeud de cluster accède aux volumes partagés via l’interface SCSI virtuelle, tous les noeuds doivent alors faire de même. Autrement dit, les disques ne peuvent pas être partagés entre une partition logique utilisant une interface SCSI et un noeud qui accède directement à ces disques. v Toutes les opérations de configuration et de maintenance de groupes de volumes sur ces disques partagés sont effectuées à partir des noeuds HACMP, et non à partir du serveur Virtual I/O Server. 70 Virtual I/O Server Fonction HACMP et interface Ethernet virtuelle Tenez compte des considérations suivantes lors de l’implémentation de la fonction HACMP et de l’interface Ethernet virtuelle : v La fonction IPAT (IP Address Takeover), compte tenu de la création d’alias, doit être utilisée. La fonction IPAT par remplacement et relais d’adresse MAC n’est pas prise en charge. v Evitez d’utiliser la fonction PCI Hot Plug HACMP dans un environnement Virtual I/O Server. Les opérations de remplacement à chaud PCI sont disponibles via le serveur Virtual I/O Server. Lorsqu’un noeud HACMP utilise une unité d’E-S virtuelle, la fonction de remplacement à chaud PCI HACMP PCI ne s’applique pas car les cartes d’E-S sont virtuelles et non physiques. v Toutes les interfaces Ethernet virtuelles définies pour HACMP doivent être traitées comme des réseaux à carte unique. Plus particulièrement, vous devez utiliser l’attribut ping_client_list pour surveiller et détecter tout incident survenant dans les interfaces réseau. v Si Virtual I/O Server dispose de plusieurs interfaces physiques sur le même réseau, ou si plusieurs noeuds HACMP utilisent Virtual I/O Server dans une même trame, la fonction HACMP n’est pas informée des incidents survenant dans une interface physique unique et ne peut pas mettre en oeuvre de solution de dépannage. Cela ne restreint pas la disponibilité de l’ensemble du cluster car Virtual I/O Server route le trafic en contournant l’incident. v Si Virtual I/O Server ne présente qu’une seule interface physique sur un réseau, tout incident survenant dans cette interface physique est détecté par la fonction HACMP. Toutefois, l’incident isole le noeud du reste du réseau. Unités d’agrégation de liaisons ou EtherChannel : Une unité d’agrégation de liaisons, ou EtherChannel, est une technologie de regroupement de ports réseau permettant de regrouper plusieurs cartes Ethernet. Les cartes constituent alors une unité Ethernet unique. agrégation de liaisons offre un meilleur débit via une seule adresse IP que ne le permettrait une seule carte Ethernet. Par exemple, ent0 et ent1 peuvent être regroupées pour former ent3. Le système considère ces cartes regroupées comme une seule et même carte. La même adresse matérielle est fournie à toutes les cartes de l’unité d’agrégation de liaisons, alors les systèmes distants les traitent comme s’il s’agissait d’une seule et même carte. L’agrégation de liaisons améliore la redondance : en cas d’échec d’un lien, l’unité d’agrégation de liaisons bascule sur une autre carte de l’unité afin de conserver la liaison. Dans l’exemple précédent, si ent0 échoue, les paquets sont automatiquement envoyés à la carte disponible suivante ent1, sans interrompre les connexions utilisateur existantes. Apres sa restauration, l’unité ent0 est automatiquement renvoyée au service de l’unité d’agrégation de liaisons. Vous pouvez configurer une carte Ethernet partagée de façon à utiliser une unité d’agrégation de liaisons (ou EtherChannel) en tant que carte physique. Reprise par transfert de carte Ethernet partagée : La fonction de reprise par transfert de carte Ethernet partagée assure la redondance, car elle permet de configurer une carte Ethernet partagée de secours sur une autre partition logique Virtual I/O Server, laquelle peut être utilisée en cas de défaillance de la carte Ethernet partagée principale. La connectivité réseau des partitions logiques client est maintenue, sans interruption. Une carte Ethernet partagée comprend une carte physique (ou plusieurs cartes physiques regroupées dans une unité d’agrégation de liaisons) et une ou plusieurs cartes Ethernet virtuelles. Elle peut offrir une connectivité de couche 2 à plusieurs partitions logiques client via les cartes Ethernet virtuelles. Virtual I/O Server 71 La configuration de la fonction de reprise par transfert de carte Ethernet partagée utilise la valeur de priorité fournie aux cartes Ethernet virtuelles lors de leur création, afin d’identifier la carte Ethernet partagée qui constitue la carte principale et celle qui constitue la carte de secours. La carte Ethernet partagée dont la carte de réseau virtuelle présente la valeur numérique de priorité la plus basse sera utilisée de préférence comme carte principale. Afin de pouvoir communiquer entre elles et de déterminer lorsqu’une opération de reprise par transfert doit être réalisée, les cartes Ethernet partagées présentant le mode de reprise par transfert utilisent un réseau local virtuel (VLAN) dédié pour ce type de trafic, appelé canal de contrôle. C’est pourquoi vous devez spécifier une carte Ethernet virtuelle (comportant un PVID unique sur le système) comme carte Ethernet virtuelle du canal de contrôle, lorsque chaque carte Ethernet partagée est créée en mode de reprise par transfert. Via le canal de contrôle, la carte Ethernet partagée de secours est avertie lorsque la carte principale subit une défaillance et le trafic réseau des partitions logiques client est transféré sur la carte de secours. Lorsque la carte Ethernet partagée principale est restaurée (si cela s’avère possible), elle assure à nouveau l’ensemble du trafic réseau. Une carte Ethernet partagée en mode de reprise par transfert peut comporter plusieurs cartes de ligne Ethernet virtuelles. Si tel est le cas, la priorité doit être identique pour toutes les cartes Ethernet virtuelles d’une carte Ethernet partagée. En outre, il est inutile que le paramètre de carte de ligne de la carte Ethernet virtuelle utilisée spécialement pour le canal de contrôle soit activé. Les cartes Ethernet virtuelles utilisées pour le canal de contrôle de chaque carte Ethernet partagée en mode de reprise par transfert doivent avoir la même valeur PVID, et cette valeur de PVID doit être unique sur le système (aucune autre carte Ethernet virtuelle du système ne doit utiliser ce PVID). Pour garantir une reprise, lorsque vous activez le protocole Spanning Tree sur les ports de commutateur connectés aux cartes physiques de la carte Ethernet partagée, vous pouvez aussi activer l’option portfast sur ces ports. L’option portfast permet au commutateur de transmettre immédiatement les paquets au port sans terminer d’abord le protocole Spanning Tree (lequel bloque complètement le port jusqu’à ce qu’il ait fini). La carte Ethernet partagée est conçue pour éviter les boucles réseau. Toutefois, à titre de précaution supplémentaire, vous pouvez activer la protection Bridge Protocol Data Unit (BPDU) Guard sur les ports de commutateur connectés aux cartes physiques de la carte Ethernet partagée. BPDU Guard détecte les paquets BPDU en protocole Spanning Tree en boucle et arrête le port. Ceci participe à éviter les saturations de diffusion sur le réseau. Une saturation de diffusion se produit lorsqu’un message diffusé sur un réseau génère de multiples réponses. Comme chaque réponse génère d’autres réponses, il s’ensuit une transmission excessive de messages de diffusion. Les saturations de diffusion importantes peuvent bloquer le trafic réseau, mais il est généralement possible de les éviter en configurant le réseau avec soin de façon à bloquer les messages de diffusions illégaux. Remarque : Lorsque la carte Ethernet partagée utilise le protocole GVRP (GARP VLAN Registration Protocol) elle génère des paquets BPDU, ce qui provoque l’arrêt inutile du port par BPDU Guard. Par conséquent, lorsque la carte Ethernet partagée utilise le protocole GVRP, n’activez pas la protection BPDU Guard. Pour plus d’informations sur l’activation du protocole Spanning Tree, de l’option portfast et de BPDU Guard sur les ports, consultez la documentation fournie avec le commutateur. Tâches associées «Scénario : Configuration de la reprise par transfert de carte Ethernet partagée», à la page 46 Cette section présente un scénario classique de reprise par transfert de carte Ethernet partagée. Partition logique Virtual I/O Server Les options de redondance de Virtual I/O Server comprennent notamment la fonction d’accès à chemins multiples (multi-path), les configurations RAID et l’agrégation de liaisons (ou EtherChannel). Fonction multi-path (multi-accès) : 72 Virtual I/O Server La fonction multi-path (multi-accès) appliquée à la mémoire physique dans un serveur Virtual I/O Server offre une redondance de chemin physique de reprise par transfert et un équilibrage de charge. Les solutions de fonction multi-path disponibles dans le serveur Virtual I/O Server comprennent la fonction MPIO, ainsi que les solutions offertes par les fournisseurs de stockage. RAID : Les solutions RAID (Redundant Array of Independent Disks) offrent une redondance au niveau des unités du serveur Virtual I/O Server. Certaines options RAID, telles la fonction miroir LVM et la fonction de segmentation, sont fournies par le logiciel Virtual I/O Server, alors que d’autres sont mises à votre disposition via le sous-système de stockage physique. Unités d’agrégation de liaisons ou EtherChannel : Une unité d’agrégation de liaisons, ou EtherChannel, est une technologie de regroupement de ports réseau permettant de regrouper plusieurs cartes Ethernet. Les cartes constituent alors une unité Ethernet unique. agrégation de liaisons offre un meilleur débit via une seule adresse IP que ne le permettrait une seule carte Ethernet. Par exemple, ent0 et ent1 peuvent être regroupées pour former ent3. Le système considère ces cartes regroupées comme une seule et même carte. La même adresse matérielle est fournie à toutes les cartes de l’unité d’agrégation de liaisons, alors les systèmes distants les traitent comme s’il s’agissait d’une seule et même carte. L’agrégation de liaisons améliore la redondance : en cas d’échec d’un lien, l’unité d’agrégation de liaisons bascule sur une autre carte de l’unité afin de conserver la liaison. Dans l’exemple précédent, si ent0 échoue, les paquets sont automatiquement envoyés à la carte disponible suivante ent1, sans interrompre les connexions utilisateur existantes. Apres sa restauration, l’unité ent0 est automatiquement renvoyée au service de l’unité d’agrégation de liaisons. Vous pouvez configurer une carte Ethernet partagée de façon à utiliser une unité d’agrégation de liaisons (ou EtherChannel) en tant que carte physique. Configuration de la redondance à l’aide de cartes Fibre Channel virtuelles Les configurations de la redondance permettent de protéger votre réseau contre les défaillances de carte physique et les défaillances de Virtual I/O Server. Grâce à NPIV (N_Port ID Virtualization), vous pouvez configurer le système géré de sorte que plusieurs partitions logiques puissent accéder à la mémoire physique indépendante par l’intermédiaire de la même carte Fibre Channel physique. Chaque carte Fibre Channel virtuelle est identifiée par un WWPN unique, ce qui signifie que vous avez la possibilité de connecter chaque carte Fibre Channel virtuelle à la mémoire physique indépendante d’un réseau SAN. A l’instar de la redondance SCSI virtuelle, la redondance Fibre Channel virtuelle peut être obtenue à l’aide de la fonction MPIO (Multi-path I/O) et de la fonction miroir au niveau de la partition client. La différence entre la redondance traditionnelle avec cartes SCSI et la technologie NPIV utilisant des cartes Fibre Channel virtuelles consiste en ce que la redondance a lieu sur le client, car seul ce dernier reconnaît le disque. Virtual I/O Server est essentiellement et simplement un canal de communication. Le second exemple ci-dessous utilise plusieurs partitions logiques Virtual I/O Server pour ajouter une redondance également au niveau du serveur Virtual I/O Server. Exemple : reprise par transfert avec adaptateur de bus hôte Cet exemple utilise la reprise par transfert avec adaptateur de bus hôte pour fournir un niveau de base de redondance à la partition logique client. La figure illustre les connexions suivantes : Virtual I/O Server 73 v Le réseau de systèmes (SAN) connecte une mémoire physique à deux cartes Fibre Channel physiques du système géré. v Ces cartes sont attribuées au Virtual I/O Server et prennent en charge NPIV. v Chaque port Fibre Channel physique est connecté à une carte Fibre Channel virtuelle sur le serveur Virtual I/O Server. Les deux cartes Fibre Channel virtuelles du serveur Virtual I/O Server sont connectées aux ports de deux cartes Fibre Channel physiques différentes de façon à fournir une redondance pour les cartes physiques. v Chaque carte Fibre Channel virtuelle du serveur Virtual I/O Server est connectée à une carte Fibre Channel virtuelle d’une partition logique client. Chaque carte Fibre Channel virtuelle de chaque partition logique client reçoit une paire de WWPN uniques. La partition logique client utilise un WWPN pour se connecter à tout moment au réseau SAN. L’autre WWPN est utilisé pour déplacer la partition logique client vers un autre système géré. Les cartes Fibre Channel virtuelles présentent toujours une relation un à un entre les partitions logiques client et les cartes Fibre Channel virtuelles sur la partition logique Virtual I/O Server. En d’autres termes, chaque carte Fibre Channel virtuelle attribuée à une partition logique client doit se connecter à une seule carte Fibre Channel virtuelle du serveur Virtual I/O Server, et inversement. Le client peut écrire dans la mémoire physique via la carte Fibre Channel virtuelle client 1 ou 2. Si une carte Fibre Channel physique fait état d’une défaillance, le client utilise l’autre chemin. Cet exemple ne montre pas de redondance au niveau de la mémoire physique, mais suppose plutôt qu’elle est établie au niveau du réseau de systèmes (SAN). Remarque : Il est recommandé de configurer des cartes Fibre Channel virtuelles issues de plusieurs partitions logiques sur le même adaptateur de bus hôte ou de configurer des cartes Fibre Channel virtuelles issues de la même partition logique sur différents adaptateurs de bus hôte. Exemple : reprise par transfert avec adaptateur de bus hôte et Virtual I/O Server Cet exemple utilise la reprise par transfert avec adaptateur de bus hôte et Virtual I/O Server pour fournir un niveau avancé de redondance à la partition logique client. La figure illustre les connexions suivantes : v Le réseau de systèmes (SAN) connecte une mémoire physique à deux cartes Fibre Channel physiques du système géré. 74 Virtual I/O Server v Deux partitions logiques Virtual I/O Server fournissent une redondance au niveau du serveur Virtual I/O Server. v Les cartes Fibre Channel physiques sont attribuées à leur Virtual I/O Server respectif et prennent en charge NPIV. v Chaque port Fibre Channel physique est connecté à une carte Fibre Channel virtuelle sur le serveur Virtual I/O Server. Les deux cartes Fibre Channel virtuelles du serveur Virtual I/O Server sont connectées aux ports de deux cartes Fibre Channel physiques différentes de façon à fournir une redondance pour les cartes physiques. Une carte unique peut présenter plusieurs ports. v Chaque carte Fibre Channel virtuelle du serveur Virtual I/O Server est connectée à une carte Fibre Channel virtuelle d’une partition logique client. Chaque carte Fibre Channel virtuelle de chaque partition logique client reçoit une paire de WWPN uniques. La partition logique client utilise un WWPN pour se connecter à tout moment au réseau SAN. L’autre WWPN est utilisé pour déplacer la partition logique client vers un autre système géré. Le client peut écrire dans la mémoire physique via la carte Fibre Channel virtuelle 1 ou 2 sur la partition logique client par le biais de VIOS 2. Il peut également écrire dans la mémoire physique via la carte Fibre Channel virtuelle 3 ou 4 sur la partition logique client par le biais de VIOS 1. Si une carte Fibre Channel physique montre une défaillance sur VIOS 1, le client utilise l’autre carte physique connectée à VIOS 1 ou les chemins connectés via VIOS 2. Si VIOS 1 montre une défaillance, le client utilise alors le chemin via VIOS 2. Cet exemple ne montre pas de redondance au niveau de la mémoire physique, mais suppose plutôt qu’elle est établie au niveau du réseau de systèmes (SAN). Aspects à prendre en compte Ces exemples peuvent devenir de plus en plus complexes au fur et à mesure de l’ajout d’une redondance de mémoire physique et de plusieurs clients, mais les concepts restent les mêmes. Tenez compte des points suivants : v Pour éviter que la carte Fibre Channel physique soit le seul point d’échec de la connexion entre la partition logique client et son stockage physique sur le réseau SAN, ne connectez pas deux cartes Fibre Virtual I/O Server 75 Channel virtuelles de la même partition logique client à la même carte Fibre Channel physique. Connectez à la place chaque carte virtuelle Fibre Channel à une carte physique Fibre Channel distincte. v Tenez compte de l’équilibrage de charge lors du mappage d’une carte Fibre Channel virtuelle du serveur Virtual I/O Server sur un port physique de la carte Fibre Channel physique. v Tenez compte du niveau de redondance qui existe déjà sur le réseau SAN pour définir la configuration ou non de plusieurs unités de mémoire physique. v Envisagez d’utiliser deux partitions logiques Virtual I/O Server. Etant donné que Virtual I/O Server est essentiel pour la communication entre les partitions logiques et le réseau externe, il est important de fournir un niveau de redondance pour ce serveur. Plusieurs partitions logiques Virtual I/O Server nécessitent également davantage de ressources ; vous devez donc planifier en conséquence. v La technologie NPIV est utile lorsque vous souhaitez déplacer des partitions logiques entre serveurs. Par exemple, dans une Mobilité de partition active, si vous utilisez les configurations de redondance ci-dessus, en combinaison avec des cartes physiques, vous pouvez arrêter l’ensemble de l’activité d’entrée-sortie par le biais de la carte physique dédiée et diriger la totalité du trafic via une carte Fibre Channel virtuelle jusqu’à ce que la partition logique soit correctement déplacée. Il est nécessaire que la carte physique dédiée soit connectée au même stockage que le chemin virtuel. Etant donné que vous ne pouvez pas migrer une carte physique, l’ensemble de l’activité d’entrée-sortie est acheminée via le chemin virtuel au moment du déplacement de la partition. Une fois la partition logique déplacée, vous devez définir le chemin dédié (sur la partition logique de destination) si vous souhaitez utiliser la configuration de redondance qui avait été définie sur la partition logique d’origine. L’activité d’entrée-sortie peut alors reprendre par le biais de la carte dédiée, la carte Fibre Channel virtuelle servant de chemin secondaire. Information associée Virtual I/O Server Deployment Examples Configuration d’une carte Fibre Channel virtuelle à l’aide de la console HMC Configuration des partitions logiques pour utiliser une carte virtuelle Fibre Channel sur Integrated Virtualization Manager IBM PowerVM Live Partition Mobility Remarques sur la sécurité Informations de sécurité relatives à l’interface SCSI virtuelle, à la carte Ethernet virtuelle, à la carte Ethernet partagée et aux options de sécurité supplémentaires disponibles. Les systèmes permettent le partage et la communication des unités d’une partition à l’autre. Les fonctions, telles que les partitions logiques (LPAR) dynamiques, les processeurs partagés, les réseaux virtuels, la mémoire virtuelle et la gestion des charges de travail, nécessitent toutes des fonctionnalités permettant de s’assurer que les exigences de sécurité système sont respectées. Les fonctions de virtualisation et d’opérations entre partitions sont conçues de manière à ne pas mettre en péril la sécurité au-delà de ce qui est nécessaire. Par exemple, une connexion de réseau local (LAN) virtuelle aura les mêmes exigences en matière de sécurité qu’une connexion de réseau physique. Soyez particulièrement vigilant lorsque vous utilisez des fonctions de virtualisation entre partitions dans les environnements présentant une sécurité élevée. Toute visibilité entre partitions logiques doit être créée manuellement et doit être le résultat de choix de configuration système de l’administrateur. Avec l’interface SCSI virtuelle, Virtual I/O Server permet le stockage sur les partitions logiques client. Cependant, au lieu d’être établie via des câbles SCSI ou optiques, la connexion pour cette fonctionnalité est établie par le microprogramme. Les pilotes de l’unité SCSI virtuelle du serveur Virtual I/O Server et le microprogramme permettent de s’assurer que seul l’administrateur système Virtual I/O Server contrôle les partitions logiques qui peuvent accéder aux données des unités de stockage du serveur Virtual I/O Server. Par exemple, une partition logique client ayant accès au volume logique lv001 exporté par la partition logique Virtual I/O Server ne peut pas accéder à lv002, même si elle appartient au même groupe de volumes. 76 Virtual I/O Server Tout comme l’interface SCSI virtuelle, le microprogramme fournit également une connexion entre les partitions logiques lorsqu’il utilise cette interface. Il fournit une fonction de commutateur Ethernet. La connexion vers le réseau externe est fournie par la fonction de carte Ethernet partagée de Virtual I/O Server. Cette partie de Virtual I/O Server agit comme un pont de couche 2 vers les cartes physiques. Une marque d’ID VLAN est insérée dans toute trame Ethernet. Le commutateur Ethernet limite les trames aux ports autorisés à recevoir des cadres portant cet ID VLAN. Chaque port d’un commutateur Ethernet peut être configuré afin d’être membre de plusieurs réseaux VLAN (réseaux locaux virtuels). Seules les cartes réseau (physiques et virtuelles) connectées à un port (virtuel ou physique) appartenant au même réseau VLAN peuvent recevoir les trames. La mise en oeuvre de cette norme VLAN permet de s’assurer que les partitions logiques n’ont pas accès à des données restreintes. Installation de Virtual I/O Server et des partitions logiques client Informations relatives à l’installation de Virtual I/O Serveret des partitions logiques client via le déploiement d’une planification système ou via la création manuelle de la partition logique et des profils de partition logique et l’installation de Virtual I/O Serveret des systèmes d’exploitation client. Ces instructions concernent l’installation de Virtual I/O Serveret des partitions logiques client sur un système géré par une console HMC (Hardware Management Console). Si vous envisagez d’installer Virtual I/O Server sur un système non géré par une console HMC, vous devez installer Integrated Virtualization Manager. Pour obtenir des instructions, voir Installing the Integrated Virtualization Manager. La procédure d’installation à suivre dépend des facteurs suivants : v Version de la console HMC reliée au système géré sur lequel vous souhaitez installer Virtual I/O Serveret des partitions logiques client. L’interface de la console HMC version 7 est différente de celle des versions précédentes de la console HMC. La console HMC version 7 permet également de déployer une planification système incluant Virtual I/O Serveret des partitions logiques client. v Si vous envisagez ou non de déployer une planification système incluant Virtual I/O Server et des partitions logiques client. Lorsque vous déployez une planification système, la console HMC effectue automatiquement les tâches suivantes à partir des informations fournies par la planification système : – – – – Création de la partition logique et du profil de partition logique Virtual I/O Server. Installation de Virtual I/O Server et spécification de ressources virtuelles. Création de partitions logiques client et de profils de partition logique. Installation des systèmes d’exploitation AIX et Linux sur des partitions logiques client. Vous devez disposer de la version V7R3.3.0 ou ultérieure de la console HMC. Information associée Installing the Virtual I/O Server using NIM Installation de Virtual I/O Server et des partitions logiques client en déployant une planification système Si vous déployez une planification système incluant Virtual I/O Serveret, éventuellement, des partitions logiques client, l’assistant de déploiement de planification système crée la partition logique et le profil de partition logique Virtual I/O Server, puis il installe Virtual I/O Serveret les partitions logiques client. Avant de commencer Avant de commencer, vérifiez que les conditions suivantes sont remplies : v Le système sur lequel vous envisagez de déployer la planification système est géré par une console HMC (Hardware Management Console). v Vous disposez de la console HMC version 7 ou ultérieure. Virtual I/O Server 77 v Si vous envisagez de déployer différentes entités de la configuration de Virtual I/O Server à différents moments, assurez-vous que la console HMC correspond à la version V7R3.3.0, ou à une version ultérieure. (Les entités de Virtual I/O Server comprennent des cartes de réseau Ethernet partagées, des cartes EtherChannel ou des unités agrégation de liaisons, des pools de stockage et des unités de sauvegarde.) Si la console HMC ne correspond pas à la version V7R3.3.0, ou à une version ultérieure, les planifications système comprenant Virtual I/O Server peuvent être déployées uniquement sur un nouveau système, ou sur un système ne comportant aucune partition logique configurée pour Virtual I/O Server. (Vous pouvez installer Virtual I/O Server, mais pas le configurer.) Plus précisément, aucune entité de Virtual I/O Server ne peut être configurée sur le système géré, notamment aucune carte Ethernet partagée, aucune carte EtherChannel ou aucune unité agrégation de liaisons, aucun pool de stockage et aucune unité de sauvegarde. v Si vous envisagez de déployer une planification système incluant des informations d’installation AIX ou Linux pour au moins une partition logique client, vérifiez que les conditions suivantes sont remplies : – La console HMC doit correspondre à la version V7R3.3.0. – Aucun système d’exploitation n’est installé pour la partition logique client. La console HMC installe AIX et Linux sur les partitions logiques client sur lesquelles aucun système d’exploitation n’est installé. Si la partition logique client dispose déjà d’un système d’exploitation, la console HMC ne déploie pas le système d’exploitation indiqué dans la planification système. Saisie du code d’activation de PowerVM Editions via la console HMC version 7 Cette procédure explique comment saisir le code d’activation de PowerVM Editions (ou Advanced POWER Virtualization) à partir de la console HMC (Hardware Management Console) version 7 ou supérieure. A propos de cette tâche Si PowerVM Editions n’est pas activé sur votre système, vous devez utiliser la console HMC pour entrer le code d’activation que vous avez reçu lors de la votre commande. Procédez comme suit pour entrer le code d’activation de PowerVM Standard Edition et de PowerVM Enterprise Edition. Pour plus d’informations sur PowerVM Editions, voir PowerVM Editions overview. Pour entrer votre code d’activation, procédez comme suit : 1. Dans la zone de Navigation, développez Gestion de systèmes. 2. Sélectionnez Serveurs. 3. Dans la zone de contenu, sélectionnez le système géré sur lequel vous souhaitez utiliser PowerVM Editions. Il peut s’agir, par exemple, du système sur lequel vous envisagez d’installer Virtual I/O Server ou celui dans lequel vous envisagez d’utiliser la technologie Micro-Partitioning. 4. Cliquez sur Tâches et sélectionnez Capacity on Demand (CoD) → AdvancedPOWER Virtualization → Saisie du code d’activation. 5. Entrez votre code d’activation et cliquez sur OK. Importation d’une planification système dans une console HMC Vous pouvez importer un fichier de planification système sur une console HMC (Hardware Management Console) à partir de divers types de supports, d’un site FTP distant ou de l’ordinateur à partir duquel vous accédez à distance à la console HMC. Vous pouvez alors déployer la planification système importée sur un système géré par la console HMC. Avant de commencer Vous pouvez importer un fichier de planification système dans la console HMC à partir de l’un des emplacements suivants : v L’ordinateur sur lequel vous accédez à distance à la console HMC. 78 Virtual I/O Server v Divers supports montés sur la console HMC, tels que des disques optiques ou des unités USB. v Un site éloigné à l’aide du protocole FTP. Pour utiliser cette option, vous devez effectuer les opérations obligatoires suivantes : – La console HMC doit disposer d’une connexion réseau au site distant. – Un serveur FTP doit être actif sur le site distant. – Le port 21 doit être ouvert sur le site distant. Remarque : Vous ne pouvez pas importer une planification système portant un nom identique à une planification disponible sur la console HMC. Pour importer un fichier de planification système, vous devez avoir le rôle d’administrateur central. Pour plus d’informations sur les rôles utilisateur, voir Gestion des utilisateurs et tâches HMC. A propos de cette tâche Pour importer un fichier de planification système dans la console HMC, exécutez la procédure suivante : 1. Dans la zone de navigation de la console HMC, sélectionnez Planifications système. 2. Dans la zone des tâches, sélectionnez Importation d’une planification système. La fenêtre Importation de la planification système s’ouvre. 3. Sélectionnez la source du fichier de planification système à importer. Servez-vous du tableau ci-après pour effectuer la procédure appropriée d’importation de la planification système à partir de l’emplacement source sélectionné du fichier. Source de la planification système à importer et procédez comme suit : Cet ordinateur 1. Sélectionnez Importation à partir de cet ordinateur vers la console HMC. 2. Cliquez sur Importer pour afficher la fenêtre Téléchargement du fichier. 3. Cliquez sur Parcourir. 4. Sélectionnez le fichier de planification système à importer et cliquez sur Ouvrir. 5. Cliquez sur OK pour télécharger le fichier. Support 1. Sélectionnez l’importation depuis un support. 2. Dans la zone Nom du fichier de planification système, entrez le nom du fichier de planification système. Remarque : Le nom de ce fichier doit se terminer par le suffixe .sysplan et ne peut comporter que des caractères alphanumériques. 3. Dans la zone Sous-répertoire du support, entrez le chemin du répertoire dans lequel se trouve le fichier de planification système sur le support. Remarque : Indiquez uniquement l’emplacement du sous-répertoire, plutôt que le chemin qualifié complet et le nom de fichier. 4. Cliquez sur Importation pour afficher la fenêtre Choix de l’unité de stockage. 5. Sélectionnez le support qui contient le fichier de planification système à importer. 6. Cliquez sur OK. Virtual I/O Server 79 Source de la planification système à importer et procédez comme suit : Site FTP distant 1. Sélectionnez l’option permettant d’effectuer une importation à partir d’un site FTP distant. 2. Dans la zone Nom du fichier de planification système, entrez le nom du fichier de planification système. Remarque : Le nom de ce fichier doit se terminer par le suffixe .sysplan et ne peut comporter que des caractères alphanumériques. 3. Dans la zone Nom d’hôte du site distant, entrez le nom d’hôte ou l’adresse IP du site FTP distant. 4. Dans la zone ID utilisateur, entrez l’ID utilisateur à employer pour accéder au site FTP distant. 5. Dans la zone Mot de passe, entrez le mot de passe à employer pour accéder au site FTP distant. 6. Dans la zone Répertoire distant, entrez le chemin d’accès au fichier de planification système sur le site FTP distant. Si vous ne le faites pas, la console HMC recherche le fichier de planification système dans le chemin par défaut spécifié sur le site FTP distant. 4. Cliquez sur Importer. Si la console HMC renvoie une erreur, revenez dans la fenêtre Importation de la planification système et vérifiez que les informations que vous avez entrées sont correctes. Si besoin est, cliquez sur Annulation, retournez à l’étape 2 et recommencez la procédure depuis le début, en vous assurant que les informations tapées à chaque étape sont correctes. Que faire ensuite Remarque : A la place de l’interface utilisateur Web de la console HMC, vous pouvez utiliser la commande cpysysplan à partir de l’interface de ligne de commande de la console HMC pour importer une planification système. Une fois la procédure d’importation terminée, vous pouvez déployer la planification système du fichier correspondant sur un système géré par la console HMC. Si vous avez importé le fichier de planification système depuis un support, vous pouvez démonter celui-ci en utilisant la commande umount dans l’interface de ligne de commande de la console HMC. Tâches associées «Déploiement d’une planification système via la console HMC» Vous pouvez utiliser la console HMC (Hardware Management Console) pour déployer tout ou partie d’une planification système sur un système géré. Information associée Gestion de la console HMC Cette publication destinée aux administrateurs système et aux opérateurs système fournit des informations sur l’utilisation de la console HMC (Hardware Management Console). Déploiement d’une planification système via la console HMC Vous pouvez utiliser la console HMC (Hardware Management Console) pour déployer tout ou partie d’une planification système sur un système géré. Avant de commencer Lorsque vous déployez une planification système, la console HMC crée des partitions logiques sur le système géré, en fonction des spécifications de cette planification. Selon le contenu de la planification 80 Virtual I/O Server système, vous pouvez également prévoir dans la planification d’installer des environnements d’exploitation sur les partitions logiques, notamment Virtual I/O Server (VIOS), AIX ou Linux. Si la planification comporte des informations d’application des accès à VIOS pour une partition logique, telles que des affectations de mémoire une utilisation en réseau virtuel pour les partitions logiques client VIOS, la console HMC peut assurer ces affectations de ressource pour les partitions logiques client. Il n’est pas nécessaire de déployer une planification système dans son intégralité, il est possible d’effectuer cette opération partiellement sur le système cible en sélectionnant dans la planification les partitions logiques à déployer. Vous pouvez réexécuter l’assistant de déploiement de planification système par la suite afin de déployer le reste des partitions logiques dans la planification système. Toutefois, si vous sélectionnez une partition VIOS pour le déploiement, l’assistant déploie tous les éléments d’application des accès à VIOS qui sont planifiés pour la partition même si la partition logique client client qui utilise l’un des éléments n’est pas sélectionnée pour le déploiement. Si la planification système comporte des informations d’installation pour VIOS, vous pouvez utiliser l’assistant de déploiement de planification système pour installer VIOS et configurer l’utilisation du réseau virtuel et les ressources mémoire pour les partitions logiques client VIOS. Avant de commencer la procédure, exécutez les tâches suivantes : v Vérifiez que le fichier de planification système existe bien sur la console HMC. Si ce n’est pas le cas, vous devez l’importer dans la console HMC. Pour des instructions, voir Importation d’une planification système sur une console HMC. v Assurez-vous de satisfaire les exigences appropriées au déploiement de la planification système. Pour plus d’informations, voir Exigences concernant le déploiement de la planification système. A propos de cette tâche Déploiement d’une planification système Pour utiliser la console HMC pour déployer une planification système sur un système géré, procédez comme suit : 1. Dans la zone de navigation de la console HMC, sélectionnez Planifications système. 2. Dans la zone de contenu, sélectionnez la planification système à déployer. 3. Sélectionnez Tâches → Déploiement de la planification système. L’assistant de déploiement de planification système démarre. 4. Sur la page d’Accueil, procédez comme suit : a. Sélectionnez le fichier de planification système qui contient la planification système à déployer. b. Choisissez le système géré sur lequel vous souhaitez déployer la planification système et cliquez sur Suivant. Si la planification système ne correspond pas au système géré sur lequel vous souhaitez la déployer, l’assistant affiche une fenêtre vous en informant. Cliquez sur OK pour continuer ou sur Annulation pour sélectionner une autre planification système. Remarque : Si le fichier de planification système contient plusieurs planifications système, l’assistant contient une phase qui vous permet d’en sélectionner une spécifique dans le fichier. Cette phase n’est pas accessible si le fichier spécifié ne contient qu’une planification système. 5. Sur la page Validation, procédez comme suit : a. Attendez que l’assistant valide le système géré et son matériel, grâce à une comparaison avec la planification système. Le processus de validation peut prendre un certain temps. b. S’il s’achève correctement, cliquez sur Suivant. c. Dans le cas contraire, corrigez les erreurs décrites par les messages d’erreur, cliquez sur Annulation pour quitter l’assistant, puis recommencez la procédure depuis le début. Pour vous aider à corriger des incidents de validation, vous pouvez créer une planification système basée sur Virtual I/O Server 81 la configuration en cours du système géré. Une telle planification système vous permet de comparer la planification système que vous voulez déployer avec la configuration actuelle du système géré. Vous pouvez pour ce faire utiliser la tâche Création d’une planification système dans la console HMC ou exécuter la commande suivante à partir de la ligne de commande de la console HMC : mksysplan -m nom_du_système_géré -f nom_de_la_nouvelle_planification_système.sysplan Cette commande crée une nouvelle planification système que vous pouvez afficher et comparer avec l’ancienne pour vous aider à diagnostiquer les incidents. 6. Facultatif : Sur la page de déploiement de partition, si, dans la planification système, vous ne souhaitez pas créer l’ensemble des partitions logiques et leurs profils, ni les types d’adaptateur virtuel ou les adaptateurs eux-mêmes, décochez les cases correspondantes dans la colonne Déploiement. Les adaptateurs série virtuels sont requis et doivent se trouver dans les emplacements 0 et 1 de chaque partition logique. Vous ne pouvez pas créer de partition logique tant que vous n’avez pas créé ces adaptateurs. 7. Facultatif : Sur la page Installation de l’environnement d’exploitation, si des informations d’installation de l’environnement d’exploitation sont spécifiées dans la planification système, procédez comme suit : a. Sélectionnez les environnements d’exploitation que vous souhaitez déployer sur le système géré pour chaque partition logique. Pour la console HMC V7R3.2.0 ou V7R3.1.0, vous pouvez déployer l’environnement d’exploitation Virtual I/O Server uniquement. Pour la console HMC V7R3.3.0 ou des versions ultérieures, vous pouvez en outre choisir de déployer les environnements d’exploitation AIX ou Linux si la planification système contient des informations d’installation les concernant. b. Saisissez l’emplacement de l’image d’installation de Virtual I/O Server. c. Entrez ou modifiez les paramètres d’installation attribués a posteriori à l’environnement d’exploitation Virtual I/O Server, AIX ou Linux. Les paramètres d’installation d’attribution a posteriori sont des paramètres qui sont spécifiques à l’instance d’installation et doivent être fournis au cours de la phase d’installation pour garantir qu’ils sont corrects pour cette instance. Ainsi, vous pouvez entrer l’adresse IP de la partition logique cible sur laquelle vous installez l’environnement d’exploitation. Remarque : Si vous devez utiliser des fichiers d’installation automatique pour déployer un environnement d’exploitation, vous ne pouvez pas les ajouter pendant le processus de déploiement de la console HMC. d. Enregistrez toutes les modifications apportées aux paramètres d’installation d’attribution a posteriori. Vous pouvez les enregistrer dans le fichier de planification système actuel ou dans un nouveau fichier de planification système. 8. Sur la page Récapitulatif, contrôlez l’ordre des étapes de déploiement du système et cliquez sur Terminer. La console HMC s’appuie sur la planification système pour créer les partitions logiques spécifiées et pour installer tous les environnements d’exploitation spécifiés. Ce processus peut prendre plusieurs minutes. Que faire ensuite Une fois le déploiement de la planification système terminé, installez les environnements d’exploitation et le logiciel sur les partitions logiques s’ils n’ont pas été installés lors du déploiement de la planification système. 82 Virtual I/O Server Tâches associées «Importation d’une planification système dans une console HMC», à la page 78 Vous pouvez importer un fichier de planification système sur une console HMC (Hardware Management Console) à partir de divers types de supports, d’un site FTP distant ou de l’ordinateur à partir duquel vous accédez à distance à la console HMC. Vous pouvez alors déployer la planification système importée sur un système géré par la console HMC. Information associée Partitionnement logique Gestion de la console HMC Cette publication destinée aux administrateurs système et aux opérateurs système fournit des informations sur l’utilisation de la console HMC (Hardware Management Console). Finalisation de l’installation de Virtual I/O Server Après l’installation de Virtual I/O Server, recherchez les éventuelles mises à jour, configurez les connexions à distance, créez les autres ID utilisateur, etc. Avant de commencer Cette procédure suppose que Virtual I/O Server est installé. Pour plus d’informations, voir «Installation de Virtual I/O Server et des partitions logiques client», à la page 77. A propos de cette tâche Pour terminer l’installation, procédez comme suit : 1. Acceptez les termes et conditions de maintenance logicielle, ainsi que la licence produit de Virtual I/O Server. Pour plus d’informations, voir «Affichage et acceptation du contrat de licence de Virtual I/O Server», à la page 88. 2. Etablissez les connexions distantes au Virtual I/O Server. Pour plus d’informations, voir «Connexion au serveur Virtual I/O Server à l’aide d’OpenSSH», à la page 151. 3. Facultatif : Créez les autres ID utilisateur. A la fin de l’installation, le seul ID utilisateur actif est celui de l’administrateur principal (padmin). Vous pouvez créer les ID utilisateur suivants : administrateur système, technicien de maintenance et ingénieur de développement. Pour plus d’informations sur la création d’ID utilisateur, voir «Gestion des utilisateurs sur le serveur Virtual I/O Server», à la page 156. 4. Configurez la connexion TCP/IP pour Virtual I/O Server à l’aide de la commande mktcpip. Vous devez accomplir cette tâche pour pouvoir effectuer une opération de partitionnement logique dynamique. Vous avez également la possibilité d’utiliser le menu d’assistance de configuration pour configurer les connexions TCP/IP. Pour accéder au menu d’assistance de la configuration, exécutez la commande cfgassist. Que faire ensuite Lorsque vous avez terminé, effectuez l’une des opérations suivantes : v Si vous avez installé Virtual I/O Server, des partitions logiques client et des systèmes d’exploitation en déployant entièrement une planification système, l’installation est terminée. Pour plus d’informations sur la gestion de Virtual I/O Server, voir «Gestion du serveur Virtual I/O Server», à la page 121. v Si vous avez installé Virtual I/O Server manuellement à l’aide de la console HMC version 6 ou version 7, vous devez configurer Virtual I/O Server, créer des partitions logiques client et installer des systèmes d’exploitation client. Pour plus d’informations, voir «Configuration de Virtual I/O Server», à la page 94 et le manuel Partitionnement logique. Pour visualiser le fichier PDF de la rubrique Partitionnement logique (environ 1 Mo), voir oemiphat.pdf . Virtual I/O Server 83 Installation manuelle de Virtual I/O Server via la console HMC version 7 Vous pouvez créer la partition logique et le profil de partition Virtual I/O Server, puis installer Virtual I/O Server via la console HMC (Hardware Management Console) version 7 ou ultérieure. Avant de commencer Avant de commencer, vérifiez que les conditions suivantes sont remplies : v Le système sur lequel vous envisagez d’installer Virtual I/O Server est géré par une console HMC (Hardware Management Console). v Vous disposez de la console HMC version 7 ou ultérieure. Si vous disposez d’une console HMC version 6 ou antérieure, voir Installation manuelle de Virtual I/O Server via la console HMC version 6. Saisie du code d’activation de PowerVM Editions via la console HMC version 7 Cette procédure explique comment saisir le code d’activation de PowerVM Editions (ou Advanced POWER Virtualization) à partir de la console HMC (Hardware Management Console) version 7 ou supérieure. A propos de cette tâche Si PowerVM Editions n’est pas activé sur votre système, vous devez utiliser la console HMC pour entrer le code d’activation que vous avez reçu lors de la votre commande. Procédez comme suit pour entrer le code d’activation de PowerVM Standard Edition et de PowerVM Enterprise Edition. Pour plus d’informations sur PowerVM Editions, voir PowerVM Editions overview. Pour entrer votre code d’activation, procédez comme suit : 1. Dans la zone de Navigation, développez Gestion de systèmes. 2. Sélectionnez Serveurs. 3. Dans la zone de contenu, sélectionnez le système géré sur lequel vous souhaitez utiliser PowerVM Editions. Il peut s’agir, par exemple, du système sur lequel vous envisagez d’installer Virtual I/O Server ou celui dans lequel vous envisagez d’utiliser la technologie Micro-Partitioning. 4. Cliquez sur Tâches et sélectionnez Capacity on Demand (CoD) → AdvancedPOWER Virtualization → Saisie du code d’activation. 5. Entrez votre code d’activation et cliquez sur OK. Création de la partition logique et du profil de partition Virtual I/O Server via la console HMC version 7 Vous pouvez utiliser la console HMC version 7 pour créer une partition logique et un profil de partition pour le serveur Virtual I/O Server. Avant de commencer Avant de commencer, vérifiez que les conditions suivantes sont remplies : v Vous êtes un super administrateur ou un opérateur. v La fonction PowerVM Editions (ou Advanced POWER Virtualization) est activée. Pour plus d’informations, voir «Saisie du code d’activation de PowerVM Editions via la console HMC version 7», à la page 78. A propos de cette tâche Virtual I/O Server requiert un espace disque minimum de 16 Go. 84 Virtual I/O Server Pour créer une partition logique et un profil de partition sur votre serveur via la console HMC, procédez comme suit : 1. Dans la zone de Navigation, développez Gestion de systèmes. 2. Sélectionnez Serveurs. 3. Dans la zone de contenu, ouvrez le serveur sur lequel vous voulez créer le profil de partition. 4. Cliquez sur Tâches et sélectionnez Configuration → Création d’une partition logique → Serveur d’E-S virtuel. 5. Sur la page Création de partition, entrez le nom et l’ID de la partition Virtual I/O Server. 6. Sur la page Profil de partition, procédez comme suit : a. Entrez un nom de profil pour la partition Virtual I/O Server. b. Assurez-vous que la case à cocher Utiliser toutes les ressources du système n’est pas sélectionnée. 7. Sur la page Processeurs, indiquez si vous souhaiter utiliser des processeurs partagés ou dédiés (en fonction de votre environnement), en sélectionnant l’option correspondante. 8. Sur la page Paramètres de traitement, entrez la quantité d’unités de traitement et de processeurs virtuels que vous souhaitez attribuer à la partition Virtual I/O Server. 9. Sur la page Mémoire, sélectionnez la quantité de mémoire que vous souhaitez attribuer à la partition Virtual I/O Server. La quantité minimale requise est de 512 Mo. 10. Sur la page E-S, sélectionnez les ressources d’E-S physiques que vous souhaitez avoir sur la partition Virtual I/O Server. 11. Sur la page Cartes virtuelles, créez les cartes destinées à votre environnement. 12. Sur la page Carte Ethernet hôte logique (LHEA), configurez une ou plusieurs cartes de ce type pour la partition Virtual I/O Server. (La carte Ethernet hôte est parfois appelée carte Ethernet virtuelle intégrée.) 13. Sur la page Paramètres facultatifs, procédez comme suit : a. Décidez si vous souhaitez surveiller les connexions en sélectionnant l’option appropriée. b. Pour que Virtual I/O Server démarre en même temps que le système géré, sélectionnez l’option Démarrer automatiquement avec le système géré. c. Indiquez si vous souhaitez activer l’édition de rapports sur le chemin de traitement des erreurs en sélectionnant l’option correspondante. d. Sélectionnez le mode d’amorçage de la partition Virtual I/O Server. Dans la plupart des cas, le mode d’amorçage Normal est l’option appropriée. 14. Vérifiez vos sélections dans la fenêtre Récapitulatif du profil et appuyez sur Terminer. Que faire ensuite Après la création de la partition et du profil de partition, vous pouvez installer Virtual I/O Server. Pour plus d’informations, consultez l’une des procédures suivantes : v «Installation de Virtual I/O Server à partir de la console HMC» v «Installation de Virtual I/O Server à partir d’un CD ou d’un DVD», à la page 86 Installation de Virtual I/O Server à partir de la console HMC Cette rubrique contient des instructions sur l’installation de Virtual I/O Server via la console HMC à l’aide de la commande installios. Avant de commencer Avant de commencer, effectuez les tâches suivantes : 1. Vérifiez que les conditions suivantes sont remplies : v Une console HMC est connectée au système géré. Virtual I/O Server 85 v La partition logique et le profil de partition logique Virtual I/O Server sont créés. Pour plus d’informations, voir «Création de la partition logique et du profil de partition Virtual I/O Server via la console HMC version 7», à la page 84. v La partition logique Virtual I/O Server dispose d’au moins une carte Ethernet et un disque de 16 Go lui a été attribué. v Vous disposez des droits d’accès hmcsuperadmin. 2. Collectez les informations suivantes : v l’adresse IP statique du serveur Virtual I/O Server v le masque de sous-réseau du serveur Virtual I/O Server v la passerelle par défaut du serveur Virtual I/O Server A propos de cette tâche Pour installer Virtual I/O Server, procédez comme suit : 1. Insérez le CD-ROM ou le DVD-ROM de Virtual I/O Server dans la console HMC. 2. Si vous installez Virtual I/O Server via l’interface réseau publique, passez à l’étape 3. Si vous installez Virtual I/O Server via une interface réseau privée, entrez la commande suivante sur la ligne de commande de la console HMC : export INSTALLIOS_PRIVATE_IF=interface où interface correspond à l’interface réseau où doit avoir lieu l’installation. 3. Dans la ligne de commande de la console HMC, tapez : installios 4. Suivez les instructions d’installation conformément aux invites du système. Que faire ensuite Après l’installation de Virtual I/O Server, effectuez les tâches complémentaires à l’installation (recherchez les mises à jour, configurez la connexion à distance, créez d’autres ID utilisateur, etc.). Pour plus d’informations, voir «Finalisation de l’installation de Virtual I/O Server», à la page 83. Installation de Virtual I/O Server à partir d’un CD ou d’un DVD Instructions relatives à l’installation de Virtual I/O Server à partir d’une unité de CD-ROM ou de DVD-ROM connectée à la partition logique du serveur de Virtual I/O Server. Avant de commencer Avant de commencer, vérifiez que les conditions suivantes sont remplies : v Une console HMC est connectée au système géré. v La partition logique et le profil de partition logique Virtual I/O Server sont créés. Pour plus d’informations, voir «Création de la partition logique et du profil de partition Virtual I/O Server via la console HMC version 7», à la page 84. v Une unité optique CD ou DVD est attribuée à la partition logique Virtual I/O Server. A propos de cette tâche Pour installer Virtual I/O Server à partir d’un CD ou d’un DVD, procédez comme suit : 1. Activez la partition logique Virtual I/O Server à l’aide de la console HMC version 7 (ou ultérieure) ou version 6 (ou antérieure) : v Activez le serveur Virtual I/O Server à l’aide de la console HMC version 7 ou ultérieure : a. Insérez le CD ou le DVD du serveur Virtual I/O Server dans la partition logique Virtual I/O Server. 86 Virtual I/O Server b. c. d. e. f. g. h. i. j. Dans la zone de navigation de la console HMC, cliquez sur Gestion de systèmes → Serveurs. Sélectionnez le serveur sur lequel se trouve la partition logique Virtual I/O Server. Dans la zone Contenu, sélectionnez la partition logique Virtual I/O Server. Cliquez sur Tâches → Utilisation → Activation. Le menu Activation d’une partition s’ouvre en proposant une sélection de profils de partition logique. Vérifiez que le bon profil est mis en évidence. Sélectionnez Ouverture d’une fenêtre de terminal ou d’une session de console pour ouvrir une fenêtre de terminal virtuel (vterm). Cliquez sur Options avancées pour ouvrir le menu des options avancées. Pour le mode d’amorçage, sélectionnez SMS. Cliquez sur OK pour fermer le menu des options avancées. Cliquez sur OK. Une fenêtre de terminal virtuel s’ouvre pour la partition logique. v Activez le serveur Virtual I/O Server à l’aide de la console HMC version 6 ou antérieure : a. Insérez le CD ou le DVD du serveur Virtual I/O Server dans la partition logique Virtual I/O Server. b. Sur la console HMC, cliquez avec le bouton droit de la souris sur la partition logique pour ouvrir le menu correspondant. c. Cliquez sur Activer. Le menu Activation d’une partition s’ouvre en proposant une sélection de profils de partition logique. Vérifiez que le bon profil est mis en évidence. d. Sélectionnez Ouverture d’une fenêtre de terminal ou d’une session de console pour ouvrir une fenêtre de terminal virtuel (vterm). e. Cliquez sur Options avancées pour ouvrir le menu des options avancées. f. Pour le mode d’amorçage, sélectionnez SMS. g. Cliquez sur OK pour fermer le menu des options avancées. h. Cliquez sur OK. Une fenêtre de terminal virtuel s’ouvre pour la partition logique. 2. Sélectionnez l’unité d’amorçage : a. b. c. d. Sélectionnez Choix options d’amorçage et appuyez sur Entrée. Sélectionnez Choix unité installation/amorçage et appuyez sur Entrée. Sélectionnez Sélection de la première unité d’amorçage et appuyez sur Entrée. Sélectionnez CD/DVD et appuyez sur Entrée. e. Sélectionnez le type de support correspondant à l’unité optique, puis appuyez sur Entrée. f. Sélectionnez le numéro de l’unité correspondant à l’unité optique, puis appuyez sur Entrée. g. Définissez la séquence d’amorçage pour configurer la première unité d’amorçage. L’unité optique est désormais la première unité de la liste Séquence d’amorçage en cours. h. Quittez le menu SMS en appuyant sur la touche x puis confirmez que vous souhaitez quitter SMS. 3. Installez Virtual I/O Server : a. Sélectionnez la console souhaitée et appuyez sur Entrée. b. Sélectionnez une langue pour les menus du système d’exploitation de base et appuyez sur Entrée. c. Sélectionnez Lancement de l’installation avec paramètres par défaut et appuyez sur Entrée. d. Sélectionnez Suite de l’installation. Le système redémarre une fois l’installation terminée. Que faire ensuite Après avoir installé Virtual I/O Server, terminez l’installation en recherchant les mises à jour, en établissant les connexions distantes, en créant d’autres ID utilisateur, etc. Pour plus d’informations, voir «Finalisation de l’installation de Virtual I/O Server», à la page 83. Virtual I/O Server 87 Finalisation de l’installation de Virtual I/O Server Après l’installation de Virtual I/O Server, recherchez les éventuelles mises à jour, configurez les connexions à distance, créez les autres ID utilisateur, etc. Avant de commencer Cette procédure suppose que Virtual I/O Server est installé. Pour plus d’informations, voir «Installation de Virtual I/O Server et des partitions logiques client», à la page 77. A propos de cette tâche Pour terminer l’installation, procédez comme suit : 1. Acceptez les termes et conditions de maintenance logicielle, ainsi que la licence produit de Virtual I/O Server. Pour plus d’informations, voir «Affichage et acceptation du contrat de licence de Virtual I/O Server». 2. Etablissez les connexions distantes au Virtual I/O Server. Pour plus d’informations, voir «Connexion au serveur Virtual I/O Server à l’aide d’OpenSSH», à la page 151. 3. Facultatif : Créez les autres ID utilisateur. A la fin de l’installation, le seul ID utilisateur actif est celui de l’administrateur principal (padmin). Vous pouvez créer les ID utilisateur suivants : administrateur système, technicien de maintenance et ingénieur de développement. Pour plus d’informations sur la création d’ID utilisateur, voir «Gestion des utilisateurs sur le serveur Virtual I/O Server», à la page 156. 4. Configurez la connexion TCP/IP pour Virtual I/O Server à l’aide de la commande mktcpip. Vous devez accomplir cette tâche pour pouvoir effectuer une opération de partitionnement logique dynamique. Vous avez également la possibilité d’utiliser le menu d’assistance de configuration pour configurer les connexions TCP/IP. Pour accéder au menu d’assistance de la configuration, exécutez la commande cfgassist. Que faire ensuite Lorsque vous avez terminé, effectuez l’une des opérations suivantes : v Si vous avez installé Virtual I/O Server, des partitions logiques client et des systèmes d’exploitation en déployant entièrement une planification système, l’installation est terminée. Pour plus d’informations sur la gestion de Virtual I/O Server, voir «Gestion du serveur Virtual I/O Server», à la page 121. v Si vous avez installé Virtual I/O Server manuellement à l’aide de la console HMC version 6 ou version 7, vous devez configurer Virtual I/O Server, créer des partitions logiques client et installer des systèmes d’exploitation client. Pour plus d’informations, voir «Configuration de Virtual I/O Server», à la page 94 et le manuel Partitionnement logique. Pour visualiser le fichier PDF de la rubrique Partitionnement logique (environ 1 Mo), voir oemiphat.pdf . Affichage et acceptation du contrat de licence de Virtual I/O Server : Avant d’utiliser Virtual I/O Server, vous devez afficher et accepter le contrat de licence. Avant de commencer Avant de commencer, vérifiez que le profil de la partition logique Virtual I/O Server est créée et que Virtual I/O Server est installé. Pour plus d’informations, voir «Installation de Virtual I/O Server et des partitions logiques client», à la page 77. A propos de cette tâche Pour consulter et accepter la licence de Virtual I/O Server, procédez comme suit : 1. Connectez-vous au serveur Virtual I/O Server avec l’ID utilisateur padmin. 88 Virtual I/O Server 2. Choisissez un nouveau mot de passe. Les dispositions relatives à la maintenance logicielle apparaissent. 3. Affichez et acceptez le contrat de licence du produit Virtual I/O Server. Remarque : Si vous avez installé Virtual I/O Server en déployant une planification système, vous avez déjà accepté le contrat de licence du produit Virtual I/O Server. Il est donc inutile d’exécuter cette procédure. a. Pour afficher le contrat de licence du produit Virtual I/O Server, tapez license -ls sur la ligne de commande. Par défaut, la licence s’affiche en anglais. Pour modifier la langue d’affichage de la licence, procédez comme suit : 1) Affichez la liste des paramètres nationaux disponibles pour l’affichage de la licence en entrant la commande suivante : license -ls 2) Affichez la licence dans une autre langue en entrant la commande suivante : license -view -lang Nom Par exemple, pour afficher la licence en japonais, entrez la commande suivante : license -view -lang ja_JP b. Pour accepter le contrat de licence du produit Virtual I/O Server, tapez license -accept sur la ligne de commande. 4. Dans le programme d’installation, l’anglais est la langue par défaut. Si vous voulez modifier le paramètre de langue du système, procédez comme suit : a. Affichez les langues disponibles en entrant la commande suivante : chlang -ls b. Modifiez la langue en entrant la commande suivante, en remplaçant Nom par le nom de la langue que vous souhaitez utiliser. chlang -lang Nom Remarque : Si le jeu de fichiers de langue n’est pas installé, utilisez l’option -dev Support pour l’installer. Par exemple, pour installer et sélectionner du japonais, entrez la commande suivante : chlang -lang ja_JP -dev /dev/cd0 Réinstallation de Virtual I/O Server pour une partition VIOS de pagination Lorsque vous réinstallez le serveur Virtual I/O Server (VIOS) qui est affecté au pool de mémoire partagée (appelé ici partition VIOS de pagination), vous devez reconfigurer l’environnement de mémoire partagée. Par exemple, il peut être nécessaire d’ajouter à nouveau des unités d’espace de pagination au pool de mémoire partagée. A propos de cette tâche Les partitions VIOS de pagination stockent des informations sur les unités d’espace de pagination qui sont affectées à un pool de mémoire partagée. La console HMC (Hardware Management Console) obtient des informations sur les unités d’espace de pagination qui sont affectées au pool de mémoire partagée à partir des partitions VIOS de pagination. Lorsque vous réinstallez le VIOS, les informations sur les unités d’espace de pagination sont perdues. Pour que les partitions VIOS de pagination retrouvent les informations, vous devez affecter à nouveau les unités d’espace de pagination au pool de mémoire partagée après la réinstallation du VIOS. Le tableau ci-dessous répertorie les tâches de reconfiguration à effectuer dans l’environnement de mémoire partagée lorsque vous réinstallez le serveur Virtual I/O Server pour une partition VIOS de Virtual I/O Server 89 pagination. Tableau 29. Tâches de reconfiguration de la mémoire partagée pour la réinstallation du serveur Virtual I/O Server pour une partition VIOS de pagination Nombre de partitions VIOS de pagination affectées au pool de mémoire partagée Nombre de partitions VIOS de pagination pour lesquelles réinstaller le VIOS 1 1 Etapes de reconfiguration Instructions 1. Arrêtez toutes les partitions logiques qui utilisent la mémoire partagée (appelées ici partitions de mémoire partagée). 1. Arrêt et redémarrage de partitions logiques 2. Réinstallez le VIOS. 3. Ajout et suppression d’espace de pagination dans le pool de mémoire partagée 3. Ajoutez à nouveau les unités d’espace de pagination au pool de mémoire partagée. 2. Installation manuelle du serveur Virtual I/O Server avec la console HMC version 7 2 1 1. Arrêt et redémarrage de 1. Arrêtez toutes les partitions logiques partitions de mémoire partagée qui utilisent la 2. Suppression d’une partition VIOS de partition VIOS de pagination (que vous pagination du pool de prévoyez de réinstaller) mémoire partagée comme partition VIOS 3. Installation manuelle du de pagination principale serveur Virtual I/O ou secondaire. Server avec la console 2. Supprimez la partition HMC version 7 VIOS de pagination du 4. Ajout d’une partition pool de mémoire VIOS de pagination au partagée. pool de mémoire 3. Réinstallez le VIOS. partagée 4. Ajoutez à nouveau la partition VIOS de pagination au pool de mémoire partagée. 2 2 1. Arrêtez toutes les partitions de mémoire partagée. 1. Arrêt et redémarrage de partitions logiques 2. Réinstallez le VIOS de chaque partition VIOS de pagination. 2. Installation manuelle du serveur Virtual I/O Server avec la console HMC version 7 3. Ajoutez à nouveau les unités d’espace de pagination au pool de mémoire partagée. 3. Ajout et suppression d’espace de pagination dans le pool de mémoire partagée Migration de Virtual I/O Server Vous pouvez migrer la partition logique Virtual I/O Server à partir de la console HMC (Hardware Management Console) version 7 (ou ultérieure) ou à partir d’une unité de DVD-ROM reliée à la partition logique Virtual I/O Server. Avant de commencer, vérifiez que les conditions suivantes sont remplies : 90 Virtual I/O Server v Le système sur lequel vous envisagez de migrer Virtual I/O Server est géré par une console HMC version 7 ou ultérieure. v Vous disposez de la version 1.3 ou ultérieure de Virtual I/O Server. v Le groupe de volumes rootvg a été attribué au serveur Virtual I/O Server. Remarque : Si vous utilisez un environnement IVM (Integrated Virtualization Manager), voir Migration du serveur Virtual I/O Server à partir d’une unité DVD. Dans la plupart des cas, les fichiers de configuration utilisateur de la version précédente de Virtual I/O Server sont sauvegardés lorsque la nouvelle version est installée. Si vous disposez de plusieurs partitions logiques Virtual I/O Server dans votre environnement à des fins de redondance, vous avez la possibilité d’arrêter et de migrer une partition logique Virtual I/O Server sans interrompre les clients. Une fois la migration effectuée, la partition logique Virtual I/O Server est redémarrée et disponible pour les clients sans configuration supplémentaire. Avertissement : N’utilisez pas la commande updateios du serveur Virtual I/O Server pour migrer ce dernier. Information associée Migrating the Virtual I/O Server using NIM Migration de Virtual I/O Server à partir de la console HMC Cette rubrique contient des instructions sur la migration de Virtual I/O Server à partir de la console HMC à l’aide de la commande installios. Avant de commencer Avant de commencer, vérifiez que les conditions suivantes sont remplies : v Une console HMC est connectée au système géré. v La partition logique Virtual I/O Server dispose d’au moins une carte Ethernet et un disque de 16 Go lui a été attribué. v Vous disposez des droits d’accès hmcsuperadmin. v Vous disposez du support de migration de Virtual I/O Server. Remarque : Ce support est distinct du support d’installation. v Vous disposez actuellement de la version 1.3 ou ultérieure de Virtual I/O Server. v Le groupe de volumes rootvg a été attribué au Virtual I/O Server. v Sauvegardez l’image mksysb avant de migrer Virtual I/O Server. Exécutez la commande backupios et sauvegardez l’image mksysb à un emplacement sûr. A propos de cette tâche Pour migrer Virtual I/O Server, procédez comme suit : 1. Insérez le DVD de migration du Virtual I/O Server dans la console HMC. 2. Si vous installez Virtual I/O Server via l’interface réseau public, passez à l’étape 3. Si vous installez Virtual I/O Server via une interface réseau privé, entrez la commande suivante sur la ligne de commande de la console HMC : export INSTALLIOS_PRIVATE_IF=interface où interface correspond à l’interface réseau où doit avoir lieu l’installation. 3. Sur la ligne de commande de la console HMC, tapez : installios Virtual I/O Server 91 Avertissement : N’utilisez pas la commande updateios de Virtual I/O Server pour migrer ce dernier. 4. Suivez les instructions d’installation conformément aux invites du système. Que faire ensuite Une fois la migration effectuée, la partition logique de Virtual I/O Server est redémarrée avec la configuration en vigueur avant l’installation de la migration. Il est recommandé d’effectuer les tâches suivantes : v S’assurer que la migration a abouti en vérifiant les résultats de la commande installp et en exécutant la commande ioslevel. Cette commande doit indiquer un niveau ioslevel correspondant à $ ioslevel 2.1.0.0. v Redémarrez les démons et les agents qui étaient en cours d’exécution auparavant : 1. Connectez-vous au serveur Virtual I/O Server en tant qu’utilisateur padmin. 2. Exécutez la commande suivante : $ motd -overwrite ″<entrer le message de bannière précédent>″ 3. Démarrez les démons qui étaient en cours d’exécution auparavant, tels que FTP et Telnet. 4. Démarrez les agents qui étaient en cours d’exécution auparavant, tels qu’ituam. v Vérifiez s’il existe des mises à jour pour Virtual I/O Server. Pour des instructions, voir le site de support de Virtual I/O Server. A faire : Le support de migration de Virtual I/O Server est différent du support d’installation de Virtual I/O Server. N’utilisez pas le support d’installation pour effectuer des mises à jour après une migration. Il ne contient pas les mises à jour et vous perdrez votre configuration actuelle. Appliquez les mises à jour en suivant les instructions qui figurent sur le site de support de Virtual I/O Server uniquement. Tâches associées «Sauvegarde du serveur Virtual I/O Server sur un système de fichiers distant via une image mksysb», à la page 134 Vous pouvez sauvegarder sur un système de fichiers distant différentes données Virtual I/O Server (le code de base, les groupes de correctifs appliqués, les pilotes d’unités personnalisés permettant de prendre en charge les sous-systèmes de disque et certaines métadonnées définies par l’utilisateur) en créant un fichier mksysb Information associée Migration de Virtual I/O Server à partir d’une unité DVD Migration de Virtual I/O Server à partir d’une unité DVD Migration de Virtual I/O Server à partir d’une unité DVD Instructions relatives à la migration de Virtual I/O Server à partir d’une unité de DVD-ROM connectée à la partition logique Virtual I/O Server. Avant de commencer Avant de commencer, vérifiez que les conditions suivantes sont remplies : v Une console HMC est connectée au système géré. v Une unité optique DVD est affectée à la partition logique de Virtual I/O Server. v Le support d’installation pour la migration de Virtual I/O Server est obligatoire. Remarque : Ce support est distinct du support d’installation de Virtual I/O Server. v Vous disposez actuellement de la version 1.3 ou supérieure de Virtual I/O Server. v Le groupe de volumes rootvg a été attribué au Virtual I/O Server. 92 Virtual I/O Server v Sauvegardez l’image mksysb avant de migrer Virtual I/O Server. Exécutez la commande backupios et sauvegardez l’image mksysb à un emplacement sûr. Remarque : Si vous utilisez un environnement IVM (Integrated Virtualization Manager), reportez-vous à Migration de Virtual I/O Server à partir d’une unité DVD à l’aide du gestionnaire Integrated Virtualization Manager. A propos de cette tâche Pour migrer Virtual I/O Server à partir d’une unité DVD, procédez comme suit : 1. Activez la partition logique Virtual I/O Server à l’aide de la console HMC, version 7 (ou ultérieure) : a. Insérez le Virtual I/O ServerDVD de migration dans l’unité de DVD-ROM affectée à la partition logique Virtual I/O Server. b. Dans la zone de navigation de la console HMC, cliquez sur Gestion de systèmes → Serveurs. c. Sélectionnez le serveur sur lequel se trouve la partition logique Virtual I/O Server. d. Dans la zone Contenu, sélectionnez la partition logique Virtual I/O Server. e. Cliquez sur Tâches → Utilisation → Activation. Le menu Activation d’une partition s’ouvre en proposant une sélection de profils de partition logique. Assurez-vous que le profil correct est mis en évidence. f. Sélectionnez Ouverture d’une fenêtre de terminal ou d’une session de console pour ouvrir une fenêtre de terminal virtuel (vterm). g. Cliquez sur Options avancées pour ouvrir le menu des options avancées. h. Pour le mode d’amorçage, sélectionnez SMS. i. Cliquez sur OK pour fermer le menu des options avancées. j. Cliquez sur OK. Une fenêtre de terminal virtuel s’ouvre pour la partition logique. 2. Sélectionnez l’unité d’amorçage : a. Sélectionnez Sélection des options d’amorçage et appuyez sur Entrée. b. Sélectionnez Choix unité installation/amorçage et appuyez sur Entrée. c. Sélectionnez CD/DVD et appuyez sur Entrée. d. Sélectionnez le numéro d’unité correspondant à l’unité DVD et appuyez sur Entrée. Vous pouvez également cliquer sur Liste de toutes les unités et sélectionner le numéro d’unité dans la liste puis appuyer sur Entrée. e. Sélectionnez Amorçage en mode normal. f. Sélectionnez Oui pour quitter le menu SMS. 3. Installez Virtual I/O Server : a. Sélectionnez la console souhaitée et appuyez sur Entrée. b. Sélectionnez une langue pour les menus du système d’exploitation de base et appuyez sur Entrée. c. Sélectionnez Lancement de l’installation avec paramètres par défaut et appuyez sur Entrée. Vous pouvez également vérifier les paramètres système et les paramètres d’installation en entrant 2 pour sélectionner Modif/affich des paramètres d’installation et installation. Remarque : Vous n’avez pas besoin de modifier les paramètres d’installation pour sélectionner la méthode d’installation pour la migration. S’il existe une version précédente du système d’exploitation, la migration est la méthode d’installation par défaut. d. Sélectionnez Suite de l’installation. Le système redémarre une fois l’installation terminée. Virtual I/O Server 93 Que faire ensuite Une fois la migration effectuée, la partition logique Virtual I/O Server est redémarrée avec la configuration en vigueur avant l’installation de la migration. Il est recommandé d’effectuer les tâches suivantes : v S’assurer que la migration a abouti en vérifiant les résultats de la commande installp et en exécutant la commande ioslevel. Cette commande doit indiquer un niveau ioslevel correspondant à $ ioslevel 2.1.0.0. v Redémarrez les démons et les agents qui étaient en cours d’exécution auparavant : 1. Connectez-vous au serveur Virtual I/O Server en tant qu’utilisateur padmin. 2. Exécutez la commande suivante : $ motd -overwrite ″<entrer le message de bannière précédent>″ 3. Démarrez les démons qui étaient en cours d’exécution auparavant, tels que FTP et Telnet. 4. Démarrez les agents qui étaient en cours d’exécution auparavant, tels qu’ituam. v Vérifiez s’il existe des mises à jour pour Virtual I/O Server. Pour des instructions, voir le site de support de Virtual I/O Server. A faire : Le support de migration de Virtual I/O Server est différent du support d’installation de Virtual I/O Server. N’utilisez pas le support d’installation pour effectuer des mises à jour après une migration. Il ne contient pas les mises à jour et vous perdrez votre configuration actuelle. Appliquez les mises à jour en suivant les instructions qui figurent sur le site de support de Virtual I/O Server uniquement. Tâches associées «Sauvegarde du serveur Virtual I/O Server sur un système de fichiers distant via une image mksysb», à la page 134 Vous pouvez sauvegarder sur un système de fichiers distant différentes données Virtual I/O Server (le code de base, les groupes de correctifs appliqués, les pilotes d’unités personnalisés permettant de prendre en charge les sous-systèmes de disque et certaines métadonnées définies par l’utilisateur) en créant un fichier mksysb Information associée Migration de Virtual I/O Server à partir d’une unité DVD Migration de Virtual I/O Server à partir d’une unité DVD Configuration de Virtual I/O Server Vous devez configurer les unités Ethernet virtuelles et SCSI virtuelles sur le serveur Virtual I/O Server. Vous pouvez également (facultatif) configurer des cartes Fibre Channel virtuelles, des agents et des clients Tivoli et configurer Virtual I/O Server en tant que client LDAP. A propos de cette tâche Important : Avant de mettre à niveau un système Virtual I/O Server (VIOS) existant vers un système POWER6 VIOS, vous devez configurer le nombre maximal d’emplacements d’E-S virtuels et toute carte virtuelle Ethernet, série ou d’interface SCSI virtuelle utilisant les emplacements VIOS 0 à 10. Prenez connaissance des règles de configuration applicables en consultant la rubrique Règles de configuration de VIOS lors de la mise à niveau d’un système existant. Configuration d’unités SCSI virtuelles sur le serveur Virtual I/O Server Vous pouvez configurer des unités SCSI virtuelles en déployant une planification système, en créant des groupes de volumes et des volumes logiques et en configurant Virtual I/O Server de façon à activer la prise en charge des fonctions de verrouillage SCSI-2. 94 Virtual I/O Server A propos de cette tâche Les ressources de disque virtuel sont fournies sur le serveur Virtual I/O Server. Les disques physiques appartenant au Virtual I/O Server peuvent être exportés et affectés ensemble à une partition logique client ou partitionnés en volumes ou fichiers logiques. Ces volumes et fichiers logiques peuvent ensuite être exportés sous forme de disques virtuels sur une ou plusieurs partitions logiques client. Par conséquent, l’interface SCSI virtuelle permet de partager des cartes et des unités de disque. Pour mettre un volume physique, un volume logique ou un fichier à la disposition d’une partition client, il doit être affecté à une carte SCSI virtuelle du serveur Virtual I/O Server. La carte du client SCSI est liée à une carte serveur SCSI virtuelle précise dans la partition logique Virtual I/O Server. La partition logique client accède aux disques qui lui sont alloués via la carte client SCSI virtuelle. La carte client du serveur Virtual I/O Server détecte les unités SCSI standard et les LUN grâce à cette carte virtuelle. L’attribution de ressources de disques à une carte du serveur SCSI sur le serveur Virtual I/O Server permet d’allouer de façon effective les ressources à une carte client SCSI dans la partition logique client. Création de l’unité cible virtuelle sur le serveur Virtual I/O Server La création d’une unité cible virtuelle sur le serveur Virtual I/O Server mappe la carte SCSI virtuelle sur le fichier, le volume logique, l’unité de bande, l’unité optique ou le disque physique. A propos de cette tâche Avec Virtual I/O Server version 2.1 et supérieure, vous pouvez exporter les types d’unité physique suivants : v v v v v Un disque SCSI virtuel associé à Un disque SCSI virtuel associé à Un disque SCSI virtuel associé à Une unité optique SCSI virtuelle Une unité optique SCSI virtuelle un volume physique un volume logique un fichier associée à une unité optique physique associée à un fichier v Une unité de bande SCSI virtuelle associée à une unité de bande physique Une fois que l’unité virtuelle est allouée à une partition client, Virtual I/O Server doit être disponible pour que les partitions logiques client puissent y accéder. Création d’une unité cible virtuelle sur un serveur Virtual I/O Server avec mappage vers un volume physique ou logique, une unité de bande ou une unité optique physique : Vous pouvez créer une unité cible virtuelle sur un serveur Virtual I/O Server qui mappe la carte SCSI virtuelle à un disque physique,à une unité de bande ou à une unité optique physique, ou à un volume logique basé sur un groupe de volumes. A propos de cette tâche Vous pouvez répéter cette procédure pour fournir de l’espace de stockage sur disque virtuel supplémentaire à partir de toute partition logique client. Avant de commencer, vérifiez que les conditions suivantes sont remplies : 1. Au moins un volume physique, une unité de bande ou une unité optique, ou un volume logique doit être défini sur le serveur Virtual I/O Server. Pour plus d’informations, voir «Volumes logiques», à la page 13. 2. Les cartes virtuelles Virtual I/O Server et des partitions logiques client doivent avoir été créées. Elles sont généralement créées en même temps que le profil de partition logique. Pour plus d’informations sur la création de la partition logique, voir Virtual I/O Server. Virtual I/O Server 95 3. Gardez à l’esprit la limitation de taille de transfert maximale lorsque vous utilisez des clients AIX et des unités physiques. S’il existe un client AIX actif et si vous souhaitez ajouter une autre unité cible virtuelle à la carte serveur SCSI virtuelle utilisée par ce client, assurez-vous que l’attribut max_transfer présente une taille égale ou supérieure à celle des unités en cours d’utilisation. Conseil : Si vous utilisez la console HMC, version 7 édition 3.4.2 ou ultérieure, vous pouvez utiliser l’interface graphique de la console HMC pour créer une unité cible virtuelle sur le serveur Virtual I/O Server. Pour créer une unité cible virtuelle qui mappe une carte serveur SCSI virtuelle à une unité physique ou à un volume logique, effectuez les opérations suivantes à partir de l’interface de ligne de commande de Virtual I/O Server : 1. Pour vous assurer que la carte SCSI virtuelle est disponible, utilisez la commande lsdev. Par exemple, la commande lsdev -virtual renvoie un résultat similaire au suivant : name ent3 vhost0 vhost1 vsa0 vtscsi0 vtscsi1 vtscsi2 status description Available Virtual I/O Ethernet Adapter (l-lan) Available Virtual SCSI Server Adapter Available Virtual SCSI Server Adapter Available LPAR Virtual Serial Adapter Available Virtual Target Device - Logical Volume Available Virtual Target Device - File-backed Disk Available Virtual Target Device - File-backed Disk 2. Pour créer une unité cible virtuelle qui mappe la carte serveur SCSI virtuelle sur une unité physique ou un volume logique, exécutez la commande mkvdev : mkvdev -vdev TargetDevice -vadapter VirtualSCSIServerAdapter Où : v TargetDevice est le nom de l’unité cible, comme suit : – Pour mapper un volume logique sur la carte serveur SCSI virtuelle, utilisez le nom du volume logique. Par exemple, lv_4G. – Pour mapper un volume physique sur la carte serveur SCSI virtuelle, utilisez hdiskx. Par exemple, hdisk5. – Pour mapper une unité optique sur la carte serveur SCSI virtuelle, utilisez cdx. Par exemple, cd0. – Pour mapper une unité de bande sur une carte SCSI virtuelle, utilisez rmtx. Par exemple, rmt1. v VirtualSCSIServerAdapter est le nom de la carte serveur SCSI virtuelle. Remarque : Si nécessaire, utilisez les commandes lsdev et lsmap -all pour déterminer l’unité cible et la carte serveur SCSI virtuelle à mapper. La mémoire de stockage est mise à disposition de la partition logique client lors du prochain démarrage de cette partition ou lors de la prochaine analyse (sur une partition logique Linux) ou de la prochaine configuration (sur une partition logique AIX) de la carte client SCSI virtuelle appropriée . 3. Affichez l’unité cible virtuelle que vous venez de créer en exécutant la commande lsdev. Par exemple, la commande lsdev -virtual renvoie un résultat similaire au suivant : name status description vhost3 Available Virtual SCSI Server Adapter vsa0 Available LPAR Virtual Serial Adapter vtscsi0 Available Virtual Target Device - Logical Volume vttape0 Available Virtual Target Device - Tape 4. Affichez la connexion logique entre les nouvelles unités en exécutant la commande lsmap. Par exemple, la commande lsmap -vadapter vhost3 renvoie un résultat similaire au suivant : SVSA Empl.Phys Client IDPartition ------------------------------------------------------vhost3 U9111.520.10DDEEC-V1-C20 0x00000000 VTD 96 Virtual I/O Server vtscsi0 Status LUN Backing device Physloc Available 0x8100000000000000 lv_4G L’emplacement physique est une association du numéro d’emplacement (20, dans le cas présent) et de l’ID de partition logique. La mémoire sera disponible sur la partition logique client soit lors du prochain démarrage de la mémoire, soit lors de la prochaine analyse ou de la prochaine configuration de la carte client SCSI virtuelle appropriée. Que faire ensuite Si vous devez par la suite supprimer l’unité virtuelle cible, utilisez la commande rmvdev. Concepts associés «Considérations sur le dimensionnement de l’interface SCSI virtuelle», à la page 58 Cette rubrique décrit les critères de taille de mémoire et de processeur à prendre en compte lors de l’implémentation de l’interface SCSI virtuelle. Information associée Création d’un disque virtuel pour une partition logique VIOS à l’aide de la console HMC Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes Création d’une unité cible virtuelle sur un serveur Virtual I/O Server qui mappe un fichier ou un volume logique : Vous pouvez créer une unité cible virtuelle sur un serveurVirtual I/O Server qui mappe la carte SCSI virtuelle à un fichier ou à un volume logique basé sur un pool de stockage. A propos de cette tâche Vous pouvez répéter cette procédure pour fournir de l’espace de stockage sur disque virtuel supplémentaire à partir de toute partition logique client. Avant de commencer, vérifiez que les conditions suivantes sont remplies : v Vous devez disposer de la version 1.5 (ou d’une version supérieure) de Virtual I/O Server. v Un fichier minimum doit être défini dans un pool de stockage de fichiers ou un volume logique minimum doit être défini dans un pool de stockage de volumes logiques sur le serveur Virtual I/O Server. Pour plus d’informations, voir «Stockage virtuel», à la page 18 et «Pools de stockage», à la page 17. v Les cartes virtuelles du serveur Virtual I/O Server et des partitions logiques client doivent avoir été créées. Elles sont généralement créées en même temps que le profil de partition logique. Pour plus d’informations sur la création de la partition logique, voir Virtual I/O Server. Conseil : Si vous utilisez la console HMC, version 7 édition 3.4.2 ou ultérieure, vous pouvez utiliser l’interface graphique de la console HMC pour créer une unité cible virtuelle sur le serveur Virtual I/O Server. Pour créer une unité cible virtuelle qui mappe une carte serveur SCSI virtuelle à un fichier ou à un volume logique, effectuez les opérations suivantes à partir de l’interface de ligne de commande de Virtual I/O Server : 1. Pour vous assurer que la carte SCSI virtuelle est disponible, utilisez la commande lsdev. Par exemple, la commande lsdev -virtual renvoie un résultat similaire au suivant : name ent3 vhost0 status description Available Virtual I/O Ethernet Adapter (l-lan) Available Virtual SCSI Server Adapter Virtual I/O Server 97 vhost1 Available Virtual SCSI Server Adapter vsa0 Available LPAR Virtual Serial Adapter vtscsi0 Available Virtual Target Device - Logical Volume vtscsi1 Available Virtual Target Device - File-backed Disk vtscsi2 Available Virtual Target Device - File-backed Disk 2. Pour créer une unité cible virtuelle qui mappe sur la carte serveur SCSI virtuelle, exécutez la commande mkbdsp : mkbdsp -sp StoragePool -bd BackingDevice -vadapter VirtualSCSIServerAdapter -tn TargetDeviceName Où : v StoragePool est le nom du pool de stockage contenant le fichier ou le volume logique sur lequel vous envisagez de mapper la carte serveur SCSI virtuelle. Par exemple, fbPool. v BackingDevice est le nom du fichier ou du volume logique sur lequel vous envisagez de mapper la carte serveur SCSI virtuelle. Par exemple, devFile. v VirtualSCSIServerAdapter est le nom de la carte serveur SCSI virtuelle. Par exemple, vhost4. v TargetDeviceName est le nom de l’unité cible. Par exemple, fbvtd1. La mémoire de stockage est mise à disposition de la partition logique client lors du prochain démarrage de cette partition ou lors de la prochaine analyse (sur une partition logique Linux) ou de la prochaine configuration (sur une partition logique AIX). 3. Affichez l’unité cible virtuelle que vous venez de créer en exécutant la commande lsdev. Par exemple, la commande lsdev -virtual renvoie un résultat similaire au suivant : name vhost4 vsa0 fbvtd1 status description Available Virtual SCSI Server Adapter Available LPAR Virtual Serial Adapter Available Virtual Target Device - File-backed Disk 4. Affichez la connexion logique entre les nouvelles unités en exécutant la commande lsmap. Par exemple, la commande lsmap -vadapter vhost4 renvoie un résultat similaire au suivant : SVSA Empl.Phys Client IDPartition ------------------------------------------------------vhost4 U9117.570.10C8BCE-V6-C2 0x00000000 VTD Status LUN Backing device Physloc fbvtd1 Available 0x8100000000000000 /var/vio/storagepools/fbPool/devFile L’emplacement physique est une combinaison du numéro d’emplacement (2, dans le cas présent) et de l’ID de partition logique. L’unité virtuelle peut alors être connectée à partir de la partition logique client. Que faire ensuite Si vous devez par la suite supprimer l’unité cible virtuelle et l’unité de secours (fichier ou volume logique), utilisez la commande rmbdsp. Une option de la commande rmbdsp permet de supprimer l’unité cible virtuelle sans supprimer l’unité de secours. Un fichier d’unité de secours est associé à une unité cible virtuelle avec un numéro inode plutôt qu’un nom de fichier ; par conséquent, ne changez pas le numéro inode des fichiers d’unité de support. Le numéro inode peut changer si vous modifiez un fichier d’unité de support (avec les commandes AIX rm, mv et cp) alors que celui-ci est associé à une unité cible virtuelle. 98 Virtual I/O Server Information associée Création d’un disque virtuel pour une partition logique VIOS à l’aide de la console HMC Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes Création d’une unité cible virtuelle sur un serveur Virtual I/O Server avec mappage vers une unité optique virtuelle associée à un fichier : Vous pouvez créer une unité cible virtuelle sur un serveur Virtual I/O Server qui mappe la carte SCSI virtuelle à une unité optique virtuelle associée à un fichier. A propos de cette tâche Vous pouvez répéter cette procédure pour fournir de l’espace de stockage sur disque virtuel supplémentaire à partir de toute partition logique client. Avant de commencer, exécutez les étapes suivantes : 1. Vérifiez que vous disposez de la version 1.5 (ou d’une version supérieure) de Virtual I/O Server. 2. Vérifiez que les cartes virtuelles du serveur Virtual I/O Server et des partitions client ont été créées. Elles sont généralement créées en même temps que le profil de partition logique. Pour plus d’informations sur la création de partitions logiques, voir «Installation de Virtual I/O Server et des partitions logiques client», à la page 77. Conseil : Si vous utilisez la console HMC, version 7 édition 3.4.2 ou ultérieure, vous pouvez utiliser l’interface graphique de la console HMC pour créer une unité cible virtuelle sur le serveur Virtual I/O Server. Pour créer une unité cible virtuelle qui mappe une carte serveur SCSI virtuelle à une unité optique virtuelle associée à un fichier, effectuez les opérations suivantes dans l’interface de ligne de commande de Virtual I/O Server : 1. Pour vous assurer que la carte SCSI virtuelle est disponible, utilisez la commande lsdev. Par exemple, la commande lsdev -virtual renvoie un résultat similaire au suivant : name ent3 vhost0 vhost1 vsa0 vtscsi0 vtscsi1 vtscsi2 status description Available Virtual I/O Ethernet Adapter (l-lan) Available Virtual SCSI Server Adapter Available Virtual SCSI Server Adapter Available LPAR Virtual Serial Adapter Available Virtual Target Device - Logical Volume Available Virtual Target Device - File-backed Disk Available Virtual Target Device - File-backed Disk 2. Pour créer une unité cible virtuelle qui mappe la carte serveur SCSI virtuelle sur une unité optique virtuelle associée à un fichier, exécutez la commande mkvdev: mkvdev -fbo -vadapter VirtualSCSIServerAdapter où VirtualSCSIServerAdapter est le nom de la carte serveur SCSI virtuelle. Par exemple, vhost1. Remarque : Aucune unité de sauvegarde n’est spécifiée lors de la création d’unités cibles virtuelles pour des unités optiques virtuelles associées à des fichiers, car cette unité ne contient en principe aucun support. Pour plus d’informations sur le chargement de supports dans une unité optique associée à un fichier, voir la commande loadopt. L’unité optique est mise à disposition de la partition logique client lors du prochain démarrage de cette partition ou lors de la prochaine analyse (sur une partition logique Linux) ou de la prochaine configuration (sur une partition logique AIX). 3. Affichez l’unité cible virtuelle que vous venez de créer en exécutant la commande lsdev. Par exemple, la commande lsdev -virtual renvoie un résultat similaire au suivant : Virtual I/O Server 99 name vhost4 vsa0 vtopt0 status description Available Virtual SCSI Server Adapter Available LPAR Virtual Serial Adapter Available Virtual Target Device - File-backed Optical 4. Affichez la connexion logique entre les nouvelles unités en exécutant la commande lsmap. Par exemple, la commande lsmap -vadapter vhost1 renvoie un résultat similaire au suivant : SVSA Empl.Phys Client IDPartition ---------------------------------------------------vhost1 U9117.570.10C8BCE-V6-C2 0x00000000 VTD LUN Backing device vtopt0 0x8200000000000000 Physloc L’emplacement physique est une combinaison du numéro d’emplacement (2, dans le cas présent) et de l’ID de partition logique. L’unité virtuelle peut alors être connectée à partir de la partition logique client. Que faire ensuite Vous pouvez utiliser la commande loadopt pour charger un support optique virtuel associé à un fichier dans l’unité optique virtuelle associée à un fichier. Si vous devez par la suite supprimer l’unité virtuelle cible, utilisez la commande rmvdev. Information associée Création d’un disque virtuel pour une partition logique VIOS à l’aide de la console HMC Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes Définition des attributs de règle de réservation d’une unité : Dans certaines configurations, vous devez tenir compte de la règle de réservation de l’unité sur le serveur Virtual I/O Server. A propos de cette tâche Le tableau ci-après explique les cas dans lesquels la règle de réservation d’une unité sur le serveur Virtual I/O Server est importante pour les systèmes qui sont gérés par la console HMC (Hardware Management Console) et Integrated Virtualization Manager (IVM). Tableau 30. Cas dans lesquels la règle de réservation d’une unité est importante Systèmes gérés par la console HMC Systèmes gérés par IVM v Pour que vous puissiez utiliser une configuration MPIO (Multipath I/O) sur le client, aucune unité SCSI virtuelle du serveur Virtual I/O Server ne doit réserver l’unité SCSI virtuelle. Pour Live Partition Mobility, l’attribut de réservation sur le stockage physique utilisé par la partition mobile doit être associé à la valeur no_reserve pour que la partition mobile puisse y accéder à la fois à partir du serveur source et du serveur cible. v Pour Live Partition Mobility, l’attribut de réservation sur le stockage physique utilisé par la partition mobile doit être associé à la valeur no_reserve pour que la partition mobile puisse y accéder à la fois à partir du serveur source et du serveur cible. v Pour PowerVM Active Memory Sharing, Virtual I/O Server associe automatiquement l’attribut de réservation sur le volume physique à la valeur no_reserve lorsque vous ajoutez une unité d’espace de pagination au pool de mémoire partagée. 100 Virtual I/O Server Dans ces configurations, vous devez vérifier que l’attribut reserve_policy de l’unité est associé à la valeur no_reserve. 1. A partir d’une partition logique Virtual I/O Server, répertoriez les disques (ou unités d’espace de pagination) auxquels Virtual I/O Server a accès. Exécutez la commande suivante : lsdev -type disk 2. Pour déterminer la règle de réservation d’un disque, exécutez la commande suivante, où hdiskX est le nom du disque que vous avez identifié à l’étape 1. Par exemple, hdisk5. lsdev -dev hdiskX -attr reserve_policy Si la valeur de reserve_policy value n’est pas no_reserve, vous devez la modifier pour pouvoir utiliser le disque dans les autres configurations répertoriées ci-dessus. Les résultats peuvent ressembler à ce qui suit : .. reserve_policy no_reserve Reserve Policy True 3. Pour associer reserve_policy à no_reserve, exécutez la commande suivante, où hdiskX est le nom du disque pour lequel vous voulez associer l’attribut reserve_policy à la valeur no_reserve. chdev -dev hdiskX -attr reserve_policy=no_reserve 4. Répétez cette procédure à partir de l’autre partition logique Virtual I/O Server. Bien que l’attribut reserve_policy soit propre à l’unité, chaque serveur Virtual I/O Server sauvegarde sa valeur. Vous devez définir l’attribut reserve_policy sur les deux partitions logiques Virtual I/O Server pour qu’elles puissent toutes les deux reconnaître qu’il est associé à la valeur no_reserve. Création de pools de stockage de volumes logiques sur un serveur Virtual I/O Server Vous pouvez créer un pool de stockage de volumes logiques sur un serveur Virtual I/O Server avec la console HMC ou les commandes mksp et mkbdsp. Avant de commencer Avant de commencer, assurez-vous que vous disposez de la version 1.5 (ou d’une version ultérieure) de Virtual I/O Server. Conseil : Si vous utilisez la console HMC, version 7 édition 3.4.2 ou ultérieure, vous pouvez utiliser l’interface graphique de la console HMC pour créer des pools de stockage de volumes logiques sur le serveur Virtual I/O Server. A propos de cette tâche Les pools de stockage de volumes logiques sont des groupes de volumes constitués d’un ou plusieurs volumes physiques. La taille et le type des volumes physiques composant un pool de stockage de volumes logiques peuvent varier. Pour créer un pool de stockage de volumes logiques, effectuez les opérations suivantes à partir de l’interface de ligne de commande de Virtual I/O Server : 1. Créez un pool de stockage de volumes logiques en exécutant la commande mksp : mksp -f dev_clients hdisk2 hdisk4 Dans cet exemple, dev_clients est le nom du pool de stockage, et celui-ci contient hdisk2 et hdisk4. 2. Définissez un volume logique qui sera visible en tant que disque sur la partition logique client. La taille de ce volume logique définira la taille de disques qui sera disponible sur la partition logique client. Utilisez la commande mkbdsp pour créer un volume logique de 11 Go appelé dev_dbsrv : mkbdsp -sp dev_clients 11G -bd dev_dbsrv Virtual I/O Server 101 Si vous souhaitez créer également une unité cible virtuelle qui mappe la carte serveur SCSI virtuelle sur le volume logique, ajoutez -vadapter vhostx à la fin de la commande. Exemple : mkbdsp -sp dev_clients 11G -bd dev_dbsrv -vadapter vhost4 Information associée Création de pools de stockage sur un serveur Virtual I/O Server via la console HMC Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes Création de pools de stockage de fichiers sur un serveur Virtual I/O Server Vous pouvez créer un pool de stockage de fichiers sur un serveur Virtual I/O Server avec les commandes mksp etmkbdsp. Avant de commencer Avant de commencer, assurez-vous que vous disposez de la version 1.5 (ou d’une version ultérieure) de Virtual I/O Server. Conseil : Si vous utilisez la console HMC, version 7 édition 3.4.2 ou ultérieure, vous pouvez utiliser l’interface graphique de la console HMC pour créer des pools de stockage de fichiers sur le serveur Virtual I/O Server. A propos de cette tâche Les pools de stockage de fichiers sont créés dans un pool de stockage de volumes logiques parent et contiennent un volume logique incluant un système de fichiers et des fichiers. Pour créer un pool de stockage de fichiers, effectuez les opérations suivantes à partir de l’interface de ligne de commande de Virtual I/O Server : 1. Créez un pool de stockage de fichiers en exécutant la commande mksp : mksp -fb dev_fbclt -sp dev_clients -size 7g Dans cet exemple, le nom du pool de stockage de fichiers est dev_fbclt et le nom du stockage parent est dev_clients. 2. Définissez un fichier qui sera visible en tant que disque sur la partition logique client. La taille de ce fichier détermine la taille du disque présenté à la partition logique client. Utilisez comme suit la commande mkbdsp pour créer un fichier de 3 Go appelé dev_dbsrv : mkbdsp -sp dev_fbclt 3G -bd dev_dbsrv Si vous souhaitez créer également une unité cible virtuelle qui mappe la carte serveur SCSI virtuelle sur le fichier, ajoutez -vadapter vhostx à la fin de la commande. Exemple : mkbdsp -sp dev_fbclt 3G -bd dev_dbsrv -vadapter vhost4 Information associée Création de pools de stockage sur un serveur Virtual I/O Server via la console HMC Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes Création du référentiel de supports virtuels sur un serveur Virtual I/O Server Vous pouvez créer le référentiel de supports virtuels sur un serveur Virtual I/O Server avec la commande mkrep. Avant de commencer Avant de commencer, assurez-vous que vous disposez de la version 1.5 (ou d’une version ultérieure) de Virtual I/O Server. 102 Virtual I/O Server A propos de cette tâche Le référentiel de supports virtuels constitue un conteneur unique pour stocker et gérer les fichiers multimédias optiques virtuels sauvegardés sur fichier. Il est possible de charger les supports stockés dans le référentiel dans des unités optiques virtuelles sauvegardées sur fichier afin de les exporter vers des partitions client. Vous ne pouvez créer qu’un seul référentiel dans un serveur Virtual I/O Server. Conseil : Si vous utilisez la console HMC, version 7 édition 3.4.2 ou ultérieure, vous pouvez utiliser l’interface graphique de la console HMC afin de créer un référentiel de supports virtuels sur Virtual I/O Server. Pour créer le référentiel de supports virtuels à partir de l’interface de ligne de commande de Virtual I/O Server, exécutez la commande mkrep : mkrep -sp prod_store -size 6g Dans cet exemple, le nom du pool de stockage parent est prod_store. Information associée Changement d’unités optiques à l’aide de la console HMC Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes Création de volumes logiques et de groupes de volumes sur un serveur Virtual I/O Server Vous pouvez créer des volumes logiques et des groupes de volumes sur un serveur Virtual I/O Server avec les commandes mkvg et mklv. A propos de cette tâche Si vous utilisez la console HMC, version 7 édition 3.4.2 ou ultérieure, vous pouvez utiliser l’interface graphique de la console HMC pour créer les volumes logiques et les groupes de volumes sur un serveur Virtual I/O Server. Sinon, utilisez la commande mklv à partir de l’interface de ligne de commande de Virtual I/O Server. Pour créer le volume logique sur un disque distinct, vous devez préalablement créer un groupe de volumes et allouer un ou plusieurs disques via la commande mkvg. 1. Créez un groupe de volumes et allouez un disque à ce groupe à l’aide de la commande mkvg. Dans l’exemple suivant, le nom du groupe de volumes est rootvg_clients : mkvg -f -vg rootvg_clients hdisk2 2. Définissez un volume logique qui sera visible en tant que disque sur la partition logique client. La taille de ce volume logique définira la taille de disques qui sera disponible sur la partition logique client. Utilisez comme suit la commande mklv pour créer un volume logique de 2 Go : mklv -lv rootvg_dbsrv rootvg_clients 2G Information associée Changement de volume physique pour une partition logique VIOS via la console HMC Changement de pool de stockage pour une partition logique VIOS via la console HMC Configuration de Virtual I/O Server pour la prise en charge des fonctions de verrouillage SCSI-2 Connaître les conditions préalables à l’installation de l’interface SCSI virtuelle afin de prendre en charge les applications qui utilisent les fonctions de verrouillage et de libération SCSI. Virtual I/O Server 103 A propos de cette tâche Les versions de Virtual I/O Server 1.3 et suivantes permettent une prise en charge des applications qui sont activées pour utiliser les fonctions de verrouillage SCSI-2 contrôlées par la partition logique client. En règle générale, les fonctions de verrouillage et libération SCSI sont utilisées dans les environnements groupés dans lesquels les conflits relatifs aux ressources de disque SCSI peuvent nécessiter un contrôle plus approfondi. Pour garantir la prise en charge de ces environnements par le serveur Virtual I/O Server, configurez ce dernier pour qu’il prenne en charge les fonctions de verrouillage et libération SCSI-2. Si les applications que vous utilisez fournissent des informations sur la règle à suivre pour utiliser les fonctions de verrouillage SCSI-2 sur la partition logique client, exécutez les procédures ci-après pour définir la règle de verrouillage. Exécutez les tâches suivantes pour configurer la prise en charge sur le serveur Virtual I/O Server des environnements de verrouillage SCSI-2 : 1. Configurez l’attribut reserve_policy de Virtual I/O Server sur single_path, en exécutant la commande suivante : chdev -dev1 hdiskN -attr reserve_policy=single_path Remarque : Effectuez cette opération lorsque l’unité n’est pas en cours d’utilisation. Si vous exécutez cette commande alors que l’unité est ouverte ou en cours d’utilisation, vous devez utiliser l’option -perm avec cette commande. Si vous utilisez l’option -perm, les modifications ne prendront effet que lorsque l’unité sera déconfigurée puis reconfigurée. 2. Configurez la fonction client_reserve sur le serveur Virtual I/O Server. v Si vous créez une unité cible virtuelle, utilisez la commande suivante : mkvdev -vdev hdiskN -vadapter vhostN -attr client_reserve=yes où hdiskN correspond au nom de l’unité cible virtuelle et vhostN au nom de la carte du serveur SCSI. v Si l’unité cible virtuelle a déjà été créée, utilisez la commande suivante : chdev -dev vtscsiN -attr client_reserve=yes où vtscsiN désigne le nom de l’unité virtuelle. 3. Sur le client virtuel, procédez comme suit pour configurer la prise en charge des fonctions de verrouillage et libération SCSI pour le disque virtuel sauvegardé par le disque physique que vous avez configuré à l’étape 1 : a. Affectez à la règle de libération la valeur single_path sur le client virtuel, à l’aide de la commande suivante : chdev -a reserve_policy=single_path -1 hdiskN où hdiskN désigne le nom du disque virtuel Remarque : Effectuez cette opération lorsque l’unité n’est pas en cours d’utilisation. Si vous exécutez cette commande alors que l’unité est ouverte ou en cours d’utilisation, utilisez l’option -p. Dans ce cas, les modifications ne prendront effet que lorsque l’unité sera déconfigurée puis reconfigurée. b. Définissez l’attribut hcheck_cmd de sorte que le code MPIO utilise l’option inquiry. Si l’attribut hcheck_cmd a la valeur test unit ready et que l’unité de sauvegarde est verrouillée, le paramètre test unit ready échouera et consignera un message d’erreur sur le client. chdev -a hcheck_cmd=inquiry -1 hdiskN où hdiskN désigne le nom du disque virtuel. 104 Virtual I/O Server Identification des disques exportables Pour exporter un volume physique en tant qu’unité virtuelle, le volume physique doit comporter un attribut de volume IEEE, un identificateur unique (UDID) ou un identificateur physique (PVID). A propos de cette tâche Pour identifier les disques exportables, procédez comme suit : 1. Déterminez si une unité est associée à un identificateur d’attribut de volume IEEE en exécutant la commande suivante sur la ligne de commande Virtual I/O Server : lsdev -dev hdiskX -attr Une valeur est indiquée dans le champ ieee_volname pour les disques ayant un identificateur d’attribut de volume IEEE. Des informations comparables à celles qui suivent s’affichent : ... cache_method False ieee_volname False lun_id False ... fast_write Write Caching method 600A0B800012DD0D00000AB441ED6AC IEEE Unique volume name 0x001a000000000000 Logical Unit Number Si le champ ieee_volname n’apparaît pas, l’unité na pas d’identificateur d’attribut de volume IEEE. 2. Si l’unité n’a pas d’identificateur d’attribut de volume IEEE, déterminez si elle a un UDID en procédant comme suit : a. Entrez oem_setup_env. b. Saisissez odmget -qattribute=id_unique CuAt. Les disques comportant un UDID sont alors répertoriés. Des informations comparables à celles qui suivent s’affichent : CuAt: name = "hdisk1" attribute = "unique_id" value = "2708ECVBZ1SC10IC35L146UCDY10-003IBMscsi" type = "R" generic = "" rep = "nl" nls_index = 79 CuAt: name = "hdisk2" attribute = "unique_id" value = "210800038FB50AST373453LC03IBMscsi" type = "R" generic = "" rep = "nl" nls_index = 79 Les unités de cette liste qui sont accessibles à partir d’autres partitions Virtual I/O Server peuvent être utilisées dans les configurations SCSI MPIO virtuelles. c. Entrez exit. 3. Si l’unité n’a ni identificateur d’attribut de volume IEEE ni UDID, déterminez si elle a un PVID en procédant comme suit : lspv Les disques et leurs PVID respectifs sont indiqués. Des informations comparables à celles qui suivent s’affichent : Virtual I/O Server 105 NAME hdisk0 hdisk1 hdisk2 hdisk3 hdisk4 PVID 00c5e10c1608fd80 00c5e10cf7eb2195 00c5e10c44df5673 00c5e10cf3ba6a9a none VG rootvg rootvg None None None STATUS active active 4. Si l’unité n’a ni identificateur d’attribut de volume IEEE ni UDID ni PVID, effectuez l’une des tâches suivantes pour lui affecter un identificateur : a. Mettez à niveau votre logiciel fournisseur et répétez l’intégralité de la procédure d’identification de disques exportables, depuis le début. Les versions les plus récentes de certains logiciels fournisseur incluent l’identification des unités à l’aide d’un UDID. Avant d’effectuer une mise à niveau, veillez à préserver les unités SCSI virtuelles que vous avez créées avec des versions du logiciel qui ne prennent pas en charge l’identification d’unités à l’aide d’un UDID. Pour plus d’informations, voir la documentation fournie par le fournisseur du logiciel. b. Si le logiciel fournisseur ne fournit pas d’identificateur d’attribut de volume UDID ou IEEE, attribuez un PVID au volume physique en exécutant la commande suivante : chdev -dev hdiskX -attr pv=yes Configuration d’unités Ethernet virtuelles sur le serveur Virtual I/O Server Vous pouvez configurer des unités Ethernet virtuelles en déployant une planification système, créer et configurer une carte Ethernet partagée et configurer une unité agrégation de liaisons device. Création d’une carte Ethernet virtuelle via la console HMC version 7 Vous pouvez créer une carte Ethernet virtuelle sur un serveur Virtual I/O Server pour que les partitions logiques client puissent accéder au réseau externe même si elles ne disposent pas d’une carte Ethernet physique. Avant de commencer Si vous envisagez d’utiliser une carte Ethernet partagée avec une carte Ethernet hôte (ou carte Ethernet virtuelle intégrée), vérifiez que la carte Ethernet hôte logique (LHEA) du serveur Virtual I/O Server est en mode espion. Pour plus d’informations, voir «Configuration d’une carte Ethernet hôte logique (LHEA) en mode espion», à la page 107. A propos de cette tâche Pour créer une carte Ethernet virtuelle sur le serveur Virtual I/O Server à l’aide de la console HMC (Hardware Management Console), version 7 ou ultérieure, effectuez les opérations suivantes : 1. Dans la zone de navigation, développez Gestion de systèmes → Serveurs et sélectionnez le serveur sur lequel se trouve la partition logique Virtual I/O Server. 2. Dans la zone de contenu, sélectionnez la partition logique Virtual I/O Server. 3. Cliquez sur Tâches et sélectionnez Configuration → Gestion de profils. La page Gestion de profils s’affiche. 4. Sélectionnez le profil dans lequel vous voulez créer la carte Ethernet partagée et cliquez sur Actions → Edition. La page Propriétés du profil de partition logique s’affiche. 5. Cliquez sur l’onglet Cartes virtuelles. 6. Cliquez sur Actions → Création → Carte Ethernet. 7. Sélectionnez Carte compatible IEEE 802.1Q. 8. Si vous utilisez plusieurs réseaux locaux virtuels (VLAN), ajoutez tout ID VLAN supplémentaire pour les partitions logiques client devant communiquer avec le réseau externe à l’aide de cette carte virtuelle. 106 Virtual I/O Server 9. Sélectionnez Accès au réseau externe pour utiliser cette carte comme passerelle entre les réseaux locaux virtuels (VLAN) et un réseau externe. Cette carte Ethernet est configurée dans le cadre de la carte Ethernet partagée. 10. Si vous n’utilisez pas la fonction de reprise par transfert de la carte Ethernet partagée, vous pouvez utiliser la priorité de liaison par défaut. Si vous utilisez la reprise par transfert de la carte Ethernet partagée, attribuez à la priorité de liaison de la carte Ethernet partagée principale un nombre inférieur à celui de la carte Ethernet partagée de secours. 11. Lorsque vous avez terminé, cliquez sur OK. 12. Affectez ou créez l’une des cartes réelles suivantes : v Affectez une carte physique Ethernet au Virtual I/O Server. v Si vous envisagez d’agréger plusieurs cartes physiques Ethernet dans une unité d’agrégation de liaisons ou EtherChannel, affectez plusieurs cartes physiques Ethernet au Virtual I/O Server. v Si vous envisagez d’utiliser la carte Ethernet partagée avec une carte Ethernet hôte, créez une carte Ethernet hôte logique (LHEA) pour la partition logique Virtual I/O Server. 13. Cliquez sur OK pour quitter la page Propriétés de profil de partition logique. 14. Cliquez sur Fermer pour quitter la page Profils gérés. 15. Effectuez à nouveau cette procédure pour chaque carte Ethernet partagée requise. Que faire ensuite Une fois que vous avez terminé, configurez la carte Ethernet partagée à partir de l’interface de ligne de commande de Virtual I/O Server ou de l’interface graphique de la console HMC, version 7 édition 3.4.2 ou ultérieure. Tâches associées «Configuration d’une carte Ethernet partagée», à la page 108 Instructions relatives à la configuration d’une carte Ethernet partagée. Configuration d’une carte Ethernet hôte logique (LHEA) en mode espion : Pour utiliser une carte Ethernet partagée avec une carte Ethernet hôte (ou carte Ethernet virtuelle intégrée), vous devez configurer la carte Ethernet hôte logique (LHEA) en mode espion. Avant de commencer Avant de commencer, identifiez sur la console HMC (Hardware Management Console) le port physique de la carte Ethernet hôte qui est associé au port Ethernet hôte logique. Recherchez cette information pour le port Ethernet hôte logique qui constitue la carte réelle de la carte Ethernet partagée sur le serveur Virtual I/O Server. Vous pouvez trouver cette information dans les propriétés de la partition Virtual I/O Server et les propriétés du système géré du serveur sur lequel se trouve Virtual I/O Server. A propos de cette tâche Pour configurer le port Ethernet hôte logique (la carte réelle de la carte Ethernet partagée) en mode espion, procédez comme suit sur la console HMC : 1. Dans la zone de navigation, développez Gestion de systèmes et cliquez sur Serveurs. 2. Dans la zone de contenu, sélectionnez le serveur sur lequel se trouve la partition logique Virtual I/O Server. 3. Cliquez sur Tâches et sélectionnez Matériel (information) → Cartes → Ethernet hôte. La page des cartes Ethernet hôte (HEA) s’affiche. 4. Sélectionnez le code d’emplacement physique de la carte Ethernet hôte. Virtual I/O Server 107 5. Sélectionnez le port physique associé au port Ethernet hôte logique sur la partition logique Virtual I/O Server, puis cliquez sur Configuration. La page de Configuration du port physique HEA s’affiche. 6. Sélectionnez VIOS dans la zone Partition logique espionne. 7. Cliquez sur OK deux fois pour revenir à la zone de contenu. Configuration d’une carte Ethernet partagée Instructions relatives à la configuration d’une carte Ethernet partagée. Avant de commencer Pour configurer une carte Ethernet partagée, vous devez d’abord créer la carte à l’aide de la console HMC (Hardware Management Console). Pour plus d’informations, voir «Création d’une carte Ethernet virtuelle via la console HMC version 7», à la page 106. A propos de cette tâche Pour apprendre à configurer une carte Ethernet partagée avec la console HMC, version 7 édition 3.4.2 ou ultérieure, voir Création d’une carte Ethernet partagée pour une partition logique Virtual I/O Server avec la console HMC. Pour configurer une carte Ethernet partagée sur des versions antérieures à la console HMC, version 7 édition 3.4.2, effectuez les opérations suivantes dans l’interface de ligne de commande de Virtual I/O Server : 1. Vérifiez que la carte de ligne Ethernet virtuelle est disponible en entrant la commande suivante : lsdev -virtual 2. Identifiez la carte Ethernet physique à utiliser pour créer la carte Ethernet partagée en exécutant la commande suivante : lsdev -type adapter Remarques : v Vérifiez que le protocole TCP/IP n’est pas configuré sur l’interface pour la carte Ethernet physique. S’il est configuré, la commande mkvdev échouera à l’étape suivante. v Une unité d’agrégation de liaisons, ou EtherChannel, peut également servir de carte Ethernet partagée. v Si vous envisagez d’utiliser la carte Ethernet hôte (ou carte Ethernet virtuelle intégrée) avec la carte Ethernet partagée, veillez à utiliser la carte LHEA pour créer la carte Ethernet partagée. 3. Configurez la carte Ethernet partagée en exécutant la commande suivante : mkvdev -sea unité_cible -vadapter cartes_ethernet_virtuelles \ -default CarteEthernetVirtuelleDéfaut -defaultid PVIDCarteEthernetPartagéeDéfaut Où : target_device Carte physique à utiliser en tant que partie intégrante de l’unité de carte Ethernet partagée. virtual_ethernet_adapters Cartes Ethernet virtuelles qui utiliseront la carte Ethernet partagée. DefaultVirtualEthernetAdapter Carte Ethernet virtuelle par défaut utilisée pour traiter les paquets non marqués. Si vous ne disposez que d’une seule carte Ethernet virtuelle pour cette partition logique, utilisez-la comme carte par défaut. SEADefaultPVID PVID associé à la carte Ethernet virtuelle par défaut. 108 Virtual I/O Server Par exemple, pour créer une carte Ethernet partagée ent3 en utilisant la carte Ethernet physique ent0 (ou agrégation de liaisons) et une seule carte Ethernet virtuelle, ent2, (définie avec PVID = 1), entrez la commande suivante : mkvdev -sea ent0 -vadapter ent2 -default ent2 -defaultid 1 4. Vérifiez la création de la carte Ethernet partagée à l’aide de la commande suivante : lsdev -virtual 5. Prévoyez-vous d’accéder au Virtual I/O Server à partir du réseau avec l’unité physique permettant de créer la carte Ethernet partagée ? v Oui : Passez à l’étape 6. v Non : La procédure est terminée et vous n’avez pas à effectuer les étapes restantes. 6. Envisagez-vous de paramétrer la répartition de bande passante en définissant une qualité de service ? v Oui : Passez à l’étape 11 pour activer la carte Ethernet partagée en vue de prioriser le trafic. v Non : Passez à l’étape 9 pour configurer une connexion TCP/IP. 7. Envisagez-vous de définir des adresses IP sur des VLAN autres que celui qui est spécifié par le PVID de la carte Ethernet partagée ? v Oui : Passez à l’étape 8 pour créer des pseudo-unités VLAN. v Non : Passez à l’étape 9 pour configurer une connexion TCP/IP. 8. Pour configurer des pseudo-unités VLAN, procédez comme suit : a. Créez une pseudo-unité VLAN sur la carte Ethernet partagée en exécutant la commande suivante : mkvdev -vlan CarteCible -tagid IDBalise Où : v CarteCible est la carte Ethernet partagée. v IDBalise est l’ID du réseau local virtuel (VLAN) que vous avez défini lors de la création de la carte Ethernet virtuelle associée à la carte Ethernet partagée. Par exemple, pour créer une pseudo-unité VLAN à l’aide de la carte Ethernet partagée ent3 que vous venez de créer avec l’ID de réseau local virtuel (VLAN) 1, entrez la commande suivante : mkvdev -vlan ent3 -tagid 1 b. Vérifiez que la pseudo-unité VLAN a été créée en entrant la commande suivante : lsdev -virtual c. Répétez cette procédure pour toute pseudo-unité VLAN supplémentaire requise. 9. Exécutez la commande suivante pour configurer la première connexion TCP/IP. La première connexion doit se situer sur les mêmes VLAN et sous-réseau logique que la passerelle par défaut. mktcpip -hostname NomHôte -inetaddr Adresse -interface Interface -netmask \ MasqueSousRéseau -gateway Passerelle -nsrvaddr AdresseServeurNoms -nsrvdomain Domaine Où : v NomHôte est le nom d’hôte du serveur Virtual I/O Server v Adresse est l’adresse IP que vous souhaitez utiliser pour la connexion TCP/IP v Interface est l’interface associée à l’unité de la carte Ethernet partagée ou à une pseudo-unité VLAN. Par exemple, si l’unité de la carte Ethernet partagée est ent3, l’interface associée est en3. v MasqueSousRéseau est l’adresse de masque de sous-réseau définie pour votre sous-réseau. v Passerelle est l’adresse de passerelle de votre sous-réseau. v AdresseServeurNoms est l’adresse de votre serveur de noms de domaine. v Domaine est le nom de votre domaine. Virtual I/O Server 109 Si vous n’avez pas d’autres VLAN, la procédure est terminée et vous n’avez pas à effectuer les étapes restantes. 10. Exécutez la commande suivante pour configurer d’autres connexions TCP/IP : chdev -dev interface -perm -attr netaddr=adresseIP -attr netmask=netmask -attr state=up Lorsque vous utilisez cette commande, indiquez l’interface (enX) associée à l’unité de la carte Ethernet partagée ou à la pseudo-unité VLAN. 11. Activez l’unité de la carte Ethernet partagée pour prioriser le trafic. Les partitions logiques client doivent insérer une valeur de priorité VLAN dans leur en-tête VLAN. Pour les clients AIX, une pseudo-unité VLAN doit être créée sur la carte Ethernet d’E-S virtuelle et l’attribut de priorité VLAN doit être défini (la valeur par défaut est 0). Exécutez les étapes suivantes pour activer la priorisation du trafic sur un client AIX : a. Définissez l’attribut qos_mode de la carte Ethernet partagée sur le mode strict ou loose. Utilisez l’une des commandes suivantes : chdev -dev <nom unité SEA> -attr qos_mode=strict ou chdev -dev <nom unité SEA> -attr qos_mode=loose. Pour plus d’informations sur les modes, voir carte Ethernet partagée. b. A partir de la console HMC, créez une carte Ethernet d’E-S virtuelle pour le client AIX avec tous les VLAN marqués nécessaires (indiqués dans la liste ID réseau local virtuel supplémentaires). Les paquets envoyés via l’ID réseau local virtuel par défaut (indiqué dans la zone ID carte ou ID réseau local virtuel) ne seront pas marqués VLAN ; par conséquent, une valeur de priorité VLAN ne peut pas leur être attribuée. c. Sur le client AIX, exécutez la commande smitty vlan. d. Sélectionnez Add a VLAN. e. Sélectionnez le nom de la carte Ethernet d’E-S virtuelle créée à l’étape 1. f. Dans l’attribut VLAN Tag ID, indiquez l’un des réseaux locaux virtuels marqués, configurés sur la carte Ethernet d’E-S virtuelle créée à l’étape 1. g. Dans l’attribut VLAN Priority, indiquez une valeur d’attribut (0 - 7) correspondant à l’importance que le serveur VIOS doit accorder au trafic passant par cette pseudo-unité VLAN. h. Configurez l’interface sur la pseudo-unité VLAN créée à l’étape 6. Le trafic envoyé sur l’interface créée à l’étape 7 sera marqué VLAN et son en-tête VLAN présentera la valeur de priorité VLAN indiquée à l’étape 6. Lorsque ce trafic est en mode pont par le biais d’une carte Ethernet partagée activée pour la répartition de bande passante, la valeur de priorité VLAN est utilisée pour déterminer la rapidité de l’envoi par rapport à d’autres paquets avec différentes priorités. Résultats La carte Ethernet partagée est désormais configurée. Lorsque vous aurez configuré les connexions TCP/IP pour les cartes virtuelles des partitions logiques client à l’aide des systèmes d’exploitation de ces dernières, ces partitions logiques pourront communiquer avec le réseau externe. 110 Virtual I/O Server Concepts associés «Reprise par transfert de carte Ethernet partagée», à la page 71 La fonction de reprise par transfert de carte Ethernet partagée assure la redondance, car elle permet de configurer une carte Ethernet partagée de secours sur une autre partition logique Virtual I/O Server, laquelle peut être utilisée en cas de défaillance de la carte Ethernet partagée principale. La connectivité réseau des partitions logiques client est maintenue, sans interruption. «Cartes Ethernet partagées», à la page 26 Les cartes Ethernet partagées de la partition logique Virtual I/O Server permettent aux cartes Ethernet virtuelles des partitions logiques client d’effectuer des envois et des réceptions en dehors du trafic réseau. Information associée Création d’une carte Ethernet partagée pour une partition logique VIOS à l’aide de la console HMC Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes Configuration d’une unité d’agrégation de liaisons ou EtherChannel Configurez une unité d’agrégation de liaisons, également appelée unité EtherChannel, à l’aide de la commande mkvdev. Une unité d’agrégation de liaisons peut être utilisée comme carte Ethernet physique dans la configuration d’une carte Ethernet partagée. A propos de cette tâche Configurez une unité d’agrégation de liaisons en entrant la commande suivante : mkvdev -lnagg CarteCible ... [-attr Attribut=Valeur ...] Par exemple, pour créer l’unité d’agrégation de liaisons ent5 avec les cartes Ethernet physiques ent3, ent4 et la carte de secours ent2, entrez : mkvdev -lnagg ent3,ent4 -attr backup_adapter=ent2 Après la configuration de l’unité d’agrégation de liaisons, vous pouvez lui ajouter des cartes, en retirer ou encore modifier ses attributs à l’aide de la commande cfglnagg. Affectation de la carte Fibre Channel virtuelle à une carte Fibre Channel physique Pour activer la technologie NPIV (N-Port ID Virtualization) sur les systèmes gérés, connectez la carte Fibre Channel virtuelle de la partition logique Virtual I/O Server à un port physique d’une carte Fibre Channel physique. Avant de commencer Avant de commencer, vérifiez que les conditions suivantes sont remplies : v Vérifiez que vous avez créé les cartes Fibre Channel virtuelles sur la partition logique Virtual I/O Server et que vous les avez associées à celles de la partition logique client. v Vérifiez que vous avez créé les cartes Fibre Channel virtuelles sur chaque partition logique client et que vous les avez associées à une carte Fibre Channel virtuelle de la partition logique Virtual I/O Server. A propos de cette tâche Une fois les cartes Fibre Channel virtuelles créées, vous devez connecter la carte Fibre Channel virtuelle de la partition logique Virtual I/O Server aux ports physiques de la carte Fibre Channel physique. Il convient de connecter la carte Fibre Channel physique à la mémoire physique à laquelle vous souhaitez que la partition logique client associée accède. Virtual I/O Server 111 Conseil : Si vous utilisez la console HMC, version 7 édition 3.4.2 ou ultérieure, vous pouvez utiliser l’interface graphique de la console HMC pour affecter la carte Fibre Channel virtuelle sur un serveur Virtual I/O Server à une carte Fibre Channel physique. Pour attribuer la carte Fibre Channel virtuelle à un port physique d’une carte Fibre Channel physique, effectuez les opérations suivantes dans l’interface de ligne de commande de Virtual I/O Server : 1. Utilisez la commande lsnports pour afficher des informations relatives au nombre disponible de ports NPIV et aux noms de port universels (WWPN) disponibles. Par exemple, l’exécution de la commande lsnports renvoie des résultats semblables à ce qui suit : Name Physloc fabric tports aports swwpns awwpns ----------------------------------------------------------------------------------fcs0 U789D.001.DQDMLWV-P1-C1-T1 1 64 64 2048 2047 fcs1 U787A.001.DPM0WVZ-P1-C1-T2 1 63 62 504 496 Remarque : Si aucun port NPIV ne figure dans la partition logique Virtual I/O Server, le code d’erreur E_NO_NPIV_PORTS(62) s’affiche. 2. Pour connecter la carte Fibre Channel virtuelle de la partition logique Virtual I/O Server à un port physique d’une carte Fibre Channel physique, exécutez la commande vfcmap : vfcmap -vadapter carte Fibre Channel virtuelle -fcp nom port Fibre Channel où : v carte Fibre Channel virtuelle est le nom de la carte Fibre Channel virtuelle créée sur la partition logique Virtual I/O Server. v nom port Fibre Channel est le nom du port Fibre Channel physique. Remarque : Si aucun paramètre n’est spécifié avec l’option -fcp, la commande supprime le mappage de la carte Fibre Channel virtuelle sur le port Fibre Channel physique. 3. Utilisez la commande lsmap pour afficher le mappage entre les cartes hôte virtuelles et les unités physiques qui les prennent en charge. Pour afficher les informations de mappage NPIV, entrez : lsmap -all -npiv. Le système affiche un message similaire au texte suivant : Name Physloc ClntID ClntName ClntOS --------------------------------------------------------------vfchost0 U8203.E4A.HV40026-V1-C12 1 HV-40026 AIX Status:NOT_LOGGED_IN FC name:fcs0 FC loc code:U789C.001.0607088-P1-C5-T1 Ports logged in:0 Flags:1 <not_mapped, not_connected> VFC client name: VFC client DRC: Que faire ensuite Lorsque vous avez terminé, prenez en considération les tâches suivantes : v Pour chaque partition logique, vérifiez que les deux noms de port WWPN sont affectés à la même mémoire physique et présentent le même niveau d’accès sur le réseau de systèmes (SAN). Pour des instructions, voir System Storage SAN Volume Controller. Remarque : Pour déterminer les noms de port WWPN affectés à une partition logique, utilisez la console HMC (Hardware Management Console) pour visualiser les propriétés ou les propriétés de profil de la partition logique client. v Si vous devez, par la suite, supprimer la connexion entre la carte Fibre Channel virtuelle créée sur la partition logique Virtual I/O Server et le port physique, utilisez la commande vfcmap et n’indiquez pas de paramètre pour l’option -fcp. 112 Virtual I/O Server Information associée Configuration d’une carte Fibre Channel virtuelle Modification d’une connexion par canal optique pour un serveur à l’aide de la console HMC Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes Configuration des agents et des clients Tivoli sur le serveur Virtual I/O Server Vous pouvez configurer et démarrer l’agent Tivoli Monitoring , Tivoli Usage and Accounting Manager, le client Tivoli Storage Manager, et les agents Tivoli TotalStorage Productivity Center. Concepts associés «Logiciels Tivoli et Virtual I/O Server», à la page 38 Apprenez à intégrer le serveur Virtual I/O Server dans votre environnement Tivoli pour Tivoli Application Dependency Discovery Manager,Tivoli Monitoring, Tivoli Storage Manager, Tivoli Usage and Accounting Manager, Tivoli Identity Manageret TotalStorage Productivity Center. Information associée Commande cfgsvc Configuration de l’agent Tivoli Monitoring Vous pouvez configurer et démarrer l’agent Tivoli Monitoring sur le serveur Virtual I/O Server. Avant de commencer Tivoli Monitoring System Edition permet de surveiller la santé et la disponibilité de plusieurs serveurs (y compris Virtual I/O Server) à partir du portail Tivoli Enterprise. Tivoli Monitoring System Edition regroupe les données du serveur Virtual I/O Server, notamment les données relatives aux volumes physiques, aux volumes logiques, aux pools de stockage, aux mappages de mémoire, aux mappages de réseau, à la mémoire réelle, aux ressources de processeur, à la taille des systèmes de fichiers montés, etc. Le portail Tivoli Enterprise permet de visualiser une représentation graphique des données, d’utiliser des seuils prédéfinis afin de recevoir des alertes sur les mesures clés et de résoudre les problèmes d’après les recommandations fournies par la fonction Expert Advice de Tivoli Monitoring. Avant de commencer, effectuez les tâches suivantes : v Vérifiez que Virtual I/O Server exécute le groupe de correctifs 8.1.0. v Vérifiez que vous êtes administrateur central de la console HMC. v Vérifiez que vous êtes administrateur principal de Virtual I/O Server. A propos de cette tâche Pour configurer et démarrer l’agent de surveillance, procédez comme suit : 1. Répertoriez tous les agents de surveillance disponibles à l’aide de la commande lssvc. Par exemple : $lssvc ITM_base 2. En fonction de la sortie de la commande lssvc, choisissez l’agent de surveillance que vous voulez configurer. Par exemple, ITM_base 3. Répertoriez tous les attributs associés à l’agent de surveillance à l’aide de la commande cfgsvc. Exemple : $cfgsvc –ls ITM_base HOSTNAME RESTART_ON_REBOOT MANAGING_SYSTEM 4. Configurez l’agent de surveillance et ses attributs à l’aide de la commande cfgsvc : Virtual I/O Server 113 cfgsvc ITM_agent_name -attr Restart_On_Reboot=value hostname=name_or_address1 managing_system=name_or_address2 Où : v ITM_agent_name est le nom de l’agent de surveillance. Par exemple, ITM_base. v La variable value doit avoir la valeur TRUE ou FALSE comme suit : – TRUE : ITM_agent_name redémarre chaque fois que Virtual I/O Server est redémarré – FALSE : ITM_agent_name ne redémarre pas lorsque Virtual I/O Server est redémarré v name_or_address1 désigne soit le nom d’hôte soit l’adresse IP du serveur Tivoli Enterprise Monitoring Server (TEMS) auquel ITM_agent_name envoie des données. v name_or_address2 désigne soit le nom d’hôte soit l’adresse IP de la console HMC reliée au système géré sur lequel se trouvent Virtual I/O Server et l’agent de surveillance. Exemple : cfgsvc ITM_base –attr Restart_On_Reboot=TRUE hostname=tems_server managing_system=hmc_console Dans cet exemple, l’agent de surveillance ITM_base est configuré pour envoyer les données à tems_server, et pour redémarrer chaque fois que Virtual I/O Server redémarre. 5. Démarrez l’agent de surveillance à l’aide de la commande startsvc. Exemple : startsvc ITM_base 6. Sur la console HMC, effectuez les opérations suivantes pour que l’agent de surveillance puisse collecter des informations issues de la console HMC. Remarque : Après la configuration d’une connexion shell sécurisée pour un agent de surveillance, il n’est pas nécessaire de la configurer à nouveau pour les autres agents. a. Déterminez le nom du système géré sur lequel résident Virtual I/O Server et l’agent de surveillance. b. Obtenez la clé publique de Virtual I/O Server en exécutant la commande suivante : viosvrcmd -m managed_system_name -p vios_name -c "cfgsvc -key ITM_agent_name" Où : v managed_system_name est le nom du système géré sur lequel sont installés Virtual I/O Server et l’agent de surveillance ou le client. v vios_name est le nom de la partition logique Virtual I/O Server (incluant l’agent de surveillance) tel que défini sur la console HMC. v ITM_agent_name est le nom de l’agent de surveillance. Par exemple, ITM_base. c. Mettez à jour le fichier authorized_key2 sur la console HMC en exécutant la commande mkauthkeys : mkauthkeys --add public_key où public_key est la sortie de la commande viosvrcmd à l’étape 6b. Exemple : $ viosvrcmd -m commo126041 -p VIOS7 -c "cfgsvc ITM_base -key" ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAvjDZ sS0guWzfzfp9BbweG0QMXv1tbDrtyWsgPbA2ExHA+xduWA51K0oFGarK2F C7e7NjKW+UmgQbrh/KSyKKwozjp4xWGNGhLmfan85ZpFR7wy9UQG1bLgXZ xYrY7yyQQQODjvwosWAfzkjpG3iW/xmWD5PKLBmob2QkKJbxjne+wqGwHT RYDGIiyhCBIdfFaLZgkXTZ2diZ98rL8LIv3qb+TsM1B28AL4t+1OGGeW24 2lsB+8p4kamPJCYfKePHo67yP4NyKyPBFHY3TpTrca4/y1KEBT0Va3Pebr 5JEIUvWYs6/RW+bUQk1Sb6eYbcRJFHhN5l3F+ofd0vj39zwQ== root@vi os7.vios.austin.ibm.com $ mkauthkeys --add 'ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAvjDZ sS0guWzfzfp9BbweG0QMXv1tbDrtyWsgPbA2ExHA+xduWA51K0oFGarK2F 114 Virtual I/O Server C7e7NjKW+UmgQbrh/KSyKKwozjp4xWGNGhLmfan85ZpFR7wy9UQG1bLgXZ xYrY7yyQQQODjvwosWAfzkjpG3iW/xmWD5PKLBmob2QkKJbxjne+wqGwHT RYDGIiyhCBIdfFaLZgkXTZ2diZ98rL8LIv3qb+TsM1B28AL4t+1OGGeW24 2lsB+8p4kamPJCYfKePHo67yP4NyKyPBFHY3TpTrca4/y1KEBT0Va3Pebr 5JEIUvWYs6/RW+bUQk1Sb6eYbcRJFHhN5l3F+ofd0vj39zwQ== root@vi os7.vios.austin.ibm.com' Résultats Lorsque vous avez terminé, vous pouvez afficher les données recueillies par l’agent de surveillance à partir du portail Tivoli Enterprise. Information associée Documentation Tivoli Monitoring 6.1 Tivoli Monitoring Virtual I/O Server Premium Agent - Guide d’utilisation Configuration de l’agent Tivoli Usage and Accounting Manager Vous pouvez configurer et démarrer l’agent Tivoli Usage and Accounting Manager sur le serveur Virtual I/O Server. A propos de cette tâche Avec Virtual I/O Server 1.4, vous pouvez configurer l’agent Tivoli Usage and Accounting Manager sur Virtual I/O Server. Tivoli Usage and Accounting Manager permet de suivre, d’imputer et de facturer les coûts informatiques via la collecte et l’analyse de données ainsi que l’édition de rapports sur les ressources réelles utilisées par des entités telles que les centres de coûts, les services et les utilisateurs. Tivoli Usage and Accounting Manager permet de collecter des données provenant de centres de données multi-niveaux qui utilisent Windows, AIX, Virtual I/O Server, HP/UX Sun Solaris, Linux et VMware. Avant de commencer, assurez-vous que Virtual I/O Server est installé. L’agent Tivoli Usage and Accounting Manager est livré avec l’agent Virtual I/O Server et installé en même temps que Virtual I/O Server. Pour plus d’informations, voir «Installation de Virtual I/O Server et des partitions logiques client» , à la page 77. Pour configurer et démarrer l’agent Tivoli Usage and Accounting Manager, procédez comme suit : 1. Facultatif : Ajoutez les variables facultatives dans le fichier A_config.par pour améliorer la collecte de données. Le fichier A_config.par se trouve sous /home/padmin/tivoli/ituam/A_config.par. 2. Répertoriez tous les agents Tivoli Usage and Accounting Manager disponibles à l’aide de la commande lssvc. Par exemple : $lssvc ITUAM_base 3. Selon le résultat de la commande lssvc, choisissez l’agent Tivoli Usage and Accounting Manager que vous voulez configurer. Par exemple, ITUAM_base 4. Répertoriez tous les attributs associés à l’agent Tivoli Usage and Accounting Manager à l’aide de la commande cfgsvc. Exemple : $cfgsvc –ls ITUAM_base ACCT_DATA0 ACCT_DATA1 ISYSTEM IPROCESS 5. Configurez l’agent Tivoli Usage and Accounting Manager et les attributs associés à l’aide de la commande cfgsvc : cfgsvc ITUAM_agent_name -attr ACCT_DATA0=value1 ACCT_DATA1=value2 ISYSTEM=value3 IPROCESS=value4 Où : Virtual I/O Server 115 v ITUAM_agent_name est le nom de l’agent Tivoli Usage and Accounting Manager. Par exemple, ITUAM_base. v value1 est la taille (en Mo) du premier fichier de données contenant les informations statistiques journalières. v value2 est la taille (en Mo) du second fichier de données contenant les informations statistiques journalières. v value3 définit le moment (en minutes) où l’agent génère des enregistrements système par intervalles. v value4 définit le moment (en minutes) où le système génère des enregistrements de processus regroupés. 6. Démarrez l’agent Tivoli Usage and Accounting Manager à l’aide de la commande startsvc. Exemple : startsvc ITUAM_base Résultats Une fois lancé, l’agent Tivoli Usage and Accounting Manager commence à collecter les données et à générer des fichiers journaux. Vous pouvez configurer le serveur Tivoli Usage and Accounting Manager de façon à récupérer les fichiers journaux qui sont ensuite traités par le moteur de traitement Tivoli Usage and Accounting Manager. Vous pouvez utiliser comme suit les données du moteur de traitement Tivoli Usage and Accounting Manager : v Vous pouvez générer des rapports, des feuilles de calcul et des graphiques personnalisés. Tivoli Usage and Accounting Manager fournit un accès complet aux données et des fonctions d’édition de rapports grâce à l’intégration de Microsoft® SQL Server Reporting Services ou Crystal Reports dans un système de gestion de base de données. v Vous pouvez visualiser des informations précises et détaillées sur l’utilisation et les coûts. v Vous pouvez attribuer, répartir ou facturer les coûts des technologies de l’information en fonction des utilisateurs, des centres de coûts et des organisations de façon équitable, claire et reproductible. Pour plus d’informations, reportez-vous au Tivoli Usage and Accounting Manager Information Center. Référence associée «Configuration des attributs des agents et des clients Tivoli», à la page 164 Informations sur les variables et les attributs de configuration requis et facultatifs de l’agent Tivoli Monitoring , l’agent Tivoli Usage and Accounting Manager , du client Tivoli Storage Manager et des agents TotalStorage Productivity Center. Configuration du client Tivoli Storage Manager Vous pouvez configurer le client Tivoli Storage Manager sur le serveur Virtual I/O Server. A propos de cette tâche Avec Virtual I/O Server 1.4, vous pouvez configurer le client Tivoli Storage Manager sur le serveur Virtual I/O Server. Tivoli Storage Manager vous permet de protéger vos données en cas de défaillance ou d’erreur à l’aide de la fonction de sauvegarde et de reprise après incident qui stocke les données dans une hiérarchie d’archivage hors ligne. Tivoli Storage Manager protège les ordinateurs fonctionnant dans divers environnements d’exploitation, notamment Virtual I/O Server, et sur différents types de matériel. Si vous configurez le client Tivoli Storage Manager sur le serveur Virtual I/O Server, vous pouvez inclure le serveur Virtual I/O Server dans une infrastructure de sauvegarde standard. Avant de commencer, assurez-vous que Virtual I/O Server est installé. Le client Tivoli Storage Manager est livré avec Virtual I/O Server et installé en même temps que Virtual I/O Server. Pour plus d’informations, voir «Installation de Virtual I/O Server et des partitions logiques client», à la page 77. Pour configurer et démarrer le client Tivoli Storage Manager, procédez comme suit : 116 Virtual I/O Server 1. Répertoriez tous les clients Tivoli Storage Manager disponibles à l’aide de la commande lssvc. Par exemple : $lssvc TSM_base 2. Selon le résultat de la commande lssvc, choisissez le client Tivoli Storage Manager que vous voulez configurer. Par exemple, TSM_base 3. Répertoriez tous les attributs associés au client Tivoli Storage Manager à l’aide de la commande cfgsvc. Exemple : $cfgsvc –ls TSM_base SERVERNAME SERVERIP NODENAME 4. Configurez le client Tivoli Storage Manager et les attributs associés à l’aide de la commande cfgsvc : cfgsvc nom_client_TSM -attr SERVERNAME=nom_hôte SERVERIP=non_ou_adresse NODENAME=vios Où : v nom_client_TSM est le nom du client Tivoli Storage Manager. Par exemple, TSM_base. v nom_hôte est le nom d’hôte du serveur Tivoli Storage Manager auquel est associé le client Tivoli Storage Manager. v nom_ou_adresse est l’adresse IP ou le nom de domaine du serveur Tivoli Storage Manager auquel est associé le client Tivoli Storage Manager. v vios est le nom de la machine sur laquelle est installé le client Tivoli Storage Manager. Ce nom doit correspondre au nom enregistré sur le serveur Tivoli Storage Manager. 5. Demandez à l’administrateur de Tivoli Storage Manager d’enregistrer le poste client, Virtual I/O Server, avec le serveur Tivoli Storage Manager. Résultats Lorsque vous avez terminé, vous êtes prêt à sauvegarder et à restaurer Virtual I/O Server à l’aide du gestionnaire Tivoli Storage Manager. Pour plus d’informations, voir les procédures suivantes : v «Sauvegarde du serveur Virtual I/O Server à l’aide du gestionnaire Tivoli Storage Manager», à la page 137 v «Restauration de Virtual I/O Server avec Tivoli Storage Manager», à la page 143 Configuration des agents TotalStorage Productivity Center Vous pouvez configurer et démarrer les agents TotalStorage Productivity Center sur le serveur Virtual I/O Server. A propos de cette tâche Virtual I/O Server 1.5.2 permet de configurer les agents TotalStorage Productivity Center sur le serveur Virtual I/O Server. TotalStorage Productivity Center est une suite de gestion de l’infrastructure de stockage intégrée conçue pour simplifier et automatiser la gestion des unités de stockage et des réseaux de stockage, ainsi que l’utilisation de la capacité des systèmes de fichiers et des bases de données. Lors de la configuration des agents TotalStorage Productivity Center sur le serveur Virtual I/O Server, vous pouvez utiliser l’interface utilisateur de TotalStorage Productivity Center pour collecter et afficher des informations sur le serveur Virtual I/O Server. Avant de commencer, effectuez les tâches suivantes : 1. Vérifiez à l’aide de la commande ioslevel que la version de Virtual I/O Server est 1.5.2 ou une version ultérieure. 2. Vérifiez qu’aucune autre opération ne s’exécute sur le serveur Virtual I/O Server. La configuration de TotalStorage Productivity Center utilise la totalité du temps de traitement. Virtual I/O Server 117 3. En plus de la mémoire requise par la partition logique Virtual I/O Server, assurez-vous que vous avez attribué un minimum de 1 Go de mémoire au Virtual I/O Server pour les agents TotalStorage Productivity Center. Pour configurer et démarrer les agents TotalStorage Productivity Center, procédez comme suit : 1. Répertoriez tous les agents TotalStorage Productivity Center disponibles à l’aide de la commande lssvc. Par exemple : $lssvc TPC L’agent TPC contient les agents TPC_data et TPC_fabric. Lorsque vous configurez l’agent TPC, vous configurez les agents TPC_data et TPC_fabric. 2. Répertoriez tous les attributs associés à l’agent TotalStorage Productivity Center à l’aide de la commande lssvc. Exemple : $lssvc TPC A: S: devAuth: caPass: caPort: amRegPort: amPubPort: dataPort: devPort: newCA: oldCA: daScan: daScript: daInstall: faInstall: U: Les attributs A, S, devAuth et caPass sont requis. Les autres sont facultatifs. Pour plus d’informations sur ces attributs, voir «Configuration des attributs des agents et des clients Tivoli», à la page 164. 3. Configurez l’agent TotalStorage Productivity Center et les attributs associés à l’aide de la commande cfgsvc : cfgsvc TPC -attr S=nom_hôte_serv_tpc A=nom_hôte_gest_agents devAuth=mot_passe_1 caPass=mot_passe_2 Où : v nom_hôte_serv_tpc correspond au nom d’hôte ou à l’adresse IP du serveur TotalStorage Productivity Center associé à l’agent TotalStorage Productivity Center. v nom_hôte_gest_agents correspond au nom ou à l’adresse IP du gestionnaire d’agents. v mot_passe_1 correspond au mot de passe requis pour l’authentification auprès du serveur d’unités TotalStorage Productivity Center. v mot_passe_2 correspond au mot de passe requis pour l’authentification auprès de l’agent commun. 4. Sélectionnez la langue à utiliser pour l’installation et la configuration. 5. Acceptez le contrat de licence pour installer les agents en fonction des attributs définis à l’étape 3. 6. Démarrez chaque agent TotalStorage Productivity Center à l’aide de la commande startsvc : v Pour démarrer l’agent TPC_data, exécutez la commande suivante : startsvc TPC_data v Pour démarrer l’agent TPC_fabric, exécutez la commande suivante : startsvc TPC_fabric 118 Virtual I/O Server Résultats Après le démarrage des agents TotalStorage Productivity Center, vous pouvez effectuer les tâches suivantes à l’aide de l’interface utilisateur de TotalStorage Productivity Center : 1. Exécuter un travail de repérage pour les agents sur le serveur Virtual I/O Server. 2. Effectuer des sondes, des analyses et des travaux ping pour collecter les informations de stockage relatives au Virtual I/O Server. 3. Générer des rapports à l’aide de Fabric Manager et du gestionnaire de données pour afficher les informations de stockage regroupées. 4. Afficher les informations de stockage regroupées à l’aide du visualiseur de topologie. Pour plus d’informations, voir le fichier PDF TotalStorage Productivity Center support for agents on a Virtual I/O Server. Pour consulter ou télécharger le fichier PDF, accédez au site Web TotalStorage Productivity Center v3.3.1.81 Interim Fix. Configuration de l’agent Director Vous pouvez configurer et démarrer l’agent Director sur le serveur Virtual I/O Server. Avant de commencer Avant de commencer, utilisez la commande ioslevel pour vérifier que vous disposez de la version 1.5.2 ou ultérieure de Virtual I/O Server. A propos de cette tâche Avec Virtual I/O Server 1.5.2, vous pouvez configurer l’agent Director sur le serveur Virtual I/O Server. L’agent Director vous permet de consulter et de suivre les détails relatifs à la configuration matérielle du système, ainsi que de surveiller les performances et l’utilisation des composants essentiels, tels que les processeurs, disques et la mémoire. Pour configurer et démarrer l’agent Director, procédez comme suit : 1. Répertoriez les agents Director disponibles à l’aide de la commande lssvc. Par exemple : $lssvc DIRECTOR_agent 2. Configurez l’agent Director et les attributs associés à l’aide de la commande cfgsvc : cfgsvc DIRECTOR_agent -attr RESTART_ON_REBOOT=TRUE RESTART_ON_REBOOT indique si l’agent Director sera redémarré lors de la réinitialisation de Virtual I/O Server. 3. Démarrez l’agent Director à l’aide de la commande startsvc. Pour démarrer l’agent DIRECTOR_agent, exécutez la commande suivante : startsvc DIRECTOR_agent Concepts associés «Logiciel Systems Director», à la page 41 Cette rubrique décrit l’intégration de Virtual I/O Server à un environnement Systems Director. Information associée Commande cfgsvc Configuration de Virtual I/O Server en tant que client LDAP Vous pouvez configurer Virtual I/O Server version 1.4 en tant que client LDAP et ensuite gérer Virtual I/O Server à partir d’un serveur LDAP. Virtual I/O Server 119 Avant de commencer Avant de commencer, notez les informations suivantes : v Nom du ou des serveurs LDAP (Lightweight Directory Access Protocol) pour lesquels vous souhaitez définir Virtual I/O Server comme client LDAP. v Nom distinctif (DN) et mot de passe de l’administrateur du ou des serveurs LDAP pour lesquels vous souhaitez définir Virtual I/O Server comme client LDAP. A propos de cette tâche Pour configurer Virtual I/O Server en tant que client LDAP, procédez comme suit : 1. Convertissez les utilisateurs Virtual I/O Server en utilisateurs LDAP en exécutant la commande suivante : chuser -ldap username où username est le nom de l’utilisateur que vous souhaitez convertir en utilisateur LDAP. 2. Configurez le client LDAP en exécutant la commande suivante : mkldap –host ldapserv1 –bind cn=admin –passwd adminpwd Où : v ldapserv1 est le serveur LDAP ou la liste de serveurs LDAP pour lesquels vous souhaitez définir Virtual I/O Server comme client LDAP v cn=admin est le nom distinctif (DN) de l’administrateur ldapserv1 v adminpwd est le mot de passe associé à cn=admin La configuration du client LDAP déclenche automatiquement la communication entre le serveur LDAP et le client LDAP (le Virtual I/O Server). Pour arrêter la communication, utilisez la commande stopnetsvc. Configuration de Virtual I/O Server pour les systèmes POWER6 Avant de mettre à niveau un système Virtual I/O Server (VIOS) existant vers un système POWER6 VIOS, vous devez configurer le nombre maximal d’emplacements d’E-S virtuels et toute carte virtuelle Ethernet, série ou d’interface SCSI virtuelle utilisant les emplacements VIOS 0 à 10. A propos de cette tâche Les règles de configuration suivantes s’appliquent : v Le nombre maximal d’emplacements d’E-S virtuels doit être d’au moins 11, plus le nombre d’emplacements d’E-S virtuels dont vous avez besoin. Remarques : – Un nombre maximal inférieur à 11 peut être incompatible avec les versions plus récentes de la console HMC (Hardware Management Console). – Le nombre maximal d’emplacements peut être supérieur à 11. – Les emplacements virtuels en trop utilisent une certaine quantité de mémoire supplémentaire mais n’ont pas d’autre impact. v Tous les emplacements virtuels Ethernet, série et d’interface SCSI virtuelle définis par l’utilisateur doivent utiliser les ID d’emplacement 11 ou supérieurs. Remarque : Dans le cas des cartes d’interface SCSI virtuelle existantes, vous devez mapper tous les profils client aux nouvelles cartes serveur. 120 Virtual I/O Server Ces règles de configuration s’appliquent aux partitions des systèmes POWER6 uniquement. Dans le cas d’une combinaison de systèmes et POWER6 sur une console HMC V7, les systèmes peuvent utiliser les emplacements 0 à 10. Gestion du serveur Virtual I/O Server Vous pouvez gérer des unités Ethernet virtuelles et SCSI virtuelles sur le serveur Virtual I/O Server, ainsi que sauvegarder, restaurer, mettre à jour et contrôler le serveur Virtual I/O Server. A propos de cette tâche La plupart des sections de cette rubrique concernent les opérations de gestion dans un environnement HMC. Pour plus d’informations sur les tâches de gestion dans un environnement Integrated Virtualization Manager, voir Partitionnement à l’aide du gestionnaire Integrated Virtualization Manager. Gestion de la mémoire Vous pouvez importer et exporter des groupes de volumes et des pools de stockage, mapper des disques virtuels à des disques physiques, augmenter la capacité des unités SCSI virtuelles, modifier la longueur de file d’attente SCSI virtuelle, sauvegarder et restaurer des fichiers et des systèmes de fichiers et collecter et afficher des informations avec TotalStorage Productivity Center. Importation et exportation de groupes de volumes et de pools de stockage de volumes logiques Les commandes importvg et exportvg permettent de déplacer un groupe de volumes défini par l’utilisateur d’un système vers un autre. A propos de cette tâche Tenez compte des remarques suivantes lors de l’importation et de l’exportation de groupes de volumes et de pools de stockage de volumes logiques : v La procédure d’importation permet d’introduire le groupe de volumes dans le nouveau système. v Vous pouvez utiliser la commande importvg pour réintroduire un groupe de volumes ou un pool de stockage de volumes logiques dans le système auquel il été précédemment associé et à partir duquel il a été exporté. v La commande importvg permet de modifier le nom du volume logique importé si un volume logique portant le même nom existe déjà sur le nouveau système. Si la commande importvg renomme un volume logique, un message d’erreur est imprimé. v La procédure d’exportation provoque la suppression de la définition d’un groupe de volumes d’un système. v Vous pouvez utiliser les commandes importvg et exportvg pour ajouter un volume physique contenant des données à un groupe de volumes en plaçant le disque à ajouter dans son propre groupe de volumes. v Il n’est pas possible d’exporter ou d’importer le groupe de volumes rootvg. Importation de groupes de volumes et de pools de stockage de volumes logiques : Vous pouvez utiliser la commande importvg pour importer un groupe de volumes ou un pool de stockage de volumes logiques. A propos de cette tâche Pour importer un groupe de volumes ou un pool de stockage de volumes logiques, procédez comme suit : Virtual I/O Server 121 1. Exécutez la commande suivante pour importer le groupe de volumes ou le pool de stockage de volumes logiques : importvg -vg volumeGroupName physicalVolumeName Où : v volumeGroupName est un paramètre facultatif qui indique le nom à utiliser pour le groupe de volumes importé. v physicalVolumeName est le nom d’un volume physique appartenant au groupe de volumes importé. 2. Si vous savez que le groupe de volumes ou le pool de stockage de volumes logiques n’est pas le parent du référentiel de supports virtuels ou d’un pool de stockage de fichiers, vous avez terminé l’importation du groupe de volumes ou du pool de stockage de volumes. Vous pouvez donc ignorer les étapes suivantes. 3. Si vous savez (ou si vous n’êtes pas sûr) que le groupe de volumes ou le pool de stockage de volumes logiques est le parent du référentiel de supports virtuels ou d’un pool de stockage de fichiers, procédez comme suit : a. Exécutez la commande mount all pour monter les systèmes de fichiers inclus dans le groupe de volumes ou le pool de stockage de volumes logiques. Il est possible que cette commande renvoie des erreurs pour les systèmes de fichiers déjà montés. b. Si vous importez un groupe de volumes ou un pool de stockage de volumes logiques dans le même système que celui à partir duquel vous l’avez exporté, exécutez la commande cfgdev pour reconfigurer les unités dont vous aviez annulé la configuration lors de l’exportation du groupe de volumes ou du pool de stockage de volumes logiques. Que faire ensuite Pour exporter un groupe de volumes ou un pool de stockage de volumes logiques, voir «Exportation de groupes de volumes et de pools de stockage de volumes logiques». Exportation de groupes de volumes et de pools de stockage de volumes logiques : Vous pouvez utiliser la commande exportvg pour exporter un groupe de volumes ou un pool de stockage de volumes logiques. Avant de commencer Avant de commencer, effectuez les tâches suivantes : 1. Déterminez si le groupe de volumes ou le pool de stockage de volumes logiques à exporter est un parent du référentiel de supports virtuels ou d’un pool de stockage de fichiers en procédant comme suit : a. Exécutez la commande lsrep pour déterminer si le groupe de volumes ou le pool de stockage de volumes logiques à exporter est un parent du référentiel de supports virtuels. La zone Pool parent affiche le groupe de volumes ou le pool de volumes logiques parent du référentiel de supports virtuels. b. Exécutez la commande suivante pour déterminer si un pool de stockage de fichiers est un enfant du groupe de volumes ou du pool de volumes logiques à exporter : lssp -detail -sp FilePoolName Le résultat indique le groupe de volumes ou le pool de stockage de volumes logiques parent du pool de stockage de fichiers. 2. Si le groupe de volumes ou le pool de stockage de volumes logiques à exporter est un parent du référentiel de supports virtuels ou d’un pool de stockage de fichiers, exécutez les étapes qui suivent. 122 Virtual I/O Server Tableau 31. Etapes prérequises si le groupe de volumes ou le pool de stockage de volumes logiques est un parent du référentiel de supports virtuels ou d’un pool de stockage de fichiers Parent du référentiel de supports virtuels Parent d’un pool de stockage de fichiers 1. Procédez comme suit pour décharger l’unité de sauvegarde de chaque unité cible virtuelle sauvegardée sur fichier incluant un fichier multimédia chargé : 1. Annulez la configuration des unités cible virtuelles associées aux fichiers contenus dans les pools de stockage de fichiers en procédant comme suit: a. Extrayez la liste des unités cible virtuelles optiques sauvegardées sur fichier en exécutant la commande suivante : lsmap -all -type file_opt b. Pour chaque unité cible virtuelle indiquant une unité de sauvegarde, exécutez la commande suivante pour décharger l’unité de sauvegarde : unloadopt -vtd VirtualTargetDevice 2. Démontez le système de fichiers du référentiel de supports virtuels en exécutant la commande suivante : unmount /var/vio/VMLibrary a. Extrayez la liste des unités cible virtuelles en exécutant la commande suivante : lssp -bd -sp FilePoolName où FilePoolName est le nom du pool de stockage de fichiers enfant du groupe de volumes ou du pool de stockage de volumes logiques à exporter. b. Pour chaque fichier indiquant une unité cible virtuelle, exécutez la commande suivante : rmdev -dev VirtualTargetDevice -ucfg 2. Démontez le pool de stockage de fichiers en exécutant la commande suivante : unmount /var/vio/storagepools/FilePoolName où FilePoolName est le nom du pool de stockage de fichiers à démonter. A propos de cette tâche Pour exporter le groupe de volumes ou le pool de stockage de volumes logiques, exécutez les commandes suivantes : 1. deactivatevg VolumeGroupName 2. exportvg VolumeGroupName Que faire ensuite Pour importer un groupe de volumes ou un pool de stockage de volumes logiques, voir «Importation de groupes de volumes et de pools de stockage de volumes logiques», à la page 121. Mappage de disques virtuels sur des disques physiques Instructions de mappage d’un disque virtuel d’une partition logique client sur le disque physique correspondant du serveur Virtual I/O Server. A propos de cette tâche Cette procédure explique comment mapper un disque SCSI virtuel d’une partition logique client AIX avec l’unité physique (disque ou volume logique) du serveur Virtual I/O Server. Pour ce faire, vous avez besoin des informations suivantes. Ces informations sont collectées au cours de cette procédure. v Nom d’unité virtuelle v Numéro d’emplacement de la carte client SCSI virtuelle v Numéro d’unité logique (LUN) de l’unité SCSI virtuelle v Identificateur de partition logique client Virtual I/O Server 123 Pour mapper un disque virtuel d’une partition logique client AIX avec le disque physique du serveur Virtual I/O Server correspondant, procédez comme suit : 1. Affichez les informations relatives à l’unité SCSI virtuelle sur la partition logique client AIX en entrant la commande suivante : lscfg -l nom-unité Cette commande renvoie un résultat similaire au suivant : U9117.570.1012A9F-V3-C2-T1-L810000000000 Unité de disque SCSI virtuelle 2. Notez le numéro d’emplacement figurant dans la sortie à la suite du libellé d’emplacement de carte C. Il correspond au numéro d’emplacement de la carte client SCSI virtuelle. Dans cet exemple, le numéro d’emplacement est 2. 3. Notez le numéro d’unité logique (LUN) figurant dans la sortie à la suite du label de LUN L. Dans cet exemple, LUN équivaut à 810000000000. 4. Notez l’ID de la partition logique client AIX : a. Connectez-vous à la partition logique client AIX en utilisant, par exemple, Telnet. b. Sur la partition logique AIX, exécutez la commande uname -L. Le résultat doit ressembler à ceci : 2 fumi02 L’identificateur de partition logique est le premier numéro indiqué. Dans cet exemple, il s’agit de 2. Ce numéro est utilisé à l’étape suivante. c. Entrez exit. 5. Si plusieurs partitions logiques Virtual I/O Server s’exécutent sur votre système, déterminez celle qui tient lieu d’unité SCSI virtuelle. Elle peut être déterminée à l’aide du numéro d’emplacement de la carte client reliée à un Virtual I/O Server et à une carte de serveur. Utilisez la ligne de commande de la console HMC pour répertorier les informations relatives aux cartes client SCSI virtuelles de la partition logique client. Connectez-vous à la console HMC et à partir de la ligne de commande de la console HMC, entrez lshwres. Indiquez le nom de la console gérée pour le paramètre -m et l’identificateur de la partition logique client pour le paramètre lpar_ids. Remarque : v Le nom de la console gérée utilisée pour le paramètre -m est déterminé en entrant lssyscfg -r sys -F name à partir de la ligne de commande de la console HMC. v Utilisez l’identificateur de partition logique client noté à l’étape 4 pour le paramètre -lpar_ids. Par exemple : lshwres -r virtualio --rsubtype scsi -m fumi --filter lpar_ids=2 Cet exemple renvoie un résultat similaire au suivant : lpar_name=fumi02,lpar_id=2,slot_num=2,state=null,adapter_type=client,remote_lpar_id=1, remote_lpar_name=fumi01,remote_slot_num=2,is_required=1,backing_devices=none Notez le nom du serveur Virtual I/O Server situé dans la zone remote_lpar_name et le numéro d’emplacement de la carte serveur SCSI virtuelle, figurant dans la zone remote_lpar_id. Dans cet exemple, le nom du serveur Virtual I/O Server est fumi01 et le numéro d’emplacement de la carte serveur SCSI virtuelle est 2. 6. Connectez-vous au serveur Virtual I/O Server. 7. Répertoriez les cartes et les unités virtuelles du serveur Virtual I/O Server en entrant la commande suivante : lsmap -all 124 Virtual I/O Server 8. Localisez la carte serveur SCSI virtuelle (vhostX) qui présente un numéro d’emplacement correspondant au numéro d’emplacement distant noté à l’étape 5. Sur cette carte, exécutez la commande suivante : lsmap -vadapter nom-unité 9. A partir de la liste des unités, faites correspondre le numéro d’unité logique noté à l’étape 3 avec les numéros d’unité logique répertoriés. Il s’agit de l’unité physique. Résultats Augmentation de la capacité de l’unité Augmenter la taille des disques SCSI virtuels. A propos de cette tâche Lorsque les besoins en stockage des partitions logiques client virtuelles augmentent, vous pouvez ajouter une mémoire physique pour accroître la taille de vos unités virtuelles et allouer cette mémoire à votre environnement virtuel. Vous pouvez étendre la capacité de vos unités SCSI virtuelles en augmentant la taille des volumes physiques ou logiques. Virtual I/O Server version 1.3 et supérieures permet d’effectuer ceci sans interrompre les opérations client. Pour augmenter la taille des fichiers et des volumes logiques en fonction des pools de stockage, vous devez utiliser la version 1.5 ou une version supérieure de Virtual I/O Server. Conseil : Si vous utilisez la console HMC, version 7 édition 3.4.2 ou ultérieure, vous pouvez utiliser l’interface graphique de la console HMC pour augmenter la capacité d’une unité SCSI virtuelle sur un serveur Virtual I/O Server. Pour augmenter la capacité des unités SCSI, procédez comme suit : 1. Augmentation de la taille des volumes physiques, des volumes logiques ou des fichiers : v Volumes physiques : consultez la documentation relative au stockage afin de déterminer si votre sous-système de stockage prend en charge l’extension de la taille d’un numéro d’unité logique (LUN). v Volumes logiques basés sur des groupes de volumes : a. Exécutez la commande extendlv. Par exemple, extendlv lv3 100M. Dans cet exemple, le volume logique lv3 est augmenté de 100 Mo. b. Si le volume logique ne contient pas d’espace supplémentaire, procédez comme suit : 1) Augmentez la taille du groupe de volumes en procédant comme suit : – Augmentez la taille des volumes physiques. Pour plus d’informations, consultez la documentation relative à votre système de stockage. – Ajoutez des volumes physiques à un groupe de volumes en exécutant la commande extendvg. Par exemple, extendvg vg1 hdisk2. Dans cet exemple, le volume physique hdisk2 est ajouté au groupe de volumes vg1. 2) Allouez le volume augmenté aux partitions logiques en redimensionnant les volumes logiques. Exécutez la commandeextendlv pour augmenter la taille d’un volume logique. v Volumes logiques basés sur des pools de stockage : a. Exécutez la commande chbdsp. Par exemple, chbdsp -sp lvPool -bd lv3 -size 100M. Dans cet exemple, le volume logique lv3 est augmenté de 100 Mo. b. Si le volume logique ne contient pas d’espace supplémentaire, procédez comme suit : 1) Augmentez la taille du pool de stockage de volumes logiques en procédant de l’une des façons suivantes : – Augmentez la taille des volumes physiques. Pour plus d’informations, consultez la documentation relative à votre système de stockage. Virtual I/O Server 125 – Ajoutez des volumes physiques au pool de stockage en exécutant la commande chsp. Par exemple, chsp -add -sp sp1 hdisk2. Dans cet exemple, le volume physique hdisk2 est ajouté au pool de stockage sp1. 2) Allouez le volume augmenté aux partitions logiques en redimensionnant les volumes logiques. Exécutez la commande chbdsp pour augmenter la taille d’un volume logique. v Fichiers : a. Exécutez la commande chbdsp. Par exemple, chbdsp -sp fbPool -bd fb3 -size 100M. Dans cet exemple, le fichier fb3 est augmenté de 100 Mo. b. Si le fichier ne contient pas d’espace supplémentaire, augmentez la taille du pool de stockage de fichiers en exécutant la commande chsp. Par exemple, chsp -add -sp fbPool -size 100M. Dans cet exemple, le pool de stockage de fichiers fbPool est augmenté de 100 Mo. c. Si le pool de stockage de fichiers ne contient pas d’espace supplémentaire, augmentez la taille du pool de stockage parent en procédant de l’une des façons suivantes : – Augmentez la taille des volumes physiques. Pour plus d’informations, consultez la documentation relative à votre système de stockage. – Ajoutez des volumes physiques au pool de stockage parent en exécutant la commande chsp. Par exemple, chsp -add -sp sp1 hdisk2. Dans cet exemple, le volume physique hdisk2 est ajouté au pool de stockage sp1. – Augmentez la taille du pool de stockage de fichiers en exécutant la commande chsp. 2. Si vous exécutez des versions de Virtual I/O Server antérieures à la version 1.3, vous devez reconfigurer l’unité virtuelle (à l’aide de la commande cfgdev) ou redémarrer Virtual I/O Server. 3. Si vous exécutez la version 1.3 ou une version supérieure de Virtual I/O Server, il n’est pas obligatoire de redémarrer ou de reconfigurer une partition logique pour pouvoir utiliser les ressources supplémentaires. Si les ressources de la mémoire physique ont été configurées et allouées au système en tant que ressources système, dès que Virtual I/O Server identifie les modifications dans le volume de stockage, la capacité de stockage étendue est mise à la disposition des partitions logiques client. 4. Sur la partition logique client, assurez-vous que le système d’exploitation reconnaisse la nouvelle taille et s’y adapte. Par exemple, si AIX est le système d’exploitation sur la partition logique client, exécutez la commande suivante : chvg -g vg1 Dans cet exemple, AIX examine tous les disques dans le groupe de volumes vg1 afin de vérifier que leur taille a augmenté. Pour les disques dont la taille a augmenté, AIX tente d’ajouter des partitions physiques supplémentaires aux volumes physiques. Le cas échéant, AIX déterminera le multiplicateur 1016 et la conversion appropriés au groupe de volumes. Information associée Commande chvg Changement de pool de stockage pour une partition logique VIOS via la console HMC Modification de la longueur de file d’attente de l’interface SCSI virtuelle L’augmentation de la longueur de la file d’attente de l’interface SCSI virtuelle peut améliorer les performances de certaines configurations virtuelles. Il est donc important de connaître les facteurs qui interviennent dans la détermination de la modification de la valeur de longueur de file d’attente de l’interface SCSI virtuelle. La valeur de longueur de file d’attente de l’interface SCSI virtuelle détermine le nombre de requêtes que le pilote de la tête du disque transmettra au pilote du client. Pour les partitions logiques client AIX et Linux, vous pouvez modifier cette valeur en remplaçant la valeur par défaut (3) par une valeur comprise entre 1 et 256. Cette modification s’effectue à l’aide de la commande chdev. L’augmentation de cette valeur peut améliorer le rendement du disque dans certaines configurations. Toutefois, plusieurs facteurs doivent être pris en compte. Parmi ces facteurs figurent la valeur de l’attribut 126 Virtual I/O Server de longueur de file d’attente de toutes les unités de mémoire physique sur le serveur Virtual I/O Server utilisées en tant qu’unité cible virtuelle par l’instance de disque sur la partition client et la taille de transfert maximale de l’instance de carte client SCSI virtuelle qui constitue l’unité parente de l’instance de disque. Pour les partitions logiques client AIX et Linux, la taille de transfert maximale pour les cartes client de l’interface SCSI est définie par Virtual I/O Server, qui détermine la valeur en fonction des ressources disponibles sur le serveur et de la taille de transfert maximale définie pour les unités de mémoire physique sur ce serveur. D’autres facteurs incluent la longueur de file d’attente et la taille de transfert maximale des autres unités impliquées dans les configurations de type groupe de volumes en miroir ou MPIO (Multipath I/O). L’augmentation de la longueur de la file d’attente pour certaines unités peut réduire le nombre de ressources disponibles pour les autres unités situées sur la même carte partagée et diminuer le rendement de celles-ci. Pour modifier la longueur de la file d’attente AIX ou Linux, utilisez la commande chdev sur la partition logique client avec l’attribut queue_depth=value, comme dans l’exemple suivant : chdev -1 hdiskN -a "queue_depth=value" hdiskN représente le nom d’un volume physique et value désigne la valeur comprise entre 1 et 256 que vous attribuez. Pour visualiser le paramètre actuel défini pour la valeur queue_depth, exécutez la commande suivante à partir de la partition logique client : lsattr -El hdiskN Sauvegarde et restauration de fichiers et de systèmes de fichiers Vous pouvez utiliser les commandes backup et restore pour sauvegarder et restaurer des fichiers individuels ou des systèmes de fichiers complets. A propos de cette tâche La sauvegarde et la restauration de fichiers et de systèmes de fichiers peuvent s’avérer utiles pour les tâches telles que l’ l’enregistrement d’une unité sauvegardée sur fichier. Pour sauvegarder et restaurer des fichiers et des systèmes de fichiers, utilisez les commandes ci-après. Tableau 32. Commandes de sauvegarde et de restauration et leurs descriptions commande Description backup Permet de sauvegarder des fichiers et des systèmes de fichiers sur des supports, tels que des bandes et des disques physiques. Exemple : v Vous pouvez sauvegarder tous les fichiers et tous les sous-répertoires dans un répertoire à l’aide des chemins d’accès complets ou des chemins d’accès relatifs. v Vous pouvez sauvegarder le système de fichiers racine. v Vous pouvez sauvegarder tous les fichiers du système de fichiers racine qui ont été modifiés depuis la dernière sauvegarde. v Vous pouvez sauvegarder les fichiers de support optique virtuel depuis le référentiel de support virtuel. Virtual I/O Server 127 Tableau 32. Commandes de sauvegarde et de restauration et leurs descriptions (suite) commande Description restore Permet de lire les archives créées à l’aide de la commande backup et d’extraire les fichiers qu’elles contiennent. Exemple : v Vous pouvez restaurer un fichier donné dans le répertoire de travail. v Vous pouvez restaurer un fichier donné depuis une bande sur le référentiel de support virtuel. v Vous pouvez restaurer un répertoire spécifique ainsi que le contenu de ce répertoire depuis une archive de nom de fichier ou une archive de système de fichiers. v Vous pouvez restaurer un système de fichiers complet. v Vous pouvez restaurer uniquement les permissions ou uniquement les attributs ACL des fichiers ou de l’archive. Gestion du stockage à l’aide d’ TotalStorage Productivity Center Vous pouvez utiliser TotalStorage Productivity Center pour collecter et afficher des informations sur Virtual I/O Server. A propos de cette tâche Virtual I/O Server 1.5.2, permet d’installer et de configurer les agents TotalStorage Productivity Center sur le serveur Virtual I/O Server. TotalStorage Productivity Center est une suite de gestion de l’infrastructure de stockage intégrée conçue pour simplifier et automatiser la gestion des unités de stockage et des réseaux de stockage, ainsi que l’utilisation de la capacité des systèmes de fichiers et des bases de données. Lors de l’installation et de la configuration des agents TotalStorage Productivity Center sur le serveur Virtual I/O Server, vous pouvez utiliser l’interface de TotalStorage Productivity Center pour collecter et afficher des informations sur le serveur Virtual I/O Server. Vous pouvez ensuite effectuer les tâches suivantes à l’aide de l’interface TotalStorage Productivity Center : 1. Exécuter un travail de repérage pour les agents sur le serveur Virtual I/O Server. 2. Effectuer des sondes, des analyses et des travaux ping pour collecter les informations de stockage relatives au Virtual I/O Server. 3. Générer des rapports à l’aide de Fabric Manager et du gestionnaire de données pour afficher les informations de stockage regroupées. 4. Afficher les informations de stockage regroupées à l’aide du visualiseur de topologie. Pour plus d’informations, voir «Configuration des agents TotalStorage Productivity Center», à la page 117. Gestion des réseaux Vous pouvez modifier la configuration réseau de la partition logique Virtual I/O Server, activer et désactiver le protocole GVRP (GARP VLAN Registration Protocol) sur la carte Ethernet partagée, utiliser le protocole SNMP (Simple Network Management Protocol) pour gérer les systèmes et les unités sur des réseaux complexes et mettre à niveau vers Internet Protocol version 6 (IPv6). Modification de la configuration réseau de la partition logique Virtual I/O Server Pour modifier ou supprimer les paramètres réseau sur la partition logique Virtual I/O Server, tels que l’adresse IP, le masque de sous-réseau, la passerelle et l’adresse de serveur de noms, procédez comme indiqué ici. A propos de cette tâche Dans ce scénario, la configuration de réseau de la partition logique Virtual I/O Server est déjà définie. La configuration en cours sera supprimée et celle mise à jour sera définie. Si vous envisagez d’annuler la 128 Virtual I/O Server configuration Internet Protocol version 6 (IPv6), utilisez le processus et les commandes ci-après pour supprimer complètement l’interface TCP/IP et en configurer une nouvelle pour Internet Protocol version 4 (IPv4). 1. Affichez la configuration de réseau en cours à l’aide de la commande lstcpip. 2. Supprimez la configuration de réseau en cours en exécutant la commande rmtcpip. Vous pouvez supprimer tous les paramètres réseau ou uniquement ceux qui doivent être mis à jour. 3. Configurez les nouveaux paramètres réseau à l’aide de la commande mktcpip. Exemple L’exemple suivant concerne IPv4 dans lequel l’adresse en cours des informations DNS (Domain Name Server) de la partition logique Virtual I/O Server doit être mise à jour vers 9.41.88.180 : 1. Exécutez la commande lstcpip -namesrv pour afficher la configuration en cours. Assurez-vous que la configuration a besoin d’être mise à jour. 2. Exécutez la commande rmtcpip -namesrv pour supprimer la configuration en cours. 3. Exécutez mktcpip -nsrvaddr 9.41.88.180 pour mettre à jour l’adresse du serveur de noms. Activation et désactivation du protocole GVRP Vous pouvez activer et désactiver le protocole GVRP (GARP VLAN Registration Protocol) sur les cartes Ethernet partagées, ce qui permet de gérer l’enregistrement dynamique des réseaux locaux virtuels (VLAN) sur les réseaux. Avant de commencer Sur le serveur Virtual I/O Server version 1.4, les cartes Ethernet partagées prennent en charge le protocole GVRP (GARP VLAN Registration Protocol), lequel repose sur le protocole GARP (Generic Attribute Registration Protocol). Le protocole GVRP permet l’enregistrement dynamique des réseaux VLAN sur les réseaux. Par défaut, le protocole GVRP est désactivé sur les cartes Ethernet partagées. Avant de commencer, créez et configurez une carte Ethernet partagée. Pour plus d’informations, voir «Création d’une carte Ethernet virtuelle via la console HMC version 7», à la page 106. Pour activer ou désactiver le protocole GVRP, exécutez la commande suivante : chdev -dev Nom -attr gvrp=yes/no Où : v Nom est le nom de la carte Ethernet partagée. v yes/no indique si le protocole GVRP est activé ou désactivé. Entrez yes pour activer le protocole GVRP ou entrez no pour le désactiver. Gestion du protocole SNMP sur le serveur Virtual I/O Server Localisation des commandes d’activation, de désactivation et de gestion du protocole SNMP sur le serveur Virtual I/O Server. A propos de cette tâche Le protocole SNMP (Simple Network Management Protocol) regroupe plusieurs protocoles de contrôle des systèmes et des unités sur les réseaux complexes. La gestion de réseau SNMP repose sur le modèle client-serveur couramment utilisé dans les applications réseau fonctionnant avec le protocole IP. Chaque hôte géré est exécuté sur un processus appelé agent. L’agent est un processus serveur qui gère les informations sur les unités gérées de la base d’informations de gestion (MIB) de l’hôte. Les hôtes actifs dans la gestion de réseau peuvent exécuter un processus appelé gestionnaire. Un gestionnaire est une Virtual I/O Server 129 application client qui envoie des requêtes à la base d’informations de gestion (MIB) et traite les réponses. De plus, un gestionnaire peut envoyer des requêtes aux serveurs pour modifier les informations MIB. En général, les administrateurs de réseau utilisent le protocole SNMP pour faciliter la gestion du réseau pour différentes raisons : v Il masque le réseau système sous-jacent. v L’administrateur peut gérer et surveiller l’ensemble des composants réseau sur une console unique. Le protocole SNMP est disponible sur le serveur Virtual I/O Server version 1.4 et ultérieure. Le tableau ci-dessous répertorie les tâches de gestion SNMP disponibles sur le serveur Virtual I/O Server, ainsi que les commandes permettant d’effectuer ces tâches. Tableau 33. Tâches et commandes de gestion du protocole SNMP sur le serveur Virtual I/O Server Tâche commande Activation du protocole SNMP startnetsvc Sélection de l’agent SNMP à exécuter snmpv3_ssw Envoi de requêtes SNMP aux agents cl_snmp Traitement des réponses envoyées par les agents cl_snmp Demande d’informations MIB gérées par un agent SNMP snmp_info Modification d’informations MIB gérées par un agent SNMP snmp_info Envoi d’une notification signalant un événement au gestionnaire SNMP au moyen d’un message défini snmp_trap Désactivation du protocole SNMP stopnetsvc Information associée Gestion du réseau Mise à niveau de Virtual I/O Server de IPv4 vers IPv6 Pour tirer parti des optimisations, telles que la simplification de l’adressage et du routage étendus, utilisez la commande mktcpip pour mettre à niveau Virtual I/O Server de Internet Protocol version 4 (IPv4) vers Internet Protocol version 6 (IPv6). A propos de cette tâche IPv6 est le protocole IP de future génération et remplace graduellement la norme Internet actuelle, Internet Protocol version 4 (IPv4). La principale amélioration d’IPv6 est l’extension de l’espace adresse IP de 32 à 128 bits, offrant un nombre d’adresses IP uniques pratiquement illimité. IPv6 présente plusieurs avantages par rapport à IPv4, notamment le routage et l’adressage étendus, la simplification du routage, la simplification du format d’en-tête, un contrôle amélioré du trafic, l’autoconfiguration et la sécurité. Exécutez la commande suivante pour mettre à niveau Virtual I/O Server de IPv4 vers IPv6 : mktcpip –auto [-interface interface] où interface indique l’interface à configurer pour IPv6. Cette commande effectue automatiquement les tâches suivantes : v Elle configure pour IPv6 toutes les adresses locales de liaison actuellement configurées pour IPv4. v Elle active le démon des interfaces indiquées prenant en charge IPv6. v Elle lance le démon ndpd-host. v Elle vérifie que la configuration IPv6 reste intacte après le redémarrage de Virtual I/O Server. 130 Virtual I/O Server Que faire ensuite Si vous décidez d’annuler la configuration IPv6, vous devez entièrement supprimer l’interface TCP/IP, puis configurer une nouvelle interface TCP/IP pour IPv4. Pour plus d’informations, voir «Modification de la configuration réseau de la partition logique Virtual I/O Server», à la page 128. Sauvegarde du serveur Virtual I/O Server Vous pouvez sauvegarder Virtual I/O Server et les unités virtuelles définies par l’utilisateur à l’aide de la commande backupios. Vous pouvez également utiliser Tivoli Storage Manager pour programmer des sauvegardes et les stocker sur un autre serveur. A propos de cette tâche Le serveur Virtual I/O Server comporte les informations suivantes à sauvegarder : Virtual I/O Server et les unités virtuelles définies par l’utilisateur. v Virtual I/O Server contient le code de base, les groupes de correctifs appliqués, les pilotes d’unités personnalisés permettant de prendre en charge les sous-systèmes de disque et certaines métadonnées définies par l’utilisateur. Toutes ces informations sont sauvegardées lorsque vous utilisez la commande backupios. Dans le cas où vous envisagez de restaurer Virtual I/O Server sur le même système à partir duquel il a été sauvegardé, la sauvegarde de Virtual I/O Server est généralement suffisante. v Les unités définies par l’utilisateur contiennent des métadonnées, telles que des mappages d’unités virtuelles, qui définissent la relation existant entre l’environnement physique et l’environnement virtuel. Ces données peuvent être enregistrées dans un emplacement qui est automatiquement sauvegardé lorsque vous utilisez la commande backupios. Si vous envisagez de sauvegarder Virtual I/O Server sur un autre système ou un nouveau système, (par exemple, en cas de panne du système ou de sinistre), vous devez sauvegarder à la fois Virtual I/O Server et les unités virtuelles définies par l’utilisateur. D’autre part, dans ces situations, vous devez également sauvegarder les composants suivants de votre environnement pour restaurer intégralement la configuration de Virtual I/O Server : – Les configurations d’unités externes, comme les unités de réseau de systèmes (SAN). – Les ressources définies sur la console HMC (Hardware Management Console), telles que les allocations de mémoire et de processeur. Cela implique de sauvegarder vos données de profil de partition de la console HMC du serveur Virtual I/O Server et ses partitions client. – Les systèmes d’exploitation et les applications exécutées dans les partitions logiques client. Vous pouvez sauvegarder et restaurer Virtual I/O Server comme suit. Tableau 34. Méthodes de sauvegarde et de restauration de Virtual I/O Server Méthode de sauvegarde Support Méthode de restauration Sur bande Bande A partir d’une bande Sur DVD DVD-RAM A partir d’un DVD Sur le système de fichiers distant image nim_resources.tar A partir d’une console HMC à l’aide de la fonction Network Installation Management (NIM) sur Linux et de la commande installios Sur le système de fichiers distant image mksysb A partir d’un serveur NIM AIX 5L et d’une installation de système mksysb standard Tivoli Storage Manager image mksysb Tivoli Storage Manager Virtual I/O Server 131 Sauvegarde du serveur Virtual I/O Server sur bande Vous pouvez sauvegarder sur bande différentes données de Virtual I/O Server : le code de base, les groupes de correctifs appliqués, les pilotes d’unités personnalisés permettant de prendre en charge les sous-systèmes de disque et certaines métadonnées définies par l’utilisateur. Avant de commencer Si le système est géré par Integrated Virtualization Manager, vous devez sauvegarder vos données de profil de partition pour la partition de gestion et ses clients avant de sauvegarder Virtual I/O Server. Pour obtenir des instructions, voir Sauvegarde et restauration des données de partition. (Vous avez également la possibilité d’utiliser la commande bkprofdata.) A propos de cette tâche Pour sauvegarder le serveur Virtual I/O Server sur une bande, procédez comme suit : 1. Affectez une unité de bande au serveur Virtual I/O Server. 2. Extrayez le nom d’unité en entrant la commande suivante : lsdev -type tape Si l’état de l’unité de bande est Defined, tapez la commande suivante, où dev correspond à votre unité de bande : cfgdev -dev dev 3. Tapez la commande suivante, où unité_bande est le nom de l’unité de bande que vous souhaitez utiliser pour la sauvegarde : backupios -tape unité_bande Cette commande crée une bande amorçable qui peut être utilisée pour restaurer Virtual I/O Server. 4. Si vous envisagez de restaurer Virtual I/O Server sur un autre système que celui à partir duquel il a été sauvegardé, vous devez sauvegarder les unités virtuelles définies par l’utilisateur. Pour plus d’informations, voir «Sauvegarde des unités virtuelles définies par l’utilisateur», à la page 135. Sauvegarde du serveur Virtual I/O Server sur un ou plusieurs DVD Vous pouvez sauvegarder sur DVD différentes données du serveur Virtual I/O Server : le code de base, les groupes de correctifs appliqués, les pilotes d’unités personnalisés permettant de prendre en charge les sous-systèmes de disque et certaines métadonnées définies par l’utilisateur. Avant de commencer Si le système est géré par Integrated Virtualization Manager, vous devez sauvegarder vos données de profil de partition pour la partition de gestion et ses clients avant de sauvegarder Virtual I/O Server. Pour obtenir des instructions, voir Sauvegarde et restauration des données de partition. (Vous avez également la possibilité d’utiliser la commande bkprofdata.) A propos de cette tâche Pour sauvegarder Virtual I/O Server sur un ou plusieurs DVD, procédez comme suit. Seul le support DVD-RAM peut être utilisé pour sauvegarder Virtual I/O Server. Remarque : Les unités de disque des fournisseurs peuvent prendre en charge la gravure sur d’autres types de disque, tels que le CD-RW et le DVD-R. Consultez la documentation relative à votre unité pour connaître les types de disque pris en charge. 1. Affectez une unité de disque optique à la partition logique Virtual I/O Server. 2. Extrayez le nom d’unité en entrant la commande suivante : lsdev -type optical 132 Virtual I/O Server Si l’état de l’unité est Defined, tapez : cfgdev -dev dev 3. Exécutez la commande backupios avec l’option -cd. Indiquez le chemin d’accès à l’unité. Par exemple : backupios -cd /dev/cd0 Remarque : Si Virtual I/O Server ne tient pas sur un DVD, la commandebackupios fournit des instructions de remplacement et de retrait des disques jusqu’à ce que tous les volumes aient été créés. Cette commande crée un ou plusieurs DVD amorçables qui peuvent être utilisés pour restaurer Virtual I/O Server. 4. Si vous envisagez de restaurer Virtual I/O Server sur un autre système que celui à partir duquel il a été sauvegardé, vous devez sauvegarder les unités virtuelles définies par l’utilisateur. Pour plus d’informations, voir «Sauvegarde des unités virtuelles définies par l’utilisateur», à la page 135. Sauvegarde du serveur Virtual I/O Server sur un système de fichiers distant via un fichier nim_resources.tar Vous pouvez sauvegarder sur un système de fichiers distant différentes données Virtual I/O Server (le code de base, les groupes de correctifs appliqués, les pilotes d’unités personnalisés permettant de prendre en charge les sous-systèmes de disque et certaines métadonnées définies par l’utilisateur) en créant un fichier nim_resources.tar Avant de commencer Le fait de sauvegarder Virtual I/O Server dans un système de fichiers distant crée l’image nim_resources.tar dans le répertoire indiqué. Le fichier nim_resources.tar contient toutes les ressources nécessaires pour restaurer Virtual I/O Server, notamment l’image mksysb, le fichier bosinst.data, l’image d’amorçage du réseau et la ressource Shared Product Object Tree (SPOT). La commande backupios vide la section target_disks_stanza du fichier bosinst.data et définit RECOVER_DEVICES=Default. Cette opération permet de cloner le fichier mksysb généré par la commande sur une autre partition logique. Si vous envisagez d’utiliser l’image nim_resources.tar pour l’installer sur un disque spécifique, vous devez repeupler la section target_disk_stanza du fichier bosinst.data et remplacer ce dernier dans l’image nim_resources.tar. Toutes les autres parties de l’image nim_resources.tar doivent rester intactes. Avant de commencer, effectuez les tâches suivantes : 1. Si le système est géré par Integrated Virtualization Manager, vous devez sauvegarder vos données de profil de partition pour la partition de gestion et ses clients avant de sauvegarder Virtual I/O Server. Pour obtenir des instructions, voir Sauvegarde et restauration des données de partition. (Vous avez également la possibilité d’utiliser la commande bkprofdata.) 2. Vérifiez que le système de fichiers distant est disponible et installé. 3. Vérifiez que Virtual I/O Server possède un accès en écriture au serveur sur lequel la sauvegarde a été créée. A propos de cette tâche Pour sauvegarder Virtual I/O Server dans un système de fichiers distant, procédez comme suit : 1. Créez un répertoire de montage dans lequel l’image de sauvegarde nim_resources.tar va être écrite. Par exemple, pour créer le répertoire /home/backup, entrez : mkdir /home/backup 2. Montez un répertoire exporté sur le répertoire de montage. Par exemple : mount server1:/export/ios_backup /home/backup Virtual I/O Server 133 3. Exécutez la commande backupios avec l’option -file. Indiquez le chemin d’accès au répertoire monté. Par exemple : backupios -file /home/backup Cette commande crée un fichier nim_resources.tar qui peut être utilisé pour restaurer Virtual I/O Server de la console HMC. 4. Si vous envisagez de restaurer Virtual I/O Server sur un autre système que celui à partir duquel il a été sauvegardé, vous devez sauvegarder les unités virtuelles définies par l’utilisateur. Pour plus d’informations, voir «Sauvegarde des unités virtuelles définies par l’utilisateur», à la page 135. Sauvegarde du serveur Virtual I/O Server sur un système de fichiers distant via une image mksysb Vous pouvez sauvegarder sur un système de fichiers distant différentes données Virtual I/O Server (le code de base, les groupes de correctifs appliqués, les pilotes d’unités personnalisés permettant de prendre en charge les sous-systèmes de disque et certaines métadonnées définies par l’utilisateur) en créant un fichier mksysb Avant de commencer Le fait de sauvegarder Virtual I/O Server dans un système de fichiers distant crée l’image mksysb dans le répertoire indiqué. L’image mksysb est une image installable du groupe de volumes root dans un fichier. Avant de commencer, effectuez les tâches suivantes : 1. Si le système est géré par Integrated Virtualization Manager, vous devez sauvegarder vos données de profil de partition pour la partition de gestion et ses clients avant de sauvegarder Virtual I/O Server. Pour obtenir des instructions, voir Sauvegarde et restauration des données de partition. (Vous avez également la possibilité d’utiliser la commande bkprofdata.) 2. Si vous envisagez de restaurer Virtual I/O Server à partir d’un serveur Network Installation Management (NIM), vérifiez que ce dernier dispose de la dernière version du système AIX. 3. Vérifiez que le système de fichiers distant est disponible et installé. 4. Vérifiez que Virtual I/O Server possède un accès en écriture au serveur sur lequel la sauvegarde a été créée. A propos de cette tâche Pour sauvegarder Virtual I/O Server dans un système de fichiers distant, procédez comme suit : 1. Créez un répertoire de montage dans lequel l’image de sauvegarde mksysb va être enregistrée. Par exemple, pour créer le répertoire /home/backup, entrez : mkdir /home/backup 2. Montez un répertoire exporté sur le répertoire de montage. Par exemple : mount server1:/export/ios_backup /home/backup où server1 désigne le serveur NIM à partir duquel vous allez effectuer la restauration de Virtual I/O Server. 3. Exécutez la commande backupios avec l’option -file. Indiquez le chemin d’accès au répertoire monté. Par exemple : backupios -file /home/backup/filename.mksysb -mksysb où filename désigne le nom de l’image mksysb créée par cette commande dans le répertoire indiqué. Vous pouvez utiliser l’image mksysb pour restaurer Virtual I/O Server à partir d’un serveur NIM. 134 Virtual I/O Server 4. Si vous envisagez de restaurer Virtual I/O Server sur un autre système que celui à partir duquel il a été sauvegardé, vous devez sauvegarder les unités virtuelles définies par l’utilisateur. Pour plus d’informations, voir «Sauvegarde des unités virtuelles définies par l’utilisateur». Sauvegarde des unités virtuelles définies par l’utilisateur Outre la sauvegarde de Virtual I/O Server, vous devez également sauvegarder les unités virtuelles définies par l’utilisateur (comme les mappages d’unités virtuelles) dans l’éventualité d’un incident système ou d’un sinistre. Avant de commencer Les unités définies par l’utilisateur contiennent des métadonnées, telles que des mappages d’unités virtuelles, qui définissent la relation existant entre l’environnement physique et l’environnement virtuel. Dans les cas où vous envisagez de restaurer Virtual I/O Server sur un nouveau système ou un système différent (par exemple, en cas de panne système ou d’un sinistre), vous devez sauvegarder Virtual I/O Server ainsi que les unités virtuelles définies par l’utilisateur. Avant de commencer, effectuez les tâches suivantes : 1. Sauvegardez Virtual I/O Server sur bande, DVD ou système de fichiers distant. Pour plus d’informations, consultez l’une des procédures suivantes : v «Sauvegarde du serveur Virtual I/O Server sur bande», à la page 132 v «Sauvegarde du serveur Virtual I/O Server sur un ou plusieurs DVD», à la page 132 v «Sauvegarde du serveur Virtual I/O Server sur un système de fichiers distant via un fichier nim_resources.tar», à la page 133 v «Sauvegarde du serveur Virtual I/O Server sur un système de fichiers distant via une image mksysb», à la page 134 2. Décidez si vous souhaitez créer un script de la procédure suivante. La création de scripts pour ces commandes facilite la planification de sauvegardes automatiques des informations. A propos de cette tâche Pour sauvegarder des unités virtuelles définies par l’utilisateur, procédez comme suit : 1. Répertoriez les groupes de volumes (et les pools de stockage) afin de déterminer quelles structures de disques définies par l’utilisateur vous voulez sauvegarder à l’aide de la commande suivante : lsvg 2. Activez chaque groupe de volumes (et pool de stockage) à sauvegarder en exécutant la commande suivante pour chacun d’eux : activatevg volume_group où volume_group est le nom du groupe de volumes (ou pool de stockage) à activer. 3. Sauvegardez chaque groupe de volumes (et pool de stockage) en exécutant la commande suivante pour chacun d’eux : savevgstruct volume_group où volume_group est le nom du groupe de volumes (ou pool de stockage) à sauvegarder. Cette commande enregistre une sauvegarde de la structure d’un groupe de volumes (et par conséquent un pool de stockage) dans le répertoire /home/ios/vgbackups. 4. Enregistrez les informations sur les paramètres réseau, les cartes, les utilisateurs et les paramètres de sécurité dans le répertoire /home/padmin en associant chaque commande à la commande tee, comme suit : command | tee /home/padmin/filename Où : Virtual I/O Server 135 v command est le nom de la commande qui génère les informations que vous voulez sauvegarder. v filename est le nom du fichier dans lequel vous voulez enregistrer les informations. Tableau 35. Commandes qui fournissent les informations à sauvegarder Commande Informations fournies cfgnamesrv -ls Affiche toutes les entrées de la base de données de configuration du système relatives aux informations de serveur de noms de domaine utilisées par les routines Resolver locales. entstat -all devicename Affiche les statistiques des unités et des pilotes Ethernet de l’unité indiquée. devicename est le nom d’une unité dont vous voulez sauvegarder les attributs ou les statistiques. Exécutez cette commande pour chaque unité dont vous voulez sauvegarder les attributs ou les statistiques. hostmap -ls Affiche toutes les entrées dans la base de données de configuration du système. ioslevel Affiche le niveau de maintenance actuel de Virtual I/O Server. lsdev -dev devicename -attr Affiche les attributs de l’unité indiquée. devicename est le nom d’une unité dont vous voulez sauvegarder les attributs ou les statistiques. Exécutez cette commande pour chaque unité dont vous voulez sauvegarder les attributs ou les statistiques. lsdev -type adapter Affiche les informations relatives aux cartes physiques et logiques. lsuser Affiche une liste de tous les attributs de l’ensemble des utilisateurs système. netstat -routinfo Affiche les tables de routage, y compris les coûts configurés par l’utilisateur et en cours de chaque route. netstat -state Affiche l’état de toutes les interfaces configurées. optimizenet -list Affiche les caractéristiques de l’ensemble des paramètres d’optimisation du réseau, y compris la valeur en cours et de réamorçage, la plage, l’unité, le type et les dépendances. viosecure -firewall view Affiche la liste des ports autorisés. viosecure -view -nonint Affiche tous les paramètres de niveau de sécurité relatifs au mode non interactif. Planification des sauvegardes de Virtual I/O Server Vous pouvez planifier des sauvegardes régulières de Virtual I/O Server et des unités virtuelles définies afin de s’assurer que votre copie de sauvegarde reflète précisément la configuration actuelle. A propos de cette tâche Pour s’assurer que votre sauvegarde de Virtual I/O Server reflète le serveur Virtual I/O Server en cours d’exécution, vous devez sauvegarder Virtual I/O Server chaque fois que sa configuration est modifiée. Par exemple : v Modification de Virtual I/O Server, telle que l’installation d’un groupe de correctifs. v Ajout, suppression ou modification de la configuration des unités externes, tels que la modification de la configuration SAN. 136 Virtual I/O Server v Ajout, suppression ou modification des allocations de ressource et attributions pour Virtual I/O Server, par exemple, la mémoire, les processeurs ou les unités physiques et virtuelles. v Ajout, suppression ou modification des configurations d’unités virtuelles définies par l’utilisateur, par exemple, les mappages d’unités virtuelles. Avant de commencer, vérifiez que vous êtes connecté au Virtual I/O Server sous le nom d’utilisateur de l’administrateur principal (padmin). Pour sauvegarder Virtual I/O Server et les unités virtuelles définies par l’utilisateur, procédez comme suit : 1. Créez un script destiné à sauvegarder Virtual I/O Server, puis enregistrez-le dans un répertoire auquel peut accéder l’ID utilisateur padmin. Par exemple, créez un script nommé backup et enregistrez-le dans le répertoire /home/padmin. Assurez-vous que votre script inclut des commandes permettant de sauvegarder Virtual I/O Server ainsi que des informations de sauvegarde sur les unités virtuelles définies par l’utilisateur. 2. Créez une entrée de fichier crontab qui exécute le script backup à intervalles réguliers. Par exemple, pour exécuter le script backup chaque samedi à 2:00 a.m., entrez les commandes suivantes : a. crontab -e b. 0 2 0 0 6 /home/padmin/backup Lorsque vous aurez terminé, pensez à enregistrer le script et quittez l’application. Sauvegarde du serveur Virtual I/O Server à l’aide du gestionnaire Tivoli Storage Manager Vous pouvez utiliser le gestionnaire Tivoli Storage Manager pour sauvegarder automatiquement Virtual I/O Server à intervalles réguliers ou effectuer des sauvegardes incrémentielles. Sauvegarde du serveur Virtual I/O Server à l’aide de la fonction automatisée du gestionnaire Tivoli Storage Manager : Vous pouvez automatiser les sauvegardes de Virtual I/O Server à l’aide de la commande crontab et du planificateur Tivoli Storage Manager. A propos de cette tâche Avant de commencer, effectuez les tâches suivantes : v Vérifiez que vous avez configuré le client Tivoli Storage Manager sur le serveur Virtual I/O Server. Pour plus d’informations, voir «Configuration du client Tivoli Storage Manager», à la page 116. v Veillez à vous connecter au Virtual I/O Server sous le nom d’utilisateur de l’administrateur principal (padmin). Pour automatiser les sauvegardes de Virtual I/O Server, procédez comme suit : 1. Ecrivez un script destiné à créer une image mksysb de Virtual I/O Server et enregistrez-le dans un répertoire accessible par l’ID utilisateur padmin. Par exemple, créez un script nommé backup et enregistrez-le dans le répertoire /home/padmin. Si vous envisagez de restaurer Virtual I/O Server sur un autre système que celui à partir duquel il a été sauvegardé, veillez à inclure au script les commandes de sauvegarde des informations relatives aux unités virtuelles définies par l’utilisateur. Pour plus d’informations, consultez les procédures suivantes : v Pour plus d’informations sur la création d’une image mksysb, voir «Sauvegarde du serveur Virtual I/O Server sur un système de fichiers distant via une image mksysb», à la page 134. v Pour plus d’informations sur la sauvegarde des unités virtuelles définies par l’utilisateur, voir «Sauvegarde des unités virtuelles définies par l’utilisateur», à la page 135. 2. Créez une entrée de fichier crontab qui exécute le script backup à intervalles réguliers. Par exemple, pour créer une image mksysb chaque samedi à 2:00, entrez les commandes suivantes : Virtual I/O Server 137 a. crontab -e b. 0 2 0 0 6 /home/padmin/backup Lorsque vous aurez terminé, pensez à enregistrer le script et quittez l’application. 3. Avec l’aide de l’administrateur de Tivoli Storage Manager, associez le noeud du client Tivoli Storage Manager à un ou plusieurs plannings du domaine de règles. Cette tâche n’est pas exécutée sur le client Tivoli Storage Manager du serveur Virtual I/O Server. Elle est exécutée par l’administrateur de Tivoli Storage Manager sur le serveur du gestionnaire Tivoli Storage Manager. 4. Lancez le planificateur client et connectez-vous au planning du serveur à l’aide de la commande dsmc : dsmc -schedule 5. Pour redémarrer le planificateur client lors du redémarrage du serveur Virtual I/O Server, ajoutez l’entrée suivante au fichier /etc/inittab : itsm::once:/usr/bin/dsmc sched > /dev/null 2>&1 # planificateur TSM Sauvegarde du serveur Virtual I/O Server à l’aide de la sauvegarde incrémentielle du gestionnaire Tivoli Storage Manager : Vous pouvez sauvegarder à tout moment Virtual I/O Server en effectuant une sauvegarde incrémentielle à l’aide de Tivoli Storage Manager. A propos de cette tâche Exécutez une sauvegarde incrémentielle lorsque la sauvegarde automatique ne convient pas. Par exemple, avant de mettre à niveau Virtual I/O Server, effectuez une sauvegarde incrémentielle pour obtenir une sauvegarde de la configuration en cours. Après la mise à niveau de Virtual I/O Server, effectuez une autre sauvegarde incrémentielle pour sauvegarder la configuration de la mise à niveau. Avant de commencer, effectuez les tâches suivantes : v Vérifiez que vous avez configuré le client Tivoli Storage Manager sur le serveur Virtual I/O Server. Pour plus d’informations, voir «Configuration du client Tivoli Storage Manager», à la page 116. v Assurez-vous de disposer d’une image mksysb de Virtual I/O Server. Si vous envisagez de restaurer Virtual I/O Server sur un autre système que celui à partir duquel il a été sauvegardé, veillez à inclure à l’image mksysb les informations relatives aux unités virtuelles définies par l’utilisateur. Pour plus d’informations, consultez les procédures suivantes : – Pour plus d’informations sur la création d’une image mksysb, voir «Sauvegarde du serveur Virtual I/O Server sur un système de fichiers distant via une image mksysb», à la page 134. – Pour plus d’informations sur la sauvegarde des unités virtuelles définies par l’utilisateur, voir «Sauvegarde des unités virtuelles définies par l’utilisateur», à la page 135. Pour effectuer une sauvegarde incrémentielle de Virtual I/O Server, lancez la commande dsmc. Par exemple : dsmc -incremental SpecFichierSource où SpecFichierSource est le chemin du répertoire contenant le fichier mksysb. Par exemple, /home/padmin/mksysb_image. Restauration de Virtual I/O Server Vous pouvez restaurer Virtual I/O Server et les unités virtuelles définies par l’utilisateur à l’aide de la commande installios ou Tivoli Storage Manager. 138 Virtual I/O Server A propos de cette tâche Les informations du serveur Virtual I/O Server à restaurer sont les suivantes : Virtual I/O Server et les unités virtuelles définies par l’utilisateur. v Virtual I/O Server contient le code de base, les groupes de correctifs appliqués, les pilotes d’unités personnalisés permettant de prendre en charge les sous-systèmes de disque et certaines métadonnées définies par l’utilisateur. Toutes ces informations sont restaurées lorsque vous utilisez la commande installios. Dans les cas où vous envisagez de restaurer Virtual I/O Server sur le même système à partir duquel il a été sauvegardé, la restauration de Virtual I/O Server est généralement suffisante. v Les unités définies par l’utilisateur contiennent des métadonnées, telles que des mappages d’unités virtuelles, qui définissent la relation existant entre l’environnement physique et l’environnement virtuel. Ces données permettent de créer à nouveau les unités virtuelles. Si vous envisagez de restaurer Virtual I/O Server sur un autre système ou un nouveau système (par exemple, en cas d’une panne système ou d’un sinistre), vous devez restaurer Virtual I/O Server et créer à nouveau les unités virtuelles. D’autre part, dans ces situations, vous devez également restaurer les composants suivants de votre environnement pour restaurer intégralement la configuration de Virtual I/O Server : – Les configurations d’unités externes, comme les unités de réseau de systèmes (SAN). – Les ressources définies sur la console HMC (Hardware Management Console), telles que les allocations de mémoire et de processeur. Ceci implique de restaurer vos données de profil de partition HMC du serveur Virtual I/O Server et ses partitions client. – Les systèmes d’exploitation et les applications exécutées dans les partitions logiques client. Vous pouvez sauvegarder et restaurer Virtual I/O Server comme suit. Tableau 36. Méthodes de sauvegarde et de restauration de Virtual I/O Server Méthode de sauvegarde Support Méthode de restauration Sur bande Bande A partir d’une bande Sur DVD DVD-RAM A partir d’un DVD Sur le système de fichiers distant image nim_resources.tar A partir d’une console HMC à l’aide de la fonction Network Installation Management (NIM) sur Linux et de la commande installios Sur le système de fichiers distant image mksysb A partir d’un serveur NIM AIX 5L et d’une installation de système mksysb standard Tivoli Storage Manager image mksysb Tivoli Storage Manager Restauration de Virtual I/O Server à partir d’une bande magnétique Vous pouvez restaurer différentes données de Virtual I/O Server à partir d’une bande : le code de base, les groupes de correctifs appliqués, les pilotes d’unités personnalisés permettant de prendre en charge les sous-systèmes de disque et certaines métadonnées définies par l’utilisateur. Avant de commencer Si le système est géré par Integrated Virtualization Manager, vous devez restaurer vos données de profil de partition pour la partition de gestion et ses clients avant de restaurer Virtual I/O Server. Pour obtenir des instructions, voir Sauvegarde et restauration des données de partition. (Vous avez également la possibilité d’utiliser la commande rstprofdata.) A propos de cette tâche Pour restaurer Virtual I/O Server à partir d’une bande, procédez comme suit : Virtual I/O Server 139 1. Indiquez, à l’aide de la commande bootlist la partition logique Virtual I/O Server à amorcer à partir de la bande. Par ailleurs, vous pouvez modifier la liste des unités d’amorçage dans les menus SMS (System Management Services). 2. 3. 4. 5. Insérez la bande dans l’unité de bande. Dans le menu SMS, choisissez d’effectuer l’installation à partir de l’unité de bande. Suivez les étapes d’installation conformément aux invites du système. Si vous avez effectué une restauration de Virtual I/O Server sur un autre système que celui à partir duquel il a été sauvegardé, vous devez restaurer les unités virtuelles définies par l’utilisateur. Pour plus d’informations, voir «Restauration des unités virtuelles définies par l’utilisateur», à la page 142. Restauration de Virtual I/O Server à partir d’un ou plusieurs DVD Vous pouvez restaurer différentes données de Virtual I/O Server à partir d’un ou plusieurs DVD : le code de base, les groupes de correctifs appliqués, les pilotes d’unités personnalisés permettant de prendre en charge les sous-systèmes de disque et certaines métadonnées définies par l’utilisateur. Avant de commencer Si le système est géré par Integrated Virtualization Manager, vous devez restaurer vos données de profil de partition pour la partition de gestion et ses clients avant de restaurer Virtual I/O Server. Pour obtenir des instructions, voir Sauvegarde et restauration des données de partition. (Vous avez également la possibilité d’utiliser la commande rstprofdata.) A propos de cette tâche Pour restaurer Virtual I/O Server à partir d’un ou de plusieurs DVD, procédez comme suit: 1. Indiquez, à l’aide de la commande bootlist, la partition Virtual I/O Server à amorcer à partir du DVD. Par ailleurs, vous pouvez modifier la liste des unités d’amorçage dans les menus SMS (System Management Services). 2. Insérez le DVD dans l’unité de disque optique. 3. Dans le menu SMS, choisissez d’effectuer l’installation à partir de l’unité de disque optique. 4. Suivez les étapes d’installation conformément aux invites du système. 5. Si vous avez effectué une restauration de Virtual I/O Server sur un autre système que celui à partir duquel il a été sauvegardé, vous devez restaurer les unités virtuelles définies par l’utilisateur. Pour plus d’informations, voir «Restauration des unités virtuelles définies par l’utilisateur», à la page 142. Restauration de Virtual I/O Server à partir d’un fichier nim_resources.tar via la console HMC Vous pouvez restaurer différentes données de Virtual I/O Server (le code de base, les groupes de correctifs appliqués, les pilotes d’unités personnalisés permettant de prendre en charge les sous-systèmes de disque et certaines métadonnées définies par l’utilisateur) à partir d’une image nim_resources.tar stockée sur un système de fichiers distant. Avant de commencer Si le système est géré par Integrated Virtualization Manager, vous devez restaurer vos données de profil de partition pour la partition de gestion et ses clients avant de restaurer Virtual I/O Server. Pour obtenir des instructions, voir Sauvegarde et restauration des données de partition. (Vous avez également la possibilité d’utiliser la commande rstprofdata.) A propos de cette tâche Pour restaurer Virtual I/O Server à partir d’une image nim_resources.tar dans un système de fichiers, procédez comme suit : 140 Virtual I/O Server 1. Exécutez la commande installios à partir de la ligne de commande de la console HMC. Cette procédure vise à restaurer une image de sauvegarde, nim_resources.tar, initialement créée à l’aide de la commande backupios. 2. Suivez les étapes d’installation conformément aux invites du système. La source des images d’installation est le répertoire exporté lors de la procédure de sauvegarde. Par exemple, server1:/export/ios_backup. 3. Lorsque la restauration est terminée, ouvrez une connexion de terminal virtuel (par exemple, à l’aide de telnet) au système Virtual I/O Server que vous avez restauré. Vous devrez peut-être fournir d’autres informations. 4. Si vous restaurez Virtual I/O Server sur un autre système que celui utilisé pour la sauvegarde, vous devez restaurer les unités virtuelles définies par l’utilisateur. Pour plus d’informations, voir «Restauration des unités virtuelles définies par l’utilisateur», à la page 142. Restauration de Virtual I/O Server via un serveur NIM à partir d’un fichier mksysb Vous pouvez restaurer différentes données de Virtual I/O Server (le code de base, les groupes de correctifs appliqués, les pilotes d’unités personnalisés permettant de prendre en charge les sous-systèmes de disque et certaines métadonnées définies par l’utilisateur) à partir d’une image mksysb stockée sur un système de fichiers distant. Avant de commencer Avant de commencer, effectuez les tâches suivantes : v Vérifiez que le serveur sur lequel vous envisagez de restaurer Virtual I/O Server est défini comme étant une ressource Network Installation Management (NIM). v Vérifiez que le fichier mksysb (qui contient la sauvegarde de Virtual I/O Server) réside sur le serveur NIM. v Si le système est géré par Integrated Virtualization Manager, vous devez restaurer vos données de profil de partition pour la partition de gestion et ses clients avant de restaurer Virtual I/O Server. Pour obtenir des instructions, voir Sauvegarde et restauration des données de partition. (Vous avez également la possibilité d’utiliser la commande rstprofdata.) A propos de cette tâche Pour restaurer Virtual I/O Server à partir d’une image mksysb dans un système de fichiers, procédez comme suit : 1. Définissez le fichier mksysb comme étant une ressource NIM, en particulier un objet NIM, en exécutant la commande nim. Pour afficher la description détaillée de la commande nim, voir Commande nim. Exemple : nim -o define -t mksysb -a server=servername -alocation=/export/ios_backup/ filename.mksysb objectname Où : v servername désigne le nom du serveur comportant la ressource NIM. v filename désigne le nom du fichier mksysb. v objectname désigne le nom utilisé par NIM pour l’enregistrement et l’identification du fichier mksysb. 2. Définissez une ressource Shared Product Object Tree (SPOT) pour le fichier mksysb à l’aide de la commande nim. Exemple : nim -o define -t spot -a server=servername -a location=/export/ios_backup/ SPOT -a source=objectname SPOTname Où : v servername désigne le nom du serveur comportant la ressource NIM. Virtual I/O Server 141 v objectname désigne le nom utilisé par NIM pour l’enregistrement et l’identification du fichier mksysb. v SPOTname est le nom d’objet NIM pour l’image mksysb créée à l’étape précédente. 3. Installez Virtual I/O Server à partir du fichier mksysb à l’aide de la commande smit. Exemple : smit nim_bosinst Vérifiez que les zones de saisie suivantes contiennent les spécifications ci-après. Tableau 37. Spécifications relatives à la commande SMIT Zone Spécification TYPE d’installation mksysb SPOT SPOTname à l’étape 3 MKSYSB objectname à l’étape 2 Remain NIM client after install? no 4. Démarrez la partition logique Virtual I/O Server. Pour plus d’informations, reportez-vous à l’étape 3, Boot the Virtual I/O Server, du document Installing the Virtual I/O Server using NIM. 5. Si vous restaurez Virtual I/O Server sur un autre système que celui utilisé pour la sauvegarde, vous devez restaurer les unités virtuelles définies par l’utilisateur. Pour plus d’informations, voir «Restauration des unités virtuelles définies par l’utilisateur». Information associée Using the NIM define operation Defining a SPOT resource Installing a client using NIM Restauration des unités virtuelles définies par l’utilisateur Outre la restauration de Virtual I/O Server, vous pouvez être amené à restaurer les unités virtuelles définies par l’utilisateur (comme les mappages d’unités virtuelles), par exemple, dans l’éventualité d’un incident système, d’une migration ou d’un sinistre du système. Avant de commencer Les unités définies par l’utilisateur contiennent des métadonnées, telles que des mappages d’unités virtuelles, qui définissent la relation existant entre l’environnement physique et l’environnement virtuel. Dans les cas où vous envisagez de restaurer Virtual I/O Server sur un nouveau système ou un système différent (par exemple, en cas de panne système ou de sinistre), vous devez sauvegarder Virtual I/O Server ainsi que les unités virtuelles définies par l’utilisateur. En premier lieu, restaurez Virtual I/O Server sur bande, DVD ou système de fichiers distant. Pour plus d’informations, consultez l’une des procédures suivantes : v «Restauration de Virtual I/O Server à partir d’une bande magnétique», à la page 139 v «Restauration de Virtual I/O Server à partir d’un ou plusieurs DVD», à la page 140 v «Restauration de Virtual I/O Server à partir d’un fichier nim_resources.tar via la console HMC», à la page 140 v «Restauration de Virtual I/O Server via un serveur NIM à partir d’un fichier mksysb», à la page 141 A propos de cette tâche Pour restaurer des unités virtuelles définies par l’utilisateur, procédez comme suit : 142 Virtual I/O Server 1. Répertoriez tous les groupes de volumes sauvegardés (ou pools de stockage) à l’aide de la commande suivante : restorevgstruct -ls Cette commande répertorie les fichiers contenus dans le répertoire /home/ios/vgbackups. 2. Exécutez la commande lspv afin de déterminer les disques vides. 3. Restaurez les groupes de volumes (ou les pools de stockage) pour vider les disques, en exécutant la commande suivante pour chaque groupe de volumes (ou pool de stockage) : restorevgstruct -vg volumegroup hdiskx Où : v volumegroup désigne le nom d’un groupe de volumes (ou pool de stockage) de l’étape 1. v hdiskx désigne le nom d’un disque vide de l’étape 2. 4. Recréez les mappages existant entre les unités virtuelles et les unités physiques (y compris les mappages d’unités de stockage, les mappages de carte Ethernet partagées et de carte Ethernet, ainsi que les paramètres LAN virtuels) à l’aide de la commande mkvdev. Des informations sur le mappage sont disponibles dans le fichier que vous avez indiqué dans la commande tee à partir de la procédure de sauvegarde. Par exemple, /home/padmin/filename. Restauration de Virtual I/O Server avec Tivoli Storage Manager Vous pouvez utiliser Tivoli Storage Manager pour restaurer l’image mksysb de Virtual I/O Server. A propos de cette tâche Vous pouvez restaurer Virtual I/O Server sur le système à partir duquel il a été sauvegardé, ou sur un autre système (par exemple, en cas de défaillance ou de sinistre sur le système). La procédure ci-dessous permet de restaurer Virtual I/O Server sur le système à partir duquel il a été sauvegardé. Commencez par restaurer l’image mksysb sur le serveur Virtual I/O Server en exécutant la commande dsmc sur le client Tivoli Storage Manager. Mais Virtual I/O Server n’est pas restauré lors de la restauration de l’image mksys. Vous devez ensuite transférer l’image mksysb sur un autre système et la convertir dans un format installable. Pour restaurer Virtual I/O Server sur un autre système, suivez l’une des procédures ci-dessous : v «Restauration de Virtual I/O Server à partir d’une bande magnétique», à la page 139 v «Restauration de Virtual I/O Server à partir d’un ou plusieurs DVD», à la page 140 v «Restauration de Virtual I/O Server à partir d’un fichier nim_resources.tar via la console HMC», à la page 140 v «Restauration de Virtual I/O Server via un serveur NIM à partir d’un fichier mksysb», à la page 141 Avant de commencer, effectuez les tâches suivantes : 1. Vérifiez que le système sur lequel vous souhaitez transférer l’image mksysb exécute AIX. 2. Vérifiez que le système qui exécute AIX comporte une unité DVD-RW ou CD-RW. 3. Vérifiez que les RPM cdrecord et mkisofs ont été téléchargés et installés sur AIX. Pour télécharger et installer les RPM, consultez le site Web AIX Toolbox for Linux Applications. Restriction : Le mode interactif n’est pas pris en charge sur le serveur Virtual I/O Server. Pour visualiser les informations relatives aux sessions, entrez la commande dsmc sur la ligne de commande de Virtual I/O Server. Pour restaurer leVirtual I/O Server avec Tivoli Storage Manager, procédez comme suit : 1. Identifiez le fichier à restaurer en exécutant la commande dsmc. Celle-ci permet d’afficher les fichiers qui ont été sauvegardés sur le serveur Tivoli Storage Manager : Virtual I/O Server 143 dsmc -query 2. Restaurez l’image mksysb à l’aide de la commande dsmc. Exemple : dsmc -restore SpecFichierSource où SpecFichierSource est le chemin du répertoire dans lequel vous souhaitez restaurer l’image mksysb image. Par exemple, /home/padmin/mksysb_image 3. Transférez l’image mksysb sur un serveur muni d’une unité DVD-RW ou CD-RW en exécutant les commandes FTP suivantes : a. Assurez-vous que le serveur FTP est démarré sur le serveur Virtual I/O Server en exécutant la commande suivante : startnetsvc ftp b. Assurez-vous que le serveur FTP est démarré sur le serveur Virtual I/O Server en exécutant la commande suivante : startnetsvc ftp c. Ouvrez une session FTP sur le serveur muni d’une unité DVD-RW ou CD-RW : ftp nom_hôte_serveur, où nom_hôte_serveur est le nom d’hôte du serveur muni d’une unité DVD-RW ou CD-RW. d. A l’invite FTP, changez le répertoire d’installation pour sélectionner le répertoire dans lequel vous souhaitez enregistrer l’image mksysb. e. Paramétrez le mode de transfert sur binaire : binary f. Désactivez l’invite en mode interactif (si actif) : prompt g. Transférez l’image mksysb sur le serveur : mput mksysb_image h. Après le transfert de l’image mksysb, fermez la session FTP en entrant quit. 4. Enregistrez l’image mksysb sur un CD ou un DVD à l’aide de la commande mkcd ou mkdvd. 5. Réinstallez Virtual I/O Server à partir du CD ou du DVD que vous venez de créer. Pour plus d’informations, voir «Restauration de Virtual I/O Server à partir d’un ou plusieurs DVD», à la page 140. Référence associée Commande mkcd Commande mkdvd Installation ou remplacement d’une carte PCI sur le serveur Virtual I/O Server lorsque le système est sous tension Vous pouvez installer ou remplacer une carte PCI sur la partition logique Virtual I/O Server ou sur la partition de gestion Integrated Virtualization Manager. Avant de commencer Virtual I/O Server comporte un gestionnaire d’unités PCI remplaçables à chaud similaire à celui du système d’exploitation AIX. Le gestionnaire d’unités PCI remplaçables à chaud permet de remplacer à chaud des cartes PCI sur le serveur, puis de les activer sur la partition logique sans réamorcer le système. Le gestionnaire d’unités PCI remplaçables à chaud permet d’ajouter, d’identifier et de remplacer les cartes PCI attribuées au serveur Virtual I/O Server. Guide d’initiation Avant de commencer Prérequis : v Pour installer une nouvelle carte, vous devez attribuer un emplacement vide du système à la partition logique Virtual I/O Server. Vous pouvez effectuer cette tâche via le partitionnement logique dynamique (DLPAR). 144 Virtual I/O Server – Si vous utilisez une console HMC (Hardware Management Console), vous devez également mettre à jour le profil de partition logique Virtual I/O Server pour que la nouvelle carte soit configurée sur ce serveur après le redémarrage du système. – Si vous utilisez le gestionnaire Integrated Virtualization Manager, un emplacement vide est probablement déjà affecté à la partition logique Virtual I/O Server, car, par défaut, tous les emplacements sont affectés à ce serveur. Il suffit d’affecter un emplacement vide à la partition logique Virtual I/O Server si vous avez déjà affecté tous les emplacements vides à d’autres partitions logiques. v Lorsque vous installez une nouvelle carte, veillez à installer les logiciels nécessaires à la prise en charge de cette carte et les éventuelles modifications provisoires du logiciel (PTF) disponibles. v Si vous avez besoin d’aide pour déterminer l’emplacement de la carte PCI, voir Placement des cartes PCI ou Placement des cartes PCI pour le type machine 94xx. A propos de cette tâche Pour accéder au gestionnaire d’unités PCI remplaçables à chaud du serveur Virtual I/O Server, procédez comme suit : 1. Si vous utilisez le gestionnaire Integrated Virtualization Manager, connectez-vous à l’interface de ligne de commande. 2. Utilisez la commande diagmenu pour ouvrir le menu de diagnostic de Virtual I/O Server. Les menus sont similaires aux menus de diagnostic de AIX. 3. Sélectionnez Sélection des tâches, et appuyez sur Entrée. 4. Dans la liste Sélection des tâches, sélectionnez Gestionnaire d’unités PCI remplaçables à chaud. Installation d’une carte PCI A propos de cette tâche Pour installer une carte PCI lorsque le serveur Virtual I/O Server est sous tension, procédez comme suit : 1. Dans le gestionnaire d’unités PCI remplaçables à chaud, sélectionnez Ajouter une carte PCI remplaçable à chaud et appuyez sur Entrée. La fenêtre d’ajout de carte PCI remplaçable à chaud s’affiche. 2. Sélectionnez l’emplacement PCI vide approprié dans la liste et appuyez sur Entrée. Lorsque l’emplacement est identifié, il est signalé par un voyant orange qui clignote rapidement à l’arrière du serveur. 3. Suivez les instructions indiquées à l’écran pour installer la carte, ensuite le voyant de l’emplacement PCI choisi doit passer à l’état d’action. L’installation de la carte, similaire à la procédure effectuée sur une partition logique autonome AIX, comporte les étapes suivantes : a. Voyant de la carte à l’état d’action : clignotement du voyant de l’emplacement de la carte b. Installation physique de la carte c. Fin de la tâche d’installation de la carte avec diagmenu. 4. Lancez la commande cfgdev pour configurer l’unité du serveur Virtual I/O Server. Résultats Si vous installez une carte PCI Fibre Channel, elle est alors prête à être reliée à un réseau de systèmes (SAN) et des LUN sont attribués au serveur Virtual I/O Server pour la virtualisation. Remplacement d’une carte PCI Avant de commencer Prérequis : Avant de retirer ou de remplacer une carte de mémoire, vous devez annuler sa configuration. Pour plus d’informations, voir «Annulation de la configuration d’une carte de mémoire», à la page 146. Virtual I/O Server 145 A propos de cette tâche Pour remplacer une carte PCI lorsque le serveur Virtual I/O Server est sous tension, procédez comme suit : 1. Dans le gestionnaire d’unités PCI remplaçables à chaud, sélectionnez Déconfiguration d’une unité et appuyez sur Entrée. 2. Appuyez sur F4 (ou Echap+4) pour afficher le menu Noms d’unités. 3. Sélectionnez la carte à retirer dans le menu Noms d’unités. 4. Dans la zone Conservation de la définition, répondez Oui à l’aide de la touche de tabulation. Dans la zone Déconfiguration des unités filles, répondez OUI à l’aide de la touche de tabulation. 5. Appuyez sur Entrée pour vérifier les informations sur l’écran de confirmation de l’opération. Si l’annulation de la configuration est correctement effectuée, le message OK s’affiche à côté de la zone Commande en haut de l’écran. 6. Appuyez deux fois sur F4 (ou Echap+4) pour revenir au Gestionnaire d’unités remplaçables à chaud. 7. Sélectionnez Remplacement/Retrait d’une carte PCI remplaçable à chaud. 8. Sélectionnez l’emplacement duquel vous souhaitez retirer l’unité. 9. Sélectionnez remplacer. Lorsque l’emplacement est identifié, il est signalé par un voyant orange qui clignote rapidement à l’arrière de la machine. 10. Appuyez sur Entrée. La carte passe alors à l’état d’action, c’est-à-dire qu’elle peut être retirée du système. Annulation de la configuration d’une carte de mémoire A propos de cette tâche Avant de retirer ou de remplacer une carte de mémoire, vous devez annuler sa configuration. Les cartes de mémoire sont en général des unités mères d’unités de stockage, telles que les unités de disque ou les unités de bande. Pour retirer l’unité mère, il est nécessaire de retirer ou de placer à l’état Défini toutes les unités filles connectées. L’annulation de la configuration d’une carte de mémoire comporte les tâches suivantes : v Fermer toutes les applications qui utilisent la carte à retirer, à remplacer ou à déplacer v Démonter les systèmes de fichiers v Vérifier que toutes les unités reliées à la carte ont été identifiées et arrêtées v Répertorier tous les emplacements en cours d’utilisation ou l’emplacement occupé par une carte particulière v Identifier l’emplacement de la carte v Rendre les unités mère et fille indisponibles v Rendre la carte indisponible Si l’adaptateur prend en charge les volumes physiques utilisés par une partition logique client, vous pouvez effectuer des opérations sur la partition logique client avant d’annuler la configuration de la carte de mémoire. Pour plus d’informations, voir «Préparation des partitions logiques client», à la page 147. La carte peut être en cours d’utilisation lorsque, par exemple, le volume physique a été utilisé pour créer une unité cible virtuelle ou fait partie d’un groupe de volumes utilisé pour créer une unité cible virtuelle. Pour annuler la configuration d’une carte de mémoire SCSI, SSA, et Fibre Channel, procédez comme suit : 1. Connectez-vous à l’interface de ligne de commande Virtual I/O Server. 2. Exécutez la commande oem_setup_env pour fermer toutes les applications qui utilisent la carte pour laquelle vous souhaitez annuler la configuration. 146 Virtual I/O Server 3. Entrez lsslot-c pci pour répertorier tous les emplacements remplaçables à chaud de l’unité centrale et afficher leurs caractéristiques. 4. Entrez lsdev -C pour afficher l’état des unités de l’unité centrale. 5. Entrez unmount pour démonter les fichiers systèmes, les répertoires ou les fichiers montés qui utilisent cette carte. 6. Entrez rmdev -l adapter -R pour rendre la carte indisponible. Avertissement : N’utilisez pas l’option -d avec la commande rmdev pour effectuer des opérations sur les unités remplaçables à chaud, car cette action supprime la configuration. Préparation des partitions logiques client A propos de cette tâche Si les unités cibles virtuelles des partitions logiques client ne sont pas disponibles, cela peut faire échouer ces partitions logiques ou leurs opérations d’E-S pour une application particulière. Si vous utilisez la console HMC pour gérer le système, des partitions logiques Virtual I/O Server peuvent être redondantes, ce qui permet la maintenance de ce serveur et évite toute immobilisation des partitions logiques client. Lorsque vous remplacez un adaptateur sur le serveur Virtual I/O Server si votre partition logique client dépend d’un ou plusieurs volumes physiques liés à cet adaptateur, vous pouvez effectuer des opérations sur le client avant d’annuler la configuration de l’adaptateur. Les unités cibles virtuelles doivent se trouver à l’état Défini avant le remplacement de la carte du serveur Virtual I/O Server. Ne retirez pas les unités virtuelles de façon définitive. Pour préparer des partitions logiques client en vue de l’annulation de la configuration d’une carte, effectuez les opérations ci-après en fonction de votre contexte. Tableau 38. Procédures de préparation de partitions logiques client en fonction du contexte Contexte Etapes Vous disposez de matériel redondant pour la carte sur le serveur Virtual I/O Server. Aucune opération n’est requise sur la partition logique client. Systèmes gérés par la console HMC uniquement : Vous disposez de partitions logiques redondantes Virtual I/O Server qui, associées à des cartes client virtuelles, offrent plusieurs chemins d’accès au volume physique de la partition logique client. Aucune opération n’est requise sur la partition logique client. Cependant, des erreurs de chemin d’accès peuvent y être consignées. Systèmes gérés par la console HMC uniquement : Vous disposez de partitions logiques redondantes Virtual I/O Server qui, associées à des cartes client virtuelles, offrent plusieurs volumes physiques qui permettent de mettre en miroir un groupe de volumes. Consultez les procédures relatives au système d’exploitation du client. Vous n’avez pas de partitions logiques redondantes Virtual I/O Server. Arrêtez la partition logique client. Pour plus d’informations, voir les rubriques suivantes relatives à l’arrêt des partitions logiques : v Pour les systèmes gérés par la console HMC, voir «Arrêt de partitions logiques AIX à l’aide de la console HMC» et «Arrêt de partitions logiques Linux à l’aide de la console HMC» dans Partitionnement logique.1 v Pour les systèmes gérés par le gestionnaire Integrated Virtualization Manager, voir «Arrêt des partitions logiques», à la page 148. 1 Le Partitionnement logique figure sur Site Web Hardware Information Center à l’adresse ajouter l’URL ici Virtual I/O Server . 147 Arrêt des partitions logiques Vous pouvez utiliser le gestionnaire Integrated Virtualization Manager pour arrêter les partitions logiques ou l’ensemble du système géré. Avant de commencer Utilisez tout autre rôle autre que View Only pour exécuter cette tâche. A propos de cette tâche Integrated Virtualization Manager fournit les types suivants d’option d’arrêt pour les partitions logiques : v Système d’exploitation (recommandé) v Différé v Immédiat La méthode d’arrêt recommandée consiste à utiliser la commande d’arrêt des systèmes d’exploitation client. N’utilisez la méthode d’arrêt immédiat qu’en dernier recours car l’utilisation de cette méthode entraîne un arrêt anormal pouvant aboutir à la perte des données. Si vous choisissez la méthode d’arrêt différé, prenez en compte les remarques suivantes : v Arrêter une partition logique revient à appuyer de façon prolongée sur le bouton blanc de mise sous tension du panneau de commande d’un serveur non partitionné. v N’utilisez cette procédure que si vous ne parvenez pas à arrêter les partitions logiques à l’aide des commandes du système d’exploitation. Lorsque vous utilisez cette procédure pour arrêter les partitions logiques sélectionnées, l’arrêt n’est effectif qu’au terme d’un délai prédéterminé. Cela laisse aux partitions logiques le temps de terminer les travaux entrepris et d’enregistrer les données sur les disques. Si la partition logique ne parvient pas à s’arrêter dans le délai imparti, elle s’arrête de manière anormale et le prochain redémarrage peut prendre un certain temps. Si vous envisagez d’arrêter l’intégralité du système géré, arrêtez chaque partition logique client, puis arrêtez la partition de gestion Virtual I/O Server. Pour arrêter une partition logique, procédez comme suit dans le gestionnaire Integrated Virtualization Manager : 1. Dans la zone de navigation, sélectionnez View/Modify Partitions sous Partition Management. La page permettant d’afficher et de modifier les partitions s’affiche. 2. Sélectionnez la partition logique à arrêter. 3. Dans le menu Tasks, cliquez sur Shutdown. La page Shutdown Partitions s’affiche. 4. Sélectionnez le type d’arrêt. 5. Facultatif : Sélectionnez l’option de redémarrage après l’arrêt si vous souhaitez que la partition logique démarre immédiatement après son arrêt. 6. Cliquez sur OK pour arrêter la partition. La page View/Modify Partitions s’affiche et l’état de la partition logique indique l’arrêt. Affichage des informations et des statistiques sur le serveur Virtual I/O Server, sur le serveur et sur les ressources virtuelles Vous pouvez afficher des informations et des statistiques sur le serveur Virtual I/O Server, sur le serveur et sur les ressources virtuelles, pour pouvoir mieux gérer et contrôler le système, et résoudre les incidents. 148 Virtual I/O Server A propos de cette tâche Le tableau suivant récapitule les informations et statistiques disponibles sur le serveur Virtual I/O Server, ainsi que les commandes que vous devez exécuter pour les afficher. Tableau 39. Informations et commandes associées pour Virtual I/O Server Informations à afficher Commande Statistiques relatives aux unités d’exécution du noyau, à la mémoire virtuelle, aux disques, aux interruptions et à l’activité du processeur. vmstat Statistiques relatives à un pilote de périphérique Fibre Channel. fcstat Résumé de l’utilisation de la mémoire virtuelle. svmon Informations relatives au Virtual I/O Server et au uname serveur, comme le modèle de serveur, l’ID machine, l’ID et le nom de la partition Virtual I/O Server, et le numéro du réseau local. Statistiques génériques et spécifiques pour un pilote ou périphérique Ethernet, notamment les informations suivantes pour une carte Ethernet partagée : enstat v Statistiques relatives à une carte Ethernet partagée : – Nombre de cartes réelles et virtuelles (si vous utilisez la fonction de reprise par transfert de carte Ethernet partagée, ce nombre n’inclut pas la carte du canal de contrôle) – Options relatives à une carte Ethernet partagée – ID VLAN – Informations sur les cartes réelles et virtuelles v Statistiques sur la reprise par transfert de carte Ethernet partagée : – Statistiques sur la haute disponibilité – Types de paquet – Etat de la carte Ethernet partagée – Mode de pontage v Statistiques sur le protocole GVRP (GARP VLAN Registration Protocol) : – Statistiques sur les unités BPDU (Bridge Protocol Data Unit) – Statistiques sur le protocole GARP (Generic Attribute Registration Protocol) – Statistiques sur le protocole GVRP (GARP VLAN Registration Protocol) v Liste des statistiques de chaque carte associée à la carte Ethernet partagée Les commandes vmstat, fcstat, svmon, et uname sont disponibles avecVirtual I/O Server version 1.5 ou ultérieure. Surveillance de Virtual I/O Server Vous pouvez surveiller Virtual I/O Server à l’aide des journaux des erreurs ou de l’agent Tivoli Monitoring. Virtual I/O Server 149 Journaux d’erreurs Les partitions logiques client AIX et Linux consignent les erreurs d’E-S. Normalement, les erreurs matérielles survenant sur les partitions logiques client associées à des unités virtuelles correspondent à des erreurs consignées sur le serveur. Toutefois, si l’incident se produit au sein de la partition logique client, aucune erreur n’est signalée sur le serveur. En outre, sur les partitions logiques client Linux, si l’algorithme correspondant aux relances après des erreurs temporaires SCSI est différent de celui utilisé par AIX, les erreurs risquent de ne pas être enregistrées sur le serveur. Tivoli Monitoring Avec Virtual I/O Server V1.3.0.1 (groupe de correctifs 8.1), vous pouvez installer et configurer l’agent Tivoli Monitoring System Edition sur le serveur Virtual I/O Server. Tivoli Monitoring System Edition permet de surveiller la santé et la disponibilité de plusieurs serveurs (y compris Virtual I/O Server) à partir du portail Tivoli Enterprise. Tivoli Monitoring System Edition regroupe les données de Virtual I/O Server, notamment les données relatives aux volumes physiques, aux volumes logiques, aux pools de stockage, aux mappages de mémoire, aux mappages de réseau, à la mémoire réelle, aux ressources de processeur, à la taille des systèmes de fichiers montés, etc. Le portail Tivoli Enterprise permet de visualiser une représentation graphique des données, d’utiliser des seuils prédéfinis afin de recevoir des alertes sur les mesures clés et de résoudre les problèmes d’après les recommandations fournies par la fonction Expert Advice de Tivoli Monitoring. Sécurité sur le serveur Virtual I/O Server Familiarisez-vous avec les dispositifs de sécurité de Virtual I/O Server. A partir de la version 1.3 de Virtual I/O Server, vous pouvez définir des options de sécurité qui offrent des contrôles de sécurité renforcés dans l’environnement Virtual I/O Server. Ces options permettent de sélectionner un niveau de renforcement de la sécurité du système et d’indiquer les paramètres admis dans ce niveau. Le dispositif de sécurité de Virtual I/O Server permet également de contrôler le trafic réseau en activant le pare-feu de Virtual I/O Server. Vous pouvez configurer ces options à l’aide de la commande viosecure. Pour vous aider à configurer la sécurité système lors de l’installation initiale de Virtual I/O Server, vous pouvez profiter du menu d’assistance de configuration duVirtual I/O Server. Pour accéder au menu d’assistance de la configuration, exécutez la commande cfgassist. A l’aide de la commande viosecure, vous pouvez définir, modifier et afficher les paramètres de sécurité en cours. Par défaut, aucun niveau de sécurité Virtual I/O Server n’est défini. Vous devez exécuter la commande viosecure pour changer les paramètres. Les sections suivantes décrivent ces dispositifs. Renforcement de la sécurité du système de Virtual I/O Server Le dispositif de renforcement de la sécurité du système protège tous ses éléments en durcissant les règles de sécurité ou en implémentant un niveau de sécurité plus élevé. Bien que des centaines de configurations de la sécurité soient possibles avec les paramètres de sécurité de Virtual I/O Server, vous pouvez facilement mettre en place des contrôles de sécurité en indiquant un niveau de sécurité haut, moyen ou faible. A l’aide des dispositifs de renforcement de la sécurité du système fournis par Virtual I/O Server, vous pouvez entrer des valeurs comme suit : v Règles sur les mots de passe v Actions usrck, pwdck, grpck et sysck v Paramètres de création de fichier par défaut v Paramètres inclus dans la commande crontab 150 Virtual I/O Server La configuration d’un système à un niveau de sécurité trop élevé risque de provoquer le rejet d’un service utile. Par exemple, telnet et rlogin sont désactivés pour le niveau de sécurité élevé car le mot de passe de connexion transmis n’est pas chiffré sur le réseau. Si un système est configuré à un niveau de sécurité trop faible, le système peut être vulnérable aux menaces contre la sécurité. Etant donné que chaque entreprise possède ses propres exigences relatives à la sécurité, les paramètres de sécurité Elevé, Moyen et Faible prédéfinis sont mieux adaptés comme point de départ d’une configuration de la sécurité qu’une réponse précise aux besoins d’une entreprise en particulier en matière de sécurité. Lorsque vous serez familiarisé avec les paramètres de sécurité, vous pourrez effectuer des ajustements en choisissant les règles de renforcement qu’il convient d’appliquer. Vous pouvez obtenir des informations sur les règles de renforcement en exécutant la commande man. Pare-feu du serveur Virtual I/O Server A l’aide du pare-feu de Virtual I/O Server, vous pouvez instaurer des limites sur l’activité IP dans votre environnement virtuel. Cette fonction vous permet d’indiquer quels ports et services réseau sont autorisés à accéder au système du serveur Virtual I/O Server. Par exemple, si vous devez restreindre l’activité de connexion depuis un port non autorisé, vous pouvez indiquer le nom ou le numéro du port et indiquer l’option deny pour le retirer de la liste des éléments autorisés. Vous pouvez également restreindre une adresse IP. Connexion au serveur Virtual I/O Server à l’aide d’OpenSSH Vous pouvez établir des connexions distantes au Virtual I/O Server à l’aide de connexions sécurisées. A propos de cette tâche Vous pouvez utiliser les logiciels Open Source Secure Sockets Layer (OpenSSL) et Portable Secure Shell (OpenSSH) pour vous connecter au Virtual I/O Server à l’aide de connexions sécurisées. Pour plus d’informations sur OpenSSL et OpenSSH, consultez les sites Web OpenSSL Project et Portable SSH. Pour se connecter au Virtual I/O Server à l’aide d’OpenSSH, procédez comme suit : 1. Si vous utilisez une version de Virtual I/O Server antérieure à la version 1.3.0, installez OpenSSH avant de vous connecter. Pour plus d’informations, voir «Téléchargement, installation et mise à jour d’OpenSSH et OpenSSL», à la page 152. 2. Connectez-vous au serveur Virtual I/O Server. Si vous utilisez la version 1.3.0 ou une version ultérieure, connectez-vous à l’aide d’une commande shell interactive ou non interactive. Si vous utilisez une version antérieure à 1.3.0, connectez-vous uniquement à l’aide d’une commande shell interactive. v Pour vous connecter à l’aide d’une commande shell interactive, entrez la commande suivante sur la ligne de commande d’un système distant : ssh username@vioshostname où username désigne votre nom d’utilisateur pour Virtual I/O Server et vioshostname le nom du serveur Virtual I/O Server. v Pour vous connecter au moyen d’une commande shell non interactive, exécutez la commande suivante : ssh username@vioshostname command Où : – username désigne votre nom d’utilisateur Virtual I/O Server. – vioshostname désigne le nom du serveur Virtual I/O Server. – command est la commande que vous souhaitez exécuter. Par exemple, ioscli lsmap -all. Virtual I/O Server 151 Remarque : Si vous utilisez une commande shell non interactive, pensez à utiliser la commande complète (avec le préfixe ioscli) pour tous les commandes fr Virtual I/O Server. 3. Authentifiez-vous auprès de SSH. Si vous utilisez la version 1.3.0 ou une version ultérieure, authentifiez-vous à l’aide de mots de passe ou de clés. Si vous utilisez une version antérieure à 1.3.0, authentifiez-vous uniquement à l’aide de mots de passe. v Pour ce faire, entrez votre nom d’utilisateur et mot de passe lorsque le client SSH vous y invite. v Pour vous authentifier à l’aide de clés, procédez comme suit dans le système d’exploitation du client SSH : a. Créez un répertoire appelé $HOME/.ssh destiné à contenir les clés. Vous pouvez utiliser des clés RSA ou DSA. b. Exécutez la commande ssh-keygen pour générer des clés publiques et privées. Par exemple : ssh-keygen -t rsa Les fichiers ci-dessous sont créés dans le répertoire $HOME/.ssh : – Clé privée : id_rsa – Clé publique : id_rsa.pub c. Exécutez la commande suivante pour ajouter la clé publique au fichier authorized_keys2 sur le serveur Virtual I/O Server : cat $HOME/.ssh/public_key_file | ssh username@vioshostname tee -a /home/username/.ssh/authorized_keys2 Où : – public_key_file est le fichier de clé publique généré à l’étape précédente. Par exemple, id_rsa.pub. – username désigne votre nom d’utilisateur du serveur Virtual I/O Server. – vioshostname désigne le nom du serveur Virtual I/O Server. Que faire ensuite Virtual I/O Server peut ne pas inclure la version la plus récente d’OpenSSH ou OpenSSL avec chaque édition. Il est également possible que des mises à jour d’OpenSSH ou OpenSSL soient diffusées entre les éditions Virtual I/O Server. Dans ces situations, vous pouvez mettre à jour OpenSSH et OpenSSL sur le serveur Virtual I/O Server en téléchargeant et installant OpenSSH et OpenSSL. Pour plus d’informations, voir «Téléchargement, installation et mise à jour d’OpenSSH et OpenSSL». Téléchargement, installation et mise à jour d’OpenSSH et OpenSSL Si vous utilisez un Virtual I/O Server dont la version est antérieure à 1.3, vous devez télécharger et installer les logiciels OpenSSH et OpenSSL pour être en mesure de vous connecter au Virtual I/O Server à l’aide de l’outil OpenSSH. Vous pouvez également appliquer cette procédure pour mettre à jour OpenSSH et OpenSSL sur le serveur Virtual I/O Server. A propos de cette tâche Une mise à jour d’OpenSSH et OpenSSL peut être nécessaire sur votre Virtual I/O Server si le serveur Virtual I/O Server n’intégrait pas la version la plus récente, ou en cas de publication de nouvelles mises à jour entre les diffusions de Virtual I/O Server. Dans ces situations, vous pouvez mettre à jour OpenSSH et OpenSSL sur le serveur Virtual I/O Server, en téléchargeant et installant OpenSSH et OpenSSL, comme suit. Pour plus d’informations sur OpenSSL et OpenSSH, accédez aux sites Web OpenSSL Project et Portable SSH. Téléchargement des logiciels Open Source : 152 Virtual I/O Server A propos de cette tâche Le logiciel OpenSSL contient la bibliothèque chiffrée nécessaire pour utiliser le logiciel OpenSSH. Pour télécharger le logiciel, procédez comme suit : 1. Téléchargez le module RPM OpenSSL sur votre poste de travail ou votre ordinateur hôte. a. Pour obtenir le module RPM, connectez-vous au site Web AIX Toolbox for Linux Applications et cliquez sur le lien AIX Toolbox Cryptographic Content situé à droite de la page Web. b. Si vous êtes autorisé à télécharger les modules RPM, enregistrez-vous et acceptez les termes du contrat de licence. c. Si vous n’êtes pas autorisé à télécharger les modules RPM, suivez la procédure d’enregistrement et acceptez les termes du contrat de licence. Une fois enregistré, vous êtes redirigé sur la page de téléchargement. d. Sélectionnez la version du module suivant à télécharger : openssl - Secure Sockets Layer and cryptography libraries and tools puis cliquez sur Download Now pour lancer le téléchargement. 2. Pour télécharger le logiciel OpenSSH, procédez comme suit : Remarque : Vous pouvez également installer le logiciel à partir du logiciel AIX Expansion Pack. a. A partir de votre poste de travail (ou ordinateur hôte de téléchargement), accédez au site Web SourceFORGE.net. b. Cliquez sur Download OpenSSH on AIX pour afficher les dernières versions du fichier. c. Sélectionnez le module à télécharger correspondant et cliquez sur Download. d. Cliquez sur le module openssh (fichier tar.Z) pour continuer le téléchargement. 3. Créez un répertoire sur le serveur Virtual I/O Server destiné à contenir les fichiers du logiciel Open Source. Par exemple, pour créer un répertoire d’installation appelé install_ssh, exécutez la commande suivante : mkdir install_ssh. 4. Transférez les fichiers sur le serveur Virtual I/O Server en exécutant les commandes FTP (File Transfer Protocol) sur l’ordinateur sur lequel vous avez téléchargé les fichiers : a. Assurez-vous que le serveur FTP est démarré sur le serveur Virtual I/O Server en exécutant la commande suivante : startnetsvc ftp b. Ouvrez une session FTP sur le serveur Virtual I/O Server de votre système hôte local : ftp vios_server_hostname, vios_server_hostname étant le nom d’hôte du serveur Virtual I/O Server. c. A l’invite FTP, accédez au répertoire d’installation que vous avez créé pour les fichiers Open Source : cd install_ssh, où install_ssh correspond au répertoire qui contient les fichiers Open Source. d. Paramétrez le mode de transfert sur binaire : binary e. Désactivez l’invite en mode interactif (si actif) : prompt f. Transférez le logiciel téléchargé sur le serveur Virtual I/O Server : mput ssl_software_pkg, où ssl_software_pkg correspond au logiciel que vous avez téléchargé. g. Fermez la session FTP, après avoir transféré les deux logiciels, en entrant la commande quit. Installation du logiciel Open Source sur le serveur Virtual I/O Server : A propos de cette tâche Pour installer le logiciel, procédez comme suit : 1. Exécutez la commande suivante sur la ligne de commande suivante Virtual I/O Server : updateios -dev install_ssh -accept -install, où install_ssh correspond au répertoire qui contient les fichiers Open Source. Le programme d’installation démarre automatiquement le démon Secure Shell (sshd) sur le serveur. 2. Commencez à utiliser les commandes ssh et scp ; aucune autre tâche de configuration n’est nécessaire. Virtual I/O Server 153 Restrictions : v La commande sftp n’est pas prise en charge sur les versions de Virtual I/O Server antérieures à 1.3. v Les commandes shell non interactives ne sont pas prises en charge avec OpenSSH si vous utilisez une version de Virtual I/O Server antérieure à 1.3. Configuration du renforcement de la sécurité du système de Virtual I/O Server Définissez le niveau de sécurité afin d’indiquer les règles de renforcement de la sécurité pour le système du serveur Virtual I/O Server. Avant de commencer Pour implémenter des règles de sécurité du système, vous pouvez utiliser la commande viosecure pour indiquer un niveau de sécurité élevé, moyen ou faible. Un ensemble de règles par défaut est défini pour chaque niveau. Vous pouvez également définir un niveau par défaut, qui rétablit les paramètres standard du système et supprime les paramètres de niveau appliqués. A propos de cette tâche Les paramètres de sécurité de niveau faible constituent un sous-ensemble des paramètres de sécurité de niveau moyen, qui représentent eux-mêmes un sous-ensemble des paramètres de sécurité de niveau élevé. Ainsi, le niveau élevé est le plus restrictif et offre le niveau de contrôle le plus important. Vous pouvez appliquer toutes les règles d’un niveau indiqué ou sélectionner les règles à activer pour votre environnement. Par défaut, aucun niveau de sécurité n’est défini pour Virtual I/O Server. Vous devez exécuter la commande viosecure pour modifier les paramètres. Suivez la procédure ci-après pour configurer les paramètres de sécurité du système : Définition d’un niveau de sécurité Pour définir un niveau de sécurité élevé, moyen ou faible pour le serveur Virtual I/O Server, utilisez la commande viosecure -level. Exemple : viosecure -level low -apply Modification des paramètres dans un niveau de sécurité Pour définir un niveau de sécurité dans lequel vous indiquez les règles de renforcement à appliquer pour le paramètre, exécutez la commande viosecure. Exemple : 1. Sur la ligne de commande du serveur Virtual I/O Server, entrez viosecure -level high. Toutes les options de niveau de sécurité (règles de renforcement) de ce niveau s’affichent par groupes de dix (en appuyant sur Entrée, le groupe suivant s’affiche). 2. Passez en revue les options affichées et effectuez votre sélection en entrant les numéros, séparés par une virgule, que vous voulez appliquer. Vous pouvez entrer ALL pour appliquer toutes les options ou NONE pour en appliquer aucune. 3. Appuyez sur la touche Entrée pour afficher le groupe d’options suivant et continuez votre sélection. Remarque : Pour quitter la commande sans effectuer de modifications, entrez «q». Affichage des paramètres de sécurité en cours Pour afficher le paramètre de niveau de sécurité du serveur Virtual I/O Server en cours, utilisez la commande viosecure avec l’indicateur -view. Exemple : viosecure -view 154 Virtual I/O Server Suppression des paramètres de niveau de sécurité v Pour annuler la définition des niveaux de sécurité du système et rétablir les paramètres par défaut du système, exécutez la commande suivante : viosecure -level default v Pour supprimer les paramètres de sécurité qui ont été appliqués, exécutez la commande viosecure -undo Configuration des paramètres du pare-feu du serveur Virtual I/O Server Activez le pare-feu du serveur Virtual I/O Server pour contrôler l’activité IP. Avant de commencer Le pare-feu du serveur Virtual I/O Server n’est pas activé par défaut. Pour l’activer, vous devez utiliser la commande viosecure en spécifiant l’option -firewall. Lorsque vous activez le pare-feu, le paramètre par défaut qui permet d’accéder aux services suivants est activé : v v v v v v v ftp ftp-data ssh web https rmc cimom Remarque : Les paramètres du pare-feu sont contenus dans le fichier viosecure.ctl situé dans le répertoire /home/ios/security. Si pour une raison quelconque, le fichier viosecure.ctl n’existe pas lorsque vous exécutez la commande permettant d’activer le pare-feu, vous recevez un message d’erreur. Vous pouvez utiliser l’option -force pour activer les ports par défaut du pare-feu. Vous pouvez utiliser les paramètres par défaut ou configurer les paramètres du pare-feu afin de les adapter à votre environnement en indiquant les ports ou les services de port à autoriser. Vous pouvez désactiver le pare-feu pour désactiver les paramètres. A propos de cette tâche Utilisez la procédure suivante sur la ligne de commande de Virtual I/O Server pour configurer les paramètres du pare-feu : 1. Activez le pare-feu du serveur Virtual I/O Server en exécutant la commande suivante : viosecure -firewall on 2. Indiquez les ports à autoriser ou à refuser à l’aide de la commande suivante : viosecure -firwall allow | deny -port number 3. Affichez les paramètres actuels du pare-feu à l’aide de la commande suivante : viosecure -firewall view 4. Pour désactiver la configuration du pare-feu, exécutez la commande suivante : viosecure -firewall off Configuration d’un client Kerberos sur le serveur Virtual I/O Server Vous pouvez configurer un client Kerberos sur le serveur Virtual I/O Server pour améliorer la sécurité des communications sur Internet. Virtual I/O Server 155 Avant de commencer Avant de commencer, assurez-vous que vous disposez de la version 1.5 (ou d’une version supérieure) de Virtual I/O Server. A propos de cette tâche Kerberos est un protocole d’authentification réseau qui fournit aux applications serveur et client une fonction d’authentification utilisant le chiffrement à clé confidentielle. Il traite les communications authentifiées et éventuellement chiffrées entre deux points sur Internet. L’authentification Kerberos fonctionne généralement comme suit : 1. Un client Kerberos envoie une demande de ticket au centre de distribution de clés. 2. Le centre crée un ticket d’octroi d’autorisation pour le client et le chiffre en utilisant comme clé le mot de passe du client. 3. Le centre renvoie le ticket chiffré au client. 4. Le client tente ensuite de déchiffrer le ticket à l’aide de son mot de passe. 5. S’il parvient à le déchiffrer (par exemple, s’il fournit le mot de passe correct), il conserve le ticket déchiffré. Le ticket constitue la preuve de l’identité du client. Pour configurer un client Kerberos sur le serveur Virtual I/O Server, exécutez la commande suivante : mkkrb5clnt -c KDC_server -r realm_name \ -s Kerberos_server -d Kerberos_client Où : v KDC_server est le nom du serveur KDC. v realm_name est le nom du domaine dans lequel vous voulez configurer le client Kerberos. v Kerberos_server est le nom de système hôte qualifié complet du serveur Kerberos. v Kerberos_client est le nom du domaine du client Kerberos. Exemple : mkkrb5clnt -c bob.kerberso.com -r KERBER.COM \ -s bob.kerberso.com -d testbox.com Dans cet exemple, le client Kerberos, testbox.com, est configuré vers le serveur Kerberos, bob.kerberso.com. Le centre de distribution de clés s’exécute sur bob.kerberso.com. Gestion des utilisateurs sur le serveur Virtual I/O Server Vous pouvez créer, répertorier, modifier, commuter et supprimer des utilisateurs à l’aide de Virtual I/O Server ou du gestionnaire Tivoli Identity Manager. A propos de cette tâche Si Virtual I/O Server est installé, le seul type d’utilisateur actif est l’administrateur principal (padmin). Ce dernier peut créer d’autres ID utilisateur de type administrateur système, technicien de maintenance ou ingénieur de développement. Remarque : Vous n’êtes pas autorisé à créer l’ID utilisateur d’administrateur principal (padmin). Il est créé et activé automatiquement une fois Virtual I/O Server installé. Le tableau suivant récapitule les tâches de gestion des utilisateurs disponibles sur le serveur Virtual I/O Server, ainsi que les commandes que vous devez exécuter pour effectuer chaque tâche. Tableau 40. Tâches et commandes de gestion des utilisateurs Virtual I/O Server Tâche commande Modification de mots de passe cfgassist 156 Virtual I/O Server Tableau 40. Tâches et commandes de gestion des utilisateurs Virtual I/O Server (suite) Tâche commande Création d’un ID utilisateur administrateur système Commande mkuser Création d’un ID utilisateur technicien de maintenance mkuser avec l’option -sr Création d’un ID utilisateur ingénieur de développement mkuser avec l’option -de Création d’un utilisateur LDAP mkuser avec l’option -ldap Récapitulatif des attributs d’utilisateur lsuser Par exemple, déterminer si un utilisateur est un utilisateur LDAP. Modification des attributs d’un utilisateur chuser Changement d’utilisateur su Suppression d’un utilisateur Commande rmuser Vous pouvez utiliser Tivoli Identity Manager pour automatiser la gestion des utilisateurs Virtual I/O Server. Tivoli Identity Manager fournit une carte de Virtual I/O Server qui opère en tant qu’interface entre le serveur Virtual I/O Server et le serveur Tivoli Identity Manager. La carte opère en tant qu’administrateur virtuel de confiance sur le serveur Virtual I/O Server, en exécutant des tâches semblables aux suivantes : v Création d’un ID utilisateur pour autoriser l’accès au Virtual I/O Server. v Modification d’un ID utilisateur pour accéder au Virtual I/O Server. v v v v v Suppression de l’accès d’un ID utilisateur. Cette action supprime l’ID utilisateur Virtual I/O Server. Suspension d’un compte utilisateur en désactivant temporairement l’accès au Virtual I/O Server. Restauration d’un compte utilisateur en réactivant l’accès au Virtual I/O Server. Modification du mot de passe d’un compte utilisateur sur le serveur Virtual I/O Server. Réconciliation des informations de tous les utilisateurs en cours sur le serveur Virtual I/O Server. v Réconciliation des informations d’un compte utilisateur donné sur le serveur Virtual I/O Server par le biais d’une recherche. Pour plus d’informations, voir les manuels des produits Tivoli Identity Manager. Identification et résolution des incidents liés au serveur Virtual I/O Server Cette rubrique fournit des informations sur le diagnostic et la résolution des problèmes liés au serveur Virtual I/O Server. Cette section contient des informations sur l’identification et la résolution des incidents liés au serveur Virtual I/O Server. Pour plus d’informations sur la résolution des incidents liés à Integrated Virtualization Manager, voir Identification et résolution des incidents liés au gestionnaire Integrated Virtualization Manager. Identification et résolution des incidents liés à la partition logique Virtual I/O Server Informations et procédures d’identification et de résolution des incidents liés à la partition logique Virtual I/O Server. Virtual I/O Server 157 Identification et résolution des problèmes liés à l’interface SCSI virtuelle Informations et procédures d’identification et de résolution des incidents liés à l’interface SCSI virtuelle du serveur Virtual I/O Server. A propos de cette tâche Pour identifier et résoudre les incidents, utilisez la commande diagmenu fournie par Virtual I/O Server. Si vous rencontrez encore des incidents après l’utilisation de la commande diagmenu, contactez le service de support technique pour obtenir de l’aide. disponible dans les Voir la documentation relative à l’isolement rapide des incidents à l’adresse AIX informations du fournisseur de services. Il peut arriver que les procédures décrites dans la documentation relative à l’isolement rapide des incidents sous AIX ne soient pas disponibles à partir du menu de la commande diagmenu. Résolution de l’échec de configuration d’une carte Ethernet partagée Vous pouvez résoudre les erreurs qui se produisent lorsque vous configurez une carte Ethernet partagée (par exemple les erreurs qui génèrent le message 0514-040) en utilisant les commandes lsdev, netstat et entstat. Avant de commencer Lorsque vous configurez une carte Ethernet partagée, la configuration peut échouer en générant l’erreur suivante : Method error (/usr/lib/methods/cfgsea): 0514-040 Error initializing a device into the kernel. A propos de cette tâche Pour corriger l’incident, procédez comme suit : 1. Assurez-vous que les cartes physiques et virtuelles utilisées pour créer la carte Ethernet partagée sont disponibles en exécutant la commande suivante : lsdev -type adapter 2. Vérifiez que ni l’interface de la carte physique, ni l’interface des cartes virtuelles n’est configurée. Exécutez la commande suivante : netstat -state Important : Aucune des interfaces des cartes ne doit être répertoriée dans la sortie. Si un nom d’interface (par exemple, en0) est répertorié dans la sortie, séparez-le de la façon suivante : chdev -dev interface_name -attr state=detach Vous pouvez exécuter cette étape à partir d’une connexion de console ; en effet, il est possible que la séparation de cette interface mette un terme à votre connexion réseau au Virtual I/O Server. 3. Vérifiez que les cartes virtuelles utilisées pour les données sont des cartes de ligne réseau (Trunk) en exécutant la commande suivante : entstat -all entX | grep Trunk Remarque : v La carte de ligne réseau ne s’applique pas à la carte virtuelle utilisée en tant que canal de contrôle dans une configuration de reprise par transfert de carte Ethernet partagée. v Si des cartes virtuelles utilisées pour les données ne sont pas des cartes de ligne réseau, vous devez faire en sorte qu’elles accèdent aux réseaux externes, à partir de la console HMC. 158 Virtual I/O Server 4. Vérifiez que l’unité physique et les cartes virtuelles de la carte Ethernet partagée correspondent au paramètre de déchargement de la somme de contrôle (checksum offload) : a. Pour déterminer le paramètre de déchargement de la somme de contrôle, sur l’unité physique, exécutez la commande suivante : lsdev -dev nom_unité -attr chksum_offload où nom_unité est le nom de l’unité physique. Par exemple, ent0. b. Si la valeur de chksum_offload est yes, activez le déchargement de la somme de contrôle pour toutes les cartes virtuelles de la carte Ethernet partagée en exécutant la commande suivante : chdev -dev nom_unité -attr chksum_offload=yes où nom_unité est le nom d’une carte virtuelle de la carte Ethernet partagée. Par exemple, ent2. c. Si la valeur de chksum_offload est no, désactivez le déchargement de la somme de contrôle pour toutes les cartes virtuelles de la carte Ethernet partagée en exécutant la commande suivante : chdev -dev nom_unité -attr chksum_offload=no où nom_unité est le nom d’une carte virtuelle de la carte Ethernet partagée. d. Si la commande ne génère aucune sortie, cela signifie que l’unité physique ne prend pas en charge le déchargement de la somme de contrôle et par conséquent ne comporte pas cet attribut. Pour résoudre l’erreur, désactivez le déchargement de la somme de contrôle pour toutes les cartes virtuelles de la carte Ethernet partagée en exécutant la commande suivante : chdev -dev nom_unité -attr chksum_offload=no où nom_unité est le nom d’une carte virtuelle de la carte Ethernet partagée. 5. Si la carte réelle est un port de carte Ethernet hôte, également appelé port de carte Ethernet virtuelle intégrée logique, assurez-vous que Virtual I/O Server a été configuré en tant que partition logique de mode espion pour le port physique de la carte Ethernet virtuelle intégrée logique, à partir de la console HMC. Résolution des incidents de connectivité Ethernet Vous pouvez identifier les incidents liés à la connectivité Ethernet en examinant les statistiques Ethernet générées par la commande entstat. Vous avez ensuite la possibilité de résoudre ces incidents à l’aide des commandes starttrace et stoptrace. A propos de cette tâche Pour résoudre les incidents liés à la connectivité Ethernet, procédez comme suit : 1. Vérifiez que la partition logique client source peut émettre une commande ping vers une autre partition logique client sur le même système sans passer par Virtual I/O Server. Si cette commande échoue, l’incident est probablement lié à la configuration Ethernet virtuelle de la partition logique client. Si la commande ping aboutit, passez à l’étape suivante. 2. Lancez une commande ping à partir de la partition logique source vers une machine cible de manière à ce que les paquets soient envoyés via Virtual I/O Server. Cette commande échouera probablement. Passez alors à l’étape suivante de l’exécution de test ping. 3. Sur le serveur Virtual I/O Server, entrez la commande suivante : entstat –all carte_Ethernet_partagée où carte_Ethernet_partagée est le nom de votre carte Ethernet partagée. 4. Vérifiez que l’ID VLAN de la partition logique est associé à la carte virtuelle correcte dans la section ″VLAN IDs″ de la sortie. Recherchez dans ETHERNET STATISTICS la carte virtuelle correspondant à ce réseau local virtuel (VLAN) et vérifiez que les nombres de paquets dans la colonne Receive statistics augmentent. Virtual I/O Server 159 Vous vous assurez ainsi que les paquets sont reçus par Virtual I/O Server par le biais de la carte appropriée. Si ce n’est pas le cas, l’incident est probablement lié à la configuration de la carte virtuelle. Vérifiez les informations d’ID VLAN des cartes à l’aide de la console HMC. 5. Recherchez dans ETHERNET STATISTICS la carte physique correspondant à ce réseau local virtuel (VLAN) et vérifiez que les nombres de paquets dans la colonne Transmit statistics diminuent. Vous vous assurez ainsi que les paquets sont envoyés à partir de Virtual I/O Server. v Si ce nombre augmente, cela indique que les paquets ne sortent pas de la carte physique. Passez à l’étape 6. v Si ce nombre n’augmente pas, cela indique que les paquets ne sortent pas de la carte physique. L’utilitaire de trace système doit être utilisé pour poursuivre le débogage. Suivez les instructions de l’étape 9 pour obtenir une trace système, des informations statistiques et la description de la configuration. Contactez la maintenance et l’assistance client si vous devez effectuer des opérations de débogage supplémentaires. 6. Vérifiez que la zone extérieure du système cible (sur le côté physique du serveur Virtual I/O Server) reçoit les paquets et renvoie des réponses. Si ce n’est pas le cas, une carte physique inappropriée est associée à la carte Ethernet partagée, ou le commutateur Ethernet n’est peut-être pas configuré correctement. 7. Recherchez dans ETHERNET STATISTICS la carte physique correspondant à ce réseau local virtuel (VLAN) et vérifiez que les nombres de paquets dans la colonne Receive statistics augmentent. Cette étape vérifie que les réponses ping sont reçues par le serveur Virtual I/O Server. Si ce n’est pas le cas, le commutateur peut être mal configuré. 8. Recherchez dans ETHERNET STATISTICS la carte virtuelle correspondant à ce réseau local virtuel (VLAN) et vérifiez que les nombres de paquets dans la colonne Transmit statistics augmentent. Cette étape vérifie que le paquet est transmis par le serveur Virtual I/O Server par le biais de la carte virtuelle appropriée. Si ce n’est pas le cas, démarrez l’utilitaire de trace système. Suivez les instructions de l’étape 9 pour obtenir une trace système, des informations statistiques et la description de la configuration. Contactez la maintenance et l’assistance client si vous devez effectuer des opérations de débogage supplémentaires. 9. Utilisez l’utilitaire de trace de Virtual I/O Server pour résoudre les incidents de connectivité. Démarrez la fonction de trace du système à l’aide de la commande starttrace en précisant l’ID point d’ancrage de trace. L’ID point d’ancrage de trace de la carte Ethernet partagée est 48F. Utilisez la commande stoptrace pour arrêter la fonction de trace. La commande cattracerpt permet de lire le fichier journal trace, de formater les entrées de trace et d’écrire un rapport dans la sortie standard. Activation des shells non interactifs sur Virtual I/O Server, version 1.3 ou supérieure A l’issue de la mise à niveau de Virtual I/O Server vers la version 1.3 ou une version ultérieure, vous pouvez activer les commandes shell non interactives à l’aide de la commande startnetsvc. Avant de commencer Si vous avez installé OpenSSH sur un Virtual I/O Server antérieur à la version 1.3, puis l’avez mis à niveau vers la version 1.3 ou une version ultérieure, les commandes shell non interactives risquent de ne pas fonctionner, car il est nécessaire de modifier le fichier de configuration SSH. Pour activer les commandes shell non interactives dansVirtual I/O Server 1.3 ou une version ultérieure, exécutez la commande suivante à partir du client SSH : ioscli startnetsvc ssh Remarque : Vous pouvez exécuter la commande startnetsvc lorsque le service SSH est exécuté. La commande semble échouer. Cependant elle est exécutée normalement. 160 Virtual I/O Server Récupération lorsque les disques sont introuvables Cette rubrique décrit comment opérer une récupération lorsque des disques ne sont pas affichés au cours d’une tentative d’amorçage ou d’installation d’une partition logique client. A propos de cette tâche Il arrive parfois que le disque permettant d’installer la partition logique client ne puisse pas être localisé. Dans ce cas, si le client est déjà installé, démarrez la partition logique client. Assurez-vous de disposer des derniers niveaux de logiciel et de microprogramme. Puis assurez-vous que le numéro d’emplacement de la carte serveur SCSI virtuelle correspond au numéro d’emplacement virtuel de la partition distante de la carte client SCSI virtuelle. 1. Assurez-vous de disposer des dernières versions pour la console HMC, les microprogrammes et le serveur Virtual I/O Server. Procédez comme suit : a. Pour vous assurer que vous disposez du dernier niveau de la console HMC, voir le manuel Installation et configuration de la console HMC. Pour visualiser le fichier PDF de la rubrique . Installation et configuration de la console HMC (environ 3 Mo), voir oemiphai.pdf b. Vérifiez que vous disposez du dernier microprogramme. 2. Vérifiez que le numéro d’emplacement de la carte serveur SCSI virtuelle est correctement mappé au numéro d’emplacement distant de la partition logique client : a. Dans la zone de navigation, développez Gestion de systèmes → Serveurs et cliquez sur le serveur sur lequel se trouve la partition logique Virtual I/O Server. b. Dans la zone Contenu, sélectionnez la partition logique Virtual I/O Server. c. Cliquez sur Tâches, puis sélectionnez Propriétés. d. Cliquez sur l’onglet Cartes virtuelles. e. Cliquez sur Interface SCSI virtuelle. f. Si les valeurs de la partition distante et de la carte distante sont Toute partition et Tout emplacement de partition, procédez comme suit : v Développez Interface SCSI virtuelle, puis cliquez sur le numéro d’emplacement. v Sélectionnez Connexion possible de la partition client sélectionnée uniquement. v Entrez l’ID de partition logique client et la carte, puis cliquez sur OK v Cliquez sur Interface SCSI virtuelle. g. Enregistrez les valeurs de la partition distante et de la carte distante. Ces valeurs représentent la partition logique client et le numéro d’emplacement de la carte SCSI virtuelle client qui peut se connecter à la carte de serveur associée. Par exemple, les valeurs de la partition distante, de la carte distante et de la carte sont les suivantes : AIX_client, 2, 3. Ces valeurs indiquent que la carte SCSI virtuelle 2 sur la partition logique client AIX_client peut se connecter à la carte SCSI virtuelle 3 du serveur Virtual I/O Server. h. Répétez les étapes a à g pour la partition logique client. 3. Vérifiez que le numéro d’emplacement de la carte serveur SCSI virtuelle est mappé correctement avec le numéro d’emplacement distant de la partition logique client. Procédez comme suit : a. Cliquez avec le bouton droit de la souris sur le profil de serveur, puis sélectionnez Propriétés. b. Cliquez sur l’onglet Virtual I/O Server. c. Si le bouton d’option Seuls la partition et l’emplacement distant sélectionnés peuvent se connecter n’est pas activé, sélectionnez-le. d. Notez les valeurs des zones Partition distante et Numéro d’emplacement virtuel de la partition distante. Elles indiquent le nom et le numéro d’emplacement virtuel de la partition logique client. Il s’agit de la partition logique client et du numéro d’emplacement qui peuvent se connecter à l’emplacement indiqué dans la boîte de dialogue Numéro d’emplacement, en haut de la fenêtre Propriétés de la carte SCSI virtuelle. Virtual I/O Server 161 e. Pour la partition logique client, répétez le étapes a à e. 4. La valeur Carte sur la partition logique client doit correspondre à celle de Carte distante sur la partition logique Virtual I/O Server et la valeur Carte sur la partition logique Virtual I/O Server doit correspondre à celle de Carte distante sur la partition logique client. Si ces numéros ne correspondent pas, sur la console HMC, modifiez les propriétés de profil de manière à refléter le mappage. 5. Sur la ligne de commande du serveur Virtual I/O Server, entrez cfgdev. 6. Arrêtez et réactivez la partition logique client. 7. Sur la ligne de commande du serveur Virtual I/O Server, entrez lsmap -all. Les résultats obtenus sont semblables à ce qui suit : SVSA Physloc Client Partition ID --------------- -------------------------------------------- -----------------vhost0 U9113.550.10BE8DD-V1-C3 0x00000002 VTD LUN Backing device Physloc vhdisk0 0x8100000000000000 hdisk5 U787B.001.DNW025F-P1-C5-T1-W5005076300C10899-L536F000000000000 Dans cet exemple, l’ID de partition logique client est 2 (0x00000002). Remarque : Si la partition logique client n’est pas encore installée, l’ID partition client est 0x00000000. Le numéro d’emplacement de la carte du serveur SCSI apparaît dans la colonne Physloc. Les chiffres suivant l’option -C constituent le numéro d’emplacement. Dans le cas présent, le numéro d’emplacement est 3. 8. Sur la ligne de commande du serveur Virtual I/O Server, entrez lsdev -virtual. Les résultats obtenus sont semblables à ce qui suit : name status vhost0 Available Virtual SCSI Server Adapter vhdisk0 description Available Virtual Target Device - Disk Identification et résolution des incidents relatifs aux partitions logiques client AIX Informations et procédures d’identification et de résolution des incidents liés aux partitions logiques client AIX. A propos de cette tâche Si la partition client utilise des ressources d’E-S virtuelles, le point focal de service et le serveur Virtual I/O Server doivent être contrôlés en premier afin de vérifier que l’incident n’est pas lié au serveur. Sur les partitions client qui exécutent le niveau actuel d’AIX, lorsqu’un incident matériel est consigné sur le serveur et qu’un incident correspondant est consigné sur la partition client, Virtual I/O Server indique un message d’erreur de corrélation dans le rapport d’erreurs. Exécutez la commande suivante pour créer un rapport d’erreur : errpt -a L’exécution de la commande errpt renvoie un résultat similaire au suivant : LABEL: IDENTIFIER: VSCSI_ERR2 857033C6 Date/Time: Tue Feb 15 09:18:11 2005 Sequence Number: 50 Machine Id: 00C25EEE4C00 162 Virtual I/O Server Node Id: Class: Type: Resource Name: vio_client53A S TEMP vscsi2 Description Underlying transport error Probable Causes PROCESSOR Failure Causes PROCESSOR Recommended Actions PERFORM PROBLEM DETERMINATION PROCEDURES Detail Data Error Log Type 01 Reserve 00 Error Number 0006 RC 0000 0002 VSCSI Pointer Comparez les valeurs LABEL, IDENTIFIER et Error Number du rapport d’erreur aux valeurs dans le tableau suivant pour identifier l’incident et le résoudre. Tableau 41. Labels, identificateurs, numéros d’erreur, description de l’incident et résolution des incidents communs liés à l’interface SCSI virtuelle sur la partition logique client Label Identificateur Numéro d’erreur 0006 RC 0000 0002 VSCSI_ERR2 857033C6 001C RC 0000 0000 000D RC FFFF FFF0 VSCSI_ERR3 ED995F18 000D RC FFFF FFF9 Incident Résolution La carte serveur SCSI virtuelle de la partition logique Virtual I/O Server n’est pas ouverte. Faites en sorte que la carte serveur de la partition logique Virtual I/O Server soit disponible. La carte serveur SCSI virtuelle de la partition logique Virtual I/O Server a été fermée soudainement. Déterminez pourquoi la carte serveur de la partition logique Virtual I/O Server a été fermée. La carte serveur SCSI virtuelle de la partition logique Virtual I/O Server est utilisée par une autre partition logique client. Terminez la partition logique client utilisant la carte serveur. La carte serveur SCSI virtuelle (numéro de partition et d’emplacement) spécifiée dans la définition n’existe pas. Dans la console HMC, corrigez la définition de la carte client pour l’associer à une carte serveur correcte. Virtual I/O Server 163 Informations de référence pour Virtual I/O Server Vous trouverez des informations de référence sur les commandes de Virtual I/O Server, sur les attributs de configuration pour les agents et clients Tivoli, sur les attributs et statistiques de réseau, et sur les types d’utilisateur Virtual I/O Server. Description des commandes du serveur Virtual I/O Server et du gestionnaire Integrated Virtualization Manager Vous pouvez afficher la description de chaque commande du serveur Virtual I/O Server et du gestionnaire Integrated Virtualization Manager. Voir Commandes Virtual I/O Server et Integrated Virtualization Manager. Pour visualiser le fichier PDF de la rubrique Commandes Virtual I/O Server et Integrated Virtualization Manager (environ 4 Mo), voir oemiphcg.pdf . Configuration des attributs des agents et des clients Tivoli Informations sur les variables et les attributs de configuration requis et facultatifs de l’agent Tivoli Monitoring , l’agent Tivoli Usage and Accounting Manager , du client Tivoli Storage Manager et des agents TotalStorage Productivity Center. Dans le tableau suivant, un attribut est une option que vous pouvez ajouter à la commande du serveur Virtual I/O Server. Le terme variable désigne une option que vous pouvez définir dans un fichier de configuration de Tivoli Storage Manager ou de Tivoli Usage and Accounting Manager. Tivoli Monitoring Tableau 42. Attributs de configuration de Tivoli Monitoring Attribut Description HOSTNAME Nom d’hôte ou adresse IP du serveur Tivoli Enterprise Monitoring Server (TEMS) auquel l’agent de surveillance envoie des données. MANAGING_SYSTEM Nom d’hôte ou adresse IP de la console HMC reliée au système géré sur lequel se trouvent Virtual I/O Server et l’agent de surveillance. Vous pouvez définir une seule console HMC par agent de surveillance. Si vous ne définissez pas l’attribut MANAGING_SYSTEM, Virtual I/O Server utilise la connexion RMC (Resource Monitoring and Control) pour obtenir le nom d’hôte ou l’adresse IP de la console HMC. Si l’agent de surveillance est exécuté sur Integrated Virtualization Manager, il n’est pas nécessaire de définir l’attribut MANAGING_SYSTEM. RESTART_ON_REBOOT 164 Virtual I/O Server Détermine si l’agent de surveillance redémarre lors du redémarrage de Virtual I/O Server. TRUE indique que l’agent de surveillance redémarre lors du redémarrage de Virtual I/O Server. FALSE indique que l’agent de surveillance ne redémarre pas lors du redémarrage de Virtual I/O Server. Tivoli Storage Manager Tableau 43. Attributs de configuration de Tivoli Storage Manager Attribut Description SERVERNAME Nom d’hôte du serveurTivoli Storage Manager auquel est associé le client Tivoli Storage Manager. SERVERIP Adresse IP ou nom de domaine du serveurTivoli Storage Manager auquel est associé le client Tivoli Storage Manager. NODENAME Nom de l’ordinateur sur lequel est installé le client Tivoli Storage Manager. Tivoli Usage and Accounting Manager Tableau 44. Variables de configuration de Tivoli Usage and Accounting Manager dans le fichier A_config.par Variable Description Valeurs possibles AACCT_TRANS_IDS Désigne les types 1, 4, 6, 7, 8, 10, 11 ou 16 d’enregistrement comptable avancés sous AIX inclus aux rapports sur l’utilisation. 10 AACCT_ONLY Détermine si l’agent Usage and Accounting Manager collecte les données comptables. Y v Y : Indique que l’agent Usage and Accounting Manager collecte les données comptables. Valeur par défaut v N : Indique que l’agent Usage and Accounting Manager ne collecte pas les données comptables. ITUAM_SAMPLE Détermine si l’agent Usage and Accounting Manager collecte des données relatives au système de fichiers de stockage. v Y : Indique que l’agent Usage and Accounting Manager collecte des données relatives au système de fichiers de stockage. N v N : Indique que l’agent Usage and Accounting Manager ne collecte pas de données relatives au système de fichiers de stockage. Tableau 45. Attributs de configuration de Tivoli Usage and Accounting Manager Attribut Description ACCT_DATA0 Taille en Mo du premier fichier de données contenant les informations statistiques quotidiennes. ACCT_DATA1 Taille en Mo du second fichier de données contenant les informations statistiques quotidiennes. ISYSTEM Moment en minutes où l’agent génère des enregistrements système par intervalles. Virtual I/O Server 165 Tableau 45. Attributs de configuration de Tivoli Usage and Accounting Manager (suite) Attribut Description IPROCESS Moment en minutes où le système génère des enregistrements de processus regroupés. Attributs d’ TotalStorage Productivity Center Tableau 46. Attributs de configuration de TotalStorage Productivity Center Attribut Description S Nom d’hôte ou adresse IP du serveur Obligatoire TotalStorage Productivity Center associé à l’agent TotalStorage Productivity Center. A Nom d’hôte ou adresse IP du gestionnaire d’agents. Obligatoire devAuth Mot de passe d’authentification du serveur d’unités TotalStorage Productivity Center. Obligatoire caPass Mot de passe d’authentification de l’agent commun. Obligatoire caPort Numéro identifiant le port de l’agent Facultatif commun. Le port par défaut est 9510. amRegPort Numéro identifiant le port d’enregistrement du gestionnaire d’agents. Le port par défaut est 9511. Facultatif amPubPort Numéro identifiant le port public du gestionnaire d’agents. Le port par défaut est 9513. Facultatif dataPort Numéro identifiant le port du serveur de données TotalStorage Productivity Center. Le port par défaut est 9549. Facultatif devPort Numéro identifiant le port du serveur d’unités TotalStorage Productivity Center. Le port par défaut est 9550. Facultatif newCA La valeur par défaut est true. Facultatif oldCA La valeur par défaut est false. Facultatif daScan Exécute une analyse de l’agent TPC_data après l’installation. La valeur par défaut est true. Facultatif daScript Exécute le script de l’agent TPC_data Facultatif après l’installation. La valeur par défaut est true. daIntsall Installe l’agent TPC_data. La valeur par défaut est true. Facultatif faInstall Installe l’agent TPC_fabric. La valeur par défaut est true. Facultatif 166 Virtual I/O Server Obligatoire ou facultatif Tableau 46. Attributs de configuration de TotalStorage Productivity Center (suite) Attribut Description Obligatoire ou facultatif U Désinstalle les agents TotalStorage Productivity Center. Les valeurs valides sont les suivantes : Facultatif v toutes v data v fabric Information associée Centre de documentation IBM Tivoli Application Dependency Discovery Manager IBM Tivoli Identity Manager Documentation IBM Tivoli Monitoring version 6.2.1 Tivoli Monitoring Virtual I/O Server Premium Agent - Guide d’utilisation IBM Tivoli Storage Manager Centre de documentation IBM Tivoli Usage and Accounting Manager Centre de documentation IBM TotalStorage Productivity Center Statistiques sur le protocole GVRP Affichage d’informations sur les unités BPDU (Bridge Protocol Data Unit), le protocole GARP (Generic Attribute Registration Protocol) et le protocole GVRP (GARP VLAN Registration Protocol) en exécutant la commande entstat -all. Vous pouvez également visualiser des exemples. Les unités BPDU (ou unités de données de protocole de pont) sont des paquets de données relatives au protocole échangés entre le commutateur et la carte Ethernet partagée. Le protocole GARP est le seul protocole de pont actuellement disponible avec la carte Ethernet partagée. GARP est un protocole générique qui permet l’échange d’informations sur les attributs entre deux entités. Un seul type de protocole GARP est actuellement disponible sur la carte Ethernet partagée : le protocole GVRP. Avec le protocole GVRP, les attributs transmis sont des valeurs VLAN (réseau local virtuel). Statistiques sur les unités BPDU Les statistiques sur les unités BPDU concernent les paquets BPDU envoyés ou reçus. Tableau 47. Description des statistiques sur les unités BPDU Statistiques sur les unités BPDU Transmit (émission) Description Packets Nombre de paquets envoyés. Failed packets Nombre de paquets non envoyés (par exemple, à cause d’un manque de mémoire pour l’attribution du paquet sortant). Virtual I/O Server 167 Tableau 47. Description des statistiques sur les unités BPDU (suite) Statistiques sur les unités BPDU Receive (réception) Description Packets Nombre de paquets reçus. Unprocessed Packets Paquets non traités, à cause d’une interruption du fonctionnement du protocole. Non-contiguous Packets Paquets reçus en plusieurs fragments. Packets with unknown PID Paquets comportant un ID de protocole (PID) différent de celui du protocole GARP. Lorsque ce nombre est élevé, cela provient en général de l’échange par le commutateur de paquets de protocole BPDU non pris en charge par la carte Ethernet partagée. Packets with Wrong Length Paquets Ethernet reçus dont la longueur ne correspond à la longueur indiquée dans l’en-tête Ethernet. Statistiques sur le protocole GARP Les statistiques sur le protocole GARP concernent les paquets BPDU de type GARP envoyés ou reçus. Tableau 48. Description des statistiques sur le protocole GARP Statistiques sur le protocole GARP Transmit (émission) Description Packets Nombre de paquets envoyés. Failed packets Nombre de paquets non envoyés (par exemple, à cause d’un manque de mémoire pour l’attribution du paquet sortant). Leave All Events Paquets envoyés avec le type d’événement Leave All. Join Empty Events Paquets envoyés avec le type d’événement Join Empty. Join In Events Paquets envoyés avec le type d’événement Join In. Leave Empty Events Paquets envoyés avec le type d’événement Leave Empty. Leave In Events Paquets envoyés avec le type d’événement Leave In. Empty Events Paquets envoyés avec le type d’événement Empty. 168 Virtual I/O Server Tableau 48. Description des statistiques sur le protocole GARP (suite) Statistiques sur le protocole GARP Receive (réception) Description Packets Nombre de paquets reçus Unprocessed Packets Paquets non traités, à cause d’une interruption du fonctionnement du protocole. Packets with Unknown Attr Type: Paquets contenant un type d’attribut non pris en charge. Lorsque ce nombre est élevé, cela provient en général de l’échange par le commutateur de paquets de protocole GARP non pris en charge par la carte Ethernet partagée. Par exemple, le protocole GARP GMRP (Multicast Registration Protocol). Leave All Events Paquets reçus avec le type d’événement Leave All. Join Empty Events Paquets reçus avec le type d’événement Join Empty. Join In Events Paquets reçus avec le type d’événement Join In. Leave Empty Events Paquets reçus avec le type d’événement Leave Empty Leave In Events Paquets reçus avec le type d’événement Leave In Empty Events Paquets reçus avec le type d’événement Empty Statistiques sur le protocole GVRP Les statistiques sur le protocole GVRP concernent les paquets GARP d’échange d’informations sur les réseaux locaux virtuels (VLAN) et envoyés ou reçus via le protocole GVRP. Virtual I/O Server 169 Tableau 49. Description des statistiques sur le protocole GVRP Statistiques sur le protocole GVRP Transmit (émission) Description Packets Nombre de paquets envoyés Failed packets Nombre de paquets non envoyés (par exemple, à cause d’un manque de mémoire pour l’attribution du paquet sortant). Leave All Events Paquets envoyés avec le type d’événement Leave All. Join Empty Events Paquets envoyés avec le type d’événement Join Empty. Join In Events Paquets envoyés avec le type d’événement Join In. Leave Empty Events Paquets envoyés avec le type d’événement Leave Empty. Leave In Events Paquets envoyés avec le type d’événement Leave In. Empty Events Paquets envoyés avec le type d’événement Empty. 170 Virtual I/O Server Tableau 49. Description des statistiques sur le protocole GVRP (suite) Statistiques sur le protocole GVRP Receive (réception) Description Packets Nombre de paquets reçus. Unprocessed Packets Paquets non traités, à cause d’une interruption du fonctionnement du protocole. Packets with Invalid Length Paquets contenant un ou plusieurs attributs dont la longueur ne correspond pas au type d’événement associé. Packets with Invalid Event Paquets contenant un ou plusieurs attributs dont le type d’événement est incorrect. Packets with Invalid Value Paquets contenant un ou plusieurs attributs dont la valeur est incorrecte (par exemple, un ID VLAN incorrect). Total Invalid Attributes Nombre total d’attributs comportant un paramètre incorrect. Total Valid Attributes Nombre total d’attributs ne comportant aucun paramètre incorrect. Leave All Events Paquets envoyés avec le type d’événement Leave All. Join Empty Events Paquets envoyés avec le type d’événement Join Empty. Join In Events Paquets envoyés avec le type d’événement Join In. Leave Empty Events Paquets envoyés avec le type d’événement Leave Empty. Leave In Events Paquets envoyés avec le type d’événement Leave In. Empty Events Paquets envoyés avec le type d’événement Empty. Exemples de statistiques L’exécution de la commande entstat -all renvoie des résultats du type suivant : -------------------------------------------------------------Statistics for adapters in the Shared Ethernet Adapter ent3 -------------------------------------------------------------Number of adapters: 2 SEA Flags: 00000009 < THREAD > Virtual I/O Server 171 < GVRP > VLAN IDs : ent2: 1 Real Side Statistics: Packets received: 0 Packets bridged: 0 Packets consumed: 0 Packets transmitted: 0 Packets dropped: 0 Virtual Side Statistics: Packets received: 0 Packets bridged: 0 Packets consumed: 0 Packets transmitted: 0 Packets dropped: 0 Other Statistics: Output packets generated: 0 Output packets dropped: 0 Device output failures: 0 Memory allocation failures: 0 ICMP error packets sent: 0 Non IP packets larger than MTU: 0 Thread queue overflow packets: 0 -------------------------------------------------------------Bridge Protocol Data Units (BPDU) Statistics: Transmit Statistics: -------------------Packets: 2 Failed packets: 0 Receive Statistics: ------------------Packets: 1370 Unprocessed Packets: 0 Non-contiguous Packets: 0 Packets w/ Unknown PID: 1370 Packets w/ Wrong Length: 0 --------------------------------------------------------------General Attribute Registration Protocol (GARP) Statistics: Transmit Statistic: ------------------Packets: 2 Failed packets: 0 Receive Statistics: ------------------Packets: 0 Unprocessed Packets: 0 Packets w/ Unknow Attr. Type: 0 Leave All Events: 0 Join Empty Events: 0 Join In Events: 2 Leave Empty Events: 0 Leave In Events: 0 Empty Events: 0 Leave All Events: 0 Join Empty Events: 0 Join In Events: 0 Leave Empty Events: 0 Leave In Events: 0 Empty Events: 0 --------------------------------------------------------------GARP VLAN Registration Protocol (GVRP) Statistics: Transmit Statistics: -------------------Packets: 2 Failed packets: 0 Leave All Events: 0 Join Empty Events: 0 Join In Events: 2 172 Virtual I/O Server Receive Statistics: ------------------Packets: 0 Unprocessed Packets: 0 Attributes w/ Invalid Length: 0 Attributes w/ Invalid Event: 0 Attributes w/ Invalid Value: 0 Total Invalid Attributes: 0 Total Valid Attributes: 0 Leave All Events: 0 Join Empty Events: 0 Join In Events: 0 Leave Empty Events: 0 Leave In Events: 0 Empty Events: 0 Leave Empty Events: 0 Leave In Events: 0 Empty Events: 0 Attributs du réseau Instructions sur la gestion des attributs du réseau. Plusieurs commandes du serveur Virtual I/O Server, notamment chdev, mkvdev et cfglnagg, permettent de modifier les attributs des unités ou du réseau. Cette section définit les attributs pouvant être modifiés. Attributs Ethernet Il est possible de modifier les attributs Ethernet ci-après. Attribut Description Maximum Transmission Unit (mtu) Indique l’unité de transmission maximale (MTU). Cette valeur peut être tout nombre compris entre 60 et 65535, mais elle est dépendante du support. Interface State (état_interface) detach Retire une interface de la liste des interfaces réseau. Si la dernière interface est déconnectée, le code du pilote d’interface de réseau est déchargé. Pour modifier la route d’une interface connectée, vous devez déconnecter et ajouter à nouveau cette interface à l’aide de la commande chdev -dev Interface -attr état=detach. down Identifie une interface comme inactive, ce qui empêche le système de tenter de transmettre des messages via cette interface. Toutefois, les routes qui utilisent cette interface ne sont pas automatiquement désactivées. (chdev -dev Interface -attr état=down) up Identifie une interface comme active. Ce paramètre est automatiquement utilisé lors de la définition de la première adresse d’une interface. Vous pouvez également l’utiliser pour activer une interface après l’exécution de la commande chdev -dev Interface -attr état=up. Network Mask (masque_réseau) Indique la partie de l’adresse à réserver pour subdiviser les réseaux en sous-réseaux. masque inclut la partie réseau de l’adresse locale et la partie sous-réseau, extraite de la zone hôte de l’adresse. Vous pouvez spécifier le masque sous forme d’un nombre hexadécimal unique commençant par 0x, en notation décimale à points Internet standard. Dans l’adresse 32 bits, le masque contient des bits ayant la valeur 1 pour la position des bits réservés au réseau et aux sous-réseaux et un bit ayant la valeur 0 pour la position des bits qui définissent l’hôte. Le masque contient la partie du réseau standard et le segment de sous-réseau est contigu au segment de réseau. Attributs d’une carte Ethernet partagée Vous pouvez modifier les attributs ci-dessous pour une carte Ethernet partagée. Attribut Description PVID (pvid) Indique le PVID à utiliser pour la carte Ethernet partagée. PVID adapter (carte_PVID) Indique la carte virtuelle par défaut à utiliser pour les paquets marqués non VLAN. Physical adapter (carte_physique) Indique la carte physique associée à la carte Ethernet partagée. Virtual I/O Server 173 Attribut Description thread (unité_exécution) Active ou désactive l’utilisation d’unités d’exécution sur la carte Ethernet partagée. L’activation de cette option ajoute environ 16 à 20 % de cycles machine par transaction pour les flots de données MTU 1500 et 31 à 38 % pour MTU 9000. L’option d’utilisation d’unités d’exécution augmente le nombre de cycles machine par transaction pour de faibles charges de travail car les unités d’exécution sont démarrées pour chaque paquet. A des taux de charge de travail plus élevés, comme les charges de travail en duplex intégral ou de demandes/réponses, les unités d’exécution durent plus longtemps sans attente ou réacheminement. Le mode avec unités d’exécution doit être utilisé lorsqu’une interface SCSI virtuelle est exécutée sur la même partition logique Virtual I/O Server que la carte Ethernet partagée. Le mode avec unités d’exécution permet de s’assurer que l’interface SCSI virtuelle et la carte Ethernet partagée partagent les ressources du processeur de manière adaptée. Toutefois, l’utilisation d’unités d’exécution augmente la longueur des chemins d’accès aux instructions et utilise des cycles de processeur supplémentaires. Si la partition logique Virtual I/O Server est dédiée uniquement à l’exécution d’unités Ethernet partagées (et des unités virtuelles Ethernet associées), les cartes doivent être configurées de manière à ce que l’utilisation d’unités d’exécution soit désactivée. Vous pouvez activer ou désactiver l’utilisation d’unités d’exécution à l’aide de l’option -attr thread de la commande mkvdev. Pour activer l’utilisation d’unités d’exécution, utilisez l’option -attr thread=1. Pour la désactiver, utilisez l’option -attr thread=0. Par exemple, la commande ci-dessous désactive l’utilisation d’unités d’exécution pour la carte Ethernet partagée ent1 : mkvdev -sea ent1 -vadapter ent5 -default ent5 -defaultid 1 -attr thread=0 Virtual adapters (cartes_virtuelles) Répertorie les cartes de réseau Ethernet virtuelles associées à la carte Ethernet partagée. TCP segmentation offload(envoi_volumineux) Active la fonction largesend TCP (également appelée déchargement de la segmentation) des partitions logiques à la carte physique. Pour fonctionner, cette dernière doit être activée pour la fonction largesend TCP pour le déchargement de la segmentation entre la partition logique et la carte Ethernet partagée. En outre, la partition logique doit être en mesure d’effectuer une opération largesend. Sous AIX, la fonction largesend peut être activée sur une partition à l’aide de la commande ifconfig. Vous pouvez activer ou désactiver la fonction largesend TCP à l’aide de l’option -a largesend de la commande chdev. Pour l’activer, utilisez l’option ’-a largesend=1’. Pour la désactiver, utilisez l’option ’-a largesend=0’. Par exemple, la commande ci-dessous active largesend pour la carte Ethernet partagée ent1 : chdev -l ent1 -a largesend=1 Par défaut, le paramètre est désactivé (largesend=0). Jumbo frames (grandes_trames) Permet d’augmenter jusqu’à 9000 octets les MTU de l’interface configurée sur la carte Ethernet partagée (valeur par défaut : 1500). Si la carte physique sous-jacente ne prend pas en charge les grandes trames et si la valeur de l’attribut jumbo_frames est yes, la configuration échoue. La carte physique sous-jacente doit prendre en charge les grandes trames. La carte Ethernet partagée active automatiquement les grandes trames sur sa carte physique sous-jacente si la valeur de jumbo_frames est yes. La valeur grandes_trames n’est pas modifiable durant l’exécution. GARP VLAN Registration Protocol (GVRP) (gvrp) Active et désactive le protocole GVRP sur une carte Ethernet partagée. 174 Virtual I/O Server Attributs de la reprise par transfert d’une carte Ethernet partagée Vous pouvez modifier les attributs suivants relatifs à la reprise par transfert d’une carte Ethernet partagée. Attribut Description High availability mode (mode_haute_disponibilité) Détermine si les unités participent ou non à la configuration de reprise. Par défaut, cet attribut est paramétré sur disabled (désactivé). En général, une carte Ethernet partagée dans une configuration de reprise par transfert fonctionne en mode auto et la carte principale correspond à la carte dont la priorité est la plus élevée (valeur numérique la plus basse). Une carte Ethernet partagée peut être passée de force en mode veille ; elle se comporte alors comme l’unité de secours, tant qu’elle détecte la présence d’une unité principale fonctionnelle. Control Channel (canal_contrôle) Définit l’unité Ethernet virtuelle requise pour une carte Ethernet partagée dans une configuration de reprise par transfert, de manière à ce qu’elle puisse communiquer avec l’autre carte. Cet attribut ne comporte pas de valeur par défaut ; il est obligatoire lorsque l’attribut ha_mode n’est pas paramétré sur disabled. Internet address to ping (adr_réseau) Attribut facultatif qui peut être défini pour une carte Ethernet partagée définie dans une configuration de reprise par transfert. Lorsque cet attribut est spécifié, une unité Ethernet partagée applique une commande ping à l’adresse IP, afin de vérifier la connexion (ainsi que l’état des liaisons des unités physiques). Si elle détecte une perte de connectivité avec l’hôte de la commande ping spécifié, elle lance une reprise par transfert vers la carte Ethernet partagée. Cet attribut n’est pas pris en charge lorsque vous utilisez une carte Ethernet partagée avec une carte Ethernet hôte (ou carte Ethernet virtuelle intégrée). Virtual I/O Server 175 Attributs INET Il est possible de modifier les attributs INET qui suivent. Attribut Description Host Name (nom_hôte) Indiquez le nom d’hôte que vous souhaitez affecter à la machine en cours. Dans la définition du nom d’hôte, utilisez des caractères ASCII, de préférence uniquement alphanumériques. N’utilisez pas de point dans le nom d’hôte. Evitez d’utiliser des valeurs hexadécimales ou décimales comme premier caractère (par exemple 3Comm, où 3C peut être interprété comme un caractère hexadécimal). Pour assurer la compatibilité avec les hôtes précédents, choisissez un nom d’hôte non qualifié comportant moins de 32 caractères. Si l’hôte utilise un serveur de noms de domaine pour la résolution des noms, le nom d’hôte doit contenir le nom de domaine complet. Dans le système de dénomination de domaine hiérarchique, les noms sont constitués d’une séquence de sous-noms insensibles à la casse, séparés par des points, sans blanc imbriqué. Le protocole DOMAIN spécifie qu’un nom de domaine local doit être inférieur à 64 caractères et que la longueur d’un nom d’hôte doit être inférieure à 32 caractères. Le nom d’hôte est indiqué en premier lieu. Le nom de domaine complet peut, éventuellement, être spécifié ; le nom d’hôte est suivi d’un point, d’une série de noms de domaine local séparés par des points et enfin, du domaine racine. Le nom de domaine complet pour un hôte, y compris les points, doit être inférieur à 255 caractères et respecter le format suivant : hôte.sous-domaine.sous-domaine.domaine_racine Dans un réseau hiérarchique, certains hôtes sont conçus comme des serveurs de noms qui convertissent les noms en adresses Internet pour d’autres hôtes. Ce mécanisme comporte deux avantages sur l’espace de noms non hiérarchiques : les ressources de chaque hôte sur le réseau ne sont pas utilisées pour la résolution des noms et l’administrateur du système n’a pas besoin de gérer les fichiers de résolution de noms sur chaque machine du réseau. L’ensemble de noms gérés par un seul serveur de noms est appelé zone d’autorité de ce serveur. Gateway (passerelle) Identifie la passerelle à laquelle sont adressés les paquets. Vous pouvez définir le paramètre Passerelle par un nom symbolique ou une adresse numérique. Route (route) Spécifie la route. Le format de l’attribut Route est : route=destination, passerelle, [mesure]. destination Identifie l’hôte ou le réseau vers lequel vous dirigez la route. Vous pouvez définir le paramètre Destination par un nom symbolique ou une adresse numérique. gateway Identifie la passerelle à laquelle sont adressés les paquets. Vous pouvez définir le paramètre Passerelle par un nom symbolique ou une adresse numérique. metric Définit la mesure du routage. La valeur par défaut est 0 (zéro). La mesure du routage est utilisée par le protocole de routage (le programme démon routed). Des mesures plus élevées rendent la route moins favorable. Les mesures sont comptées comme des bonds supplémentaires vers le réseau ou l’hôte de destination. Attributs de carte Il est possible de modifier les attributs de carte suivants. Le comportement de l’attribut peut varier en fonction de la carte et du pilote dont vous disposez. 176 Virtual I/O Server Attribut Cartes/Pilotes Description Media Speed (débit_support) v Carte PCI-X Base-TX 10/100/1000 2 L’attribut de débit du support indique la vitesse à laquelle la carte tente de fonctionner. ports Les débits disponibles sont 10 Mbit/s en v Pilote de périphérique de carte semi-duplex, 10 Mbit/s en duplex intégral, 100 PCI-X Ethernet Base-T 10/100/1000 Mbit/s en semi-duplex, 100 Mbit/s en duplex intégral et négociation automatique, avec négociation automatique par défaut. Sélectionnez la négociation automatique lorsque la carte doit utiliser la négociation automatique sur le réseau pour déterminer le débit. Si le réseau ne prend pas en charge la négociation automatique, sélectionnez le débit spécifique. 1000 Mbit/s en semi-duplex et duplex intégral ne sont pas des valeurs correctes. Conformément à la spécification IEEE 802.3z, les débits en gigabits de transmission en duplex doivent être négociés automatiquement pour les cartes en cuivre (TX). Pour utiliser ces débits, sélectionnez la négociation automatique. Media Speed (débit_support) v Carte PCI-X Ethernet-SX Gigabit 2 ports v Pilote de périphérique de carte PCI-X Ethernet-SX Gigabit Media Speed (débit_support) v Pilote de périphérique de carte PCI Ethernet Mbit/s 10/100/1000 L’attribut de débit du support indique la vitesse à laquelle la carte tente de fonctionner. Les débits disponibles sont 1000 Mbit/s en duplex intégral et négociation automatique. La valeur par défaut est la négociation automatique. Sélectionnez la négociation automatique lorsque la carte doit utiliser la négociation automatique sur le réseau pour définir la transmission en duplex. Si le réseau ne prend pas en charge la négociation automatique, sélectionnez 1000 Mbit/s en duplex intégral. L’attribut de débit du support indique la vitesse à laquelle la carte tente de fonctionner. Les débits disponibles sont 10 Mbit/s en semi-duplex, 10 Mbit/s en duplex intégral, 100 Mbit/s en semi-duplex, 100 Mbit/s en duplex intégral et négociation automatique, avec négociation automatique par défaut. Sélectionnez la négociation automatique lorsque la carte doit utiliser la négociation automatique sur le réseau pour déterminer le débit. Si le réseau ne prend pas en charge la négociation automatique, sélectionnez le débit spécifique. Si la négociation automatique est sélectionnée, l’unité de liaison distante doit également être définie pour la négociation automatique afin de s’assurer que la liaison fonctionne correctement. Virtual I/O Server 177 Attribut Cartes/Pilotes Description Media Speed (débit_support) v Carte PCI Ethernet Base-T 10/100/1000 L’attribut de débit du support indique la vitesse à laquelle la carte tente de fonctionner. Les débits disponibles sont 10 Mbit/s en semi-duplex, 10 Mbit/s en duplex intégral, 100 Mbit/s en semi-duplex, 100 Mbit/s en duplex intégral et négociation automatique, avec négociation automatique par défaut. Sélectionnez la négociation automatique lorsque la carte doit utiliser la négociation automatique sur le réseau pour déterminer le débit. Si le réseau ne prend pas en charge la négociation automatique, sélectionnez le débit spécifique. v Pilote de périphérique de carte PCI Ethernet-SX Gigabit Pour que la carte s’exécute à 1000 Mbit/s, vous devez sélectionner le paramètre de négociation automatique. Remarque : Pour la carte PCI Ethernet-SX Gigabit, la seule sélection disponible est la négociation automatique. Enable Alternate Ethernet Address (utilisation_adr_rempl) La valeur yes pour cet attribut indique que l’adresse de la carte, telle qu’elle apparaît sur le réseau, est celle spécifiée par l’attribut Alternate Ethernet Address. Si vous indiquez la valeur no, l’adresse de carte unique écrite dans une mémoire ROM, sur la carte, est utilisée. La valeur par défaut est no. Alternate Ethernet Address (adr_remplacement) Permet de modifier l’adresse unique de carte, telle qu’elle apparaît sur le réseau local. La valeur entrée doit être une adresse Ethernet de 12 chiffres hexadécimaux et doit être différente de l’adresse des autres cartes Ethernet. Il n’existe pas de valeur par défaut. Cette zone n’a aucun effet sauf si l’attribut Enable Alternate Ethernet Address a pour valeur yes, auquel cas cette zone doit être complétée. Une adresse Ethernet typique est 0x02608C000001. Tous les chiffres hexadécimaux, y compris les zéros de début, doivent être entrés. Enable Link Polling (interrogation_liaison) v Pilote de périphérique de carte PCI Ethernet 10/100 Mbit/s Sélectionnez no pour que le pilote de périphérique interroge la carte afin de déterminer l’état d’une liaison, à un intervalle de temps spécifique. La valeur de l’intervalle de temps est spécifiée dans la zone Poll Link Time Interval. Si vous sélectionnez no, le pilote de périphérique n’interroge pas la carte pour connaître l’état de sa liaison. La valeur par défaut est no. Poll Link Time Interval (intervalle_interro_liaison) v Pilote de périphérique de carte PCI Ethernet 10/100 Mbit/s Durée, en millisecondes, autorisée sur le pilote de périphérique entre deux interrogations de la carte pour extraire l’état de sa liaison. Cette valeur est requise lorsque l’option Enable Link Polling a pour valeur yes. Vous pouvez indiquer une valeur comprise entre 100 et 1000. La valeur d’incrément est 10. La valeur par défaut est 500. 178 Virtual I/O Server Attribut Cartes/Pilotes Description Flow Control (ctrl_flux) Cet attribut spécifie si la carte doit activer la v Pilote de périphérique de carte PCI-X Ethernet Base-T 10/100/1000 transmission et la réception du contrôle de flux. La valeur par défaut est no. v Pilote de périphérique de carte PCI-X Ethernet-SX Gigabit v Carte PCI-X Base-TX 10/100/1000 2 ports v Carte PCI-X Ethernet-SX Gigabit 2 ports v Pilote de périphérique de carte PCI Ethernet-SX Gigabit Transmit Jumbo Frames (grandes_trames) Lorsqu’il a la valeur yes, cet attribut indique v Pilote de périphérique de carte que des trames jusqu’à 9018 octets de long PCI-X Ethernet Base-T 10/100/1000 peuvent être transmises sur cette carte. Si vous v Pilote de périphérique de carte indiquez no, la taille maximale des trames PCI-X Ethernet-SX Gigabit transmises est 1518 octets. Il reste possible de v Carte PCI-X Base-TX 10/100/1000 2 recevoir des trames jusqu’à 9018 octets sur ports cette carte. v Carte PCI-X Ethernet-SX Gigabit 2 ports v Pilote de périphérique de carte PCI Ethernet-SX Gigabit Virtual I/O Server 179 Attribut Cartes/Pilotes Description Checksum Offload (déchargement_total_ctrl) Cet attribut avec la valeur yes indique que la v Pilote de périphérique de carte PCI-X Ethernet Base-T 10/100/1000 carte calcule le total de contrôle pour les trames TCP transmises et reçues. Si vous v Pilote de périphérique de carte indiquez no, le total de contrôle est calculé par PCI-X Ethernet-SX Gigabit le logiciel approprié. v Carte PCI-X Base-TX 10/100/1000 2 Lorsque l’attribut de déchargement du total de ports contrôle est activé sur une carte Ethernet v Carte PCI-X Ethernet-SX Gigabit 2 virtuelle, celle-ci annonce le total de contrôle à ports Hypervisor. Hypervisor identifie les cartes v Pilote de périphérique de carte PCI Ethernet virtuelles dont l’attribut de Ethernet-SX Gigabit déchargement du total de contrôle est activé et v Cartes Ethernet virtuelles gère en conséquence la communication entre partitions. Lorsque les paquets réseau sont routés via la carte Ethernet partagée, il y a des risques d’erreurs de liaison. Dans cet environnement, les paquets doivent passer par la liaison physique présentant un total de contrôle. La communication fonctionne de la manière suivante : v Lorsqu’un paquet est reçu d’une liaison physique, la carte physique vérifie le total de contrôle. Si la destination du paquet est une carte Ethernet virtuelle dont l’attribut de déchargement de total de contrôle est activé, le récepteur n’a pas besoin d’effectuer de vérification du total de contrôle. Un récepteur dont l’attribut de déchargement du total de contrôle est activé acceptera le paquet après vérification du total de contrôle. v Si un paquet provient d’une carte Ethernet virtuelle dont l’attribut de déchargement de total de contrôle est activé, il est transmis vers la carte physique sans total de contrôle. La carte physique générera un total de contrôle avant d’envoyer le paquet. Les paquets en provenance d’une carte Ethernet virtuelle dont l’attribut de déchargement de total de contrôle est désactivé génèrent le total de contrôle au niveau de la source. Pour activer l’attribut de déchargement du total de contrôle pour une carte Ethernet partagée, toutes les unités participant doivent également comporter l’attribut activé. L’unité Ethernet partagée échouera si les unités sous-jacentes ne présentent pas les mêmes paramètres de déchargement du total de contrôle. 180 Virtual I/O Server Attribut Cartes/Pilotes Description Cet attribut spécifie si la carte doit activer la Enable Hardware Transmit v Pilote de périphérique de carte TCP Resegmentation PCI-X Ethernet Base-T 10/100/1000 transmission de la resegmentation TCP pour les segments TCP. La valeur par défaut est no. (envoi_volumineux) v Pilote de périphérique de carte PCI-X Ethernet-SX Gigabit v Carte PCI-X Base-TX 10/100/1000 2 ports v Carte PCI-X Ethernet-SX Gigabit 2 ports v Pilote de périphérique de carte PCI Ethernet-SX Gigabit Attributs d’une unité d’agrégation de liaisons(EtherChannel) Vous pouvez modifier les attributs ci-dessous relatifs à une unité d’agrégation de liaisonsou EtherChannel. Attribut Description Link Aggregation adapters Cartes constituant l’unité d’agrégation de liaisons. Pour modifier ces cartes, vous (noms_cartes) pouvez modifier cet attribut et sélectionner toutes les cartes qui doivent appartenir à l’unité d’agrégation de liaisons. Lorsque vous utilisez cet attribut pour sélectionner toutes les cartes devant appartenir à l’unité d’agrégation de liaisons, vous ne devez pas configurer d’adresse IP sur son interface. Mode (mode) Type de canal configuré. En mode standard, le canal envoie les paquets à la carte en fonction d’un algorithme (la valeur utilisée pour ce calcul est déterminée par l’attribut Hash Mode). En mode round_robin, le canal envoie un paquet à chaque carte avant de répéter la boucle. Le mode par défaut est standard. Le mode 802.3ad permet au protocole LACP (Link Aggregation Control Protocol de négocier les cartes de l’unité d’agrégation de liaisons avec un commutateur compatible avec LACP. Si vous indiquez une autre valeur que la valeur par défaut à l’attribut Hash Mode, vous devez indiquer standard ou 802.3ad. Sinon, la configuration de l’unité d’agrégation de liaisons échoue. Hash Mode (mode_hachage) En mode standard ou IEEE 802.3ad, l’attribut Hash Mode détermine le mode de sélection de la carte sortante pour chaque paquet. Les différents modes sont les suivants : v default : utilise l’adresse IP de destination pour déterminer la carte sortante. v src_port : utilise le port TCP et UDP source pour cette connexion. v dst_port : utilise le port TCP ou UDP de destination pour cette connexion. v src_dst_port : utilise les ports TCP ou UDP source et de destination pour cette connexion afin de déterminer la carte sortante. Vous ne pouvez pas utiliser le mode round-robin avec une valeur de mode de hachage autre que ″default″. La configuration de l’unité d’agrégation de liaisons échoue si vous essayez d’utiliser cette combinaison. Si le paquet n’est pas de type TCP ou UDP, il utilise le mode de hachage par défaut (adresse IP de destination). L’utilisation des ports TCP ou UDP pour le hachage permet une meilleure exploitation des cartes de l’unité d’agrégation de liaisons, dans la mesure où les connexions à une même adresse IP de destination peuvent être envoyées sur des cartes différentes (tout en conservant l’ordre des paquets), ce qui permet d’augmenter la largeur de bande de l’unité d’agrégation de liaisons. Virtual I/O Server 181 Attribut Description Internet Address to Ping (adr_réseau) Cette zone est facultative. Adresse IP pour laquelle l’unité d’agrégation de liaisons doit lancer la commande ping, afin de vérifier que le réseau est actif. Cet attribut est applicable uniquement en présence d’une carte de sauvegarde et d’une ou plusieurs cartes dans l’unité d’agrégation de liaisons. Une adresse zéro (ou uniquement constituée de zéros) n’est pas prise en compte et désactive l’envoi des paquets ping si une adresse valide a été préalablement définie. Par défaut, la zone est laissée à blanc. Retry Timeout (délai_relance) Cette zone est facultative. Cet attribut contrôle la fréquence d’envoi par l’unité d’agrégation de liaisons d’un paquet ping pour interroger la carte en cours sur l’état de la liaison. Applicable uniquement si l’unité d’agrégation de liaisons comporte une ou plusieurs cartes, si une carte de sauvegarde est définie et si la zone Internet Address to Ping contient une adresse différente de zéro. Indiquez la valeur du délai en secondes. La plage des valeurs correctes est comprise entre 1 et 100 secondes. La valeur par défaut est 1 seconde. Number of Retries (nombre_relances) Cette zone est facultative. Cet attribut indique le nombre de paquets ping perdus avant que l’unité d’agrégation de liaisons ne change de carte. Applicable uniquement si l’unité d’agrégation de liaisons comporte une ou plusieurs cartes, si une carte de sauvegarde est définie et si la zone Internet Address to Ping contient une adresse différente de zéro. La plage des valeurs correctes est comprise entre 2 et 100 relances. La valeur par défaut est 3. Enable Gigabit Ethernet Jumbo Frames (utilisation_grande_trame) Cette zone est facultative. Pour utiliser cet attribut, tous les adaptateurs sous-jacents et le commutateur doivent prendre en charge les grandes trames (jumbo frames). Applicable uniquement avec une interface Standard Ethernet (en) et non pas avec une interface IEEE 802.3 (et). Enable Alternate Address (utilisation_adr_rempl) Cette zone est facultative. Si vous indiquez ″yes″ pour cet attribut, vous pouvez indiquer l’adresse MAC que l’unité d’agrégation de liaisons doit utiliser. Si vous indiquez ″no″, l’unité d’agrégation de liaisons utilise l’adresse MAC de la première carte. Alternate Address (adr_remplacement) Si l’attribut Enable Alternate Address a pour valeur yes, indiquez l’adresse MAC que vous souhaitez utiliser. L’adresse que vous indiquez doit commencer par 0x et être une adresse hexadécimale à 12 chiffres. Attributs du réseau local virtuel (VLAN) Il est possible de modifier les attributs VLAN ci-après. Attribut Valeur VLAN Tag ID (ID_marque_vlan) ID unique associé au pilote VLAN. Vous pouvez indiquer une valeur comprise entre 1 et 4094. Base Adapter (carte_base) Carte réseau à laquelle le pilote de périphérique VLAN est connecté. Attribut de qualité de service de la carte Ethernet partagée Il est possible de modifier l’attribut qos_mode suivant. Mode disabled Il s’agit du mode par défaut. Le trafic VLAN ne fait pas l’objet d’un examen en vue de trouver la zone de priorité. Par exemple, chdev -dev <nom unité sea> -attr qos_mode=disabled Mode strict Le trafic important est prioritaire par rapport au trafic moins important. Ce mode fournit de meilleures performances et offre davantage de bande passante au trafic important ; toutefois, il peut entraîner des retards considérables pour le trafic moins important. Par exemple, 182 Virtual I/O Server chdev -dev <nom unité sea> -attr qos_mode=strict Mode loose Une limite est placée sur chaque niveau de priorité ; ainsi, dès qu’un nombre d’octets est envoyé pour un niveau, le niveau suivant est pris en charge. Cette méthode garantit que tous les paquets sont, en définitive, envoyés. Le trafic important reçoit une bande passante inférieure avec ce mode, par rapport au mode strict ; cependant, les limites du mode loose sont telles que davantage d’octets sont envoyés pour le trafic important. Ce dernier reçoit donc tout de même davantage de bande passante que le trafic moins important. Par exemple, chdev -dev <nom unité sea> -attr qos_mode=loose Statistiques de carte Ethernet partagée propres au client Pour collecter des statistiques réseau par client, activez la comptabilisation avancée sur la carte Ethernet partagée afin d’obtenir plus d’informations sur son trafic réseau. Pour cela, paramétrez l’attribut accounting de la carte Ethernet partagée sur enabled (la valeur par défaut est disabled). Quand la comptabilisation avancée est activée, la carte Ethernet partagée effectue un suivi des adresses (MAC) matérielles de tous les paquets qu’elle reçoit des clients LPAR et incrémente le nombre de paquets et d’octets pour chaque client de façon indépendante. Lorsque la comptabilisation avancée est activée sur la carte Ethernet partagée, vous pouvez générer un rapport pour visualiser les statistiques par client en exécutant la commande seastat. Remarque : La comptabilisation avancée doit être activée sur la carte Ethernet partagée avant que vous puissiez utiliser la commande seastat pour imprimer des statistiques. Pour activer la comptabilisation avancée sur la carte Ethernet partagée, entrez la commande suivante : chdev -dev <nom unité sea> -attr accounting=enabled La commande suivante affiche des statistiques de carte Ethernet partagée par client. L’option -n facultative désactive la résolution de nom sur les adresses IP. seastat -d <nom unité sea> [-n] La commande suivante supprime toutes les statistiques de carte Ethernet partagée par client qui ont été collectées : seastat -d <nom unité sea> -c Statistiques sur la reprise par transfert d’une carte Ethernet partagée Informations et exemples sur les statistiques relatives à la reprise par transfert d’une carte Ethernet partagée, par exemple : informations sur la haute disponibilité et les types de paquet. Description des statistiques Tableau 50. Description des statistiques relatives à la reprise par transfert d’une carte Ethernet partagée Statistique High availability (Haute disponibilité) Description Control Channel PVID ID VLAN de port de la carte Ethernet virtuelle utilisée comme canal de contrôle. Control Packets in Nombre de paquets reçus sur le canal de contrôle. Control Packets out Nombre de paquets envoyés sur le canal de contrôle. Virtual I/O Server 183 Tableau 50. Description des statistiques relatives à la reprise par transfert d’une carte Ethernet partagée (suite) Statistique Type of Packets Description Keep-Alive Packets Nombre de paquets de maintien de la connexion reçus sur le canal de contrôle. Les paquets de maintien de la connexion sont reçus sur la carte Ethernet partagée de secours lorsque la carte Ethernet partagée principale est active. Recovery Packets Nombre de paquets de reprise reçus sur le canal de contrôle. Les paquets de reprise sont envoyés par la carte Ethernet partagée principale lorsque celle-ci peut être à nouveau activée après une reprise après incident. Notify Packets Nombre de paquets de notification reçus sur le canal de contrôle. Les paquets de notification sont envoyés par la carte Ethernet partagée de secours lorsque celle-ci détecte la reprise de la carte Ethernet partagée principale. Limbo Packets Nombre de paquets d’état indéterminé reçus sur le canal de contrôle. Les paquets d’état indéterminé sont envoyés par la carte Ethernet partagée principale lorsque celle-ci détecte une interruption du fonctionnement du réseau physique ou en cas de non fonctionnement de la commande ping sur l’hôte distant défini (pour indiquer à la carte de secours qu’elle doit s’activer). 184 Virtual I/O Server Tableau 50. Description des statistiques relatives à la reprise par transfert d’une carte Ethernet partagée (suite) Statistique Description Etat Etat en cours de la carte Ethernet partagée. INIT Le protocole de reprise par transfert de la carte Ethernet partagée vient d’être initialisé. PRIMARY La carte Ethernet partagée transfère activement le trafic entre les réseaux locaux virtuels (VLAN) et le réseau. BACKUP La carte Ethernet partagée est inactive et ne transfère pas le trafic entre les réseaux locaux virtuels (VLAN) et le réseau. RECOVERY La reprise après incident de la carte Ethernet partagée principale a été effectuée et celle-ci peut être à nouveau activée. NOTIFY La carte Ethernet partagée de secours à détecté la reprise après incident de la carte Ethernet partagée et qu’elle peut donc redevenir inactive. LIMBO L’une des situations suivantes s’est produite : v Le réseau physique n’est pas opérationnel. v L’état du réseau physique est inconnu. v La carte Ethernet partagée ne parvient pas à effectuer un ping sur l’hôte défini. Bridge Mode Indique le mode de pontage actuel du trafic de la carte Ethernet partagée (le cas échéant). Unicast La carte Ethernet partagée envoie et reçoit uniquement du trafic à destinataire unique (aucun trafic multidiffusion ni diffusion). Pour éviter une saturation de la diffusion, la carte Ethernet partagée envoie et reçoit uniquement du trafic à destinataire unique lorsqu’elle se trouve à l’état INIT ou RECOVERY. All La carte Ethernet partagée envoie et reçoit tout type de trafic réseau. None La carte Ethernet partagée n’envoie ni ne reçoit aucune trafic réseau. Number of Times Server became Backup Nombre de fois où la carte Ethernet partagée active est devenue inactive suite à un incident. Number of Times Server became Primary Nombre de fois où la carte Ethernet partagée inactive est devenue inactive suite à une défaillance de la carte Ethernet partagée principale. Virtual I/O Server 185 Tableau 50. Description des statistiques relatives à la reprise par transfert d’une carte Ethernet partagée (suite) Statistique Description High Availability Mode Comportement de la carte Ethernet partagée concernant le protocole de reprise par transfert de carte Ethernet partagée. Auto Le protocole de reprise par transfert de la carte Ethernet partagée détermine si la carte Ethernet partagée joue le rôle de carte Ethernet partagée principale ou de carte Ethernet partagée de secours. Standby La carte Ethernet partagée joue le rôle de carte de secours si une autre carte Ethernet partagée peut jouer le rôle de carte principale. En mode Standby, une carte Ethernet partagée principale devient carte Ethernet partagée de secours si une autre carte Ethernet partagée peut devenir carte Ethernet partagée principale. Priority Indique la priorité de liaison des cartes Ethernet virtuelles de la carte Ethernet partagée. A partir de cette information, le protocole de la carte Ethernet partagée détermine quelle carte Ethernet partagée joue le rôle de carte Ethernet partagée principale et quelle carte Ethernet partagée joue le rôle de carte Ethernet partagée de secours. La valeur est comprise entre 1 et 12 (plus le nombre faible, plus la priorité de la carte Ethernet partagée est élevée pour devenir carte principale). Exemples de statistiques L’exécution de la commande entstat -all renvoie des résultats du type suivant : ETHERNET STATISTICS (ent8) : Device Type: Shared Ethernet Adapter Hardware Address: 00:0d:60:0c:05:00 Elapsed Time: 3 days 20 hours 34 minutes 26 seconds Transmit Statistics: -------------------Packets: 7978002 Bytes: 919151749 Interrupts: 3 Transmit Errors: 0 Packets Dropped: 0 Receive Statistics: ------------------Packets: 5701362 Bytes: 664049607 Interrupts: 5523380 Receive Errors: 0 Packets Dropped: 0 Bad Packets: 0 Max Packets on S/W Transmit Queue: 2 S/W Transmit Queue Overflow: 0 Current S/W+H/W Transmit Queue Length: 1 Elapsed Time: 0 days 0 hours 0 minutes 0 seconds Broadcast Packets: 5312086 Broadcast Packets: 3740225 Multicast Packets: 265589 Multicast Packets: 194986 No Carrier Sense: 0 CRC Errors: 0 DMA Underrun: 0 DMA Overrun: 0 Lost CTS Errors: 0 Alignment Errors: 0 Max Collision Errors: 0 No Resource Errors: 0 Late Collision Errors: 0 Receive Collision Errors: 0 186 Virtual I/O Server Deferred: 0 SQE Test: 0 Timeout Errors: 0 Single Collision Count: 0 Multiple Collision Count: 0 Current HW Transmit Queue Length: 1 Packet Too Short Errors: 0 Packet Too Long Errors: 0 Packets Discarded by Adapter: 0 Receiver Start Count: 0 General Statistics: ------------------No mbuf Errors: 0 Adapter Reset Count: 0 Adapter Data Rate: 0 Driver Flags: Up Broadcast Running Simplex 64BitSupport ChecksumOffLoad DataRateSet -------------------------------------------------------------Statistics for adapters in the carte Ethernet partagée ent8 -------------------------------------------------------------Number of adapters: 2 SEA Flags: 00000001 < THREAD > VLAN IDs : ent7: 1 Real Side Statistics: Packets received: 5701344 Packets bridged: 5673198 Packets consumed: 3963314 Packets fragmented: 0 Packets transmitted: 28685 Packets dropped: 0 Virtual Side Statistics: Packets received: 0 Packets bridged: 0 Packets consumed: 0 Packets fragmented: 0 Packets transmitted: 5673253 Packets dropped: 0 Other Statistics: Output packets generated: 28685 Output packets dropped: 0 Device output failures: 0 Memory allocation failures: 0 ICMP error packets sent: 0 Non IP packets larger than MTU: 0 Thread queue overflow packets: 0 High Availability Statistics: Control Channel PVID: 99 Control Packets in: 0 Control Packets out: 818825 Type of Packets Received: Keep-Alive Packets: 0 Recovery Packets: 0 Notify Packets: 0 Limbo Packets: 0 State: LIMBO Bridge Mode: All Number of Times Server became Backup: 0 Number of Times Server became Primary: 0 High Availability Mode: Auto Priority: 1 -------------------------------------------------------------Real Adapter: ent2 ETHERNET STATISTICS (ent2) : Device Type: 10/100 Mbps Ethernet PCI Adapter II (1410ff01) Virtual I/O Server 187 Hardware Address: 00:0d:60:0c:05:00 Transmit Statistics: -------------------Packets: 28684 Bytes: 3704108 Interrupts: 3 Transmit Errors: 0 Packets Dropped: 0 Receive Statistics: ------------------Packets: 5701362 Bytes: 664049607 Interrupts: 5523380 Receive Errors: 0 Packets Dropped: 0 Bad Packets: 0 Max Packets on S/W Transmit Queue: 2 S/W Transmit Queue Overflow: 0 Current S/W+H/W Transmit Queue Length: 1 Broadcast Packets: 21 Multicast Packets: 0 No Carrier Sense: 0 DMA Underrun: 0 Lost CTS Errors: 0 Max Collision Errors: 0 Late Collision Errors: 0 Deferred: 0 SQE Test: 0 Timeout Errors: 0 Single Collision Count: 0 Multiple Collision Count: 0 Current HW Transmit Queue Length: 1 Broadcast Packets: 3740225 Multicast Packets: 194986 CRC Errors: 0 DMA Overrun: 0 Alignment Errors: 0 No Resource Errors: 0 Receive Collision Errors: 0 Packet Too Short Errors: 0 Packet Too Long Errors: 0 Packets Discarded by Adapter: 0 Receiver Start Count: 0 General Statistics: ------------------No mbuf Errors: 0 Adapter Reset Count: 0 Adapter Data Rate: 200 Driver Flags: Up Broadcast Running Simplex Promiscuous AlternateAddress 64BitSupport ChecksumOffload PrivateSegment LargeSend DataRateSet 10/100 Mbps Ethernet PCI Adapter II (1410ff01) Specific Statistics: -----------------------------------------------------------------------Link Status: Up Media Speed Selected: Auto negotiation Media Speed Running: 100 Mbps Full Duplex Receive Pool Buffer Size: 1024 No Receive Pool Buffer Errors: 0 Receive Buffer Too Small Errors: 0 Entries to transmit timeout routine: 0 Transmit IPsec packets: 0 Transmit IPsec packets dropped: 0 Receive IPsec packets: 0 Receive IPsec SA offload count: 0 Transmit Large Send packets: 0 Transmit Large Send packets dropped: 0 Packets with Transmit collisions: 1 collisions: 0 6 collisions: 0 11 collisions: 0 2 collisions: 0 7 collisions: 0 12 collisions: 0 3 collisions: 0 8 collisions: 0 13 collisions: 0 4 collisions: 0 9 collisions: 0 14 collisions: 0 5 collisions: 0 10 collisions: 0 15 collisions: 0 -------------------------------------------------------------Virtual Adapter: ent7 ETHERNET STATISTICS (ent7) : Device Type: Virtual I/O Ethernet Adapter (l-lan) Hardware Address: 8a:83:54:5b:4e:9a 188 Virtual I/O Server Transmit Statistics: -------------------Packets: 7949318 Bytes: 915447641 Interrupts: 0 Transmit Errors: 0 Packets Dropped: 0 Receive Statistics: ------------------Packets: 0 Bytes: 0 Interrupts: 0 Receive Errors: 0 Packets Dropped: 0 Bad Packets: 0 Max Packets on S/W Transmit Queue: 0 S/W Transmit Queue Overflow: 0 Current S/W+H/W Transmit Queue Length: 0 Broadcast Packets: 5312065 Multicast Packets: 265589 No Carrier Sense: 0 DMA Underrun: 0 Lost CTS Errors: 0 Max Collision Errors: 0 Late Collision Errors: 0 Deferred: 0 SQE Test: 0 Timeout Errors: 0 Single Collision Count: 0 Multiple Collision Count: 0 Current HW Transmit Queue Length: 0 Broadcast Packets: 0 Multicast Packets: 0 CRC Errors: 0 DMA Overrun: 0 Alignment Errors: 0 No Resource Errors: 0 Receive Collision Errors: 0 Packet Too Short Errors: 0 Packet Too Long Errors: 0 Packets Discarded by Adapter: 0 Receiver Start Count: 0 General Statistics: ------------------No mbuf Errors: 0 Adapter Reset Count: 0 Adapter Data Rate: 20000 Driver Flags: Up Broadcast Running Simplex Promiscuous AllMulticast 64BitSupport ChecksumOffload DataRateSet Virtual I/O Ethernet Adapter (l-lan) Specific Statistics: --------------------------------------------------------RQ Lingth: 4481 No Copy Buffers: 0 Trunk Adapter: True Priority: 1 Active: True Filter MCast Mode: False Filters: 255 Enabled: 1 Queued: 0 Overflow: 0 LAN State: Operational Hypervisor Send Failures: 2371664 Receiver Failures: 2371664 Send Errors: 0 Hypervisor Receive Failures: 0 ILLAN Attributes: 0000000000003103 [0000000000003103] PVID: 1 VIDs: None Switch ID: ETHERNET0 Buffers tiny small medium large huge Reg Alloc Min 512 512 512 512 512 512 128 128 128 24 24 24 24 24 24 Max 2048 2048 256 64 64 MaxA LowReg 512 512 512 512 128 128 24 24 24 24 -------------------------------------------------------------Virtual I/O Server 189 Control Adapter: ent9 ETHERNET STATISTICS (ent9) : Device Type: Virtual I/O Ethernet Adapter (l-lan) Hardware Address: 8a:83:54:5b:4e:9b Transmit Statistics: -------------------Packets: 821297 Bytes: 21353722 Interrupts: 0 Transmit Errors: 0 Packets Dropped: 0 Receive Statistics: ------------------Packets: 0 Bytes: 0 Interrupts: 0 Receive Errors: 0 Packets Dropped: 0 Bad Packets: 0 Max Packets on S/W Transmit Queue: 0 S/W Transmit Queue Overflow: 0 Current S/W+H/W Transmit Queue Length: 0 Broadcast Packets: 821297 Broadcast Packets: 0 Multicast Packets: 0 Multicast Packets: 0 No Carrier Sense: 0 CRC Errors: 0 DMA Underrun: 0 DMA Overrun: 0 Lost CTS Errors: 0 Alignment Errors: 0 Max Collision Errors: 0 No Resource Errors: 0 Late Collision Errors: 0 Receive Collision Errors: 0 Deferred: 0 Packet Too Short Errors: 0 SQE Test: 0 Packet Too Long Errors: 0 Timeout Errors: 0 Packets Discarded by Adapter: 0 Single Collision Count: 0 Receiver Start Count: 0 Multiple Collision Count: 0 Current HW Transmit Queue Length: 0 General Statistics: ------------------No mbuf Errors: 0 Adapter Reset Count: 0 Adapter Data Rate: 20000 Driver Flags: Up Broadcast Running Simplex 64BitSupport ChecksumOffload DataRateSet Virtual I/O Ethernet Adapter (l-lan) Specific Statistics: --------------------------------------------------------RQ Length: 4481 No Copy Buffers: 0 Trunk Adapter: False Filter MCast Mode: False Filters: 255 Enabled: 0 Queued: 0 Overflow: 0 LAN State: Operational Hypervisor Send Failures: 0 Receiver Failures: 0 Send Errors: 0 Hypervisor Receive Failures: 0 ILLAN Attributes: 0000000000003002 [0000000000003002] PVID: 99 VIDs: None Switch ID: ETHERNET0 Buffers tiny small 190 Reg Alloc Min 512 512 512 512 Virtual I/O Server Max MaxA LowReg 512 2048 512 512 2048 512 512 512 medium large huge 128 24 24 128 24 24 128 24 24 256 64 64 128 24 24 128 24 24 Statistiques relatives à une carte Ethernet partagée Informations et exemples sur les statistiques générales relatives à une carte Ethernet partagée, telles que les ID VLAN (ID de réseau local virtuel) et les informations sur les paquets. Description des statistiques Tableau 51. Description des statistiques relatives à une carte Ethernet partagée Statistique Description Number of adapters Nombre de cartes (carte réelle et toutes les cartes virtuelles). Remarque : Si vous utilisez la reprise par transfert de la carte Ethernet partagée, la carte du canal de contrôle n’est pas incluse. SEA flags Indique les fonctions actuellement exécutées par la carte Ethernet partagée. THREAD La carte Ethernet partagée fonctionne en mode unités d’exécution (les paquets entrants sont mis en file d’attente et traités par différentes unités d’exécution). Si cette indication n’apparaît pas, la carte fonctionne en mode interruption (les paquets sont traités au moment de leur réception). LARGESEND La fonction d’envoi volumineux a été activée sur la carte Ethernet partagée. JUMBO_FRAMES La fonction de grandes trames a été activée sur la carte Ethernet partagée. GVRP VLAN IDs La fonction GVRP a été activée sur la carte Ethernet partagée. Liste des ID de réseau local virtuel qui ont accès au réseau via la carte Ethernet partagée (inclut le PVID et les réseaux VLAN marqués). Virtual I/O Server 191 Tableau 51. Description des statistiques relatives à une carte Ethernet partagée (suite) Statistique Real adapters Description Packets received Nombre de paquets reçus sur le réseau physique. Packets bridged Nombre de paquets reçus sur le réseau physique et envoyés au réseau virtuel. Packets consumed Nombre de paquets reçus sur le réseau physique et adressés à l’interface configurée sur la carte Ethernet partagée. Packets fragmented Nombre de paquets reçus sur le réseau physique et fragmentés avant l’envoi au réseau virtuel. Les paquets sont fragmentés lorsque leur taille est supérieure à l’unité de transmission maximale (MTU) de la carte. Packets transmitted Nombre de paquets envoyés sur le réseau physique. Ce nombre inclut les paquets envoyés par l’interface configurée sur la carte Ethernet partagée, ainsi que les paquets envoyés par le réseau virtuel au réseau physique (y compris les fragments). Packets dropped Nombre de paquets reçus sur le réseau physique et supprimés pour l’une des raisons suivantes : v Le paquet est le plus ancien de la file d’attente des unités d’exécution et l’espace libre est insuffisant pour la réception d’un nouveau paquet. v Le paquet comporte un ID VLAN incorrect et ne peut pas être traité. v Le paquet est adressé à l’interface de la carte Ethernet partagée, mais aucun filtre n’a été enregistré sur celle-ci. 192 Virtual I/O Server Tableau 51. Description des statistiques relatives à une carte Ethernet partagée (suite) Statistique Virtual adapters Description Packets received Nombre de paquets reçus sur le réseau virtuel. Il s’agit du nombre de paquets reçus sur l’ensemble des cartes virtuelles. Packets bridged Nombre de paquets reçus sur le réseau virtuel et envoyés au réseau physique. Packets consumed Nombre de paquets reçus sur le réseau virtuel et adressés à l’interface configurée sur la carte Ethernet partagée. Packets fragmented Nombre de paquets reçus sur le réseau virtuel et fragmentés avant l’envoi au réseau physique. Les paquets sont fragmentés lorsque leur taille est supérieure à l’unité de transmission maximale (MTU) de la carte. Packets transmitted Nombre de paquets envoyés sur le réseau virtuel. Ce nombre inclut les paquets envoyés par l’interface configurée sur la carte Ethernet partagée, ainsi que les paquets envoyés par le réseau physique au réseau virtuel (y compris les fragments). Packets dropped Nombre de paquets reçus sur le réseau virtuel et supprimés pour l’une des raisons suivantes : v Le paquet est le plus ancien de la file d’attente des unités d’exécution et l’espace libre est insuffisant pour la réception d’un nouveau paquet. v Le paquet est adressé à l’interface de la carte Ethernet partagée, mais aucun filtre n’a été enregistré sur celle-ci. Output packets generated Nombre de paquets comportant une balise VLAN incorrecte ou aucune balise VLAN envoyés par l’interface configurée sur la carte Ethernet partagée. Output packets dropped Nombre de paquets envoyés par l’interface configurée sur la carte Ethernet partagée et supprimés à cause d’une balise VLAN incorrecte. Device output failures Nombre de paquets non envoyés suite à des erreurs sur l’unité sous-jacente. Il peut s’agir d’erreurs envoyées sur le réseau physique et le réseau virtuel, notamment les paquets subissant une erreur liée à la fragmentation et au protocole ICMP (Internet Control Message Protocol) provenant de la carte Ethernet partagée. Memory allocation failures Nombre de paquets non envoyés par manque de mémoire sur le réseau pour accomplir l’opération. Virtual I/O Server 193 Tableau 51. Description des statistiques relatives à une carte Ethernet partagée (suite) Statistique Description ICMP error packets sent Nombre de paquets en erreur ICMP envoyés avec succès en cas d’impossibilité de fragmentation de paquet volumineux due à la définition du bit don’t fragment. Non IP packets larger than MTU Nombre de paquets non envoyés pour les raisons suivantes : leur taille est supérieure à l’unité de transmission maximale (MTU) de la carte et leur fragmentation est impossible car ce ne sont pas des paquets IP. Thread queue overflow packets Nombre de paquets supprimés des files d’attente d’unités d’exécution à cause d’un espace insuffisant pour la réception d’un nouveau paquet. Exemples de statistiques ETHERNET STATISTICS (ent8) : Device Type: Shared Ethernet Adapter Hardware Address: 00:0d:60:0c:05:00 Elapsed Time: 3 days 20 hours 34 minutes 26 seconds Transmit Statistics: -------------------Packets: 7978002 Bytes: 919151749 Interrupts: 3 Transmit Errors: 0 Packets Dropped: 0 Receive Statistics: ------------------Packets: 5701362 Bytes: 664049607 Interrupts: 5523380 Receive Errors: 0 Packets Dropped: 0 Bad Packets: 0 Max Packets on S/W Transmit Queue: 2 S/W Transmit Queue Overflow: 0 Current S/W+H/W Transmit Queue Length: 1 Elapsed Time: 0 days 0 hours 0 minutes 0 seconds Broadcast Packets: 5312086 Broadcast Packets: 3740225 Multicast Packets: 265589 Multicast Packets: 194986 No Carrier Sense: 0 CRC Errors: 0 DMA Underrun: 0 DMA Overrun: 0 Lost CTS Errors: 0 Alignment Errors: 0 Max Collision Errors: 0 No Resource Errors: 0 Late Collision Errors: 0 Receive Collision Errors: 0 Deferred: 0 Packet Too Short Errors: 0 SQE Test: 0 Packet Too Long Errors: 0 Timeout Errors: 0 Packets Discarded by Adapter: 0 Single Collision Count: 0 Receiver Start Count: 0 Multiple Collision Count: 0 Current HW Transmit Queue Length: 1 General Statistics: ------------------No mbuf Errors: 0 Adapter Reset Count: 0 Adapter Data Rate: 0 Driver Flags: Up Broadcast Running Simplex 64BitSupport ChecksumOffLoad DataRateSet -------------------------------------------------------------Statistics for adapters in the carte Ethernet partagée ent8 -------------------------------------------------------------Number of adapters: 2 SEA Flags: 00000001 < THREAD > 194 Virtual I/O Server VLAN IDs : ent7: 1 Real Side Statistics: Packets received: 5701344 Packets bridged: 5673198 Packets consumed: 3963314 Packets fragmented: 0 Packets transmitted: 28685 Packets dropped: 0 Virtual Side Statistics: Packets received: 0 Packets bridged: 0 Packets consumed: 0 Packets fragmented: 0 Packets transmitted: 5673253 Packets dropped: 0 Other Statistics: Output packets generated: 28685 Output packets dropped: 0 Device output failures: 0 Memory allocation failures: 0 ICMP error packets sent: 0 Non IP packets larger than MTU: 0 Thread queue overflow packets: 0 -------------------------------------------------------------Real Adapter: ent2 ETHERNET STATISTICS (ent2) : Device Type: 10/100 Mbps Ethernet PCI Adapter II (1410ff01) Hardware Address: 00:0d:60:0c:05:00 Transmit Statistics: -------------------Packets: 28684 Bytes: 3704108 Interrupts: 3 Transmit Errors: 0 Packets Dropped: 0 Receive Statistics: ------------------Packets: 5701362 Bytes: 664049607 Interrupts: 5523380 Receive Errors: 0 Packets Dropped: 0 Bad Packets: 0 Max Packets on S/W Transmit Queue: 2 S/W Transmit Queue Overflow: 0 Current S/W+H/W Transmit Queue Length: 1 Broadcast Packets: 21 Multicast Packets: 0 No Carrier Sense: 0 DMA Underrun: 0 Lost CTS Errors: 0 Max Collision Errors: 0 Late Collision Errors: 0 Deferred: 0 SQE Test: 0 Timeout Errors: 0 Single Collision Count: 0 Multiple Collision Count: Current HW Transmit Queue Broadcast Packets: 3740225 Multicast Packets: 194986 CRC Errors: 0 DMA Overrun: 0 Alignment Errors: 0 No Resource Errors: 0 Receive Collision Errors: 0 Packet Too Short Errors: 0 Packet Too Long Errors: 0 Packets Discarded by Adapter: 0 Receiver Start Count: 0 0 Length: 1 General Statistics: ------------------No mbuf Errors: 0 Adapter Reset Count: 0 Adapter Data Rate: 200 Driver Flags: Up Broadcast Running Simplex Promiscuous AlternateAddress 64BitSupport ChecksumOffload PrivateSegment LargeSend DataRateSet Virtual I/O Server 195 10/100 Mbps Ethernet PCI Adapter II (1410ff01) Specific Statistics: -----------------------------------------------------------------------Link Status: Up Media Speed Selected: Auto negotiation Media Speed Running: 100 Mbps Full Duplex Receive Pool Buffer Size: 1024 No Receive Pool Buffer Errors: 0 Receive Buffer Too Small Errors: 0 Entries to transmit timeout routine: 0 Transmit IPsec packets: 0 Transmit IPsec packets dropped: 0 Receive IPsec packets: 0 Receive IPsec SA offload count: 0 Transmit Large Send packets: 0 Transmit Large Send packets dropped: 0 Packets with Transmit collisions: 1 collisions: 0 6 collisions: 0 11 collisions: 0 2 collisions: 0 7 collisions: 0 12 collisions: 0 3 collisions: 0 8 collisions: 0 13 collisions: 0 4 collisions: 0 9 collisions: 0 14 collisions: 0 5 collisions: 0 10 collisions: 0 15 collisions: 0 -------------------------------------------------------------Virtual Adapter: ent7 ETHERNET STATISTICS (ent7) : Device Type: Virtual I/O Ethernet Adapter (l-lan) Hardware Address: 8a:83:54:5b:4e:9a Transmit Statistics: -------------------Packets: 7949318 Bytes: 915447641 Interrupts: 0 Transmit Errors: 0 Packets Dropped: 0 Receive Statistics: ------------------Packets: 0 Bytes: 0 Interrupts: 0 Receive Errors: 0 Packets Dropped: 0 Bad Packets: 0 Max Packets on S/W Transmit Queue: 0 S/W Transmit Queue Overflow: 0 Current S/W+H/W Transmit Queue Length: 0 Broadcast Packets: 5312065 Broadcast Packets: 0 Multicast Packets: 265589 Multicast Packets: 0 No Carrier Sense: 0 CRC Errors: 0 DMA Underrun: 0 DMA Overrun: 0 Lost CTS Errors: 0 Alignment Errors: 0 Max Collision Errors: 0 No Resource Errors: 0 Late Collision Errors: 0 Receive Collision Errors: 0 Deferred: 0 Packet Too Short Errors: 0 SQE Test: 0 Packet Too Long Errors: 0 Timeout Errors: 0 Packets Discarded by Adapter: 0 Single Collision Count: 0 Receiver Start Count: 0 Multiple Collision Count: 0 Current HW Transmit Queue Length: 0 General Statistics: ------------------No mbuf Errors: 0 Adapter Reset Count: 0 Adapter Data Rate: 20000 Driver Flags: Up Broadcast Running Simplex Promiscuous AllMulticast 64BitSupport ChecksumOffload DataRateSet Virtual I/O Ethernet Adapter (l-lan) Specific Statistics: 196 Virtual I/O Server --------------------------------------------------------RQ Lingth: 4481 No Copy Buffers: 0 Trunk Adapter: True Priority: 1 Active: True Filter MCast Mode: False Filters: 255 Enabled: 1 Queued: 0 Overflow: 0 LAN State: Operational Hypervisor Send Failures: 2371664 Receiver Failures: 2371664 Send Errors: 0 Hypervisor Receive Failures: 0 ILLAN Attributes: 0000000000003103 [0000000000003103] PVID: 1 VIDs: None Switch ID: ETHERNET0 Buffers tiny small medium large huge Reg Alloc Min 512 512 512 512 512 512 128 128 128 24 24 24 24 24 24 Max 2048 2048 256 64 64 MaxA LowReg 512 512 512 512 128 128 24 24 24 24 Types d’utilisateur pour le serveur Virtual I/O Server Cette rubrique décrit les types d’utilisateur du serveur Virtual I/O Server et leurs droits. Virtual I/O Server dispose des types d’utilisateur suivants : administrateur principal, administrateur système, utilisateur technicien de maintenance et utilisateur ingénieur de développement. Après l’installation, le seul type d’utilisateur actif est l’administrateur principal. Administrateur principal L’ID utilisateur de l’administrateur principal (padmin) est le seul ID utilisateur activé après l’installation de Virtual I/O Server. Il peut exécuter toutes les commandes du serveur Virtual I/O Server. Il ne peut y avoir qu’un seul administrateur principal sur le serveur Virtual I/O Server. Administrateur système L’ID utilisateur administrateur système a accès à toutes les commandes, à l’exception des suivantes : v lsfailedlogin v lsgcl v Commande mirrorios v Commande mkuser v v v v oem_setup_env Commande rmuser Commande shutdown Commande unmirrorios L’administrateur principal peut créer un nombre illimité d’ID d’administrateur système. Virtual I/O Server 197 Technicien de maintenance Créez le type d’utilisateur technicien de maintenance (SR) pour permettre à un technicien de maintenance de se connecter au système afin de réaliser des routines de diagnostic. Une fois connecté, l’utilisateur technicien de maintenance est dirigé directement vers les menus de diagnostic. Ingénieur de développement Créez le type d’utilisateur ingénieur de développement pour permettre à un ingénieur de développement de se connecter au système et de résoudre les incidents. Affichage Ce rôle autorise uniquement les opérations en lecture seule et ne permet d’exécuter que les fonctions de type ls. Les utilisateurs dotés de ce rôle ne sont pas autorisés à modifier la configuration du système et ne disposent pas des droits d’écriture dans leur répertoire de base. 198 Virtual I/O Server Remarques Le présent document peut contenir des informations ou des références concernant certains produits, logiciels ou services du fabricant non annoncés dans ce pays. Le présent document peut contenir des informations ou des références concernant certains produits, logiciels ou services non annoncés dans ce pays. Pour plus de détails sur les produits et services actuellement disponibles dans votre pays, adressez-vous au partenaire commercial du fabricant. Toute référence à un produit, logiciel ou service du fabricant n’implique pas que seul ce produit, logiciel ou service puisse convenir. Tout autre élément fonctionnellement équivalent peut être utilisé, s’il n’enfreint aucun droit du fabricant. Il est de la responsabilité de l’utilisateur d’évaluer et de vérifier lui-même les installations et applications réalisées avec des produits, logiciels ou services non expressément référencés par le fabricant. Le fabricant peut détenir des brevets ou des demandes de brevet couvrant les produits mentionnés dans le présent document. La remise de ce document ne vous donne aucun droit de licence sur ces brevets ou demandes de brevet. Si vous désirez recevoir des informations concernant l’acquisition de licences, veuillez en faire la demande par écrit à l’adresse suivante : Les informations relatives aux licences des produits utilisant un jeu de caractères double octet peuvent être obtenues par écrit auprès du fabricant. Le paragraphe suivant ne s’applique ni au Royaume-Uni, ni dans aucun pays dans lequel il serait contraire aux lois locales. LE PRESENT DOCUMENT EST LIVRE «EN L’ETAT» SANS AUCUNE GARANTIE EXPLICITE OU IMPLICITE. LE FABRICANT DECLINE NOTAMMENT TOUTE RESPONSABILITE RELATIVE A CES INFORMATIONS EN CAS DE CONTREFAÇON AINSI QU’EN CAS DE DEFAUT D’APTITUDE A L’EXECUTION D’UN TRAVAIL DONNE. Certaines juridictions n’autorisent pas l’exclusion des garanties implicites, auquel cas l’exclusion ci-dessus ne vous sera pas applicable. Le présent document peut contenir des inexactitudes ou des coquilles. Ce document est mis à jour périodiquement. Chaque nouvelle édition inclut les mises à jour. Le fabricant peut modifier sans préavis les produits et logiciels décrits dans ce document. Les références à des sites Web non référencés par le fabricant sont fournies à titre d’information uniquement et n’impliquent en aucun cas une adhésion aux données qu’ils contiennent. Les éléments figurant sur ces sites Web ne font pas partie des éléments du présent produit et l’utilisation de ces sites relève de votre seule responsabilité. Le fabricant pourra utiliser ou diffuser, de toute manière qu’il jugera appropriée et sans aucune obligation de sa part, tout ou partie des informations qui lui seront fournies. Les licenciés souhaitant obtenir des informations permettant : (i) l’échange des données entre des logiciels créés de façon indépendante et d’autres logiciels (dont celui-ci), et (ii) l’utilisation mutuelle des données ainsi échangées, doivent adresser leur demande à : Ces informations peuvent être soumises à des conditions particulières, prévoyant notamment le paiement d’une redevance. Le logiciel sous licence décrit dans ce document et toutes les éléments sous licence disponibles s’y rapportant sont fournis par IBM conformément aux dispositions du Livret Contractuel IBM, des Conditions Internationales d’Utilisation de Logiciels IBM, des Conditions d’Utilisation du Code Machine ou de toute autre contrat équivalent. 199 Les données de performance indiquées dans ce document ont été déterminées dans un environnement contrôlé. Par conséquent, les résultats peuvent varier de manière significative selon l’environnement d’exploitation utilisé. Certaines mesures évaluées sur des systèmes en cours de développement ne sont pas garanties sur tous les systèmes disponibles. En outre, elles peuvent résulter d’extrapolations. Les résultats peuvent donc varier. Il incombe aux utilisateurs de ce document de vérifier si ces données sont applicables à leur environnement d’exploitation. Les informations concernant les produits de fabricants tiers ont été obtenues auprès des fournisseurs de ces produits, par l’intermédiaire d’annonces publiques ou via d’autres sources disponibles. Ce fabricant n’a pas testé ces produits et ne peut confirmer l’exactitude de leurs performances ni leur compatibilité. Il ne peut recevoir aucune réclamation concernant des produits de fabricants tiers. Toute question concernant les performances de produits de fabricants tiers doit être adressée aux fournisseurs de ces produits. Toute instruction relative aux intentions du fabricant pour ses opérations à venir est susceptible d’être modifiée ou annulée sans préavis, et doit être considérée uniquement comme un objectif. Tous les tarifs indiqués sont les prix de vente actuels suggérés par le fabricant et sont susceptibles d’être modifiés sans préavis. Les tarifs appliqués peuvent varier selon les revendeurs. Ces informations sont fournies uniquement à titre de planification. Elles sont susceptibles d’être modifiées avant la mise à disposition des produits décrits. Le présent document peut contenir des exemples de données et de rapports utilisés couramment dans l’environnement professionnel. Ces exemples mentionnent des noms fictifs de personnes, de sociétés, de marques ou de produits à des fins illustratives ou explicatives uniquement. Tous ces noms sont fictifs et toute ressemblance avec des noms et adresses utilisés par une entreprise réelle serait purement fortuite. LICENCE DE COPYRIGHT : Le présent logiciel contient des exemples de programmes d’application en langage source destinés à illustrer les techniques de programmation sur différentes plateformes d’exploitation. Vous avez le droit de copier, de modifier et de distribuer ces exemples de programmes sous quelque forme que ce soit et sans paiement d’aucune redevance au fabricant, à des fins de développement, d’utilisation, de vente ou de distribution de programmes d’application conformes aux interfaces de programmation des plateformes pour lesquels ils ont été écrits ou aux interfaces de programmation IBM. Ces exemples de programmes n’ont pas été rigoureusement testés dans toutes les conditions. Par conséquent, le fabricant ne peut garantir expressément ou implicitement la fiabilité, la maintenabilité ou le fonctionnement de ces programmes. Toute copie totale ou partielle de ces programmes exemples et des oeuvres qui en sont dérivées doit comprendre une notice de copyright, libellée comme suit : © (nom de votre entreprise) (année). Des segments de code sont dérivés des Programmes exemples d’IBM Corp. © Copyright IBM Corp. _entrez l’année ou les années_. Tous droits réservés. Si vous visualisez ces informations en ligne, il se peut que les photographies et illustrations en couleur n’apparaissent pas à l’écran. Documentation sur l’interface de programmation La publication (AJOUTEZ ICI LE NOM DE LA PUBLICATION) décrit des interfaces de programmation qui permettent au client d’écrire des programmes capables d’obtenir les services de (AJOUTEZ ICI LE NOM DU PRODUIT). 200 Virtual I/O Server Marques IBM, le logo IBM et ibm.com sont des marques d’International Business Machines, déposées dans de nombreux pays. D’autres sociétés sont propriétaires des autres marques, noms de produits ou logos. La liste actualisée de toutes les marques d’IBM est disponible sur la page Web Copyright and trademark information à www.ibm.com/legal/copytrade.shtml. Linux est une marque de Linus Torvalds aux Etats-Unis et/ou dans certains autres pays. Microsoft et Windows sont des marques de Microsoft Corporation aux Etats-Unis et/ou dans certains autres pays. Red Hat, le logo Red Hat ″Shadow Man″ et tous les logos et toutes les marques de Red Hat sont des marques de Red Hat Inc. aux Etats-Unis et/ou dans certains autres pays. UNIX est une marque enregistrée de The Open Group aux Etats-Unis et/ou dans certains autres pays. Les autres noms de sociétés, de produits et de services peuvent appartenir à des tiers. Dispositions Les droits d’utilisation relatifs à ces publications sont soumis aux dispositions suivantes. Usage personnel : Vous pouvez reproduire ces publications pour votre usage personnel, non commercial, sous réserve que toutes les mentions de propriété soient conservées. Vous ne pouvez distribuer ou publier tout ou partie de ces publications ou en faire des oeuvres dérivées, sans le consentement exprès du fabricant. Usage commercial : Vous pouvez reproduire, distribuer et afficher ces publications uniquement au sein de votre entreprise, sous réserve que toutes les mentions de propriété soient conservées. Vous ne pouvez reproduire, distribuer, afficher ou publier tout ou partie de ces publications en dehors de votre entreprise, ou en faire des oeuvres dérivées, sans le consentement exprès du fabricant. Excepté les droits d’utilisation expressément accordés dans ce document, aucun autre droit, licence ou autorisation, implicite ou explicite, n’est accordé pour ces publications ou autres données, logiciels ou droits de propriété intellectuelle contenus dans ces publications. Le fabricant se réserve le droit de retirer les autorisations accordées dans le présent document si l’utilisation des publications s’avère préjudiciable à ses intérêts ou que, selon son appréciation, les instructions susmentionnées n’ont pas été respectées. Vous ne pouvez télécharger, exporter ou réexporter ces informations qu’en total accord avec toutes les lois et règlements applicables dans votre pays, y compris les lois et règlements américains relatifs à l’exportation. LE FABRICANT NE DONNE AUCUNE GARANTIE SUR LE CONTENU DE CES PUBLICATIONS. CES PUBLICATIONS SONT LIVREES EN L’ETAT SANS AUCUNE GARANTIE EXPLICITE OU IMPLICITE. LE FABRICANT DECLINE NOTAMMENT TOUTE RESPONSABILITE RELATIVE A CES INFORMATIONS EN CAS DE CONTREFAÇON AINSI QU’EN CAS DE DEFAUT D’APTITUDE A L’EXECUTION D’UN TRAVAIL DONNE. Remarques 201 202 Virtual I/O Server BULL CEDOC 357 AVENUE PATTON B.P.20845 49008 ANGERS CEDEX 01 FRANCE REFERENCE 86 F1 81FA 01