Bull Power6 - Advanced POWER Manuel utilisateur

Ajouter à Mes manuels
349 Des pages
Bull Power6 - Advanced POWER Manuel utilisateur | Fixfr
REFERENCE
86 F1 40EV 03
ESCALA
Guide d’utilisation
de PowerVM
Editions
ESCALA
Guide d’utilisation de
PowerVM Editions
Matériel
Juillet 2008
BULL CEDOC
357 AVENUE PATTON
B.P.20845
49008 ANGERS CEDEX 01
FRANCE
REFERENCE
86 F1 40EV 03
L’avis juridique de copyright ci–après place le présent document sous la protection des lois de Copyright qui
prohibent, sans s’y limiter, des actions comme la copie, la distribution, la modification et la création de produits
dérivés.
Copyright © IBM 2007-2008
Copyright © Bull SAS 2007-2008
Imprimé en France
Marques déposées
Toutes les marques citées dans ce manuel sont la propriété de leurs détenteurs respectifs.
Tous les noms de marques ainsi que les noms de produits matériels et/ou logiciels sont régis par le droit des
marques et/ou des brevets.
La citation des noms de marques et de produits est purement informative et ne constitue pas une violation du droit
des marques et/ou des brevets.
Des corrections ou des modifications au contenu de ce document peuvent intervenir sans préavis. Bull SAS
ne pourra pas être tenu pour responsable des éventuelles erreurs qui pourraient y être contenues dans ce
manuel, ni pour tout dommage pouvant résulter de son application.
Table des matières
Avis aux lecteurs canadiens . . . . . . . . . . . . . . . . . . . . . . . . . . . xi
A propos de cette publication . . . . . . . . . . . . . . . . . . . . . . . . . . xv
Procédure d’envoi de commentaires .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. xv
Chapitre 1. PowerVM Editions . . . . . . . . . . . . . . . . . . . . . . . . . . 1
PowerVM Editions . . . . . . .
Technologie Micro-Partitioning . . .
Serveur d’E-S virtuel. . . . . . .
Integrated Virtualization Manager . .
Live Partition Mobility . . . . . .
Gestionnaire de chargement de partition
PowerVM Lx86 . . . . . . . .
. . . .
. . . .
. . . .
. . . .
. . . .
pour AIX
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
3
3
3
4
5
5
Chapitre 2. Technologie Micro-Partitioning . . . . . . . . . . . . . . . . . . . . . 7
Processeurs partagés . . . . . . .
Processeurs virtuels . . . . . . .
Saisie du code d’activation de PowerVM
Saisie du code d’activation de PowerVM
Saisie du code d’activation de PowerVM
. . .
. . .
Editions
Editions
Editions
. . . . . . . . . . . . . . . . . . . . . . . 7
. . . . . . . . . . . . . . . . . . . . . . . 9
via Integrated Virtualization Manager . . . . . . . . . 10
via la console HMC version 7 . . . . . . . . . . . . 11
via la console HMC version 6 . . . . . . . . . . . . 11
Chapitre 3. Serveur d’E-S virtuel . . . . . . . . . . . . . . . . . . . . . . . . . 13
serveur d’E-S virtuel Présentation . . . . . . . . . . . . . . . . . . . . . . . .
Interface SCSI virtuelle . . . . . . . . . . . . . . . . . . . . . . . . . .
Présentation du sous-système de stockage du serveur d’E-S virtuel . . . . . . . . . . .
Mémoire physique . . . . . . . . . . . . . . . . . . . . . . . . . . .
Volumes physiques . . . . . . . . . . . . . . . . . . . . . . . . . .
Volumes logiques . . . . . . . . . . . . . . . . . . . . . . . . . .
Référentiel de supports virtuels . . . . . . . . . . . . . . . . . . . . . .
Pools de stockage . . . . . . . . . . . . . . . . . . . . . . . . . .
Unités optiques . . . . . . . . . . . . . . . . . . . . . . . . . . .
Stockage virtuel . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Disque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Optique . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Unités de mappage . . . . . . . . . . . . . . . . . . . . . . . . . . .
Réseaux virtuels . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Carte de réseau Ethernet hôte . . . . . . . . . . . . . . . . . . . . . . .
Internet Protocol version 6 . . . . . . . . . . . . . . . . . . . . . . . .
Unités d’Agrégation de liaisons ou EtherChannel . . . . . . . . . . . . . . . . .
Cartes Ethernet virtuelles . . . . . . . . . . . . . . . . . . . . . . . . .
Réseaux locaux virtuels (VLAN) . . . . . . . . . . . . . . . . . . . . . .
Cartes Ethernet partagées . . . . . . . . . . . . . . . . . . . . . . . . .
Gestion du serveur d’E-S virtuel . . . . . . . . . . . . . . . . . . . . . . .
Interface de ligne de commande du serveur d’E-S virtuel . . . . . . . . . . . . . .
Logiciel Tivoli et le serveur d’E-S virtuel . . . . . . . . . . . . . . . . . . .
Scénarios de configuration relatifs au serveur d’E-S virtuel . . . . . . . . . . . . . . .
Scénario : Configuration d’un serveur d’E-S virtuel sans marquage VLAN . . . . . . . . .
Scénario : Configuration d’un serveur d’E-S virtuel avec marquage VLAN . . . . . . . . .
Scénario : Configuration de la reprise par transfert de carte de réseau Ethernet partagée . . . .
Scénario : Configuration de la fonction de sauvegarde via l’interface réseau sur les partitions logiques
AIX sans marquage VLAN . . . . . . . . . . . . . . . . . . . . . . . . .
Scénario : configuration de la fonction MPIO (Multi-Path I/O) pour les partitions logiques client AIX
Planification du serveur d’E-S virtuel . . . . . . . . . . . . . . . . . . . . . . .
Spécifications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
client
. . .
. . .
. . .
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
13
16
17
18
18
18
21
22
23
23
23
24
25
25
25
27
27
27
28
28
30
30
32
34
35
37
39
.
.
.
.
42
44
47
47
iii
Limites et restrictions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Prévision de la capacité . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Planification de l’interface SCSI virtuelle . . . . . . . . . . . . . . . . . . . . . . .
Temps d’attente de l’interface SCSI virtuelle . . . . . . . . . . . . . . . . . . . .
Bande passante de l’interface SCSI virtuelle. . . . . . . . . . . . . . . . . . . . .
Considérations sur le dimensionnement de l’interface SCSI virtuelle . . . . . . . . . . . .
Planification des cartes Ethernet partagées . . . . . . . . . . . . . . . . . . . . . .
Configuration requise pour le réseau . . . . . . . . . . . . . . . . . . . . . . .
Sélection de cartes . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Allocation de processeur . . . . . . . . . . . . . . . . . . . . . . . . . . .
Allocation de mémoire . . . . . . . . . . . . . . . . . . . . . . . . . . .
Remarques relatives à la redondance . . . . . . . . . . . . . . . . . . . . . . . . .
Partitions logiques client . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Fonction MPIO (Multipath I/O) . . . . . . . . . . . . . . . . . . . . . . . .
Fonction miroir des partitions logiques client . . . . . . . . . . . . . . . . . . . .
Multitraitement de cluster haute disponibilité (HACMP) . . . . . . . . . . . . . . . .
Unités d’Agrégation de liaisons ou EtherChannel . . . . . . . . . . . . . . . . . . .
Reprise par transfert de carte de réseau Ethernet partagée . . . . . . . . . . . . . . . .
Partition logique du serveur d’E-S virtuel . . . . . . . . . . . . . . . . . . . . . .
Fonction multi-path (multi-accès) . . . . . . . . . . . . . . . . . . . . . . . .
RAID . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Unités d’Agrégation de liaisons ou EtherChannel . . . . . . . . . . . . . . . . . . .
Remarques sur la sécurité . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Installation du serveur d’E-S virtuel et des partitions logiques client . . . . . . . . . . . . . . .
Installation du serveur d’E-S virtuelet des partitions logiques client en déployant une planification système .
Saisie du code d’activation de PowerVM Editions via la console HMC version 7 . . . . . . . . .
Importation d’une planification système dans une console HMC version 7 . . . . . . . . . . .
Déploiement d’une planification système via la console HMC version 7 . . . . . . . . . . . .
Finalisation de l’installation du serveur d’E-S virtuel . . . . . . . . . . . . . . . . . .
Installation manuelle du serveur d’E-S virtuel via la console HMC version 7 . . . . . . . . . . .
Saisie du code d’activation de PowerVM Editions via la console HMC version 7 . . . . . . . . .
Création de la partition logique et du profil de partition du serveur d’E-S virtuel via la console HMC
version 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Installation du serveur d’E-S virtuel à partir de la console HMC . . . . . . . . . . . . . . .
Installation du serveur d’E-S virtuel à partir d’un CD ou d’un DVD . . . . . . . . . . . . .
Finalisation de l’installation du serveur d’E-S virtuel . . . . . . . . . . . . . . . . . .
Affichage et acceptation du contrat de licence du serveur d’E-S virtuel . . . . . . . . . . .
Installation manuelle du serveur d’E-S virtuel à l’aide de la console HMC version 6 . . . . . . . . .
Saisie du code d’activation de PowerVM Editions via la console HMC version 6 . . . . . . . . .
Création de la partition logique et du profil de partition du serveur d’E-S virtuel à l’aide la console HMC
version 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Installation du serveur d’E-S virtuel à partir de la console HMC . . . . . . . . . . . . . . .
Installation du serveur d’E-S virtuel à partir d’un CD ou d’un DVD . . . . . . . . . . . . .
Finalisation de l’installation du serveur d’E-S virtuel . . . . . . . . . . . . . . . . . .
Configuration de la console serveur d’E-S virtuel . . . . . . . . . . . . . . . . . . . . . .
Configuration d’unités SCSI virtuelles sur le serveur d’E-S virtuel . . . . . . . . . . . . . . .
Création de l’unité cible virtuelle sur le serveur d’E-S virtuel . . . . . . . . . . . . . . . .
Création d’une unité cible virtuelle sur le serveur d’E-S virtuel avec mappage sur un un volume logique
ou physique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Création d’une unité cible virtuelle sur le serveur d’E-S virtuel avec mappage sur un fichier ou un
volume logique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Création d’une unité cible virtuelle sur le serveur d’E-S virtuel avec mappage sur une unité optique
virtuelle associée à un fichier . . . . . . . . . . . . . . . . . . . . . . . . .
Création de pools de stockage de volumes logiques sur le serveur d’E-S virtuel . . . . . . . . .
Création de pools de stockage de fichiers sur le serveur d’E-S virtuel . . . . . . . . . . . . .
Création du référentiel de supports virtuels sur le serveur d’E-S virtuel . . . . . . . . . . . .
Création de volumes logiques et de groupes de volumes sur le serveur d’E-S virtuel . . . . . . . .
Configuration du serveur d’E-S virtuel pour la prise en charge des fonctions de verrouillage SCSI-2 . . .
Identification des disques exportables . . . . . . . . . . . . . . . . . . . . . . .
Configuration d’unités Ethernet virtuelles sur le serveur d’E-S virtuel . . . . . . . . . . . . . .
Création d’une carte de réseau Ethernet partagée via la console HMC version 7 . . . . . . . . .
iv
Guide d’utilisation de PowerVM Editions
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
48
49
49
49
50
51
53
53
54
57
59
59
60
60
61
61
62
62
63
63
63
64
64
65
65
66
66
68
72
73
73
.
.
.
.
.
.
.
74
75
75
77
77
78
78
.
.
.
.
.
.
.
79
80
80
82
83
83
83
. 83
. 85
.
.
.
.
.
.
.
.
.
86
87
87
88
88
89
90
91
91
Création d’une carte de réseau Ethernet partagée via la console HMC version 6 . . . . . . . . .
Configuration d’une carte de réseau Ethernet partagée . . . . . . . . . . . . . . . . . .
Configuration d’une unité d’Agrégation de liaisons ou EtherChannel . . . . . . . . . . . . .
Configuration des agents et des clients Tivoli sur le serveur d’E-S virtuel . . . . . . . . . . . . .
Configuration de l’agent Tivoli Monitoring . . . . . . . . . . . . . . . . . . . . . .
Configuration de l’agent Tivoli Usage and Accounting Manager . . . . . . . . . . . . . . .
Configuration du client Tivoli Storage Manager . . . . . . . . . . . . . . . . . . . .
Installation et configuration des agents TotalStorage Productivity Center . . . . . . . . . . . .
Configuration du serveur d’E-S virtuel en tant que client LDAP . . . . . . . . . . . . . . .
Gestion du serveur d’E-S virtuel . . . . . . . . . . . . . . . . . . . . . . . . . . .
Gestion de la mémoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Importation et exportation de groupes de volumes et de pools de stockage de volumes logiques . . .
Importation de groupes de volumes et de pools de stockage de volumes logiques . . . . . . .
Exportation de groupes de volumes et de pools de stockage de volumes logiques . . . . . . .
Mappage de disques virtuels sur des disques physiques . . . . . . . . . . . . . . . . .
Augmentation de la capacité de l’unité . . . . . . . . . . . . . . . . . . . . . . .
Modification de la longueur de file d’attente de l’interface SCSI virtuelle . . . . . . . . . . .
Sauvegarde et restauration de fichiers et de systèmes de fichiers . . . . . . . . . . . . . .
Gestion du stockage à l’aide d’ TotalStorage Productivity Center . . . . . . . . . . . . . .
Gestion des réseaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Modification de la configuration réseau de la partition logique du serveur d’E-S virtuel . . . . . .
Activation et désactivation du protocole GVRP . . . . . . . . . . . . . . . . . . . .
Gestion du protocole SNMP sur le serveur d’E-S virtuel . . . . . . . . . . . . . . . . .
Mise à niveau du serveur d’E-S virtuel de IPv4 vers IPv6 . . . . . . . . . . . . . . . .
Sauvegarde du serveur d’E-S virtuel . . . . . . . . . . . . . . . . . . . . . . . . .
Sauvegarde du serveur d’E-S virtuel sur bande . . . . . . . . . . . . . . . . . . . .
Sauvegarde du serveur d’E-S virtuel sur un ou plusieurs DVD . . . . . . . . . . . . . . .
Sauvegarde du serveur d’E-S virtuel sur un système de fichiers distant via un fichier nim_resources.tar .
Sauvegarde du serveur d’E-S virtuel sur un système de fichiers distant via une image mksysb . . . .
Sauvegarde des unités virtuelles définies par l’utilisateur . . . . . . . . . . . . . . . . .
Planification des sauvegardes du serveur d’E-S virtuel. . . . . . . . . . . . . . . . . .
Sauvegarde du serveur d’E-S virtuel à l’aide du gestionnaire Tivoli Storage Manager . . . . . . .
Sauvegarde du serveur d’E-S virtuel à l’aide de la fonction automatisée du gestionnaire Tivoli Storage
Manager . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Sauvegarde du serveur d’E-S virtuel à l’aide de la sauvegarde incrémentielle du gestionnaire Tivoli
Storage Manager . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Restauration du serveur d’E-S virtuel . . . . . . . . . . . . . . . . . . . . . . . .
Restauration du serveur d’E-S virtuel à partir d’une bande magnétique . . . . . . . . . . . .
Restauration du serveur d’E-S virtuel à partir d’un ou plusieurs DVD . . . . . . . . . . . .
Restauration du serveur d’E-S virtuel à partir d’un fichier nim_resources.tar via la console HMC . . .
Restauration du serveur d’E-S virtuel via un serveur NIM à partir d’un fichier mksysb . . . . . .
Restauration des unités virtuelles définies par l’utilisateur . . . . . . . . . . . . . . . .
Restauration du serveur d’E-S virtuel avec Tivoli Storage Manager . . . . . . . . . . . . .
Installation ou remplacement d’une carte PCI sur le serveur d’E-S virtuel lorsque le système est sous tension
Guide d’initiation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Installation d’une carte PCI . . . . . . . . . . . . . . . . . . . . . . . . . . .
Remplacement d’une carte PCI . . . . . . . . . . . . . . . . . . . . . . . . .
Annulation de la configuration d’une carte de mémoire . . . . . . . . . . . . . . . . .
Préparation des partitions logiques client . . . . . . . . . . . . . . . . . . . . . .
Affichage des informations et des statistiques sur le serveur d’E-S virtuel, sur le serveur et sur les ressources
virtuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Surveillance du serveur d’E-S virtuel . . . . . . . . . . . . . . . . . . . . . . . . .
Sécurité sur le serveur d’E-S virtuel . . . . . . . . . . . . . . . . . . . . . . . . . .
Connexion au serveur d’E-S virtuel à l’aide d’OpenSSH . . . . . . . . . . . . . . . . . .
Configuration du renforcement de la sécurité du système de serveur d’E-S virtuel . . . . . . . . .
Définition d’un niveau de sécurité . . . . . . . . . . . . . . . . . . . . . . . .
Modification des paramètres dans un niveau de sécurité . . . . . . . . . . . . . . . . .
Affichage des paramètres de sécurité en cours . . . . . . . . . . . . . . . . . . . .
Suppression des paramètres de niveau de sécurité . . . . . . . . . . . . . . . . . . .
Configuration des paramètres du pare-feu du serveur d’E-S virtuel . . . . . . . . . . . . . .
Configuration d’un client Kerberos sur le serveur d’E-S virtuel . . . . . . . . . . . . . . . .
. 92
. 93
. 95
. 95
. 95
. 97
. 98
. 99
. 101
. 101
. 102
. 102
. 102
. 103
. 104
. 105
. 107
. 107
. 108
. 108
. 109
. 109
. 109
. 110
. 111
. 112
. 112
. 113
. 114
. 114
. 116
. 117
. 117
.
.
.
.
.
.
.
.
.
.
.
.
.
118
118
119
119
120
120
121
122
123
124
124
125
125
126
.
.
.
.
.
.
.
.
.
.
.
127
128
129
130
132
133
133
133
133
133
134
Table des matières
v
Gestion des utilisateurs sur le serveur d’E-S virtuel . . . . . . . . . . . . . . .
Identification et résolution des incidents liés au serveur d’E-S virtuel . . . . . . . . . .
Identification et résolution des incidents liés à la partition logique du serveur d’E-S virtuel .
Identification et résolution des problèmes liés à l’interface SCSI virtuelle . . . . . .
Résolution de l’échec de configuration d’une carte de réseau Ethernet partagée . . . .
Résolution des incidents de connectivité Ethernet . . . . . . . . . . . . . .
Activation des shells non interactifs sur Virtual I/O Server, version 1.3 ou supérieure . .
Récupération lorsque les disques sont introuvables . . . . . . . . . . . . . . .
Identification et résolution des incidents relatifs aux partitions logiques client AIX . . . .
Informations de référence pour le serveur d’E-S virtuel . . . . . . . . . . . . . .
Description des commandes du serveur d’E-S virtuel et d’Integrated Virtualization Manager .
Configuration des attributs des agents et des clients Tivoli . . . . . . . . . . . .
Statistiques sur le protocole GVRP (GARP VLAN Registration Protocol) . . . . . . . .
Attributs de réseau . . . . . . . . . . . . . . . . . . . . . . . . .
Statistiques sur la reprise par transfert d’une carte de réseau Ethernet partagée . . . . .
Statistiques relatives à une carte de réseau Ethernet partagée . . . . . . . . . . .
Types d’utilisateur sur le serveur d’E-S virtuel . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
134
135
136
136
136
137
138
138
140
141
141
142
145
151
160
168
174
Chapitre 4. Integrated Virtualization Manager . . . . . . . . . . . . . . . . . . . 177
Integrated Virtualization Manager . . . . . . . . . . . . . . . . . . . . . . . . . .
Planification du gestionnaire Integrated Virtualization Manager . . . . . . . . . . . . . . . .
Validation de la planification système sur Integrated Virtualization Manager . . . . . . . . . . .
Installation du gestionnaire Integrated Virtualization Manager . . . . . . . . . . . . . . . . .
Installation du serveur d’E-S virtuel et activation du gestionnaire Integrated Virtualization Manager sur des
serveurs systèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Installation du serveur d’E-S virtuel et activation du gestionnaire Integrated Virtualization Manager sur un
serveur lame BladeCenter avec la technologie POWER Architecture . . . . . . . . . . . . . .
Finalisation de l’installation du gestionnaire Integrated Virtualization Manager . . . . . . . . . .
Connexion à l’interface Web du gestionnaire Integrated Virtualization Manager . . . . . . . . . .
Connexion à l’interface de ligne de commande du serveur d’E-S virtuel . . . . . . . . . . . . .
Configuration de la partition de gestion et des partitions logiques client . . . . . . . . . . . . . .
Saisie du code d’activation de PowerVM Editions via Integrated Virtualization Manager . . . . . . .
Déploiement d’une planification système à l’aide d’Integrated Virtualization Manager . . . . . . . .
Configuration manuelle de la partition de gestion et des partitions logiques client . . . . . . . . .
Modification des ressources de mémoire et de processeur sur la partition de gestion . . . . . . .
Définition du nombre maximal de partitions logiques . . . . . . . . . . . . . . . . . .
Mise en miroir de la partition de gestion du gestionnaire Integrated Virtualization Manager . . . . .
Configuration du stockage sur le système géré à l’aide du gestionnaire Integrated Virtualization Manager
Création de pools de stockage . . . . . . . . . . . . . . . . . . . . . . . . .
Création de disques virtuels . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration d’Ethernet sur le système géré à l’aide du gestionnaire Integrated Virtualization Manager
Configuration de ponts Ethernet virtuels sur le système géré à l’aide du gestionnaire Integrated
Virtualization Manager . . . . . . . . . . . . . . . . . . . . . . . . . . .
Affectation du port d’une carte de réseau Ethernet hôte à une partition logique . . . . . . . .
Gestion dynamique des cartes physiques . . . . . . . . . . . . . . . . . . . . . .
Création de partitions logiques client à l’aide du gestionnaire Integrated Virtualization Manager . . .
Création de partitions logiques client à l’aide de l’assistant Création de partitions . . . . . . .
Création d’une partition basée sur une partition existante . . . . . . . . . . . . . . .
Gestion du système avec le gestionnaire Integrated Virtualization Manager . . . . . . . . . . . . .
Affichage et modification des propriétés système . . . . . . . . . . . . . . . . . . . .
Gestion des partitions à l’aide du gestionnaire Integrated Virtualization Manager . . . . . . . . .
Activation des partitions logiques . . . . . . . . . . . . . . . . . . . . . . . .
Ajout d’une partition logique client au groupe de charge de travail de partitions . . . . . . . . .
Suppression de partitions logiques . . . . . . . . . . . . . . . . . . . . . . . .
Gestion dynamique de la mémoire . . . . . . . . . . . . . . . . . . . . . . . .
Gestion dynamique des cartes physiques . . . . . . . . . . . . . . . . . . . . . .
Gestion dynamique des processeurs . . . . . . . . . . . . . . . . . . . . . . . .
Modification des propriétés d’une partition . . . . . . . . . . . . . . . . . . . . .
Migration d’une partition logique client vers un autre système géré . . . . . . . . . . . . .
Ouverture d’une session de terminal virtuel pour une partition logique . . . . . . . . . . . .
Arrêt des partitions logiques . . . . . . . . . . . . . . . . . . . . . . . . . .
vi
Guide d’utilisation de PowerVM Editions
.
.
.
.
178
180
181
184
. 184
.
.
.
.
.
.
.
.
.
.
.
185
186
187
187
188
188
189
191
191
192
192
193
. 194
. 194
194
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
195
196
196
197
198
198
198
198
199
199
199
201
201
202
202
203
204
204
205
Utilisation des fonctions de maintenance du panneau de commande . . . . . . . . . . . . .
Affichage ou modification du statut d’une partition en cours de migration . . . . . . . . . . .
Affichage des codes de référence des partitions . . . . . . . . . . . . . . . . . . . .
Gestion des unités de stockage à l’aide du gestionnaire Integrated Virtualization Manager . . . . . .
Création d’unités optiques virtuelles à l’aide du gestionnaire Integrated Virtualization Manager . . . .
Modification des disques virtuels . . . . . . . . . . . . . . . . . . . . . . . . .
Modification des pools de stockage à l’aide du gestionnaire Integrated Virtualization Manager . . . .
Modification des volumes physiques . . . . . . . . . . . . . . . . . . . . . . .
Modification des unités optiques à l’aide du gestionnaire Integrated Virtualization Manager . . . . .
Gestion d’Ethernet à l’aide du gestionnaire Integrated Virtualization Manager . . . . . . . . . . .
Modification des paramètres TCP/IP sur le serveur d’E-S virtuel . . . . . . . . . . . . . .
Création d’une carte Ethernet virtuelle . . . . . . . . . . . . . . . . . . . . . . .
Affichage des paramètres Ethernet virtuels à l’aide du gestionnaire Integrated Virtualization Manager .
Gestion des planifications système . . . . . . . . . . . . . . . . . . . . . . . . .
Création d’une planification système à l’aide du gestionnaire Integrated Virtualization Manager . . .
Affichage d’une planification système sur le gestionnaire Integrated Virtualization Manager . . . . .
Importation d’une planification système dans le gestionnaire Integrated Virtualization Manager . . . .
Déploiement d’une planification système à l’aide d’Integrated Virtualization Manager . . . . . . .
Exportation d’une planification système à partir du gestionnaire Integrated Virtualization Manager . .
Suppression d’une planification système à partir du gestionnaire Integrated Virtualization Manager . .
Mise à jour du gestionnaire Integrated Virtualization Manager . . . . . . . . . . . . . . . .
Installation ou remplacement d’une carte PCI sur le serveur d’E-S virtuel lorsque le système est sous tension
Guide d’initiation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Installation d’une carte PCI . . . . . . . . . . . . . . . . . . . . . . . . . . .
Remplacement d’une carte PCI . . . . . . . . . . . . . . . . . . . . . . . . .
Annulation de la configuration d’une carte de mémoire . . . . . . . . . . . . . . . . .
Préparation des partitions logiques client . . . . . . . . . . . . . . . . . . . . . .
Création et modification de comptes utilisateur . . . . . . . . . . . . . . . . . . . . . .
Rôles utilisateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Création de comptes utilisateur . . . . . . . . . . . . . . . . . . . . . . . . . .
Modification des propriétés utilisateur . . . . . . . . . . . . . . . . . . . . . . . .
Modification des paramètres de mot de passe . . . . . . . . . . . . . . . . . . . . .
Suppression de comptes utilisateur . . . . . . . . . . . . . . . . . . . . . . . . .
Modification des mots de passe utilisateur . . . . . . . . . . . . . . . . . . . . . .
Edition du profil utilisateur . . . . . . . . . . . . . . . . . . . . . . . . . . .
Identification et résolution des incidents liés au gestionnaire Integrated Virtualization Manager . . . . . .
Utilisation du point focal de service pour le gestionnaire Integrated Virtualization Manager . . . . . .
Sauvegarde et restauration des données de partition . . . . . . . . . . . . . . . . . . .
Sauvegarde sur bande de fichiers de support virtuel et de fichiers utilisateur . . . . . . . . . . .
Restauration du support virtuel et des fichiers utilisateur à partir d’une bande . . . . . . . . . .
Affichage des journaux d’application . . . . . . . . . . . . . . . . . . . . . . . .
Affichage des propriétés des journaux d’application . . . . . . . . . . . . . . . . . . .
Contrôle des tâches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Affichage de l’inventaire matériel . . . . . . . . . . . . . . . . . . . . . . . . . .
Connexion d’une console HMC à un système géré via Integrated Virtualization Manager . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
206
206
207
207
207
208
208
208
209
210
210
210
211
211
212
212
213
213
215
216
216
217
217
218
218
218
219
220
220
221
222
222
223
223
224
224
224
225
225
226
226
226
227
227
227
Chapitre 5. Live Partition Mobility . . . . . . . . . . . . . . . . . . . . . . . . 229
Concepts relatifs à l’Mobilité de partition . . . . . . . . . . . . . . . . . . . . . . .
Avantages de la Mobilité de partition . . . . . . . . . . . . . . . . . . . . . . .
Mobilité de partition active . . . . . . . . . . . . . . . . . . . . . . . . . . .
Fonctionnement de la Mobilité de partition active sur la console HMC (Hardware Management) et
Integrated Virtualization Manager . . . . . . . . . . . . . . . . . . . . . . .
Caractéristiques du système non modifiées après une migration de partition . . . . . . . .
Caractéristiques du système susceptibles d’être modifiées après une migration de partition logique
Validation de la Mobilité de partition active . . . . . . . . . . . . . . . . . . . .
Mobilité de partition inactive . . . . . . . . . . . . . . . . . . . . . . . . . .
Fonctionnement de la Mobilité de partition inactive . . . . . . . . . . . . . . . . .
Caractéristiques du système non modifiées après une migration de partition . . . . . . . .
Caractéristiques du système susceptibles d’être modifiées après une migration de partition logique
Validation d’une Mobilité de partition inactive . . . . . . . . . . . . . . . . . . .
Utilisation de la console HMC avec Live Partition Mobility . . . . . . . . . . . . . . . . .
.
.
.
. 229
. 229
. 230
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Table des matières
230
231
231
231
232
233
234
234
234
235
vii
Environnement HMC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Serveurs source et cible . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Console HMC (Hardware Management Console) . . . . . . . . . . . . . . . . . . .
Partitions logiques du serveur d’E-S virtuel source et cible . . . . . . . . . . . . . . . .
Partition mobile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Considérations sur la configuration des E-S de la partition mobile . . . . . . . . . . . . .
Réseautique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration de la mémoire pour la Mobilité de partition . . . . . . . . . . . . . . . .
Applications logicielles reconnaissant les migrations . . . . . . . . . . . . . . . . . .
Configuration requise pour la Mobilité de partition à partir de la console HMC (Hardware Management) .
Préparation d’une migration HMC . . . . . . . . . . . . . . . . . . . . . . . . .
Préparation des serveurs source et cible à la Mobilité de partition . . . . . . . . . . . . . .
Changement de la taille de bloc de la mémoire logique . . . . . . . . . . . . . . . .
Détermination de la mémoire disponible sur le serveur de destination . . . . . . . . . . .
Détermination des processeurs disponibles sur le serveur de destination . . . . . . . . . .
Préparation de la console HMC à la Mobilité de partition . . . . . . . . . . . . . . . .
Préparation des partitions logiques du serveur d’E-S virtuel source et du serveur d’E-S virtuel cible à la
Mobilité de partition . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Activation des partitions de maintenance de déplacement . . . . . . . . . . . . . . .
Synchronisation des horloges système . . . . . . . . . . . . . . . . . . . . . .
Préparation de la partition mobile à la Mobilité de partition . . . . . . . . . . . . . . . .
Vérification des connexions RMC (Resource Monitoring and Control) pour la partition mobile . . .
Désactivation de la partition mobile pour l’édition de rapports sur le chemin de traitement des erreurs
redondantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Désactivation des cartes série virtuelles de la partition mobile . . . . . . . . . . . . . .
Suppression d’une partition mobile d’un groupe de charge de travail de partitions . . . . . . .
Désactivation du registre BSR de la partition mobile . . . . . . . . . . . . . . . . .
Désactivation des pages volumineuses pour une partition mobile . . . . . . . . . . . . .
Suppression d’E-S dédiées d’une partition mobile . . . . . . . . . . . . . . . . . .
Suppression d’une carte de réseau Ethernet hôte de la partition mobile . . . . . . . . . . .
Activation d’une partition logique à l’aide de la console HMC . . . . . . . . . . . . . .
Préparation de la configuration mémoire à la Mobilité de partition . . . . . . . . . . . . .
Vérification de la configuration mémoire existante pour la Mobilité de partition . . . . . . . .
Configuration de l’environnement mémoire pour la Mobilité de partition . . . . . . . . . .
Préparation de la configuration réseau à la Mobilité de partition . . . . . . . . . . . . . .
Création d’une carte de réseau Ethernet partagée via la console HMC version 7 . . . . . . . .
Configuration d’une carte de réseau Ethernet partagée . . . . . . . . . . . . . . . .
Validation de l’environnement de Mobilité de partition à partir de la console HMC . . . . . . . . .
Migration d’une partition logique à l’aide de la console HMC (Hardware Management) . . . . . . .
Mise sous tension d’un système géré . . . . . . . . . . . . . . . . . . . . . . .
Arrêt de partitions logiques AIX à l’aide de console HMC . . . . . . . . . . . . . . . .
Arrêt différé du système d’exploitation . . . . . . . . . . . . . . . . . . . . . .
Arrêt immédiat du système d’exploitation . . . . . . . . . . . . . . . . . . . . .
Arrêt différé d’une partition logique . . . . . . . . . . . . . . . . . . . . . . .
Arrêt immédiat d’une partition logique . . . . . . . . . . . . . . . . . . . . . .
Arrêt de partitions logiques Linux à l’aide de la console HMC . . . . . . . . . . . . . . .
Arrêt différé du système d’exploitation . . . . . . . . . . . . . . . . . . . . . .
Arrêt immédiat du système d’exploitation . . . . . . . . . . . . . . . . . . . . .
Arrêt différé d’une partition logique . . . . . . . . . . . . . . . . . . . . . . .
Arrêt immédiat d’une partition logique . . . . . . . . . . . . . . . . . . . . . .
Ajout d’E-S dédiées à une partition mobile . . . . . . . . . . . . . . . . . . . . .
Gestion dynamique d’unités et d’emplacements d’E-S physiques à l’aide de la console HMC . . . .
Ajout dynamique d’unités et d’emplacements d’entrée-sortie physiques à l’aide de la console HMC .
Ajout d’une partition mobile à un groupe de charge de travail de partitions . . . . . . . . . .
Identification et résolution des incidents liés à la Mobilité de partition . . . . . . . . . . . . .
Identification et résolution des incidents liés à la Mobilité de partition active . . . . . . . . . .
Identification et résolution des incidents liés à la Mobilité de partition inactive . . . . . . . . .
Codes de référence de la Mobilité de partition . . . . . . . . . . . . . . . . . . . .
Utilisation d’Integrated Virtualization Manager avec Live Partition Mobility . . . . . . . . . . . .
Environnement Integrated Virtualization Manager . . . . . . . . . . . . . . . . . . . .
Serveurs source et cible . . . . . . . . . . . . . . . . . . . . . . . . . . . .
viii
Guide d’utilisation de PowerVM Editions
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
235
235
236
236
236
237
237
238
238
238
242
242
243
244
245
245
.
.
.
.
.
246
246
247
247
249
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
250
251
251
252
253
253
254
254
255
255
260
266
267
268
270
271
273
274
274
274
274
274
275
275
275
275
276
276
277
277
278
278
278
279
279
280
280
280
Integrated Virtualization Manager . . . . . . . . . . . . . . . . . . . . . . . .
Réseautique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration mémoire exigée pour la migration de partitions . . . . . . . . . . . . . . .
Configuration requise pour la Mobilité de partition à l’aide d’Integrated Virtualization Manager . . . .
Préparation d’une migration Integrated Virtualization Manager . . . . . . . . . . . . . . .
Préparation des serveurs source et cible à une migration de partition Integrated Virtualization Manager
Détermination de la mémoire disponible sur le serveur de destination à l’aide d’Integrated
Virtualization Manager . . . . . . . . . . . . . . . . . . . . . . . . . . .
Détermination des processeurs disponibles sur le serveur de destination à l’aide d’Integrated
Virtualization Manager . . . . . . . . . . . . . . . . . . . . . . . . . . .
Préparation d’Integrated Virtualization Manager à la Mobilité de partition . . . . . . . . . . .
Préparation de la partition mobile à la Mobilité de partition à l’aide d’Integrated Virtualization Manager
Suppression de la partition mobile d’un groupe de charge de travail de partitions à l’aide d’Integrated
Virtualization Manager . . . . . . . . . . . . . . . . . . . . . . . . . . .
Suppression de cartes physiques de la partition mobile . . . . . . . . . . . . . . . .
Préparation de la configuration mémoire à la Mobilité de partition à l’aide d’Integrated Virtualization
Manager . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Vérification de la configuration mémoire existante pour la Mobilité de partition à l’aide d’Integrated
Virtualization Manager . . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration de l’environnement mémoire pour la Mobilité de partition . . . . . . . . . .
Préparation de la configuration réseau à la Mobilité de partition à l’aide d’Integrated Virtualization
Manager . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Validation de l’environnement de Mobilité de partition à l’aide d’Integrated Virtualization Manager . . .
Migration d’une partition logique à l’aide d’Integrated Virtualization Manager . . . . . . . . . .
Arrêt des partitions logiques . . . . . . . . . . . . . . . . . . . . . . . . . .
Gestion dynamique des cartes physiques . . . . . . . . . . . . . . . . . . . . . .
Ajout d’une partition logique client au groupe de charge de travail de partitions . . . . . . . . .
Codes de référence de la Mobilité de partition . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
280
280
280
281
283
283
. 284
. 285
. 286
286
. 287
. 287
. 288
. 288
. 289
.
.
.
.
.
.
.
290
291
291
293
294
295
296
Chapitre 6. Partition Load Manager for AIX . . . . . . . . . . . . . . . . . . . . 297
Gestionnaire de chargement de partition pour AIX . . . . . . . . .
Préparation de l’installation du gestionnaire de chargement de partition . .
Installation des outils logiciels OpenSSH . . . . . . . . . . . .
Installation du serveur du gestionnaire de chargement de partition . . .
Configuration du fichier de règles . . . . . . . . . . . . . .
Détermination de l’état d’une partition . . . . . . . . . . . . .
Configuration de RMC . . . . . . . . . . . . . . . . . .
Vérification de l’installation et de la configuration de RMC . . . . .
Démarrage et arrêt du serveur du gestionnaire de chargement de partition .
Commandes relatives au gestionnaire de chargement de partition . . . .
Commande xlplm . . . . . . . . . . . . . . . . . . .
Commande xlpstat . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
297
298
300
302
303
311
315
316
317
318
318
321
Chapitre 7. PowerVM Lx86 . . . . . . . . . . . . . . . . . . . . . . . . . . . 323
Annexe. Fonctions d’accessibilité . . . . . . . . . . . . . . . . . . . . . . . 325
Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327
Marques . .
Dispositions .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Table des matières
. 329
. 330
ix
x
Guide d’utilisation de PowerVM Editions
Avis aux lecteurs canadiens
Le présent document a été traduit en France. Voici les principales différences et particularités dont vous
devez tenir compte.
Illustrations
Les illustrations sont fournies à titre d’exemple. Certaines peuvent contenir des données propres à la
France.
Terminologie
La terminologie des titres IBM peut différer d’un pays à l’autre. Reportez-vous au tableau ci-dessous, au
besoin.
IBM France
IBM Canada
ingénieur commercial
représentant
agence commerciale
succursale
ingénieur technico-commercial
informaticien
inspecteur
technicien du matériel
Claviers
Les lettres sont disposées différemment : le clavier français est de type AZERTY, et le clavier
français-canadien, de type QWERTY.
OS/2 - Paramètres canadiens
Au Canada, on utilise :
v les pages de codes 850 (multilingue) et 863 (français-canadien),
v le code pays 002,
v le code clavier CF.
Nomenclature
Les touches présentées dans le tableau d’équivalence suivant sont libellées différemment selon qu’il s’agit
du clavier de la France, du clavier du Canada ou du clavier des États-Unis. Reportez-vous à ce tableau
pour faire correspondre les touches françaises figurant dans le présent document aux touches de votre
clavier.
xi
Recommandations à l’utilisateur
Ce matériel utilise et peut émettre de l’énergie radiofréquence. Il risque de parasiter les communications
radio et télévision s’il n’est pas installé et utilisé conformément aux instructions du constructeur
(instructions d’utilisation, manuels de référence et manuels d’entretien).
Si cet équipement provoque des interférences dans les communications radio ou télévision, mettez-le hors
tension puis sous tension pour vous en assurer. Il est possible de corriger cet état de fait par une ou
plusieurs des mesures suivantes :
Réorienter l’antenne réceptrice ;
Déplacer l’équipement par rapport au récepteur ;
Éloigner l’équipement du récepteur ;
Brancher l’équipement sur une prise différente de celle du récepteur pour que ces unités fonctionnent
sur des circuits distincts ;
v S’assurer que les vis de fixation des cartes et des connecteurs ainsi que les fils de masse sont bien
serrés ;
v Vérifier la mise en place des obturateurs sur les connecteurs libres.
v
v
v
v
Si vous utilisez des périphériques non IBM avec cet équipement, nous vous recommandons d’utiliser des
câbles blindés mis à la terre, à travers des filtres si nécessaire.
En cas de besoin, adressez-vous à votre détaillant.
Le fabricant n’est pas responsable des interférences radio ou télévision qui pourraient se produire si des
modifications non autorisées ont été effectuées sur l’équipement.
xii
Guide d’utilisation de PowerVM Editions
L’obligation de corriger de telles interférences incombe à l’utilisateur.
Au besoin, l’utilisateur devrait consulter le détaillant ou un technicien qualifié pour obtenir de plus
amples renseignements.
Brevets
Il est possible qu’IBM détienne des brevets ou qu’elle ait déposé des demandes de brevets portant sur
certains sujets abordés dans ce document. Le fait qu’IBM vous fournisse le présent document ne signifie
pas qu’elle vous accorde un permis d’utilisation de ces brevets. Vous pouvez envoyer, par écrit, vos
demandes de renseignements relatives aux permis d’utilisation au directeur général des relations
commerciales d’IBM, 3600 Steeles Avenue East, Markham, Ontario, L3R 9Z7.
Assistance téléphonique
Si vous avez besoin d’assistance ou si vous voulez commander du matériel, des logiciels et des
publications IBM, contactez IBM direct au 1 800 465-1234.
Avis aux lecteurs canadiens
xiii
xiv
Guide d’utilisation de PowerVM Editions
A propos de cette publication
Cette publication destinée aux administrateurs et aux opérateurs système fournit des informations sur
l’installation, la configuration, la gestion et l’utilisation de PowerVM Editions (ou Advanced POWER
Virtualization). PowerVM Editions inclut la technologie Micro-Partitioning, le serveur d’E-S virtuel,
Integrated Virtualization Manager, Live Partition Mobility, gestionnaire de chargement de partition for
AIXet Lx86.
Pour obtenir des informations sur les fonctions d’accessibilité de ce produit pour les utilisateurs ayant un
handicap physique, voir «Fonctions d’accessibilité», à la page 325.
Procédure d’envoi de commentaires
Vos commentaires sont essentiels pour nous aider à fournir les informations les plus précises et de la
meilleure qualité. Si vous avez des commentaires concernant cette publication, faites-les nous parvenir.
Veillez à inclure le nom du manuel et l’emplacement spécifique du texte que vous commentez (par
exemple, un numéro de page ou de tableau).
xv
xvi
Guide d’utilisation de PowerVM Editions
Chapitre 1. PowerVM Editions
Informations sur les composants et les éditions du dispositif matériel PowerVM Editions (anciennement
appelé Advanced POWER Virtualization).
Le dispositif matériel PowerVM Editions comprend les composants suivants pour étendre les
fonctionnalités de virtualisation de votre système :
v Technologie Micro-Partitioning
v serveur d’E-S virtuel
v Integrated Virtualization Manager
v Live Partition Mobility
v Gestionnaire de chargement de partition pour AIX
v Lx86
Le dispositif matériel PowerVM Editions comprend les éditions suivantes :
v PowerVM Express Edition
v PowerVM Standard Edition
v PowerVM Enterprise Edition
Le tableau ci-après répertorie chacun des composants du dispositif PowerVM Editions, ainsi que les
éditions et les processeurs dans lesquels ils sont disponibles.
Tableau 1. Composants, éditions et support matériel PowerVM Editions
Composant
Description
Editions
Matériel
Technologie
Micro-Partitioning
Possibilité d’allouer des processeurs aux
v Express Edition
v POWER6
partitions logiques par incrément de 0,1, ce qui
v Standard Edition v POWER5
permet à plusieurs partitions logiques de partager
v Enterprise Edition
la même puissance de traitement du système.
Serveur d’E-S virtuel Logiciel facilitant le partage des ressources d’E-S
physiques entre les partitions logiques client au
sein du serveur.
v Express Edition
v POWER6
v Standard Edition
v POWER5
Integrated
Virtualization
Manager
Interface graphique de la partition de gestion du
serveur d’E-S virtuel sur certains serveurs non
gérés par la console HMC (Hardware
Management).
v Express Edition
v POWER6
v Standard Edition
v POWER5
Live Partition
Mobility
Possibilité de faire migrer une partition logique
AIX ou Linux d’un système vers un autre.
Enterprise Edition
POWER6
gestionnaire de
chargement de
partition
Logiciel qui assure la gestion et la surveillance
des ressources processeur et mémoire entre les
partitions logiques AIX au sein d’un processeur
CPC (Central Processor Complex).
Standard Edition
POWER5
Lx86
Produit assurant la compatibilité de POWER
Systems avec les applications x86. Ceci assure la
prise en charge de Linux sur POWER Systems,
permettant aux applications disponibles sur x86
mais pas sur POWER Systems de s’exécuter sur
ce dernier.
v Express Edition
POWER6 exécutant
SUSE ou Red Hat
Linux
v Enterprise Edition
v Enterprise Edition
v Standard Edition
v Enterprise Edition
1
PowerVM Editions
Informations sur PowerVM Express Edition, PowerVM Standard Edition, et PowerVM Enterprise Edition.
PowerVM Express Edition
PowerVM Express Edition contient les composants suivants du dispositif matériel PowerVM Editions
(anciennement appelé Advanced POWER Virtualization) :
v Technologie Micro-Partitioning
v serveur d’E-S virtuel
v Integrated Virtualization Manager
v Lx86
Vous pouvez utiliser gratuitement l’édition Express dans des environnements restreints. L’édition Express
est disponible sur certains serveurs équipés du processeur POWER6. Pour l’utiliser, le système doit être
géré par Integrated Virtualization Manager.
L’édition Express permet de créer jusqu’à deux partitions logiques client qui utilisent des processeurs
partagés et SCSI virtuels. Cette technologie est également appelée Micro-Partitioning. Si vous souhaitez
créer plus de deux partitions logiques client qui utilisent des processeurs partagés ou SCSI virtuels, vous
devez vous procurer l’édition Standard ou Enterprise et entrer le code d’activation. (Ethernet virtuel est
disponible sur toutes les partitions logiques client.)
PowerVM Standard Edition
PowerVM Standard Edition comprend les composants suivants du dispositif matériel PowerVM Editions :
v
v
v
v
v
Technologie Micro-Partitioning
serveur d’E-S virtuel
Integrated Virtualization Manager
Gestionnaire de chargement de partition pour AIX
Lx86
Vous pouvez utiliser l’édition Standard avec les serveurs équipés de processeurs POWER5 et POWER6.
Cependant, gestionnaire de chargement de partition est disponible uniquement sur des systèmes équipés
de processeurs POWER5.
Dans les environnements HMC, Integrated Virtualization Manager est désactivé, car le système est géré
par la console HMC. Pour les serveurs non gérés par la console HMC, le serveur d’E-S virtuel devient la
partition de gestion et inclut Integrated Virtualization Manager pour vous permettre de gérer le système.
Pour certains serveurs, l’édition Standard requiert un code d’activation pour activer le dispositif matériel
PowerVM Editions. Si vous commandez le dispositif matériel PowerVM Editions en même temps que le
système, la prise en charge des composants du dispositif sera activée sur le microprogramme. Si vous
commandez le dispositif séparément du serveur, entrez le code à l’aide de la console HMC ou du
gestionnaire Integrated Virtualization Manager. Pour les serveurs lame BladeCenter, l’édition Standard est
incluse dans les serveurs ; le code d’activation est donc inutile.
PowerVM Enterprise Edition
PowerVM Enterprise Edition comprend les composants suivants du dispositif matériel PowerVM
Editions :
v Technologie Micro-Partitioning
v serveur d’E-S virtuel
2
Guide d’utilisation de PowerVM Editions
v Integrated Virtualization Manager
v Live Partition Mobility
v Lx86
Vous pouvez utiliser l’édition Enterprise avec des serveurs équipés du processeur POWER6.Comme avec
l’édition Standard, le gestionnaire Integrated Virtualization Manager est désactivé dans les
environnements HMC car le système est géré par la console HMC. Pour les serveurs non gérés par la
console HMC, le serveur d’E-S virtuel devient la partition de gestion et inclut Integrated Virtualization
Manager pour vous permettre de gérer le système.
L’édition Enterprise requiert un code d’activation pour activer le dispositif matériel PowerVM Editions. Si
vous commandez le dispositif matériel en même temps que le système, la prise en charge des composants
du dispositif sera activée sur le microprogramme. Si vous commandez le dispositif séparément du
serveur, vous pouvez entrer le code à partir de la console HMC ou du gestionnaire Integrated
Virtualization Manager. Il s’agit d’un code différent de celui utilisé pour l’édition Standard. Par exemple,
après avoir acheté l’édition Standard et activé le dispositif sur le système, vous souhaitez faire migrer les
partitions logiques d’un système vers un autre. Pour cela, vous devez acheter l’édition Enterprise et
entrer le code d’activation correspondant à cette édition.
Technologie Micro-Partitioning
Informations sur la technologie Micro-Partitioning, sa disponibilité et le matériel pris en charge.
La fonction PowerVM Editions (ou Advanced POWER Virtualization) inclut l’activation des
microprogrammes pour la technologie Micro-Partitioning. Cette dernière permet d’allouer des processeurs
aux partitions logiques par incréments de 0.01, avec un minimum de 0.1, permettant à plusieurs
partitions logiques de partager la puissance de traitement du système.
La technologie Micro-Partitioning est incluse dans PowerVM Express Edition,PowerVM Standard Edition
et PowerVM Enterprise Edition.
La technologie Micro-Partitioning est disponible pour tous les serveurs équipés de processeurs POWER5
et POWER6.
Serveur d’E-S virtuel
Informations sur le serveur d’E-S virtuel, sa disponibilité et le matériel pris en charge.
Le composant matériel PowerVM Editions (ou Advanced POWER Virtualization) inclut le support
d’installation du logiciel du serveur d’E-S virtuel. Le serveur d’E-S virtuel facilite le partage des
ressources d’E-S physiques entre les partitions logiques client au sein du serveur. Le serveur d’E-S virtuel
contient une unité de facturation par processeur activé, maintenance logicielle comprise.
Le serveur d’E-S virtuel est inclus dans PowerVM Express Edition dans les environnements restreints,
dans PowerVM Standard Edition, et dans PowerVM Enterprise Edition.
Le serveur d’E-S virtuel est disponible pour tous les systèmes équipés de processeurs POWER5 et
POWER6.
Integrated Virtualization Manager
Informations sur le gestionnaire Integrated Virtualization Manager, sa disponibilité et le matériel pris en
charge.
Chapitre 1. PowerVM Editions
3
La fonction PowerVM Editions (ou Advanced POWER Virtualization) inclut le support d’installation du
logiciel du serveur d’E-S virtuel. Le serveur d’E-S virtuel facilite le partage des ressources d’E-S
physiques entre les partitions logiques client au sein du serveur.
Pour certains serveurs non gérés par la console HMC (Hardware Management), le serveur d’E-S virtuel
devient la partition de gestion et inclut l’interface de gestion de systèmes, appelée Integrated
Virtualization Manager, pour vous permettre de gérer le système.
Le serveur d’E-S virtuel (y compris Integrated Virtualization Manager) est un composant logiciel sous
licence de la fonction PowerVM Editions. Il contient une unité de facturation par processeur activé,
maintenance logicielle comprise.
Le gestionnaire Integrated Virtualization Manager est inclus dans PowerVM Express Edition,PowerVM
Standard Edition et PowerVM Enterprise Edition.
Integrated Virtualization Manager est disponible pour les modèles de serveur suivants :
v 7/10
v 7/20
v
v
v
v
v
v
v
04E/8A
03E/4A
04E/8A
105/1A
105/10
115/20
135/50
v
v
v
v
v
v
v
155/05
165/61
315/2A
335/5A
JS/21
JS/22
JS/12
Live Partition Mobility
Informations sur le gestionnaire Live Partition Mobility, sa disponibilité et le matériel pris en charge.
Live Partition Mobility permet de faire migrer une partition logique AIX ou Linux active ou inactive d’un
système vers un autre. La Mobilité de partition active consiste à déplacer une partition logique en cours
de fonctionnement (y compris son système d’exploitation et ses applications) d’un système vers un autre.
Il n’est pas nécessaire d’arrêter la partition logique et les applications s’exécutant sur la partition. La
Mobilité de partition inactive consiste à déplacer une partition logique mise hors tension d’un système
vers un autre.
Pour les systèmes gérés par HMC, vous pouvez faire migrer une partition hors tension ou sous tension
vers un autre système géré par la même console HMC. Pour les systèmes gérés par Integrated
Virtualization Manager, vous pouvez faire migrer une partition hors tension ou sous tension vers un
autre système géré par un gestionnaire Integrated Virtualization Manager différent.
Live Partition Mobility est intégré dans PowerVM Enterprise Edition.
4
Guide d’utilisation de PowerVM Editions
Live Partition Mobility est disponible sur certains serveurs équipés du processeur POWER6, JS/22 et
JS/12 Express.
Gestionnaire de chargement de partition pour AIX
Informations sur le gestionnaire gestionnaire de chargement de partition, sa disponibilité et le matériel
pris en charge.
Le gestionnaire de chargement de partition assure la gestion et la surveillance des ressources processeur
et mémoire entre les partitions logiques AIX au sein d’un processeur CPC (Central Processor Complex).
Le gestionnaire de chargement de partition for AIX est un composant logiciel sous licence de PowerVM
Editions (ou Advanced POWER Virtualization). Il contient une unité de facturation par processeur activé,
maintenance logicielle comprise.
Le gestionnaire de chargement de partition for AIX est intégré dans PowerVM Standard Edition.
Le gestionnaire de chargement de partition n’est pas disponible sur les serveurs équipés du processeur
POWER6.
Le gestionnaire de chargement de partition est disponible sur certains serveurs équipés du processeur
POWER5
PowerVM Lx86
Informations sur PowerVM Lx86, sa disponibilité et le matériel pris en charge.
Le dispositif matériel PowerVM Editions (anciennement appelé Advanced POWER Virtualization) inclut
PowerVM Lx86. Lx86 est un traducteur dynamique binaire qui permet aux applications Linux (compilées
pour Linux sur Intel) de s’exécuter sans modification, parallèlement aux applications Linux on POWER
locales. La conversion dynamique des instructions x86 vers POWER et leur mise en cache pour optimiser
les performances de conversion par Lx86 le permet. Lx86 mappe en outre les appels système Linux sur
Intel en appels système Linux sur Power. Aucune modification ou recompilation des applications Linux
x86 n’est nécessaire.
Lx86 crée un environnement x86 virtuel dans lequel peuvent s’exécuter les applications Linux sur Intel.
Actuellement, un environnement Lx86 virtuel prend en charge des distributions Linux x86 SUSE ou Red
Hat. Le traducteur et l’environnement virtuel s’exécutent strictement dans l’espace utilisateur. Aucune
modification du noyau POWER n’est requise. Lx86 n’exécute pas le noyau x86 sur la machine POWER.
L’environnement virtuel Lx86 n’est pas une machine virtuelle. Les applications x86 sont encapsulées,
donnant l’impression de disposer d’un environnement d’exploitation Linux on x86, bien que le système
sous-jacent est un système Linux on POWER.
Lx86 est inclus dans PowerVM Express Edition,PowerVM Standard Edition et dans PowerVM Enterprise
Edition.
Pour plus d’informations sur Lx86, voir PowerVM Lx86 for x86 Linux Applications Administration
Guide.
Chapitre 1. PowerVM Editions
5
6
Guide d’utilisation de PowerVM Editions
Chapitre 2. Technologie Micro-Partitioning
L’activation de la technologie Micro-Partitioning permet de partager la puissance de traitement du
système entre plusieurs partitions logiques.
Tous les processeurs non dédiés à des partitions logiques spécifiques sont placés dans le pool de
traitement partagé, géré par Hypervisor. Le pool de traitement partagé peut être utilisé par des partitions
logiques configurées pour cela. Vous pouvez configurer une partition logique afin qu’elle utilise des
processeurs partagés et au minimum 0,10 unité de traitement, ce qui correspond à environ un dixième de
la capacité de traitement d’un processeur. Vous pouvez indiquer le nombre d’unités de traitement que
doit utiliser une partition logique de processeurs partagés jusqu’au centième de la capacité d’une unité de
traitement. Cette possibilité d’attribuer des fractions d’unité de traitement à des partitions logiques et de
permettre à celles-ci de partager des unités de traitement est appelée technologie Micro-Partitioning.
La technologie Micro-Partitioning permet d’augmenter les ressources du système en attribuant
automatiquement à chaque partition la quantité de ressources processeur dont elle a besoin. Hypervisor
peut ajuster automatiquement et en permanence la capacité de traitement allouée à chaque partition
logique (avec processeurs partagés) en fonction de la demande du système. Vous pouvez configurer une
partition logique de processeurs partagés afin qu’elle puisse utiliser les unités de traitement inutilisées du
pool de traitement partagé, si elle nécessite une capacité de traitement supérieure à celle des unités de
traitement qui lui ont été attribuées.
La technologie Micro-Partitioning est incluse dans le dispositif matériel PowerVM Editions et est
disponible pour tous les serveurs équipés de processeurs POWER5 etPOWER6.
La technologie Micro-Partitioning est prise en charge par les environnements d’exploitation suivants :
v AIX 5.3 + APAR IY58321 ou version supérieure
v Linux
v serveur d’E-S virtuel version 1.0 ou supérieure (version 1.2 ou supérieure pour Integrated
Virtualization Manager)
Processeurs partagés
Les processeurs partagés sont des processeurs physiques dont plusieurs partitions logiques se partagent la
capacité de traitement. La possibilité de diviser des processeurs physiques et de les partager entre
plusieurs partitions logiques correspond à la technologie Micro-Partitioning.
Remarque : Sur certains modèles, la technologie Micro-Partitioning est une option pour laquelle il est
nécessaire d’obtenir et d’indiquer un code PowerVM Editions (ou Advanced POWER Virtualization).
Par défaut, tous les processeurs physiques non dédiés à des partitions logiques spécifiques sont regroupés
dans un pool de traitement partagé. Vous pouvez affecter un niveau de capacité de traitement spécifique de
ce pool de traitement partagé à chaque partition logique utilisant des processeurs partagés. Certains
modèles vous permettent d’utiliser la console HMC pour configurer plusieurs pools de traitement
partagé. Ces modèles possèdent un pool de traitement partagé par défaut contenant tous les processeurs qui
n’appartiennent ni aux partitions logiques utilisant des processeurs dédiés ni aux partitions logiques
utilisant d’autres pools de traitement partagé. Les autres pools de traitement partagé sur ces modèles
peuvent être configurés avec une valeur d’unité de traitement maximale et une valeur d’unité de
traitement réservée. La valeur maximale limite le nombre total d’unités de traitement pouvant être
utilisées par les partitions logiques dans le pool de traitement partagé. La valeur réservée correspond au
nombre d’unités de traitement qui sont réservées à l’usage des partitions logiques non bridées dans le
pool de traitement partagé.
7
Vous pouvez affecter des processeurs partiels à une partition logique utilisant des processeurs partagés.
Un minimum de 0,10 unité de traitement peut être configuré pour toute partition utilisant des
processeurs partagés. L’unité de traitement est une unité de mesure de la puissance de traitement
partagée entre un ou plusieurs processeurs virtuels. Une unité de traitement partagée sur un processeur
virtuel accomplit à peu près le même travail qu’un processeur dédié.
Sur certains modèles de serveur, les partitions logiques ne peuvent utiliser qu’une partie du nombre total
de processeurs actifs sur le système géré, de sorte qu’il n’est pas toujours possible d’affecter la pleine
capacité de traitement du système géré aux partitions logiques. Cela se vérifie particulièrement pour les
modèles équipés d’un ou de deux processeurs, dans lesquels une large part des ressources processeur
sont utilisées pour la gestion du système.
Les processeurs partagés sont affectés aux partitions logiques à l’aide de profils de partition. Pour
davantage d’informations sur la façon dont les profils de partition sont utilisés pour spécifier les
configurations de ressources, voir Profil de partition.
Les partitions qui utilisent des processeurs partagés peuvent être associées à un mode de partage bridé
ou non. Une partition logique non bridée est une partition logique pouvant utiliser un niveau de puissance
de traitement supérieur à la capacité de traitement qui lui a été affectée. Le niveau de capacité de
traitement qu’une partition logique non bridée peut utiliser est limité uniquement par le nombre de
processeurs virtuels qui lui sont affectés ou par le nombre maximal d’unités de traitement autorisées par
le pool de traitement partagé utilisé par la partition logique. Par opposition, une partition logique bridée est
une partition logique qui ne peut pas utiliser un niveau de puissance de traitement supérieur à celui des
unités de traitement qui lui ont été affectées.
Par exemple, les partitions logiques 2 et 3 sont des partitions logiques non bridées, et la partition logique
4 est une partition logique bridée. 3 unités de traitement et quatre processeurs virtuels sont affectés à
chacune des partitions logiques 2 et 3. La partition logique 2 utilise uniquement 1 de ces 3 unités de
traitement tandis que la demande en charge de travail de la partition logique 3 nécessite 4 unités de
traitement. La partition logique 3 n’étant pas bridée et comportant quatre processeurs virtuels, le
microprogramme du serveur lui permet automatiquement d’utiliser 1 unité de traitement de la partition
logique 2. Ceci permet de faire passer la puissance de traitement à 4 unités de traitement pour la
partition logique 3. Peu de temps après, la demande en charge de travail de la partition logique 2 passe à
3 unités de traitement. En conséquence, le microprogramme du serveur renvoie automatiquement 1 unité
de traitement à la partition logique 2 de sorte que cette dernière puisse de nouveau utiliser la pleine
capacité de traitement qui lui a été affectée. 2 unités de traitement et trois processeurs virtuels sont
affectés à la partition logique 4 mais sa demande en charge de travail en cours nécessite 3 unités de
traitement. La partition logique 4 étant bridée, elle ne peut pas utiliser les unités de traitement inutilisées
des partitions 2 ou 3. Cependant, si la demande en charge de travail de la partition logique 4 passe
en-dessous de 2 unités de traitement, les partitions logiques 2 et 3 pourraient utiliser les unités de
traitement inutilisées de la partition 4.
Par défaut, les partitions logiques qui utilisent des processeurs partagés sont des partitions logiques
bridées. Vous pouvez définir une partition logique comme partition logique non bridée pour qu’elle
utilise davantage de puissance de traitement que ce qui lui a été attribué.
Même si une partition logique non bridée peut utiliser un niveau de puissance de traitement supérieur à
la capacité de traitement qui lui a été affectée, elle ne peut jamais utiliser un nombre d’unités de
traitement supérieur au nombre de processeurs virtuels qui lui a été affecté. En outre, les partitions
logiques qui utilisent un pool de traitement partagé ne peuvent jamais faire appel à plus d’unités de
traitement que le nombre maximal configuré pour le pool.
Si plusieurs partitions logiques non bridées ont simultanément besoin d’une capacité de traitement
supérieure, le serveur peut répartir la capacité de traitement inutilisée sur chacune d’elles. Ce processus
de répartition est déterminé par le poids non bridé défini pour chacune des partitions logiques.
8
Guide d’utilisation de PowerVM Editions
Le poids non bridé est un nombre compris entre 0 et 255 affecté par vos soins à chaque partition non
bridée du pool de traitement partagé. Sur la console HMC, vous pouvez choisir l’une des 256 valeurs de
poids non bridé. Le gestionnaire Integrated Virtualization Manager vous limite à une seule des différentes
valeurs de poids non bridées. La définition du poids non bridé (255 étant le poids le plus élevé) permet
de répartir toute la capacité inutilisée disponible entre toutes les partitions logiques y prétendant, en
fonction de la valeur établie du poids non bridé. La valeur par défaut associée au poids non bridé est
128.
Par exemple, les partitions logiques 2 et 3 ont un poids non bridé respectivement égal à 100 et 200. Si les
partitions logiques 2 et 3 ont toutes les deux besoin d’une capacité de traitement supplémentaire, la
seconde va recevoir deux unités de traitement supplémentaires pour chaque unité de traitement
supplémentaire reçue par la première.
Information associée
Guide du partitionnement logique
Processeurs virtuels
Un processeur virtuel est la représentation d’un coeur de processeur physique pour le système
d’exploitation d’une partition logique utilisant des processeurs partagés.
Lorsque vous installez et exécutez un système d’exploitation sur un serveur non partitionné, le système
d’exploitation calcule le nombre d’opérations qu’il peut effectuer simultanément en comptant le nombre
de processeurs sur le serveur. Par exemple, si vous installez un système d’exploitation sur un serveur
doté de huit processeurs pouvant chacun exécuter simultanément deux opérations, le système
d’exploitation peut alors effectuer 16 opérations en même temps. De la même façon, si vous installez et
exécutez un système d’exploitation sur une partition logique utilisant des processeurs dédiés, le système
d’exploitation calcule le nombre d’opérations qu’il peut effectuer simultanément en comptant le nombre
de processeurs dédiés affectés à la partition logique. Dans les deux cas, le système d’exploitation peut
facilement calculer le nombre d’opérations qu’il peut effectuer simultanément en comptant le nombre
entier de processeurs qui sont à sa disposition.
Cependant, lorsque vous installez et exécutez un système d’exploitation sur une partition logique
utilisant des processeurs partagés, le système d’exploitation ne peut pas calculer un nombre entier
d’opérations à partir du nombre fractionnaire des unités de traitement affectées à la partition logique. Le
microprogramme du serveur doit par conséquent représenter la puissance de traitement disponible pour
le système d’exploitation comme un nombre entier de processeurs. Ceci permet au système d’exploitation
de calculer le nombre d’opérations simultanées qu’il peut effectuer. Un processeur virtuel est la
représentation d’un processeur physique pour le système d’exploitation d’une partition logique utilisant
des processeurs partagés.
Le microprogramme du serveur répartit équitablement des unités de traitement parmi les processeurs
virtuels affectés à une partition logique. Par exemple, si une partition logique comporte 1,80 unités de
traitement et deux processeurs virtuels, chacun de ceux-ci dispose de 0,90 unités de traitement pour
assurer la prise en charge de sa charge de travail.
Le nombre d’unités de traitement pouvant être affecté à chaque processeur virtuel est limité. Le nombre
minimal d’unités de traitement pour chaque processeur virtuel est toujours égal à 0,10. Le nombre
maximal d’unités de traitement pour chaque processeur virtuel est toujours égal à 1. Ceci signifie qu’une
partition logique ne peut pas utiliser un nombre d’unités de traitement supérieur au nombre de
processeurs virtuels qui lui est affecté, même si elle est non bridée.
Les performances d’une partition logique sont généralement meilleures si le nombre de processeurs
virtuels est proche du nombre d’unités de traitement mis à sa disposition. Ceci permet au système
d’exploitation de gérer efficacement la charge de travail sur la partition logique. Dans certaines situations,
il se peut que vous puissiez augmenter les performances système de manière significative en accroissant
Chapitre 2. Technologie Micro-Partitioning
9
le nombre de processeurs virtuels. Si vous augmentez le nombre de processeurs virtuels, vous augmentez
le nombre d’opérations pouvant être effectuées simultanément. Cependant, si vous augmentez le nombre
de processeurs virtuels sans accroître le nombre d’unités de traitement, la vitesse d’exécution de chaque
opération diminue. Le système d’exploitation ne peut pas non plus permuter la puissance de traitement
entre des processus si celle-ci est divisée entre plusieurs processeurs virtuels.
Les processeurs virtuels sont affectés aux partitions logiques à l’aide de profils de partition. Pour
davantage d’informations sur la façon dont les profils de partition sont utilisés pour spécifier les
configurations de ressource, voir Profil de partition.
Information associée
Guide du partitionnement logique
Cette publication contient des informations sur les profils de partition logique.
Saisie du code d’activation de PowerVM Editions via Integrated
Virtualization Manager
Vous pouvez saisir le code d’activation de PowerVM Editions (ou Advanced POWER Virtualization) par
le biais du gestionnaire Integrated Virtualization Manager.
Le niveau du code du gestionnaire Integrated Virtualization Manager doit être de la version 1.5 ou d’une
version supérieure pour pouvoir réaliser la procédure qui suit. Pour consulter les informations relatives à
l’affichage et à la mise à jour du niveau de code courant, voir «Affichage et mise à jour du niveau de
code de la partition de gestion d’Integrated Virtualization Manager», à la page 217.
La saisie ou non d’un code d’activation dépend de votre édition de PowerVM Editions et du matériel sur
lequel vous projetez de l’activer. Le tableau suivant récapitule les configurations requises.
Tableau 2. Configuration requise pour le code d’activation
systèmes
Serveurs lame BladeCenter
PowerVM Express Edition
Aucun code d’activation n’est requis.
Express Edition n’est pas disponible
sur les serveurs lame.
PowerVM Standard Edition
Le code d’activation de PowerVM
Editions est requis.
Aucun code d’activation n’est requis.
L’édition Standard est intégrée dans
le serveur lame.
PowerVM Enterprise Edition
Le code d’activation de PowerVM
Editions est requis.
Remarque : Si l’édition Standard est
déjà activée, vous devez saisir un
code d’activation supplémentaire
distinct pour l’édition Enterprise.
Le code d’activation de PowerVM
Editions est requis.
Pour plus d’informations sur les éditions de PowerVM Editions, voir «PowerVM Editions», à la page 2.
Avant de commencer, vérifiez que vous avez accès à Integrated Virtualization Manager. Pour plus
d’informations, voir «Installation du serveur d’E-S virtuel et activation du gestionnaire Integrated
Virtualization Manager sur des serveurs systèmes», à la page 184.
Pour saisir le code d’activation dans Integrated Virtualization Manager, procédez comme suit :
1. Dans le menu IVM Management, cliquez sur Enter PowerVM Editions Key. La fenêtre Enter
PowerVM Editions Key apparaît.
2. Entrez votre code d’activation pour PowerVM Editions et cliquez sur Apply.
10
Guide d’utilisation de PowerVM Editions
Vous pouvez à présent créer plus de deux partitions logiques client utilisant des processeurs partagés ou
des ressources d’entrée-sortie virtuelle.
Saisie du code d’activation de PowerVM Editions via la console HMC
version 7
Cette procédure explique comment saisir le code d’activation de PowerVM Editions (ou Advanced
POWER Virtualization) à partir de la console HMC (Hardware Management) version 7 ou supérieure.
Si PowerVM Editions n’est pas activé sur votre système, vous devez utiliser la console HMC pour entrer
le code d’activation que vous avez reçu lors de la votre commande.
Procédez comme suit pour entrer le code d’activation de PowerVM Standard Edition et de PowerVM
Enterprise Edition. Pour plus d’informations sur PowerVM Editions, voir «PowerVM Editions», à la page
2.
Pour entrer votre code d’activation, procédez comme suit :
1. Dans la zone de Navigation, développez Gestion de systèmes.
2. Sélectionnez Serveurs.
3. Dans la zone de contenu, sélectionnez le système géré sur lequel vous souhaitez utiliser PowerVM
Editions. Il peut s’agir, par exemple, du système sur lequel vous envisagez d’installer le serveur d’E-S
virtuel ou celui dans lequel vous envisagez d’utiliser la technologie Micro-Partitioning.
4. Cliquez sur Tâches et sélectionnez Capacity on Demand (CoD) → AdvancedPOWER Virtualization →
Saisie du code d’activation.
5. Entrez votre code d’activation et cliquez sur OK.
Saisie du code d’activation de PowerVM Editions via la console HMC
version 6
Le code de PowerVM Editions (ou Advanced POWER Virtualization) est nécessaire pour installer et
configurer le serveur d’E-S virtuel. Vous pouvez le saisir à partir de la console HMC (Hardware
Management).
Si le dispositif PowerVM Editions n’est pas activé sur votre système, vous devez utiliser la console HMC
pour entrer le code d’activation que vous avez reçu lors de la votre commande. Ce code d’activation
permet également d’activer la technologie Micro-Partitioning sur le système.
Pour entrer votre code d’activation, procédez comme suit :
1. Sur la console HMC, sélectionnez le système géré.
2. Sélectionnez Gestion des activations On Demand.
3. Sélectionnez Technologies Virtualization Engine.
4. Sélectionnez Saisie du code d’activation. Entrez votre code d’activation.
Chapitre 2. Technologie Micro-Partitioning
11
12
Guide d’utilisation de PowerVM Editions
Chapitre 3. Serveur d’E-S virtuel
Gérez le serveur d’E-S virtuel et les partitions logiques client à l’aide de la console HMC (Hardware
Management) et de l’interface en ligne de commande du serveur d’E-S virtuel.
La fonction PowerVM Editions (ou Advanced POWER Virtualization) inclut le support d’installation du
logiciel du serveur d’E-S virtuel. Le serveur d’E-S virtuel facilite le partage des ressources d’E-S
physiques entre les partitions logiques client au sein du serveur.
Si vous installez le serveur d’E-S virtuel dans une partition logique d’un système géré par la console
HMC, vous pouvez utiliser la console HMC et l’interface de ligne de commande du serveur d’E-S virtuel
pour gérer le serveur d’E-S virtuel et les partitions logiques client.
Si vous installez le serveur d’E-S virtuel sur un système géré non connecté à une HMC, lorsque vous
installez le serveur d’E-S virtuel, la partition logique du serveur d’E-S virtuel devient la partition de
gestion. Celle-ci inclut l’interface Web de gestion de système d’Integrated Virtualization Manager et une
interface de ligne de commande que vous pouvez utiliser pour gérer le système. Pour plus d’informations
sur l’utilisation du gestionnaire Integrated Virtualization Manager, voir Chapitre 4, «Integrated
Virtualization Manager», à la page 177.
serveur d’E-S virtuel Présentation
Découvrez les concepts du serveur d’E-S virtuel et ses composants principaux.
Le logiciel du serveur d’E-S virtuel se trouve sur une partition logique. Ce logiciel facilite le partage des
ressources d’E-S physiques entre des partitions logiques client au sein du serveur. Le serveur d’E-S virtuel
offre des fonctions d’unité cible SCSI virtuelle et de carte de réseau Ethernet partagée aux partitions
logiques client du système ; il permet ainsi aux partitions logiques client de partager des unités SCSI et
des cartes Ethernet. Le logiciel du serveur d’E-S virtuel requiert que la partition logique soit dédiée
uniquement à son utilisation.
Le serveur d’E-S virtuel est fourni avec le dispositif matériel PowerVM Editions (ou Advanced POWER
Virtualization).
L’utilisation du serveur d’E-S virtuel facilite les opérations suivantes :
v Partage des ressources physiques entre les partitions logiques du système
v Création de partitions logiques sans utiliser des ressources d’E-S physiques supplémentaires
v Création d’un nombre plus élevé de partitions logiques que d’emplacements d’E-S ou d’unités
physiques avec la possibilité pour les partitions logiques de disposer d’E-S dédiées et/ou d’E-S
virtuelles
v Optimisation de l’utilisation des ressources physiques du système
v Réduction de l’infrastructure de réseau de stockage (SAN)
Le serveur d’E-S virtuel prend en charge les partitions logiques client qui exécutent les systèmes
d’exploitation suivants sur les serveurs équipés du processeur POWER6 ci-après.
Tableau 3. Prise en charge de système d’exploitation pour les partitions logiques client du serveur d’E-S virtuel
Système d’exploitation
Serveurs à base de processeurs POWER6
AIX 5.3 ou version ultérieure
Tous les serveurs équipés du processeur POWER6
13
Tableau 3. Prise en charge de système d’exploitation pour les partitions logiques client du serveur d’E-S
virtuel (suite)
Système d’exploitation
Serveurs à base de processeurs POWER6
SUSE Linux Enterprise Server 10 Service Pack 2 ou
supérieur
v 19F/HA
SUSE Linux Enterprise Server 10 Service Pack 1
v 03E/4A
v 25F/2A
v 04E/8A
v 17M/MA
Red Hat Enterprise Linux version 5.2
v 19F/HA
v 25F/2A
Red Hat Enterprise Linux version 5.1
v 03E/4A
v 04E/8A
v 17M/MA
Red Hat Enterprise Linux version 4.7
19F/HA
Red Hat Enterprise Linux version 4.6
25F/2A
Red Hat Enterprise Linux version 4.5
v 03E/4A
v 04E/8A
v 17M/MA
Le serveur d’E-S virtuel prend en charge les partitions logiques client qui exécutent les systèmes
d’exploitation suivants sur les serveurs équipés du processeur POWER5 :
v
v
v
v
v
AIX 5.3 (ou plus)
SUSE Linux Enterprise Server 9 (ou plus)
SUSE Linux Enterprise Server 10 (ou plus)
Red Hat Enterprise Linux version 4 (ou plus)
Red Hat Enterprise Linux version 5 (ou ultérieure)
Les principaux composants du serveur d’E-S virtuel sont les suivants :
v Cartes SCSI virtuelles
v Réseaux virtuels
v Integrated Virtualization Manager
Les sections suivantes présentent brièvement chaque composant.
Cartes SCSI virtuelles
Les cartes physiques, et les unités de disque ou les unités optiques connectées à la partition logique du
serveur d’E-S virtuel peuvent être partagées par une ou plusieurs partitions logiques client. Le serveur
d’E-S virtuel constitue un sous-système de stockage local qui fournit des numéros d’unité logique (LUN)
compatibles avec SCSI. Le serveur d’E-S virtuel peut exporter un pool de mémoire physique hétérogène
en tant que pool homogène de mémoire de bloc sous la forme de disques SCSI.
Contrairement aux sous-systèmes de stockage classiques qui se trouvent physiquement sur le réseau de
stockage SAN, les unités SCSI exportées par le serveur d’E-S virtuel sont limitées au domaine du serveur.
Bien que les numéros d’unité logique (LUN) SCSI soient compatibles avec SCSI, ils risquent de ne pas
répondre aux besoins de toutes les applications, notamment celles qui se trouvent dans un
environnement réparti.
14
Guide d’utilisation de PowerVM Editions
Les types d’unité de périphérique SCSI sont pris en charge :
v Disque associé à un volume logique
v Disque associé à un volume physique
v Disque associé à un fichier
v Unités optiques (DVD-RAM et DVD-ROM)
v Unités optiques associées à des fichiers
Réseaux virtuels
Le serveur d’E-S virtuel fournit les technologies de réseaux virtuels qui suivent.
Tableau 4. Technologies de réseaux virtuels sur le serveur d’E-S virtuel
Technologies de réseaux virtuels
Description
carte de réseau Ethernet partagée
Une carte de réseau Ethernet partagée est une passerelle
Ethernet de couche 2 qui connecte entre eux les réseaux
physiques. Elle permet aux partitions logiques du réseau
local virtuel (VLAN) de partager l’accès à une carte
Ethernet physique et de communiquer avec des systèmes
situés hors du serveur. Avec une carte de réseau Ethernet
partagée, les partitions logiques du réseau local virtuel
(VLAN) interne peuvent partager le réseau VLAN avec
des serveurs autonomes.
Sur les systèmes équipés d’un processeur POWER6, vous
pouvez affecter un port Ethernet hôte logique d’une carte
Ethernet hôte logique, parfois appelée carte Ethernet
virtuelle intégrée, en tant que carte réelle d’une carte de
réseau Ethernet partagée. Une carte de réseau Ethernet
hôte est une carte de réseau Ethernet physique
directement intégrée au bus GX+ sur un système géré.
Les cartes de réseau Ethernet hôtes offrent un débit
élevé, une faible latence et le support de la virtualisation
pour les connexions Ethernet.
La carte de réseau Ethernet partagée du serveur d’E-S
virtuel prend en charge IPv6. IPv6 est le protocole IP de
future génération et remplace graduellement la norme
Internet actuelle, Internet Protocol version 4 (IPv4). La
principale amélioration d’IPv6 est l’extension de l’espace
adresse IP de 32 à 128 bits, offrant un nombre d’adresses
IP uniques pratiquement illimité.
Reprise par transfert de carte de réseau Ethernet
partagée
La fonction de reprise par transfert de carte de réseau
Ethernet partagée assure la redondance, car elle permet
de configurer une carte de réseau Ethernet partagée de
secours sur une autre partition logique du serveur d’E-S
virtuel, laquelle peut être utilisée en cas de défaillance de
la carte de réseau Ethernet partagée principale. La
connectivité réseau des partitions logiques client est
maintenue, sans interruption.
Agrégation de liaisons (ou EtherChannel)
Une unité d’Agrégation de liaisons (ou EtherChannel) est
une technologie de regroupement de ports réseau
permettant de regrouper plusieurs cartes Ethernet. Les
cartes constituent alors une unité Ethernet unique.
Agrégation de liaisons offre un meilleur débit via une
seule adresse IP que ne le permettrait une seule carte
Ethernet.
Chapitre 3. Serveur d’E-S virtuel
15
Tableau 4. Technologies de réseaux virtuels sur le serveur d’E-S virtuel (suite)
Technologies de réseaux virtuels
Description
Réseaux locaux virtuels (VLAN)
Les réseaux locaux virtuels (VLAN) permettent de
segmenter le réseau physique de manière logique.
Integrated Virtualization Manager
Le gestionnaire Integrated Virtualization Manager est doté d’une interface Web et d’une interface de ligne
de commande qui permettent de gérer certains serveurs qui utilisent le serveur d’E-S virtuel. Sur le
système géré, vous pouvez créer des partitions logiques, gérer la mémoire virtuelle et les connexions
Ethernet virtuelles, et afficher des informations de maintenance relatives au serveur. Integrated
Virtualization Manager est fourni avec le serveur d’E-S virtuel, mais il est activé et utilisable uniquement
sur certaines plateformes, et ce lorsqu’aucune console HMC (Hardware Management Console) n’est
présente.
Interface SCSI virtuelle
L’interface SCSI virtuelle permet aux partitions logiques client de partager les unités optiques et l’espace
de stockage sur disque affectés à la partition logique du serveur d’E-S virtuel.
Les unités optiques et les disques associés aux cartes logiques dans la partition logique du serveur d’E-S
virtuel peuvent être partagés par une ou plusieurs partitions logiques client. Le serveur d’E-S virtuel est
un sous-système de stockage standard qui fournit des numéros d’unité logique (LUN) compatibles avec
l’interface SCSI standard. Le serveur d’E-S virtuel est capable d’exporter un pool de mémoire physique
hétérogène en tant que pool homogène de mémoire de bloc sous forme de disques SCSI. Le serveur d’E-S
virtuel est un sous-système de stockage localisé. Contrairement aux sous-systèmes de stockage classiques
qui se trouvent physiquement sur le réseau de stockage SAN, les unités SCSI exportées par le serveur
d’E-S virtuel sont limitées au domaine du serveur. Par conséquent, bien que les numéros d’unité logique
(LUN) SCSI soient compatibles avec SCSI, ils risquent de ne pas répondre aux besoins de toutes les
applications, notamment celles qui se trouvent dans un environnement réparti.
Les types d’unité SCSI pris en charge sont les suivants :
v Disque associé à un volume logique
v Disque associé à un volume physique
v Disque associé à un fichier
v Optique (CD-ROM, DVD-RAM et DVD-ROM)
v DVD-RAM optique associé à un fichier
L’interface SCSI virtuelle est basée sur une relation client/serveur. Le serveur d’E-S virtuel contient les
ressources physiques ainsi que la carte serveur SCSI virtuelle, et joue le rôle de serveur ou d’unité cible
SCSI. Les partitions logiques client comportent un initiateur SCSI appelé carte client SCSI virtuelle qui
accède aux cibles SCSI virtuelles en tant que numéros d’unité logique (LUN) SCSI standard. Vous
configurez les cartes virtuelles à l’aide de la console HMC ou d’Integrated Virtualization Manager. La
configuration et la fourniture de ressources de disque virtuel sont effectuées par le biais du serveur d’E-S
virtuel. Les disques physiques appartenant au serveur d’E-S virtuel peuvent être exportés et affectés
ensemble à une partition logique client ou partitionnés en volumes logiques ou fichiers. Les volumes et
fichiers logiques peuvent ensuite être affectés à différentes partitions logiques. Par conséquent, l’interface
SCSI virtuelle permet de partager des cartes et des unités de disque. Pour mettre un volume physique, un
volume logique ou un fichier à la disposition d’une partition client, il doit être affecté à une carte SCSI
virtuelle du serveur d’E-S virtuel. La partition logique client accède aux disques qui lui sont alloués via la
carte client SCSI virtuelle. La carte client SCSI virtuelle reconnaît les unités SCSI standards et les numéros
d’unité logique (LUN) via la carte virtuelle.
La figure suivante illustre une configuration SCSI virtuelle standard.
16
Guide d’utilisation de PowerVM Editions
Remarque : Pour que les partitions logiques client puissent accéder aux unités virtuelles, le serveur d’E-S
virtuel doit être pleinement opérationnel.
Présentation du sous-système de stockage du serveur d’E-S virtuel
Cette rubrique décrit le sous-système de stockage du serveur d’E-S virtuel.
Le sous-système de stockage du serveur d’E-S virtuel est un sous-système de stockage standard qui
fournit des numéros d’unité logique (LUN) compatibles SCSI standard. Le serveur d’E-S virtuel est un
sous-système de stockage localisé. Contrairement aux sous-systèmes de stockage classiques qui se
trouvent physiquement sur le réseau de stockage SAN, les unités SCSI exportées par le serveur d’E-S
virtuel sont limitées au domaine du serveur.
À l’instar des sous-systèmes de stockage sur disque classiques, le serveur d’E-S virtuel dispose d’une
partie front-end et d’une partie back-end distinctes. La partie front-end est assurée par l’interface à
laquelle les partitions logiques se connectent pour afficher les numéros d’unité logique (LUN)
compatibles SCSI standard. Les unités présentes sur la partie front-end sont appelées unités SCSI
virtuelles. La partie back-end est composée des ressources de mémoire physique. Ces ressources physiques
incluent le stockage sur disque physique, les unités SAN et de stockage interne, les unités optiques, les
volumes logiques et les fichiers.
Pour créer une unité virtuelle, vous devez allouer et attribuer une part de mémoire physique à une carte
serveur SCSI virtuelle. Ce processus crée une instance d’unité virtuelle (vtscsiX ou vtoptX). L’instance
d’unité peut être considérée comme une unité de mappage. Il ne s’agit pas d’une unité réelle, mais plutôt
d’un mécanisme de gestion du mappage de la partie de stockage back-end physique avec l’unité SCSI
virtuelle front-end. Cette unité de mappage permet de recréer de manière persistante les allocations
physiques/virtuelles lors du redémarrage du serveur d’E-S virtuel.
Chapitre 3. Serveur d’E-S virtuel
17
Mémoire physique
Cette rubrique fournit des informations sur la mémoire physique, sur les volumes logiques ainsi que sur
les unités et configurations prises en charge par le serveur d’E-S virtuel.
Volumes physiques :
Les volumes physiques peuvent être exportés vers des partitions client en tant que disques SCSI virtuels.
Le serveur d’E-S virtuel est capable de récupérer un pool de stockage de disques physiques hétérogènes
associé et de l’exporter en tant que pool de stockage homogène sous forme de numéros d’unité logique
(LUN) de disque SCSI.
Le serveur d’E-S virtuel doit pouvoir identifier précisément un volume physique à chaque redémarrage,
même si un événement, tel qu’une reconfiguration de réseau de stockage SAN ou un changement de
carte a eu lieu. Des attributs de volume physique, tels que le nom, l’adresse et l’emplacement, peuvent
être modifiés après un redémarrage du système en raison d’une reconfiguration SAN. Toutefois, le
serveur d’E-S virtuel doit être en mesure de détecter qu’il s’agit de la même unité et de mettre à jour les
mappages d’unité virtuelle. De ce fait, pour qu’un volume physique puisse être exporté en tant qu’unité
virtuelle, il doit être doté d’un identificateur unique (UDID), d’un identificateur physique (PVID) ou d’un
attribut de volume IEEE.
Pour plus d’informations sur la procédure permettant de déterminer si vos disques comportent l’un de
ces identificateurs, voir «Identification des disques exportables», à la page 90.
Pour gérer les volumes physiques, utilisez les commandes ci-après.
Tableau 5. Commandes liées aux volumes physiques, accompagnées d’une description
Commande liée aux
volumes physiques
Description
lspv
Affiche des informations sur un volume physique dans un groupe de volumes.
Commande migratepv
Déplacer les partitions physiques attribuées, d’un volume physique vers un ou plusieurs
volumes physiques.
Volumes logiques :
Cette rubrique décrit le mode d’exportation des volumes logiques vers les partitions client en tant que
disques SCSI virtuels. Un volume logique est une portion d’un volume physique.
Une hiérarchie de structures est utilisée pour gérer l’espace de stockage sur disque. Chaque unité de
disque ou numéro d’unité logique (LUN), appelé volume physique, porte un nom (/dev/hdisk0, par
exemple). Chaque volume physique en cours d’utilisation appartient à un groupe de volumes ou est
utilisé directement pour le stockage virtuel. Tous les volumes physiques d’un groupe de volumes sont
divisés en partitions physiques de taille identique. Le nombre de partitions physiques de chaque zone
varie en fonction de la capacité totale de l’unité de disque.
Dans un groupe de volumes sont définis un ou plusieurs volumes logiques. Il s’agit de groupes
d’informations situés sur des volumes physiques. Les données des volumes logiques apparaissent comme
étant contiguës aux yeux de l’utilisateur mais peuvent ne pas l’être sur le volume physique. Cela permet
de redimensionner ou déplacer les volumes logiques et de répliquer leur contenu.
Chaque volume logique est composé d’une ou de plusieurs partitions logiques. Chaque partition logique
correspond à une partition physique au moins. Bien que les partitions logiques soient numérotées de
manière consécutive, les partitions physiques sous-jacentes ne sont pas nécessairement consécutives ou
contiguës.
18
Guide d’utilisation de PowerVM Editions
Après l’installation, le système est doté d’un groupe de volumes (rootvg) composé d’un ensemble de
volumes logiques de base nécessaire au démarrage du système.
Vous pouvez utiliser les commandes décrites dans le tableau suivant pour gérer des volumes logiques.
Tableau 6. Commandes liées aux volumes logiques, accompagnées d’une description
Commande liée aux
volumes logiques
Description
chlv
Cette commande modifie les caractéristiques d’un volume logique.
cplv
Cette commande copie le contenu d’un volume logique sur un nouveau volume logique.
extendlv
Augmente la taille d’un volume logique.
lslv
Affiche les informations relatives à un volume logique.
mklv
Créer un volume logique.
mklvcopy
Crée une copie d’un volume logique.
rmlv
Supprime les volumes logiques d’un groupe de volumes.
rmlvcopy
Supprime une copie d’un volume logique.
Le fait de créer un ou plusieurs groupes de volumes distincts plutôt que d’utiliser des volumes logiques
créés dans le groupe de volumes rootvg permet d’installer de nouvelles versions du serveur d’E-S virtuel,
tout en conservant les données client grâce à l’exportation et à l’importation des groupes de volumes
créés pour les E-S virtuelles.
Remarques :
v La taille des volumes logiques faisant office de disques virtuels doit être inférieure à 1 téraoctet (à
savoir 1 099 511 627 776 octets).
v Pour bénéficier de performances optimales, évitez d’utiliser des volumes logiques (sur le serveur d’E-S
virtuel) car les disques virtuels sont copiés ou segmentés sur plusieurs volumes physiques.
Groupes de volumes :
Informations relatives aux groupes de volumes.
Un groupe de volumes est un type de pool de stockage contenant un ou plusieurs volumes physiques de
tailles et de types différents. Un volume physique peut appartenir à un seul groupe de volumes par
système. Le serveur d’E-S virtuel peut comporter jusqu’à 4096 groupes de volumes actifs.
Lorsqu’un volume physique est attribué à un groupe de volumes, les blocs physiques de support de
stockage qu’il contient sont organisés en partitions physiques de taille déterminée par le système lors de
la création du groupe de volumes. Pour plus d’informations, voir «Partitions physiques», à la page 20.
Lorsque vous installez le serveur d’E-S virtuel, le groupe de volumes root, appelé rootvg, est
automatiquement créé. Il contient l’ensemble de volumes logiques de base requis pour démarrer la
partition logique du système. Le groupe de volumes rootvg contient un espace de pagination, le fichier
journal, les données d’amorçage et la mémoire de cliché se trouvant tous sur un volume logique distinct.
rootvg possède des attributs distincts des groupes de volumes définis par l’utilisateur. Par exemple,
rootvg ne peut pas être importé ou exporté. Lorsque vous exécutez une commande ou une procédure sur
le groupe de volumes rootvg, vous devez bien connaître ses caractéristiques spécifiques.
Tableau 7. Commandes liées aux groupes de volumes fréquemment utilisés, accompagnées d’une description
Commande
Description
activatevg
Active un groupe de volumes
Chapitre 3. Serveur d’E-S virtuel
19
Tableau 7. Commandes liées aux groupes de volumes fréquemment utilisés, accompagnées d’une description (suite)
Commande
Description
chvg
Modifie les attributs d’un groupe de volumes
deactivatevg
Désactive un groupe de volumes
exportvg
Exporte la définition d’un groupe de volumes
extendvg
Ajoute un volume physique à un groupe de volumes
importvg
Importe une nouvelle définition de groupe de volumes
lsvg
Affiche des informations sur un groupe de volumes
mkvg
Crée un groupe de volumes
reducevg
Supprime un volume physique d’un groupe de volumes
syncvg
Synchronise les copies de volume logique qui ne sont pas à jour
Les petits systèmes peuvent ne nécessiter qu’un seul groupe de volumes pour contenir tous les volumes
physiques (au-delà du groupe de volumes rootvg). Vous pouvez créer des groupes de volumes distincts
afin de faciliter la maintenance étant donné que les groupes qui ne sont pas en cours de maintenance
peuvent rester actifs. Comme le groupe de volumes rootvg doit toujours rester connecté, il contient
uniquement le nombre minimal de volumes physiques nécessaires au fonctionnement du système. Il est
recommandé de ne pas utiliser rootvg pour les données client.
Vous pouvez déplacer des données d’un volume physique vers un autre appartenant au même groupe de
volumes grâce à la commande migratepv. Cette commande permet de libérer un volume physique de
sorte qu’il puisse être retiré du groupe de volumes. Par exemple, il est possible de déplacer les données
d’un volume physique à remplacer.
Partitions physiques :
Cette rubrique fournit des informations relatives aux partitions physiques.
Lorsque vous ajoutez un volume physique à un groupe de volumes, le volume physique est partitionné
en unités d’espace contiguës et de taille égale appelées partitions physiques. Une partition physique
représente la plus petite unité d’allocation d’espace de stockage et constitue un espace contigu sur un
volume physique.
Les volumes physiques héritent de la taille de la partition physique du groupe de volumes.
Partitions logiques :
Cette rubrique contient des informations relatives aux partitions de mémoire logique.
Lorsque vous créez un volume logique, vous devez préciser sa taille en mégaoctets ou en gigaoctets. Le
système attribue le nombre de partitions logiques nécessaires à la création d’un volume logique faisant au
moins la taille définie. Une partition logique est composée d’une ou deux partitions physiques, selon que
le volume logique est défini avec la fonction miroir activée ou non. Si la fonction miroir n’est pas activée,
il n’existe qu’une seule copie du volume logique (valeur par défaut). Dans ce cas, il existe un mappage
direct d’une partition logique en une partition physique. Chaque instance (y compris la première) est
appelée copie.
Quorums :
Informations relatives aux quorums.
20
Guide d’utilisation de PowerVM Editions
On parle de quorum lorsque la majorité des zones de description de groupe de volumes (VGDA), des
zones d’état de groupe de volumes (VGSA) et des disques correspondants sont actifs. Un quorum
garantit l’intégrité des données des zones VGDA/VGSA en cas de défaillance de disque. Chaque disque
physique d’un groupe de volumes détient au moins une zone VGDA/VGSA. Lorsqu’un groupe de
volumes est créé sur un seul disque, il possède initialement deux zones VGDA/VGSA sur ce disque. Si
un groupe de volumes est composé de deux disques, l’un d’eux est toujours doté de deux zones
VGDA/VGSA, mais l’autre n’en détient qu’une seule. Si le groupe de volumes est composé de trois
disques ou plus, une seule zone VGDA/VGSA est allouée à chaque disque.
Un quorum est perdu lorsque 51 % des zones VGDA/VGSA n’existent plus et qu’il n’est dès lors plus
possible d’accéder à suffisamment de disques et aux zones VGDA/VGSA correspondantes.
Lorsqu’un quorum est perdu, le groupe de volumes est automatiquement désactivé de sorte que le
gestionnaire de volume logique ne puisse plus accéder aux disques. Cela empêche l’envoi d’autres E-S de
disque vers ce groupe de volumes. Ainsi, les données ne sont plus perdues ou présumées écrites
lorsqu’un incident physique se produit. Suite à la désactivation, l’utilisateur est informé, grâce au journal
des erreurs, qu’un incident matériel s’est produit et qu’il va falloir effectuer une opération de
maintenance.
Un groupe de volumes désactivé en raison de la perte de son quorum peut être réactivé à l’aide de la
commande activatevg -f.
Référentiel de supports virtuels :
Le référentiel de supports virtuels constitue un conteneur unique dans lequel stocker et gérer des fichiers
de support optique virtuel sauvegardés sur fichier. Les supports stockés dans le référentiel peuvent être
chargés dans des unités optiques virtuelles sauvegardées sur fichier en vue de leur exportation vers des
partitions clientes.
Un seul référentiel peut être créé dans un serveur d’E-S virtuel.
Le référentiel de supports virtuels est disponible avec serveur d’E-S virtuel version 1.5 ou ultérieure.
Pour le créer et le gérer, les commandes suivantes sont utilisées.
Tableau 8. Commandes liées au référentiel de supports virtuels avec leur description
Commande
Description
chrep
Permet de modifier les caractéristiques du référentiel de supports virtuels
chvopt
Permet de modifier les caractéristiques d’un support optique virtuel
loadopt
Permet de charger un support optique virtuel sauvegardé sur fichier dans une unité
optique virtuelle sauvegardée sur fichier
lsrep
Permet d’afficher des informations sur le référentiel de supports virtuels
lsvopt
Permet d’afficher des informations sur les unités optiques virtuelles sauvegardées sur
fichier
mkrep
Permet de créer le référentiel de supports virtuels
mkvdev
Permet de créer des unités optiques virtuelles sauvegardées sur fichier
mkvopt
Permet de créer des supports optiques virtuels sauvegardés sur fichier
rmrep
Permet de supprimer le référentiel de supports virtuels
rmvopt
Permet de supprimer des supports optiques virtuels sauvegardés sur fichier
unloadopt
Permet de décharger des supports optiques virtuels sauvegardés sur fichier d’une
unité optique virtuelle sauvegardée sur fichier
Chapitre 3. Serveur d’E-S virtuel
21
Pools de stockage :
Cette section contient des informations sur les pools de stockage de volumes logiques et les pools de
stockage de fichiers.
Dans le serveur d’E-S virtuel version 1.5 et supérieure, vous pouvez créer les types de pool de stockage
suivants :
v Pools de stockage de volumes logiques (LVPOOL)
v Pools de stockage de fichiers (FBPOOL)
A l’instar des groupes de volumes, les pools de stockage de volumes logiques sont des ensembles
composés d’un ou de plusieurs volumes physiques. La taille et le type des volumes physiques composant
un pool de stockage de volumes logiques peuvent varier. Les pools de stockage de fichiers sont créés
dans un pool de stockage de volumes logiques parent et contiennent un volume logique incluant un
système de fichiers et des fichiers.
Les pools de stockage de volumes logiques stockent des unités de sauvegarde de volume logique, des
pools de stockage sauvegardés sur fichiers et le référentiel de supports virtuels. Les pools de stockage de
fichiers stockent des unités de sauvegarde sur fichiers.
L’utilisation de pools de stockage n’exige pas de connaissances approfondies en matière de gestion de
groupes de volumes et de volumes logiques pour créer et affecter une mémoire logique à une partition
logique client. Les unités créées à l’aide d’un pool de stockage ne sont pas limitées à la taille des volumes
physiques.
Pour créer et gérer des pools de stockage, utilisez les commandes ci-après.
Tableau 9. Commandes liées aux pools de stockage, accompagnées d’une description
Commande
Description
chsp
Permet de modifier les caractéristiques d’un pool de stockage
chbdsp
Permet de modifier les caractéristiques d’une unité de sauvegarde au sein d’un pool
de stockage.
lssp
Permet d’afficher des informations relatives à un pool de stockage
mkbdsp
Permet de définir une partie de l’espace de stockage d’un pool de stockage en tant
qu’unité de sauvegarde d’une carte SCSI virtuelle.
mksp
Permet de créer un pool de stockage
rmdbsp
Permet de dissocier une unité de secours de sa carte SCSI virtuelle et de la supprimer
du système
rmsp
Permet de supprimer un pool de stockage de fichiers
Pour chaque partition logique du serveur d’E-S virtuel, un seul pool de stockage par défaut peut être
modifié par l’administrateur principal. Si le pool de stockage par défaut n’est pas modifié par
l’administrateur principal, le pool de volumes logiques rootvg est utilisé comme pool de stockage par
défaut.
Ne créez pas de mémoire client dans rootvg. Si vous créez un ou plusieurs pools de stockage de volumes
logiques au lieu d’utiliser le volume rootvg, vous pourrez installer les nouvelles versions du serveur
d’E-S virtuel et conserver les données client en exportant et en important les groupes de volumes créés
pour les E-S virtuelles.
Sauf mention contraire, les commandes liées aux pools de stockage s’appliquent au pool de stockage par
défaut. Cela peut être utile pour les systèmes dans lesquels l’intégralité ou la plupart des unités de
sauvegarde se trouvent dans un pool de stockage unique.
22
Guide d’utilisation de PowerVM Editions
Remarque : Vous ne pouvez pas utiliser les pools de stockage lorsque vous affectez l’ensemble des
volumes physiques en tant qu’unités de secours.
Unités optiques :
Les unités optiques peuvent être exportées par le serveur d’E-S virtuel. Cette rubrique fournit des
informations sur les types d’unité optique pris en charge.
Le serveur d’E-S virtuel prend en charge l’exportation d’unités SCSI optiques. Ces dernières sont appelées
unités optiques SCSI virtuelles. Les unités optiques virtuelles peuvent être sauvegardées par des unités de
DVD ou des fichiers. En fonction de l’unité de secours, le serveur d’E-S virtuel exportera l’unité optique
virtuelle avec l’un des profils suivants :
v DVD-ROM
v DVD-RAM
Les unités optiques virtuelles sauvegardées par des unités optiques physiques ne peuvent être affectées
qu’à une seule partition logique à la fois. Pour utiliser l’unité sur une autre partition logique client, vous
devez d’abord la supprimer de la partition logique en cours, puis la réaffecter à l’autre partition logique.
Stockage virtuel
Les disques et les unités optiques sont pris en charge en tant qu’unités SCSI virtuelles. Cette rubrique
décrit le mode de fonctionnement de ces unités dans un environnement virtualisé et indique les unités
prises en charge.
Disque :
Les unités de disque peuvent être exportées par le serveur d’E-S virtuel. Cette rubrique fournit des
informations sur les types de disque et les configurations pris en charge.
Le serveur d’E-S virtuel prend en charge l’exportation des unités SCSI de disque. Ces unités sont
appelées disques SCSI virtuels. Tous les disques SCSI virtuels doivent être associés à une mémoire
physique. Vous pouvez utiliser les types de mémoire physique suivants pour sauvegarder les disques
virtuels :
v Un disque SCSI virtuel associé à un disque physique
v Un disque SCSI virtuel associé à un volume logique
v Un disque SCSI virtuel associé à un fichier
Dans les trois cas, toutes les règles SCSI standard s’appliquent à l’unité. L’unité SCSI virtuelle va se
comporter comme une unité de disque compatible SCSI standard ; elle peut servir d’unité d’amorçage ou
de poste NIM (Network Installation Management) cible, par exemple.
Délai d’attente du chemin d’accès à la carte client CSI
La fonction de délai d’attente du chemin d’accès à la carte client SCSI virtuelle (VSCSI) permet à la carte
client de détecter si un serveur d’E-S virtuel ne répond pas aux requêtes d’E-S. Utilisez cette fonction
uniquement dans les configurations dans lesquelles des unités sont mises à la disposition d’une partition
logique client à partir de plusieurs serveurs d’E-S virtuels. Il peut s’agir de configurations utilisant la
fonction MPIO ou dans lesquelles un groupe de volumes est mis en miroir par des unités sur plusieurs
serveurs d’E-S virtuels.
Si aucune requête d’E-S exécutée sur la carte du serveur VSCSI n’a été servie dans le délai (en secondes)
indiqué par la valeur de délai d’attente du chemin VSCSI, une ou plusieurs tentatives de contact de la
carte du serveur VSCSI sont effectuées pendant 60 secondes.
Si au terme de 60 secondes, aucune réponse de la carte du serveur n’intervient, toutes les requêtes d’E-S
en attente vers cette carte échouent et une erreur est consignée dans le journal d’erreurs de la partition
Chapitre 3. Serveur d’E-S virtuel
23
logique client. Si la fonction MPIO est utilisée, le module MPIO Path Control tentera d’exécuter à
nouveau les requêtes d’E-S sur un autre chemin. Dans le cas contraire, les requêtes échouées seront
renvoyées aux applications. Si les unités sur cette carte appartiennent au groupe de volumes mis en
miroir, ces unités seront indiquées comme manquantes et le gestionnaire de volume logique enregistrera
les erreurs dans le journal d’erreurs de la partition logique client. Si l’une des unités ayant échoué est le
groupe de volumes root (rootvg) de la partition logique, et que ce dernier n’est pas accessible via un
autre chemin ou n’est pas mis en miroir sur un autre serveur d’E-S virtuel, la partition logique client peut
se fermer. La carte client VSCSI tente alors de rétablir la communication avec le serveur d’E-S virtuel et
enregistre un message dans le journal des erreurs du système dès qu’elle est en mesure de le faire. Les
groupes de volumes en miroir doivent être resynchronisés manuellement en exécutant la commande
varyonvg lorsque les unités manquantes seront à nouveau disponibles.
Un attribut ODM de carte de client VSCSI configurable, vscsi_path_to, est fourni. Cet attribut sert non
seulement à indiquer si la fonction est activée, mais également à enregistrer la valeur du délai d’attente
du chemin si la fonction est activée.
L’administrateur système indique la valeur O pour l’attribut ODM afin de désactiver la fonction ou la
durée d’attente, en secondes, avant de vérifier si le chemin d’accès à la carte du serveur a échoué. Si la
fonction est activée, une valeur minimale de 30 secondes est requise. Si une valeur comprise entre 0 et
30 secondes est indiquée, la valeur sera remplacée par 30 secondes à la prochaine reconfiguration ou
amorçage de la carte.
Cette fonction est désactivée par défaut ; la valeur par défaut de vscsi_path_to est donc 0. Soyez vigilant
lorsque vous définissez cette valeur, en gardant à l’esprit que lorsque la carte du serveur VSCSI sert la
requête d’E-S, l’unité de stockage à laquelle la requête est envoyée peut être locale sur le serveur VIO ou
sur un SAN.
L’attribut de la carte client vscsi_path_to peut être défini à l’aide de l’utilitaire SMIT ou de la commande
chdev -P. La définition de l’attribut peut également être affichée à l’aide de l’utilitaire SMIT ou de la
commande lsattr. La définition ne prendra effet que lorsque la carte sera reconfigurée ou que la machine
sera réamorcée.
Optique :
Les unités optiques peuvent être exportées par le serveur d’E-S virtuel. Cette rubrique fournit des
informations sur les types d’unité optique pris en charge.
Le serveur d’E-S virtuel prend en charge l’exportation d’unités optiques physiques vers des partitions
logiques client. Ces unités sont appelées unités optiques SCSI virtuelles. Les unités optiques SCSI virtuelles
peuvent être sauvegardées par des fichiers ou des unités de DVD. En fonction de l’unité de secours, le
serveur d’E-S virtuel exportera l’unité optique virtuelle avec l’un des profils suivants :
v DVD-ROM
v DVD-RAM
Par exemple, des unités optiques SCSI virtuelles associés à un fichier sont exportées en tant qu’unités de
DVD-RAM. Ces unités peuvent être sauvegardées par des fichiers en lecture-écriture ou en lecture seule.
Selon les droits d’accès aux fichiers, l’unité peut apparaître pour contenir un disque DVD-ROM ou
DVD-RAM. Il n’est pas possible de charger simultanément des fichiers multimédias en lecture-écriture
(DVD-RAM) dans plusieurs unités optiques SCSI virtuelles associées à des fichiers. En revanche, les
fichiers multimédias en lecture seule (DVD-ROM) peuvent être chargés simultanément dans plusieurs
unités optiques SCSI virtuelles associées à des fichiers.
Les unités optiques SCSI virtuelles sauvegardées par des unités optiques physiques ne peuvent être
affectées qu’à une seule partition logique à un moment donné. Pour utiliser l’unité sur une partition
logique client différente, vous devez d’abord la supprimer de sa partition logique actuelle, puis la
réaffecter à la partition logique qui l’utilisera.
24
Guide d’utilisation de PowerVM Editions
Les unités optiques SCSI virtuelles apparaissent toujours en tant qu’unités SCSI sur les partitions logiques
client, que le type d’unité exportée à partir du serveur d’E-S virtuel soit une unité SCSI, IDE, USB ou un
fichier.
Unités de mappage
Les unités de mappage permettent de faciliter le mappage des ressources physiques avec une unité
virtuelle.
Réseaux virtuels
Cette section contient des informations sur le réseau Ethernet virtuel, la carte de réseau Ethernet hôte (ou
carte Ethernet virtuelle intégrée), Internet Protocol version 6 (IPv6), Agrégation de liaisons (ou
EtherChannel), carte de réseau Ethernet partagée, la reprise par transfert de la carte de réseau Ethernet
partagée et le réseau local virtuel (VLAN).
La technologie Ethernet virtuelle facilite la communication IP entre des partitions logiques d’un même
système grâce à des systèmes de commutateurs logiciels compatibles VLAN (réseau local virtuel). Avec la
technologie de carte de réseau Ethernet partagée, les partitions logiques peuvent communiquer avec
d’autres systèmes à l’extérieur de l’unité matérielle sans attribution d’emplacements Ethernet physiques
aux partitions logiques.
Carte de réseau Ethernet hôte
Une carte de réseau Ethernet hôte (HEA) est une carte Ethernet physique directement intégrée au bus GX+
sur un système géré. Les HEA offrent un débit élevé, une faible latence et le support de la virtualisation
pour les connexions Ethernet. Les cartes HEA sont également appelées cartes IVE (Integrated Virtual
Ethernet).
Contrairement à la plupart des types de systèmes d’entrées-sorties, vous ne pouvez jamais affecter la
HEA-même à une partition logique. Les partitions logiques multiples peuvent se connecter directement à
la carte HEA et utiliser ses ressources. Ces partitions logiques peuvent ainsi accéder à des réseaux
externes via la HEA sans passer par un pont Ethernet sur une autre partition logique.
Pour connecter une partition logique à une HEA, vous devez créer une carte de réseau Ethernet hôte
logique (LHEA)pour la partition logique. Une carte de réseau Ethernet hôte logique (LHEA) est une
représentation d’une carte HEA physique sur une partition logique. Pour le système d’exploitation, une
LHEA apparaît comme une carte Ethernet physique tout comme une carte Ethernet virtuelle lui apparaît
comme une carte Ethernet physique. Lorsque vous créez une carte LHEA pour une partition logique,
vous spécifiez les ressources que la partition logique peut utiliser sur la HEA physique véritable. Chaque
partition logique peut avoir une LHEA pour chaque HEA physique sur le système géré. Chaque LHEA
peut avoir un ou plusieurs ports logiques et chaque port logique peut se connecter à un port physique
sur la carte HEA.
Vous pouvez créer une LHEA pour une partition logique en utilisant l’une des méthodes suivantes :
v Vous pouvez ajouter la LHEA à un profil de partition, fermer la partition logique puis la réactiver en
utilisant le profil de partition avec la LHEA.
v Vous pouvez ajouter la carte LHEA à une partition logique en cours de fonctionnement via le
partitionnement logique dynamique. (cette méthode ne peut être utilisée pour des partitions logiques
Linux que si vous installez Red Hat Enterprise Linux version 5.1, Red Hat Enterprise Linux version 4.6
ou une version supérieure de Red Hat Enterprise Linux sur la partition logique).
Lorsque vous activez une partition logique, les LHEA du profil de partition sont considérées comme des
ressources obligatoires. Si les ressources HEA physiques requises par les LHEA ne sont pas disponibles, la
partition logique ne peut pas être activée. Toutefois, lorsque la partition logique est active, vous pouvez
supprimer toute LHEA de la partition logique.
Chapitre 3. Serveur d’E-S virtuel
25
Une fois que vous avez créé une LHEA pour une partition logique, une unité réseau est créée sur la
partition logique. Cette unité réseau est nommée entX sur les partitions logiques AIX et ethX sur les
partitions logiquesLinux, X représentant des numéros attribués de façon séquentielle. L’utilisateur peut
alors définir une configuration TCP/IP similaire à un système Ethernet physique pour communiquer avec
d’autres partitions logiques.
Un port logique peut communiquer avec tous les autres ports logiques connectés au même port physique
sur la carte HEA. Le port physique et ses ports logiques associés forment un réseau Ethernet logique. Les
paquets de diffusion et de multidiffusion sont distribués sur ce réseau logique comme s’il s’agissait d’un
réseau Ethernet physique. Vous pouvez connecter jusqu’à 16 ports logiques à un port physique en
utilisant ce réseau logique. Par extension, vous pouvez connecter jusqu’à 16 partitions logiques les unes
aux autres et à un réseau externe via ce réseau logique. Le nombre effectif de ports logiques que vous
pouvez connecter à un port physique dépend de la valeur de mise à l’échelle multicoeur du groupe de
ports physique et du nombre de ports logiques que vous avez créés pour d’autres ports physiques dans
le groupe de ports physiques. Par défaut, la valeur de mise à l’échelle multicoeur de chaque groupe de
ports physiques est définie à 4, ce qui permet de connecter 4 ports logiques aux ports physiques dans le
groupe de ports physiques. Pour connecter 16 ports logiques aux ports physiques dans le groupe de ports
physiques, vous devez définir à 1 la valeur de mise à l’échelle multicoeur du groupe de ports physiques
puis redémarrer le système géré.
Si vous souhaitez connecter plus de 16 partitions logiques les unes aux autres et à un réseau externe via
un port physique sur une carte HEA, vous pouvez créer un port logique sur une partition logique de
serveur d’entrées-sorties virtuel et configurer un pont Ethernet entre le port logique et un adaptateur
Ethernet virtuel sur un LAN virtuel. Cette approche permet à toutes les partitions logiques des
adaptateurs Ethernet virtuels sur le LAN virtuel de communiquer avec le port physique via le pont
Ethernet. Si vous configurez un pont Ethernet entre un port logique et une carte Ethernet virtuelle, le port
physique qui est connecté au port logique doit avoir les propriétés suivantes :
v Le port physique doit être configuré de façon à ce que la partition logique du serveur d’E-S virtuel soit
la partition de mode espion pour le port physique. Pour davantage d’informations sur la façon de
configurer un port physique, voir Configuration des ports physiques sur la carte hôte Ethernet avec la
console HMC.
v Le port physique ne peut avoir qu’un seul port logique.
Vous pouvez définir chaque port logique pour limiter ou autoriser les paquets référencés pour des
réseaux locaux virtuels spécifiques. Vous pouvez définir un port logique acceptant les paquets ayant
n’importe quel ID de réseau local virtuel ou définir un port logique acceptant uniquement les ID réseau
local virtuel spécifiés. Vous pouvez spécifier jusqu’à 20 ID de réseau local virtuel pour chaque port
logique.
Les ports physiques d’une carte HEA sont toujours configurés au niveau du système géré. Si vous utilisez
une console HMC pour gérer un système, vous devez utiliser cette console HMC pour configurer les
ports physiques sur l’ensemble des HEA appartenant au système géré. De plus, la configuration de port
physique s’applique à toutes les partitions logiques qui utilisent le même port physique. (Certaines
propriétés peuvent nécessiter une configuration au niveau du système d’exploitation également. Par
exemple, la taille de paquet maximale pour un port physique sur la carte HEA doit être définie au niveau
du système géré en utilisant la console HMC. Cependant, vous devez également définir la taille de
paquet maximale pour chaque port logique au niveau du système d’exploitation.) Par contre, si un
système n’est pas partitionné et n’est pas géré par une console HMC, vous pouvez configurer les ports
physiques d’une carte HEA au niveau du système d’exploitation tout comme si les ports physiques
étaient les ports d’une carte Ethernet physique normale.
La carte HEA ne prend pas en charge le mode semi-duplex au niveau matériel.
Vous pouvez modifier les propriétés d’un port logique d’une carte LHEA à l’aide d’un partitionnement
logique pour supprimer le port logique de la partition logique et le rajouter à la partition par le biais des
26
Guide d’utilisation de PowerVM Editions
propriétés modifiées. Si le système d’exploitation de la partition logique ne prend pas en charge le
partitionnement logique dynamique pour les cartes LHEA et que vous souhaitez modifier une propriété
de port logique autre que celle des VLAN sur lesquels le port logique intervient, vous devez définir un
profil de partition pour la partition logique de sorte que le profil de partition contienne les propriétés de
port logique voulues et fermer la partition logique puis l’activer à l’aide du profil de partition nouveau
ou modifié. Si le système d’exploitation de la partition logique ne prend pas en charge le partitionnement
logique dynamique pour les cartes LHEA et que vous souhaitez modifier les VLAN sur lesquels le port
logique intervient, vous devez supprimer le port logique d’un profil de partition appartenant à la
partition logique, fermer puis activer la partition logique à l’aide du profil de partition modifié, rajouter
le port logique au profil de partition par le biais de la configuration VLAN modifiée et de nouveau
arrêter puis activer la partition logique à l’aide du profil de partition modifié.
Internet Protocol version 6
Internet Protocol version 6 (IPv6) est le protocole IP de future génération et remplace graduellement la
norme Internet actuelle Internet Protocol version 4 (IPv4). La principale amélioration d’IPv6 est
l’extension de l’espace adresse IP de 32 à 128 bits, offrant un nombre d’adresses IP uniques pratiquement
illimité.
IPv6 présente plusieurs avantages par rapport à IPv4, notamment la simplification du routage et de
l’adressage, la simplification du format d’en-tête, un contrôle amélioré du trafic, l’autoconfiguration et la
sécurité.
Pour plus d’informations sur IPv6, voir Internet Protocol (IP) Version 6.
Unités d’Agrégation de liaisons ou EtherChannel
Une unité d’Agrégation de liaisons, ou EtherChannel, est une technologie de regroupement de ports
réseau permettant de regrouper plusieurs cartes Ethernet. Les cartes constituent alors une unité Ethernet
unique. Agrégation de liaisons offre un meilleur débit via une seule adresse IP que ne le permettrait une
seule carte Ethernet.
Par exemple, ent0 et ent1 peuvent être regroupées pour former ent3. Le système considère ces cartes
regroupées comme une seule et même carte. La même adresse matérielle est fournie à toutes les cartes de
l’unité d’Agrégation de liaisons, alors les systèmes distants les traitent comme s’il s’agissait d’une seule et
même carte.
L’Agrégation de liaisons améliore la redondance : en cas d’échec d’un lien, l’unité d’Agrégation de
liaisons bascule sur une autre carte de l’unité afin de conserver la liaison. Dans l’exemple précédent, si
ent0 échoue, les paquets sont automatiquement envoyés à la carte disponible suivante ent1, sans
interrompre les connexions utilisateur existantes. Après sa restauration, l’unité ent0 est automatiquement
renvoyée au service de l’unité d’Agrégation de liaisons.
Vous pouvez configurer une carte de réseau Ethernet partagée de sorte à utiliser une unité d’Agrégation
de liaisons (ou EtherChannel) en tant que carte physique.
Cartes Ethernet virtuelles
Les cartes Ethernet virtuelles permettent aux partitions logiques client d’envoyer et de recevoir le trafic
réseau, sans qu’une carte Ethernet physique ne soit nécessaire.
Les cartes Ethernet virtuelles permettent aux partitions logiques d’un même système de communiquer
sans devoir utiliser des cartes Ethernet physiques. Au sein du système, les cartes Ethernet virtuelles sont
connectées à un commutateur Ethernet virtuel IEEE 802.1q. Grâce à la fonction de commutation, les
partitions logiques peuvent communiquer entre elles au moyen de cartes Ethernet virtuelles et via
l’affectation d’ID VLAN (VID). Ces derniers permettent aux cartes Ethernet virtuelles de partager un
réseau logique commun. Le système transmet des paquets en les copiant directement de la mémoire de la
partition logique de l’expéditeur vers les mémoires tampon du destinataire sans les placer dans une
mémoire tampon intermédiaire.
Chapitre 3. Serveur d’E-S virtuel
27
Les cartes Ethernet virtuelles peuvent être utilisées sans le serveur d’E-S virtuel mais les partitions
logiques ne pourront pas communiquer avec des systèmes externes. Dans ce cas de figure, vous pouvez
toutefois utiliser une autre carte, appelée carte de réseau Ethernet hôte (ou carte Ethernet virtuelle
intégrée) afin de faciliter la communication entre les partitions logiques du système et les réseaux
externes.
Vous pouvez créer des cartes Ethernet virtuelles à l’aide de la console HMC (Hardware Management)
(HMC) et les configurer à l’aide de l’interface de ligne de commande du serveur d’E-S virtuel. Vous
pouvez aussi utiliser le gestionnaire Integrated Virtualization Manager pour créer et gérer des cartes
Ethernet virtuelles.
Nous recommandons l’utilisation d’un réseau Ethernet virtuel sur le serveur d’E-S virtuel dans les cas
suivants :
v Si les besoins de la partition logique individuelle en termes de capacité ou de bande passante sont non
constants ou inférieurs à la largeur de bande totale d’une carte Ethernet physique. Les partitions
logiques qui utilisent la totalité de la largeur de bande ou de la capacité d’une carte Ethernet physique
doivent avoir recours à des cartes Ethernet dédiées.
v Si vous avez besoin d’une connexion Ethernet alors qu’aucun emplacement n’est disponible pour
installer une carte dédiée.
Réseaux locaux virtuels (VLAN)
Les réseaux locaux virtuels (VLAN) permettent de segmenter le réseau physique de manière logique.
Il s’agit d’une méthode permettant de segmenter de façon logique un réseau physique de sorte que la
connectivité de couche 2 soit limitée aux membres appartenant au même réseau local virtuel. Cette
séparation est effectuée en marquant les paquets Ethernet avec leurs informations d’appartenance au
réseau local virtuel (VLAN) puis en limitant la transmission aux membres de ce réseau. Le réseau local
virtuel est décrit par la norme IEEE 802.1Q.
Les informations relatives aux marques du réseau local virtuel sont appelées ID VLAN (VID). Les ports
d’un commutateur sont configurés en tant que membres d’un réseau local virtuel désigné par le VID
pour ce port. Le VID par défaut d’un port est appelé VID de port (PVID). Il est possible d’ajouter le VID
à un paquet Ethernet à l’aide d’un hôte VLAN (appartenant au réseau local virtuel) ou d’un
commutateur dans le cas d’hôtes non VLAN. Par conséquent, les ports d’un commutateur Ethernet
doivent être configurés à l’aide des informations indiquant si l’hôte connecté appartient au réseau local
virtuel ou non.
Pour les hôtes non VLAN, un port est configuré comme non marqué et le commutateur marque tous les
paquets qui entrent par ce port avec le PVID. Il va également démarquer tous les paquets qui quittent ce
port avant leur transmission vers un hôte non VLAN. Un port utilisé pour connecter des hôtes non
VLAN est appelé port non marqué ; il ne peut être le membre que d’un seul réseau local virtuel identifié
par son PVID. Les hôtes VLAN peuvent insérer et retirer leurs propres marques et être des membres de
plusieurs réseaux locaux virtuels. Ces hôtes sont en général connectés aux ports qui ne retirent pas les
marques avant de transmettre les paquets à l’hôte, mais qui vont insérer la marque PVID lorsqu’un
paquet non marqué entre par le port. Un port va uniquement admettre les paquets non marqués ou
marqués portant la marque de l’un des réseaux locaux virtuels (VLAN) auquel il appartient. Ces règles
VLAN s’ajoutent aux règles classiques de routage basées sur l’adresse MAC (contrôle d’accès obligatoire)
auxquelles se conforme un commutateur. Par conséquent, un paquet avec une adresse MAC cible de
diffusion ou de multidiffusion est également transmis aux ports des membres appartenant au réseau local
virtuel identifié par les marques du paquet. Ce mécanisme garantit la séparation logique du réseau
physique en fonction de son appartenance à un réseau local virtuel.
Cartes Ethernet partagées
Les cartes Ethernet partagées de la partition logique du serveur d’E-S virtuel permettent aux cartes
Ethernet virtuelles des partitions logiques client d’effectuer des envois et des réceptions en dehors du
trafic réseau.
28
Guide d’utilisation de PowerVM Editions
Une carte de réseau Ethernet partagée est un composant du serveur d’E-S virtuel qui joue le rôle de pont
entre une carte Ethernet physique et une ou plusieurs cartes Ethernet virtuelles :
v La carte réelle peut être une carte Ethernet physique, une unité d’Agrégation de liaisons ou
EtherChannel, ou une carte Ethernet hôte logique (carte LHEA). La carte réelle ne peut pas être une
autre carte de réseau Ethernet partagée, une pseudo-unité VLAN, ni une carte Ethernet virtuelle.
v La carte Ethernet virtuelle doit être une carte Ethernet virtuelle. Il ne peut pas s’agir d’un autre type
d’unité ou de carte.
Avec une carte de réseau Ethernet partagée, les partitions logiques du réseau virtuel peuvent partager
l’accès au réseau physique et communiquer avec des serveurs autonomes et des partitions logiques
d’autres systèmes. La carte de réseau Ethernet partagée évite à chaque partition logique client de disposer
d’une carte réelle pour la connexion au réseau externe.
Une carte de réseau Ethernet partagée fournit un accès en connectant les réseaux locaux virtuels internes
à ceux de commutateurs externes. Avec cette connexion, les partitions logiques peuvent partager le
sous-réseau IP avec des systèmes autonomes et d’autres partitions logiques externes. La carte de réseau
Ethernet partagée achemine vers le réseau externe les paquets sortants envoyés par une carte Ethernet
virtuelle, et transmet les paquets entrants à la partition logique client appropriée via la liaison Ethernet
virtuelle établie avec cette partition logique. La carte de réseau Ethernet partagée traite les paquets au
niveau de la couche 2 ; les autres systèmes du réseau physique peuvent ainsi voir l’adresse MAC
d’origine et les balises VLAN (réseau local virtuel) du paquet.
Protocole GVRP (GARP VLAN Registration Protocol)
Les cartes Ethernet partagées sur le serveur d’E-S virtuel version 1.4 ou ultérieure, prennent en charge le
protocole GVRP (GARP VLAN Registration Protocol), basé sur le protocole GARP (Generic Attribute
Registration Protocol). GVRP permet l’enregistrement dynamique des VLAN sur les réseaux, qui
permettent de réduire le nombre d’erreurs dans la configuration d’un réseau étendu. En propageant
l’enregistrement sur le réseau par la transmission d’unités BPDU (Bridge Protocol Data Units), les unités
du réseau ont une connaissance exacte des VLAN en mode pont configurées sur le réseau.
Si GVRP est activé, la communication s’effectue dans un sens : de la carte de réseau Ethernet partagée
vers le commutateur. La carte de réseau Ethernet partagée indique au commutateur quels réseaux locaux
virtuels (VLAN) peuvent communiquer avec le réseau. La carte de réseau Ethernet partagée ne configure
pas les réseaux VLAN pour la communication avec le réseau en fonction des informations reçues du
commutateur. La configuration des réseaux VLAN pour la communication avec le réseau est déterminée
de façon statique par les paramètres de configuration de la carte Ethernet virtuelle.
carte de réseau Ethernet hôte ou carte Ethernet virtuelle intégrée
Avec le serveur d’E-S virtuel version 1.4, vous pouvez affecter un port Ethernet hôte logique d’une carte
Ethernet hôte logique (LHEA), parfois appelée carte Ethernet virtuelle intégrée, en tant que carte réelle
d’une carte de réseau Ethernet partagée. Le port Ethernet hôte logique est associé au port physique de la
carte de réseau Ethernet hôte. La carte de réseau Ethernet partagée utilise les interfaces du pilote de
périphérique standard fournies par le serveur d’E-S virtuel pour communiquer avec la carte de réseau
Ethernet hôte.
Pour utiliser une carte de réseau Ethernet partagée avec une carte de réseau Ethernet hôte, les conditions
suivantes doivent être remplies :
v Le port Ethernet hôte logique doit être le seul port attribué au port physique de la carte de réseau
Ethernet hôte. Aucun autre port de la carte LHEA ne doit être attribué au port physique de la carte de
réseau Ethernet hôte.
v La carte LHEA de la partition logique du serveur d’E-S virtuel doit être configurée en mode espion.
(Dans un environnement Integrated Virtualization Manager, le mode espion est défini par défaut) Le
Chapitre 3. Serveur d’E-S virtuel
29
mode espion permet à la carte LHEA (sur le serveur d’E-S virtuel) de recevoir tout le trafic de type
destinataire unique, diffusion et multidiffusion issu du réseau physique.
Recommandations
Il est conseillé d’utiliser une carte de réseau Ethernet partagée sur le serveur d’E-S virtuel dans les cas
suivants :
v Si les besoins de la partition logique individuelle en termes de capacité ou de bande passante sont non
constants ou inférieurs à la largeur de bande totale d’une carte Ethernet physique. Les partitions
logiques qui utilisent la totalité de la largeur de bande ou de la capacité d’une carte Ethernet physique
doivent avoir recours à des cartes Ethernet dédiées.
v Si vous prévoyez de faire migrer une partition logique client d’un système vers un autre.
Nous recommandons d’attribuer une carte de réseau Ethernet partagée au port Ethernet hôte logique
lorsque le nombre de cartes Ethernet requises est supérieur au nombre de ports disponibles sur la carte
LHEA ou si vous prévoyez de dépasser ce nombre par la suite. Si le nombre de cartes Ethernet requises
est inférieur ou égal au nombre de ports disponibles sur la carte LHEA et si vous ne prévoyez pas
d’augmenter le nombre de ports par la suite, vous pouvez utiliser les ports de la carte LHEA pour la
connectivité réseau au lieu d’utiliser la carte de réseau Ethernet partagée.
Gestion du serveur d’E-S virtuel
Cette rubrique décrit les outils de gestion du serveur d’E-S virtuel, tels que l’interface de ligne de
commande serveur d’E-S virtuel, ainsi que les produits Tivoli qui permettent de gérer les divers aspects
du serveur d’E-S virtuel.
Sur les systèmes non gérés par une console HMC (Hardware Management) (HMC), le serveur d’E-S
virtuel devient la partition de gestion. Celui-ci comporte l’interface graphique Integrated Virtualization
Manager qui facilite la gestion du système. Pour plus d’informations, voir Chapitre 4, «Integrated
Virtualization Manager», à la page 177.
Interface de ligne de commande du serveur d’E-S virtuel
Cette rubrique explique comment accéder à l’interface de ligne de commande du serveur d’E-S virtuel et
l’utiliser.
Le serveur d’E-S virtuel est configuré et géré par l’intermédiaire d’une interface de ligne de commande.
Dans les environnements ne comportant pas de console HMC, certaines tâches du serveur d’E-S virtuel
peuvent également être exécutées à l’aide d’Integrated Virtualization Manager. Tous les aspects de
l’administration du serveur d’E-S virtuel peuvent être réalisés via l’interface de ligne de commande,
notamment :
v Gestion des unités (physiques, virtuelles, LVM (Logical Volume Manager))
v Configuration du réseau
v
v
v
v
Installation et mise à jour du logiciel
Sécurité
Gestion des utilisateurs
Tâches de maintenance
En outre, dans les environnements gérés par le gestionnaire Integrated Virtualization Manager, vous
pouvez utiliser l’interface de ligne de commande du serveur d’E-S virtuel pour gérer les partitions
logiques.
Lors de votre première connexion au serveur d’E-S virtuel, utilisez l’ID utilisateur padmin (c’est-à-dire
celui de l’administrateur principal). Vous êtes invité à entrer un nouveau mot de passe.
30
Guide d’utilisation de PowerVM Editions
Shell à accès restreint
Lors de la connexion, vous êtes placé dans un shell Korn à accès restreint. Il fonctionne comme un shell
Korn standard, sauf que vous ne pouvez pas :
v Modifier le répertoire de travail en cours
v Attribuer une valeur aux variables SHELL, ENV ou PATH
v Indiquer le nom de chemin d’accès de la commande qui contient une barre oblique (/)
v Rediriger le résultat d’une commande à l’aide de l’un des caractères suivants : >, >|, <>, >>
En conséquence de ces restrictions, vous n’êtes pas en mesure d’exécuter des commandes auxquelles vos
variables PATH n’ont pas accès. En outre, ces restrictions vous empêchent d’envoyer directement le
résultat de la commande vers un fichier. Par contre, le résultat de la commande peut être dirigé vers la
commande tee.
Après la connexion, vous pouvez taper help pour obtenir des informations sur les commandes prises en
charge. Par exemple, pour obtenir de l’aide sur la commande errlog, tapez help errlog.
Mode d’exécution
L’interface de ligne de commande du serveur d’E-S virtuel fonctionne comme une interface de ligne de
commande standard. Les commandes sont exécutées avec les options et les paramètres appropriés. Par
exemple, pour répertorier toutes les cartes, entrez :
lsdev -type adapter
En outre, les scripts peuvent être exécutés dans l’environnement de l’interface de ligne de commande du
serveur d’E-S virtuel.
Outre les commandes d’interface de ligne de commande du serveur d’E-S virtuel, les commandes de shell
standard suivantes sont fournies :
Tableau 10. Commandes de shell standard, accompagnées de leur fonction
Commande
Fonction
awk
Permet de mettre les modèles en correspondance et de réaliser des actions sur eux.
cat
Cette commande permet de concaténer ou d’afficher des fichiers.
chmod
Cette commande permet de modifier les modes d’ouverture de fichier.
cp
Permet de copier des fichiers.
date
Permet d’afficher la date ou l’heure.
grep
Permet de rechercher un fichier pour un modèle.
ls
Permet d’afficher le contenu d’un répertoire
mkdir
Permet de créer un répertoire.
man
Permet d’afficher des entrées manuelles pour les commandes du serveur d’E-S virtuel.
more
Permet d’afficher le contenu des fichiers d’un écran à la fois.
rm
Permet de supprimer des fichiers.
sed
Permet de fournir un éditeur par flot de données.
stty
Permet d’affecter des valeurs aux paramètres d’exploitation du poste de travail, de les
réinitialiser ou de les notifier.
tee
Permet d’afficher le résultat d’un programme et de le copier dans un fichier.
vi
Permet de réviser des fichiers en affichage plein-écran.
Chapitre 3. Serveur d’E-S virtuel
31
Tableau 10. Commandes de shell standard, accompagnées de leur fonction (suite)
Commande
Fonction
wc
Permet de compter le nombre de lignes, de mots, d’octets et de caractères dans un
fichier
who
Permet d’identifier les utilisateurs connectés.
Au fur et à mesure de l’exécution de chaque commande, le journal de l’utilisateur et le journal de
commandes global sont mis à jour.
Le journal de l’utilisateur contient une liste de chaque commande du serveur d’E-S virtuel, y compris les
arguments, que l’utilisateur a exécutée. Un journal de l’utilisateur est créé par utilisateur du système. Ce
journal se trouve dans le répertoire principal de l’utilisateur et peut être affiché grâce à la commande cat
ou vi.
Le journal de commandes global (GCL) comprend toutes les commandes (y compris les arguments) de
l’interface de ligne de commande du serveur d’E-S virtuel exécutées par tous les utilisateurs, la date et
l’heure auxquelles les commandes ont été exécutées et l’ID utilisateur à partir duquel elles ont été
exécutées. Il ne peut être consulté que par l’ID utilisateur padmin à l’aide de la commande lsgcl. Si la
taille du journal de commandes global est supérieure à 1 Mo, il est tronqué à 250 ko pour empêcher le
système de fichiers d’atteindre sa limite de capacité.
Remarque : Les commandes d’Integrated Virtualization Manager sont analysées dans un emplacement
distinct et peuvent être affichées dans les journaux d’application ou à l’aide la commande suivante :
lssvcevents -t console --filter severities=audit
Information associée
Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes
Logiciel Tivoli et le serveur d’E-S virtuel
Apprenez à intégrer le serveur d’E-S virtuel dans votre environnement Tivoli pour Tivoli Application
Dependency Discovery Manager,Tivoli Monitoring, Tivoli Storage Manager, Tivoli Usage and Accounting
Manager, Tivoli Identity Manageret TotalStorage Productivity Center.
Tivoli Application Dependency Discovery Manager
Tivoli Application Dependency Discovery Manager (TADDM) reconnaît des éléments d’infrastructure
détectés dans le centre de données classique, y compris les logiciels d’application, les hôtes et les
environnements d’exploitation (notamment le serveur d’E-S virtuel), les composants du réseau (tels que
les routeurs, les commutateurs, les équilibreurs de charge, les pare-feu et les unités de stockage) et les
services réseau (tels que LDAP, NFS et DNS). Suivant les données collectées, TADDM crée et gère
automatiquement des mappes d’infrastructure d’application contenant les dépendances d’exécution, les
valeurs de configuration et l’historique des changements. Ces informations permettent de déterminer les
interdépendances entre les applications de gestion, les applications logicielles et les composants physiques
pour garantir et améliorer la disponibilité des applications dans votre environnement. Vous pouvez, par
exemple, effectuer les tâches suivantes :
v Vous pouvez isoler les incidents logiciels liés à la configuration.
v Vous pouvez planifier les modifications logicielles afin de réduire ou d’éliminer les interruptions non
prévues.
v Vous pouvez créer une définition topologique partagée d’applications en vue d’une utilisation par
d’autres applications de gestion.
v Vous pouvez déterminer l’effet d’une seule modification de configuration sur une application de
gestion ou un service.
v Vous voyez les modifications effectuées dans l’environnement d’application et leur emplacement.
32
Guide d’utilisation de PowerVM Editions
TADDM comporte un moteur de reconnaissance sans agent et peut donc reconnaître un serveur d’E-S
virtuel sans qu’un agent ou un client soit installé et configuré. TADDM utilise au lieu de cela des
détecteurs de reconnaissance s’appuyant sur des protocoles ouverts et sécurisés et des mécanismes
d’accès pour reconnaître les composants du centre de données.
Pour plus d’informations, reportez-vous au Tivoli Application Dependency Discovery Manager
Information Center.
Tivoli Identity Manager
Tivoli Identity Manager, permet de gérer les identités et les utilisateurs sur plusieurs plateformes,
notamment AIX, Windows, Solaris, etc. Avec Tivoli Identity Manager 4.7, vous pouvez également inclure
les utilisateurs serveur d’E-S virtuel. Tivoli Identity Manager contient un adaptateur serveur d’E-S virtuel
qui sert d’interface entre le serveur d’E-S virtuel et le serveur Tivoli Identity Manager. Il est possible que
l’adaptateur ne se trouve pas sur le serveur d’E-S virtuel. Dans ce cas, le serveur Tivoli Identity Manager
gère l’accès au serveur d’E-S virtuel en utilisant votre système de sécurité. L’adaptateur s’exécute comme
un service, qu’un utilisateur soit connecté ou non au serveur Tivoli Identity Manager. L’adaptateur
fonctionne comme un administrateur virtuel de confiance sur le serveur d’E-S virtuel, exécutant des
tâches semblables aux suivantes :
v Création d’un ID utilisateur autorisant l’accès au serveur d’E-S virtuel.
v Modification d’un ID utilisateur existant permettant d’accéder auserveur d’E-S virtuel.
v Suppression de l’accès à partir d’un ID utilisateur. L’ID utilisateur est supprimé du serveur d’E-S
virtuel.
v Suspension d’un compte utilisateur en désactivant l’accès auserveur d’E-S virtuel.
v Restauration d’un compte utilisateur en réactivant l’accès au serveur d’E-S virtuel.
v Modification du mot de passe d’un compte utilisateur sur leserveur d’E-S virtuel.
v Réconciliation des informations utilisateur de tous les utilisateurs en cours sur le serveur d’E-S virtuel.
v Réconciliation des informations utilisateur d’un compte utilisateur donné sur le serveur d’E-S virtuel
en effectuant une consultation.
Pour plus d’informations, reportez-vous aux manuels des produits Tivoli Identity Manager.
Tivoli Monitoring
serveur d’E-S virtuel V1.3.0.1 (groupe de correctifs 8.1) comporte l’agent Tivoli Monitoring System
Edition. Tivoli Monitoring System Edition , permet de surveiller la santé et la disponibilité de plusieurs
serveurs (y compris le serveur d’E-S virtuel) à partir du portail Tivoli Enterprise. Tivoli Monitoring
System Edition regroupe les données du serveur d’E-S virtuel, notamment les données relatives aux
volumes physiques, aux volumes logiques, aux pools de stockage, aux mappages de mémoire, aux
mappages de réseau, à la mémoire réelle, aux ressources du processeur, à la taille des systèmes de fichiers
montés, etc. Le portail Tivoli Enterprise permet de visualiser une représentation graphique des données,
d’utiliser des seuils prédéfinis afin de recevoir des alertes sur les mesures clés et de résoudre les
problèmes d’après les recommandations fournies par la fonction Expert Advice de Tivoli Monitoring.
Pour plus d’informations, reportez-vous aux ressources suivantes :
v Documentation Tivoli Monitoring6.1
v Tivoli Monitoring serveur d’E-S virtuel Premium Agent User’s Guide
Tivoli Storage Manager
serveur d’E-S virtuel 1.4 inclut le client Tivoli Storage Manager. Avec Tivoli Storage Manager, vous
pouvez protéger les données du serveur d’E-S virtuel en cas de défaillance ou d’erreur en les stockant
dans une hiérarchie d’archivage hors ligne et en les récupérant après un incident. Tivoli Storage Manager
Chapitre 3. Serveur d’E-S virtuel
33
améliore la protection des ordinateurs fonctionnant dans divers environnements d’exploitation,
notamment le serveur d’E-S virtuel, sur différents types de matériel. Si vous configurez le client Tivoli
Storage Manager sur le serveur d’E-S virtuel, vous pouvez inclure le serveur d’E-S virtuel dans une
infrastructure de sauvegarde standard.
Pour plus d’informations, voir Tivoli Storage Manager for UNIX and Linux Backup-Archive Clients
Installation and User’s Guide
Tivoli Usage and Accounting Manager
Le serveur d’E-S virtuel 1.4 inclut l’agent Tivoli Usage and Accounting Manager sur le serveur d’E-S
virtuel. Tivoli Usage and Accounting Manager permet de suivre, d’attribuer et de facturer les coûts
informatiques via la collecte de données, l’analyse des données et l’édition de rapports sur les ressources
utilisées par les entités telles que les centres de coûts, les services et les utilisateurs. Tivoli Usage and
Accounting Manager permet de collecter des données provenant de centres de données multi-niveaux qui
utilisent Windows, AIX, serveur d’E-S virtuel, HP/UX Sun Solaris, Linux, et VMware.
Pour plus d’informations, reportez-vous au Tivoli Usage and Accounting Manager Information Center.
TotalStorage Productivity Center
Le serveur d’E-S virtuel 1.5.2 permet d’installer et de configurer les agents TotalStorage Productivity
Center sur le serveur d’E-S virtuel. TotalStorage Productivity Center est une suite de gestion de
l’infrastructure de stockage intégrée conçue pour simplifier et automatiser la gestion des unités de
stockage et des réseaux de stockage, ainsi que l’utilisation de la capacité des systèmes de fichiers et des
bases de données. Lors de l’installation et de la configuration des agents TotalStorage Productivity Center
sur le serveur d’E-S virtuel, vous pouvez utiliser l’interface utilisateur de TotalStorage Productivity Center
pour collecter et afficher des informations sur le serveur d’E-S virtuel. Vous pouvez ensuite effectuer les
tâches suivantes à l’aide de l’interface utilisateur TotalStorage Productivity Center :
1. Exécuter un travail de repérage pour les agents sur le serveur d’E-S virtuel.
2. Effectuer des sondes, des analyses et des travaux ping pour collecter les informations de stockage
relatives au serveur d’E-S virtuel.
3. Générer des rapports à l’aide de Fabric Manager et du gestionnaire de données pour afficher les
informations de stockage regroupées.
4. Afficher les informations de stockage regroupées à l’aide du visualiseur de topologie.
Pour plus d’informations, voir le fichier PDF TotalStorage Productivity Center support for agents on a Virtual
I/O Server. Pour consulter ou télécharger le fichier PDF, accédez au site Web TotalStorage Productivity
Center v3.3.1.81 Interim Fix.
Tâches associées
«Configuration des agents et des clients Tivoli sur le serveur d’E-S virtuel», à la page 95
Vous pouvez configurer et démarrer l’agent Tivoli Monitoring,, Tivoli Usage and Accounting Manager,
le client Tivoli Storage Manager et les agents Tivoli TotalStorage Productivity Center.
Scénarios de configuration relatifs au serveur d’E-S virtuel
Les scénarios suivants fournissent des exemples de configurations réseau pour la partition logique du
serveur d’E-S virtuel et les partitions logiques client. Les scénarios et les exemples de configuration
ci-après vous permettront d’en apprendre davantage sur le serveur d’E-S virtuel et ses composants.
34
Guide d’utilisation de PowerVM Editions
Scénario : Configuration d’un serveur d’E-S virtuel sans marquage
VLAN
Ce scénario vous permettra de vous familiariser avec la création d’un réseau sans marquage VLAN.
Contexte
Vous êtes l’administrateur système chargé de planifier et de configurer le réseau dans un environnement
dans lequel s’exécute le serveur d’E-S virtuel. Vous souhaitez configurer un sous-réseau logique unique
sur le système qui communique avec le commutateur.
Objectif
L’objectif de ce scénario est de configurer le réseau dans lequel seul un PVID (ID VLAN de port) est
utilisé, les paquets ne sont pas marqués et un réseau interne unique est connecté à un commutateur.
Aucun port marqué VLAN n’est configuré sur le commutateur Ethernet et toutes les cartes Ethernet
virtuelles sont définies à l’aide d’un PVID par défaut unique et aucun autre VID.
Conditions préalables et hypothèses
v La console HMC (Hardware Management Console) a été installée et configurée. Pour consulter le
fichier PDF Guide d’installation et de configuration de la console HMC (SA11-1682), d’une taille
approximative de 3 Mo, voir sa76-0084.pdf
.
v Vous devez avoir compris les concepts de partitionnement décrits dans le document Guide de
partitionnement logique. Pour consulter le fichier PDF Guide de partitionnement logique (SA11-1696), d’une
v
v
v
v
taille approximative de 3 Mo, voir sa76-0098.pdf
.
La partition logique du serveur d’E-S virtuel a été créée et le serveur d’E-S virtuel a été installé. Pour
plus d’informations, voir «Installation du serveur d’E-S virtuel et des partitions logiques client», à la
page 65.
Vous avez créé les autres partitions logiques que vous souhaitez ajouter à la configuration de réseau.
Vous disposez d’un commutateur Ethernet et d’un routeur à ajouter à la configuration.
Vous avez des adresses IP pour toutes les partitions logiques et tous les systèmes à ajouter à la
configuration.
Cette procédure décrit le mode de configuration dans un environnement HMC; il est toutefois possible
d’effectuer cette configuration dans un environnement Integrated Virtualization Manager.
Etapes de la configuration
La figure suivante montre la configuration qui va être effectuée avec ce scénario.
Chapitre 3. Serveur d’E-S virtuel
35
En utilisant la figure précédente comme guide, suivez la procédure ci-après.
1. Configurez un commutateur Ethernet avec des ports non marqués. Vous pouvez également utiliser un
commutateur Ethernet qui n’utilise pas le réseau local virtuel (VLAN).
2. Pour le système S1, utilisez la console HMC pour créer une carte Ethernet virtuelle (V11) pour le
serveur d’E-S virtuel avec la valeur Trunk (carte de ligne réseau), un PVID paramétré sur 1 et aucun
autre VID.
3. Pour le système S1, utilisez la console HMC pour créer les cartes Ethernet virtuelles V12 et V13 pour
les partitions logiques S11 et S12, respectivement, avec un PVID paramétré sur 1 et aucun autre VID.
4. Pour le système S1, utilisez la console HMC pour affecter la carte Ethernet physique E11 au serveur
d’E-S virtuel et la connecter au port de commutation Ethernet P1.
36
Guide d’utilisation de PowerVM Editions
5. Sur le serveur d’E-S virtuel, configurez la carte de réseau Ethernet partagée ent2 avec la carte
physique ent0 et la carte virtuelle ent1.
6. Démarrez les partitions logiques. Le processus reconnaît les unités virtuelles créées à l’étape 1.
7. Configurez des adresses IP pour S11 (en0), S12 (en0) et S2 (en0) de manière à ce qu’elles
appartiennent toutes au même sous-réseau avec le routeur connecté au port P5 du commutateur
Ethernet.
Vous pouvez également configurer la carte de réseau Ethernet partagée de la partition logique du serveur
d’E-S virtuel avec des adresses IP du même sous-réseau. Cette opération est obligatoire uniquement pour
la connectivité réseau vers la partition logique du serveur d’E-S virtuel.
Scénario : Configuration d’un serveur d’E-S virtuel avec marquage
VLAN
Ce scénario vous permettra de vous familiariser avec la création d’un réseau avec marquage VLAN.
Contexte
Vous êtes l’administrateur système chargé de planifier et de configurer le réseau dans un environnement
dans lequel s’exécute le serveur d’E-S virtuel. Vous souhaitez configurer le réseau avec deux sous-réseaux
logiques et des partitions logiques sur chaque sous-réseau.
Objectif
L’objectif de ce scénario est de configurer plusieurs réseaux afin qu’ils puissent partager une seule carte
Ethernet physique. Les systèmes appartenant au même sous-réseau doivent être situés sur le même
réseau local virtuel (VLAN) et donc avoir le même ID VLAN (VID) qui permet les communications sans
devoir passer par un routeur. La séparation entre les sous-réseaux est effectuée en s’assurant que les
systèmes des deux sous-réseaux sont associés à des ID VLAN différents.
Conditions préalables et hypothèses
v La console HMC (Hardware Management Console) a été installée et configurée. Pour consulter le
fichier PDF Guide d’installation et de configuration de la console HMC (SA11-1682), d’une taille
approximative de 3 Mo, voir sa76-0084.pdf
.
v Vous devez avoir compris les concepts de partitionnement décrits dans le document Guide de
partitionnement logique. Pour consulter le fichier PDF Guide de partitionnement logique (SA11-1696), d’une
taille approximative de 3 Mo, voir sa76-0098.pdf
.
v La partition logique du serveur d’E-S virtuel a été créée et le serveur d’E-S virtuel a été installé. Pour
plus d’informations, voir «Installation du serveur d’E-S virtuel et des partitions logiques client», à la
page 65.
v Vous avez créé les autres partitions logiques AIX ou Linux que vous souhaitez ajouter à la
configuration de réseau.
v Vous disposez d’un commutateur Ethernet et d’un routeur à ajouter à la configuration.
v Vous avez des adresses IP pour toutes les partitions logiques et tous les systèmes à ajouter à la
configuration.
Vous ne pouvez pas utiliser la fonction de réseau local virtuel (VLAN) dans un environnement Integrated
Virtualization Manager.
Etapes de la configuration
La figure suivante montre la configuration qui va être effectuée avec ce scénario.
Chapitre 3. Serveur d’E-S virtuel
37
En utilisant la figure précédente comme guide, suivez la procédure ci-après.
1. Configurez les ports du commutateur Ethernet comme suit :
v P1 : Port marqué - VID (ID-VLAN) 1, 2
38
Guide d’utilisation de PowerVM Editions
2.
3.
4.
5.
6.
v P2 : Port non marqué - PVID (ID-VLAN de port) 1
v P5 : Port non marqué - PVID 1
v P6 : Port non marqué - PVID 2
Pour plus d’informations sur la configuration des ports, consultez la documentation accompagnant
votre commutateur.
Pour le système S1, utilisez la console HMC pour créer des cartes Ethernet virtuelles pour le serveur
d’E-S virtuel :
v Créez la carte Ethernet virtuelle V11 pour le serveur d’E-S virtuel avec la valeur Trunk (carte de
ligne réseau) et le VID fixé à 2. Indiquez une valeur de PVID non utilisée. Cette valeur est
obligatoire même si elle n’est pas utilisée.
v Créez la carte Ethernet virtuelle V12 pour le serveur d’E-S virtuel avec la valeur Trunk (carte de
ligne réseau) et le VID fixé à 1. Indiquez une valeur de PVID non utilisée. Cette valeur est
obligatoire même si elle n’est pas utilisée.
Pour le système S1, utilisez la console HMC pour créer des cartes Ethernet virtuelles pour les autres
partitions logiques :
v Créez les cartes Ethernet virtuelles V13 et V14 pour les partitions logiques S11 et S12,
respectivement, avec un PVID fixé à 2 et aucun autre VID.
v Créez les cartes virtuelles V15 et V16 pour les partitions logiques S13 et S14, respectivement, avec
un PVID fixé à 1 et aucun autre VID.
Pour le système S1, utilisez la console HMC pour affecter la carte Ethernet physique (E11) au serveur
d’E-S virtuel et la connecter au port de commutation Ethernet P1.
Sur l’interface de ligne de commande du serveur d’E-S virtuel, configurez une carte de réseau
Ethernet partagée ent3 avec la carte physique ent0 et les cartes virtuelles ent1 et ent2.
Configurez des adresses IP pour les cartes suivantes :
v S13 (en0), S14 (en0) et S2 (en0) appartiennent au réseau local virtuel (VLAN) 1 et figurent sur le
même sous-réseau. Le routeur est connecté au port P5 du commutateur Ethernet.
v S11 (en0) et S12 (en0) appartiennent au VLAN 2 et figurent sur le même sous-réseau. Le routeur est
connecté au port P6 du commutateur Ethernet.
Vous pouvez configurer la carte de réseau Ethernet partagée sur la partition logique du serveur d’E-S
virtuel avec une adresse IP. Cette opération est obligatoire uniquement pour la connectivité réseau vers le
serveur d’E-S virtuel.
Comme le réseau marqué VLAN est utilisé, vous devez définir des unités VLAN supplémentaires sur les
cartes Ethernet partagées avant de configurer les adresses IP.
Scénario : Configuration de la reprise par transfert de carte de réseau
Ethernet partagée
Cette section présente un scénario classique de reprise par transfert de carte de réseau Ethernet partagée.
Contexte
Vous êtes l’administrateur système chargé de planifier et de configurer le réseau dans un environnement
dans lequel s’exécute le serveur d’E-S virtuel. Vous souhaitez assurer une plus grande disponibilité réseau
à la partition logique client sur le système. Pour ce faire, vous pouvez configurer une carte de réseau
Ethernet partagée de secours sur une autre partition logique du serveur d’E-S virtuel.
Objectif
Dans ce scénario, l’objectif est de configurer une carte de réseau Ethernet partagée principale et une de
secours sur les partitions logiques du serveur d’E-S virtuel de manière à ne pas perdre la connexion
réseau des partitions logiques client en cas de défaillance de la carte.
Chapitre 3. Serveur d’E-S virtuel
39
Conditions préalables et hypothèses
v La console HMC (Hardware Management Console) a été installée et configurée. Pour consulter le
fichier PDF Guide d’installation et de configuration de la console HMC (SA11-1682), d’une taille
approximative de 3 Mo, voir sa76-0084.pdf
.
v Vous devez avoir compris les concepts de partitionnement décrits dans le document Guide de
partitionnement logique. Pour consulter le fichier PDF Guide de partitionnement logique (SA11-1696), d’une
v
v
v
v
v
taille approximative de 3 Mo, voir sa76-0098.pdf
.
Deux partitions logiques du serveur d’E-S virtuel distinctes ont été créées et le serveur d’E-S virtuel a
été installé dans chacune d’elles. Pour plus d’informations, voir «Installation du serveur d’E-S virtuel et
des partitions logiques client», à la page 65.
Vous connaissez le principe et le fonctionnement de la reprise par transfert d’une carte de réseau
Ethernet partagée. Voir «Reprise par transfert de carte de réseau Ethernet partagée», à la page 62.
Vous avez créé les autres partitions logiques que vous souhaitez ajouter à la configuration de réseau.
A chaque partition logique du serveur d’E-S virtuel est affectée une carte Ethernet physique disponible.
Vous avez des adresses IP pour toutes les partitions logiques et tous les systèmes à ajouter à la
configuration.
Vous ne pouvez pas utiliser le gestionnaire Integrated Virtualization Manager avec plusieurs partitions
logiques du serveur d’E-S virtuel sur le même serveur.
L’illustration suivante représente une configuration incluant la fonction de reprise par transfert de carte
de réseau Ethernet partagée. Les partitions logiques client H1 et H2 accèdent au réseau physique via les
cartes Ethernet partagées (c’est-à-dire les cartes principales). Les cartes Ethernet virtuelles utilisées dans la
configuration de réseau Ethernet partagée sont définies à l’aide des mêmes informations d’appartenance
au réseau local virtuel (PVID, VID), mais présentent des propriétés différentes. Un réseau virtuel dédié
constitue le canal de contrôle ; il est indispensable pour faciliter la communication entre l’unité Ethernet
partagée principale et celle de secours.
40
Guide d’utilisation de PowerVM Editions
En utilisant la figure précédente comme guide, suivez la procédure ci-après.
1. Sur la console HMC, créez les cartes Ethernet virtuelles en procédant comme suit :
v Configurez les cartes virtuelles à utiliser pour les données en tant que cartes de ligne réseau ; pour
ce faire, sélectionnez l’option correspondante.
v Affectez des valeurs de priorité différentes (les valeurs autorisées sont comprises entre 1 et 15) à
chaque carte virtuelle.
v Configurez une autre carte Ethernet virtuelle à utiliser pour le canal de contrôle et attribuez-lui une
valeur PVID unique. Assurez-vous d’utiliser le même PVID lors de la création de cette carte
Ethernet virtuelle pour les deux partitions logiques du serveur d’E-S virtuel.
2. Sur la ligne de commande du serveur d’E-S virtuel, exécutez la commande suivante pour configurer
la carte de réseau Ethernet partagée. Exécutez cette commande sur les deux partitions logiques du
serveur d’E-S virtuel :
Chapitre 3. Serveur d’E-S virtuel
41
mkvdev -sea carte_physique -vadapter carte_virtuelle -default carte_virtuelle\
-defaultid PVID_carte_virtuelle -attr ha_mode=auto ctl_chan=carte_canal_contrôle
Dans ce scénario, par exemple, nous avons exécuté la commande suivante sur les deux partitions
logiques du serveur d’E-S virtuel :
mkvdev -sea ent0 -vadapter ent1 -default ent1 -defaultid 60 -attr ha_mode=auto ctl_chan=ent2
Scénario : Configuration de la fonction de sauvegarde via l’interface
réseau sur les partitions logiques client AIX sans marquage VLAN
Suivez ce scénario pour vous familiariser avec l’utilisation d’une configuration de fonction de sauvegarde
via l’interface réseau dans les clients d’E-S virtuels qui exécutent des partitions logiques AIX et qui ne
sont pas configurés pour le marquage VLAN.
Contexte
Dans ce scénario, vous souhaitez configurer un environnement virtuel à haute disponibilité pour votre
réseau en mode pont à l’aide de la méthode de sauvegarde via l’interface réseau (NIB/Network Interface
Backup) pour accéder aux réseaux externes à partir de vos clients d’E-S virtuels. Vous n’envisagez pas
d’utiliser le marquage VLAN dans la configuration de votre réseau. Cette méthode requiert la
configuration d’une seconde carte Ethernet sur un autre réseau local virtuel (VLAN) pour chaque client et
l’utilisation d’une carte d’Agrégation de liaisons avec les fonctions NIB. Cette configuration n’est
disponible que pour les partitions logiques AIX.
En règle générale, une configuration de reprise par transfert de carte de réseau Ethernet partagée est
recommandée pour la plupart des environnements car elle prend en charge les environnements avec ou
sans marquage VLAN. Par ailleurs, la configuration NIB est plus complexe qu’une configuration de
reprise par transfert de carte de réseau Ethernet partagée, car elle doit être implémentée sur chaque
client. La configuration de reprise par transfert de carte de réseau Ethernet partagée n’était pas disponible
avant la version 1.2 de Virtual I/O Server. La configuration NIB était la seule méthode possible pour un
environnement virtuel à haute disponibilité. Dans une configuration NIB, vous pouvez également répartir
les clients sur les deux cartes Ethernet partagées de sorte que la moitié d’entre eux utilise la première
carte de réseau Ethernet partagée et que l’autre moitié utilise la seconde carte de réseau Ethernet partagée
comme carte primaire.
Objectif
Créez un environnement Ethernet virtuel à l’aide d’une configuration de la sauvegarde via l’interface
réseau, comme le montre la figure suivante.
42
Guide d’utilisation de PowerVM Editions
Conditions préalables et hypothèses
Avant d’exécuter les tâches de configuration, prenez connaissance des conditions préalables et hypothèses
suivantes.
v La console HMC (Hardware Management) a été installée. Pour consulter le fichier PDF Guide
d’installation et de configuration de la console HMC (SA11-1682), d’une taille approximative de 3 Mo, voir
v
v
v
v
.
sa76-0084.pdf
Deux partitions logiques du serveur d’E-S virtuel distinctes ont été créées et le serveur d’E-S virtuel a
été installé dans chacune d’elles. Pour plus d’informations, voir«Installation du serveur d’E-S virtuel et
des partitions logiques client», à la page 65.
Vous avez créé les autres partitions logiques que vous souhaitez ajouter à la configuration de réseau.
A chaque partition logique du serveur d’E-S virtuel est affectée une carte Ethernet physique disponible.
Vous avez des adresses IP pour toutes les partitions logiques et tous les systèmes à ajouter à la
configuration.
Chapitre 3. Serveur d’E-S virtuel
43
Tâches de configuration
En vous aidant de l’illustration, effectuez les tâches suivantes pour configurer l’environnement virtuel
NIB.
1. Créez une connexion LAN entre les serveurs d’E-S virtuels et le réseau externe :
a. Configurez une carte de réseau Ethernet partagée sur le serveur d’E-S virtuel primaire qui
achemine le trafic entre la carte Ethernet virtuelle et le réseau externe. Voir «Configuration d’une
carte de réseau Ethernet partagée», à la page 93.
b. Configurez une carte de réseau Ethernet partagée sur le second serveur d’E-S virtuel, comme à
l’étape 1.
2. Pour chaque partition logique client, utilisez la console HMC pour créer une carte Ethernet virtuelle
dont le port PVID correspond au port PVID du serveur d’E-S virtuel primaire. Elle sera utilisée
comme carte primaire.
3. Pour chaque partition logique client, utilisez la console HMC pour créer une seconde carte Ethernet
virtuelle dont le port PVID correspond au port PVID du second serveur d’E-S virtuel (de sauvegarde).
Elle sera utilisée comme carte de sauvegarde.
4. Créez la configuration de la fonction de sauvegarde via l’interface réseau (NIB) à l’aide de la
configuration d’Agrégation de liaisons. Assurez-vous que les conditions suivantes sont respectées :
a. Sélectionnez la carte Ethernet primaire.
b. Sélectionnez la carte de sauvegarde.
c. Indiquez l’adresse Internet devant faire l’objet d’un Ping. Sélectionnez l’adresse IP ou le nom
d’hôte d’un hôte en dehors du serveur d’E-S virtuel que la configuration NIB continuera de tester
pour détecter l’incident serveur d’E-S virtuel.
Remarque : N’oubliez pas que, lorsque vous configurez la sauvegarde via l’interface réseau (NIB) avec
deux cartes Ethernet virtuelles, les réseaux internes doivent rester distincts au niveau de hypervisor. Vous
devez par conséquent utiliser différents PVID pour les deux cartes du client et vous ne pouvez pas
utiliser d’autres VID sur celles-ci.
Scénario : configuration de la fonction MPIO (Multi-Path I/O) pour les
partitions logiques client AIX
La fonction MPIO (Multi-Path I/O) permet d’accroître la disponibilité des ressources SCSI virtuelles en
fournissant à ces dernières des chemins redondants. Cette rubrique explique comment configurer la
fonction MPIO (Multi-Path I/O) pour les partitions logiques client AIX.
Pour fournir la fonction MPIO à des partitions logiques client AIX, deux partitions logiques de serveur
d’E-S virtuel doivent être configurées sur votre système. Cette procédure suppose que les disques soient
déjà alloués aux deux partitions logiques du serveur d’E-S virtuel impliquées dans cette configuration.
Pour configurer la fonction MPIO, procédez comme suit. Dans ce scénario, nous utiliserons, pour la
configuration, les disques hdisk5 (dans la première partition logique du serveur d’E-S virtuel) et hdisk7
(dans la deuxième partition logique du serveur d’E-S virtuel).
La figure suivante montre la configuration qui va être effectuée avec ce scénario.
44
Guide d’utilisation de PowerVM Editions
En utilisant la figure précédente comme guide, suivez la procédure ci-après.
1. A l’aide de la console HMC, créez les cartes de serveur SCSI sur les deux partitions logiques serveur
d’E-S virtuel.
2. A partir de la console HMC, créez deux cartes SCSI de client virtuel sur les partitions logiques client,
chacune devant être mappée avec l’une des partitions logiques du serveur d’E-S virtuel.
3. Sur l’une des partitions logiques du serveur d’E-S virtuel, indiquez les disques disponibles en
entrant lsdev -type disk. Les résultats obtenus sont semblables à ce qui suit :
name
hdisk3
hdisk4
hdisk5
status
description
Available
Available
Available
MPIO Other FC SCSI Disk Drive
MPIO Other FC SCSI Disk Drive
MPIO Other FC SCSI Disk Drive
Sélectionnez le disque à utiliser dans la configuration MPIO. Dans ce scénario, nous avons
sélectionné hdisk5.
4. Déterminez l’identificateur du disque que vous avez sélectionné. Pour plus d’informations, voir
«Identification des disques exportables», à la page 90. Dans ce scénario, le disque n’a pas
d’identificateur d’attribut de volume IEEE ni d’identificateur unique (UDID). Par conséquent, la
détermination de l’identificateur physique (PVID) exige d’exécuter la commande lspv hdisk5. Les
résultats obtenus sont semblables à ce qui suit :
hdisk5
00c3e35ca560f919
None
La deuxième valeur correspond au PVID. Dans le présent scénario, le PVID est 00c3e35ca560f919.
Notez cette valeur.
Chapitre 3. Serveur d’E-S virtuel
45
5. Obtenez la liste des attributs du disque en utilisant la commande lsdev. Dans ce scénario, nous
avons saisi lsdev -dev hdisk5 -attr. Les résultats obtenus sont semblables à ce qui suit :
..
lun_id
..
..
pvid
..
reserve_policy
0x5463000000000000
Logical Unit Number ID
False
00c3e35ca560f9190000000000000000 Physical volume identifier
False
single_path
True
Reserve Policy
Prenez note des valeurs des attributs lun_id et reserve_policy. Si la valeur de l’attribut reserve_policy
n’est pas no_reserve, vous devez la modifier. Pour attribuer la valeur no_reserve à l’attribut
reserve_policy, entrez chdev -dev hdiskx -attr reserve_policy=no_reserve.
6. Sur la deuxième partition logique du serveur d’E-S virtuel, obtenez la liste des volumes physiques
en entrant la commande lspv. Dans le résultat obtenu, repérez le disque disposant du même PVID
que le disque identifié précédemment. Dans ce scénario, le PVID du hdisk7 correspond :
hdisk7
00c3e35ca560f919
None
Conseil : Bien que les valeurs PVID doivent être identiques, les numéros de disque sur les deux
partitions logiques du serveur d’E-S virtuel peuvent être différents.
7. Déterminez si l’attribut reserve_policy est paramétré sur no_reserve en utilisant la commande lsdev.
Dans ce scénario, nous avons saisi lsdev -dev hdisk7 -attr. Les résultats obtenus sont semblables à
ce qui suit :
..
lun_id
..
pvid
..
reserve_policy
0x5463000000000000
Logical Unit Number ID
00c3e35ca560f9190000000000000000 Physical volume identifier
single_path
False
False
Reserve Policy
Si la valeur de l’attribut reserve_policy n’est pas no_reserve, vous devez la modifier. Pour attribuer
la valeur no_reserve à l’attribut reserve_policy, entrez chdev -dev hdiskx -attr
reserve_policy=no_reserve.
8. Sur les deux partitions logiques du serveur d’E-S virtuel, utilisez la commande mkvdev pour créer
les unités virtuelles. Pour chacune, veillez à utiliser la valeur hdisk appropriée. Dans ce scénario,
nous utilisons les commandes suivantes :
v Sur la première partition logique du serveur d’E-S virtuel, nous avons saisi mkvdev -vdev hdisk5
-vadapter vhost5 -dev vhdisk5.
v Sur la deuxième partition logique du serveur d’E-S virtuel, nous avons entré mkvdev -vdev hdisk7
-vadapter vhost7 -dev vhdisk7.
Le même numéro d’unité logique (LUN) est à présent exporté vers la partition logique du client à
partir de deux partitions logiques de serveur d’E-S virtuel.
9. Vous pouvez désormais installer AIX sur la partition logique client. Pour plus d’informations sur
l’installation d’AIX, voir Installation d’AIX dans un environnement partitionné, dans l’Information
Center serveurs et AIX.
10. Une fois que vous avez installé AIX sur la partition logique client, vérifiez MPIO en exécutant la
commande suivante :
lspath
Les résultats obtenus sont semblables à ce qui suit :
Enabled hdisk0 vscsi0
Enabled hdisk0 vscsi1
46
Guide d’utilisation de PowerVM Editions
En cas d’échec de l’une des partitions logiques de serveur d’E-S virtuel, le résultat de la commande
lspath sera du type suivant :
Failed hdisk0 vscsi0
Enabled hdisk0 vscsi1
A moins que les attributs hcheck_mode et hcheck_interval soient définis, l’état restera en mode échec
(Failed), et ce même après récupération du disque. Pour que l’état soit mis à jour automatiquement,
entrez chdev -l hdiskx -a hcheck_interval=60 -P. Pour que cette modification prenne effet, vous
devez redémarrer la partition logique client.
Planification du serveur d’E-S virtuel
Cette rubrique vous éclaire sur les différents points à prendre en compte lors de la planification du
serveur d’E-S virtuel. La présente section fournit des informations sur la planification relative au serveur
d’E-S virtuel.
Spécifications
Cette rubrique définit les différentes possibilités de configuration, notamment le nombre minimal de
ressources nécessaires et le nombre maximal de ressources autorisées.
Pour activer le serveur d’E-S virtuel, vous devez disposer de la fonctionnalité matérielle PowerVM
Editions (ou Advanced POWER Virtualization). Vous devez également disposer d’une partition logique
possédant suffisamment de ressources à partager avec les autres partitions logiques. Vous trouverez
ci-après une liste des dispositifs matériels minimaux nécessaires à la création du serveur d’E-S virtuel.
Tableau 11. Ressources requises
Ressource
Configuration requise
console HMC (Hardware
Management) ou Integrated
Virtualization Manager
La console HMC ou le gestionnaire Integrated Virtualization Manager est nécessaire
pour créer la partition logique et allouer les ressources.
Carte de mémoire
La partition logique du serveur nécessite au moins une carte de mémoire.
Disque physique
Le disque doit être d’au moins 16 Go. Ce disque peut être partagé.
Carte Ethernet
Une carte Ethernet est nécessaire si vous souhaitez acheminer le trafic réseau de
cartes Ethernet virtuelles vers une carte de réseau Ethernet partagée.
Mémoire
Pour les systèmes équipés du processeur POWER6, vous devez disposer d’au moins
768 Mo de mémoire. Pour les systèmes équipés du processeur POWER5, vous devez
disposer d’au moins 512 Mo de mémoire.
Processeur
Un minimum de 0,1 processeur est requis.
Le tableau suivant illustre les limitations liées à la gestion de l’espace de stockage.
Tableau 12. Limitations liées à la gestion de l’espace de stockage
Catégorie
Limitation
Groupes de volumes
4096 par système
Volumes physiques
1024 par groupe de volumes
Partitions physiques
1024 par groupe de volumes
Volumes logiques
1024 par groupe de volumes
Partitions logiques
Aucune limite
Chapitre 3. Serveur d’E-S virtuel
47
Limites et restrictions
Informations sur les limites de configuration du serveur d’E-S virtuel.
Tenez compte des points suivants lors de l’implémentation de l’interface SCSI virtuelle :
v L’interface SCSI virtuelle prend en charge les normes de connexion suivantes pour les unités de
support : Fibre Channel, SCSI, SCSI RAID, iSCSI, SAS, SATA, USB et IDE.
v Le protocole SCSI définit les commandes obligatoires et facultatives. L’interface SCSI virtuelle prend en
charge toutes les commandes obligatoires, mais ne prend pas en charge toutes les commandes
facultatives.
v L’utilisation d’unités SCSI virtuelles a une incidence sur les performances. Le modèle client/serveur
étant constitué de couches de fonctions, l’utilisation de l’interface SCSI virtuelle peut consommer
davantage de cycles de processeur lors du traitement des demandes d’E-S.
v Le serveur d’E-S virtuel est une partition logique dédiée ne devant être utilisée que pour les opérations
liées au serveur d’E-S virtuel. Aucune autre application ne peut s’exécuter sur la partition logique du
serveur d’E-S virtuel.
v Une dégradation des performances peut avoir lieu en cas de ressources insuffisantes. Si un serveur
d’E-S virtuel fournit beaucoup de ressources aux autres partitions logiques, vérifiez que vous disposez
d’une puissance de processeur suffisante. En cas de charge de travail élevée au niveau des cartes
Ethernet virtuelles et des disques virtuels, les partitions logiques peuvent subir des retards lors de
l’accès aux ressources.
v Les volumes logiques et les fichiers exportés en tant que disques SCSI virtuels sont toujours configurés
comme des unités à accès unique sur la partition logique client.
v Les volumes logiques ou fichiers exportés en tant que disques SCSI virtuels appartenant au groupe de
volumes root (rootvg) ne sont pas persistants si vous réinstallez le serveur d’E-S virtuel. En revanche,
ils sont persistants si vous mettez à jour le serveur d’E-S virtuel avec un nouveau Service Pack. Par
conséquent, avant de réinstaller le serveur d’E-S virtuel, veillez à sauvegarder les disques virtuels des
clients correspondants. Lors de l’exportation de volumes logiques, il est préférable d’exporter les
volumes logiques d’un autre groupe que ceux du groupe de volumes root. Lors de l’exportation de
fichiers, il est préférable de créer des pools de stockage de fichiers et le référentiel de supports virtuels
dans un pool de stockage parent qui ne soit pas le groupe de volumes root.
Tenez compte des points suivants lors de l’implémentation de cartes virtuelles :
v Seules les cartes Ethernet peuvent être partagées. Les autres types de carte de réseau ne peuvent pas
l’être.
v L’acheminement IP n’est pas pris en charge sur le serveur d’E-S virtuel.
v Le nombre maximal de cartes virtuelles peut être compris entre 2 et 65 536. Toutefois, si vous attribuez
une valeur supérieure à 1024 au nombre maximum de cartes virtuelles, il est possible que la partition
logique ne parvienne pas à s’activer ou que le microprogramme du serveur ait besoin de davantage de
mémoire système pour gérer les cartes virtuelles.
Le serveur d’E-S virtuel prend en charge les partitions logiques client qui exécutent les systèmes
d’exploitation suivants sur les serveurs équipés du processeur POWER6 ci-après.
Tableau 13. Prise en charge de système d’exploitation pour les partitions logiques client du serveur d’E-S virtuel
Système d’exploitation
Serveurs à base de processeurs POWER6
AIX 5.3 ou version ultérieure
Tous les serveurs équipés du processeur POWER6
SUSE Linux Enterprise Server 10 Service Pack 2 ou
supérieur
v 19F/HA
SUSE Linux Enterprise Server 10 Service Pack 1
v 03E/4A
v 25F/2A
v 04E/8A
v 17M/MA
48
Guide d’utilisation de PowerVM Editions
Tableau 13. Prise en charge de système d’exploitation pour les partitions logiques client du serveur d’E-S
virtuel (suite)
Système d’exploitation
Serveurs à base de processeurs POWER6
Red Hat Enterprise Linux version 5.2
v 19F/HA
v 25F/2A
Red Hat Enterprise Linux version 5.1
v 03E/4A
v 04E/8A
v 17M/MA
Red Hat Enterprise Linux version 4.7
19F/HA
Red Hat Enterprise Linux version 4.6
25F/2A
Red Hat Enterprise Linux version 4.5
v 03E/4A
v 04E/8A
v 17M/MA
Le serveur d’E-S virtuel prend en charge les partitions logiques client qui exécutent les systèmes
d’exploitation suivants sur les serveurs équipés du processeur POWER5 suivants :
v AIX 5.3 (ou plus)
v SUSE Linux Enterprise Server 9 (ou plus)
v SUSE Linux Enterprise Server 10 (ou plus)
v Red Hat Enterprise Linux version 4 (ou plus)
v Red Hat Enterprise Linux version 5 (ou ultérieure)
Prévision de la capacité
Cette rubrique fournit des remarques sur la prévision de la capacité pour le serveur d’E-S virtuel,
notamment des informations sur les limites et les ressources matérielles.
Les partitions logiques client peuvent utiliser des unités virtuelles, des unités dédiées ou une association
de ces deux types d’unité. Avant de commencer à configurer et à installer le serveur d’E-S virtuel et des
partitions logiques client, planifiez les ressources qui seront utilisées par chaque partition logique. Vous
devez prendre en compte les exigences de débit et la charge de travail globale pour décider si vous
utiliserez des unités virtuelles ou dédiées, et pour définir les ressources à allouer au serveur d’E-S virtuel.
Si on les compare aux disques SCSI dédiés, les disques SCSI virtuels peuvent permettre d’obtenir des
valeurs de débit similaires, selon différents facteurs (en particulier, la charge de travail et les ressources
de l’unité SCSI virtuelle). Toutefois, les unités SCSI virtuelles sollicitent généralement davantage les
processeurs que les unités de stockage directement connectées.
Planification de l’interface SCSI virtuelle
Informations relatives à la planification de la capacité et aux performances de l’interface SCSI.
En termes de performances, la qualité varie selon les sous-systèmes d’E-S. Il en va de même pour
l’interface SCSI virtuelle. La présente section décrit les différences de performance entre les E-S physiques
et virtuelles. Vous y trouverez les informations suivantes :
Temps d’attente de l’interface SCSI virtuelle :
Informations relatives au temps d’attente lié à l’interface SCSI virtuelle.
Le temps d’attente d’entrée-sortie (E-S) correspond au délai entre le lancement et l’exécution d’une
opération d’E-S. Prenons l’exemple d’un programme qui exécute 1000 opérations d’E-S aléatoires sur
disque, une par une. Si le temps nécessaire pour exécuter une opération moyenne est de 6 millisecondes,
Chapitre 3. Serveur d’E-S virtuel
49
le programme ne s’exécute pas en moins de 6 secondes. Toutefois, si le temps de réponse moyen est
abaissé à 3 millisecondes, le temps d’exécution du programme peut être réduit de 3 secondes. Les
applications à unités d’exécutions multiples ou qui utilisent des E-S asynchrones peuvent être moins
sensibles aux temps d’attente mais dans la plupart des cas, des temps d’attente réduits permettent
d’améliorer les performances.
L’interface SCSI virtuelle est mise en oeuvre en tant que modèle client-serveur, ce qui se traduit par un
temps d’attente qui n’existe pas avec des unités de stockage connectées directement. Ce temps d’attente
peut être de 0,03 à 0,06 millisecondes par opération d’E-S, en fonction principalement de la longueur de
bloc de la demande. Le temps d’attente moyen est comparable pour les unités virtuelles basées sur des
disques physiques et des volumes logiques. Les temps d’attente liés à l’utilisation d’un serveur d’E-S
virtuel dans une partition logique de processeur partagé peuvent être plus élevés et plus variables
qu’avec un serveur d’E-S virtuel dans une partition dédiée. Pour plus d’informations sur les différences
de performances entre les partitions logiques dédiées et les partitions logiques de traitement partagé, voir
«Considérations sur le dimensionnement de l’interface SCSI virtuelle», à la page 51.
Le tableau suivant identifie les temps d’attente (en millisecondes) pour des transmissions de différentes
tailles de bloc sur des disques physiques et des disques SCSI virtuels associés à des volumes logiques.
Tableau 14. Augmentation du temps de réponse d’E-S sur disque en fonction de la longueur de bloc (en
millisecondes)
Type
4 ko
8 ko
32 ko
64 ko
128 ko
Disque physique
0,032
0,033
0,033
0,040
0,061
Volume logique
0,035
0,036
0,034
0,040
0,063
Le temps de réponse moyen croît avec l’augmentation de la longueur de bloc. L’augmentation des temps
d’attente d’une opération SCSI virtuelle est relativement plus importante sur des longueurs de bloc
courtes en raison du temps de réponse moins élevé qui leur est associé.
Bande passante de l’interface SCSI virtuelle :
Informations relatives à la largeur de bande de l’interface SCSI virtuelle.
La largeur de bande d’entrée-sortie correspond à la quantité maximale de données pouvant être lue ou
écrite sur une unité de stockage dans une unité de temps. La largeur de bande peut être mesurée à partir
d’une seule unité d’exécution ou d’un ensemble d’unités d’exécution s’exécutant simultanément. Même si
de nombreuses applications client sont plus sensibles au temps d’attente qu’à la largeur de bande, la
largeur de bande joue un rôle essentiel dans de nombreuses opérations courantes, telles que la
sauvegarde et la restauration de données rémanentes.
Le tableau suivant compare les résultats des tests de largeur de bande pour l’interface SCSI virtuelle et
les performances d’E-S physiques. Lors des tests, une unité d’exécution unique fonctionne en mode
séquentiel sur un fichier constant de 256 Mo avec un serveur d’E-S virtuel s’exécutant dans une partition
dédiée. D’autres opérations d’E-S sont émises lors de la lecture ou de l’écriture sur ce fichier avec une
longueur de bloc plus petite. Le test a été effectué à l’aide d’un serveur de stockage avec le code fonction
6239 (type 5704/0625) et une carte à canal optique 2 gigabit associée à un élément RAID0 LUN composé
de cinq disques physiques provenant d’un système de disques DS4400 (auparavant un système
FAStT700). Le tableau dresse une comparaison de la largeur de bande mesurée en mégaoctets par
seconde (Mo/s) via une interface SCSI virtuelle et une connexion locale pour des lectures avec des
opérations de longueur de bloc variable. La différence entre les E-S virtuelles et les E-S physiques dans
ces tests est attribuable au temps d’attente plus long lorsque les E-S virtuelles sont utilisées. En raison du
nombre plus important d’opérations, la largeur de bande mesurée avec des petites longueurs de bloc est
moins élevée qu’avec des longueurs de bloc plus grandes.
50
Guide d’utilisation de PowerVM Editions
Tableau 15. Comparaison de la largeur de bande physique (en Mo/s) entre le mode physique et le mode interface
SCSI virtuelle
Type d’E-S
4 ko
8 ko
32 ko
64 ko
128 ko
Mode virtuel
20,3
35,4
82,6
106,8
124,5
Physique
24,3
41,7
90,6
114,6
132,6
Considérations sur le dimensionnement de l’interface SCSI virtuelle :
Cette rubrique décrit les critères de taille de mémoire et de processeur à prendre en compte lors de
l’implémentation de l’interface SCSI virtuelle.
Lorsque vous concevez et implémentez un environnement d’application d’interface SCSI virtuelle, prenez
en compte les facteurs suivants concernant le dimensionnement :
v Quantité de mémoire allouée au serveur d’E-S virtuel
v Autorisation d’utilisation des processeurs du serveur d’E-S virtuel
v Exécution du serveur d’E-S virtuel en tant que partition logique de processeur partagé ou en tant que
partition logique de processeur dédié
Il n’est pas nécessaire de prendre en compte l’impact au niveau des processeurs des E-S virtuelles sur le
client. Les cycles de processeur exécutés sur le client pour effectuer une opération d’E-S de l’interface
SCSI virtuelle sont comparables à ceux d’une unité d’E-S connectée en local. Il n’y a donc pas lieu de
procéder au dimensionnement sur la partition logique client pour une tâche connue. Ces techniques de
dimensionnement ne prévoient pas la combinaison de la fonction Ethernet partagée avec le serveur SCSI
virtuel. Si ces deux techniques sont associées, pensez à ajouter des ressources au compte pour l’activité
Ethernet partagée avec l’interface SCSI virtuelle.
Dimensionnement de l’interface SCSI virtuelle à l’aide des partitions logiques d’un processeur dédié
L’allocation d’utilisation des processeurs requise pour un serveur SCSI virtuel est basée sur les débits
d’E-S maximum nécessaires. Comme les serveurs SCSI virtuels ne s’exécutent généralement pas à des
débits d’E-S maximum en permanence, on risque de ne pas tirer parti du temps processeur disponible
lors de l’utilisation des partitions logiques de processeur dédié. La première des méthodes de
dimensionnement ci-dessous requiert une bonne connaissance des débits d’E-S et des tailles d’E-S
nécessaires sur le serveur SCSI virtuel. Avec la seconde, le serveur SCSI virtuel est dimensionné en
fonction de la configuration d’E-S.
La méthode de dimensionnement utilisée repose sur l’observation que le temps processeur requis pour
effectuer une opération d’E-S sur le serveur SCSI virtuel est relativement constant pour une taille d’E-S
donnée. Il s’agit en fait d’une simplification car les différents pilotes de périphérique offrent des
performances légèrement différentes. Toutefois, dans la plupart des situations, les périphériques d’E-S pris
en charge par le serveur SCSI virtuel sont suffisamment similaires. Le tableau suivant montre le nombre
approximatif de cycles par seconde pour les opérations sur disque physique et sur volume logique sur un
processeur 1,65 Ghz. Ces chiffres sont mesurés au niveau du processeur physique ; on suppose qu’une
opération de traitement multitâche simultané (SMT) est effectuée. Pour les autres fréquences, l’adaptation
de ces valeurs en calculant le rapport des fréquences (par exemple, 1,5 Ghz = 1,65 Ghz / 1,5 Ghz X
nombre de cycles par opération) donne un résultat suffisamment précis pour que le dimensionnement
convienne.
Tableau 16. Nombre approximatif de cycles par seconde sur une partition logique 1,65 Ghz
Type de disque
4 ko
8 ko
32 ko
64 ko
128 ko
Disque physique
45.000
47.000
58.000
81.000
120.000
Volume logique
49.000
51.000
59.000
74.000
105.000
Chapitre 3. Serveur d’E-S virtuel
51
Prenons l’exemple d’un serveur d’E-S virtuel qui utilise trois partitions logiques client pour le stockage
sur disque physique. La première partition logique client requiert un maximum de 7000 opérations de
8 Ko par seconde. La deuxième requiert un maximum de 10 000 opérations de 8 Ko par seconde. La
troisième nécessite un maximum de 5000 opérations de 128 Ko par seconde. Le nombre de processeurs
1,65 Ghz nécessaire est d’environ ((7 000 × 47 000 + 10 000 × 47 000 + 5 000 × 120 000) / 1 650 000 000) =
0,85 processeur, ce qui équivaut à un processeur unique lors de l’utilisation d’une partition logique de
processeur dédié.
Si le débit d’E-S des partitions logiques client n’est pas connu, vous pouvez dimensionner le serveur
d’E-S virtuel en fonction du débit d’E-S maximum du sous-système de stockage connecté. Ce
dimensionnement peut être orienté vers des opérations d’E-S de petite ou de grande taille. Un
dimensionnement par rapport à la capacité maximale d’opérations d’E-S volumineuses équilibre la
capacité de processeur du serveur d’E-S virtuel en fonction de la largeur de bande d’E-S de l’unité d’E-S
connectée. Cette méthode présente un aspect négatif dans la plupart des cas : il est affecté plus
d’autorisations d’utilisation des processeurs au serveur d’E-S virtuel que ce qui est généralement utilisé.
Prenons l’exemple d’un serveur d’E-S virtuel qui gère 32 disques SCSI physiques. Il est possible d’établir
un nombre maximal de processeurs requis en se basant sur des estimations des débits d’E-S pouvant être
atteints par les disques. Si vous savez que la charge de travail consiste principalement en opérations
aléatoires de 8096 octets, vous pouvez en déduire que chaque disque peut prendre en charge environ
200 opérations d’E-S par seconde (unités 15000 tours par minute). Au maximum, le serveur d’E-S virtuel
doit gérer environ 32 disques × 200 opérations d’E-S par seconde × 47 000 cycles par opération, soit les
performances d’environ 0,19 processeur. Sous un autre angle, un serveur d’E-S virtuel équipé d’un
processeur doit pouvoir prendre en charge plus de 150 disques exécutant des opérations d’E-S aléatoires
de 8096 octets.
Par ailleurs, si le serveur d’E-S virtuel est dimensionné pour la largeur de bande maximale, le résultat est
un nombre plus grand de processeurs. La différence est due au fait que la largeur de bande maximale
suppose des E-S séquentielles. Comme les disques sont plus efficaces pour des opérations d’E-S
séquentielles de grande taille que pour des opérations d’E-S aléatoires de petite taille, un nombre
beaucoup plus élevé d’opérations d’E-S par seconde peut être exécuté. Prenons l’exemple de disques
pouvant prendre en charge 50 Mo par seconde pour des opérations d’E-S de 128 Ko. Cette situation
implique que chaque disque peut effectuer en moyenne 390 opérations d’E-S par seconde. Par
conséquent, la puissance de traitement requise pour la prise en charge de 32 disques exécutant chacun
390 opérations d’E-S par seconde avec un coût de fonctionnement de 120 000 cycles (32 X 390 X 120 000
/ 1 650 000 000) est de 0,91 processeur environ. Un serveur d’E-S virtuel équipé d’un processeur doit
pouvoir utiliser 32 disques rapides avec un rendement maximal.
Dimensionnement du serveur SCSI virtuel à l’aide des partitions logiques d’un processeur partagé
La répartition de serveurs SCSI virtuels en partitions logiques de processeur partagé permet un
dimensionnement des ressources processeur plus adéquat et une récupération potentielle du temps
processeur non utilisé par des partitions logiques non bridées. Toutefois, l’utilisation de partitions de
processeur partagé pour les serveurs SCSI virtuels peut souvent augmenter le temps de réponse d’E-S et
rendre plus complexe le dimensionnement des autorisations d’utilisation des processeurs.
La méthode de dimensionnement doit être basée sur le même coût de fonctionnement pour les serveurs
d’E-S à partitions logiques dédiées, avec l’ajout de la possibilité de l’exécution dans des partitions
logiques de processeur partagé. Configurez le serveur d’E-S virtuel en mode non bridé. Ainsi, si le
serveur d’E-S virtuel est sous-dimensionné, il est possible d’obtenir du temps processeur supplémentaire
en fonction des opérations d’E-S.
52
Guide d’utilisation de PowerVM Editions
Comme le temps d’attente d’E-S avec une interface SCSI virtuelle dépend d’un certain nombre de
conditions, procédez comme suit si une partition logique a des besoins importants en termes d’E-S :
v Configurez la partition logique avec des E-S physiques si la configuration le permet.
v Dans la plupart des cas, la partition logique du serveur d’E-S virtuel peut utiliser un processeur
partagé, non bridé.
Dimensionnement de la mémoire du serveur SCSI virtuel
Le dimensionnement de la mémoire dans l’interface SCSI virtuelle est simplifié dans la mesure où aucune
mise en mémoire cache des données de fichier n’est effectuée dans la mémoire du serveur SCSI virtuel.
De ce fait, les besoins en mémoire du serveur SCSI virtuel sont relativement modestes. Avec des
configurations d’E-S importantes et des débits de données très élevés, une allocation de 1 Go de mémoire
au serveur SCSI virtuel est probablement suffisante. 512 Mo seront sans doute suffisants pour des
situations impliquant des débits d’E-S peu élevés et un nombre réduit de disques connectés.
Planification des cartes Ethernet partagées
Cette section fournit des informations sur les performances et la prévision de la capacité de la carte de
réseau Ethernet partagée. La présente section contient des informations sur la planification et les
performances des cartes Ethernet partagées sur le serveur d’E-S virtuel.
Configuration requise pour le réseau :
Cette rubrique fournit des informations permettant de dimensionner de façon précise l’environnement de
cartes Ethernet partagées.
Pour planifier l’utilisation de cartes Ethernet partagées, vous devez déterminer vos besoins en matière de
réseau. Cette section présente les points à prendre en compte lors du dimensionnement de
l’environnement de cartes Ethernet partagées. Le dimensionnement d’un serveur d’E-S virtuel pour une
carte de réseau Ethernet partagée requiert la prise en compte des facteurs suivants :
v Définition de la largeur de bande cible (Mo par seconde), ou besoins en débit de transactions
(opérations par seconde). Les performances cible de la configuration doivent être déterminées à partir
de vos exigences de charge de travail.
v Définition du type de charge de travail (orienté flots de données ou transactions).
v Identification de la taille d’unité de transmission maximale (MTU) qui sera utilisée (1500 octets ou
grandes trames).
v Choix d’un environnement avec ou sans unités d’exécution pour la carte de réseau Ethernet partagée.
v Connaissance des taux de débit offerts par différentes cartes Ethernet (voir Sélection de cartes).
v Détermination des cycles de processeur requis par octet de débit ou par transaction (voir Allocation de
processeur).
Exigences en termes de largeur de bande
Il faut avant tout déterminer la largeur de bande cible sur la carte Ethernet physique du serveur d’E-S
virtuel. Cela permet d’identifier le débit de transfert possible entre le serveur d’E-S virtuel et les
partitions logiques client. Une fois que le débit à atteindre est connu, le type et le nombre adéquats de
cartes de réseau peuvent être sélectionnés. Par exemple, vous pouvez utiliser des cartes Ethernet
présentant de différents débits. Une ou plusieurs cartes peuvent être utilisées sur chaque réseau ou des
cartes peuvent être combinées en utilisant l’Agrégation de liaisons (ou EtherChannel).
Type de charge de travail
Le type de charge de travail prévu doit être pris en compte : flots de données pour les charges de travail
(transferts de fichiers ou sauvegarde de données, par exemple) ou charges de travail constituées de
petites transactions (par exemple, des appels de procédure distante, RPC). Une charge de travail de type
Chapitre 3. Serveur d’E-S virtuel
53
flot de données est constituée de paquets réseau complets volumineux et de paquets TCP plus petits qui
leur sont associés. Les charges de travail de type transaction impliquent généralement des paquets plus
petits, ou parfois des demandes de petite taille telles qu’une adresse URL et une réponse plus grande,
telle qu’une page Web. Il est fréquent qu’un serveur d’E-S virtuel ait à prendre en charge des flots de
données et des petits paquets. Dans ce cas, choisissez la taille en fonction des deux modèles.
Taille MTU
La taille de MTU (unité de transmission maximale) des cartes de réseau doit également être prise en
compte. La MTU Ethernet standard est de 1500 octets. Les liaisons Gigabit Ethernet et 10 Gigabit Ethernet
peuvent prendre en charge des grandes trames de 9000 octets. Les grandes trames peuvent réduire les
cycles de processeur pour les charges de travail de type flot de données. En revanche, pour des charges
de travail plus petites, des tailles de MTU élevées ne contribueront peut-être pas à réduire les cycles de
processeur.
Environnement avec ou sans unités d’exécution
Utilisez le mode avec unités d’exécution lorsque l’interface SCSI virtuelle est exécutée sur la même
partition logique de serveur d’E-S virtuel que la carte de réseau Ethernet partagée. Le mode avec unités
d’exécution permet de s’assurer que l’interface SCSI virtuelle et la carte de réseau Ethernet partagée
partagent les ressources du processeur de manière adaptée. Toutefois, l’utilisation d’unités d’exécution
augmente la longueur des chemins d’accès aux instructions, ce qui nécessite des cycles de processeur
supplémentaires. Si la partition logique du serveur d’E-S virtuel est dédiée uniquement à l’exécution
d’unités Ethernet partagées (et des unités virtuelles Ethernet associées), les cartes doivent être configurées
de manière à ce que l’utilisation d’unités d’exécution soit désactivée.Pour plus d’informations, voir
«Allocation de processeur», à la page 57.
Débit des cartes
Le fait de connaître les capacités de débit de différentes cartes Ethernet peut vous aider à déterminer les
cartes à utiliser comme cartes Ethernet partagées et le nombre de cartes requises. Pour plus
d’informations, voir «Sélection de cartes».
Autorisation d’utilisation des processeurs
Vous devez déterminer la puissance de processeur requise pour transférer les données via les cartes au
débit souhaité. Les pilotes de périphérique de réseau consomment généralement une quantité importante
de ressources processeur. De petits paquets peuvent entrer à un débit plus élevé et utiliser plus de cycles
de processeur que les charges de travail à paquets plus volumineux. Les charges de travail à paquets
volumineux sont généralement limitées par la largeur de bande du câble réseau et entrent à un débit plus
lent. Ils nécessitent donc moins de puissance de processeur que les charges de travail à petits paquets
pour la quantité de données transférées.
Sélection de cartes :
Cette section fournit les attributs et caractéristiques de performances des différents types de carte
Ethernet pour vous permettre de choisir les cartes à utiliser dans votre environnement.
Cette section fournit les débits approximatifs de différentes cartes Ethernet définies avec des tailles de
MTU (unité de transmission maximale) variées. Vous pouvez ainsi déterminer les cartes requises pour
configurer un serveur d’E-S virtuel. Pour ce faire, vous devez connaître le débit souhaité pour la partition
logique client.
Voici quelques informations générales concernant le débit réseau. Ces chiffres ne sont pas propres à une
installation et peuvent servir d’instructions d’ordre général pour le dimensionnement. Dans les tableaux
suivants, les estimations des vitesses 100 Mbits, 1 Gbit et 10 Gbits sont arrondies à l’unité inférieure.
54
Guide d’utilisation de PowerVM Editions
Tableau 17. Débits de flot de données simplex (monodirectionnel)
Vitesse de la carte
Débit approximatif
Ethernet 10 Mbits
1 Mo/seconde
Ethernet 100 Mbits
10 Mo/seconde
Ethernet 1000 Mbits (Gigabit Ethernet)
100 Mo/seconde
Ethernet 10 000 Mbits (10 Gigabit Ethernet, carte de
réseau Ethernet hôte ou carte Ethernet virtuelle intégrée)
1000 Mbits/seconde
Tableau 18. Débits en duplex intégral (bidirectionnel) sur un réseau en duplex intégral
Vitesse de la carte
Débit approximatif
Ethernet 10 Mbits
2 Mo/seconde
Ethernet 100 Mbits
20 Mo/seconde
Ethernet 1000 Mbits (Gigabit Ethernet)
150 Mo/seconde
Ethernet 10 000 Mbits (10 Gigabit Ethernet, carte de
réseau Ethernet hôte ou carte Ethernet virtuelle intégrée)
1500 Mbits/seconde
Les tableaux suivants répertorient les débits de charge réseau maximum qui correspondent aux débits de
données de charge utilisateur pouvant être obtenus à l’aide de programmes basés sur sockets pour des
applications faisant circuler des flots de données. Les débits dépendent du débit binaire du réseau, de la
taille MTU, du temps système de niveau physique (tel que les délais intertrames et les bits initiaux), des
en-têtes de liaison de données et des en-têtes TCP/IP. On suppose qu’un processeur dont la vitesse se
mesure en Gigahertz est utilisé. Ces chiffres sont optimaux pour un réseau local unique. Les résultats
obtenus peuvent varier si le trafic réseau circule par le biais de périphériques réseau supplémentaires.
Dans les tableaux suivants, le débit binaire brut correspond au débit binaire de support physique et ne
reflète pas les délais intertrames, les bits initiaux, les en-têtes et en-queues de liaison de données. Les
délais intertrames, les bits initiaux, les en-têtes et en-queues de liaison de données peuvent diminuer le
débit binaire utilisable effectif du câble.
Les débits de flot de données monodirectionnel (simplex) TCP sont les débits qui peuvent être obtenus en
envoyant des données d’une machine à une autre dans un test de mémoire à mémoire. Un support en
duplex intégral peut généralement offrir des performances légèrement supérieures parce que les paquets
d’accusé de réception TCP peuvent circuler sans utiliser le même fil que les paquets de données entrants.
Tableau 19. Débits de flot de données monodirectionnels (simplex)
Type de réseau
Débit binaire brut (Mbits)
Débit de charge (Mbits)
Débit de charge (Mo)
Ethernet 10 Mbits,
semi-duplex
10
6
0,7
Ethernet 10 Mbits, duplex
intégral
10 (20 Mbits en duplex
intégral)
9,48
1,13
Ethernet 100 Mbits,
semi-duplex
100
62
7,3
Ethernet 100 Mbits, duplex
intégral
100 (200 Mbits en duplex
intégral)
94,8
11,3
Ethernet 1000 Mbits, duplex 1000 (2000 Mbits en duplex 948
intégral, MTU de 1500
intégral)
113
Ethernet 1000 Mbits, duplex 1000 (2000 Mbits en duplex 989
intégral, MTU de 9000
intégral)
117,9
Chapitre 3. Serveur d’E-S virtuel
55
Tableau 19. Débits de flot de données monodirectionnels (simplex) (suite)
Type de réseau
Débit binaire brut (Mbits)
Débit de charge (Mbits)
Débit de charge (Mo)
Ethernet 1000 Mbits, duplex 10000
intégral, carte de réseau
Ethernet hôte (ou carte
Ethernet virtuelle intégrée)
MTU de 1500
9479
1130
Ethernet 1000 Mbits, duplex 10000
intégral, carte de réseau
Ethernet hôte (ou carte
Ethernet virtuelle intégrée)
MTU de 9000
9899
1180
Les données circulent dans les deux directions pour les charges de travail de type flot de données TCP en
duplex intégral. Un support en duplex intégral peut s’avérer plus avantageux pour les charges de travail
pouvant envoyer et recevoir simultanément des paquets. Certains supports, par exemple Ethernet en
mode semi-duplex, ne peuvent pas envoyer et recevoir des paquets simultanément. Ils ne fonctionneront
pas mieux et diminueront les performances pour des charges de travail en mode duplex. Avec des
charges de travail duplex, le débit n’est pas entièrement doublé par rapport à des charges de travail
simplex parce que les paquets d’accusé de réception TCP renvoyés par le destinataire utilisent la même
voie que les paquets de données circulant dans la même direction.
Tableau 20. Débits de flot de données bidirectionnels (duplex)
Type de réseau
Débit binaire brut (Mbits)
Débit de charge (Mbits)
Débit de charge (Mo)
Ethernet 10 Mbits,
semi-duplex
10
5,8
0,7
Ethernet 10 Mbits, duplex
intégral
10 (20 Mbits en duplex
intégral)
18
2,2
Ethernet 100 Mbits,
semi-duplex
100
58
7
Ethernet 100 Mbits, duplex
intégral
100 (200 Mbits en duplex
intégral)
177
21,1
Ethernet 1000 Mbits, duplex 1000 (2000 Mbits en duplex 1470 (1660 au maximum)
intégral, MTU de 1500
intégral)
175 (198 au maximum)
Ethernet 1000 Mbits, duplex 1000 (2000 Mbits en duplex 1680 (1938 au maximum)
intégral, MTU de 9000
intégral)
200 (231 au maximum)
Ethernet 10 000 Mbits, carte 10000
de réseau Ethernet hôte (ou
carte Ethernet virtuelle
intégrée), duplex intégral,
MTU de 1500
14680 (15099 au maximum)
1750 (1800 au maximum)
Ethernet 10 000 Mbits, carte 10000
de réseau Ethernet hôte (ou
carte Ethernet virtuelle
intégrée), duplex intégral,
MTU de 9000
16777 (19293 au maximum)
2000 (2300 au maximum)
Remarque :
1. Les valeurs maximales représentent un débit optimal avec plusieurs sessions TCP s’exécutant dans les
deux directions. Les autres débits correspondent à une session TCP unique.
2. Les débits duplex Ethernet 1000 MBits (Gigabit Ethernet) correspondent à une carte PCI-X dans un
emplacement PCI-X.
56
Guide d’utilisation de PowerVM Editions
3. Les débits de données sont obtenus avec TCP/IP utilisant le protocole IPv4. RFC 1323 doit être activé
pour les cartes dont la taille MTU est fixée à 9000.
Allocation de processeur :
Cette section contient des instructions d’allocation de processeur pour les partitions logiques de
processeur dédiées et les partitions logiques de processeur partagé.
Ces instructions sont différentes pour chaque situation, car une liaison Ethernet avec une taille MTU de
1500 octets utilise plus de cycles de processeur qu’une liaison Ethernet exécutant des grandes trames
(MTU de 9000 octets). En général, l’utilisation de processeur pour des charges de travail avec des paquets
volumineux sur des grandes trames est à peu près divisée par deux par rapport à des tailles MTU de
1500 octets.
Si la taille MTU (unité de transmission maximale) est fixée à 1500, un processeur (1,65 Ghz) doit être
fourni par carte Ethernet Gigabit pour pouvoir atteindre la largeur de bande maximale. Cela représente
dix cartes Ethernet de 100 Mbits si vous utilisez des réseaux de petite taille. Pour des charges de travail
de type transaction moins importantes, prévoyez d’utiliser un processeur complet afin d’obtenir un débit
maximal pour la charge de travail Ethernet Gigabit. Par exemple, si deux cartes Ethernet Gigabit sont
utilisées, allouez à la partition logique deux processeurs au maximum.
Si la taille MTU est fixée à 9000 (grandes trames), 50 % d’un processeur (1,65 Ghz) doit être fourni par
carte Ethernet Gigabit pour pouvoir atteindre la largeur de bande maximale. Pour des charges de travail
à petits paquets, vous devez prévoir d’utiliser un processeur complet pour assurer le support de la charge
de travail Ethernet Gigabit. Les grandes trames n’ont aucun effet dans le cas de charges de travail à petits
paquets.
carte de réseau Ethernet partagée avec une partition logique de processeur dédié
Le dimensionnement indiqué est divisé en deux types de charge de travail : flot de données TCP et
demande/réponse TCP. Des réseaux MTU 1500 et MTU 9000 ont été utilisés pour le dimensionnement
qui est fourni en termes de cycles de machine par octet pour des flots de données ou par transaction
dans le cas de charges de travail demande/réponse.
Les données des tableaux suivants ont été déduites de la formule suivante :
(nombre de processeurs × utilisation processeur × fréquence d’horloge de processeur) / débit en octets
par seconde ou transaction par seconde = nombre de cycles par octet ou de transactions.
Pour les besoins de ce test, les valeurs ont été mesurées sur une partition logique dotée d’un processeur
1,65 Ghz avec le traitement SMT (traitement simultané à unités d’exécution multiples) activé.
Pour les autres fréquences de processeur, les valeurs du tableau peuvent être modifiées en utilisant le
rapport des fréquences de processeur sur les valeurs approchées à utiliser pour le dimensionnement. Par
exemple, pour une vitesse de processeur de 1,5 Ghz, utilisez 1,65/1,5 × nombre de cycles par octet du
tableau. Le résultat de cet exemple correspond à 1,1 fois la valeur du tableau, ce qui revient à un besoin
de 10 % de cycles supplémentaires pour compenser la vitesse d’horloge inférieure de 10 % du processeur
1,5 Ghz.
Pour utiliser ces valeurs, multipliez le débit requis (en nombre d’octets ou de transactions) par la valeur
de cycles par octet des tableaux suivants. Vous connaîtrez ainsi les cycles de machine requis pour une
vitesse de 1,65 Ghz. Ajustez ensuite cette valeur en établissant le rapport de la vitesse réelle de la
machine sur cette vitesse de 1,65 Ghz. Pour trouver le nombre de processeurs, divisez le résultat par
1 650 000 000 cycles (ou taux de cycles si vous avez procédé à un ajustement pour une machine d’une
autre vitesse). Vous avez besoin du nombre de processeurs résultant pour supporter la charge de travail.
Chapitre 3. Serveur d’E-S virtuel
57
Par exemple, si le serveur d’E-S virtuel doit fournir 200 Mo de débit de flot de données, la formule
suivante est utilisée :
200 × 1 024 × 1 024 × 11,2 = 2 348 810 240 cycles / 1 650 000 000 cycles par processeur = 1,42 processeur.
En nombres arrondis, le serveur d’E-S virtuel a besoin de 1,5 processeurs pour traiter cette charge de
travail. Une telle charge de travail peut être traitée avec une partition logique dédiée à 2 processeurs ou
une partition logique à 1,5 processeur partagé.
Les tableaux suivants montrent le nombre de cycles de machine par octet pour une charge de travail de
type flot de données TCP.
Tableau 21. Liaison Ethernet partagée avec l’option d’utilisation d’unités d’exécution activée
Type de flot de
données
Débit MTU 1500 et
utilisation de
processeur
Débit MTU 9000 et
MTU 1500, cycles par utilisation de
octet
processeur
MTU 9000, cycles par
octet
Simplex
112,8 Mo à 80,6 % des 11,2
ressources processeur
117,8 Mo à 37,7 % des 5
ressources processeur
Duplex
162,2 Mo à 88,8 %
des ressources
processeur
217 Mo à 52,5 % des
ressources processeur
8,6
3,8
Tableau 22. Liaison Ethernet partagée avec l’option d’utilisation d’unités d’exécution désactivée.
Type de flot de
données
Débit MTU 1500 et
utilisation de
processeur
Débit MTU 9000 et
MTU 1500, cycles par utilisation de
octet
processeur
MTU 9000, cycles par
octet
Simplex
112,8 Mo à 66,4 % des 9,3
ressources processeur
117,8 Mo à 26,7 % des 3,6
ressources processeur
Duplex
161,6 Mo à 76,4 % des 7,4
ressources processeur
216,8 Mo à 39,6 % des 2,9
ressources processeur
Les tableaux suivants montrent le nombre de cycles de machine par octet pour une charge de travail de
type demande/réponse. Une transaction est définie par la taille de demande et de réponse aller-retour.
Tableau 23. Liaison Ethernet partagée avec l’option d’utilisation d’unités d’exécution activée
Transactions par seconde et
utilisation du serveur d’E-S virtuel
MTU 1500 ou 9000, cycles par
transaction
Petits paquets (64 octets)
59 722 TPS à 83,4 % des ressources
processeur
23 022
Grands paquets (1024 octets)
51 956 TPS à 80 % des ressources
processeur
25 406
Taille de transaction
Tableau 24. Liaison Ethernet partagée avec l’option d’utilisation d’unités d’exécution désactivée.
Transactions par seconde et
utilisation du serveur d’E-S virtuel
MTU 1500 ou 9000, cycles par
transaction
Petits paquets (64 octets)
60 ;249 TPS à 65,6 % des ressources
processeur
17 956
Grands paquets (1024 octets)
53 104 TPS à 65 % des ressources
processeur
20 196
Taille de transaction
58
Guide d’utilisation de PowerVM Editions
Les tableaux précédents montrent que l’option d’utilisation d’unités d’exécution de la liaison Ethernet
partagée ajoute environ 16 à 20 % de cycles machine par transaction pour les flots de données MTU 1500
et 31 à 38 % pour MTU 9000. L’option d’utilisation d’unités d’exécution augmente le nombre de cycles
machine par transaction pour de faibles charges de travail car les unités d’exécution sont démarrées pour
chaque paquet. A des taux de charge de travail plus élevés, telles que les charges de travail en duplex
intégral ou de demandes/réponses, les unités d’exécution peuvent durer plus longtemps sans attente ou
réacheminement. L’option d’utilisation d’unités d’exécution est une option par liaison Ethernet partagée
qui peut être configurée à l’aide de commandes du serveur d’E-S virtuel. Désactivez cette option si la
liaison Ethernet partagée s’exécute seule dans une partition logique de serveur d’E-S virtuel (sans
interface SCSI virtuelle dans la même partition).
Vous pouvez activer ou désactiver l’utilisation d’unités d’exécution à l’aide de l’option -attr thread de la
commande mkvdev. Pour activer l’utilisation d’unités d’exécution, utilisez l’option -attr thread=1. Pour
la désactiver, utilisez l’option -attr thread=0. Par exemple, la commande ci-dessous désactive l’utilisation
d’unités d’exécution pour la carte de réseau Ethernet partagée ent1 :
mkvdev -sea ent1 -vadapter ent5 -default ent5 -defaultid 1 -attr thread=0
Dimensionnement d’un serveur d’E-S virtuel pour une liaison Ethernet partagée sur une partition
logique de processeur partagé
Vous pouvez créer une partition logique de processeur partagé pour un serveur d’E-S virtuel si ce dernier
utilise des réseaux au débit plus lent (par exemple 10/100 Mbits) et qu’une partition logique de
processeur complète n’est pas nécessaire. Il est recommandé de ne recourir à cette solution que si la
charge de travail du serveur d’E-S virtuel est inférieure à la moitié d’un processeur ou si elle n’est pas
constante. Le fait de configurer la partition logique du serveur d’E-S virtuel en mode non bridé peut
également permettre d’utiliser plus de cycles de processeur pour traiter un débit qui n’est pas constant.
Par exemple, si le réseau est utilisé uniquement lorsque d’autres processeurs sont inactifs, la partition
logique du serveur d’E-S virtuel peut utiliser d’autres cycles de processeur et peut être créée avec des
ressources processeur minimales pour traiter une charge de travail peu importante pendant la journée.
Si vous créez un serveur d’E-S virtuel dans une partition logique de processeur partagé, ajoutez une
autorisation d’utilisation des microprocesseurs supplémentaires à prendre en compte pour le
dimensionnement.
Allocation de mémoire :
Informations relatives à l’allocation et au dimensionnement de la mémoire.
En général, 512 Mo de mémoire par partition logique suffisent pour la plupart des configurations.
Allouez suffisamment de mémoire aux structures de données du serveur d’E-S virtuel. Les cartes Ethernet
et les unités virtuelles utilisent des mémoires tampon de réception dédiées. Ces mémoires tampon
permettent de stocker les paquets entrants qui sont envoyés via l’unité sortante.
Une carte Ethernet physique utilise généralement 4 Mo pour une unité de transmission maximale (MTU)
de 1500 octets ou 16 Mo pour une unité de transmission maximale de 9000 octets dans le cas de
mémoires tampon dédiées avec la technologie Gigabit Ethernet. Les autres cartes Ethernet sont similaires.
Une liaison Ethernet virtuelle utilise généralement 6 Mo pour les mémoires tampon de réception dédiées.
Toutefois, cette valeur peut varier en fonction de la charge de travail. Chaque instance de liaison Ethernet
physique ou virtuelle a besoin de mémoire pour cette valeur de mémoires tampon. En outre, le système
dispose d’un pool de mémoires tampon mbuf par processeur qui est utilisé si des mémoires tampon
supplémentaires sont requises. Ces mémoires tampon occupent généralement 40 Mo.
Remarques relatives à la redondance
Les options de redondance sont disponibles à plusieurs niveaux dans l’environnement d’E-S virtuel. Des
options de mise en miroir, de multi-accès et de redondance RAID sont disponibles pour le serveur d’E-S
Chapitre 3. Serveur d’E-S virtuel
59
virtuel et certaines partitions client. Ethernet Agrégation de liaisons (également appelé EtherChannel) est
également une option des partitions logiques client, et le serveur d’E-S virtuel comporte une fonction de
reprise par transfert de carte de réseau Ethernet partagée. La fonction de reprise par transfert des noeuds
(HACMP) est également prise en charge pour les noeuds utilisant des ressources d’E-S virtuelles.
Cette section contient des informations relatives à la fonction de redondance pour les partitions logiques
client et le serveur d’E-S virtuel. Ces configurations aident à protéger le système contre toute panne de
l’un de ses composants physiques (par exemple, disque ou carte réseau) mais n’empêchent pas la
partition logique client de perdre l’accès à ses unités en cas de panne du serveur d’E-S virtuel. Pour
fournir une redondance au serveur d’E-S virtuel, il est possible d’exécuter une seconde instance de ce
dernier dans une autre partition logique. Lorsque l’on exécute deux instances du serveur d’E-S virtuel, on
peut utiliser la fonction miroir LVM, la fonction Multi-Path I/O, la fonction de sauvegarde via l’interface
réseau ou la fonction de routage Multi-Path avec la détection des passerelles désactivée sur la partition
logique client pour fournir un accès haute disponibilité aux ressources virtuelles hébergées sur des
partitions logiques du serveur d’E-S virtuel.
Partitions logiques client
Cette rubrique fournit des informations de redondance pour les partitions logiques client. Elle traite
également des fonctions MPIO, HACMP et miroir de la partition logique client.
Fonction MPIO (Multipath I/O) :
Informations sur la fonction MPIO (Multi-Path I/O) pour les partitions logiques client.
Plusieurs cartes client de l’interface SCSI virtuelle d’une partition logique client peuvent accéder au
même disque via plusieurs partitions logiques du serveur d’E-S virtuel. Cette section décrit une
configuration d’unité multi-path (multi-accès) de l’interface SCSI virtuelle. Si la configuration est correcte,
le client reconnaît alors le disque en tant qu’unité MPIO.
Toutes les unités SCSI virtuelles ne prennent pas en charge la fonction MPIO. Pour créer une
configuration MPIO, l’unité exportée à partir du serveur d’E-S virtuel doit se conformer aux règles
suivantes :
v Elle doit être basée sur un volume physique. Les unités SCSI virtuelles basées sur des volumes
logiques ne sont pas prises en charge dans une configuration MPIO.
v L’unité doit être accessible à partir de plusieurs partitions logiques du serveur d’E-S virtuel.
v L’unité doit prendre en charge la fonction MPIO.
Remarque : Ces unités compatibles MPIO sont associées à un identificateur unique (UDID) ou à un
identificateur de volume IEEE. Pour savoir comment déterminer si les disques sont associés à un
identificateur de volume UDID ou IEEE, voir «Identification des disques exportables», à la page 90.
Lorsque vous définissez une configuration MPIO pour les unités SCSI virtuelles sur la partition logique
client, vous devez tenir compte de la règle de réservation de l’unité sur le serveur d’E-S virtuel. Pour
utiliser une configuration MPIO sur le client, aucune unité SCSI virtuelle du serveur d’E-S virtuel ne doit
réserver l’unité SCSI virtuelle. Assurez-vous que l’attribut reserve_policy de l’unité a pour valeur
no_reserve. Pour déterminer la règle de réservation d’une unité, entrez la commande suivante :
lsdev -dev NomUnitéDisque -attr reserve_policy
Si la valeur de reserve_policy est autre que no_reserve, elle doit être modifiée pour que l’unité puisse
être utilisée dans une configuration MPIO sur la partition logique client. Pour définir l’attribut, utilisez la
commande suivante :
chdev -dev NomUnitéDisque -attr reserve_policy=no_reserve
La reprise par transfert constitue le comportement par défaut des disques SCSI MPIO virtuels sur la
partition logique client.
60
Guide d’utilisation de PowerVM Editions
Tâches associées
«Scénario : configuration de la fonction MPIO (Multi-Path I/O) pour les partitions logiques client
AIX», à la page 44
La fonction MPIO (Multi-Path I/O) permet d’accroître la disponibilité des ressources SCSI virtuelles
en fournissant à ces dernières des chemins redondants. Cette rubrique explique comment configurer la
fonction MPIO (Multi-Path I/O) pour les partitions logiques client AIX.
Fonction miroir des partitions logiques client :
Mise en miroir des partitions logiques client à l’aide de deux cartes SCSI virtuelles.
La partition client peut jouer le rôle de miroir pour ses volumes logiques grâce à l’utilisation de deux
cartes client SCSI virtuelles. Chacune de ces cartes doit être allouée à des partitions distinctes du serveur
d’E-S virtuel. Les deux disques physiques sont connectés chacun à des partitions distinctes du serveur
d’E-S virtuel et sont mis à la disposition de la partition client via une carte serveur SCSI virtuelle. Cette
configuration protège un disque virtuel d’une partition client contre les incidents suivants :
v Sur un disque physique
v Sur une carte physique
v Sur le serveur d’E-S virtuel
L’utilisation d’une configuration RAID 1 peut avoir une incidence sur les performances de votre système.
Multitraitement de cluster haute disponibilité (HACMP) :
Cette rubrique fournit des informations sur le multitraitement de cluster haute disponibilité (HACMP)
dans le serveur d’E-S virtuel.
Fonction HACMP et interface SCSI virtuelle
Tenez compte des considérations suivantes lors de l’implémentation de la fonction HACMP et de
l’interface SCSI virtuelle :
v Le groupe de volumes doit être défini en mode simultané amélioré. Ce mode est recommandé pour le
partage de groupes de volumes dans les clusters HACMP car les volumes sont alors accessibles par
plusieurs noeuds HACMP. Si les systèmes de fichiers sont utilisés sur les noeuds de secours, ils ne sont
montés qu’à partir du point de reprise par transfert. Si les volumes partagés sont accessibles
directement (sans système de fichiers) en mode simultané amélioré, ces volumes sont accessibles à
partir de plusieurs noeuds ; par conséquent, l’accès doit être contrôlé au niveau d’une couche
supérieure.
v Si un noeud de cluster accède aux volumes partagés via l’interface SCSI virtuelle, tous les noeuds
doivent alors faire de même. Autrement dit, les disques ne peuvent pas être partagés entre une
partition logique utilisant une interface SCSI et un noeud qui accède directement à ces disques.
v Toutes les opérations de configuration et de maintenance de groupes de volumes sur ces disques
partagés sont effectuées à partir des noeuds HACMP, et non à partir du serveur d’E-S virtuel.
Fonction HACMP et interface Ethernet virtuelle
Tenez compte des considérations suivantes lors de l’implémentation de la fonction HACMP et de
l’interface Ethernet virtuelle :
v La fonction IPAT (IP Address Takeover), compte tenu de la création d’alias, doit être utilisée. La
fonction IPAT par remplacement et relais d’adresse MAC n’est pas prise en charge.
v Evitez d’utiliser la fonction PCI Hot Plug HACMP dans un environnement de serveur d’E-S virtuel.
Les opérations de remplacement à chaud PCI sont disponibles via le serveur d’E-S virtuel. Lorsqu’un
noeud HACMP utilise une unité d’E-S virtuelle, la fonction de remplacement à chaud PCI HACMP PCI
ne s’applique pas car les cartes d’E-S sont virtuelles et non physiques.
Chapitre 3. Serveur d’E-S virtuel
61
v Toutes les interfaces Ethernet virtuelles définies pour HACMP doivent être traitées comme des réseaux
à carte unique. Plus particulièrement, vous devez utiliser l’attribut ping_client_list pour surveiller et
détecter tout incident survenant dans les interfaces réseau.
v Si le serveur d’E-S virtuel dispose de plusieurs interfaces physiques sur le même réseau, ou si
plusieurs noeuds HACMP utilisent le serveur d’E-S virtuel dans une même trame, la fonction HACMP
n’est pas informée des incidents survenant dans une interface physique unique et ne peut pas mettre
en oeuvre de solution de dépannage. Cela ne restreint pas la disponibilité de l’ensemble du cluster car
le serveur d’E-S virtuel route le trafic en contournant l’incident.
v Si le serveur d’E-S virtuel ne présente qu’une seule interface physique sur un réseau, tout incident
survenant dans cette interface physique est détecté par la fonction HACMP. Toutefois, l’incident isole le
noeud du reste du réseau.
Unités d’Agrégation de liaisons ou EtherChannel :
Une unité d’Agrégation de liaisons , ou EtherChannel, est une technologie de regroupement de ports
réseau permettant de regrouper plusieurs cartes Ethernet. Les cartes constituent alors une unité Ethernet
unique. Agrégation de liaisons offre un meilleur débit via une seule adresse IP que ne le permettrait une
seule carte Ethernet.
Par exemple, ent0 et ent1 peuvent être regroupées pour former ent3. Le système considère ces cartes
regroupées comme une seule et même carte. La même adresse matérielle est fournie à toutes les cartes de
l’unité d’Agrégation de liaisons, alors les systèmes distants les traitent comme s’il s’agissait d’une seule et
même carte.
L’Agrégation de liaisons améliore la redondance : en cas d’échec d’un lien, l’unité d’Agrégation de
liaisons bascule sur une autre carte de l’unité afin de conserver la liaison. Dans l’exemple précédent, si
ent0 échoue, les paquets sont automatiquement envoyés à la carte disponible suivante ent1, sans
interrompre les connexions utilisateur existantes. Après sa restauration, l’unité ent0 est automatiquement
renvoyée au service de l’unité d’Agrégation de liaisons.
Vous pouvez configurer une carte de réseau Ethernet partagée de sorte à utiliser une unité d’Agrégation
de liaisons (ou EtherChannel) en tant que carte physique.
Reprise par transfert de carte de réseau Ethernet partagée :
La fonction de reprise par transfert de carte de réseau Ethernet partagée assure la redondance, car elle
permet de configurer une carte de réseau Ethernet partagée de secours sur une autre partition logique du
serveur d’E-S virtuel, laquelle peut être utilisée en cas de défaillance de la carte de réseau Ethernet
partagée principale. La connectivité réseau des partitions logiques client est maintenue, sans interruption.
Une carte de réseau Ethernet partagée comprend une carte physique (ou plusieurs cartes physiques
regroupées dans une unité d’Agrégation de liaisons) et une ou plusieurs cartes Ethernet virtuelles. Elle
peut offrir une connectivité de couche 2 à plusieurs partitions logiques client via les cartes Ethernet
virtuelles.
La configuration de la fonction de reprise par transfert de carte de réseau Ethernet partagée utilise la
valeur de priorité fournie aux cartes Ethernet virtuelles lors de leur création, afin d’identifier la carte de
réseau Ethernet partagée qui constitue la carte principale et celle qui constitue la carte de secours. La
carte de réseau Ethernet partagée dont la carte de réseau virtuelle présente la valeur numérique de
priorité la plus basse sera utilisée de préférence comme carte principale. Afin de pouvoir communiquer
entre elles et de déterminer lorsqu’une opération de reprise par transfert doit être réalisée, les cartes
Ethernet partagées présentant le mode de reprise par transfert utilisent un réseau local virtuel (VLAN)
dédié pour ce type de trafic, appelé canal de contrôle. C’est pourquoi vous devez spécifier une carte
Ethernet virtuelle (comportant un PVID unique sur le système) comme carte Ethernet virtuelle du canal
de contrôle, lorsque chaque carte de réseau Ethernet partagée est créée en mode de reprise par transfert.
Via le canal de contrôle, la carte de réseau Ethernet partagée de secours est avertie lorsque la carte
62
Guide d’utilisation de PowerVM Editions
principale subit une défaillance et le trafic réseau des partitions logiques client est transféré sur la carte
de secours. Lorsque la carte de réseau Ethernet partagée principale est restaurée (si cela s’avère possible),
elle assure à nouveau l’ensemble du trafic réseau.
Une carte de réseau Ethernet partagée en mode de reprise par transfert peut comporter plusieurs cartes
de ligne Ethernet virtuelles. Si tel est le cas, la priorité doit être identique pour toutes les cartes Ethernet
virtuelles d’une carte de réseau Ethernet partagée. En outre, il est inutile que le paramètre de carte de
ligne de la carte Ethernet virtuelle utilisée spécialement pour le canal de contrôle soit activé. Les cartes
Ethernet virtuelles utilisées pour le canal de contrôle de chaque carte de réseau Ethernet partagée en
mode de reprise par transfert doivent avoir la même valeur PVID, et cette valeur de PVID doit être
unique sur le système (aucune autre carte Ethernet virtuelle du système ne doit utiliser ce PVID).
Pour garantir une reprise, lorsque vous activez le protocole Spanning Tree sur les ports de commutateur
connectés aux cartes physiques de la carte de réseau Ethernet partagée, vous pouvez aussi activer l’option
portfast sur ces ports. L’option portfast permet au commutateur de transmettre immédiatement les
paquets au port sans terminer d’abord le protocole Spanning Tree (lequel bloque complètement le port
jusqu’à ce qu’il ait fini).
La carte de réseau Ethernet partagée est conçue pour éviter les boucles réseau. Toutefois, à titre de
précaution supplémentaire, vous pouvez activer la protection Bridge Protocol Data Unit (BPDU) Guard
sur les ports de commutateur connectés aux cartes physiques de la carte de réseau Ethernet partagée.
BPDU Guard détecte les paquets BPDU en protocole Spanning Tree en boucle et arrête le port. Ceci
participe à éviter les saturations de diffusion sur le réseau. Une saturation de diffusion se produit lorsqu’un
message diffusé sur un réseau génère de multiples réponses. Comme chaque réponse génère d’autres
réponses, il s’ensuit une transmission excessive de messages de diffusion. Les saturations de diffusion
importantes peuvent bloquer le trafic réseau, mais il est généralement possible de les éviter en
configurant le réseau avec soin de façon à bloquer les messages de diffusions illégaux.
Remarque : Lorsque la carte de réseau Ethernet partagée utilise le protocole GVRP (GARP VLAN
Registration Protocol) elle génère des paquets BPDU, ce qui provoque l’arrêt inutile du port par BPDU
Guard. Par conséquent, lorsque la carte de réseau Ethernet partagée utilise le protocole GVRP, n’activez
pas la protection BPDU Guard.
Pour plus d’informations sur l’activation du protocole Spanning Tree, de l’option portfast et de BPDU
Guard sur les ports, consultez la documentation fournie avec le commutateur.
Tâches associées
«Scénario : Configuration de la reprise par transfert de carte de réseau Ethernet partagée», à la page
39
Cette section présente un scénario classique de reprise par transfert de carte de réseau Ethernet
partagée.
Partition logique du serveur d’E-S virtuel
Les options de redondance du serveur d’E-S virtuel comprennent notamment la fonction d’accès à
chemins multiples (multi-path), les configurations RAID et l’Agrégation de liaisons (ou EtherChannel).
Fonction multi-path (multi-accès) :
La fonction multi-path (multi-accès) appliquée à la mémoire physique dans un serveur d’E-S virtuel offre
une redondance de chemin physique de reprise par transfert et un équilibrage de charge. Les solutions de
fonction multi-path disponibles dans le serveur d’E-S virtuel comprennent la fonction MPIO, ainsi que les
solutions offertes par les fournisseurs de stockage.
RAID :
Les solutions RAID (Redundant Array of Independent Disks) offrent une redondance au niveau des
unités du serveur d’E-S virtuel. Certaines options RAID, telles la fonction miroir LVM et la fonction de
Chapitre 3. Serveur d’E-S virtuel
63
segmentation, sont fournies par le logiciel Virtual I/O Server, alors que d’autres sont mises à votre
disposition via le sous-système de stockage physique.
Unités d’Agrégation de liaisons ou EtherChannel :
Une unité d’Agrégation de liaisons, ou EtherChannel, est une technologie de regroupement de ports
réseau permettant de regrouper plusieurs cartes Ethernet. Les cartes constituent alors une unité Ethernet
unique. Agrégation de liaisons offre un meilleur débit via une seule adresse IP que ne le permettrait une
seule carte Ethernet.
Par exemple, ent0 et ent1 peuvent être regroupées pour former ent3. Le système considère ces cartes
regroupées comme une seule et même carte. La même adresse matérielle est fournie à toutes les cartes de
l’unité d’Agrégation de liaisons, alors les systèmes distants les traitent comme s’il s’agissait d’une seule et
même carte.
L’Agrégation de liaisons améliore la redondance : en cas d’échec d’un lien, l’unité d’Agrégation de
liaisons bascule sur une autre carte de l’unité afin de conserver la liaison. Dans l’exemple précédent, si
ent0 échoue, les paquets sont automatiquement envoyés à la carte disponible suivante ent1, sans
interrompre les connexions utilisateur existantes. Après sa restauration, l’unité ent0 est automatiquement
renvoyée au service de l’unité d’Agrégation de liaisons.
Vous pouvez configurer une carte de réseau Ethernet partagée de sorte à utiliser une unité d’Agrégation
de liaisons (ou EtherChannel) en tant que carte physique.
Remarques sur la sécurité
Informations de sécurité relatives à l’interface SCSI virtuelle, à la carte Ethernet virtuelle, à la carte de
réseau Ethernet partagée et aux options de sécurité supplémentaires disponibles.
Les systèmes permettent le partage et la communication des unités d’une partition à l’autre. Les
fonctions, telles que les partitions logiques (LPAR) dynamiques, les processeurs partagés, les réseaux
virtuels, la mémoire virtuelle et la gestion des charges de travail, nécessitent toutes des fonctionnalités
permettant de s’assurer que les exigences de sécurité système sont respectées. Les fonctions de
virtualisation et d’opérations entre partitions sont conçues de manière à ne pas mettre en péril la sécurité
au-delà de ce qui est nécessaire. Par exemple, une connexion de réseau local (LAN) virtuelle aura les
mêmes exigences en matière de sécurité qu’une connexion de réseau physique. Soyez particulièrement
vigilant lorsque vous utilisez des fonctions de virtualisation entre partitions dans les environnements
présentant une sécurité élevée. Toute visibilité entre partitions logiques doit être créée manuellement et
doit être le résultat de choix de configuration système de l’administrateur.
Avec l’interface SCSI virtuelle, le serveur d’E-S virtuel permet le stockage sur les partitions logiques
client. Cependant, au lieu d’être établie via des câbles SCSI ou optiques, la connexion pour cette
fonctionnalité est établie par le microprogramme. Les pilotes de l’unité SCSI virtuelle du serveur d’E-S
virtuel et le microprogramme permettent de s’assurer que seul l’administrateur système du serveur d’E-S
virtuel contrôle les partitions logiques qui peuvent accéder aux données des unités de stockage du
serveur d’E-S virtuel. Par exemple, une partition logique client ayant accès au volume logique lv001
exporté par la partition logique du serveur d’E-S virtuel ne peut pas accéder à lv002, même si elle
appartient au même groupe de volumes.
Tout comme l’interface SCSI virtuelle, le microprogramme fournit également une connexion entre les
partitions logiques lorsqu’il utilise cette interface. Il fournit une fonction de commutateur Ethernet. La
connexion vers le réseau externe est fournie par la fonction de carte de réseau Ethernet partagée du
serveur d’E-S virtuel. Cette partie du serveur d’E-S virtuel agit comme un pont de couche 2 vers les
cartes physiques. Une marque d’ID VLAN est insérée dans toute trame Ethernet. Le commutateur
Ethernet limite les trames aux ports autorisés à recevoir des cadres portant cet ID VLAN. Chaque port
d’un commutateur Ethernet peut être configuré afin d’être membre de plusieurs réseaux VLAN (réseaux
locaux virtuels). Seules les cartes réseau (physiques et virtuelles) connectées à un port (virtuel ou
64
Guide d’utilisation de PowerVM Editions
physique) appartenant au même réseau VLAN peuvent recevoir les trames. La mise en oeuvre de cette
norme VLAN permet de s’assurer que les partitions logiques n’ont pas accès à des données restreintes.
Installation du serveur d’E-S virtuel et des partitions logiques client
Informations relatives à l’installation du serveur d’E-S virtuelet des partitions logiques client via le
déploiement d’une planification système ou via la création manuelle de la partition logique et des profils
de partition logique et l’installation du serveur d’E-S virtuelet des systèmes d’exploitation client.
Ces instructions concernent l’installation du serveur d’E-S virtuelet des partitions logiques client sur un
système géré par une console HMC (Hardware Management) (HMC). Si vous envisagez d’installer le
serveur d’E-S virtuel sur un système non géré par une console HMC, vous devez installer Integrated
Virtualization Manager. Pour plus d’informations, voir «Installation du gestionnaire Integrated
Virtualization Manager», à la page 184.
La procédure d’installation à suivre dépend des facteurs suivants :
v Version de la console HMC reliée au système géré sur lequel vous souhaitez installer le serveur d’E-S
virtuelet des partitions logiques client. L’interface de la console HMC version 7 est différente de celle
des versions précédentes de la console HMC. La console HMC version 7 permet également de déployer
une planification système incluant le serveur d’E-S virtuelet des partitions logiques client.
v Si vous envisagez ou non de déployer une planification système incluant le serveur d’E-S virtuel et des
partitions logiques client. Lorsque vous déployez une planification système, la console HMC effectue
automatiquement les tâches suivantes à partir des informations fournies par la planification système :
– Création de la partition logique et du profil de partition logique du serveur d’E-S virtuel.
– Installation du serveur d’E-S virtuel et spécification de ressources virtuelles.
– Création de partitions logiques client et de profils de partition logique.
– Installation des systèmes d’exploitation AIX et Linux sur des partitions logiques client. Vous devez
disposer de la version V7R3.3.0 ou ultérieure de la console HMC.
Installation du serveur d’E-S virtuelet des partitions logiques client en
déployant une planification système
Si vous déployez une planification système incluant le serveur d’E-S virtuelet, éventuellement, des
partitions logiques client, l’assistant de déploiement de planification système crée la partition logique et le
profil de partition logique du serveur d’E-S virtuel, puis il installe le serveur d’E-S virtuelet les partitions
logiques client.
Avant de commencer, vérifiez que les conditions suivantes sont remplies :
v Le système sur lequel vous envisagez de déployer la planification système est géré par une console
HMC (Hardware Management) (HMC).
v Vous disposez de la console HMC version 7 ou ultérieure. Vous ne pouvez pas déployer de
planification système sur une console HMC version 6 ou antérieure. Vous devez créer manuellement la
partition logique et le profil de partition du serveur d’E-S virtuel, puis installer le serveur d’E-S virtuel.
Pour plus d’informations, voir «Installation manuelle du serveur d’E-S virtuel à l’aide de la console
HMC version 6», à la page 78.
v Si vous envisagez de déployer différentes entités de la configuration du serveur d’E-S virtuel à
différents moments, assurez-vous que la console HMC correspond à la version V7R3.3.0, ou à une
version ultérieure. (Les entités de serveur d’E-S virtuel comprennent des cartes de réseau Ethernet
partagées, des cartes EtherChannel ou des unités Agrégation de liaisons, des pools de stockage et des
unités de sauvegarde.) Si la console HMC ne correspond pas à la version V7R3.3.0, ou à une version
ultérieure, les planifications système comprenant le serveur d’E-S virtuel peuvent être déployées
uniquement sur un nouveau système, ou sur un système ne comportant aucune partition logique
configurée pour le serveur d’E-S virtuel. (Vous pouvez installer le serveur d’E-S virtuel, mais pas le
configurer.) Plus précisément, aucune entité de serveur d’E-S virtuel ne peut être configurée sur le
Chapitre 3. Serveur d’E-S virtuel
65
système géré, notamment aucune carte de réseau Ethernet partagée, aucune carte EtherChannel ou
aucune unité Agrégation de liaisons, aucun pool de stockage et aucune unité de sauvegarde.
v Si vous envisagez de déployer une planification système incluant des informations d’installation AIX
ou Linux pour au moins une partition logique client, vérifiez que les conditions suivantes sont
remplies :
– La console HMC doit correspondre à la version V7R3.3.0.
– Aucun système d’exploitation n’est installé pour la partition logique client. La console HMC installe
AIX et Linux sur les partitions logiques client sur lesquelles aucun système d’exploitation n’est
installé. Si la partition logique client dispose déjà d’un système d’exploitation, la console HMC ne
déploie pas le système d’exploitation indiqué dans la planification système.
Saisie du code d’activation de PowerVM Editions via la console HMC version 7
Cette procédure explique comment saisir le code d’activation de PowerVM Editions (ou Advanced
POWER Virtualization) à partir de la console HMC (Hardware Management) (HMC) version 7 ou
supérieure.
Si PowerVM Editions n’est pas activé sur votre système, vous devez utiliser la console HMC pour entrer
le code d’activation que vous avez reçu lors de la votre commande.
Procédez comme suit pour entrer le code d’activation de PowerVM Standard Edition et de PowerVM
Enterprise Edition. Pour plus d’informations sur PowerVM Editions, voir «PowerVM Editions», à la page
2.
Pour entrer votre code d’activation, procédez comme suit :
1. Dans la zone de Navigation, développez Gestion de systèmes.
2. Sélectionnez Serveurs.
3. Dans la zone de contenu, sélectionnez le système géré sur lequel vous souhaitez utiliser PowerVM
Editions. Il peut s’agir, par exemple, du système sur lequel vous envisagez d’installer le serveur d’E-S
virtuel ou celui dans lequel vous envisagez d’utiliser la technologie Micro-Partitioning.
4. Cliquez sur Tâches et sélectionnez Capacity on Demand (CoD) → AdvancedPOWER Virtualization →
Saisie du code d’activation.
5. Entrez votre code d’activation et cliquez sur OK.
Importation d’une planification système dans une console HMC version 7
Vous pouvez importer un fichier de planification système sur une console HMC (console HMC
(Hardware Management)) à partir de divers types de supports, d’un site FTP distant ou de l’ordinateur à
partir duquel vous accédez à distance à la console HMC. Vous pouvez alors déployer la planification
système importée sur un système géré par la console HMC.
Vous pouvez importer un fichier de planification système dans la console HMC à partir de l’un des
emplacements suivants :
v L’ordinateur sur lequel vous accédez à distance à la console HMC.
v Divers supports montés sur la console HMC, tels que des disques optiques ou des unités USB.
v Un site éloigné à l’aide du protocole FTP. Pour utiliser cette option, vous devez effectuer les opérations
obligatoires suivantes :
– La console HMC doit disposer d’une connexion réseau au site distant.
– Un serveur FTP doit être actif sur le site distant.
– Le port 21 doit être ouvert sur le site distant.
Remarque : Vous ne pouvez pas importer une planification système portant un nom identique à une
planification disponible sur la console HMC.
66
Guide d’utilisation de PowerVM Editions
Pour importer un fichier de planification système, vous devez avoir le rôle d’administrateur central. Pour
plus d’informations sur les rôles utilisateur, voir les tâches et les rôles dans le Guide d’utilisation de la
console HMC et des systèmes gérés.
Pour importer un fichier de planification système dans la version 7 de la console HMC, procédez comme
suit :
1. Dans la zone de navigation de la console HMC, sélectionnez Planifications système.
2. Dans la zone des tâches, sélectionnez Importation d’une planification système. La fenêtre
Importation de la planification système s’ouvre.
3. Sélectionnez la source du fichier de planification système à importer. Servez-vous du tableau ci-après
pour effectuer la procédure appropriée d’importation de la planification système à partir de
l’emplacement source sélectionné du fichier.
Source de la planification système à importer
et procédez comme suit :
Cet ordinateur
1. Sélectionnez Importation à partir de cet ordinateur
vers la console HMC.
2. Cliquez sur Importer pour afficher la fenêtre
Téléchargement du fichier.
3. Cliquez sur Parcourir.
4. Sélectionnez le fichier de planification système à
importer et cliquez sur Ouvrir.
5. Cliquez sur OK pour télécharger le fichier.
Support
1. Sélectionnez l’importation depuis un support.
2. Dans la zone Nom du fichier de planification
système, entrez le nom du fichier de planification
système.
Remarque : Le nom de ce fichier doit se terminer par
le suffixe .sysplan et ne peut comporter que des
caractères alphanumériques.
3. Dans la zone Sous-répertoire du support, entrez le
chemin du répertoire dans lequel se trouve le fichier
de planification système sur le support.
Remarque : Indiquez uniquement l’emplacement du
sous-répertoire, plutôt que le chemin qualifié complet
et le nom de fichier.
4. Cliquez sur Importation pour afficher la fenêtre
Choix de l’unité de stockage.
5. Sélectionnez le support qui contient le fichier de
planification système à importer.
6. Cliquez sur OK.
Chapitre 3. Serveur d’E-S virtuel
67
Source de la planification système à importer
et procédez comme suit :
Site FTP distant
1. Sélectionnez l’option permettant d’effectuer une
importation à partir d’un site FTP distant.
2. Dans la zone Nom du fichier de planification
système, entrez le nom du fichier de planification
système.
Remarque : Le nom de ce fichier doit se terminer par
le suffixe .sysplan et ne peut comporter que des
caractères alphanumériques.
3. Dans la zone Nom d’hôte du site distant, entrez le
nom d’hôte ou l’adresse IP du site FTP distant.
4. Dans la zone ID utilisateur, entrez l’ID utilisateur à
employer pour accéder au site FTP distant.
5. Dans la zone Mot de passe, entrez le mot de passe à
employer pour accéder au site FTP distant.
6. Dans la zone Répertoire distant, entrez le chemin
d’accès au fichier de planification système sur le site
FTP distant. Si vous ne le faites pas, la console HMC
recherche le fichier de planification système dans le
chemin par défaut spécifié sur le site FTP distant.
4. Cliquez sur Importer. Si la console HMC renvoie une erreur, revenez dans la fenêtre Importation de
la planification système et vérifiez que les informations que vous avez entrées sont correctes. Si
besoin est, cliquez sur Annulation, retournez à l’étape 2 et recommencez la procédure depuis le
début, en vous assurant que les informations tapées à chaque étape sont correctes.
Remarque : A la place de l’interface utilisateur Web de la console HMC, vous pouvez utiliser la
commande cpysysplan à partir de l’interface de ligne de commande de la console HMC pour importer
une planification système.
Une fois la procédure d’importation terminée, vous pouvez déployer la planification système du fichier
correspondant sur un système géré par la console HMC. Pour obtenir des instructions, voir Déploiement
d’une planification système à l’aide de la console HMC version 7. Si vous avez importé le fichier de
planification système depuis un support, vous pouvez démonter ce dernier à l’aide de la commande
umount à partir de l’interface de ligne de commande de la console HMC.
Tâches associées
«Déploiement d’une planification système via la console HMC version 7»
Vous pouvez utiliser la console HMC (Hardware Management) (HMC) pour déployer tout ou partie
d’une planification système sur un système géré.
Information associée
Guide d’utilisation de la console HMC et des systèmes gérés
Cette publication destinée aux administrateurs système et aux opérateurs système fournit des
informations sur l’utilisation de la console HMC (Hardware Management Console).
Déploiement d’une planification système via la console HMC version 7
Vous pouvez utiliser la console HMC (Hardware Management) (HMC) pour déployer tout ou partie
d’une planification système sur un système géré.
Lorsque vous déployez une planification système, la console HMC crée des partitions logiques sur le
système géré, en fonction des spécifications de cette planification. Suivant le contenu de la planification
système, vous pouvez également installer des environnements d’exploitation sur les partitions logiques
de la planification et, si cette dernière contient des informations d’application des accès au serveur d’E-S
virtuel d’une partition logique, telles que des affectations de stockage, la console HMC peut effectuer ces
affectations de ressources pour la partition logique.
68
Guide d’utilisation de PowerVM Editions
Configuration requise pour le déploiement d’une planification système
Avant de commencer la procédure, exécutez les tâches suivantes :
1. Vérifiez que le fichier de planification système existe bien sur la console HMC. Si ce n’est pas le cas,
vous devez l’importer dans la console HMC. Pour plus d’informations, voir Importation d’un fichier
de planification système via la console HMC version 7.
2. Vérifiez que le matériel physique et toutes les unités d’extension sont connectés et envoient bien des
rapports au serveur. Chaque serveur comporte une partition logique et un profil de partition.
L’ensemble des ressources matérielles physiques du système est automatiquement affecté à cette
partition logique, de sorte que vous pouvez mettre le serveur sous tension et vérifier que le matériel
physique est connecté et envoie bien des rapports au serveur.
3. Localisez les cartes d’entrée-sortie de disque physique correspondant à chaque partition logique et
assurez-vous que les unités de disque qui y sont connectées prennent en charge la configuration
souhaitée pour chaque partition logique. L’assistant de déploiement de la planification système
valide uniquement le fait que les cartes d’entrée-sortie de disques physiques correspondent à la
planification système. Il ne valide pas la configuration des unités de disque pour les cartes d’E/S de
disques physiques. Si vous déployez une planification système que vous avez créée à l’aide de la
console HMC, vérifiez que le matériel et le câblage sur le système cible est identique à celui du
système source.
4. Supprimez la partition logique fournie avec le serveur, ainsi que toute autre partition logique ne
faisant pas partie de la planification système. Pour des instructions, voir Suppression d’une partition
logique dans le document Guide de partitionnement logique. Le nom de la partition logique fournie
avec le serveur est le numéro de série du système géré, le nom du profil de partition étant
profil_par_défaut.
5. Si la planification système inclut un réseau de stockage SAN ou des cartes Fibre Channel, vérifiez
que les cartes sont reliées par des câbles et que le SAN est configuré.
6. Si vous envisagez de déployer l’environnement d’exploitation serveur d’E-S virtuel, AIX ou Linux
pour une partition logique, assurez-vous que l’image d’installation appropriée se trouve soit sur la
console HMC, soit que la console HMC peut y accéder par le biais d’une connexion à un serveur
NIM (Network Installation Management). Pour afficher les images d’installation sur la console HMC,
soit vous entrez la commande OS_install -l sur la ligne de commande HMC, soit, pour la console
HMC V7R3.3.0, vous utilisez la tâche Gestion des ressources d’installation de l’interface Web de la
console HMC. Si l’image d’installation serveur d’E-S virtuel, AIX ou Linux dont vous avez besoin
n’apparaît pas, procédez comme suit pour copier une image d’installation sur la console HMC :
a. Obtenez une copie de serveur d’E-S virtuel, AIX ou Linux sur DVD ou sur CD, suivant
l’environnement d’exploitation. Vous pouvez utiliser le support d’installation d’origine ou
contacter votre partenaire commercial pour obtenir une autre copie. Si vous ne pouvez pas
obtenir de copie de l’environnement d’exploitation serveur d’E-S virtuel, AIX ou Linux, vous
pouvez déployer le reste de la planification système et installer l’environnement d’exploitation
serveur d’E-S virtuel, AIX ou Linux plus tard.
b. Copiez les fichiers d’installation dont vous avez besoin sur un serveur NIM ou directement sur la
console HMC. Pour copier les fichiers d’installation nécessaires sur la console HMC, insérez le
DVD dans le lecteur sur la console HMC. Si les fichiers d’installation sont sur CD, insérez le
premier CD dans le lecteur sur la console HMC.
Remarque : Vous pouvez utiliser la commande OS_install pour exécuter cette tâche. Sur la ligne
de commande de la console HMC, utilisez la commande OS_install pour copier les fichiers
d’installation de l’environnement d’exploitation. Vous pouvez, par exemple, entrer la commande
suivante pour copier l’image d’installation du serveur d’E-S virtuel du DVD sur la console
HMC :
OS_install -o define_resource -a type=VIOS -a version=x.x -a location=/extra/csminstall/vios
-a source=/dev/cdrom VIOS
où x.x peut correspondre à l’une des valeurs suivantes : 1.4.1.0, 1.5 ou 1.5.2.
Chapitre 3. Serveur d’E-S virtuel
69
7.
8.
9.
10.
11.
c. Sur la console HMC, sélectionnez Gestion de la console HMC → Gestion des ressources
d’installation et cliquez sur Ajouter.
d. Dans la fenêtre Ajout d’une ressource d’installation, sélectionnez Création d’une ressource
d’installation locale, sélectionnez le nom et la version d’environnement d’exploitation appropriés
et cliquez sur OK pour copier les fichiers d’installation du support d’installation sur le disque
dur de la console HMC.
Si vous envisagez de déployer une planification système contenant l’installation d’un environnement
d’exploitation pour une partition logique, assurez-vous que l’attribut Mise hors tension du système
une fois que toutes les partitions logiques sont hors tension du système géré est désactivé. Dans le
cas contraire, le déploiement de la planification système échoue car le processus de déploiement
démarre des partitions, puis les arrête lors de l’installation des environnements d’exploitation. Le
système géré est par conséquent mis hors tension pendant le déploiement lorsque le processus de
déploiement met hors tension les partitions. Pour vérifier cet attribut système, procédez comme
suit :
a. Dans la zone de navigation de la console HMC, sélectionnez Gestion de systèmes → Serveurs.
b. Dans la zone des tâches, cliquez sur Propriétés. La fenêtre des propriétés du système géré
sélectionné apparaît.
c. Dans l’onglet Général, vérifiez que l’attribut Mettre le système hors tension une fois que toutes
les partitions logiques sont hors tension est désactivé et cliquez sur OK.
Pour les partitions logiques serveur d’E-S virtuel déployées précédemment, vérifiez qu’elles sont
actives, et qu’il existe une connexion Resource Monitoring and Control (RMC) entre la console HMC
et chaque partition logiqueserveur d’E-S virtuel. Une connexion RMC est en outre nécessaire pour
garantir que la console HMC peut vérifier l’état de l’environnement d’exploitation d’une partition
logique. Pour installer un environnement d’exploitation dans le cadre du déploiement d’une
planification système, l’assistant de déploiement de planification système doit pouvoir déterminer si
un environnement d’exploitation est déjà installé pour la partition logique affectée. L’assistant peut
obtenir cette information à partir des propriétés de partition sur la console HMC lorsqu’une partition
logique a été démarrée au moins une fois avec une connexion RMC active. Ainsi, la console HMC
est assurée de connaître l’état de l’environnement d’exploitation de la partition logique et l’assistant
peut déterminer si l’installation de l’environnement d’exploitation sur la partition logique est
appropriée, conformément à ce qui est indiqué dans la planification système.
Vérifiez que vous n’utilisez pas cette console HMC ou toute autre console HMC reliée au système
géré pour effectuer des opérations sur le système géré.
Assurez-vous que vous êtes administrateur central. Pour plus d’informations sur les rôles utilisateur,
voir Tâches et rôles dans le document Guide d’utilisation de la console HMC et des systèmes gérés.
Assurez-vous qu’une planification système avec des partitions serveur d’E-S virtuel convient au
déploiement sur le système géré. Sur les consoles HMC antérieures à la version V7R3.3.0, aucune
entité serveur d’E-S virtuel ne doit être configurée sur le système géré, pour aucune de ses partitions
serveur d’E-S virtuel. Le système géré ne doit en particulier comporter aucune entité serveur d’E-S
virtuel configurée, y compris les cartes de réseau Ethernet partagées, les cartes EtherChannel ou des
unités de regroupement de liens, des pools de stockage et des unités de stockage. Si vous essayez de
déployer une planification système sur un système ne répondant pas à la configuration requise,
l’étape de validation de l’assistant de déploiement de planification système échoue. Sur la console
HMC V7R3.3.0, la validation des partitions est plus souple. Vous pouvez donc déployer une
planification système comportant des partitions serveur d’E-S virtuel même si le système géré
contient des partitions serveur d’E-S virtuel comportant des entités serveur d’E-S virtuel configurées.
Déploiement d’une planification système
Pour utiliser la console HMC pour déployer une planification système sur un système géré, procédez
comme suit :
1. Dans la zone de navigation de la console HMC, sélectionnez Planifications système.
2. Dans la zone de contenu, sélectionnez la planification système à déployer.
70
Guide d’utilisation de PowerVM Editions
3. Sélectionnez Tâches → Déploiement de la planification système. L’assistant de déploiement de
planification système démarre.
4. Sur la page d’Accueil, procédez comme suit :
a. Sélectionnez le fichier de planification système qui contient la planification système à déployer.
b. Choisissez le système géré sur lequel vous souhaitez déployer la planification système et cliquez
sur Suivant. Si la planification système ne correspond pas au système géré sur lequel vous
souhaitez la déployer, l’assistant affiche une fenêtre vous en informant. Cliquez sur OK pour
continuer ou sur Annulation pour sélectionner une autre planification système.
Remarque : Si le fichier de planification système contient plusieurs planifications système,
l’assistant contient une phase qui vous permet d’en sélectionner une spécifique dans le fichier.
Cette phase n’est pas accessible si le fichier spécifié ne contient qu’une planification système.
5. Sur la page Validation, procédez comme suit :
a. Attendez que l’assistant valide le système géré et son matériel, grâce à une comparaison avec la
planification système. Le processus de validation peut prendre un certain temps.
b. S’il s’achève correctement, cliquez sur Suivant.
c. Dans le cas contraire, corrigez les erreurs décrites par les messages d’erreur, cliquez sur
Annulation pour quitter l’assistant, puis recommencez la procédure depuis le début. Pour vous
aider à corriger des incidents de validation, vous pouvez créer une planification système basée sur
la configuration en cours du système géré. Une telle planification système vous permet de
comparer la planification système que vous voulez déployer avec la configuration actuelle du
système géré. Vous pouvez pour ce faire utiliser la tâche Création d’une planification système dans
la console HMC ou exécuter la commande suivante à partir de la ligne de commande de la
console HMC :
mksysplan -m nom_du_système_géré -f nom_de_la_nouvelle_planification_système.sysplan
Cette commande crée une nouvelle planification système que vous pouvez afficher et comparer
avec l’ancienne pour vous aider à diagnostiquer les incidents.
Important : Par défaut, la commande mksysplan effectue une reconnaissance de matériel sur des
modèles proposant cette fonctionnalité. Si vous exécutez le processus de reconnaissance de
matériel alors que des partitions logiques sont actives, les données relatives au matériel
appartenant à ces partitions sont supprimées du cache d’inventaire. Il est recommandé de laisser le
cache d’inventaire actif. Vous pouvez donc utiliser le paramètre -nohwdisc pour exécuter la
commande sans procéder à une nouvelle reconnaissance de matériel ou désactiver toutes les
partitions avant d’exécuter la commande mksysplan.
6. Facultatif : Sur la page de déploiement de partition, si, dans la planification système, vous ne
souhaitez pas créer l’ensemble des partitions logiques et leurs profils, ni les types de cartes virtuelles
ou les cartes elles-mêmes, décochez les cases correspondantes dans la colonne Déploiement. Les
cartes série virtuelles sont requises et doivent se trouver dans les emplacements 0 et 1 de chaque
partition logique. Vous ne pouvez pas créer de partition logique tant que vous n’avez pas créé ces
cartes.
7. Facultatif : Sur la page Installation de l’environnement d’exploitation, si des informations
d’installation de l’environnement d’exploitation sont spécifiées dans la planification système, procédez
comme suit :
a. Sélectionnez les environnements d’exploitation que vous souhaitez déployer sur le système géré
pour chaque partition logique. Pour la console HMC V7R3.2.0 ou V7R3.1.0, vous pouvez déployer
l’environnement d’exploitation serveur d’E-S virtuel uniquement. Pour HMC V7R3.3.0 ou des
versions ultérieures, vous pouvez en outre choisir de déployer les environnements d’exploitation
AIX ou Linux si la planification système contient des informations d’installation les concernant.
b. Saisissez l’emplacement de l’image d’installation serveur d’E-S virtuel.
c. Entrez ou modifiez les paramètres d’installation attribués a posteriori à l’environnement
d’exploitation serveur d’E-S virtuel, AIX ou Linux. Les paramètres d’installation d’attribution a
Chapitre 3. Serveur d’E-S virtuel
71
posteriori sont des paramètres qui sont spécifiques à l’instance d’installation et doivent être fournis
au cours de la phase d’installation pour garantir qu’ils sont corrects pour cette instance. Ainsi,
vous pouvez entrer l’adresse IP de la partition logique cible sur laquelle vous installez
l’environnement d’exploitation.
Remarque : Si vous devez utiliser des fichiers d’installation automatique pour déployer un
environnement d’exploitation, vous ne pouvez pas les ajouter pendant le processus de
déploiement de la console HMC.
d. Enregistrez toutes les modifications apportées aux paramètres d’installation d’attribution a
posteriori. Vous pouvez les enregistrer dans le fichier de planification système actuel ou dans un
nouveau fichier de planification système.
8. Sur la page Récapitulatif, contrôlez l’ordre des étapes de déploiement du système et cliquez sur
Terminer. La console HMC s’appuie sur la planification système pour créer les partitions logiques
spécifiées et pour installer tous les environnements d’exploitation spécifiés. Ce processus peut prendre
plusieurs minutes.
Une fois le déploiement de la planification système terminé, installez les environnements d’exploitation et
le logiciel sur les partitions logiques s’ils n’ont pas été installés lors du déploiement de la planification
système.
Tâches associées
«Importation d’une planification système dans une console HMC version 7», à la page 66
Vous pouvez importer un fichier de planification système sur une console HMC (console HMC
(Hardware Management)) à partir de divers types de supports, d’un site FTP distant ou de
l’ordinateur à partir duquel vous accédez à distance à la console HMC. Vous pouvez alors déployer la
planification système importée sur un système géré par la console HMC.
Information associée
Guide du partitionnement logique
Guide d’utilisation de la console HMC et des systèmes gérés
Cette publication destinée aux administrateurs système et aux opérateurs système fournit des
informations sur l’utilisation de la console HMC (Hardware Management Console).
Finalisation de l’installation du serveur d’E-S virtuel
Après l’installation du serveur d’E-S virtuel, recherchez les éventuelles mises à jour, configurez les
connexions à distance, créez les autres ID utilisateur, etc.
Cette procédure suppose que le serveur d’E-S virtuel est installé. Pour plus d’informations, voir
«Installation du serveur d’E-S virtuel et des partitions logiques client», à la page 65.
Pour terminer l’installation, procédez comme suit :
1. Acceptez les termes et conditions de maintenance logicielle, ainsi que la licence produit du serveur
d’E-S virtuel. Pour plus d’informations, voir «Affichage et acceptation du contrat de licence du
serveur d’E-S virtuel», à la page 77.
2. Etablissez les connexions distantes au serveur d’E-S virtuel. Pour plus d’informations, voir
«Connexion au serveur d’E-S virtuel à l’aide d’OpenSSH», à la page 130.
3. Facultatif : Créez les autres ID utilisateur. A la fin de l’installation, le seul ID utilisateur actif est celui
de l’administrateur principal (padmin). Vous pouvez créer les ID utilisateur suivants : administrateur
système, technicien de maintenance et ingénieur de développement. Pour plus d’informations sur la
création d’ID utilisateur, voir «Gestion des utilisateurs sur le serveur d’E-S virtuel», à la page 134.
4. Configurez la connexion TCP/IP pour le serveur d’E-S virtuel à l’aide de la commande mktcpip. Vous
devez accomplir cette tâche pour pouvoir effectuer une opération de partitionnement logique
72
Guide d’utilisation de PowerVM Editions
dynamique. Vous avez également la possibilité d’utiliser le menu d’assistance de configuration pour
configurer les connexions TCP/IP. Pour accéder au menu d’assistance de la configuration, exécutez la
commande cfgassist.
Lorsque vous avez terminé, effectuez l’une des opérations suivantes :
v Si vous avez installé le serveur d’E-S virtuel, des partitions logiques client et des systèmes
d’exploitation en déployant entièrement une planification système, l’installation est terminée. Pour plus
d’informations sur la gestion du serveur d’E-S virtuel, voir «Gestion du serveur d’E-S virtuel», à la
page 101.
v Si vous avez installé le serveur d’E-S virtuel manuellement à l’aide de la console HMC version 6 ou
version 7, vous devez configurer le serveur d’E-S virtuel, créer des partitions logiques client et installer
des systèmes d’exploitation client. Pour plus d’informations, voir «Configuration de la console serveur
d’E-S virtuel», à la page 83 et le manuel Guide de partitionnement logique. Pour consulter le fichier PDF
Guide de partitionnement logique (SA11-1696), d’une taille approximative de 3 Mo, voir sa76-0098.pdf
.
Installation manuelle du serveur d’E-S virtuel via la console HMC
version 7
Vous pouvez créer la partition logique et le profil de partition du serveur d’E-S virtuel, puis installer le
serveur d’E-S virtuel via la console HMC (Hardware Management) (HMC) version 7 ou ultérieure.
Avant de commencer, vérifiez que les conditions suivantes sont remplies :
v Le système sur lequel vous envisagez d’installer le serveur d’E-S virtuel est géré par une console HMC
(Hardware Management).
v Vous disposez de la console HMC version 7 ou ultérieure. Si vous disposez d’une console HMC
version 6 ou antérieure, voir Installation manuelle du serveur d’E-S virtuel via la console HMC
version 6.
Saisie du code d’activation de PowerVM Editions via la console HMC version 7
Cette procédure explique comment saisir le code d’activation de PowerVM Editions (ou Advanced
POWER Virtualization) à partir de la console HMC (Hardware Management) (HMC) version 7 ou
supérieure.
Si PowerVM Editions n’est pas activé sur votre système, vous devez utiliser la console HMC pour entrer
le code d’activation que vous avez reçu lors de la votre commande.
Procédez comme suit pour entrer le code d’activation de PowerVM Standard Edition et de PowerVM
Enterprise Edition. Pour plus d’informations sur PowerVM Editions, voir «PowerVM Editions», à la page
2.
Pour entrer votre code d’activation, procédez comme suit :
1. Dans la zone de Navigation, développez Gestion de systèmes.
2. Sélectionnez Serveurs.
3. Dans la zone de contenu, sélectionnez le système géré sur lequel vous souhaitez utiliser PowerVM
Editions. Il peut s’agir, par exemple, du système sur lequel vous envisagez d’installer le serveur d’E-S
virtuel ou celui dans lequel vous envisagez d’utiliser la technologie Micro-Partitioning.
4. Cliquez sur Tâches et sélectionnez Capacity on Demand (CoD) → AdvancedPOWER Virtualization →
Saisie du code d’activation.
5. Entrez votre code d’activation et cliquez sur OK.
Chapitre 3. Serveur d’E-S virtuel
73
Création de la partition logique et du profil de partition du serveur d’E-S virtuel via
la console HMC version 7
Vous pouvez utiliser la console HMC (Hardware Management) (HMC) version 7 pour créer une partition
logique et un profil de partition pour le serveur d’E-S virtuel.
Avant de commencer, vérifiez que les conditions suivantes sont remplies :
v Vous êtes un super administrateur ou un opérateur.
v La fonction PowerVM Editions (ou Advanced POWER Virtualization) est activée. Pour plus
d’informations, voir «Saisie du code d’activation de PowerVM Editions via la console HMC version 7»,
à la page 11.
Le serveur d’E-S virtuel requiert un espace disque minimum de 16 Go.
Pour créer une partition logique et un profil de partition sur votre serveur via la console HMC, procédez
comme suit :
1. Dans la zone de Navigation, développez Gestion de systèmes.
2. Sélectionnez Serveurs.
3. Dans la zone de contenu, ouvrez le serveur sur lequel vous voulez créer le profil de partition.
4. Cliquez sur Tâches et sélectionnez Configuration → Création d’une partition logique → Serveur
d’E-S virtuel.
5. Sur la page Création de partition, entrez le nom et l’ID de la partition du serveur d’E-S virtuel.
6. Sur la page Profil de partition, procédez comme suit :
a. Entrez un nom de profil pour la partition du serveur d’E-S virtuel.
b. Assurez-vous que la case à cocher Utiliser toutes les ressources du système n’est pas
sélectionnée.
7. Sur la page Processeurs, indiquez si vous souhaiter utiliser des processeurs partagés ou dédiés (en
fonction de votre environnement), en sélectionnant l’option correspondante.
8. Sur la page Paramètres de traitement, entrez la quantité d’unités de traitement et de processeurs
virtuels que vous souhaitez attribuer à la partition du serveur d’E-S virtuel.
9. Sur la page Mémoire, sélectionnez la quantité de mémoire que vous souhaitez attribuer à la partition
du serveur d’E-S virtuel. La quantité minimale requise est de 512 Mo.
10. Sur la page E-S, sélectionnez les ressources d’E-S physiques que vous souhaitez avoir sur la partition
du serveur d’E-S virtuel.
11. Sur la page Cartes virtuelles, créez les cartes destinées à votre environnement.
12. Sur la page Carte Ethernet hôte logique (LHEA), configurez une ou plusieurs cartes de ce type pour
la partition serveur d’E-S virtuel. (La carte de réseau Ethernet hôte est parfois appelée carte Ethernet
virtuelle intégrée.)
13. Sur la page Paramètres facultatifs, procédez comme suit :
a. Décidez si vous souhaitez surveiller les connexions en sélectionnant l’option appropriée.
b. Pour que le serveur d’E-S virtuel démarre en même temps que le système géré, sélectionnez
l’option Démarrer automatiquement avec le système géré.
c. Indiquez si vous souhaitez activer l’édition de rapports sur le chemin de traitement des erreurs
en sélectionnant l’option correspondante.
d. Sélectionnez le mode d’amorçage de la partition du serveur d’E-S virtuel. Dans la plupart des
cas, le mode d’amorçage Normal est l’option appropriée.
14. Vérifiez vos sélections dans la fenêtre Récapitulatif du profil et appuyez sur Terminer.
Après la création de la partition et du profil de partition, vous pouvez installer le serveur d’E-S virtuel.
Pour plus d’informations, consultez l’une des procédures suivantes :
v «Installation du serveur d’E-S virtuel à partir de la console HMC», à la page 75
74
Guide d’utilisation de PowerVM Editions
v «Installation du serveur d’E-S virtuel à partir d’un CD ou d’un DVD»
Installation du serveur d’E-S virtuel à partir de la console HMC
Cette rubrique contient des instructions sur l’installation du serveur d’E-S virtuel via la console HMC à
l’aide de la commande installios.
Avant de commencer, effectuez les tâches suivantes :
1. Vérifiez que les conditions suivantes sont remplies :
v Une console HMC est connectée au système géré.
v La partition logique et le profil de partition logique du serveur d’E-S virtuel sont créés. Pour plus
d’informations, consultez les procédures suivantes :
– «Création de la partition logique et du profil de partition du serveur d’E-S virtuel via la console
HMC version 7», à la page 74
– «Création de la partition logique et du profil de partition du serveur d’E-S virtuel à l’aide la
console HMC version 6», à la page 79
v La partition logique du serveur d’E-S virtuel dispose d’au moins une carte Ethernet et un disque de
16 Go lui a été attribué.
v Vous disposez des droits d’accès hmcsuperadmin.
2. Collectez les informations suivantes :
v l’adresse IP statique du serveur d’E-S virtuel
v le masque de sous-réseau du serveur d’E-S virtuel
v la passerelle par défaut du serveur d’E-S virtuel
Pour installer le serveur d’E-S virtuel, procédez comme suit :
1. Insérez le CD-ROM ou le DVD-ROM du serveur d’E-S virtuel dans la console HMC.
2. Si vous installez le serveur d’E-S virtuel via l’interface réseau publique, passez à l’étape 3. Si vous
installez le serveur d’E-S virtuel via une interface réseau privée, entrez la commande suivante sur la
ligne de commande de la console HMC :
export INSTALLIOS_PRIVATE_IF=interface
où interface correspond à l’interface réseau où doit avoir lieu l’installation.
3. Dans la ligne de commande de la console HMC, tapez :
installios
4. Suivez les instructions d’installation conformément aux invites du système.
Après l’installation du serveur d’E-S virtuel, effectuez les tâches complémentaires à l’installation
(recherchez les mises à jour, configurez la connexion à distance, créez d’autres ID utilisateur, etc.). Pour
plus d’informations, voir «Finalisation de l’installation du serveur d’E-S virtuel», à la page 72.
Installation du serveur d’E-S virtuel à partir d’un CD ou d’un DVD
Instructions relatives à l’installation du serveur d’E-S virtuel à partir d’une unité de CD-ROM ou de
DVD-ROM connectée à la partition logique du serveur d’E-S virtuel.
Avant de commencer, vérifiez que les conditions suivantes sont remplies :
v Une console HMC est connectée au système géré.
v La partition logique et le profil de partition logique du serveur d’E-S virtuel sont créés. Pour plus
d’informations, consultez les procédures suivantes :
– «Création de la partition logique et du profil de partition du serveur d’E-S virtuel via la console
HMC version 7», à la page 74
– «Création de la partition logique et du profil de partition du serveur d’E-S virtuel à l’aide la console
HMC version 6», à la page 79
v Une unité optique CD ou DVD est attribuée à la partition logique du serveur d’E-S virtuel.
Chapitre 3. Serveur d’E-S virtuel
75
Pour installer le serveur d’E-S virtuel à partir d’un CD ou d’un DVD, procédez comme suit :
1. Activez la partition logique du serveur d’E-S virtuel à l’aide de la console HMC version 7 (ou
ultérieure) ou HMC version 6 (ou antérieure) :
v Activez le serveur d’E-S virtuel à l’aide de la console HMC version 7 ou ultérieure :
a. Insérez le CD ou le DVD du serveur d’E-S virtuel dans la partition logique du serveur d’E-S
virtuel.
b. Dans la zone de navigation de la console HMC, cliquez sur Gestion de systèmes → Serveurs.
c. Sélectionnez le serveur sur lequel se trouve la partition logique du serveur d’E-S virtuel.
d. Dans la zone Contenu, sélectionnez la partition logique du serveur d’E-S virtuel.
e. Cliquez sur Tâches → Utilisation → Activation. Le menu Activation d’une partition s’ouvre en
proposant une sélection de profils de partition logique. Vérifiez que le bon profil est mis en
évidence.
f. Sélectionnez Ouverture d’une fenêtre de terminal ou d’une session de console pour ouvrir une
fenêtre de terminal virtuel (vterm).
g. Cliquez sur Options avancées pour ouvrir le menu des options avancées.
h. Pour le mode d’amorçage, sélectionnez SMS.
i. Cliquez sur OK pour fermer le menu des options avancées.
j. Cliquez sur OK. Une fenêtre de terminal virtuel s’ouvre pour la partition logique.
v Activez le serveur d’E-S virtuel à l’aide de la console HMC version 6 ou antérieure :
a. Insérez le CD ou le DVD du serveur d’E-S virtuel dans la partition logique du serveur d’E-S
virtuel.
b. Sur la console HMC, cliquez avec le bouton droit de la souris sur la partition logique pour
ouvrir le menu correspondant.
c. Cliquez sur Activer. Le menu Activation d’une partition s’ouvre en proposant une sélection de
profils de partition logique. Vérifiez que le bon profil est mis en évidence.
d. Sélectionnez Ouverture d’une fenêtre de terminal ou d’une session de console pour ouvrir une
fenêtre de terminal virtuel (vterm).
e. Cliquez sur Options avancées pour ouvrir le menu des options avancées.
f. Pour le mode d’amorçage, sélectionnez SMS.
g. Cliquez sur OK pour fermer le menu des options avancées.
h. Cliquez sur OK. Une fenêtre de terminal virtuel s’ouvre pour la partition logique.
2. Sélectionnez l’unité d’amorçage :
a. Sélectionnez Choix options d’amorçage et appuyez sur Entrée.
b. Sélectionnez Choix unité installation/amorçage et appuyez sur Entrée.
c. Sélectionnez Sélection de la première unité d’amorçage et appuyez sur Entrée.
d. Sélectionnez CD/DVD et appuyez sur Entrée.
e. Sélectionnez le type de support correspondant à l’unité optique, puis appuyez sur Entrée.
f. Sélectionnez le numéro de l’unité correspondant à l’unité optique, puis appuyez sur Entrée.
g. Définissez la séquence d’amorçage pour configurer la première unité d’amorçage. L’unité optique
est désormais la première unité de la liste de séquence d’amorçage en cours.
h. Quittez le menu SMS en appuyant sur la touche x puis confirmez que vous souhaitez quitter SMS.
3. Installez le serveur d’E-S virtuel :
a. Sélectionnez la console souhaitée et appuyez sur Entrée.
b. Sélectionnez une langue pour les menus du système d’exploitation de base et appuyez sur Entrée.
c. Sélectionnez Lancement de l’installation avec paramètres par défaut et appuyez sur Entrée.
d. Sélectionnez Suite de l’installation. Le système redémarre une fois l’installation terminée.
76
Guide d’utilisation de PowerVM Editions
Après avoir installé le serveur d’E-S virtuel, terminez l’installation en recherchant les mises à jour, en
établissant les connexions distantes, en créant d’autres ID utilisateur, etc. Pour plus d’informations, voir
«Finalisation de l’installation du serveur d’E-S virtuel», à la page 72.
Finalisation de l’installation du serveur d’E-S virtuel
Après l’installation du serveur d’E-S virtuel, recherchez les éventuelles mises à jour, configurez les
connexions à distance, créez les autres ID utilisateur, etc.
Cette procédure suppose que le serveur d’E-S virtuel est installé. Pour plus d’informations, voir
«Installation du serveur d’E-S virtuel et des partitions logiques client», à la page 65.
Pour terminer l’installation, procédez comme suit :
1. Acceptez les termes et conditions de maintenance logicielle, ainsi que la licence produit du serveur
d’E-S virtuel. Pour plus d’informations, voir «Affichage et acceptation du contrat de licence du
serveur d’E-S virtuel».
2. Etablissez les connexions distantes au serveur d’E-S virtuel. Pour plus d’informations, voir
«Connexion au serveur d’E-S virtuel à l’aide d’OpenSSH», à la page 130.
3. Facultatif : Créez les autres ID utilisateur. A la fin de l’installation, le seul ID utilisateur actif est celui
de l’administrateur principal (padmin). Vous pouvez créer les ID utilisateur suivants : administrateur
système, technicien de maintenance et ingénieur de développement. Pour plus d’informations sur la
création d’ID utilisateur, voir «Gestion des utilisateurs sur le serveur d’E-S virtuel», à la page 134.
4. Configurez la connexion TCP/IP pour le serveur d’E-S virtuel à l’aide de la commande mktcpip. Vous
devez accomplir cette tâche pour pouvoir effectuer une opération de partitionnement logique
dynamique. Vous avez également la possibilité d’utiliser le menu d’assistance de configuration pour
configurer les connexions TCP/IP. Pour accéder au menu d’assistance de la configuration, exécutez la
commande cfgassist.
Lorsque vous avez terminé, effectuez l’une des opérations suivantes :
v Si vous avez installé le serveur d’E-S virtuel, des partitions logiques client et des systèmes
d’exploitation en déployant entièrement une planification système, l’installation est terminée. Pour plus
d’informations sur la gestion du serveur d’E-S virtuel, voir «Gestion du serveur d’E-S virtuel», à la
page 101.
v Si vous avez installé le serveur d’E-S virtuel manuellement à l’aide de la console HMC version 6 ou
version 7, vous devez configurer le serveur d’E-S virtuel, créer des partitions logiques client et installer
des systèmes d’exploitation client. Pour plus d’informations, voir «Configuration de la console serveur
d’E-S virtuel», à la page 83 et le manuel Guide de partitionnement logique. Pour consulter le fichier PDF
Guide de partitionnement logique (SA11-1696), d’une taille approximative de 3 Mo, voir sa76-0098.pdf
.
Affichage et acceptation du contrat de licence du serveur d’E-S virtuel :
Avant d’utiliser le serveur d’E-S virtuel, vous devez afficher et accepter le contrat de licence.
Avant de commencer, vérifiez que le profil de la partition logique du serveur d’E-S virtuel est créée et
que le serveur d’E-S virtuel est installé. Pour plus d’informations, voir «Installation du serveur d’E-S
virtuel et des partitions logiques client», à la page 65.
Pour consulter et accepter la licence du serveur d’E-S virtuel, procédez comme suit :
1. Connectez-vous au serveur d’E-S virtuel avec l’ID utilisateur padmin.
2. Choisissez un nouveau mot de passe. Les dispositions relatives à la maintenance logicielle
apparaissent.
3. Affichez et acceptez le contrat de licence du produit serveur d’E-S virtuel.
Chapitre 3. Serveur d’E-S virtuel
77
Remarque : Si vous avez installé le serveur d’E-S virtuel en déployant une planification système, vous
avez déjà accepté le contrat de licence du produit serveur d’E-S virtuel. Il est donc inutile d’exécuter
cette procédure.
a. Pour afficher le contrat de licence du produit serveur d’E-S virtuel, tapez license -ls sur la ligne
de commande. Par défaut, la licence s’affiche en anglais. Pour modifier la langue d’affichage de la
licence, procédez comme suit :
1) Affichez la liste des paramètres nationaux disponibles pour l’affichage de la licence en entrant
la commande suivante :
license -ls
2) Affichez la licence dans une autre langue en entrant la commande suivante :
license -view -lang Nom
Par exemple, pour afficher la licence en japonais, entrez la commande suivante :
license -view -lang ja_JP
b. Pour accepter le contrat de licence du produit serveur d’E-S virtuel, tapez license -accept sur la
ligne de commande.
4. Dans le programme d’installation, l’anglais est la langue par défaut. Si vous voulez modifier le
paramètre de langue du système, procédez comme suit :
a. Affichez les langues disponibles en entrant la commande suivante :
chlang -ls
b. Modifiez la langue en entrant la commande suivante, en remplaçant Nom par le nom de la langue
que vous souhaitez utiliser.
chlang -lang Nom
Remarque : Si le jeu de fichiers de langue n’est pas installé, utilisez l’option -dev Support pour
l’installer.
Par exemple, pour installer et sélectionner du japonais, entrez la commande suivante :
chlang -lang ja_JP -dev /dev/cd0
Installation manuelle du serveur d’E-S virtuel à l’aide de la console
HMC version 6
Vous pouvez créer la partition logique et le profil de partition logique du serveur d’E-S virtuel et installer
le serveur d’E-S virtuel à l’aide de la console HMC (Hardware Management) (HMC) version 6 ou
antérieure.
Avant de commencer, vérifiez que les conditions suivantes sont remplies :
v Le système sur lequel vous envisagez d’installer le serveur d’E-S virtuel est géré par une console HMC
(Hardware Management).
v Vous disposez de la version 6 (ou d’une version inférieure) de la console HMC. Si vous disposez de la
version 7 (ou d’une version supérieure) de la HMC, reportez-vous à l’une des procédures suivantes :
– «Installation du serveur d’E-S virtuelet des partitions logiques client en déployant une planification
système», à la page 65
– «Installation manuelle du serveur d’E-S virtuel via la console HMC version 7», à la page 73
Saisie du code d’activation de PowerVM Editions via la console HMC version 6
Le code de PowerVM Editions (ou Advanced POWER Virtualization) est nécessaire pour installer et
configurer le serveur d’E-S virtuel. Vous pouvez le saisir à partir de la console HMC (Hardware
Management).
78
Guide d’utilisation de PowerVM Editions
Si le dispositif PowerVM Editions n’est pas activé sur votre système, vous devez utiliser la console HMC
pour entrer le code d’activation que vous avez reçu lors de la votre commande. Ce code d’activation
permet également d’activer la technologie Micro-Partitioning sur le système.
Pour entrer votre code d’activation, procédez comme suit :
1. Sur la console HMC, sélectionnez le système géré.
2. Sélectionnez Gestion des activations On Demand.
3. Sélectionnez Technologies Virtualization Engine.
4. Sélectionnez Saisie du code d’activation. Entrez votre code d’activation.
Création de la partition logique et du profil de partition du serveur d’E-S virtuel à
l’aide la console HMC version 6
La console HMC (Hardware Management) version 6 permet de créer une partition logique et un profil de
partition pour le serveur d’E-S virtuel.
Avant de commencer, vérifiez que les conditions suivantes sont remplies :
v Vous êtes un super administrateur ou un opérateur.
v La fonction PowerVM Editions (ou Advanced POWER Virtualization) est activée. Pour plus
d’informations, voir «Saisie du code d’activation de PowerVM Editions via la console HMC version 6»,
à la page 11.
Le serveur d’E-S virtuel requiert au minimum 16 Go d’espace disque et 512 Mo de mémoire.
Pour créer une partition logique et un profil de partition sur votre serveur à l’aide de la console HMC,
procédez comme suit :
1. Dans la zone de navigation, ouvrez Serveur et partition.
2. Sélectionnez Gestion de serveurs.
3. Dans la zone de contenu, ouvrez le serveur sur lequel vous voulez créer le profil de partition.
4. Cliquez avec le bouton droit de la souris sur Partitions et sélectionnez Création → Partitions
logiques.
5. Entrez un nom pour la partition du serveur d’E-S virtuel.
6. Sélectionnez le serveur d’E-S virtuel comme environnement de partition.
7. Selon votre environnement, indiquez si le serveur d’E-S virtuel fera partie ou non d’un groupe de
gestion de charge de travail.
8. Entrez un nom de profil pour la partition du serveur d’E-S virtuel.
9. Assurez-vous que la case à cocher Utiliser toutes les ressources du système n’est pas sélectionnée.
10. Sélectionnez la quantité de mémoire que vous souhaitez affecter à la partition du serveur d’E-S
virtuel. La quantité minimale requise est de 512 Mo.
11. Selon votre environnement, indiquez si vous souhaitez utiliser des processeurs partagés ou dédiés en
sélectionnant l’option correspondante.
12. Sélectionnez les ressources d’E-S physiques que vous souhaitez inclure dans la partition du serveur
d’E-S virtuel.
13. Selon votre environnement, indiquez si le serveur d’E-S virtuel utilisera ou non des pools d’E-S en
sélectionnant l’option appropriée.
14. Dans la fenêtre des cartes d’E-S virtuelles, cliquez sur Oui pour indiquer que vous voulez définir des
cartes virtuelles.
15. Dans la fenêtre de création de cartes d’E-S virtuelles, créez les cartes appropriées à votre
environnement.
16. Selon votre environnement, indiquez si vous voulez définir une partition de gestion de l’alimentation
pour la partition du serveur d’E-S virtuel.
Chapitre 3. Serveur d’E-S virtuel
79
17. Décidez si vous souhaitez surveiller les connexions en sélectionnant l’option appropriée.
18. Pour que le serveur d’E-S virtuel démarre en même temps que le système géré, sélectionnez l’option
Démarrer automatiquement avec le système géré.
19. Sélectionnez le mode d’amorçage de la partition du serveur d’E-S virtuel. Dans la plupart des cas, le
mode d’amorçage normal est l’option appropriée.
20. Vérifiez vos sélections dans la fenêtre Récapitulatif du profil et appuyez sur Terminer.
Une fois la partition logique et le profil de partition créés, vous devez installer le serveur d’E-S virtuel.
Pour plus d’informations, consultez l’une des procédures suivantes :
v «Installation du serveur d’E-S virtuel à partir de la console HMC», à la page 75
v «Installation du serveur d’E-S virtuel à partir d’un CD ou d’un DVD», à la page 75
Installation du serveur d’E-S virtuel à partir de la console HMC
Cette rubrique contient des instructions sur l’installation du serveur d’E-S virtuel via la console HMC à
l’aide de la commande installios.
Avant de commencer, effectuez les tâches suivantes :
1. Vérifiez que les conditions suivantes sont remplies :
v Une console HMC est connectée au système géré.
v La partition logique et le profil de partition logique du serveur d’E-S virtuel sont créés. Pour plus
d’informations, consultez les procédures suivantes :
– «Création de la partition logique et du profil de partition du serveur d’E-S virtuel via la console
HMC version 7», à la page 74
– «Création de la partition logique et du profil de partition du serveur d’E-S virtuel à l’aide la
console HMC version 6», à la page 79
v La partition logique du serveur d’E-S virtuel dispose d’au moins une carte Ethernet et un disque de
16 Go lui a été attribué.
v Vous disposez des droits d’accès hmcsuperadmin.
2. Collectez les informations suivantes :
v l’adresse IP statique du serveur d’E-S virtuel
v le masque de sous-réseau du serveur d’E-S virtuel
v la passerelle par défaut du serveur d’E-S virtuel
Pour installer le serveur d’E-S virtuel, procédez comme suit :
1. Insérez le CD-ROM ou le DVD-ROM du serveur d’E-S virtuel dans la console HMC.
2. Si vous installez le serveur d’E-S virtuel via l’interface réseau publique, passez à l’étape 3. Si vous
installez le serveur d’E-S virtuel via une interface réseau privée, entrez la commande suivante sur la
ligne de commande de la console HMC :
export INSTALLIOS_PRIVATE_IF=interface
où interface correspond à l’interface réseau où doit avoir lieu l’installation.
3. Dans la ligne de commande de la console HMC, tapez :
installios
4. Suivez les instructions d’installation conformément aux invites du système.
Après l’installation du serveur d’E-S virtuel, effectuez les tâches complémentaires à l’installation
(recherchez les mises à jour, configurez la connexion à distance, créez d’autres ID utilisateur, etc.). Pour
plus d’informations, voir «Finalisation de l’installation du serveur d’E-S virtuel», à la page 72.
Installation du serveur d’E-S virtuel à partir d’un CD ou d’un DVD
Instructions relatives à l’installation du serveur d’E-S virtuel à partir d’une unité de CD-ROM ou de
DVD-ROM connectée à la partition logique du serveur d’E-S virtuel.
80
Guide d’utilisation de PowerVM Editions
Avant de commencer, vérifiez que les conditions suivantes sont remplies :
v Une console HMC est connectée au système géré.
v La partition logique et le profil de partition logique du serveur d’E-S virtuel sont créés. Pour plus
d’informations, consultez les procédures suivantes :
– «Création de la partition logique et du profil de partition du serveur d’E-S virtuel via la console
HMC version 7», à la page 74
– «Création de la partition logique et du profil de partition du serveur d’E-S virtuel à l’aide la console
HMC version 6», à la page 79
v Une unité optique CD ou DVD est attribuée à la partition logique du serveur d’E-S virtuel.
Pour installer le serveur d’E-S virtuel à partir d’un CD ou d’un DVD, procédez comme suit :
1. Activez la partition logique du serveur d’E-S virtuel à l’aide de la console HMC version 7 (ou
ultérieure) ou HMC version 6 (ou antérieure) :
v Activez le serveur d’E-S virtuel à l’aide de la console HMC version 7 ou ultérieure :
a. Insérez le CD ou le DVD du serveur d’E-S virtuel dans la partition logique du serveur d’E-S
virtuel.
b. Dans la zone de navigation de la console HMC, cliquez sur Gestion de systèmes → Serveurs.
c. Sélectionnez le serveur sur lequel se trouve la partition logique du serveur d’E-S virtuel.
d. Dans la zone Contenu, sélectionnez la partition logique du serveur d’E-S virtuel.
e. Cliquez sur Tâches → Utilisation → Activation. Le menu Activation d’une partition s’ouvre en
proposant une sélection de profils de partition logique. Vérifiez que le bon profil est mis en
évidence.
f. Sélectionnez Ouverture d’une fenêtre de terminal ou d’une session de console pour ouvrir une
fenêtre de terminal virtuel (vterm).
g. Cliquez sur Options avancées pour ouvrir le menu des options avancées.
h. Pour le mode d’amorçage, sélectionnez SMS.
i. Cliquez sur OK pour fermer le menu des options avancées.
j. Cliquez sur OK. Une fenêtre de terminal virtuel s’ouvre pour la partition logique.
v Activez le serveur d’E-S virtuel à l’aide de la console HMC version 6 ou antérieure :
a. Insérez le CD ou le DVD du serveur d’E-S virtuel dans la partition logique du serveur d’E-S
virtuel.
b. Sur la console HMC, cliquez avec le bouton droit de la souris sur la partition logique pour
ouvrir le menu correspondant.
c. Cliquez sur Activer. Le menu Activation d’une partition s’ouvre en proposant une sélection de
profils de partition logique. Vérifiez que le bon profil est mis en évidence.
d. Sélectionnez Ouverture d’une fenêtre de terminal ou d’une session de console pour ouvrir une
fenêtre de terminal virtuel (vterm).
e. Cliquez sur Options avancées pour ouvrir le menu des options avancées.
f. Pour le mode d’amorçage, sélectionnez SMS.
g. Cliquez sur OK pour fermer le menu des options avancées.
h. Cliquez sur OK. Une fenêtre de terminal virtuel s’ouvre pour la partition logique.
2. Sélectionnez l’unité d’amorçage :
a. Sélectionnez Choix options d’amorçage et appuyez sur Entrée.
b. Sélectionnez Choix unité installation/amorçage et appuyez sur Entrée.
c.
d.
e.
f.
Sélectionnez Sélection de la première unité d’amorçage et appuyez sur Entrée.
Sélectionnez CD/DVD et appuyez sur Entrée.
Sélectionnez le type de support correspondant à l’unité optique, puis appuyez sur Entrée.
Sélectionnez le numéro de l’unité correspondant à l’unité optique, puis appuyez sur Entrée.
Chapitre 3. Serveur d’E-S virtuel
81
g. Définissez la séquence d’amorçage pour configurer la première unité d’amorçage. L’unité optique
est désormais la première unité de la liste de séquence d’amorçage en cours.
h. Quittez le menu SMS en appuyant sur la touche x puis confirmez que vous souhaitez quitter SMS.
3. Installez le serveur d’E-S virtuel :
a. Sélectionnez la console souhaitée et appuyez sur Entrée.
b. Sélectionnez une langue pour les menus du système d’exploitation de base et appuyez sur Entrée.
c. Sélectionnez Lancement de l’installation avec paramètres par défaut et appuyez sur Entrée.
d. Sélectionnez Suite de l’installation. Le système redémarre une fois l’installation terminée.
Après avoir installé le serveur d’E-S virtuel, terminez l’installation en recherchant les mises à jour, en
établissant les connexions distantes, en créant d’autres ID utilisateur, etc. Pour plus d’informations, voir
«Finalisation de l’installation du serveur d’E-S virtuel», à la page 72.
Finalisation de l’installation du serveur d’E-S virtuel
Après l’installation du serveur d’E-S virtuel, recherchez les éventuelles mises à jour, configurez les
connexions à distance, créez les autres ID utilisateur, etc.
Cette procédure suppose que le serveur d’E-S virtuel est installé. Pour plus d’informations, voir
«Installation du serveur d’E-S virtuel et des partitions logiques client», à la page 65.
Pour terminer l’installation, procédez comme suit :
1. Acceptez les termes et conditions de maintenance logicielle, ainsi que la licence produit du serveur
d’E-S virtuel. Pour plus d’informations, voir «Affichage et acceptation du contrat de licence du
serveur d’E-S virtuel», à la page 77.
2. Etablissez les connexions distantes au serveur d’E-S virtuel. Pour plus d’informations, voir
«Connexion au serveur d’E-S virtuel à l’aide d’OpenSSH», à la page 130.
3. Facultatif : Créez les autres ID utilisateur. A la fin de l’installation, le seul ID utilisateur actif est celui
de l’administrateur principal (padmin). Vous pouvez créer les ID utilisateur suivants : administrateur
système, technicien de maintenance et ingénieur de développement. Pour plus d’informations sur la
création d’ID utilisateur, voir «Gestion des utilisateurs sur le serveur d’E-S virtuel», à la page 134.
4. Configurez la connexion TCP/IP pour le serveur d’E-S virtuel à l’aide de la commande mktcpip. Vous
devez accomplir cette tâche pour pouvoir effectuer une opération de partitionnement logique
dynamique. Vous avez également la possibilité d’utiliser le menu d’assistance de configuration pour
configurer les connexions TCP/IP. Pour accéder au menu d’assistance de la configuration, exécutez la
commande cfgassist.
Lorsque vous avez terminé, effectuez l’une des opérations suivantes :
v Si vous avez installé le serveur d’E-S virtuel, des partitions logiques client et des systèmes
d’exploitation en déployant entièrement une planification système, l’installation est terminée. Pour plus
d’informations sur la gestion du serveur d’E-S virtuel, voir «Gestion du serveur d’E-S virtuel», à la
page 101.
v Si vous avez installé le serveur d’E-S virtuel manuellement à l’aide de la console HMC version 6 ou
version 7, vous devez configurer le serveur d’E-S virtuel, créer des partitions logiques client et installer
des systèmes d’exploitation client. Pour plus d’informations, voir «Configuration de la console serveur
d’E-S virtuel», à la page 83 et le manuel Guide de partitionnement logique. Pour consulter le fichier PDF
Guide de partitionnement logique (SA11-1696), d’une taille approximative de 3 Mo, voir sa76-0098.pdf
.
82
Guide d’utilisation de PowerVM Editions
Configuration de la console serveur d’E-S virtuel
Vous devez configurer les unités Ethernet virtuelles et SCSI virtuelles sur le serveur d’E-S virtuel. Vous
pouvez également (facultatif) configurer des agents et des clients Tivoli et configurer le serveur d’E-S
virtuel en tant que client LDAP.
Configuration d’unités SCSI virtuelles sur le serveur d’E-S virtuel
Vous pouvez configurer des unités SCSI virtuelles en déployant une planification système, en créant des
groupes de volumes et des volumes logiques et en configurant le serveur d’E-S virtuel de façon à activer
la prise en charge des fonctions de verrouillage SCSI-2.
Les ressources de disque virtuel sont fournies sur le serveur d’E-S virtuel. Les disques physiques
appartenant au serveur d’E-S virtuel peuvent être exportés et affectés ensemble à une partition logique
client ou partitionnés en volumes ou fichiers logiques. Ces volumes et fichiers logiques peuvent ensuite
être exportés sous forme de disques virtuels sur une ou plusieurs partitions logiques client. Par
conséquent, l’interface SCSI virtuelle permet de partager des cartes et des unités de disque.
Pour mettre un volume physique, un volume logique ou un fichier à la disposition d’une partition client,
il doit être affecté à une carte SCSI virtuelle du serveur d’E-S virtuel. La carte du client SCSI est liée à
une carte serveur SCSI virtuelle précise dans la partition logique du serveur d’E-S virtuel. La partition
logique client accède aux disques qui lui sont alloués via la carte client SCSI virtuelle. La carte client du
serveur d’E-S virtuel détecte les unités SCSI standard et les LUN grâce à cette carte virtuelle. L’attribution
de ressources de disques à une carte du serveur SCSI sur le serveur d’E-S virtuel permet d’allouer de
façon effective les ressources à une carte client SCSI dans la partition logique client.
Création de l’unité cible virtuelle sur le serveur d’E-S virtuel
La création d’une unité cible virtuelle sur le serveur d’E-S virtuel mappe la carte SCSI virtuelle sur le
fichier, le volume logique ou le disque physique.
Avec le serveur d’E-S virtuel version 1.5 et supérieure, vous pouvez exporter les types de disque
physique suivants :
v Un disque SCSI virtuel associé à un volume physique
v Un disque SCSI virtuel associé à un volume logique
v Un disque SCSI virtuel associé à un fichier
Une fois que le disque virtuel est alloué à une partition client, le serveur d’E-S virtuel doit être disponible
pour que les partitions logiques client puissent y accéder.
Création d’une unité cible virtuelle sur le serveur d’E-S virtuel avec mappage sur un un volume
logique ou physique :
Vous pouvez créer une unité cible virtuelle sur le serveur d’E-S virtuel qui mappe la carte SCSI virtuelle
sur un disque physique ou un volume logique basé sur un groupe de stockage.
Vous pouvez répéter cette procédure pour fournir de l’espace de stockage sur disque virtuel
supplémentaire à partir de n’importe quelle partition logique client.
Avant de commencer, vérifiez que les conditions suivantes sont remplies :
1. Un volume logique ou physique doit être défini au minimum sur le serveur d’E-S virtuel. Pour plus
d’informations, voir «Volumes logiques», à la page 18.
2. Les cartes virtuelles du serveur d’E-S virtuel et des partitions logiques client doivent avoir été créées.
Elles sont généralement créées en même temps que le profil de partition logique. Pour plus
d’informations sur la création de la partition logique, voir serveur d’E-S virtuel.
Chapitre 3. Serveur d’E-S virtuel
83
Pour créer une unité cible virtuelle qui mappe une carte serveur SCSI virtuelle sur un volume logique ou
physique, procédez comme suit :
1. Pour vous assurer que la carte SCSI virtuelle est disponible, utilisez la commande lsdev. Par exemple,
la commande lsdev -virtual renvoie un résultat similaire au suivant :
name
ent3
vhost0
vhost1
vsa0
vtscsi0
vtscsi1
vtscsi2
status
description
Available Virtual I/O Ethernet Adapter (l-lan)
Available Virtual SCSI Server Adapter
Available Virtual SCSI Server Adapter
Available LPAR Virtual Serial Adapter
Available Virtual Target Device - Logical Volume
Available Virtual Target Device - File-backed Disk
Available Virtual Target Device - File-backed Disk
2. Pour créer une unité cible virtuelle qui mappe la carte serveur SCSI virtuelle sur un volume logique
ou physique, exécutez la commande mkvdev:
mkvdev -vdev TargetDevice -vadapter VirtualSCSIServerAdapter
Où :
v TargetDevice est le nom de l’unité cible, comme suit :
– Pour mapper un volume logique sur la carte serveur SCSI virtuelle, utilisez le nom du volume
logique. Par exemple, lv_4G.
– Pour mapper un volume physique sur la carte serveur SCSI virtuelle, utilisez hdiskx. Par
exemple, hdisk5.
– Pour mapper une unité optique sur la carte serveur SCSI virtuelle, utilisez cdx. Par exemple, cd0.
v VirtualSCSIServerAdapter est le nom de la carte serveur SCSI virtuelle.
La mémoire de stockage est mise à disposition de la partition logique client lors du prochain
démarrage de cette partition ou lors de la prochaine analyse (sur une partition logique Linux) ou de
la prochaine configuration (sur une partition logique AIX) de la carte client SCSI virtuelle appropriée.
3. Affichez l’unité cible virtuelle que vous venez de créer en exécutant la commande lsdev. Par exemple,
la commande lsdev -virtual renvoie un résultat similaire au suivant :
name
status
description
vhost3
Available Virtual SCSI Server Adapter
vsa0
Available LPAR Virtual Serial Adapter
vtscsi0 Available Virtual Target Device - Logical Volume
4. Affichez la connexion logique entre les nouvelles unités en exécutant la commande lsmap. Par
exemple, la commande lsmap -vadapter vhost3 renvoie un résultat similaire au suivant :
SVSA Empl.Phys Client IDPartition
------------------------------------------------------vhost3
U9111.520.10DDEEC-V1-C20
0x00000000
VTD
Status
LUN
Backing device
Physloc
vtscsi0
Available
0x8100000000000000
lv_4G
L’emplacement physique est une association du numéro d’emplacement (20, dans le cas présent) et de
l’ID de partition logique. La mémoire sera disponible sur la partition logique client soit lors du
prochain démarrage de la mémoire, soit lors de la prochaine analyse ou de la prochaine configuration
de la carte client SCSI virtuelle appropriée.
Si vous devez par la suite supprimer l’unité virtuelle cible, utilisez la commande rmvdev.
84
Guide d’utilisation de PowerVM Editions
Création d’une unité cible virtuelle sur le serveur d’E-S virtuel avec mappage sur un fichier ou un
volume logique :
Vous pouvez créer une unité cible virtuelle sur le serveur d’E-S virtuel qui mappe la carte SCSI virtuelle
sur un fichier ou un volume logique basé sur un pool de stockage.
Vous pouvez répéter cette procédure pour fournir de l’espace de stockage sur disque virtuel
supplémentaire à partir de n’importe quelle partition logique client.
Avant de commencer, vérifiez que les conditions suivantes sont remplies :
v Vous devez disposer de la version 1.5 (ou d’une version supérieure) du serveur d’E-S virtuel.
v Un fichier minimum doit être défini dans un pool de stockage de fichiers ou un volume logique
minimum doit être défini dans un pool de stockage de volumes logiques sur le serveur d’E-S virtuel.
Pour plus d’informations, voir «Stockage virtuel», à la page 23 et «Pools de stockage», à la page 22.
v Les cartes virtuelles du serveur d’E-S virtuel et des partitions logiques client doivent avoir été créées.
Elles sont généralement créées en même temps que le profil de partition logique. Pour plus
d’informations sur la création de la partition logique, voir serveur d’E-S virtuel.
Pour créer une unité cible virtuelle qui mappe une carte serveur SCSI virtuelle sur un fichier ou un
volume logique, procédez comme suit :
1. Pour vous assurer que la carte SCSI virtuelle est disponible, utilisez la commande lsdev. Par exemple,
la commande lsdev -virtual renvoie un résultat similaire au suivant :
name
ent3
vhost0
vhost1
vsa0
vtscsi0
vtscsi1
vtscsi2
status
description
Available Virtual I/O Ethernet Adapter (l-lan)
Available Virtual SCSI Server Adapter
Available Virtual SCSI Server Adapter
Available LPAR Virtual Serial Adapter
Available Virtual Target Device - Logical Volume
Available Virtual Target Device - File-backed Disk
Available Virtual Target Device - File-backed Disk
2. Pour créer une unité cible virtuelle qui mappe sur la carte serveur SCSI virtuelle, exécutez la
commande mkbdsp :
mkbdsp -sp StoragePool -bd BackingDevice -vadapter VirtualSCSIServerAdapter -tn TargetDeviceName
Où :
v StoragePool est le nom du pool de stockage contenant le fichier ou le volume logique sur lequel
vous envisagez de mapper la carte serveur SCSI virtuelle. Par exemple, fbPool.
v BackingDevice est le nom du fichier ou du volume logique sur lequel vous envisagez de mapper la
carte serveur SCSI virtuelle. Par exemple, devFile.
v VirtualSCSIServerAdapter est le nom de la carte serveur SCSI virtuelle. Par exemple, vhost4.
v TargetDeviceName est le nom de l’unité cible. Par exemple, fbvtd1.
La mémoire de stockage est mise à disposition de la partition logique client lors du prochain
démarrage de cette partition ou lors de la prochaine analyse (sur une partition logique Linux) ou de
la prochaine configuration (sur une partition logique AIX).
3. Affichez l’unité cible virtuelle que vous venez de créer en exécutant la commande lsdev. Par exemple,
la commande lsdev -virtual renvoie un résultat similaire au suivant :
name
vhost4
vsa0
fbvtd1
status
description
Available Virtual SCSI Server Adapter
Available LPAR Virtual Serial Adapter
Available Virtual Target Device - File-backed Disk
4. Affichez la connexion logique entre les nouvelles unités en exécutant la commande lsmap. Par
exemple, la commande lsmap -vadapter vhost4 renvoie un résultat similaire au suivant :
Chapitre 3. Serveur d’E-S virtuel
85
SVSA Empl.Phys Client IDPartition
------------------------------------------------------vhost4
U9117.570.10C8BCE-V6-C2
0x00000000
VTD
Status
LUN
Backing device
Physloc
fbvtd1
Available
0x8100000000000000
/var/vio/storagepools/fbPool/devFile
L’emplacement physique est une combinaison du numéro d’emplacement (2, dans le cas présent) et
de l’ID de partition logique. L’unité virtuelle peut alors être connectée à partir de la partition logique
client.
Si vous devez par la suite supprimer l’unité virtuelle cible, utilisez la commande rmbdsp.
Création d’une unité cible virtuelle sur le serveur d’E-S virtuel avec mappage sur une unité optique
virtuelle associée à un fichier :
Vous pouvez créer une unité cible virtuelle sur le serveur d’E-S virtuel qui mappe la carte SCSI virtuelle
sur une unité optique virtuelle associée à un fichier.
Vous pouvez répéter cette procédure pour fournir de l’espace de stockage sur disque virtuel
supplémentaire à partir de n’importe quelle partition logique client.
Avant de commencer, exécutez les étapes suivantes :
1. Vérifiez que vous disposez de la version 1.5 (ou d’une version supérieure) du serveur d’E-S virtuel.
2. Vérifiez que les cartes virtuelles du serveur d’E-S virtuel et des partitions client ont été créées. Elles
sont généralement créées en même temps que le profil de partition logique. Pour plus d’informations
sur la création de partitions logiques, voir «Installation du serveur d’E-S virtuel et des partitions
logiques client», à la page 65.
Pour créer une unité cible virtuelle qui mappe une carte serveur SCSI virtuelle sur une unité optique
virtuelle associée à un fichier, procédez comme suit :
1. Pour vous assurer que la carte SCSI virtuelle est disponible, utilisez la commande lsdev. Par exemple,
la commande lsdev -virtual renvoie un résultat similaire au suivant :
name
ent3
vhost0
vhost1
vsa0
vtscsi0
vtscsi1
vtscsi2
status
description
Available Virtual I/O Ethernet Adapter (l-lan)
Available Virtual SCSI Server Adapter
Available Virtual SCSI Server Adapter
Available LPAR Virtual Serial Adapter
Available Virtual Target Device - Logical Volume
Available Virtual Target Device - File-backed Disk
Available Virtual Target Device - File-backed Disk
2. Pour créer une unité cible virtuelle qui mappe la carte serveur SCSI virtuelle sur une unité optique
virtuelle associée à un fichier, exécutez la commande mkvdev:
mkvdev -fbo -vadapter VirtualSCSIServerAdapter
où VirtualSCSIServerAdapter est le nom de la carte serveur SCSI virtuelle. Par exemple, vhost1.
Remarque : Aucune unité de sauvegarde n’est spécifiée lors de la création d’unités cibles virtuelles
pour des unités optiques virtuelles associées à des fichiers, car cette unité ne contient en principe
aucun support. Pour plus d’informations sur le chargement de supports dans une unité optique
associée à un fichier, voir la commande loadopt.
L’unité optique est mise à disposition de la partition logique client lors du prochain démarrage de
cette partition ou lors de la prochaine analyse (sur une partition logique Linux) ou de la prochaine
configuration (sur une partition logique AIX).
86
Guide d’utilisation de PowerVM Editions
3. Affichez l’unité cible virtuelle que vous venez de créer en exécutant la commande lsdev. Par exemple,
la commande lsdev -virtual renvoie un résultat similaire au suivant :
name
vhost4
vsa0
vtopt0
status
description
Available Virtual SCSI Server Adapter
Available LPAR Virtual Serial Adapter
Available Virtual Target Device - File-backed Optical
4. Affichez la connexion logique entre les nouvelles unités en exécutant la commande lsmap. Par
exemple, la commande lsmap -vadapter vhost1 renvoie un résultat similaire au suivant :
SVSA Empl.Phys Client IDPartition
---------------------------------------------------vhost1
U9117.570.10C8BCE-V6-C2 0x00000000
VTD
LUN
Backing device
vtopt0
0x8200000000000000
Physloc
L’emplacement physique est une combinaison du numéro d’emplacement (2, dans le cas présent) et
de l’ID de partition logique. L’unité virtuelle peut alors être connectée à partir de la partition logique
client.
Vous pouvez utiliser la commande loadopt pour charger un support optique virtuel associé à un fichier
dans l’unité optique virtuelle associée à un fichier.
Si vous devez par la suite supprimer l’unité virtuelle cible, utilisez la commande rmvdev.
Création de pools de stockage de volumes logiques sur le serveur d’E-S virtuel
Vous pouvez créer un pool de stockage de volumes logiques sur le serveur d’E-S virtuel à l’aide des
commandes mksp et mkbdsp.
Avant de commencer, assurez-vous que vous disposez de la version 1.5 (ou d’une version supérieure) du
serveur d’E-S virtuel.
Les pools de stockage de volumes logiques sont des groupes de volumes constitués d’un ou plusieurs
volumes physiques. La taille et le type des volumes physiques composant un pool de stockage de
volumes logiques peuvent varier.
Pour créer un pool de stockage de volumes logiques, procédez comme suit :
1. Créez un pool de stockage de volumes logiques en exécutant la commande mksp :
mksp -f dev_clients hdisk2 hdisk4
Dans cet exemple, dev_clients est le nom du pool de stockage, et celui-ci contient hdisk2 et hdisk4.
2. Définissez un volume logique qui sera visible en tant que disque sur la partition logique client. La
taille de ce volume logique définira la taille de disques qui sera disponible sur la partition logique
client. Utilisez la commande mkbdsp pour créer un volume logique de 11 Go appelé dev_dbsrv :
mkbdsp -sp dev_clients 11G -bd dev_dbsrv
Si vous souhaitez créer également une unité cible virtuelle qui mappe la carte serveur SCSI virtuelle
sur le volume logique, ajoutez -vadapter vhostx à la fin de la commande. Exemple :
mkbdsp -sp dev_clients 11G -bd dev_dbsrv -vadapter vhost4
Création de pools de stockage de fichiers sur le serveur d’E-S virtuel
Vous pouvez créer un pool de stockage de fichiers sur le serveur d’E-S virtuel à l’aide des commandes
mksp et mkbdsp.
Avant de commencer, assurez-vous que vous disposez de la version 1.5 (ou d’une version supérieure) du
serveur d’E-S virtuel.
Chapitre 3. Serveur d’E-S virtuel
87
Les pools de stockage de fichiers sont créés dans un pool de stockage de volumes logiques parent et
contiennent un volume logique incluant un système de fichiers et des fichiers.
Pour créer un pool de stockage de fichiers, procédez comme suit :
1. Créez un pool de stockage de fichiers en exécutant la commande mksp :
mksp -fb dev_fbclt -sp dev_clients -size 7g
Dans cet exemple, le nom du pool de stockage de fichiers est dev_fbclt et le nom du stockage parent
est dev_clients.
2. Définissez un fichier qui sera visible en tant que disque sur la partition logique client. La taille de ce
fichier définira la taille des disques qui seront disponibles sur la partition logique client. Utilisez
comme suit la commande mkbdsp pour créer un fichier de 3 Go appelé dev_dbsrv :
mkbdsp -sp dev_fbclt 3G -bd dev_dbsrv
Si vous souhaitez créer également une unité cible virtuelle qui mappe la carte serveur SCSI virtuelle
sur le fichier, ajoutez -vadapter vhostx à la fin de la commande. Exemple :
mkbdsp -sp dev_fbclt 3G -bd dev_dbsrv -vadapter vhost4
Création du référentiel de supports virtuels sur le serveur d’E-S virtuel
Vous pouvez créer le référentiel de supports virtuels sur le serveur d’E-S virtuel à l’aide de la commande
mkrep.
Avant de commencer, assurez-vous que vous disposez de la version 1.5 (ou d’une version supérieure) du
serveur d’E-S virtuel.
Le référentiel de supports virtuels constitue un conteneur unique pour stocker et gérer les fichiers
multimédias optiques virtuels sauvegardés sur fichier. Il est possible de charger les supports stockés dans
le référentiel dans des unités optiques virtuelles sauvegardées sur fichier afin de les exporter vers des
partitions client.
Vous ne pouvez créer qu’un seul référentiel dans un serveur d’E-S virtuel.
Pour créer le référentiel de supports virtuels, exécutez la commande mkrep :
mkrep -sp prod_store -size 6g
Dans cet exemple, le nom du pool de stockage parent est prod_store.
Création de volumes logiques et de groupes de volumes sur le serveur d’E-S
virtuel
Vous pouvez créer des volumes logiques et des groupes de volumes sur le serveur d’E-S virtuel à l’aide
des commandes mkvg et mklv.
Pour créer un volume logique, utilisez la commande mklv. Pour créer ce volume logique sur un disque
distinct, vous devez préalablement créer un groupe de volumes et allouer un ou plusieurs disques via la
commande mkvg.
1. Créez un groupe de volumes et allouez un disque à ce groupe à l’aide de la commande mkvg. Dans
l’exemple suivant, le nom du groupe de volumes est rootvg_clients :
mkvg -f -vg rootvg_clients hdisk2
2. Définissez un volume logique qui sera visible en tant que disque sur la partition logique client. La
taille de ce volume logique définira la taille de disques qui sera disponible sur la partition logique
client. Utilisez comme suit la commande mklv pour créer un volume logique de 2 Go :
mklv -lv rootvg_dbsrv rootvg_clients 2G
88
Guide d’utilisation de PowerVM Editions
Configuration du serveur d’E-S virtuel pour la prise en charge des fonctions de
verrouillage SCSI-2
Connaître les conditions préalables à l’installation de l’interface SCSI virtuelle afin de prendre en charge
les applications qui utilisent les fonctions de verrouillage et de libération SCSI.
Les versions du serveur d’E-S virtuel 1.3 et suivantes permettent une prise en charge des applications qui
sont activées pour utiliser les fonctions de verrouillage SCSI-2 contrôlées par la partition logique client.
En règle générale, les fonctions de verrouillage et libération SCSI sont utilisées dans les environnements
groupés dans lesquels les conflits relatifs aux ressources de disque SCSI peuvent nécessiter un contrôle
plus approfondi. Pour s’assurer de la prise en charge de ces environnements par le serveur d’E-S virtuel,
configurez ce dernier pour qu’il prenne en charge les fonctions de verrouillage et libération SCSI-2. Si les
applications que vous utilisez fournissent des informations sur la règle à suivre pour utiliser les fonctions
de verrouillage SCSI-2 sur la partition logique client, exécutez les procédures ci-après pour définir la règle
de verrouillage.
Exécutez les tâches suivantes pour configurer la prise en charge sur le serveur d’E-S virtuel des
environnements de verrouillage SCSI-2 :
1. Configurez l’attribut reserve_policy du serveur d’E-S virtuel sur single_path, en exécutant la
commande suivante :
chdev -dev1 hdiskN -attr reserve_policy=single_path
Remarque : Effectuez cette opération lorsque l’unité n’est pas en cours d’utilisation. Si vous exécutez
cette commande alors que l’unité est ouverte ou en cours d’utilisation, vous devez utiliser l’option
-perm avec cette commande. Si vous utilisez l’option -perm, les modifications ne prendront effet que
lorsque l’unité sera déconfigurée puis reconfigurée.
2. Configurez la fonction client_reserve sur le serveur d’E-S virtuel.
v Si vous créez une unité cible virtuelle, utilisez la commande suivante :
mkvdev -vdev hdiskN -vadapter vhostN -attr client_reserve=yes
où hdiskN correspond au nom de l’unité cible virtuelle et vhostN au nom de la carte du serveur
SCSI.
v Si l’unité cible virtuelle a déjà été créée, utilisez la commande suivante :
chdev -dev vtscsiN -attr client_reserve=yes
où vtscsiN désigne le nom de l’unité virtuelle.
3. Sur le client virtuel, procédez comme suit pour configurer la prise en charge des fonctions de
verrouillage et libération SCSI pour le disque virtuel sauvegardé par le disque physique que vous
avez configuré à l’étape 1 :
a. Affectez à la règle de libération la valeur single_path sur le client virtuel, à l’aide de la commande
suivante :
chdev -a reserve_policy=single_path -1 hdiskN
où hdiskN désigne le nom du disque virtuel
Remarque : Effectuez cette opération lorsque l’unité n’est pas en cours d’utilisation. Si vous
exécutez cette commande alors que l’unité est ouverte ou en cours d’utilisation, utilisez l’option -p.
Dans ce cas, les modifications ne prendront effet que lorsque l’unité sera déconfigurée puis
reconfigurée.
b. Définissez l’attribut hcheck_cmd de sorte que le code MPIO utilise l’option inquiry. Si l’attribut
hcheck_cmd a la valeur test unit ready et que l’unité de sauvegarde est verrouillée, le paramètre
test unit ready échouera et consignera un message d’erreur sur le client.
chdev -a hcheck_cmd=inquiry -1 hdiskN
Chapitre 3. Serveur d’E-S virtuel
89
où hdiskN désigne le nom du disque virtuel.
Identification des disques exportables
Pour exporter un volume physique en tant qu’unité virtuelle, le volume physique doit comporter un
attribut de volume IEEE, un identificateur unique (UDID) ou un identificateur physique (PVID).
Pour identifier les disques exportables, procédez comme suit :
1. Déterminez si une unité est associée à un identificateur d’attribut de volume IEEE en exécutant la
commande suivante sur la ligne de commande du serveur d’E-S virtuel :
lsdev -dev hdiskX -attr
Une valeur est indiquée dans le champ ieee_volname pour les disques ayant un identificateur
d’attribut de volume IEEE. Des informations comparables à celles qui suivent s’affichent :
...
cache_method
False
ieee_volname
False
lun_id
False
...
fast_write
Write Caching method
600A0B800012DD0D00000AB441ED6AC IEEE Unique volume name
0x001a000000000000
Logical Unit Number
Si le champ ieee_volname n’apparaît pas, l’unité na pas d’identificateur d’attribut de volume IEEE.
2. Si l’unité n’a pas d’identificateur d’attribut de volume IEEE, déterminez si elle a un UDID en
procédant comme suit :
a. Entrez oem_setup_env.
b. Saisissez odmget -qattribute=id_unique CuAt. Les disques comportant un UDID sont alors
répertoriés. Des informations comparables à celles qui suivent s’affichent :
CuAt:
name = "hdisk1"
attribute = "unique_id"
value = "2708ECVBZ1SC10IC35L146UCDY10-003IBMscsi"
type = "R"
generic = ""
rep = "nl"
nls_index = 79
CuAt:
name = "hdisk2"
attribute = "unique_id"
value = "210800038FB50AST373453LC03IBMscsi"
type = "R"
generic = ""
rep = "nl"
nls_index = 79
Les unités de cette liste qui sont accessibles à partir d’autres partitions du serveur d’E-S virtuel
peuvent être utilisées dans les configurations SCSI MPIO virtuelles.
c. Entrez exit.
3. Si l’unité n’a ni identificateur d’attribut de volume IEEE ni UDID, déterminez si elle a un PVID en
procédant comme suit :
lspv
Les disques et leurs PVID respectifs sont indiqués. Des informations comparables à celles qui suivent
s’affichent :
90
Guide d’utilisation de PowerVM Editions
NAME
hdisk0
hdisk1
hdisk2
hdisk3
hdisk4
PVID
00c5e10c1608fd80
00c5e10cf7eb2195
00c5e10c44df5673
00c5e10cf3ba6a9a
none
VG
rootvg
rootvg
None
None
None
STATUS
active
active
4. Si l’unité n’a ni identificateur d’attribut de volume IEEE ni UDID ni PVID, effectuez l’une des tâches
suivantes pour lui affecter un identificateur :
a. Mettez à niveau votre logiciel fournisseur et répétez l’intégralité de la procédure d’identification
de disques exportables, depuis le début. Les versions les plus récentes de certains logiciels
fournisseur incluent l’identification des unités à l’aide d’un UDID. Avant d’effectuer une mise à
niveau, veillez à préserver les unités SCSI virtuelles que vous avez créées avec des versions du
logiciel qui ne prennent pas en charge l’identification d’unités à l’aide d’un UDID. Pour plus
d’informations, voir la documentation fournie par le fournisseur du logiciel.
b. Si le logiciel fournisseur ne fournit pas d’identificateur d’attribut de volume UDID ou IEEE,
attribuez un PVID au volume physique en exécutant la commande suivante :
chdev -dev hdiskX -attr pv=yes
Configuration d’unités Ethernet virtuelles sur le serveur d’E-S virtuel
Vous pouvez configurer des unités Ethernet virtuelles en déployant une planification système, créer et
configurer une carte de réseau Ethernet partagée et configurer une unité Agrégation de liaisons device.
Création d’une carte de réseau Ethernet partagée via la console HMC version 7
Vous pouvez créer une carte de réseau Ethernet partagée sur le serveur d’E-S virtuel pour permettre aux
partitions logiques client d’accéder au réseau externe sans disposer d’une carte Ethernet physique.
Si vous envisagez d’utiliser une carte de réseau Ethernet partagée avec une carte de réseau Ethernet hôte
(ou carte Ethernet virtuelle intégrée), vérifiez que la carte Ethernet hôte logique (LHEA) du serveur d’E-S
virtuel est en mode espion. Pour plus d’informations, voir «Configuration d’une carte Ethernet hôte
logique (LHEA) en mode espion», à la page 92.
Pour créer une carte de réseau Ethernet partagée sur le serveur d’E-S virtuel via la console HMC
(Hardware Management) (HMC), version 7 ou ultérieure, procédez comme suit :
1. Dans la zone de navigation, développez Gestion de systèmes → Serveurs et sélectionnez le serveur
sur lequel se trouve la partition logique du serveur d’E-S virtuel.
2. Dans la zone de contenu, sélectionnez la partition logique du serveur d’E-S virtuel.
3. Cliquez sur Tâches et sélectionnez Configuration → Gestion de profils. La page Gestion de profils
s’affiche.
4. Sélectionnez le profil dans lequel vous voulez créer la carte de réseau Ethernet partagée et cliquez
sur Actions → Edition. La page Propriétés du profil de partition logique s’affiche.
5. Cliquez sur l’onglet Cartes virtuelles.
6. Cliquez sur Actions → Création → Carte Ethernet.
7. Sélectionnez Carte compatible IEEE 802.1Q.
8. Si vous utilisez plusieurs réseaux locaux virtuels (VLAN), ajoutez tout ID VLAN supplémentaire
pour les partitions logiques client devant communiquer avec le réseau externe à l’aide de cette carte
virtuelle.
9. Sélectionnez Accès au réseau externe pour utiliser cette carte comme passerelle entre les réseaux
locaux virtuels (VLAN) et un réseau externe. Cette carte Ethernet est configurée dans le cadre de la
carte de réseau Ethernet partagée.
10. Si vous n’utilisez pas la fonction de reprise par transfert de la carte de réseau Ethernet partagée,
vous pouvez utiliser la priorité de liaison par défaut. Si vous utilisez la reprise par transfert de la
carte de réseau Ethernet partagée, attribuez à la priorité de liaison de la carte Ethernet partagée
principale un nombre inférieur à celui de la carte de réseau Ethernet partagée de secours.
Chapitre 3. Serveur d’E-S virtuel
91
11. Lorsque vous avez terminé, cliquez sur OK.
12. Affectez ou créez l’une des cartes réelles suivantes :
v Affectez une carte physique Ethernet au serveur d’E-S virtuel.
v Si vous envisagez d’agréger plusieurs cartes physiques Ethernet dans une unité d’Agrégation de
liaisons ou EtherChannel, affectez plusieurs cartes physiques Ethernet au serveur d’E-S virtuel.
v Si vous envisagez d’utiliser la carte de réseau Ethernet partagée avec une carte de réseau Ethernet
hôte, créez une carte Ethernet hôte logique (LHEA) pour la partition logique du serveur d’E-S
virtuel.
13. Cliquez sur OK pour quitter la page Propriétés de profil de partition logique.
14. Cliquez sur Fermer pour quitter la page Profils gérés.
15. Effectuez à nouveau cette procédure pour chaque carte de réseau Ethernet partagée requise.
Une fois cette opération terminée, configurez la carte de réseau Ethernet partagée via l’interface de ligne
de commande du serveur d’E-S virtuel. Pour plus d’informations, voir «Configuration d’une carte de
réseau Ethernet partagée», à la page 93.
Configuration d’une carte Ethernet hôte logique (LHEA) en mode espion :
Pour utiliser une carte de réseau Ethernet partagée avec une carte de réseau Ethernet hôte (ou carte
Ethernet virtuelle intégrée), vous devez configurer la carte Ethernet hôte logique (LHEA) en mode espion.
Avant de commencer, identifiez sur la console HMC (Hardware Management) (HMC) le port physique de
la carte de réseau Ethernet hôte qui est associé au port Ethernet hôte logique. Recherchez cette
information pour le port Ethernet hôte logique qui constitue la carte réelle de la carte de réseau Ethernet
partagée sur le serveur d’E-S virtuel. Vous pouvez trouver cette information dans les propriétés de la
partition du serveur d’E-S virtuel et les propriétés du système géré du serveur sur lequel se trouve le
serveur d’E-S virtuel.
Pour configurer le port Ethernet hôte logique (la carte réelle de la carte de réseau Ethernet partagée) en
mode espion, procédez comme suit sur la console HMC :
1. Dans la zone de navigation, développez Gestion de systèmes et cliquez sur Serveurs.
2. Dans la zone de contenu, sélectionnez le serveur sur lequel se trouve la partition logique du serveur
d’E-S virtuel.
3. Cliquez sur Tâches et sélectionnez Matériel (information) → Cartes → Ethernet hôte. La page des
cartes Ethernet hôte (HEA) s’affiche.
4. Sélectionnez le code d’emplacement physique de la carte de réseau Ethernet hôte.
5. Sélectionnez le port physique associé au port Ethernet hôte logique sur la partition logique du serveur
d’E-S virtuel, puis cliquez sur Configuration. La page de Configuration du port physique HEA
s’affiche.
6. Sélectionnez VIOS dans la zone Partition logique espionne.
7. Cliquez sur OK deux fois pour revenir à la zone de contenu.
Création d’une carte de réseau Ethernet partagée via la console HMC version 6
Vous pouvez créer une carte de réseau Ethernet partagée sur le serveur d’E-S virtuel pour permettre aux
partitions logiques client d’accéder au réseau externe sans disposer d’une carte Ethernet physique.
Pour créer une carte de réseau Ethernet partagée sur le serveur d’E-S virtuel à partir de la console HMC
(Hardware Management) (HMC) version 6 ou supérieure, procédez comme suit :
1. Sur la console HMC, cliquez avec le bouton droit de la souris sur le profil du serveur d’E-S virtuel et
sélectionnez Propriétés.
2. Dans l’onglet E/S virtuelles, créez une carte Ethernet virtuelle en sélectionnant Ethernet dans la zone
Création de cartes.
92
Guide d’utilisation de PowerVM Editions
3. Dans l’onglet des propriétés de la carte Ethernet virtuelle, choisissez un numéro d’emplacement pour
la carte virtuelle et un identificateur de volume physique (PVID) (ce PVID sera l’ID par défaut).
Sélectionnez Carte de ligne pour utiliser cette carte en tant que passerelle entre les réseaux locaux
virtuels et un réseau externe. Cette carte Ethernet est configurée dans le cadre de la carte de réseau
Ethernet partagée.
4. Cochez la case Carte compatible IEEE 802.1Q.
5. Si vous utilisez plusieurs réseaux locaux virtuels (VLAN), ajoutez tout ID VLAN supplémentaire pour
les partitions logiques client devant communiquer avec le réseau externe à l’aide de cette carte
virtuelle.
6. Effectuez à nouveau cette procédure pour chaque carte de réseau Ethernet partagée requise.
Une fois cette opération terminée, configurez la carte de réseau Ethernet partagée via l’interface de ligne
de commande du serveur d’E-S virtuel. Pour plus d’informations, voir «Configuration d’une carte de
réseau Ethernet partagée».
Configuration d’une carte de réseau Ethernet partagée
Instructions relatives à la configuration d’une carte de réseau Ethernet partagée.
Pour configurer une carte de réseau Ethernet partagée, vous devez d’abord créer la carte à l’aide de la
console HMC (Hardware Management) (HMC). Pour plus d’informations, consultez les procédures
suivantes :
v «Création d’une carte de réseau Ethernet partagée via la console HMC version 7», à la page 91
v «Création d’une carte de réseau Ethernet partagée via la console HMC version 6», à la page 92
Pour configurer une carte de réseau Ethernet partagée à l’aide du serveur d’E-S virtuel, procédez comme
suit :
1. Vérifiez que la carte de ligne Ethernet virtuelle est disponible en entrant la commande suivante :
lsdev -virtual
2. Identifiez la carte Ethernet physique à utiliser pour créer la carte de réseau Ethernet partagée en
exécutant la commande suivante :
lsdev -type adapter
Remarques :
v Vérifiez que le protocole TCP/IP n’est pas configuré sur l’interface pour la carte Ethernet physique.
S’il est configuré, la commande mkvdev échouera à l’étape suivante.
v Une unité d’Agrégation de liaisons, ou EtherChannel, peut également servir de carte de réseau
Ethernet partagée.
v Si vous envisagez d’utiliser la carte de réseau Ethernet hôte (ou carte Ethernet virtuelle intégrée)
avec la carte de réseau Ethernet partagée, veillez à utiliser la carte LHEA pour créer la carte de
réseau Ethernet partagée.
3. Configurez la carte de réseau Ethernet partagée en exécutant la commande suivante :
mkvdev -sea unité_cible -vadapter cartes_ethernet_virtuelles \
-default CarteEthernetVirtuelleDéfaut -defaultid PVIDCarteEthernetPartagéeDéfaut
Où :
target_device
Carte physique à utiliser en tant que partie intégrante de l’unité de carte de réseau Ethernet
partagée.
virtual_ethernet_adapters
Cartes Ethernet virtuelles qui utiliseront la carte de réseau Ethernet partagée.
Chapitre 3. Serveur d’E-S virtuel
93
DefaultVirtualEthernetAdapter
Carte Ethernet virtuelle par défaut utilisée pour traiter les paquets non marqués. Si vous ne
disposez que d’une seule carte Ethernet virtuelle pour cette partition logique, utilisez-la
comme carte par défaut.
SEADefaultPVID
PVID associé à la carte Ethernet virtuelle par défaut.
Par exemple, pour créer une carte de réseau Ethernet partagée ent3 en utilisant la carte Ethernet
physique ent0 (ou Agrégation de liaisons) et une seule carte Ethernet virtuelle, ent2, (définie avec
PVID = 1), entrez la commande suivante :
mkvdev -sea ent0 -vadapter ent2 -default ent2 -defaultid 1
4. Vérifiez la création de la carte de réseau Ethernet partagée à l’aide de la commande suivante :
lsdev -virtual
5. Prévoyez-vous d’accéder au serveur d’E-S virtuel à partir du réseau avec l’unité physique permettant
de créer la carte de réseau Ethernet partagée ?
v Oui : Passez à l’étape 6.
v Non : La procédure est terminée et vous n’avez pas à effectuer les étapes restantes.
6. Envisagez-vous de définir des adresses IP sur des VLAN autres que celui qui est spécifié par le PVID
de la carte de réseau Ethernet partagée ?
v Oui : Passez à l’étape 7 pour créer des pseudo-unités VLAN.
v Non : Passez à l’étape 8 pour configurer une connexion TCP/IP.
7. Pour configurer des pseudo-unités VLAN, procédez comme suit :
a. Créez une pseudo-unité VLAN sur la carte de réseau Ethernet partagée en exécutant la commande
suivante :
mkvdev
-vlan CarteCible -tagid IDBalise
Où :
v CarteCible est la carte de réseau Ethernet partagée.
v IDBalise est l’ID du réseau local virtuel (VLAN) que vous avez défini lors de la création de la
carte Ethernet virtuelle associée à la carte de réseau Ethernet partagée.
Par exemple, pour créer une pseudo-unité VLAN qui utilise la carte de réseau Ethernet partagée
ent3 que vous venez de créer (avec ID du réseau VLAN = 1), entrez la commande suivante :
mkvdev -vlan ent3 -tagid 1
b. Vérifiez que la pseudo-unité VLAN a été créée en entrant la commande suivante :
lsdev -virtual
c. Répétez cette procédure pour toute éventuelle pseudo-unité VLAN requise.
8. Exécutez la commande suivante pour configurer la première connexion TCP/IP. La première
connexion doit figurer sur le même VLAN et le même sous-réseau logique que la passerelle par
défaut.
mktcpip -hostname NomHôte -inetaddr Adresse -interface Interface -netmask \
MasqueSousRéseau -gateway Passerelle -nsrvaddr AdresseServeurNoms -nsrvdomain Domaine
Où :
v NomHôte est le nom d’hôte du serveur d’E-S virtuel
v Adresse est l’adresse IP que vous souhaitez utiliser pour la connexion TCP/IP
v Interface est l’interface associée à l’unité carte de réseau Ethernet partagée ou à une pseudo-unité
VLAN. Par exemple, si l’unité de carte de réseau Ethernet partagée est ent3, l’interface associée est
en3.
v MasqueSousRéseau est l’adresse de masque de sous-réseau définie pour votre sous-réseau.
94
Guide d’utilisation de PowerVM Editions
v Passerelle est l’adresse de passerelle de votre sous-réseau.
v AdresseServeurNoms est l’adresse de votre serveur de noms de domaine.
v Domaine est le nom de votre domaine.
Si vous n’avez pas d’autre VLAN, la procédure est terminée et vous n’avez pas à effectuer les étapes
restantes.
9. Exécutez la commande suivante pour configurer d’autres connexions TCP/IP :
chdev -dev interface -perm -attr
netaddr=adresseIP -attr
netmask=netmask -attr state=up
Lorsque vous utilisez cette commande, indiquez l’interface (enX) associée à l’unité de carte de réseau
Ethernet partagée ou à la pseudo-unité VLAN.
La carte de réseau Ethernet partagée est maintenant configurée. Lorsque vous aurez configuré les
connexions TCP/IP pour les cartes virtuelles des partitions logiques client à l’aide des systèmes
d’exploitation de ces dernières, ces partitions logiques pourront communiquer avec le réseau externe.
Concepts associés
«Reprise par transfert de carte de réseau Ethernet partagée», à la page 62
La fonction de reprise par transfert de carte de réseau Ethernet partagée assure la redondance, car elle
permet de configurer une carte de réseau Ethernet partagée de secours sur une autre partition logique
du serveur d’E-S virtuel, laquelle peut être utilisée en cas de défaillance de la carte de réseau Ethernet
partagée principale. La connectivité réseau des partitions logiques client est maintenue, sans
interruption.
Configuration d’une unité d’Agrégation de liaisons ou EtherChannel
Configurez une unité d’Agrégation de liaisons, également appelée unité EtherChannel, à l’aide de la
commande mkvdev. Une unité d’Agrégation de liaisons peut être utilisée comme carte Ethernet physique
dans la configuration d’une carte de réseau Ethernet partagée.
Configurez une unité d’Agrégation de liaisons en entrant la commande suivante :
mkvdev -lnagg CarteCible... [-attr Attribut=Valeur ...]
Par exemple, pour créer l’unité d’Agrégation de liaisons ent5 avec les cartes Ethernet physiques ent3,
ent4 et la carte de secours ent2, entrez :
mkvdev -lnagg ent3,ent4 -attr backup_adapter=ent2
Après la configuration de l’unité d’Agrégation de liaisons, vous pouvez lui ajouter des cartes, en retirer
ou encore modifier ses attributs à l’aide de la commande cfglnagg.
Configuration des agents et des clients Tivoli sur le serveur d’E-S
virtuel
Vous pouvez configurer et démarrer l’agent Tivoli Monitoring,, Tivoli Usage and Accounting Manager, le
client Tivoli Storage Manager et les agents Tivoli TotalStorage Productivity Center.
Configuration de l’agent Tivoli Monitoring
Vous pouvez configurer et démarrer l’agent Tivoli Monitoring sur le serveur d’E-S virtuel.
Tivoli Monitoring System Edition , permet de surveiller la santé et la disponibilité de plusieurs serveurs
(y compris le serveur d’E-S virtuel) à partir du portail Tivoli Enterprise. Tivoli Monitoring System Edition
regroupe les données du serveur d’E-S virtuel, notamment les données relatives aux volumes physiques,
aux volumes logiques, aux pools de stockage, aux mappages de mémoire, aux mappages de réseau, à la
mémoire réelle, aux ressources de processeur, à la taille des systèmes de fichiers montés, etc. A partir du
portail Tivoli Enterprise, vous pouvez afficher une représentation graphique des données, utiliser des
Chapitre 3. Serveur d’E-S virtuel
95
seuils prédéfinis afin de recevoir des alertes sur les mesures clés et résoudre les problèmes en fonction
des recommandations fournies par la fonction Expert Advice de l’agent Tivoli Monitoring.
Avant de commencer, effectuez les tâches suivantes :
v Vérifiez que le serveur d’E-S virtuel exécute le groupe de correctifs 8.1.0.
v Vérifiez que vous êtes administrateur central de la console HMC.
v Vérifiez que vous êtes administrateur principal du serveur d’E-S virtuel.
Pour configurer et démarrer l’agent de surveillance, procédez comme suit :
1. Répertoriez tous les agents de surveillance disponibles à l’aide de la commande lssvc. Par exemple :
$lssvc
ITM_base
2. En fonction de la sortie de la commande lssvc, choisissez l’agent de surveillance que vous voulez
configurer. Par exemple, ITM_base
3. Répertoriez tous les attributs associés à l’agent de surveillance à l’aide de la commande cfgsvc.
Exemple :
$cfgsvc –ls ITM_base
HOSTNAME
RESTART_ON_REBOOT
MANAGING_SYSTEM
4. Configurez l’agent de surveillance et ses attributs à l’aide de la commande cfgsvc :
cfgsvc ITM_agent_name -attr
Restart_On_Reboot=value hostname=name_or_address1
managing_system=name_or_address2
Où :
v ITM_agent_name est le nom de l’agent de surveillance. Par exemple, ITM_base.
v La variable value doit avoir la valeur TRUE ou FALSE comme suit :
– TRUE : ITM_agent_name redémarre chaque fois que le serveur d’E-S virtuel est redémarré
– FALSE : ITM_agent_name ne redémarre pas lorsque le serveur d’E-S virtuel est redémarré
v name_or_address1 désigne soit le nom d’hôte soit l’adresse IP du serveur Tivoli Enterprise
Monitoring Server (TEMS) auquel ITM_agent_name envoie des données.
v name_or_address2 désigne soit le nom d’hôte soit l’adresse IP de la console HMC (Hardware
Management) (HMC) reliée au système géré sur lequel se trouvent le serveur d’E-S virtuel et
l’agent de surveillance.
Exemple :
cfgsvc ITM_base –attr Restart_On_Reboot=TRUE hostname=tems_server managing_system=hmc_console
Dans cet exemple, l’agent de surveillance ITM_base est configuré pour envoyer les données à
tems_server, et pour redémarrer chaque fois que le serveur d’E-S virtuel redémarre.
5. Démarrez l’agent de surveillance à l’aide de la commande startsvc. Exemple :
startsvc ITM_base
6. Sur la console HMC, effectuez les opérations suivantes pour que l’agent de surveillance puisse
collecter des informations issues de la console HMC.
Remarque : Après la configuration d’une connexion shell sécurisée pour un agent de surveillance, il
n’est pas nécessaire de la configurer à nouveau pour les autres agents.
a. Déterminez le nom du système géré sur lequel résident le serveur d’E-S virtuel et l’agent de
surveillance.
b. Obtenez la clé publique du serveur d’E-S virtuel en exécutant la commande suivante :
viosvrcmd -m managed_system_name -p vios_name -c "cfgsvc -key ITM_agent_name"
96
Guide d’utilisation de PowerVM Editions
Où :
v managed_system_name est le nom du système géré sur lequel sont installés le serveur d’E-S
virtuel et l’agent de surveillance ou le client.
v vios_name est le nom de la partition logique du serveur d’E-S virtuel (incluant l’agent de
surveillance) tel que défini sur la console HMC.
v ITM_agent_name est le nom de l’agent de surveillance. Par exemple, ITM_base.
c. Mettez à jour le fichier authorized_key2 sur la console HMC en exécutant la commande
mkauthkeys :
mkauthkeys --add public_key
où public_key est la sortie de la commande viosvrcmd à l’étape 6b.
Exemple :
$ viosvrcmd -m commo126041 -p VIOS7 -c "cfgsvc ITM_base -key"
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAvjDZ
sS0guWzfzfp9BbweG0QMXv1tbDrtyWsgPbA2ExHA+xduWA51K0oFGarK2F
C7e7NjKW+UmgQbrh/KSyKKwozjp4xWGNGhLmfan85ZpFR7wy9UQG1bLgXZ
xYrY7yyQQQODjvwosWAfzkjpG3iW/xmWD5PKLBmob2QkKJbxjne+wqGwHT
RYDGIiyhCBIdfFaLZgkXTZ2diZ98rL8LIv3qb+TsM1B28AL4t+1OGGeW24
2lsB+8p4kamPJCYfKePHo67yP4NyKyPBFHY3TpTrca4/y1KEBT0Va3Pebr
5JEIUvWYs6/RW+bUQk1Sb6eYbcRJFHhN5l3F+ofd0vj39zwQ== root@vi
os7.vios.austin.ibm.com
$ mkauthkeys --add ’ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAvjDZ
sS0guWzfzfp9BbweG0QMXv1tbDrtyWsgPbA2ExHA+xduWA51K0oFGarK2F
C7e7NjKW+UmgQbrh/KSyKKwozjp4xWGNGhLmfan85ZpFR7wy9UQG1bLgXZ
xYrY7yyQQQODjvwosWAfzkjpG3iW/xmWD5PKLBmob2QkKJbxjne+wqGwHT
RYDGIiyhCBIdfFaLZgkXTZ2diZ98rL8LIv3qb+TsM1B28AL4t+1OGGeW24
2lsB+8p4kamPJCYfKePHo67yP4NyKyPBFHY3TpTrca4/y1KEBT0Va3Pebr
5JEIUvWYs6/RW+bUQk1Sb6eYbcRJFHhN5l3F+ofd0vj39zwQ== root@vi
os7.vios.austin.ibm.com’
Lorsque vous avez terminé, vous pouvez afficher les données recueillies par l’agent de surveillance à
partir du portail Tivoli Enterprise.
Information associée
Documentation Tivoli Monitoring 6.1
Tivoli Monitoring Virtual I/O Server Premium Agent User’s Guide
Configuration de l’agent Tivoli Usage and Accounting Manager
Vous pouvez configurer et démarrer l’agent Tivoli Usage and Accounting Manager sur le serveur d’E-S
virtuel.
Avec le serveur d’E-S virtuel 1.4, vous pouvez installer et configurer l’agent Tivoli Usage and Accounting
Manager sur le serveur d’E-S virtuel. Tivoli Usage and Accounting Manager permet de suivre, d’imputer
et de facturer les coûts informatiques via la collecte et l’analyse de données ainsi que l’édition de
rapports sur les ressources réelles utilisées par des entités telles que les centres de coûts, les services et les
utilisateurs. Tivoli Usage and Accounting Manager collecte les données issues de centres de données
multiniveaux qui utilisent Windows, AIX, serveur d’E-S virtuel, HP/UX Sun Solaris, Linux et VMware.
Avant de commencer, assurez-vous que le serveur d’E-S virtuel est installé. L’agent Tivoli Usage and
Accounting Manager est livré avec l’agent serveur d’E-S virtuel et installé en même temps que le serveur
d’E-S virtuel. Pour plus d’informations, voir «Installation du serveur d’E-S virtuel et des partitions
logiques client», à la page 65.
Pour configurer et démarrer l’agent Tivoli Usage and Accounting Manager, procédez comme suit :
1. Facultatif : Ajoutez les variables facultatives dans le fichier A_config.par pour améliorer la collecte de
données. Le fichier A_config.par se trouve sous /home/padmin/tivoli/ituam/A_config.par.
Chapitre 3. Serveur d’E-S virtuel
97
2. Répertoriez tous les agents Tivoli Usage and Accounting Manager disponibles à l’aide de la
commande lssvc. Par exemple :
$lssvc
ITUAM_base
3. Selon le résultat de la commande lssvc, choisissez l’agent Tivoli Usage and Accounting Manager que
vous voulez configurer. Par exemple, ITUAM_base
4. Répertoriez tous les attributs associés à l’agent Tivoli Usage and Accounting Manager à l’aide de la
commande cfgsvc. Exemple :
$cfgsvc –ls ITUAM_base
ACCT_DATA0
ACCT_DATA1
ISYSTEM
IPROCESS
5. Configurez l’agent Tivoli Usage and Accounting Manager et les attributs associés à l’aide de la
commande cfgsvc :
cfgsvc ITUAM_agent_name -attr ACCT_DATA0=value1 ACCT_DATA1=value2 ISYSTEM=value3 IPROCESS=value4
Où :
v ITUAM_agent_name est le nom de l’agent Tivoli Usage and Accounting Manager. Par exemple,
ITUAM_base.
v value1 est la taille (en Mo) du premier fichier de données contenant les informations statistiques
journalières.
v value2 est la taille (en Mo) du second fichier de données contenant les informations statistiques
journalières.
v value3 définit le moment (en minutes) où l’agent génère des enregistrements système par intervalles.
v value4 définit le moment (en minutes) où le système génère des enregistrements de processus
regroupés.
6. Démarrez l’agent Tivoli Usage and Accounting Manager à l’aide de la commande startsvc. Exemple :
startsvc ITUAM_base
Une fois lancé, l’agent Tivoli Usage and Accounting Manager commence à collecter les données et à
générer des fichiers journaux. Vous pouvez configurer le serveur Tivoli Usage and Accounting Manager
de façon à récupérer les fichiers journaux qui sont ensuite traités par le moteur de traitement Tivoli
Usage and Accounting Manager. Vous pouvez utiliser comme suit les données du moteur de traitement
Tivoli Usage and Accounting Manager :
v Vous pouvez générer des rapports, des feuilles de calcul et des graphiques personnalisés. Tivoli Usage
and Accounting Manager fournit un accès complet aux données et des fonctions d’édition de rapports
grâce à l’intégration de Microsoft SQL Server Reporting Services ou Crystal Reports dans un système
de gestion de base de données.
v Vous pouvez visualiser des informations précises et détaillées sur l’utilisation et les coûts.
v Vous pouvez attribuer, répartir ou facturer les coûts des technologies de l’information en fonction des
utilisateurs, des centres de coûts et des organisations de façon équitable, claire et reproductible.
Pour plus d’informations, reportez-vous au Tivoli Usage and Accounting Manager Information Center.
Configuration du client Tivoli Storage Manager
Vous pouvez configurer le client Tivoli Storage Manager sur le serveur d’E-S virtuel.
Avec la version 1.4 du serveur d’E-S virtuel, vous pouvez installer et configurer le client Tivoli Storage
Manager sur le serveur d’E-S virtuel. Tivoli Storage Manager vous permet de protéger vos données en
cas de défaillance ou d’erreur à l’aide de la fonction de sauvegarde et de reprise après incident qui stocke
les données dans une hiérarchie d’archivage hors ligne. Tivoli Storage Manager protège les ordinateurs
fonctionnant dans divers environnements d’exploitation, notamment le serveur d’E-S virtuel, et sur
98
Guide d’utilisation de PowerVM Editions
différents types de matériel. Si vous configurez le client Tivoli Storage Manager sur le serveur d’E-S
virtuel, vous pouvez inclure le serveur d’E-S virtuel dans une infrastructure de sauvegarde standard.
Avant de commencer, assurez-vous que le serveur d’E-S virtuel est installé. Le client Tivoli Storage
Manager est livré avec le serveur d’E-S virtuel et installé en même temps que le serveur d’E-S virtuel.
Pour plus d’informations, voir «Installation du serveur d’E-S virtuel et des partitions logiques client», à la
page 65.
Pour configurer et démarrer le client Tivoli Storage Manager, procédez comme suit :
1. Répertoriez tous les clients Tivoli Storage Manager disponibles à l’aide de la commande lssvc. Par
exemple :
$lssvc
TSM_base
2. Selon le résultat de la commande lssvc, choisissez le client Tivoli Storage Manager que vous voulez
configurer. Par exemple, TSM_base
3. Répertoriez tous les attributs associés au client Tivoli Storage Manager à l’aide de la commande
cfgsvc. Exemple :
$cfgsvc –ls TSM_base
SERVERNAME
SERVERIP
NODENAME
4. Configurez le client Tivoli Storage Manager et les attributs associés à l’aide de la commande cfgsvc :
cfgsvc nom_client_TSM -attr SERVERNAME=nom_hôte SERVERIP=non_ou_adresse NODENAME=vios
Où :
v nom_client_TSM est le nom du client Tivoli Storage Manager. Par exemple, TSM_base.
v nom_hôte est le nom d’hôte du serveur Tivoli Storage Manager auquel est associé le client Tivoli
Storage Manager.
v nom_ou_adresse est l’adresse IP ou le nom de domaine du serveur Tivoli Storage Manager auquel est
associé le client Tivoli Storage Manager.
v vios est le nom de la machine sur laquelle est installé le client Tivoli Storage Manager. Ce nom doit
correspondre au nom enregistré sur le serveur Tivoli Storage Manager.
5. Demandez à l’administrateur de Tivoli Storage Manager d’enregistrer le poste client, le serveur d’E-S
virtuel, avec le serveur Tivoli Storage Manager.
Lorsque vous avez terminé, vous êtes prêt à sauvegarder et à restaurer le serveur d’E-S virtuel à l’aide du
gestionnaire Tivoli Storage Manager. Pour plus d’informations, voir les procédures suivantes :
v «Sauvegarde du serveur d’E-S virtuel à l’aide du gestionnaire Tivoli Storage Manager», à la page 117
v «Restauration du serveur d’E-S virtuel avec Tivoli Storage Manager», à la page 122
Installation et configuration des agents TotalStorage Productivity Center
Vous pouvez installer, configurer et démarrer les agents TotalStorage Productivity Center sur le serveur
d’E-S virtuel.
Le serveur d’E-S virtuel 1.5.2 permet d’installer et de configurer les agents TotalStorage Productivity
Center sur le serveur d’E-S virtuel. TotalStorage Productivity Center est une suite de gestion de
l’infrastructure de stockage intégrée conçue pour simplifier et automatiser la gestion des unités de
stockage et des réseaux de stockage, ainsi que l’utilisation de la capacité des systèmes de fichiers et des
bases de données. Lors de l’installation et de la configuration des agents TotalStorage Productivity Center
sur le serveur d’E-S virtuel, vous pouvez utiliser l’interface utilisateur de TotalStorage Productivity Center
pour collecter et afficher des informations sur le serveur d’E-S virtuel.
Chapitre 3. Serveur d’E-S virtuel
99
Avant de commencer, effectuez les tâches suivantes :
1. Vérifiez à l’aide de la commande ioslevel que la version du serveur d’E-S virtuel est 1.5.2 ou une
version ultérieure.
2. Vérifiez qu’aucune autre opération ne s’exécute sur le serveur d’E-S virtuel. L’installation de
TotalStorage Productivity Center utilise la totalité du temps de traitement.
3. En plus de la mémoire requise par la partition logique du serveur d’E-S virtuel, assurez-vous que
vous avez attribué un minimum de 1 Go de mémoire au serveur d’E-S virtuel pour les agents
TotalStorage Productivity Center.
Pour configurer et démarrer les agents TotalStorage Productivity Center, procédez comme suit :
1. Répertoriez tous les agents TotalStorage Productivity Center disponibles à l’aide de la commande
lssvc. Par exemple :
$lssvc
TPC
L’agent TPC contient les agents TPC_data et TPC_fabric. Lorsque vous installez et configurez l’agent
TPC, vous pouvez installer et configurer les agents TPC_data et TPC_fabric.
2. Répertoriez tous les attributs associés à l’agent TotalStorage Productivity Center à l’aide de la
commande lssvc. Exemple :
$lssvc TPC
A:
S:
devAuth:
caPass:
caPort:
amRegPort:
amPubPort:
dataPort:
devPort:
newCA:
oldCA:
daScan:
daScript:
daInstall:
faInstall:
U:
Les attributs A, S, devAuth et caPass sont requis. Les autres sont facultatifs. Pour plus d’informations
sur ces attributs, voir «Configuration des attributs des agents et des clients Tivoli», à la page 142.
3. Installez et configurez l’agent TotalStorage Productivity Center et les attributs associés à l’aide de la
commande cfgsvc :
cfgsvc TPC -attr S=nom_hôte_serveur_tpc A=nom_hôte_gestionnaire_agents devAuth=mot_passe_1 caPass=mot_passe_2
Où :
v nom_hôte_serveur_tpc correspond au nom d’hôte ou à l’adresse IP du serveur TotalStorage
Productivity Center associé à l’agent TotalStorage Productivity Center.
v nom_hôte_gestionnaire_agents correspond au nom ou à l’adresse IP du gestionnaire d’agents.
v mot_passe_1 correspond au mot de passe requis pour l’authentification auprès du serveur d’unités
TotalStorage Productivity Center.
v mot_passe_2 correspond au mot de passe requis pour l’authentification auprès de l’agent commun.
4. Sélectionnez la langue à utiliser pour l’installation et la configuration.
5. Acceptez le contrat de licence pour installer les agents en fonction des attributs définis à l’étape 3.
6. Démarrez chaque agent TotalStorage Productivity Center à l’aide de la commande startsvc :
v Pour démarrer l’agent TPC_data, exécutez la commande suivante :
startsvc TPC_data
100
Guide d’utilisation de PowerVM Editions
v Pour démarrer l’agent TPC_fabric, exécutez la commande suivante :
startsvc TPC_fabric
Après le démarrage des agents TotalStorage Productivity Center, vous pouvez effectuer les tâches
suivantes à l’aide de l’interface utilisateur de TotalStorage Productivity Center :
1. Exécuter un travail de repérage pour les agents sur le serveur d’E-S virtuel.
2. Effectuer des sondes, des analyses et des travaux ping pour collecter les informations de stockage
relatives au serveur d’E-S virtuel.
3. Générer des rapports à l’aide de Fabric Manager et du gestionnaire de données pour afficher les
informations de stockage regroupées.
4. Afficher les informations de stockage regroupées à l’aide du visualiseur de topologie.
Pour plus d’informations, voir le fichier PDF TotalStorage Productivity Center support for agents on a Virtual
I/O Server. Pour consulter ou télécharger le fichier PDF, accédez au site Web TotalStorage Productivity
Center v3.3.1.81 Interim Fix.
Configuration du serveur d’E-S virtuel en tant que client LDAP
Vous pouvez configurer le serveur d’E-S virtuel version 1.4 en tant que client LDAP et ensuite gérer le
serveur d’E-S virtuel à partir d’un serveur LDAP.
Avant de commencer, notez les informations suivantes :
v Nom du ou des serveurs LDAP (Lightweight Directory Access Protocol) pour lesquels vous souhaitez
définir le serveur d’E-S virtuel comme client LDAP.
v Nom distinctif (DN) et mot de passe de l’administrateur du ou des serveurs LDAP pour lesquels vous
souhaitez définir le serveur d’E-S virtuel comme client LDAP.
Pour configurer le serveur d’E-S virtuel en tant que client LDAP, procédez comme suit :
1. Convertissez les utilisateurs serveur d’E-S virtuel en utilisateurs LDAP en exécutant la commande
suivante :
chuser -ldap username
où username est le nom de l’utilisateur que vous souhaitez convertir en utilisateur LDAP.
2. Configurez le client LDAP en exécutant la commande suivante :
mkldap –host ldapserv1 –bind cn=admin –passwd adminpwd
Où :
v ldapserv1 est le serveur LDAP ou la liste de serveurs LDAP pour lesquels vous souhaitez définir le
serveur d’E-S virtuel comme client LDAP
v cn=admin est le nom distinctif (DN) de l’administrateur ldapserv1
v adminpwd est le mot de passe associé à cn=admin
La configuration du client LDAP déclenche automatiquement la communication entre le serveur
LDAP et le client LDAP (le serveur d’E-S virtuel). Pour arrêter la communication, utilisez la
commande stopnetsvc.
Gestion du serveur d’E-S virtuel
Vous pouvez gérer des unités Ethernet virtuelles et SCSI virtuelles sur le serveur d’E-S virtuel, ainsi que
sauvegarder, restaurer, mettre à jour et contrôler le serveur d’E-S virtuel.
La plupart des sections de cette rubrique concernent les opérations de gestion dans un environnement
HMC. Pour plus d’informations sur les tâches de gestion dans un environnement Integrated
Virtualization Manager, voir Chapitre 4, «Integrated Virtualization Manager», à la page 177.
Chapitre 3. Serveur d’E-S virtuel
101
Gestion de la mémoire
Vous pouvez importer et exporter des groupes de volumes et des pools de stockage, mapper des disques
virtuels à des disques physiques, augmenter la capacité des unités SCSI virtuelles, modifier la longueur
de file d’attente SCSI virtuelle, sauvegarder et restaurer des fichiers et des systèmes de fichiers et collecter
et afficher des informations avec TotalStorage Productivity Center.
Importation et exportation de groupes de volumes et de pools de stockage de
volumes logiques
Les commandes importvg et exportvg permettent de déplacer un groupe de volumes défini par
l’utilisateur d’un système vers un autre.
Tenez compte des remarques suivantes lors de l’importation et de l’exportation de groupes de volumes et
de pools de stockage de volumes logiques :
v La procédure d’importation permet d’introduire le groupe de volumes dans le nouveau système.
v Vous pouvez utiliser la commande importvg pour réintroduire un groupe de volumes ou un pool de
stockage de volumes logiques dans le système auquel il été précédemment associé et à partir duquel il
a été exporté.
v La commande importvg permet de modifier le nom du volume logique importé si un volume logique
portant le même nom existe déjà sur le nouveau système. Si la commande importvg renomme un
volume logique, un message d’erreur est imprimé.
v La procédure d’exportation provoque la suppression de la définition d’un groupe de volumes d’un
système.
v Vous pouvez utiliser les commandes importvg et exportvg pour ajouter un volume physique contenant
des données à un groupe de volumes en plaçant le disque à ajouter dans son propre groupe de
volumes.
v Il n’est pas possible d’exporter ou d’importer le groupe de volumes rootvg.
Importation de groupes de volumes et de pools de stockage de volumes logiques :
Vous pouvez utiliser la commande importvg pour importer un groupe de volumes ou un pool de
stockage de volumes logiques.
Pour importer un groupe de volumes ou un pool de stockage de volumes logiques, procédez comme
suit :
1. Exécutez la commande suivante pour importer le groupe de volumes ou le pool de stockage de
volumes logiques :
importvg -vg volumeGroupName physicalVolumeName
Où :
v volumeGroupName est un paramètre facultatif qui indique le nom à utiliser pour le groupe de
volumes importé.
v physicalVolumeName est le nom d’un volume physique appartenant au groupe de volumes importé.
2. Si vous savez que le groupe de volumes ou le pool de stockage de volumes logiques n’est pas le
parent du référentiel de supports virtuels ou d’un pool de stockage de fichiers, vous avez terminé
l’importation du groupe de volumes ou du pool de stockage de volumes. Vous pouvez donc ignorer
les étapes suivantes.
3. Si vous savez (ou si vous n’êtes pas sûr) que le groupe de volumes ou le pool de stockage de volumes
logiques est le parent du référentiel de supports virtuels ou d’un pool de stockage de fichiers,
procédez comme suit :
a. Exécutez la commande mount all pour monter les systèmes de fichiers inclus dans le groupe de
volumes ou le pool de stockage de volumes logiques. Il est possible que cette commande renvoie
des erreurs pour les systèmes de fichiers déjà montés.
102
Guide d’utilisation de PowerVM Editions
b. Si vous importez un groupe de volumes ou un pool de stockage de volumes logiques dans le
même système que celui à partir duquel vous l’avez exporté, exécutez la commande cfgdev pour
reconfigurer les unités dont vous aviez annulé la configuration lors de l’exportation du groupe de
volumes ou du pool de stockage de volumes logiques.
Pour exporter un groupe de volumes ou un pool de stockage de volumes logiques, voir «Exportation de
groupes de volumes et de pools de stockage de volumes logiques».
Exportation de groupes de volumes et de pools de stockage de volumes logiques :
Vous pouvez utiliser la commande exportvg pour exporter un groupe de volumes ou un pool de stockage
de volumes logiques.
Avant de commencer, effectuez les tâches suivantes :
1. Déterminez si le groupe de volumes ou le pool de stockage de volumes logiques à exporter est un
parent du référentiel de supports virtuels ou d’un pool de stockage de fichiers en procédant comme
suit :
a. Exécutez la commande lsrep pour déterminer si le groupe de volumes ou le pool de stockage de
volumes logiques à exporter est un parent du référentiel de supports virtuels. La zone Pool parent
affiche le groupe de volumes ou le pool de volumes logiques parent du référentiel de supports
virtuels.
b. Exécutez la commande suivante pour déterminer si un pool de stockage de fichiers est un enfant
du groupe de volumes ou du pool de volumes logiques à exporter :
lssp -detail -sp FilePoolName
Le résultat indique le groupe de volumes ou le pool de stockage de volumes logiques parent du
pool de stockage de fichiers.
2. Si le groupe de volumes ou le pool de stockage de volumes logiques à exporter est un parent du
référentiel de supports virtuels ou d’un pool de stockage de fichiers, exécutez les étapes qui suivent.
Tableau 25. Etapes prérequises si le groupe de volumes ou le pool de stockage de volumes logiques est un parent
du référentiel de supports virtuels ou d’un pool de stockage de fichiers
Parent du référentiel de supports virtuels
Parent d’un pool de stockage de fichiers
1. Procédez comme suit pour décharger l’unité de
sauvegarde de chaque unité cible virtuelle
sauvegardée sur fichier incluant un fichier
multimédia chargé :
1. Annulez la configuration des unités cible virtuelles
associées aux fichiers contenus dans les pools de
stockage de fichiers en procédant comme suit:
a. Extrayez la liste des unités cible virtuelles
optiques sauvegardées sur fichier en exécutant la
commande suivante :
lsmap -all -type file_opt
b. Pour chaque unité cible virtuelle indiquant une
unité de sauvegarde, exécutez la commande
suivante pour décharger l’unité de sauvegarde :
unloadopt -vtd VirtualTargetDevice
2. Démontez le système de fichiers du référentiel de
supports virtuels en exécutant la commande
suivante :
unmount /var/vio/VMLibrary
a. Extrayez la liste des unités cible virtuelles en
exécutant la commande suivante :
lssp -bd -sp FilePoolName
où FilePoolName est le nom du pool de stockage
de fichiers enfant du groupe de volumes ou du
pool de stockage de volumes logiques à exporter.
b. Pour chaque fichier indiquant une unité cible
virtuelle, exécutez la commande suivante :
rmdev -dev VirtualTargetDevice -ucfg
2. Démontez le pool de stockage de fichiers en
exécutant la commande suivante :
unmount /var/vio/storagepools/FilePoolName
où FilePoolName est le nom du pool de stockage de
fichiers à démonter.
Chapitre 3. Serveur d’E-S virtuel
103
Pour exporter le groupe de volumes ou le pool de stockage de volumes logiques, exécutez les
commandes suivantes :
1. deactivatevg VolumeGroupName
2. exportvg VolumeGroupName
Pour importer un groupe de volumes ou un pool de stockage de volumes logiques, voir «Importation de
groupes de volumes et de pools de stockage de volumes logiques», à la page 102.
Mappage de disques virtuels sur des disques physiques
Instructions de mappage d’un disque virtuel d’une partition logique client sur le disque physique
correspondant du serveur d’E-S virtuel.
Cette procédure explique comment mapper un disque SCSI virtuel d’une partition logique client AIX avec
l’unité physique (disque ou volume logique) du serveur d’E-S virtuel.
Pour ce faire, vous avez besoin des informations suivantes. Ces informations sont collectées au cours de
cette procédure.
v Nom d’unité virtuelle
v Numéro d’emplacement de la carte client SCSI virtuelle
v Numéro d’unité logique (LUN) de l’unité SCSI virtuelle
v Identificateur de partition logique client
Pour mapper un disque virtuel d’une partition logique client AIX avec le disque physique du serveur
d’E-S virtuel correspondant, procédez comme suit :
1. Affichez les informations relatives à l’unité SCSI virtuelle sur la partition logique client AIX en entrant
la commande suivante :
lscfg -l nom-unité
Cette commande renvoie un résultat similaire au suivant :
U9117.570.1012A9F-V3-C2-T1-L810000000000
Unité de disque SCSI virtuelle
2. Notez le numéro d’emplacement figurant dans la sortie à la suite du libellé d’emplacement de carte C.
Il correspond au numéro d’emplacement de la carte client SCSI virtuelle. Dans cet exemple, le numéro
d’emplacement est 2.
3. Notez le numéro d’unité logique (LUN) figurant dans la sortie à la suite du label de LUN L. Dans cet
exemple, LUN équivaut à 810000000000.
4. Notez l’ID de la partition logique client AIX :
a. Connectez-vous à la partition logique client AIX en utilisant, par exemple, Telnet.
b. Sur la partition logique AIX, exécutez la commande uname -L.
Le résultat doit ressembler à ceci :
2
fumi02
L’identificateur de partition logique est le premier numéro indiqué. Dans cet exemple, il s’agit de
2. Ce numéro est utilisé à l’étape suivante.
c. Entrez exit.
5. Si plusieurs partitions logiques du serveur d’E-S virtuel s’exécutent sur votre système, déterminez
celle qui tient lieu d’unité SCSI virtuelle. Elle peut être déterminée à l’aide du numéro d’emplacement
de la carte client reliée à un serveur d’E-S virtuel et à une carte de serveur. Utilisez la ligne de
commande de la console HMC pour répertorier les informations relatives aux cartes client SCSI
virtuelles de la partition logique client.
Connectez-vous à la console HMC et à partir de la ligne de commande de la console HMC, entrez
lshwres. Indiquez le nom de la console gérée pour le paramètre -m et l’identificateur de la partition
logique client pour le paramètre lpar_ids.
104
Guide d’utilisation de PowerVM Editions
Remarque :
v Le nom de la console gérée utilisée pour le paramètre -m est déterminé en entrant lssyscfg -r sys
-F name à partir de la ligne de commande de la console HMC.
v Utilisez l’identificateur de partition logique client noté à l’étape 4 pour le paramètre -lpar_ids.
Par exemple :
lshwres -r virtualio --rsubtype scsi -m fumi --filter lpar_ids=2
Cet exemple renvoie un résultat similaire au suivant :
lpar_name=fumi02,lpar_id=2,slot_num=2,state=null,adapter_type=client,remote_lpar_id=1,
remote_lpar_name=fumi01,remote_slot_num=2,is_required=1,backing_devices=none
Notez le nom du serveur d’E-S virtuel situé dans la zone remote_lpar_name et le numéro
d’emplacement de la carte serveur SCSI virtuelle, figurant dans la zone remote_lpar_id. Dans cet
exemple, le nom du serveur d’E-S virtuel est fumi01 et le numéro d’emplacement de la carte serveur
SCSI virtuelle est 1.
6. Connectez-vous au serveur d’E-S virtuel.
7. Répertoriez les cartes et les unités virtuelles du serveur d’E-S virtuel en entrant la commande
suivante :
lsmap -all
8. Localisez la carte serveur SCSI virtuelle (vhostX) associée au numéro d’emplacement correspondant
au numéro d’emplacement distant noté à l’étape 7. Sur cette carte, exécutez la commande suivante :
lsmap -vadapter nom-unité
9. A partir de la liste des unités, faites correspondre le numéro d’unité logique noté à l’étape 4 avec les
numéros d’unité logique répertoriés. Il s’agit de l’unité physique.
Augmentation de la capacité de l’unité
Augmenter la taille des disques SCSI virtuels.
Lorsque les besoins en stockage des partitions logiques client virtuelles augmentent, vous pouvez ajouter
une mémoire physique pour accroître la taille de vos unités virtuelles et allouer cette mémoire à votre
environnement virtuel. Vous pouvez étendre la capacité de vos unités SCSI virtuelles en augmentant la
taille des volumes physiques ou logiques. Le serveur d’E-S virtuel version 1.3 et supérieures, permet
d’effectuer ceci sans interrompre les opérations client. Pour augmenter la taille des fichiers et des volumes
logiques en fonction des pools de stockage, vous devez utiliser la version 1.5 ou une version supérieure
du serveur d’E-S virtuel.
Pour augmenter la capacité des unités SCSI, procédez comme suit :
1. Augmentation de la taille des volumes physiques, des volumes logiques ou des fichiers :
v Volumes physiques : consultez la documentation relative au stockage afin de déterminer si votre
sous-système de stockage prend en charge l’extension de la taille d’un numéro d’unité logique
(LUN).
v Volumes logiques basés sur des groupes de volumes :
a. Exécutez la commande extendlv. Par exemple, extendlv lv3 100M. Dans cet exemple, le volume
logique lv3 est augmenté de 100 Mo.
b. Si le volume logique ne contient pas d’espace supplémentaire, procédez comme suit :
1) Augmentez la taille du groupe de volumes en procédant comme suit :
– Augmentez la taille des volumes physiques. Pour plus d’informations, consultez la
documentation relative à votre système de stockage.
– Ajoutez des volumes physiques à un groupe de volumes en exécutant la commande
extendvg. Par exemple, extendvg vg1 hdisk2. Dans cet exemple, le volume physique
hdisk2 est ajouté au groupe de volumes vg1.
Chapitre 3. Serveur d’E-S virtuel
105
2) Allouez le volume augmenté aux partitions logiques en redimensionnant les volumes
logiques. Exécutez la commandeextendlv pour augmenter la taille d’un volume logique.
v Volumes logiques basés sur des pools de stockage :
a. Exécutez la commande chbdsp. Par exemple, chbdsp -sp lvPool -bd lv3 -size 100M. Dans cet
exemple, le volume logique lv3 est augmenté de 100 Mo.
b. Si le volume logique ne contient pas d’espace supplémentaire, procédez comme suit :
1) Augmentez la taille du pool de stockage de volumes logiques en procédant de l’une des
façons suivantes :
– Augmentez la taille des volumes physiques. Pour plus d’informations, consultez la
documentation relative à votre système de stockage.
– Ajoutez des volumes physiques au pool de stockage en exécutant la commande chsp. Par
exemple, chsp -add -sp sp1 hdisk2. Cet exemple ajoute le volume physique hdisk2 au
pool de stockage sp1.
2) Allouez le volume augmenté aux partitions logiques en redimensionnant les volumes
logiques. Exécutez la commande chbdsp pour augmenter la taille d’un volume logique.
v Fichiers :
a. Exécutez la commande chbdsp. Par exemple, chbdsp -sp fbPool -bd fb3 -size 100M. Dans cet
exemple, le fichier fb3 est augmenté de 100 Mo.
b. Si le fichier ne contient pas d’espace supplémentaire, augmentez la taille du pool de stockage de
fichiers en exécutant la commande chsp. Par exemple, chsp -add -sp fbPool -size 100M. Dans
cet exemple, le pool de stockage de fichiers fbPool est augmenté de 100 Mo.
c. Si le pool de stockage de fichiers ne contient pas d’espace supplémentaire, augmentez la taille
du pool de stockage parent en procédant de l’une des façons suivantes :
– Augmentez la taille des volumes physiques. Pour plus d’informations, consultez la
documentation relative à votre système de stockage.
– Ajoutez des volumes physiques au pool de stockage parent en exécutant la commande chsp.
Par exemple, chsp -add -sp sp1 hdisk2. Dans cet exemple, le volume physique hdisk2 est
ajouté au pool de stockage sp1.
– Augmentez la taille du pool de stockage de fichiers en exécutant la commande chsp.
2. Si vous exécutez des versions du serveur d’E-S virtuel antérieures à la version 1.3, vous devez
reconfigurer l’unité virtuelle (à l’aide de la commande cfgdev) ou redémarrer le serveur d’E-S virtuel.
3. Si vous exécutez la version 1.3 ou une version supérieure du serveur d’E-S virtuel, il n’est pas
obligatoire de redémarrer ou de reconfigurer une partition logique pour pouvoir utiliser les ressources
supplémentaires. Si les ressources de la mémoire physique ont été configurées et allouées au système
en tant que ressources système, dès que le serveur d’E-S virtuel identifie les modifications dans le
volume de stockage, la capacité de stockage étendue est mise à la disposition des partitions logiques
client.
4. Sur la partition logique client, assurez-vous que le système d’exploitation reconnaisse la nouvelle taille
et s’y adapte. Par exemple, si AIX est le système d’exploitation sur la partition logique client, exécutez
la commande suivante :
chvg -g vg1
Dans cet exemple, AIX examine tous les disques dans le groupe de volumes vg1 afin de vérifier que
leur taille a augmenté. Pour les disques dont la taille a augmenté, AIX tente d’ajouter des partitions
physiques supplémentaires aux volumes physiques. Le cas échéant, AIX déterminera le multiplicateur
1016 et la conversion appropriés au groupe de volumes.
Information associée
Commande chvg
106
Guide d’utilisation de PowerVM Editions
Modification de la longueur de file d’attente de l’interface SCSI virtuelle
L’augmentation de la longueur de la file d’attente de l’interface SCSI virtuelle peut améliorer les
performances de certaines configurations virtuelles. Il est donc important de connaître les facteurs qui
interviennent dans la détermination de la modification de la valeur de longueur de file d’attente de
l’interface SCSI virtuelle.
La valeur de longueur de file d’attente de l’interface SCSI virtuelle détermine le nombre de requêtes que
le pilote de la tête du disque transmettra au pilote du client. Pour les partitions logiques client AIX et
Linux, vous pouvez modifier cette valeur en remplaçant la valeur par défaut (3) par une valeur comprise
entre 1 et 256. Cette modification s’effectue à l’aide de la commande chdev.
L’augmentation de cette valeur peut améliorer le rendement du disque dans certaines configurations.
Toutefois, plusieurs facteurs doivent être pris en compte. Parmi ces facteurs figurent la valeur de l’attribut
de longueur de file d’attente de toutes les unités de mémoire physique sur le serveur d’E-S virtuel
utilisées en tant qu’unité cible virtuelle par l’instance de disque sur la partition client et la taille de
transfert maximale de l’instance de carte client SCSI virtuelle qui constitue l’unité parente de l’instance de
disque.
Pour les partitions logiques client AIX et Linux, la taille de transfert maximale pour les cartes client de
l’interface SCSI est définie par le serveur d’E-S virtuel, qui détermine la valeur en fonction des ressources
disponibles sur le serveur et de la taille de transfert maximale définie pour les unités de mémoire
physique sur ce serveur. D’autres facteurs incluent la longueur de file d’attente et la taille de transfert
maximale des autres unités impliquées dans les configurations de type groupe de volumes en miroir ou
MPIO (Multipath I/O). L’augmentation de la longueur de la file d’attente pour certaines unités peut
réduire le nombre de ressources disponibles pour les autres unités situées sur la même carte partagée et
diminuer le rendement de celles-ci.
Pour modifier la longueur de la file d’attente AIX ou Linux, utilisez la commande chdev sur la partition
logique client avec l’attribut queue_depth=value, comme dans l’exemple suivant :
chdev -1 hdiskN -a "queue_depth=value"
hdiskN représente le nom d’un volume physique et value désigne la valeur comprise entre 1 et 256 que
vous attribuez.
Pour visualiser le paramètre actuel défini pour la valeur queue_depth, exécutez la commande suivante à
partir de la partition logique client :
lsattr -E1 hdiskN
Sauvegarde et restauration de fichiers et de systèmes de fichiers
Vous pouvez utiliser les commandes backup et restore pour sauvegarder et restaurer des fichiers
individuels ou des systèmes de fichiers complets.
La sauvegarde et la restauration de fichiers et de systèmes de fichiers peuvent s’avérer utiles pour les
tâches telles que l’ l’enregistrement d’une unité sauvegardée sur fichier.
Chapitre 3. Serveur d’E-S virtuel
107
Pour sauvegarder et restaurer des fichiers et des systèmes de fichiers, utilisez les commandes ci-après.
Tableau 26. Commandes de sauvegarde et de restauration et leurs descriptions
commande
Description
backup
Permet de sauvegarder des fichiers et des systèmes de fichiers sur des supports, tels que
des bandes et des disques physiques. Exemple :
v Vous pouvez sauvegarder tous les fichiers et tous les sous-répertoires dans un
répertoire à l’aide des chemins d’accès complets ou des chemins d’accès relatifs.
v Vous pouvez sauvegarder le système de fichiers racine.
v Vous pouvez sauvegarder tous les fichiers du système de fichiers racine qui ont été
modifiés depuis la dernière sauvegarde.
v Vous pouvez sauvegarder les fichiers de support optique virtuel depuis le référentiel
de support virtuel.
restore
Permet de lire les archives créées à l’aide de la commande backup et d’extraire les
fichiers qu’elles contiennent. Exemple :
v Vous pouvez restaurer un fichier donné dans le répertoire de travail.
v Vous pouvez restaurer un fichier donné depuis une bande sur le référentiel de support
virtuel.
v Vous pouvez restaurer un répertoire spécifique ainsi que le contenu de ce répertoire
depuis une archive de nom de fichier ou une archive de système de fichiers.
v Vous pouvez restaurer un système de fichiers complet.
v Vous pouvez restaurer uniquement les permissions ou uniquement les attributs ACL
des fichiers ou de l’archive.
Gestion du stockage à l’aide d’ TotalStorage Productivity Center
Vous pouvez utiliser TotalStorage Productivity Center pour collecter et afficher des informations sur le
serveur d’E-S virtuel.
Le serveur d’E-S virtuel 1.5.2, permet d’installer et de configurer les agents TotalStorage Productivity
Center sur le serveur d’E-S virtuel. TotalStorage Productivity Center est une suite de gestion de
l’infrastructure de stockage intégrée conçue pour simplifier et automatiser la gestion des unités de
stockage et des réseaux de stockage, ainsi que l’utilisation de la capacité des systèmes de fichiers et des
bases de données. Lors de l’installation et de la configuration des agents TotalStorage Productivity Center
sur le serveur d’E-S virtuel, vous pouvez utiliser l’interface de TotalStorage Productivity Center pour
collecter et afficher des informations sur le serveur d’E-S virtuel. Vous pouvez ensuite effectuer les tâches
suivantes à l’aide de l’interface TotalStorage Productivity Center :
1. Exécuter un travail de repérage pour les agents sur le serveur d’E-S virtuel.
2. Effectuer des sondes, des analyses et des travaux ping pour collecter les informations de stockage
relatives au serveur d’E-S virtuel.
3. Générer des rapports à l’aide de Fabric Manager et du gestionnaire de données pour afficher les
informations de stockage regroupées.
4. Afficher les informations de stockage regroupées à l’aide du visualiseur de topologie.
Pour plus d’informations, voir «Installation et configuration des agents TotalStorage Productivity Center»,
à la page 99.
Gestion des réseaux
Vous pouvez modifier la configuration réseau de la partition logique du serveur d’E-S virtuel, activer et
désactiver le protocole GVRP (GARP VLAN Registration Protocol) sur la carte de réseau Ethernet
partagée, utiliser le protocole SNMP (Simple Network Management Protocol) pour gérer les systèmes et
les unités sur des réseaux complexes et mettre à niveau vers Internet Protocol version 6 (IPv6).
108
Guide d’utilisation de PowerVM Editions
Modification de la configuration réseau de la partition logique du serveur d’E-S
virtuel
Pour modifier ou supprimer les paramètres réseau sur la partition logique du serveur d’E-S virtuel, tels
que l’adresse IP, le masque de sous-réseau, la passerelle et l’adresse de serveur de noms, procédez comme
indiqué ici.
Dans ce scénario, la configuration de réseau de la partition logique du serveur d’E-S virtuel est déjà
définie. La configuration en cours sera supprimée et celle mise à jour sera définie. Si vous envisagez
d’annuler la configuration Internet Protocol version 6 (IPv6), utilisez le processus et les commandes
ci-après pour supprimer complètement l’interface TCP/IP et en configurer une nouvelle pour Internet
Protocol version 4 (IPv4).
1. Affichez la configuration de réseau en cours à l’aide de la commande lstcpip.
2. Supprimez la configuration de réseau en cours en exécutant la commande rmtcpip. Vous pouvez
supprimer tous les paramètres réseau ou uniquement ceux qui doivent être mis à jour.
3. Configurez les nouveaux paramètres réseau à l’aide de la commande mktcpip.
L’exemple suivant concerne IPv4 dans lequel l’adresse en cours des informations DNS (Domain Name
Server) de la partition logique du serveur d’E-S virtuel doit être mise à jour vers 9.41.88.180 :
1. Exécutez la commande lstcpip -namesrv pour afficher la configuration en cours. Assurez-vous que la
configuration a besoin d’être mise à jour.
2. Exécutez la commande rmtcpip -namesrv pour supprimer la configuration en cours.
3. Exécutez mktcpip -nsrvaddr 9.41.88.180 pour mettre à jour l’adresse du serveur de noms.
Activation et désactivation du protocole GVRP
Vous pouvez activer et désactiver le protocole GVRP (GARP VLAN Registration Protocol) sur les cartes
Ethernet partagées, ce qui permet de gérer l’enregistrement dynamique des réseaux locaux virtuels
(VLAN) sur les réseaux.
Sur le serveur d’E-S virtuel version 1.4, les cartes Ethernet partagées prennent en charge le protocole
GVRP (GARP VLAN Registration Protocol), lequel repose sur le protocole GARP (Generic Attribute
Registration Protocol). Le protocole GVRP permet l’enregistrement dynamique des réseaux VLAN sur les
réseaux.
Par défaut, le protocole GVRP est désactivé sur les cartes Ethernet partagées.
Avant de commencer, créez et configurez une carte de réseau Ethernet partagée. Pour plus
d’informations, voir «Création d’une carte de réseau Ethernet partagée via la console HMC version 7», à
la page 91.
Pour activer ou désactiver le protocole GVRP, exécutez la commande suivante :
chdev -dev Nom -attr gvrp=yes/no
Où :
v Nom est le nom de la carte de réseau Ethernet partagée.
v yes/no indique si le protocole GVRP est activé ou désactivé. Entrez yes pour activer le protocole GVRP
ou entrez no pour le désactiver.
Gestion du protocole SNMP sur le serveur d’E-S virtuel
Localisation des commandes d’activation, de désactivation et de gestion du protocole SNMP sur le
serveur d’E-S virtuel.
Le protocole SNMP (Simple Network Management Protocol) regroupe plusieurs protocoles de contrôle
des systèmes et des unités sur les réseaux complexes. La gestion de réseau SNMP repose sur le modèle
client-serveur couramment utilisé dans les applications réseau fonctionnant avec le protocole IP. Chaque
Chapitre 3. Serveur d’E-S virtuel
109
hôte géré est exécuté sur un processus appelé agent. L’agent est un processus serveur qui gère les
informations sur les unités gérées de la base d’informations de gestion (MIB) de l’hôte. Les hôtes actifs
dans la gestion de réseau peuvent exécuter un processus appelé gestionnaire. Un gestionnaire est une
application client qui envoie des requêtes à la base d’informations de gestion (MIB) et traite les réponses.
De plus, un gestionnaire peut envoyer des requêtes aux serveurs pour modifier les informations MIB.
En général, les administrateurs de réseau utilisent le protocole SNMP pour faciliter la gestion du réseau
pour différentes raisons :
v Il masque le réseau système sous-jacent
v L’administrateur peut gérer et surveiller l’ensemble des composants sur une console unique.
Le protocole SNMP est disponible sur le serveur d’E-S virtuel version 1.4 et ultérieure.
Le tableau ci-dessous répertorie les tâches de gestion SNMP disponibles sur le serveur d’E-S virtuel, ainsi
que les commandes permettant d’effectuer ces tâches.
Tableau 27. Tâches et commandes de gestion du protocole SNMP sur le serveur d’E-S virtuel
Tâche
commande
Activation du protocole SNMP
startnetsvc
Sélection de l’agent SNMP à exécuter
snmpv3_ssw
Envoi de requêtes SNMP aux agents
cl_snmp
Traitement des réponses envoyées par les agents
cl_snmp
Demande d’informations MIB gérées par un agent SNMP snmp_info
Modification d’informations MIB gérées par un agent
SNMP
snmp_info
Envoi d’une notification signalant un événement au
gestionnaire SNMP au moyen d’un message défini
snmp_trap
Désactivation du protocole SNMP
stopnetsvc
Information associée
Gestion du réseau
Mise à niveau du serveur d’E-S virtuel de IPv4 vers IPv6
Pour tirer parti des optimisations, telles que la simplification de l’adressage et du routage étendus,
utilisez la commande mktcpip pour mettre à niveau le serveur d’E-S virtuel de Internet Protocol version 4
(IPv4) vers Internet Protocol version 6 (IPv6).
IPv6 est le protocole IP de future génération et remplace graduellement la norme Internet actuelle,
Internet Protocol version 4 (IPv4). La principale amélioration d’IPv6 est l’extension de l’espace adresse IP
de 32 à 128 bits, offrant un nombre d’adresses IP uniques pratiquement illimité. IPv6 présente plusieurs
avantages par rapport à IPv4, notamment le routage et l’adressage étendus, la simplification du routage,
la simplification du format d’en-tête, un contrôle amélioré du trafic, l’autoconfiguration et la sécurité.
Exécutez la commande suivante pour mettre à niveau le serveur d’E-S virtuel de IPv4 vers IPv6 :
mktcpip –auto [-interface interface]
où interface indique l’interface à configurer pour IPv6.
Cette commande effectue automatiquement les tâches suivantes :
v Elle configure pour IPv6 toutes les adresses locales de liaison actuellement configurées pour IPv4.
v Elle active le démon des interfaces indiquées prenant en charge IPv6.
110
Guide d’utilisation de PowerVM Editions
v Elle lance le démon ndpd-host.
v Elle vérifie que la configuration IPv6 reste intacte après le redémarrage du serveur d’E-S virtuel.
Si vous décidez d’annuler la configuration IPv6, vous devez entièrement supprimer l’interface TCP/IP,
puis configurer une nouvelle interface TCP/IP pour IPv4. Pour plus d’informations, voir «Modification
de la configuration réseau de la partition logique du serveur d’E-S virtuel», à la page 109.
Sauvegarde du serveur d’E-S virtuel
Vous pouvez sauvegarder le serveur d’E-S virtuel et les unités virtuelles définies par l’utilisateur à l’aide
de la commande backupios. Vous pouvez également utiliser Tivoli Storage Manager pour programmer
des sauvegardes et les stocker sur un autre serveur.
Les informations à sauvegarder sur le serveur d’E-S virtuel sont les suivantes : le serveur d’E-S virtuel et
les unités virtuelles définies par l’utilisateur.
v Le serveur d’E-S virtuel contient le code de base, les groupes de correctifs appliqués, les pilotes
d’unités personnalisés permettant de prendre en charge les sous-systèmes de disque et certaines
métadonnées définies par l’utilisateur. Toutes ces informations sont sauvegardées lorsque vous utilisez
la commande backupios. Dans le cas où vous envisagez de restaurer le serveur d’E-S virtuel sur le
même système à partir duquel il a été sauvegardé, la sauvegarde du serveur d’E-S virtuel est
généralement suffisante.
v Les unités définies par l’utilisateur contiennent des métadonnées, telles que des mappages d’unités
virtuelles, qui définissent la relation existant entre l’environnement physique et l’environnement
virtuel. Ces données peuvent être enregistrées dans un emplacement qui est automatiquement
sauvegardé lorsque vous utilisez la commande backupios. Si vous envisagez de sauvegarder le serveur
d’E-S virtuel sur un autre système ou un nouveau système, (par exemple, en cas de panne du système
ou de sinistre), vous devez sauvegarder à la fois le serveur d’E-S virtuel et les unités virtuelles définies
par l’utilisateur. D’autre part, dans ces situations, vous devez également sauvegarder les composants
suivants de votre environnement pour restaurer intégralement la configuration du serveur d’E-S
virtuel :
– Les configurations d’unités externes, comme les unités de réseau de stockage (SAN).
– Les ressources définies sur la console HMC (Hardware Management) (HMC), telles que les
allocations de mémoire et de processeur. Cela implique de sauvegarder vos données de profil de
partition de la console HMC du serveur d’E-S virtuel et ses partitions client.
– Les systèmes d’exploitation et les applications exécutées dans les partitions logiques client.
Vous pouvez sauvegarder et restaurer le serveur d’E-S virtuel comme suit.
Tableau 28. Méthodes de sauvegarde et de restauration du serveur d’E-S virtuel
Méthode de sauvegarde
Support
Méthode de restauration
Sur bande
Bande
A partir d’une bande
Sur DVD
DVD-RAM
A partir d’un DVD
Sur le système de fichiers distant
image nim_resources.tar
A partir d’une console HMC à l’aide
de la fonction Network Installation
Management (NIM) sur Linux et de
la commande installios
Sur le système de fichiers distant
image mksysb
A partir d’un serveur NIM AIX 5L et
d’une installation de système mksysb
standard
Tivoli Storage Manager
image mksysb
Tivoli Storage Manager
Chapitre 3. Serveur d’E-S virtuel
111
Sauvegarde du serveur d’E-S virtuel sur bande
Vous pouvez sauvegarder sur bande différentes données du serveur d’E-S virtuel : le code de base, les
groupes de correctifs appliqués, les pilotes d’unités personnalisés permettant de prendre en charge les
sous-systèmes de disque et certaines métadonnées définies par l’utilisateur.
Si le système est géré par Integrated Virtualization Manager, vous devez sauvegarder vos données de
profil de partition pour la partition de gestion et ses clients avant de sauvegarder le serveur d’E-S virtuel.
Pour plus d’informations, voir «Sauvegarde et restauration des données de partition», à la page 225.
(Vous avez également la possibilité d’utiliser la commande bkprofdata.)
Pour sauvegarder le serveur d’E-S virtuel une bande, procédez comme suit :
1. Affectez une unité de bande au serveur d’E-S virtuel.
2. Extrayez le nom d’unité en entrant la commande suivante :
lsdev -type tape
Si l’état de l’unité de bande est Defined, tapez la commande suivante, où dev correspond à votre unité
de bande :
cfgdev -dev dev
3. Tapez la commande suivante, où unité_bande est le nom de l’unité de bande que vous souhaitez
utiliser pour la sauvegarde :
backupios -tape unité_bande
Cette commande crée une bande amorçable qui peut être utilisée pour restaurer le serveur d’E-S
virtuel.
4. Si vous envisagez de restaurer le serveur d’E-S virtuel sur un autre système que celui à partir duquel
il a été sauvegardé, vous devez sauvegarder les unités virtuelles définies par l’utilisateur. Pour plus
d’informations, voir «Sauvegarde des unités virtuelles définies par l’utilisateur», à la page 114.
Sauvegarde du serveur d’E-S virtuel sur un ou plusieurs DVD
Vous pouvez sauvegarder sur DVD différentes données du serveur d’E-S virtuel : le code de base, les
groupes de correctifs appliqués, les pilotes d’unités personnalisés permettant de prendre en charge les
sous-systèmes de disque et certaines métadonnées définies par l’utilisateur.
Si le système est géré par Integrated Virtualization Manager, vous devez sauvegarder vos données de
profil de partition pour la partition de gestion et ses clients avant de sauvegarder le serveur d’E-S virtuel.
Pour plus d’informations, voir «Sauvegarde et restauration des données de partition», à la page 225.
(Vous avez également la possibilité d’utiliser la commande bkprofdata.)
Pour sauvegarder le serveur d’E-S virtuel sur un ou plusieurs DVD, procédez comme suit. Seul le
support DVD-RAM peut être utilisé pour sauvegarder le serveur d’E-S virtuel.
Remarque : Les unités de disque des fournisseurs peuvent prendre en charge la gravure sur d’autres
types de disque, tels que le CD-RW et le DVD-R. Consultez la documentation relative à votre unité pour
connaître les types de disque pris en charge.
1. Affectez une unité de disque optique à la partition logique du serveur d’E-S virtuel.
2. Extrayez le nom d’unité en entrant la commande suivante :
lsdev -type optical
Si l’état de l’unité est Defined, tapez :
cfgdev -dev dev
3. Exécutez la commande backupios avec l’option -cd. Indiquez le chemin d’accès à l’unité. Par
exemple :
backupios -cd /dev/cd0
112
Guide d’utilisation de PowerVM Editions
Remarque : Si le serveur d’E-S virtuel ne tient pas sur un DVD, la commandebackupios fournit des
instructions de remplacement et de retrait des disques jusqu’à ce que tous les volumes aient été créés.
Cette commande crée un ou plusieurs DVD amorçables qui peuvent être utilisés pour restaurer le
serveur d’E-S virtuel.
4. Si vous envisagez de restaurer le serveur d’E-S virtuel sur un autre système que celui à partir duquel
il a été sauvegardé, vous devez sauvegarder les unités virtuelles définies par l’utilisateur. Pour plus
d’informations, voir «Sauvegarde des unités virtuelles définies par l’utilisateur», à la page 114.
Sauvegarde du serveur d’E-S virtuel sur un système de fichiers distant via un
fichier nim_resources.tar
Vous pouvez sauvegarder sur un système de fichiers distant différentes données du serveur d’E-S virtuel
(le code de base, les groupes de correctifs appliqués, les pilotes d’unités personnalisés permettant de
prendre en charge les sous-systèmes de disque et certaines métadonnées définies par l’utilisateur) en
créant un fichier nim_resources.tar
Le fait de sauvegarder le serveur d’E-S virtuel dans un système de fichiers distant crée l’image
nim_resources.tar dans le répertoire indiqué. Le fichier nim_resources.tar contient toutes les ressources
nécessaires pour restaurer le serveur d’E-S virtuel, notamment l’image mksysb, le fichier bosinst.data,
l’image d’amorçage du réseau et la ressource Shared Product Object Tree (SPOT).
La commande backupios vide la section target_disks_stanza du fichier bosinst.data et définit
RECOVER_DEVICES=Default. Cette opération permet de cloner le fichier mksysb généré par la commande
sur une autre partition logique. Si vous envisagez d’utiliser l’image nim_resources.tar pour l’installer sur
un disque spécifique, vous devez repeupler la section target_disk_stanza du fichier bosinst.data et
remplacer ce dernier dans l’image nim_resources.tar. Toutes les autres parties de l’image
nim_resources.tar doivent rester intactes.
Avant de commencer, effectuez les tâches suivantes :
1. Si le système est géré par Integrated Virtualization Manager, vous devez sauvegarder vos données de
profil de partition pour la partition de gestion et ses clients avant de sauvegarder le serveur d’E-S
virtuel. Pour plus d’informations, voir «Sauvegarde et restauration des données de partition», à la
page 225. (Vous avez également la possibilité d’utiliser la commande bkprofdata.)
2. Vérifiez que le système de fichiers distant est disponible et installé.
3. Vérifiez que le serveur d’E-S virtuel possède un accès en écriture au serveur sur lequel la sauvegarde
a été créée.
Pour sauvegarder le serveur d’E-S virtuel dans un système de fichiers distant, procédez comme suit :
1. Créez un répertoire de montage dans lequel l’image de sauvegarde nim_resources.tar va être écrite.
Par exemple, pour créer le répertoire /home/backup, entrez :
mkdir /home/backup
2. Montez un répertoire exporté sur le répertoire de montage. Par exemple :
mount server1:/export/ios_backup /home/backup
3. Exécutez la commande backupios avec l’option -file. Indiquez le chemin d’accès au répertoire monté.
Par exemple :
backupios -file /home/backup
Cette commande crée un fichier nim_resources.tar qui peut être utilisé pour restaurer le serveur d’E-S
virtuel de la console HMC.
4. Si vous envisagez de restaurer le serveur d’E-S virtuel sur un autre système que celui à partir duquel
il a été sauvegardé, vous devez sauvegarder les unités virtuelles définies par l’utilisateur. Pour plus
d’informations, voir «Sauvegarde des unités virtuelles définies par l’utilisateur», à la page 114.
Chapitre 3. Serveur d’E-S virtuel
113
Sauvegarde du serveur d’E-S virtuel sur un système de fichiers distant via une
image mksysb
Vous pouvez sauvegarder sur un système de fichiers distant différentes données du serveur d’E-S virtuel
(le code de base, les groupes de correctifs appliqués, les pilotes d’unités personnalisés permettant de
prendre en charge les sous-systèmes de disque et certaines métadonnées définies par l’utilisateur) en
créant un fichier mksysb
Le fait de sauvegarder le serveur d’E-S virtuel dans un système de fichiers distant crée l’image mksysb
dans le répertoire indiqué. L’image mksysb est une image installable du groupe de volumes root dans un
fichier.
Avant de commencer, effectuez les tâches suivantes :
1. Si le système est géré par Integrated Virtualization Manager, vous devez sauvegarder vos données de
profil de partition pour la partition de gestion et ses clients avant de sauvegarder le serveur d’E-S
virtuel. Pour plus d’informations, voir «Sauvegarde et restauration des données de partition», à la
page 225. (Vous avez également la possibilité d’utiliser la commande bkprofdata.)
2. Si vous envisagez de restaurer le serveur d’E-S virtuel à partir d’un serveur Network Installation
Management (NIM), vérifiez que ce dernier dispose de la dernière version du système AIX.
3. Vérifiez que le système de fichiers distant est disponible et installé.
4. Vérifiez que le serveur d’E-S virtuel possède un accès en écriture au serveur sur lequel la sauvegarde
a été créée.
Pour sauvegarder le serveur d’E-S virtuel dans un système de fichiers distant, procédez comme suit :
1. Créez un répertoire de montage dans lequel l’image de sauvegarde mksysb va être enregistrée. Par
exemple, pour créer le répertoire /home/backup, entrez :
mkdir /home/backup
2. Montez un répertoire exporté sur le répertoire de montage. Par exemple :
mount server1:/export/ios_backup /home/backup
où server1 désigne le serveur NIM à partir duquel vous allez effectuer la restauration du serveur d’E-S
virtuel.
3. Exécutez la commande backupios avec l’option -file. Indiquez le chemin d’accès au répertoire monté.
Par exemple :
backupios -file /home/backup/filename.mksysb -mksysb
où filename désigne le nom de l’image mksysb créée par cette commande dans le répertoire indiqué.
Vous pouvez utiliser l’image mksysb pour restaurer le serveur d’E-S virtuel à partir d’un serveur
NIM.
4. Si vous envisagez de restaurer le serveur d’E-S virtuel sur un autre système que celui à partir duquel
il a été sauvegardé, vous devez sauvegarder les unités virtuelles définies par l’utilisateur. Pour plus
d’informations, voir «Sauvegarde des unités virtuelles définies par l’utilisateur».
Sauvegarde des unités virtuelles définies par l’utilisateur
Outre la sauvegarde du serveur d’E-S virtuel, vous devez également sauvegarder les unités virtuelles
définies par l’utilisateur (comme les mappages d’unités virtuelles) dans l’éventualité d’un incident
système ou d’un sinistre.
Les unités définies par l’utilisateur contiennent des métadonnées, telles que des mappages d’unités
virtuelles, qui définissent la relation existant entre l’environnement physique et l’environnement virtuel.
Dans les cas où vous envisagez de restaurer le serveur d’E-S virtuel sur un nouveau système ou un
système différent (par exemple, en cas de panne système ou d’un sinistre), vous devez sauvegarder le
serveur d’E-S virtuel ainsi que les unités virtuelles définies par l’utilisateur.
114
Guide d’utilisation de PowerVM Editions
Avant de commencer, effectuez les tâches suivantes :
1. Sauvegardez le serveur d’E-S virtuel sur bande, DVD ou système de fichiers distant. Pour plus
d’informations, consultez l’une des procédures suivantes :
v «Sauvegarde du serveur d’E-S virtuel sur bande», à la page 112
v «Sauvegarde du serveur d’E-S virtuel sur un ou plusieurs DVD», à la page 112
v «Sauvegarde du serveur d’E-S virtuel sur un système de fichiers distant via un fichier
nim_resources.tar», à la page 113
v «Sauvegarde du serveur d’E-S virtuel sur un système de fichiers distant via une image mksysb», à
la page 114
2. Décidez si vous souhaitez créer un script de la procédure suivante. La création de scripts pour ces
commandes facilite la planification de sauvegardes automatiques des informations.
Pour sauvegarder des unités virtuelles définies par l’utilisateur, procédez comme suit :
1. Répertoriez les groupes de volumes (et les pools de stockage) afin de déterminer quelles structures de
disques définies par l’utilisateur vous voulez sauvegarder à l’aide de la commande suivante :
lsvg
2. Activez chaque groupe de volumes (et pool de stockage) à sauvegarder en exécutant la commande
suivante pour chacun d’eux :
activatevg volume_group
où volume_group est le nom du groupe de volumes (ou pool de stockage) à activer.
3. Sauvegardez chaque groupe de volumes (et pool de stockage) en exécutant la commande suivante
pour chacun d’eux :
savevgstruct volume_group
où volume_group est le nom du groupe de volumes (ou pool de stockage) à sauvegarder. Cette
commande enregistre une sauvegarde de la structure d’un groupe de volumes (et par conséquent un
pool de stockage) dans le répertoire /home/ios/vgbackups.
4. Enregistrez les informations sur les paramètres réseau, les cartes, les utilisateurs et les paramètres de
sécurité dans le répertoire /home/padmin en associant chaque commande à la commande tee, comme
suit :
command | tee /home/padmin/filename
Où :
v command est le nom de la commande qui génère les informations que vous voulez sauvegarder.
v filename est le nom du fichier dans lequel vous voulez enregistrer les informations.
Tableau 29. Commandes qui fournissent les informations à sauvegarder
commande
Informations fournies (et sauvegardées)
cfgnamesrv -ls
Enregistre toutes les entrées de la base de données de
configuration du système relatives aux informations de
serveur de noms de domaine utilisées par les routines
Resolver locales.
entstat -all devicename
Enregistre les statistiques des unités et des pilotes
Ethernet de l’unité indiquée.
devicename est le nom d’une unité dont vous voulez
sauvegarder les attributs ou les statistiques. Exécutez
cette commande pour chaque unité dont vous voulez
sauvegarder les attributs ou les statistiques.
hostmap -ls
Sauvegarde toutes les entrées dans la base de données de
configuration du système.
Chapitre 3. Serveur d’E-S virtuel
115
Tableau 29. Commandes qui fournissent les informations à sauvegarder (suite)
commande
Informations fournies (et sauvegardées)
ioslevel
Sauvegarde le niveau de maintenance actuel du serveur
d’E-S virtuel.
lsdev -dev devicename -attr
Sauvegarde les attributs de l’unité indiquée.
devicename est le nom d’une unité dont vous voulez
sauvegarder les attributs ou les statistiques. Exécutez
cette commande pour chaque unité dont vous voulez
sauvegarder les attributs ou les statistiques.
lsdev -type adapter
Sauvegarde les informations relatives aux cartes
physiques et logiques.
lsuser
Sauvegarde une liste de tous les attributs de l’ensemble
des utilisateurs système.
netstat -routinfo
Sauvegarde les tables de routage, y compris les coûts
configurés par l’utilisateur et en cours de chaque route.
netstat -state
Sauvegarde l’état de toutes les interfaces configurées.
optimizenet -list
Sauvegarde les caractéristiques de l’ensemble des
paramètres d’optimisation du réseau, y compris la valeur
en cours et de réamorçage, la plage, l’unité, le type et les
dépendances.
viosecure -firewall view
Sauvegarde une liste des ports autorisés.
viosecure -view -nonint
Sauvegarde tous les paramètres de niveau de sécurité
relatifs au mode non interactif.
Planification des sauvegardes du serveur d’E-S virtuel
Vous pouvez planifier des sauvegardes régulières du serveur d’E-S virtuel et des unités virtuelles définies
afin de s’assurer que votre copie de sauvegarde reflète précisément la configuration actuelle.
Pour s’assurer que votre sauvegarde du serveur d’E-S virtuel reflète le serveur d’E-S virtuel en cours
d’exécution, vous devez sauvegarder le serveur d’E-S virtuel chaque fois que sa configuration est
modifiée. Par exemple :
v Modification du serveur d’E-S virtuel, telle que l’installation d’un groupe de correctifs.
v Ajout, suppression ou modification de la configuration des unités externes, tels que la modification de
la configuration SAN.
v Ajout, suppression ou modification des allocations de ressource et attributions pour le serveur d’E-S
virtuel, par exemple, la mémoire, les processeurs ou les unités physiques et virtuelles.
v Ajout, suppression ou modification des configurations d’unités virtuelles définies par l’utilisateur, par
exemple, les mappages d’unités virtuelles.
Avant de commencer, vérifiez que vous êtes connecté au serveur d’E-S virtuel sous le nom d’utilisateur
de l’administrateur principal (padmin).
Pour sauvegarder le serveur d’E-S virtuel et les unités virtuelles définies par l’utilisateur, procédez
comme suit :
1. Créez un script destiné à sauvegarder le serveur d’E-S virtuel, puis enregistrez-le dans un répertoire
auquel peut accéder l’ID utilisateur padmin. Par exemple, créez un script nommé backup et
enregistrez-le dans le répertoire /home/padmin. Assurez-vous que votre script inclut des commandes
permettant de sauvegarder le serveur d’E-S virtuel ainsi que des informations de sauvegarde sur les
unités virtuelles définies par l’utilisateur.
116
Guide d’utilisation de PowerVM Editions
2. Créez une entrée de fichier crontab qui exécute le script backup à intervalles réguliers. Par exemple,
pour exécuter le script backup chaque samedi à 2:00 a.m., entrez les commandes suivantes :
a. crontab -e
b. 0 2 0 0 6 /home/padmin/backup
Lorsque vous aurez terminé, pensez à enregistrer le script et quittez l’application.
Sauvegarde du serveur d’E-S virtuel à l’aide du gestionnaire Tivoli Storage
Manager
Vous pouvez utiliser le gestionnaire Tivoli Storage Manager pour sauvegarder automatiquement le
serveur d’E-S virtuel à intervalles réguliers ou effectuer des sauvegardes incrémentielles.
Sauvegarde du serveur d’E-S virtuel à l’aide de la fonction automatisée du gestionnaire Tivoli Storage
Manager :
Vous pouvez automatiser les sauvegardes du serveur d’E-S virtuel à l’aide de la commande crontab et du
planificateur Tivoli Storage Manager.
Avant de commencer, effectuez les tâches suivantes :
v Vérifiez que vous avez configuré le client Tivoli Storage Manager sur le serveur d’E-S virtuel. Pour
plus d’informations, voir «Configuration du client Tivoli Storage Manager», à la page 98.
v Veillez à vous connecter au serveur d’E-S virtuel sous le nom d’utilisateur de l’administrateur principal
(padmin).
Pour automatiser les sauvegardes du serveur d’E-S virtuel, procédez comme suit :
1. Ecrivez un script destiné à créer une image mksysb du serveur d’E-S virtuel et enregistrez-le dans un
répertoire accessible par l’ID utilisateur padmin. Par exemple, créez un script nommé backup et
enregistrez-le dans le répertoire /home/padmin. Si vous envisagez de restaurer le serveur d’E-S virtuel
sur un autre système que celui à partir duquel il a été sauvegardé, veillez à inclure au script les
commandes de sauvegarde des informations relatives aux unités virtuelles définies par l’utilisateur.
Pour plus d’informations, consultez les procédures suivantes :
v Pour plus d’informations sur la création d’une image mksysb, voir «Sauvegarde du serveur d’E-S
virtuel sur un système de fichiers distant via une image mksysb», à la page 114.
v Pour plus d’informations sur la sauvegarde des unités virtuelles définies par l’utilisateur, voir
«Sauvegarde des unités virtuelles définies par l’utilisateur», à la page 114.
2. Créez une entrée de fichier crontab qui exécute le script backup à intervalles réguliers. Par exemple,
pour créer une image mksysb chaque samedi à 2:00, entrez les commandes suivantes :
a. crontab -e
b. 0 2 0 0 6 /home/padmin/backup
Lorsque vous aurez terminé, pensez à enregistrer le script et quittez l’application.
3. Avec l’aide de l’administrateur de Tivoli Storage Manager, associez le noeud du client Tivoli Storage
Manager à un ou plusieurs plannings du domaine de règles. Cette tâche n’est pas exécutée sur le
client Tivoli Storage Manager du serveur d’E-S virtuel. Elle est exécutée par l’administrateur de Tivoli
Storage Manager sur le serveur du gestionnaire Tivoli Storage Manager.
4. Lancez le planificateur client et connectez-vous au planning du serveur à l’aide de la commande
dsmc :
dsmc -schedule
5. Pour redémarrer le planificateur client lors du redémarrage du serveur d’E-S virtuel, ajoutez l’entrée
suivante au fichier /etc/inittab :
itsm::once:/usr/bin/dsmc sched > /dev/null 2>&1 # planificateur TSM
Chapitre 3. Serveur d’E-S virtuel
117
Sauvegarde du serveur d’E-S virtuel à l’aide de la sauvegarde incrémentielle du gestionnaire Tivoli
Storage Manager :
Vous pouvez sauvegarder à tout moment le serveur d’E-S virtuel en effectuant une sauvegarde
incrémentielle à l’aide de Tivoli Storage Manager.
Exécutez une sauvegarde incrémentielle lorsque la sauvegarde automatique ne convient pas. Par exemple,
avant de mettre à niveau serveur d’E-S virtuel, effectuez une sauvegarde incrémentielle pour obtenir une
sauvegarde de la configuration en cours. Après la mise à niveau de serveur d’E-S virtuel, effectuez une
autre sauvegarde incrémentielle pour sauvegarder la configuration de la mise à niveau.
Avant de commencer, effectuez les tâches suivantes :
v Vérifiez que vous avez configuré le client Tivoli Storage Manager sur le serveur d’E-S virtuel. Pour
plus d’informations, voir «Configuration du client Tivoli Storage Manager», à la page 98.
v Assurez-vous de disposer d’une image mksysb du serveur d’E-S virtuel. Si vous envisagez de restaurer
le serveur d’E-S virtuel sur un autre système que celui à partir duquel il a été sauvegardé, veillez à
inclure à l’image mksysb les informations relatives aux unités virtuelles définies par l’utilisateur. Pour
plus d’informations, consultez les procédures suivantes :
– Pour plus d’informations sur la création d’une image mksysb, voir «Sauvegarde du serveur d’E-S
virtuel sur un système de fichiers distant via une image mksysb», à la page 114.
– Pour plus d’informations sur la sauvegarde des unités virtuelles définies par l’utilisateur, voir
«Sauvegarde des unités virtuelles définies par l’utilisateur», à la page 114.
Pour effectuer une sauvegarde incrémentielle du serveur d’E-S virtuel, lancez la commande dsmc. Par
exemple :
dsmc -incremental SpecFichierSource
où SpecFichierSource est le chemin du répertoire contenant le fichier mksysb. Par exemple,
/home/padmin/mksysb_image.
Restauration du serveur d’E-S virtuel
Vous pouvez restaurer le serveur d’E-S virtuel et les unités virtuelles définies par l’utilisateur à l’aide de
la commande installios ou Tivoli Storage Manager.
Les informations du serveur d’E-S virtuel à restaurer sont les suivantes : le serveur d’E-S virtuel et les
unités virtuelles définies par l’utilisateur.
v Le serveur d’E-S virtuel contient le code de base, les groupes de correctifs appliqués, les pilotes
d’unités personnalisés permettant de prendre en charge les sous-systèmes de disque et certaines
métadonnées définies par l’utilisateur. Toutes ces informations sont restaurées lorsque vous utilisez la
commande installios. Dans les cas où vous envisagez de restaurer le serveur d’E-S virtuel sur le même
système à partir duquel il a été sauvegardé, la restauration du serveur d’E-S virtuel est généralement
suffisante.
v Les unités définies par l’utilisateur contiennent des métadonnées, telles que des mappages d’unités
virtuelles, qui définissent la relation existant entre l’environnement physique et l’environnement
virtuel. Ces données permettent de créer à nouveau les unités virtuelles. Si vous envisagez de restaurer
le serveur d’E-S virtuel sur un autre système ou un nouveau système (par exemple, en cas d’une panne
système ou d’un sinistre), vous devez restaurer le serveur d’E-S virtuel et créer à nouveau les unités
virtuelles. D’autre part, dans ces situations, vous devez également restaurer les composants suivants de
votre environnement pour restaurer intégralement la configuration du serveur d’E-S virtuel :
– Les configurations d’unités externes, comme les unités de réseau de stockage (SAN).
– Les ressources définies sur la console HMC (Hardware Management) (HMC), telles que les
allocations de mémoire et de processeur. Ceci implique de restaurer vos données de profil de
partition HMC du serveur d’E-S virtuel et ses partitions client.
118
Guide d’utilisation de PowerVM Editions
– Les systèmes d’exploitation et les applications exécutées dans les partitions logiques client.
Vous pouvez sauvegarder et restaurer le serveur d’E-S virtuel comme suit.
Tableau 30. Méthodes de sauvegarde et de restauration du serveur d’E-S virtuel
Méthode de sauvegarde
Support
Méthode de restauration
Sur bande
Bande
A partir d’une bande
Sur DVD
DVD-RAM
A partir d’un DVD
Sur le système de fichiers distant
image nim_resources.tar
A partir d’une console HMC à l’aide
de la fonction Network Installation
Management (NIM) sur Linux et de
la commande installios
Sur le système de fichiers distant
image mksysb
A partir d’un serveur NIM AIX 5L et
d’une installation de système mksysb
standard
Tivoli Storage Manager
image mksysb
Tivoli Storage Manager
Restauration du serveur d’E-S virtuel à partir d’une bande magnétique
Vous pouvez restaurer différentes données du serveur d’E-S virtuel à partir d’une bande : le code de
base, les groupes de correctifs appliqués, les pilotes d’unités personnalisés permettant de prendre en
charge les sous-systèmes de disque et certaines métadonnées définies par l’utilisateur.
Si le système est géré par Integrated Virtualization Manager, vous devez restaurer vos données de profil
de partition pour la partition de gestion et ses clients avant de restaurer le serveur d’E-S virtuel. Pour
plus d’informations, voir «Sauvegarde et restauration des données de partition», à la page 225. (Vous
avez également la possibilité d’utiliser la commande rstprofdata.)
Pour restaurer le serveur d’E-S virtuel à partir d’une bande, procédez comme suit :
1. Indiquez, à l’aide de la commande bootlist la partition logique du serveur d’E-S virtuel à amorcer à
partir de la bande. Par ailleurs, vous pouvez modifier la liste des unités d’amorçage dans les menus
SMS (System Management Services).
2. Insérez la bande dans l’unité de bande.
3. Dans le menu SMS, choisissez d’effectuer l’installation à partir de l’unité de bande.
4. Suivez les étapes d’installation conformément aux invites du système.
5. Si vous avez effectué une restauration du serveur d’E-S virtuel sur un autre système que celui à partir
duquel il a été sauvegardé, vous devez restaurer les unités virtuelles définies par l’utilisateur. Pour
plus d’informations, voir «Restauration des unités virtuelles définies par l’utilisateur», à la page 121.
Restauration du serveur d’E-S virtuel à partir d’un ou plusieurs DVD
Vous pouvez restaurer différentes données du serveur d’E-S virtuel à partir d’un ou plusieurs DVD : le
code de base, les groupes de correctifs appliqués, les pilotes d’unités personnalisés permettant de prendre
en charge les sous-systèmes de disque et certaines métadonnées définies par l’utilisateur.
Si le système est géré par Integrated Virtualization Manager, vous devez restaurer vos données de profil
de partition pour la partition de gestion et ses clients avant de restaurer le serveur d’E-S virtuel. Pour
plus d’informations, voir «Sauvegarde et restauration des données de partition», à la page 225. (Vous
avez également la possibilité d’utiliser la commande rstprofdata.)
Pour restaurer le serveur d’E-S virtuel à partir d’un ou de plusieurs DVD, procédez comme suit:
1. Indiquez, à l’aide de la commande bootlist, la partition du serveur d’E-S virtuel à amorcer à partir du
DVD. Par ailleurs, vous pouvez modifier la liste des unités d’amorçage dans les menus SMS (System
Management Services).
Chapitre 3. Serveur d’E-S virtuel
119
2.
3.
4.
5.
Insérez le DVD dans l’unité de disque optique.
Dans le menu SMS, choisissez d’effectuer l’installation à partir de l’unité de disque optique.
Suivez les étapes d’installation conformément aux invites du système.
Si vous avez effectué une restauration du serveur d’E-S virtuel sur un autre système que celui à partir
duquel il a été sauvegardé, vous devez restaurer les unités virtuelles définies par l’utilisateur. Pour
plus d’informations, voir «Restauration des unités virtuelles définies par l’utilisateur», à la page 121.
Restauration du serveur d’E-S virtuel à partir d’un fichier nim_resources.tar via la
console HMC
Vous pouvez restaurer différentes données du serveur d’E-S virtuel (le code de base, les groupes de
correctifs appliqués, les pilotes d’unités personnalisés permettant de prendre en charge les sous-systèmes
de disque et certaines métadonnées définies par l’utilisateur) à partir d’une image nim_resources.tar
stockée sur un système de fichiers distant.
Si le système est géré par Integrated Virtualization Manager, vous devez restaurer vos données de profil
de partition pour la partition de gestion et ses clients avant de restaurer le serveur d’E-S virtuel. Pour
plus d’informations, voir «Sauvegarde et restauration des données de partition», à la page 225. (Vous
avez également la possibilité d’utiliser la commande rstprofdata.)
Pour restaurer le serveur d’E-S virtuel à partir d’une image nim_resources.tar dans un système de
fichiers, procédez comme suit :
1. Exécutez la commande installios à partir de la ligne de commande de la console HMC. Cette
procédure vise à restaurer une image de sauvegarde, nim_resources.tar, initialement créée à l’aide de
la commande backupios.
2. Suivez les étapes d’installation conformément aux invites du système. La source des images
d’installation est le répertoire exporté lors de la procédure de sauvegarde. Par exemple,
server1:/export/ios_backup.
3. Lorsque la restauration est terminée, ouvrez une connexion de terminal virtuel (par exemple, à l’aide
de telnet) au système du serveur d’E-S virtuel que vous avez restauré. Vous devrez peut-être fournir
d’autres informations.
4. Si vous restaurez le serveur d’E-S virtuel sur un autre système que celui utilisé pour la sauvegarde,
vous devez restaurer les unités virtuelles définies par l’utilisateur. Pour plus d’informations, voir
«Restauration des unités virtuelles définies par l’utilisateur», à la page 121.
Restauration du serveur d’E-S virtuel via un serveur NIM à partir d’un fichier
mksysb
Vous pouvez restaurer différentes données du serveur d’E-S virtuel (le code de base, les groupes de
correctifs appliqués, les pilotes d’unités personnalisés permettant de prendre en charge les sous-systèmes
de disque et certaines métadonnées définies par l’utilisateur) à partir d’une image mksysb stockée sur un
système de fichiers distant.
Avant de commencer, effectuez les tâches suivantes :
v Vérifiez que le serveur sur lequel vous envisagez de restaurer le serveur d’E-S virtuel est défini comme
étant une ressource Network Installation Management (NIM).
v Vérifiez que le fichier mksysb (qui contient la sauvegarde du serveur d’E-S virtuel) réside sur le
serveur NIM.
v Si le système est géré par Integrated Virtualization Manager, vous devez restaurer vos données de
profil de partition pour la partition de gestion et ses clients avant de restaurer le serveur d’E-S virtuel.
Pour plus d’informations, voir «Sauvegarde et restauration des données de partition», à la page 225.
(Vous avez également la possibilité d’utiliser la commande rstprofdata.)
Pour restaurer le serveur d’E-S virtuel à partir d’une image mksysb dans un système de fichiers, procédez
comme suit :
120
Guide d’utilisation de PowerVM Editions
1. Définissez le fichier mksysb comme étant une ressource NIM, en particulier un objet NIM, en
exécutant la commande nim. Pour afficher la description détaillée de la commande nim,
connectez-vous à l’adresse Commande nim. Exemple :
nim -o define -t mksysb -a server=servername -alocation=/export/ios_backup/
filename.mksysb objectname
Où :
v servername désigne le nom du serveur sur lequel vous envisagez de restaurer le serveur d’E-S
virtuel.
v filename désigne le nom du fichier mksysb.
v objectname désigne le nom utilisé par NIM pour l’enregistrement et l’identification du fichier
mksysb.
2. Définissez une ressource Shared Product Object Tree (SPOT) pour le fichier mksysb à l’aide de la
commande nim. Exemple :
nim -o define -t spot -a server=servername -a location=/export/ios_backup/
SPOT -a source=objectname SPOTname
Où :
v servername désigne le nom du serveur sur lequel vous envisagez de restaurer le serveur d’E-S
virtuel.
v objectname désigne le nom utilisé par NIM pour l’enregistrement et l’identification du fichier
mksysb.
v SPOTname désigne le nom de la ressource SPOT du fichier mksysb.
3. Installez le serveur d’E-S virtuel à partir du fichier mksysb à l’aide de la commande smit. Exemple :
smit nim_bosinst
Vérifiez que les zones de saisie suivantes contiennent les spécifications ci-après.
Tableau 31. Spécifications relatives à la commande SMIT
Zone
Spécification
TYPE d’installation
mksysb
SPOT
SPOTname à l’étape 3
MKSYSB
objectname à l’étape 2
Remain NIM client after install?
no
4. Démarrez la partition logique du serveur d’E-S virtuel. Pour plus d’informations, reportez-vous à
l’étape 3, Amorçage du serveur d’E-S virtuel, du document Installation du serveur d’E-S virtuel à
l’aide de NIM.
5. Si vous restaurez le serveur d’E-S virtuel sur un autre système que celui utilisé pour la sauvegarde,
vous devez restaurer les unités virtuelles définies par l’utilisateur. Pour plus d’informations, voir
«Restauration des unités virtuelles définies par l’utilisateur».
Information associée
Utilisation de l’opération de définition NIM
Définition d’une ressource SPOT
Installation d’un client à l’aide de NIM
Restauration des unités virtuelles définies par l’utilisateur
Outre la restauration du serveur d’E-S virtuel, vous pouvez être amené à restaurer les unités virtuelles
définies par l’utilisateur (comme les mappages d’unités virtuelles), par exemple, dans l’éventualité d’un
incident système, d’une migration ou d’un sinistre du système.
Chapitre 3. Serveur d’E-S virtuel
121
Les unités définies par l’utilisateur contiennent des métadonnées, telles que des mappages d’unités
virtuelles, qui définissent la relation existant entre l’environnement physique et l’environnement virtuel.
Dans les cas où vous envisagez de restaurer le serveur d’E-S virtuel sur un nouveau système ou un
système différent (par exemple, en cas de panne système ou de sinistre), vous devez sauvegarder le
serveur d’E-S virtuel ainsi que les unités virtuelles définies par l’utilisateur.
En premier lieu, restaurez le serveur d’E-S virtuel sur bande, DVD ou système de fichiers distant. Pour
plus d’informations, consultez l’une des procédures suivantes :
v «Restauration du serveur d’E-S virtuel à partir d’une bande magnétique», à la page 119
v «Restauration du serveur d’E-S virtuel à partir d’un ou plusieurs DVD», à la page 119
v «Restauration du serveur d’E-S virtuel à partir d’un fichier nim_resources.tar via la console HMC», à la
page 120
v «Restauration du serveur d’E-S virtuel via un serveur NIM à partir d’un fichier mksysb», à la page 120
Pour restaurer des unités virtuelles définies par l’utilisateur, procédez comme suit :
1. Répertoriez tous les groupes de volumes sauvegardés (ou pools de stockage) à l’aide de la commande
suivante :
restorevgstruct -ls
Cette commande répertorie les fichiers contenus dans le répertoire /home/ios/vgbackups.
2. Exécutez la commande lspv afin de déterminer les disques vides.
3. Restaurez les groupes de volumes (ou les pools de stockage) pour vider les disques, en exécutant la
commande suivante pour chaque groupe de volumes (ou pool de stockage) :
restorevgstruct -vg volumegroup hdiskx
Où :
v volumegroup désigne le nom d’un groupe de volumes (ou pool de stockage) de l’étape 1.
v hdiskx désigne le nom d’un disque vide de l’étape 2.
4. Recréez les mappages existant entre les unités virtuelles et les unités physiques (y compris les
mappages d’unités de stockage, les mappages de carte Ethernet partagées et de carte Ethernet, ainsi
que les paramètres LAN virtuels) à l’aide de la commande mkvdev. Des informations sur le mappage
sont disponibles dans le fichier que vous avez indiqué dans la commande tee à partir de la procédure
de sauvegarde. Par exemple, /home/padmin/filename.
Restauration du serveur d’E-S virtuel avec Tivoli Storage Manager
Vous pouvez utiliser Tivoli Storage Manager pour restaurer l’image mksysb du serveur d’E-S virtuel.
Vous pouvez restaurer le serveur d’E-S virtuel sur le système à partir duquel il a été sauvegardé, ou sur
un autre système (par exemple, en cas de défaillance ou de sinistre sur le système). La procédure
ci-dessous permet de restaurer le serveur d’E-S virtuel sur le système à partir duquel il a été sauvegardé.
Commencez par restaurer l’image mksysb sur le serveur d’E-S virtuel en exécutant la commande dsmc
sur le client Tivoli Storage Manager. Mais le serveur d’E-S virtuel n’est pas restauré lors de la restauration
de l’image mksys. Vous devez ensuite transférer l’image mksysb sur un autre système et la convertir dans
un format installable.
Pour restaurer le serveur d’E-S virtuel sur un autre système, suivez l’une des procédures ci-dessous :
v «Restauration du serveur d’E-S virtuel à partir d’une bande magnétique», à la page 119
v «Restauration du serveur d’E-S virtuel à partir d’un ou plusieurs DVD», à la page 119
v «Restauration du serveur d’E-S virtuel à partir d’un fichier nim_resources.tar via la console HMC», à la
page 120
v «Restauration du serveur d’E-S virtuel via un serveur NIM à partir d’un fichier mksysb», à la page 120
122
Guide d’utilisation de PowerVM Editions
Avant de commencer, effectuez les tâches suivantes :
1. Vérifiez que le système sur lequel vous souhaitez transférer l’image mksysb exécute AIX.
2. Vérifiez que le système qui exécute AIX comporte une unité DVD-RW ou CD-RW.
3. Vérifiez que les RPM cdrecord et mkisofs ont été téléchargés et installés sur AIX. Pour télécharger et
installer les RPM, consultez le site Web AIX Toolbox for Linux Applications.
Restriction : Le mode interactif n’est pas pris en charge sur le serveur d’E-S virtuel. Pour visualiser les
informations relatives aux sessions, entrez la commande dsmc sur la ligne de commande du serveur d’E-S
virtuel.
Pour restaurer leserveur d’E-S virtuel avec Tivoli Storage Manager, procédez comme suit :
1. Identifiez le fichier à restaurer en exécutant la commande dsmc. Celle-ci permet d’afficher les fichiers
qui ont été sauvegardés sur le serveur Tivoli Storage Manager :
dsmc -query
2. Restaurez l’image mksysb à l’aide de la commande dsmc. Exemple :
dsmc -restore SpecFichierSource
où SpecFichierSource est le chemin du répertoire dans lequel vous souhaitez restaurer l’image mksysb
image. Par exemple, /home/padmin/mksysb_image
3. Transférez l’image mksysb sur un serveur muni d’une unité DVD-RW ou CD-RW en exécutant les
commandes FTP suivantes :
a. Assurez-vous que le serveur FTP est démarré sur le serveur d’E-S virtuel en exécutant la
commande suivante : startnetsvc ftp
b. Assurez-vous que le serveur FTP est démarré sur le serveur d’E-S virtuel en exécutant la
commande suivante : startnetsvc ftp
c. Ouvrez une session FTP sur le serveur muni d’une unité DVD-RW ou CD-RW : ftp
nom_hôte_serveur, où nom_hôte_serveur est le nom d’hôte du serveur muni d’une unité DVD-RW
ou CD-RW.
d. A l’invite FTP, changez le répertoire d’installation pour sélectionner le répertoire dans lequel vous
souhaitez enregistrer l’image mksysb.
e. Paramétrez le mode de transfert sur binaire : binary
f. Désactivez l’invite en mode interactif (si actif) : prompt
g. Transférez l’image mksysb sur le serveur : mput mksysb_image
h. Après le transfert de l’image mksysb, fermez la session FTP en entrant quit.
4. Enregistrez l’image mksysb sur un CD ou un DVD à l’aide de la commande mkcd ou mkdvd.
5. Réinstallez le serveur d’E-S virtuel à partir du CD ou du DVD que vous venez de créer. Pour plus
d’informations, voir «Restauration du serveur d’E-S virtuel à partir d’un ou plusieurs DVD», à la page
119.
Référence associée
Commande mkcd
Commande mkdvd
Installation ou remplacement d’une carte PCI sur le serveur d’E-S
virtuel lorsque le système est sous tension
Vous pouvez être amené à installer ou remplacer une carte PCI sur la partition logique du serveur d’E-S
virtuel ou sur la partition de gestion du gestionnaire Integrated Virtualization Manager. La procédure de
cette section permet d’effectuer cette tâche.
Chapitre 3. Serveur d’E-S virtuel
123
Le serveur d’E-S virtuel comporte un gestionnaire d’unités PCI remplaçables à chaud similaire à celui du
système d’exploitation AIX. Le gestionnaire d’unités PCI remplaçables à chaud permet de remplacer à
chaud des cartes PCI sur le serveur, puis de les activer sur la partition logique sans réamorcer le système.
Le gestionnaire d’unités PCI remplaçables à chaud permet d’ajouter, d’identifier et de remplacer les cartes
PCI attribuées au serveur d’E-S virtuel.
Guide d’initiation
Prérequis :
v Pour installer une nouvelle carte, vous devez attribuer un emplacement vide du système à la partition
logique du serveur d’E-S virtuel. Vous pouvez effectuer cette tâche via le partitionnement logique
dynamique (DLPAR).
– Si vous utilisez une console HMC (Hardware Management) , vous devez également mettre à jour le
profil de partition logique du serveur d’E-S virtuel pour que la nouvelle carte soit configurée sur ce
serveur après le redémarrage du système.
– Si vous utilisez le gestionnaire Integrated Virtualization Manager, un emplacement vide est
probablement déjà affecté à la partition logique du serveur d’E-S virtuel, car, par défaut, tous les
emplacements sont affectés à ce serveur. Il suffit d’affecter un emplacement vide à la partition
logique du serveur d’E-S virtuel si vous avez déjà affecté tous les emplacements vides à d’autres
partitions logiques.
v Lorsque vous installez une nouvelle carte, veillez à installer les logiciels nécessaires à la prise en charge
de cette carte et les éventuelles modifications provisoires du logiciel (PTF) disponibles.
v Si vous avez besoin d’aide pour déterminer l’emplacement de la carte PCI, voir Positionnement d’une
carte PCI dans l’unité centrale ou l’unité d’extension, dans le manuel Positionnement d’une carte PCI.
Pour accéder au gestionnaire d’unités PCI remplaçables à chaud du serveur d’E-S virtuel, procédez
comme suit :
1. Si vous utilisez le gestionnaire Integrated Virtualization Manager, connectez-vous à l’interface de ligne
de commande.
2. Utilisez la commande diagmenu pour ouvrir le menu de diagnostic du serveur d’E-S virtuel. Les
menus sont similaires aux menus de diagnostic de AIX.
3. Sélectionnez Sélection des tâches, et appuyez sur Entrée.
4. Dans la liste Sélection des tâches, sélectionnez Gestionnaire d’unités PCI remplaçables à chaud.
Installation d’une carte PCI
Pour installer une carte PCI sur le serveur d’E-S virtuel lorsque le système est sous-tension, procédez
comme suit :
1. Dans le gestionnaire d’unités PCI remplaçables à chaud, sélectionnez Ajouter une carte PCI
remplaçable à chaud et appuyez sur Entrée. La fenêtre d’ajout de carte PCI remplaçable à chaud
s’affiche.
2. Sélectionnez l’emplacement PCI vide approprié dans la liste et appuyez sur Entrée. Lorsque
l’emplacement est identifié, il est signalé par un voyant orange qui clignote rapidement à l’arrière du
serveur.
3. Suivez les instructions indiquées à l’écran pour installer la carte, ensuite le voyant de l’emplacement
PCI choisi doit passer à l’état d’action. L’installation de la carte, similaire à la procédure effectuée sur
une partition logique autonome AIX, comporte les étapes suivantes :
a. Voyant de la carte à l’état d’action : clignotement du voyant de l’emplacement de la carte
b. Installation physique de la carte
c. Fin de la tâche d’installation de la carte avec diagmenu.
4. Lancez la commande cfgdev pour configurer l’unité du serveur d’E-S virtuel.
124
Guide d’utilisation de PowerVM Editions
Si vous installez une carte PCI Fibre Channel, elle est alors prête à être reliée à un réseau de stockage
(SAN) et des LUN sont attribués au serveur d’E-S virtuel pour la virtualisation.
Remplacement d’une carte PCI
Prérequis : Avant de retirer ou de remplacer une carte de mémoire, vous devez annuler sa configuration.
Pour plus d’informations, voir «Annulation de la configuration d’une carte de mémoire».
Pour remplacer une carte PCI sur le serveur d’E-S virtuel lorsque le système est sous-tension, procédez
comme suit :
1. Dans le gestionnaire d’unités PCI remplaçables à chaud, sélectionnez Déconfiguration d’une unité et
appuyez sur Entrée.
2. Appuyez sur F4 (ou Echap+4) pour afficher le menu Noms d’unités.
3. Sélectionnez la carte à retirer dans le menu Noms d’unités.
4. Dans la zone Conservation de la définition, répondez Oui à l’aide de la touche de tabulation. Dans
la zone Déconfiguration des unités filles, répondez OUI à l’aide de la touche de tabulation.
5. Appuyez sur Entrée pour vérifier les informations sur l’écran de confirmation de l’opération. Si
l’annulation de la configuration est correctement effectuée, le message OK s’affiche à côté de la zone
Commande en haut de l’écran.
6. Appuyez deux fois sur F4 (ou Echap+4) pour revenir au Gestionnaire d’unités remplaçables à chaud.
7. Sélectionnez Remplacement/Retrait d’une carte PCI remplaçable à chaud.
8. Sélectionnez l’emplacement duquel vous souhaitez retirer l’unité.
9. Sélectionnez remplacer. Lorsque l’emplacement est identifié, il est signalé par un voyant orange qui
clignote rapidement à l’arrière de la machine.
10. Appuyez sur Entrée. La carte passe alors à l’état d’action, c’est-à-dire qu’elle peut être retirée du
système.
Annulation de la configuration d’une carte de mémoire
Avant de retirer ou de remplacer une carte de mémoire, vous devez annuler sa configuration. Les cartes
de mémoire sont en général des unités mères d’unités de stockage, telles que les unités de disque ou les
unités de bande. Pour retirer l’unité mère, il est nécessaire de retirer ou de placer à l’état Défini toutes les
unités filles connectées.
L’annulation de la configuration d’une carte de mémoire comporte les tâches suivantes :
v Fermer toutes les applications qui utilisent la carte à retirer, à remplacer ou à déplacer
v Démonter les systèmes de fichiers
v Vérifier que toutes les unités reliées à la carte ont été identifiées et arrêtées
v Répertorier tous les emplacements en cours d’utilisation ou l’emplacement occupé par une carte
particulière
v Identifier l’emplacement de la carte
v Rendre les unités mère et fille indisponibles
v Rendre la carte indisponible
Si la carte prend en charge les volumes physiques utilisés par une partition logique client, vous devrez
peut-être effectuer des opérations sur la partition logique client avant d’annuler la configuration de la
carte de mémoire. Pour plus d’informations, voir «Préparation des partitions logiques client», à la page
126. La carte peut être en cours d’utilisation lorsque, par exemple, le volume physique a été utilisé pour
créer une unité cible virtuelle ou fait partie d’un groupe de volumes utilisé pour créer une unité cible
virtuelle.
Chapitre 3. Serveur d’E-S virtuel
125
Pour annuler la configuration d’une carte de mémoire SCSI, SSA, et Fibre Channel, procédez comme
suit :
1. Connectez-vous à l’interface de ligne de commande du serveur d’E-S virtuel.
2. Exécutez la commande oem_setup_env pour fermer toutes les applications qui utilisent la carte pour
laquelle vous souhaitez annuler la configuration.
3. Entrez lsslot-c pci pour répertorier tous les emplacements remplaçables à chaud de l’unité centrale
et afficher leurs caractéristiques.
4. Entrez lsdev -C pour afficher l’état des unités de l’unité centrale.
5. Entrez unmount pour démonter les fichiers systèmes, les répertoires ou les fichiers montés qui utilisent
cette carte.
6. Entrez rmdev -l adapter -R pour rendre la carte indisponible.
Avertissement : N’utilisez pas l’option -d avec la commande rmdev pour effectuer des opérations
sur les unités remplaçables à chaud, car cette action supprime la configuration.
Préparation des partitions logiques client
Si les unités cibles virtuelles des partitions logiques client ne sont pas disponibles, cela peut faire échouer
ces partitions logiques ou leurs opérations d’E-S pour une application particulière. Si vous utilisez la
console HMC pour gérer le système, des partitions logiques du serveur d’E-S virtuel peuvent être
redondantes, ce qui permet la maintenance de ce serveur et évite toute immobilisation des partitions
logiques client. Lorsque vous remplacez une carte sur le serveur d’E-S virtuel, si votre partition logique
client dépend d’un ou plusieurs volumes physiques liés à cette carte, vous devrez peut-être effectuer des
opérations sur le client avant d’annuler la configuration de la carte.
Les unités cibles virtuelles doivent se trouver à l’état Défini avant le remplacement de la carte du serveur
d’E-S virtuel. Ne retirez pas les unités virtuelles de façon définitive.
Pour préparer des partitions logiques client en vue de l’annulation de la configuration d’une carte,
effectuez les opérations ci-après en fonction de votre contexte.
Tableau 32. Procédures de préparation de partitions logiques client en fonction du contexte
Contexte
Etapes
Vous disposez de matériel redondant pour la carte sur le
serveur d’E-S virtuel.
Aucune opération n’est requise sur la partition logique
client.
Systèmes gérés par la console HMC uniquement : Vous
disposez de partitions logiques redondantes sur le
serveur d’E-S virtuel qui, associées à des cartes client
virtuelles, offrent plusieurs chemins d’accès au volume
physique de la partition logique client.
Aucune opération n’est requise sur la partition logique
client. Cependant, des erreurs de chemin d’accès peuvent
y être consignées.
Systèmes gérés par la console HMC uniquement : Vous
disposez de partitions logiques redondantes sur le
serveur d’E-S virtuel qui, associées à des cartes client
virtuelles, offrent plusieurs volumes physiques qui
permettent de mettre en miroir un groupe de volumes.
Consultez les procédures relatives au système
d’exploitation du client.
126
Guide d’utilisation de PowerVM Editions
Tableau 32. Procédures de préparation de partitions logiques client en fonction du contexte (suite)
Contexte
Etapes
Vous n’avez pas de partitions logiques redondantes sur
le serveur d’E-S virtuel.
Arrêtez la partition logique client.
Pour plus d’informations, voir les rubriques suivantes
relatives à l’arrêt des partitions logiques :
v Pour les systèmes gérés par la console HMC, voir
«Arrêt de partitions logiques AIX à l’aide de la console
HMC» et «Arrêt de partitions logiques Linux à l’aide
de la console HMC» dans Guide de partitionnement
logique.1
v Pour les systèmes gérés par le gestionnaire Integrated
Virtualization Manager, voir «Arrêt des partitions
logiques», à la page 205.
Remarque :
1. Pour consulter le fichier PDF Guide de partitionnement logique (SA11-1696), d’une taille approximative de 3 Mo,
voir sa76-0098.pdf
.
Affichage des informations et des statistiques sur le serveur d’E-S
virtuel, sur le serveur et sur les ressources virtuelles
Vous pouvez afficher des informations et des statistiques sur le serveur d’E-S virtuel, sur le serveur et sur
les ressources virtuelles, pour pouvoir mieux gérer et contrôler le système, et résoudre les incidents.
Le tableau suivant récapitule les informations et statistiques disponibles sur le serveur d’E-S virtuel, ainsi
que les commandes que vous devez exécuter pour les afficher.
Tableau 33. Informations et commandes associées pour le serveur d’E-S virtuel
Informations à afficher
Commande
Statistiques relatives aux unités d’exécution du noyau, à
la mémoire virtuelle, aux disques, aux interruptions et à
l’activité du processeur.
vmstat
Statistiques relatives à un pilote de périphérique Fibre
Channel.
fcstat
Résumé de l’utilisation de la mémoire virtuelle.
svmon
Informations relatives au serveur d’E-S virtuel et au
serveur, comme le modèle de serveur, l’ID machine, l’ID
et le nom de la partition serveur d’E-S virtuel, et le
numéro du réseau local.
uname
Chapitre 3. Serveur d’E-S virtuel
127
Tableau 33. Informations et commandes associées pour le serveur d’E-S virtuel (suite)
Informations à afficher
Commande
Statistiques génériques et spécifiques pour un pilote ou
périphérique Ethernet, notamment les informations
suivantes pour une carte de réseau Ethernet partagée :
enstat
v Statistiques relatives à une carte de réseau Ethernet
partagée :
– Nombre de cartes réelles et virtuelles (si vous
utilisez la fonction de reprise par transfert de carte
de réseau Ethernet partagée, ce nombre n’inclut pas
la carte du canal de contrôle)
– Options relatives à une carte de réseau Ethernet
partagée
– ID VLAN
– Informations sur les cartes réelles et virtuelles
v Statistiques sur la reprise par transfert de carte de
réseau Ethernet partagée :
– Statistiques sur la haute disponibilité
– Types de paquet
– Etat de la carte de réseau Ethernet partagée
– Mode de pontage
v Statistiques sur le protocole GVRP (GARP VLAN
Registration Protocol) :
– Statistiques sur les unités BPDU (Bridge Protocol
Data Unit)
– Statistiques sur le protocole GARP (Generic
Attribute Registration Protocol)
– Statistiques sur le protocole GVRP (GARP VLAN
Registration Protocol)
v Liste des statistiques de chaque carte associée à la
carte de réseau Ethernet partagée
Les commandes vmstat, fcstat, svmon, et uname sont disponibles avecserveur d’E-S virtuel version 1.5 ou
ultérieure.
Surveillance du serveur d’E-S virtuel
Vous pouvez surveiller le serveur d’E-S virtuel à l’aide des journaux des erreurs ou de l’agent Tivoli
Monitoring.
Journaux d’erreurs
Les partitions logiques client AIX et Linux consignent les erreurs d’E-S. Normalement, les erreurs
matérielles survenant sur les partitions logiques client associées à des unités virtuelles correspondent à
des erreurs consignées sur le serveur. Toutefois, si l’incident se produit au sein de la partition logique
client, aucune erreur n’est signalée sur le serveur. En outre, sur les partitions logiques client Linux, si
l’algorithme correspondant aux relances après des erreurs temporaires SCSI est différent de celui utilisé
par AIX, les erreurs risquent de ne pas être enregistrées sur le serveur.
Tivoli Monitoring
Avec le serveur d’E-S virtuel V1.3.0.1 (groupe de correctifs 8.1), vous pouvez installer et configurer l’agent
Tivoli Monitoring System Edition sur le serveur d’E-S virtuel. Tivoli Monitoring System Edition permet
128
Guide d’utilisation de PowerVM Editions
de surveiller la santé et la disponibilité de plusieurs serveurs (y compris le serveur d’E-S virtuel) à partir
du portail Tivoli Enterprise. Tivoli Monitoring System Edition regroupe les données du serveur d’E-S
virtuel, notamment les données relatives aux volumes physiques, aux volumes logiques, aux pools de
stockage, aux mappages de mémoire, aux mappages de réseau, à la mémoire réelle, aux ressources de
processeur, à la taille des systèmes de fichiers montés, etc. A partir du portail Tivoli Enterprise, vous
pouvez afficher une représentation graphique des données, utiliser des seuils prédéfinis afin de recevoir
des alertes sur les mesures clés et résoudre les problèmes en fonction des recommandations fournies par
la fonction Expert Advice de l’agent Tivoli Monitoring.
Sécurité sur le serveur d’E-S virtuel
Familiarisez-vous avec les dispositifs de sécurité du serveur d’E-S virtuel.
A partir de la version 1.3 du serveur d’E-S virtuel, vous pouvez définir des options de sécurité qui offrent
des contrôles de sécurité renforcés dans l’environnement du serveur d’E-S virtuel. Ces options permettent
de sélectionner un niveau de renforcement de la sécurité du système et d’indiquer les paramètres admis
dans ce niveau. Le dispositif de sécurité du serveur d’E-S virtuel permet également de contrôler le trafic
réseau en activant le pare-feu du serveur d’E-S virtuel. Vous pouvez configurer ces options à l’aide de la
commande viosecure. Pour vous aider à configurer la sécurité système lors de l’installation initiale du
serveur d’E-S virtuel, vous pouvez profiter du menu d’assistance de configuration duserveur d’E-S
virtuel. Pour accéder au menu d’assistance de la configuration, exécutez la commande cfgassist.
A l’aide de la commande viosecure, vous pouvez définir, modifier et afficher les paramètres de sécurité
en cours. Par défaut, aucun niveau de sécurité n’est défini pour le serveur d’E-S virtuel. Vous devez
exécuter la commande viosecure pour modifier les paramètres.
Les sections suivantes décrivent ces dispositifs.
Renforcement de la sécurité du système du serveur d’E-S virtuel
Le dispositif de renforcement de la sécurité du système protège tous ses éléments en durcissant les règles
de sécurité ou en implémentant un niveau de sécurité plus élevé. Bien que des centaines de
configurations de la sécurité soient possibles avec les paramètres de sécurité du serveur d’E-S virtuel,
vous pouvez facilement mettre en place des contrôles de sécurité en indiquant un niveau de sécurité
haut, moyen ou faible.
A l’aide des dispositifs de renforcement de la sécurité du système fournis par le serveur d’E-S virtuel,
vous pouvez entrer des valeurs comme suit :
v Règles sur les mots de passe
v Actions usrck, pwdck, grpck et sysck
v Paramètres de création de fichier par défaut
v Paramètres inclus dans la commande crontab
La configuration d’un système à un niveau de sécurité trop élevé risque de provoquer le rejet d’un
service utile. Par exemple, telnet et rlogin sont désactivés pour le niveau de sécurité élevé car le mot de
passe de connexion transmis n’est pas chiffré sur le réseau. Si un système est configuré à un niveau de
sécurité trop faible, le système peut être vulnérable aux menaces contre la sécurité. Etant donné que
chaque entreprise possède ses propres exigences relatives à la sécurité, les paramètres de sécurité Elevé,
Moyen et Faible prédéfinis sont mieux adaptés comme point de départ d’une configuration de la sécurité
qu’une réponse précise aux besoins d’une entreprise en particulier en matière de sécurité. Lorsque vous
serez familiarisé avec les paramètres de sécurité, vous pourrez effectuer des ajustements en choisissant les
règles de renforcement qu’il convient d’appliquer. Vous pouvez obtenir des informations sur les règles de
renforcement en exécutant la commande man.
Chapitre 3. Serveur d’E-S virtuel
129
Pare-feu du serveur d’E-S virtuel
A l’aide du pare-feu de serveur d’E-S virtuel, vous pouvez instaurer des limites sur l’activité IP dans
votre environnement virtuel. Cette fonction vous permet d’indiquer quels ports et services réseau sont
autorisés à accéder au système du serveur d’E-S virtuel. Par exemple, si vous devez restreindre l’activité
de connexion depuis un port non autorisé, vous pouvez indiquer le nom ou le numéro du port et
indiquer l’option deny pour le retirer de la liste des éléments autorisés. Vous pouvez également
restreindre une adresse IP.
Connexion au serveur d’E-S virtuel à l’aide d’OpenSSH
Vous pouvez établir des connexions distantes au serveur d’E-S virtuel à l’aide de connexions sécurisées.
Vous pouvez utiliser les logiciels Open Source Secure Sockets Layer (OpenSSL) et Portable Secure Shell
(OpenSSH) pour vous connecter au serveur d’E-S virtuel à l’aide de connexions sécurisées. Pour plus
d’informations sur OpenSSL et OpenSSH, consultez les sites Web OpenSSL Project et Portable SSH.
Pour se connecter au serveur d’E-S virtuel à l’aide d’OpenSSH, procédez comme suit :
1. Si vous utilisez une version du serveur d’E-S virtuel antérieure à la version 1.3.0, installez OpenSSH
avant de vous connecter. Pour plus d’informations, voir «Téléchargement, installation et mise à jour
d’OpenSSH et OpenSSL», à la page 131.
2. Connectez-vous au serveur d’E-S virtuel. Si vous utilisez la version 1.3.0 ou une version ultérieure,
connectez-vous à l’aide d’une commande shell interactive ou non interactive. Si vous utilisez une
version antérieure à 1.3.0, connectez-vous uniquement à l’aide d’une commande shell interactive.
v Pour vous connecter à l’aide d’une commande shell interactive, entrez la commande suivante sur la
ligne de commande d’un système distant :
ssh username@vioshostname
où username désigne votre nom d’utilisateur pour le serveur d’E-S virtuel et vioshostname le nom du
serveur d’E-S virtuel.
v Pour vous connecter au moyen d’une commande shell non interactive, exécutez la commande
suivante :
ssh username@vioshostname command
Où :
– username désigne votre nom d’utilisateur du serveur d’E-S virtuel.
– vioshostname désigne le nom du serveur d’E-S virtuel.
– command est la commande que vous souhaitez exécuter. Par exemple, ioscli lsmap -all.
Remarque : Si vous utilisez une commande shell non interactive, pensez à utiliser la commande
complète (avec le préfixe ioscli) pour tous les commandes fr serveur d’E-S virtuel.
3. Authentifiez-vous auprès de SSH. Si vous utilisez la version 1.3.0 ou une version ultérieure,
authentifiez-vous à l’aide de mots de passe ou de clés. Si vous utilisez une version antérieure à 1.3.0,
authentifiez-vous uniquement à l’aide de mots de passe.
v Pour ce faire, entrez votre nom d’utilisateur et mot de passe lorsque le client SSH vous y invite.
v Pour vous authentifier à l’aide de clés, procédez comme suit dans le système d’exploitation du
client SSH :
a. Créez un répertoire appelé $HOME/.ssh destiné à contenir les clés. Vous pouvez utiliser des
clés RSA ou DSA.
b. Exécutez la commande ssh-keygen pour générer des clés publiques et privées. Par exemple :
ssh-keygen -t rsa
130
Guide d’utilisation de PowerVM Editions
Les fichiers ci-dessous sont créés dans le répertoire $HOME/.ssh :
– Clé privée : id_rsa
– Clé publique : id_rsa.pub
c. Exécutez la commande suivante pour ajouter la clé publique au fichier authorized_keys2 sur le
serveur d’E-S virtuel :
cat $HOME/.ssh/public_key_file | ssh username@vioshostname tee -a /home/username/.ssh/authorized_keys2
Où :
– public_key_file est le fichier de clé publique généré à l’étape précédente. Par exemple,
id_rsa.pub.
– username désigne votre nom d’utilisateur du serveur d’E-S virtuel.
– vioshostname désigne le nom du serveur d’E-S virtuel.
Le serveur d’E-S virtuel peut ne pas inclure la version la plus récente d’OpenSSH ou OpenSSL avec
chaque édition. Il est également possible que des mises à jour d’OpenSSH ou OpenSSL soient diffusées
entre les éditions serveur d’E-S virtuel. Dans ces situations, vous pouvez mettre à jour OpenSSH et
OpenSSL sur le serveur d’E-S virtuel en téléchargeant et installant OpenSSH et OpenSSL. Pour plus
d’informations, voir «Téléchargement, installation et mise à jour d’OpenSSH et OpenSSL».
Téléchargement, installation et mise à jour d’OpenSSH et OpenSSL
Si vous utilisez un serveur d’E-S virtuel dont la version est antérieure à 1.3, vous devez télécharger et
installer les logiciels OpenSSH et OpenSSL pour être en mesure de vous connecter au serveur d’E-S
virtuel à l’aide de l’outil OpenSSH. Vous pouvez également appliquer cette procédure pour mettre à jour
OpenSSH et OpenSSL sur le serveur d’E-S virtuel.
Une mise à jour d’OpenSSH et OpenSSL peut être nécessaire sur votre serveur d’E-S virtuel si le serveur
d’E-S virtuel n’intégrait pas la version la plus récente, ou en cas de publication de nouvelles mises à jour
entre les diffusions de serveur d’E-S virtuel. Dans ces situations, vous pouvez mettre à jour OpenSSH et
OpenSSL sur le serveur d’E-S virtuel, en téléchargeant et installant OpenSSH et OpenSSL, comme suit.
Pour plus d’informations sur OpenSSL et OpenSSH, accédez aux sites Web OpenSSL Project et Portable
SSH.
Téléchargement des logiciels Open Source :
Le logiciel OpenSSL contient la bibliothèque chiffrée nécessaire pour utiliser le logiciel OpenSSH. Pour
télécharger le logiciel, procédez comme suit :
1. Téléchargez le module RPM OpenSSL sur votre poste de travail ou votre ordinateur hôte.
a. Pour obtenir le module RPM, connectez-vous au site Web AIX Toolbox for Linux Applications et
cliquez sur le lien AIX Toolbox Cryptographic Content situé à droite de la page Web.
b. Si vous êtes autorisé à télécharger les modules RPM, enregistrez-vous et acceptez les termes du
contrat de licence.
c. Si vous n’êtes pas autorisé à télécharger les modules RPM, suivez la procédure d’enregistrement et
acceptez les termes du contrat de licence. Une fois enregistré, vous êtes redirigé sur la page de
téléchargement.
d. Sélectionnez la version du module suivant à télécharger : openssl - Secure Sockets Layer and
cryptography libraries and tools puis cliquez sur Download Now pour lancer le téléchargement.
2. Pour télécharger le logiciel OpenSSH, procédez comme suit :
Remarque : Vous pouvez également installer le logiciel à partir du logiciel AIX Expansion Pack.
a. A partir de votre poste de travail (ou ordinateur hôte de téléchargement), accédez au site Web
SourceFORGE.net.
b. Cliquez sur Download OpenSSH on AIX pour afficher les dernières versions du fichier.
Chapitre 3. Serveur d’E-S virtuel
131
c. Sélectionnez le module à télécharger correspondant et cliquez sur Download.
d. Cliquez sur le module openssh (fichier tar.Z) pour continuer le téléchargement.
3. Créez un répertoire sur le serveur d’E-S virtuel destiné à contenir les fichiers du logiciel Open Source.
Par exemple, pour créer un répertoire d’installation appelé install_ssh, exécutez la commande
suivante : mkdir install_ssh.
4. Transférez les fichiers sur le serveur d’E-S virtuel en exécutant les commandes FTP (File Transfer
Protocol) sur l’ordinateur sur lequel vous avez téléchargé les fichiers :
a. Assurez-vous que le serveur FTP est démarré sur le serveur d’E-S virtuel en exécutant la
commande suivante : startnetsvc ftp
b. Ouvrez une session FTP sur le serveur d’E-S virtuel de votre système hôte local : ftp
vios_server_hostname, vios_server_hostname étant le nom d’hôte du serveur d’E-S virtuel.
c. A l’invite FTP, accédez au répertoire d’installation que vous avez créé pour les fichiers Open
Source : cd install_ssh, où install_ssh correspond au répertoire qui contient les fichiers Open
Source.
d. Paramétrez le mode de transfert sur binaire : binary
e. Désactivez l’invite en mode interactif (si actif) : prompt
f. Transférez le logiciel téléchargé sur le serveur d’E-S virtuel : mput ssl_software_pkg, où
ssl_software_pkg correspond au logiciel que vous avez téléchargé.
g. Fermez la session FTP, après avoir transféré les deux logiciels, en entrant la commande quit.
Installation du logiciel Open Source sur le serveur d’E-S virtuel :
Pour installer le logiciel, procédez comme suit :
1. Exécutez la commande suivante sur la ligne de commande suivante serveur d’E-S virtuel : updateios
-dev install_ssh -accept -install, où install_ssh correspond au répertoire qui contient les fichiers
Open Source. Le programme d’installation démarre automatiquement le démon Secure Shell (sshd)
sur le serveur.
2. Commencez à utiliser les commandes ssh et scp ; aucune autre tâche de configuration n’est
nécessaire.
Restrictions :
v La commande sftp n’est pas prise en charge sur les versions du serveur d’E-S virtuel antérieures à
1.3.
v Les commandes shell non interactives ne sont pas prises en charge avec OpenSSH si vous utilisez
une version du serveur d’E-S virtuel antérieure à 1.3.
Configuration du renforcement de la sécurité du système de serveur
d’E-S virtuel
Définissez le niveau de sécurité afin d’indiquer les règles de renforcement de la sécurité pour le système
de serveur d’E-S virtuel.
Pour implémenter des règles de sécurité du système, vous pouvez utiliser la commande viosecure pour
indiquer un niveau de sécurité élevé, moyen ou faible. Un ensemble de règles par défaut est défini pour
chaque niveau. Vous pouvez également définir un niveau par défaut, qui rétablit les paramètres standard
du système et supprime les paramètres de niveau appliqués.
Les paramètres de sécurité de niveau faible constituent un sous-ensemble des paramètres de sécurité de
niveau moyen, qui représentent eux-mêmes un sous-ensemble des paramètres de sécurité de niveau
élevé. Ainsi, le niveau élevé est le plus restrictif et offre le niveau de contrôle le plus important. Vous
pouvez appliquer toutes les règles d’un niveau indiqué ou sélectionner les règles à activer pour votre
environnement. Par défaut, aucun niveau de sécurité n’est défini pour le serveur d’E-S virtuel. Vous
devez exécuter la commande viosecure pour modifier les paramètres.
132
Guide d’utilisation de PowerVM Editions
Suivez la procédure ci-après pour configurer les paramètres de sécurité du système :
Définition d’un niveau de sécurité
Pour définir un niveau de sécurité élevé, moyen ou faible pour le serveur d’E-S virtuel, utilisez la
commande viosecure -level. Exemple :
viosecure -level low -apply
Modification des paramètres dans un niveau de sécurité
Pour définir un niveau de sécurité dans lequel vous indiquez les règles de renforcement à appliquer pour
le paramètre, exécutez la commande viosecure. Exemple :
1. Sur la ligne de commande du serveur d’E-S virtuel, entrez viosecure -level high. Toutes les options
de niveau de sécurité (règles de renforcement) de ce niveau s’affichent par groupes de dix (en
appuyant sur Entrée, le groupe suivant s’affiche).
Passez en revue les options affichées et effectuez votre sélection en entrant les numéros, séparés par
une virgule, que vous voulez appliquer. Vous pouvez entrer ALL pour appliquer toutes les options ou
NONE pour en appliquer aucune.
3. Appuyez sur la touche Entrée pour afficher le groupe d’options suivant et continuez votre sélection.
2.
Remarque : Pour quitter la commande sans effectuer de modifications, entrez «q».
Affichage des paramètres de sécurité en cours
Pour afficher le paramètre de niveau de sécurité du serveur d’E-S virtuel en cours, utilisez la commande
viosecure avec l’indicateur -view. Exemple :
viosecure -view
Suppression des paramètres de niveau de sécurité
v Pour annuler la définition des niveaux de sécurité du système et rétablir les paramètres par défaut du
système, exécutez la commande suivante : viosecure -level default
v Pour supprimer les paramètres de sécurité qui ont été appliqués, exécutez la commande viosecure
-undo
Configuration des paramètres du pare-feu du serveur d’E-S virtuel
Activez le pare-feu du serveur d’E-S virtuel pour contrôler l’activité IP.
Le pare-feu du serveur d’E-S virtuel n’est pas activé par défaut. Pour activer le pare-feu du serveur d’E-S
virtuel, vous devez utiliser la commande viosecure en spécifiant l’option -firewall. Lorsque vous activez
le pare-feu, le paramètre par défaut qui permet d’accéder aux services suivants est activé :
v ftp
v ftp-data
v ssh
v web
v https
v rmc
v cimom
Remarque : Les paramètres du pare-feu sont contenus dans le fichier viosecure.ctl situé dans le répertoire
/home/ios/security. Si pour une raison quelconque, le fichier viosecure.ctl n’existe pas lorsque vous
exécutez la commande permettant d’activer le pare-feu, vous recevez un message d’erreur. Vous pouvez
utiliser l’option -force pour activer les ports par défaut du pare-feu.
Vous pouvez utiliser les paramètres par défaut ou configurer les paramètres du pare-feu afin de les
adapter à votre environnement en indiquant les ports ou les services de port à autoriser. Vous pouvez
désactiver le pare-feu pour désactiver les paramètres.
Chapitre 3. Serveur d’E-S virtuel
133
Utilisez la procédure suivante sur la ligne de commande du serveur d’E-S virtuel pour configurer les
paramètres du pare-feu :
1. Activez le pare-feu du serveur d’E-S virtuel en exécutant la commande suivante :
viosecure -firewall on
2. Indiquez les ports à autoriser ou à refuser à l’aide de la commande suivante :
viosecure -firwall allow | deny -port number
3. Affichez les paramètres actuels du pare-feu à l’aide de la commande suivante :
viosecure -firewall view
4. Pour désactiver la configuration du pare-feu, exécutez la commande suivante :
viosecure -firewall off
Configuration d’un client Kerberos sur le serveur d’E-S virtuel
Vous pouvez configurer un client Kerberos sur le serveur d’E-S virtuel pour améliorer la sécurité des
communications sur Internet.
Avant de commencer, assurez-vous que vous disposez de la version 1.5 (ou d’une version supérieure) du
serveur d’E-S virtuel.
Kerberos est un protocole d’authentification réseau qui fournit aux applications serveur et client une
fonction d’authentification utilisant le chiffrement à clé confidentielle. Il traite les communications
authentifiées et éventuellement chiffrées entre deux points sur Internet. L’authentification Kerberos
fonctionne généralement comme suit :
1. Un client Kerberos envoie une demande de ticket au centre de distribution de clés.
2. Le centre crée un ticket d’octroi d’autorisation pour le client et le chiffre en utilisant comme clé le mot
de passe du client.
3. Le centre renvoie le ticket chiffré au client.
4. Le client tente ensuite de déchiffrer le ticket à l’aide de son mot de passe.
5. S’il parvient à le déchiffrer (par exemple, s’il fournit le mot de passe correct), il conserve le ticket
déchiffré. Le ticket constitue la preuve de l’identité du client.
Pour configurer un client Kerberos sur le serveur d’E-S virtuel, exécutez la commande suivante :
mkkrb5clnt -c KDC_server -r realm_name \ -s Kerberos_server -d Kerberos_client
Où :
v KDC_server est le nom du serveur KDC.
v realm_name est le nom du domaine dans lequel vous voulez configurer le client Kerberos.
v Kerberos_server est le nom de système hôte qualifié complet du serveur Kerberos.
v Kerberos_client est le nom du domaine du client Kerberos.
Exemple :
mkkrb5clnt -c bob.kerberso.com -r KERBER.COM \ -s bob.kerberso.com -d testbox.com
Dans cet exemple, le client Kerberos, testbox.com, est configuré vers le serveur Kerberos,
bob.kerberso.com. Le centre de distribution de clés s’exécute sur bob.kerberso.com.
Gestion des utilisateurs sur le serveur d’E-S virtuel
Vous pouvez créer, répertorier, modifier, commuter et supprimer des utilisateurs à l’aide du serveur d’E-S
virtuel ou du gestionnaire Tivoli Identity Manager.
134
Guide d’utilisation de PowerVM Editions
Si le serveur d’E-S virtuel est installé, le seul type d’utilisateur actif est l’administrateur principal
(padmin). Ce dernier peut créer d’autres ID utilisateur de type administrateur système, technicien de
maintenance ou ingénieur de développement.
Remarque : Vous n’êtes pas autorisé à créer l’ID utilisateur d’administrateur principal (padmin). Il est
créé et activé automatiquement une fois le serveur d’E-S virtuel installé.
Le tableau suivant récapitule les tâches de gestion des utilisateurs disponibles sur le serveur d’E-S virtuel,
ainsi que les commandes que vous devez exécuter pour effectuer chaque tâche.
Tableau 34. Tâches et commandes de gestion des utilisateurs du serveur d’E-S virtuel
Tâche
commande
Modification de mots de passe
cfgassist
Création d’un ID utilisateur administrateur système
Commande mkuser
Création d’un ID utilisateur technicien de maintenance
mkuser avec l’option -sr
Création d’un ID utilisateur ingénieur de développement mkuser avec l’option -de
Création d’un utilisateur LDAP
mkuser avec l’option -ldap
Récapitulatif des attributs d’utilisateur
lsuser
Par exemple, déterminer si un utilisateur est un
utilisateur LDAP.
Modification des attributs d’un utilisateur
chuser
Changement d’utilisateur
su
Suppression d’un utilisateur
Commande rmuser
Vous pouvez utiliser Tivoli Identity Manager pour automatiser la gestion des utilisateurs du serveur
d’E-S virtuel. Tivoli Identity Manager fournit une carte de serveur d’E-S virtuel qui opère en tant
qu’interface entre le serveur d’E-S virtuel et le serveur Tivoli Identity Manager. La carte opère en tant
qu’administrateur virtuel de confiance sur le serveur d’E-S virtuel, en exécutant des tâches semblables
aux suivantes :
v Création d’un ID utilisateur pour autoriser l’accès au serveur d’E-S virtuel.
v Modification d’un ID utilisateur pour accéder au serveur d’E-S virtuel.
v Suppression de l’accès d’un ID utilisateur. Cette action supprime l’ID utilisateur du serveur d’E-S
virtuel.
v Suspension d’un compte utilisateur en désactivant temporairement l’accès au serveur d’E-S virtuel.
v Restauration d’un compte utilisateur en réactivant l’accès au serveur d’E-S virtuel.
v Modification du mot de passe d’un compte utilisateur sur le serveur d’E-S virtuel.
v Réconciliation des informations de tous les utilisateurs en cours sur le serveur d’E-S virtuel.
v Réconciliation des informations d’un compte utilisateur donné sur le serveur d’E-S virtuel par le biais
d’une recherche.
Pour plus d’informations, voir les manuels des produits Tivoli Identity Manager.
Identification et résolution des incidents liés au serveur d’E-S virtuel
Cette rubrique fournit des informations sur le diagnostic et la résolution des problèmes liés au serveur
d’E-S virtuel.
Chapitre 3. Serveur d’E-S virtuel
135
Cette section contient des informations sur l’identification et la résolution des incidents liés au serveur
d’E-S virtuel. Pour plus d’informations sur l’identification et la résolution des incidents liés à Integrated
Virtualization Manager, voir «Identification et résolution des incidents liés au gestionnaire Integrated
Virtualization Manager», à la page 224.
Identification et résolution des incidents liés à la partition logique du
serveur d’E-S virtuel
Informations et procédures d’identification et de résolution des incidents liés à la partition logique du
serveur d’E-S virtuel.
Identification et résolution des problèmes liés à l’interface SCSI virtuelle
Informations et procédures d’identification et de résolution des incidents liés à l’interface SCSI virtuelle
du serveur d’E-S virtuel.
Pour identifier et résoudre les incidents, utilisez la commande diagmenu fournie par le serveur d’E-S
virtuel.
Si vous rencontrez encore des incidents après l’utilisation de la commande diagmenu, contactez le service
de support technique pour obtenir de l’aide.
Voir la documentation relative à l’isolement rapide des incidents à l’adresse AIX
disponible dans les
informations du fournisseur de services. Il peut arriver que les procédures décrites dans la documentation
relative à l’isolement rapide des incidents sous AIX ne soient pas disponibles à partir du menu de la
commande diagmenu.
Résolution de l’échec de configuration d’une carte de réseau Ethernet partagée
Vous pouvez résoudre les erreurs qui se produisent lorsque vous configurez une carte de réseau Ethernet
partagée (par exemple les erreurs qui génèrent le message 0514-040) en utilisant les commandes lsdev,
netstat et entstat.
Lorsque vous configurez une carte de réseau Ethernet partagée, la configuration peut échouer en
générant l’erreur suivante :
Method error (/usr/lib/methods/cfgsea):
0514-040 Error initializing a device into the kernel.
Pour corriger l’incident, procédez comme suit :
1. Assurez-vous que les cartes physiques et virtuelles utilisées pour créer l’unité Ethernet partagée sont
disponibles en exécutant la commande suivante :
lsdev -type adapter
2. Assurez-vous que la carte physique n’est pas configurée. Exécutez la commande suivante :
netstat -state
La carte ne doit pas figurer dans la sortie.
3. Vérifiez que les cartes virtuelles sont des cartes de ligne réseau (Trunk) en exécutant la commande
suivante :
entstat -all entX | grep Trunk
4. Vérifiez que l’unité physique et les cartes virtuelles de la carte de réseau Ethernet partagée
correspondent au paramètre de déchargement de la somme de contrôle (checksum offload).
a. Pour déterminer le paramètre de déchargement de la somme de contrôle, sur l’unité physique,
exécutez la commande suivante :
lsdev -dev nom_unité -attr chksum_offload
136
Guide d’utilisation de PowerVM Editions
où nom_unité est le nom de l’unité physique. Par exemple, ent0.
b. Si la valeur de chksum_offload est yes, activez le déchargement de la somme de contrôle pour
toutes les cartes virtuelles de la carte de réseau Ethernet partagée en exécutant la commande
suivante :
chdev -dev nom_unité -attr chksum_offload=yes
où nom_unité est le nom d’une carte virtuelle de la carte de réseau Ethernet partagée. Par exemple,
ent2.
c. Si la valeur de chksum_offload est no, désactivez le déchargement de la somme de contrôle pour
toutes les cartes virtuelles de la carte de réseau Ethernet partagée en exécutant la commande
suivante :
chdev -dev nom_unité -attr chksum_offload=no
où nom_unité est le nom d’une carte virtuelle de la carte de réseau Ethernet partagée.
d. Si la commande ne génère aucune sortie, cela signifie que l’unité physique ne prend pas en charge
le déchargement de la somme de contrôle et par conséquent ne comporte pas cet attribut. Pour
résoudre l’erreur, désactivez le déchargement de la somme de contrôle pour toutes les cartes
virtuelles de la carte de réseau Ethernet partagée en exécutant la commande suivante :
chdev -dev nom_unité -attr chksum_offload=no
où nom_unité est le nom d’une carte virtuelle de la carte de réseau Ethernet partagée.
Résolution des incidents de connectivité Ethernet
Vous pouvez identifier les incidents liés à la connectivité Ethernet en examinant les statistiques Ethernet
générées par la commande entstat. Vous avez ensuite la possibilité de résoudre ces incidents à l’aide des
commandes starttrace et stoptrace.
Pour résoudre les incidents liés à la connectivité Ethernet, procédez comme suit :
1. Vérifiez que la partition logique client source peut émettre une commande ping vers une autre
partition logique client sur le même système sans passer par le serveur d’E-S virtuel. Si cette
commande échoue, l’incident est probablement lié à la configuration Ethernet virtuelle de la partition
logique client. Si la commande ping aboutit, passez à l’étape suivante.
2. Lancez une commande ping à partir de la partition logique source vers une machine cible de manière
à ce que les paquets soient envoyés via le serveur d’E-S virtuel. Cette commande échouera
probablement. Passez alors à l’étape suivante de l’exécution de test ping.
3. Sur le serveur d’E-S virtuel, entrez la commande suivante :
entstat –all carte_Ethernet_partagée
où carte_Ethernet_partagée est le nom de votre carte de réseau Ethernet partagée.
4. Vérifiez que l’ID VLAN de la partition logique est associé à la carte virtuelle correcte dans la section
″VLAN IDs″ de la sortie. Recherchez dans ETHERNET STATISTICS la carte virtuelle correspondant à ce
réseau local virtuel (VLAN) et vérifiez que les nombres de paquets dans la colonne Receive
statistics augmentent.
Vous vous assurez ainsi que les paquets sont reçus par le serveur d’E-S virtuel par le biais de la carte
appropriée. Si ce n’est pas le cas, l’incident est probablement lié à la configuration de la carte
virtuelle. Vérifiez les informations d’ID VLAN des cartes à l’aide de la console HMC (Hardware
Management).
5. Recherchez dans ETHERNET STATISTICS la carte physique correspondant à ce réseau local virtuel
(VLAN) et vérifiez que les nombres de paquets dans la colonne Transmit statistics diminuent. Vous
vous assurez ainsi que les paquets sont envoyés à partir du serveur d’E-S virtuel.
v Si ce nombre augmente, cela indique que les paquets ne sortent pas de la carte physique. Passez à
l’étape 6, à la page 138.
Chapitre 3. Serveur d’E-S virtuel
137
Si ce nombre n’augmente pas, cela indique que les paquets ne sortent pas de la carte physique.
L’utilitaire de trace système doit être utilisé pour poursuivre le débogage. Suivez les instructions de
l’étape 9 pour obtenir une trace système, des informations statistiques et la description de la
configuration. Contactez la maintenance et l’assistance client si vous devez effectuer des opérations
de débogage supplémentaires.
6. Vérifiez que la zone extérieure du système cible (sur le côté physique du serveur d’E-S virtuel) reçoit
les paquets et renvoie des réponses. Si ce n’est pas le cas, une carte physique inappropriée est associée
à la carte de réseau Ethernet partagée, ou le commutateur Ethernet n’est peut-être pas configuré
correctement.
v
7. Recherchez dans ETHERNET STATISTICS la carte physique correspondant à ce réseau local virtuel
(VLAN) et vérifiez que les nombres de paquets dans la colonne Receive statistics augmentent. Cette
étape vérifie que les réponses ping sont reçues par le serveur d’E-S virtuel. Si ce n’est pas le cas, le
commutateur peut être mal configuré.
8. Recherchez dans ETHERNET STATISTICS la carte virtuelle correspondant à ce réseau local virtuel
(VLAN) et vérifiez que les nombres de paquets dans la colonne Transmit statistics augmentent.
Cette étape vérifie que le paquet est transmis par le serveur d’E-S virtuel par le biais de la carte
virtuelle appropriée. Si ce n’est pas le cas, démarrez l’utilitaire de trace système. Suivez les
instructions de l’étape 9 pour obtenir une trace système, des informations statistiques et la description
de la configuration. Contactez la maintenance et l’assistance client si vous devez effectuer des
opérations de débogage supplémentaires.
9. Utilisez l’utilitaire de trace du serveur d’E-S virtuel pour résoudre les incidents de connectivité.
Démarrez la fonction de trace du système à l’aide de la commande starttrace en précisant l’ID point
d’ancrage de trace. L’ID point d’ancrage de trace de la carte de réseau Ethernet partagée est 48F.
Utilisez la commande stoptrace pour arrêter la fonction de trace. La commande cattracerpt permet de
lire le fichier journal trace, de formater les entrées de trace et d’écrire un rapport dans la sortie
standard.
Activation des shells non interactifs sur Virtual I/O Server, version 1.3 ou
supérieure
A l’issue de la mise à niveau du serveur d’E-S virtuel vers la version 1.3 ou une version ultérieure, vous
pouvez activer les commandes shell non interactives à l’aide de la commande startnetsvc.
Si vous avez installé OpenSSH sur un serveur d’E-S virtuel antérieur à la version 1.3, puis l’avez mis à
niveau vers la version 1.3 ou une version ultérieure, les commandes shell non interactives risquent de ne
pas fonctionner, car il est nécessaire de modifier le fichier de configuration SSH.
Pour activer les commandes shell non interactives dansserveur d’E-S virtuel 1.3 ou une version ultérieure,
exécutez la commande suivante à partir du client SSH :
ioscli startnetsvc ssh
Remarque : Vous pouvez exécuter la commande startnetsvc lorsque le service SSH est exécuté. La
commande semble échouer. Cependant elle est exécutée normalement.
Récupération lorsque les disques sont introuvables
Cette rubrique décrit comment opérer une récupération lorsque des disques ne sont pas affichés au cours
d’une tentative d’amorçage ou d’installation d’une partition logique client.
Il arrive parfois que le disque permettant d’installer la partition logique client ne puisse pas être localisé.
Dans ce cas, si le client est déjà installé, démarrez la partition logique client. Assurez-vous de disposer
des derniers niveaux de logiciel et de microprogramme. Puis assurez-vous que le numéro d’emplacement
de la carte serveur SCSI virtuelle correspond au numéro d’emplacement virtuel de la partition distante
de la carte client SCSI virtuelle.
1. Assurez-vous de disposer des dernières versions pour la console HMC (Hardware Management), les
microprogrammes et le serveur d’E-S virtuel. Procédez comme suit :
138
Guide d’utilisation de PowerVM Editions
a. Pour vous assurer que vous disposez du dernier niveau de la console HMC, voir le manuel Guide
d’installation et de configuration de la console HMC. Pour consulter le fichier PDF Guide d’installation
et de configuration de la console HMC (SA11-1682), d’une taille approximative de 3 Mo, voir
sa76-0084.pdf
.
b. Vérifiez que vous disposez du dernier microprogramme.
2. Vérifiez que le numéro d’emplacement de la carte serveur SCSI virtuelle est correctement mappé au
numéro d’emplacement distant de la partition logique client :
a. Dans la zone de navigation, développez Gestion de systèmes → Serveurs et cliquez sur le serveur
sur lequel se trouve la partition logique du serveur d’E-S virtuel.
b. Dans la zone Contenu, sélectionnez la partition logique duserveur d’E-S virtuel.
c. Cliquez sur Tâches, puis sélectionnez Propriétés.
d. Cliquez sur l’onglet Cartes virtuelles.
e. Cliquez sur Interface SCSI virtuelle.
f. Si les valeurs de la partition distante et de la carte distante sont N’importe quelle partition et
N’importe quel emplacement de partition, procédez comme suit :
v Développez Interface SCSI virtuelle, puis cliquez sur le numéro d’emplacement.
v Sélectionnez Connexion possible de la partition client sélectionnée uniquement.
v Entrez l’ID de partition logique client et la carte, puis cliquez sur OK
v Cliquez sur Interface SCSI virtuelle.
g. Enregistrez les valeurs de la partition distante et de la carte distante. Ces valeurs représentent la
partition logique client et le numéro d’emplacement de la carte SCSI virtuelle client qui peut se
connecter à la carte de serveur associée. Par exemple, les valeurs de la partition distante, de la
carte distante et de la carte sont les suivantes : AIX_client, 2, 3. Ces valeurs indiquent que la carte
SCSI virtuelle 2 sur la partition logique client AIX_client peut se connecter à la carte SCSI virtuelle
3 du serveur d’E-S virtuel.
h. Répétez les étapes a à g pour la partition logique client.
3. Vérifiez que le numéro d’emplacement de la carte serveur SCSI virtuelle est mappé correctement avec
le numéro d’emplacement distant de la partition logique client. Procédez comme suit :
a. Cliquez avec le bouton droit de la souris sur le profil de serveur, puis sélectionnez Propriétés.
b. Cliquez sur l’onglet serveur d’E-S virtuel.
c. Si le bouton d’option Seuls la partition et l’emplacement distant sélectionnés peuvent se
connecter n’est pas activé, sélectionnez-le.
d. Notez les valeurs des zones Partition distante et Numéro d’emplacement virtuel de la partition
distante. Elles indiquent le nom et le numéro d’emplacement virtuel de la partition logique client.
Il s’agit de la partition logique client et du numéro d’emplacement qui peuvent se connecter à
l’emplacement indiqué dans la boîte de dialogue Numéro d’emplacement, en haut de la fenêtre
Propriétés de la carte SCSI virtuelle.
e. Pour la partition logique client, répétez le étapes a à e.
4. La valeur Adapter sur la partition logique client doit correspondre à celle de Remote Adapter sur la
partition logique du serveur d’E-S virtuel et la valeur Adapter sur la partition logique du serveur
d’E-S virtuel doit correspondre à celle de Remote Adapter sur la partition logique client. Si ces
numéros ne correspondent pas, sur la console HMC, modifiez les propriétés de profil de manière à
refléter le mappage.
5. Sur la ligne de commande du serveur d’E-S virtuel, entrez cfgdev.
6. Arrêtez et réactivez la partition logique client.
7. Sur la ligne de commande du serveur d’E-S virtuel, entrez lsmap -all. Les résultats obtenus sont
semblables à ce qui suit :
SVSA
Physloc
Client Partition ID
--------------- -------------------------------------------- -----------------vhost0
U9113.550.10BE8DD-V1-C3
0x00000002
Chapitre 3. Serveur d’E-S virtuel
139
VTD
LUN
Backing device
Physloc
vhdisk0
0x8100000000000000
hdisk5
U787B.001.DNW025F-P1-C5-T1-W5005076300C10899-L536F000000000000
Dans cet exemple, l’ID de partition logique client est 2 (0x00000002).
Remarque : Si la partition logique client n’est pas encore installée, l’ID partition client est 0x00000000.
Le numéro d’emplacement de la carte du serveur SCSI apparaît dans la colonne Physloc. Les chiffres
suivant l’option -C constituent le numéro d’emplacement. Dans le cas présent, le numéro
d’emplacement est 3.
8. Sur la ligne de commande du serveur d’E-S virtuel, entrez lsdev -virtual. Les résultats obtenus sont
semblables à ce qui suit :
name
status
vhost0
Available Virtual SCSI Server Adapter
vhdisk0
description
Available
Virtual Target Device - Disk
Identification et résolution des incidents relatifs aux partitions
logiques client AIX
Informations et procédures d’identification et de résolution des incidents liés aux partitions logiques
client AIX.
Si la partition client utilise des ressources d’E-S virtuelles, le point focal de service et le serveur d’E-S
virtuel doivent être contrôlés en premier afin de vérifier que l’incident n’est pas lié au serveur.
Sur les partitions client qui exécutent le niveau actuel d’AIX, lorsqu’un incident matériel est consigné sur
le serveur et qu’un incident correspondant est consigné sur la partition client, le serveur d’E-S virtuel
indique un message d’erreur de corrélation dans le rapport d’erreurs.
Exécutez la commande suivante pour créer un rapport d’erreur :
errpt -a
L’exécution de la commande errpt renvoie un résultat similaire au suivant :
LABEL:
IDENTIFIER:
VSCSI_ERR2
857033C6
Date/Time:
Sequence Number:
Machine Id:
Node Id:
Class:
Type:
Resource Name:
Tue Feb 15 09:18:11 2005
50
00C25EEE4C00
vio_client53A
S
TEMP
vscsi2
Description
Underlying transport error
Probable Causes
PROCESSOR
Failure Causes
PROCESSOR
Recommended Actions
PERFORM PROBLEM DETERMINATION PROCEDURES
Detail Data
Error Log Type
140
Guide d’utilisation de PowerVM Editions
01
Reserve
00
Error Number
0006
RC
0000 0002
VSCSI Pointer
Comparez les valeurs LABEL, IDENTIFIER et Error Number du rapport d’erreur aux valeurs dans le tableau
suivant pour identifier l’incident et le résoudre.
Tableau 35. Labels, identificateurs, numéros d’erreur, description de l’incident et résolution des incidents communs
liés à l’interface SCSI virtuelle sur la partition logique client
Label
Identificateur
Numéro d’erreur
0006
RC
0000 0002
VSCSI_ERR2
857033C6
001C
RC
0000 0000
000D
RC
FFFF FFF0
VSCSI_ERR3
ED995F18
000D
RC
FFFF FFF9
Incident
Résolution
La carte serveur SCSI
virtuelle de la
partition logique du
serveur d’E-S virtuel
n’est pas ouverte.
Faites en sorte que la
carte serveur de la
partition logique du
serveur d’E-S virtuel
soit disponible.
La carte serveur SCSI
virtuelle de la
partition logique du
serveur d’E-S virtuel
a été fermée
soudainement.
Déterminez pourquoi
la carte serveur de la
partition logique du
serveur d’E-S virtuel
a été fermée.
La carte serveur SCSI
virtuelle de la
partition logique du
serveur d’E-S virtuel
est utilisée par une
autre partition
logique client.
Terminez la partition
logique client
utilisant la carte
serveur.
La carte serveur SCSI
virtuelle (numéro de
partition et
d’emplacement)
spécifiée dans la
définition n’existe
pas.
Dans la console
HMC, corrigez la
définition de la carte
client pour l’associer
à une carte serveur
correcte.
Informations de référence pour le serveur d’E-S virtuel
Vous trouverez des informations de référence sur les commandes du serveur d’E-S virtuel, sur les
attributs de configuration pour les agents et clients Tivoli, sur les attributs et statistiques de réseau, et sur
les types d’utilisateur du serveur d’E-S virtuel.
Description des commandes du serveur d’E-S virtuel et d’Integrated
Virtualization Manager
Vous pouvez afficher la description de chaque commande du serveur d’E-S virtuel et d’Integrated
Virtualization Manager.
Voir le Serveur d’E-S virtuel et Integrated Virtualization Manager - Guide des commandes. Pour consulter le
fichier PDF Serveur d’E-S virtuel et Integrated Virtualization Manager - Guide des commandes (SA11-1701),
d’une taille approximative de 4 Mo, voir sa76-0101.pdf
.
Chapitre 3. Serveur d’E-S virtuel
141
Configuration des attributs des agents et des clients Tivoli
Informations sur les variables et les attributs de configuration requis et facultatifs de l’agent Tivoli
Monitoring, l’agent Tivoli Usage and Accounting Manager, le client Tivoli Storage Manager et Tivoli
TotalStorage Productivity Center.
Dans le tableau suivant, un attribut est une option que vous pouvez ajouter à la commande du serveur
d’E-S virtuel. Le terme variable désigne une option que vous pouvez définir dans un fichier de
configuration de Tivoli Storage Manager ou de Tivoli Usage and Accounting Manager.
Tivoli Monitoring
Tableau 36. Attributs de configuration de Tivoli Monitoring
Attribut
Description
HOSTNAME
Nom d’hôte ou adresse IP du serveur Tivoli Enterprise
Monitoring Server (TEMS) auquel l’agent de surveillance
envoie des données.
MANAGING_SYSTEM
Nom d’hôte ou adresse IP de la console HMC (Hardware
Management) (HMC) reliée au système géré sur lequel se
trouvent le serveur d’E-S virtuel et l’agent de
surveillance. Vous pouvez définir une seule console
HMC par agent de surveillance.
Si vous ne définissez pas l’attribut
MANAGING_SYSTEM, le serveur d’E-S virtuel utilise la
connexion RMC (Resource Monitoring and Control) pour
obtenir le nom d’hôte ou l’adresse IP de la console HMC.
Si l’agent de surveillance est exécuté sur Integrated
Virtualization Manager, il n’est pas nécessaire de définir
l’attribut MANAGING_SYSTEM.
RESTART_ON_REBOOT
Détermine si l’agent de surveillance redémarre lors du
redémarrage du serveur d’E-S virtuel. TRUE indique que
l’agent de surveillance redémarre lors du redémarrage
du serveur d’E-S virtuel. FALSE indique que l’agent de
surveillance ne redémarre pas lors du redémarrage du
serveur d’E-S virtuel.
Tivoli Storage Manager
Tableau 37. Attributs de configuration de Tivoli Storage Manager
Attribut
Description
SERVERNAME
Nom d’hôte du serveurTivoli Storage Manager auquel est
associé le client Tivoli Storage Manager.
SERVERIP
Adresse IP ou nom de domaine du serveurTivoli Storage
Manager auquel est associé le client Tivoli Storage
Manager.
NODENAME
Nom de l’ordinateur sur lequel est installé le client Tivoli
Storage Manager.
142
Guide d’utilisation de PowerVM Editions
Tivoli Usage and Accounting Manager
Tableau 38. Variables de configuration de Tivoli Usage and Accounting Manager dans le fichier A_config.par
Variable
Description
Valeurs possibles
Valeur par défaut
AACCT_TRANS_IDS
Désigne les types
1, 4, 6, 7, 8, 10, 11 ou 16
d’enregistrement comptable
avancés sous AIX inclus
aux rapports sur
l’utilisation.
10
AACCT_ONLY
Détermine si l’agent Usage
and Accounting Manager
collecte les données
comptables.
Y
v Y : Indique que l’agent
Usage and Accounting
Manager collecte les
données comptables.
v N : Indique que l’agent
Usage and Accounting
Manager ne collecte pas
les données comptables.
ITUAM_SAMPLE
Détermine si l’agent Usage
and Accounting Manager
collecte des données
relatives au système de
fichiers de stockage.
v Y : Indique que l’agent
Usage and Accounting
Manager collecte des
données relatives au
système de fichiers de
stockage.
N
v N : Indique que l’agent
Usage and Accounting
Manager ne collecte pas
de données relatives au
système de fichiers de
stockage.
Tableau 39. Attributs de configuration de Tivoli Usage and Accounting Manager
Attribut
Description
ACCT_DATA0
Taille en Mo du premier fichier de données contenant les
informations statistiques quotidiennes.
ACCT_DATA1
Taille en Mo du second fichier de données contenant les
informations statistiques quotidiennes.
ISYSTEM
Moment en minutes où l’agent génère des
enregistrements système par intervalles.
IPROCESS
Moment en minutes où le système génère des
enregistrements de processus regroupés.
Attributs de TotalStorage Productivity Center
Tableau 40. Attributs de configuration de TotalStorage Productivity Center
Attribut
Description
Obligatoire ou facultatif
S
Nom d’hôte ou adresse IP du serveur Obligatoire
TotalStorage Productivity Center
associé à l’agent TotalStorage
Productivity Center.
A
Nom d’hôte ou adresse IP du
gestionnaire d’agents.
Obligatoire
Chapitre 3. Serveur d’E-S virtuel
143
Tableau 40. Attributs de configuration de TotalStorage Productivity Center (suite)
Attribut
Description
Obligatoire ou facultatif
devAuth
Mot de passe d’authentification du
serveur d’unités TotalStorage
Productivity Center.
Obligatoire
caPass
Mot de passe d’authentification de
l’agent commun.
Obligatoire
caPort
Numéro identifiant le port de l’agent Facultatif
commun. Le port par défaut est 9510.
amRegPort
Numéro identifiant le port
d’enregistrement du gestionnaire
d’agents. Le port par défaut est 9511.
Facultatif
amPubPort
Numéro identifiant le port public du
gestionnaire d’agents. Le port par
défaut est 9513.
Facultatif
dataPort
Numéro identifiant le port du
serveur de données TotalStorage
Productivity Center. Le port par
défaut est 9549.
Facultatif
devPort
Numéro identifiant le port du
serveur d’unités TotalStorage
Productivity Center. Le port par
défaut est 9550.
Facultatif
newCA
La valeur par défaut est true.
Facultatif
oldCA
La valeur par défaut est false.
Facultatif
daScan
Exécute une analyse de l’agent
TPC_data après l’installation. La
valeur par défaut est true.
Facultatif
daScript
Exécute le script de l’agent TPC_data Facultatif
après l’installation. La valeur par
défaut est true.
daIntsall
Installe l’agent TPC_data. La valeur
par défaut est true.
Facultatif
faInstall
Installe l’agent TPC_fabric. La valeur
par défaut est true.
Facultatif
U
Désinstalle les agents TotalStorage
Productivity Center. Les valeurs
valides sont les suivantes :
Facultatif
v toutes
v data
v fabric
Information associée
Documentation Tivoli Monitoring 6.1
Tivoli Monitoring Virtual I/O Server Premium Agent User’s Guide
TotalStorage Productivity Center support for agents on a Virtual I/O Server
144
Guide d’utilisation de PowerVM Editions
Statistiques sur le protocole GVRP (GARP VLAN Registration Protocol)
Affichage d’informations sur les unités BPDU (Bridge Protocol Data Unit), le protocole GARP (Generic
Attribute Registration Protocol) et le protocole GVRP (GARP VLAN Registration Protocol) en exécutant la
commande entstat -all. Vous pouvez également visualiser des exemples.
Les unités BPDU (ou unités de données de protocole de pont) sont des paquets de données relatives au
protocole échangés entre le commutateur et la carte de réseau Ethernet partagée. Le protocole GARP est
le seul protocole de pont actuellement disponible avec la carte de réseau Ethernet partagée. GARP est un
protocole générique qui permet l’échange d’informations sur les attributs entre deux entités. Un seul type
de protocole GARP est actuellement disponible sur la carte de réseau Ethernet partagée : le protocole
GVRP. Avec le protocole GVRP, les attributs transmis sont des valeurs VLAN (réseau local virtuel).
Statistiques sur les unités BPDU
Les statistiques sur les unités BPDU concernent les paquets BPDU envoyés ou reçus.
Tableau 41. Description des statistiques sur les unités BPDU
Statistiques sur les unités BPDU
Transmit (émission)
Description
Packets
Nombre de paquets envoyés.
Failed packets
Nombre de paquets non envoyés (par exemple,
à cause d’un manque de mémoire pour
l’attribution du paquet sortant).
Receive (réception)
Packets
Nombre de paquets reçus.
Unprocessed Packets
Paquets non traités, à cause d’une interruption
du fonctionnement du protocole.
Non-contiguous Packets
Paquets reçus en plusieurs fragments.
Packets with unknown PID
Paquets comportant un ID de protocole (PID)
différent de celui du protocole GARP. Lorsque
ce nombre est élevé, cela provient en général de
l’échange par le commutateur de paquets de
protocole BPDU non pris en charge par la carte
de réseau Ethernet partagée.
Packets with Wrong Length
Paquets Ethernet reçus dont la longueur ne
correspond à la longueur indiquée dans l’en-tête
Ethernet.
Chapitre 3. Serveur d’E-S virtuel
145
Statistiques sur le protocole GARP
Les statistiques sur le protocole GARP concernent les paquets BPDU de type GARP envoyés ou reçus.
Tableau 42. Description des statistiques sur le protocole GARP
Statistiques sur le protocole GARP
Transmit (émission)
Description
Packets
Nombre de paquets envoyés.
Failed packets
Nombre de paquets non envoyés (par exemple,
à cause d’un manque de mémoire pour
l’attribution du paquet sortant).
Leave All Events
Paquets envoyés avec le type d’événement Leave
All.
Join Empty Events
Paquets envoyés avec le type d’événement Join
Empty.
Join In Events
Paquets envoyés avec le type d’événement Join
In.
Leave Empty Events
Paquets envoyés avec le type d’événement Leave
Empty.
Leave In Events
Paquets envoyés avec le type d’événement Leave
In.
Empty Events
Paquets envoyés avec le type d’événement
Empty.
146
Guide d’utilisation de PowerVM Editions
Tableau 42. Description des statistiques sur le protocole GARP (suite)
Statistiques sur le protocole GARP
Receive (réception)
Description
Packets
Nombre de paquets reçus
Unprocessed Packets
Paquets non traités, à cause d’une interruption
du fonctionnement du protocole.
Packets with Unknown Attr Type:
Paquets contenant un type d’attribut non pris en
charge. Lorsque ce nombre est élevé, cela
provient en général de l’échange par le
commutateur de paquets de protocole GARP
non pris en charge par la carte de réseau
Ethernet partagée. Par exemple, le protocole
GARP GMRP (Multicast Registration Protocol).
Leave All Events
Paquets reçus avec le type d’événement Leave
All.
Join Empty Events
Paquets reçus avec le type d’événement Join
Empty.
Join In Events
Paquets reçus avec le type d’événement Join In.
Leave Empty Events
Paquets reçus avec le type d’événement Leave
Empty
Leave In Events
Paquets reçus avec le type d’événement Leave In
Empty Events
Paquets reçus avec le type d’événement Empty
Chapitre 3. Serveur d’E-S virtuel
147
Statistiques sur le protocole GVRP
Les statistiques sur le protocole GVRP concernent les paquets GARP d’échange d’informations sur les
réseaux locaux virtuels (VLAN) et envoyés ou reçus via le protocole GVRP.
Tableau 43. Description des statistiques sur le protocole GVRP
Statistiques sur le protocole GVRP
Transmit (émission)
Description
Packets
Nombre de paquets envoyés
Failed packets
Nombre de paquets non envoyés (par exemple,
à cause d’un manque de mémoire pour
l’attribution du paquet sortant).
Leave All Events
Paquets envoyés avec le type d’événement Leave
All.
Join Empty Events
Paquets envoyés avec le type d’événement Join
Empty.
Join In Events
Paquets envoyés avec le type d’événement Join
In.
Leave Empty Events
Paquets envoyés avec le type d’événement Leave
Empty.
Leave In Events
Paquets envoyés avec le type d’événement Leave
In.
Empty Events
Paquets envoyés avec le type d’événement
Empty.
148
Guide d’utilisation de PowerVM Editions
Tableau 43. Description des statistiques sur le protocole GVRP (suite)
Statistiques sur le protocole GVRP
Receive (réception)
Description
Packets
Nombre de paquets reçus.
Unprocessed Packets
Paquets non traités, à cause d’une interruption
du fonctionnement du protocole.
Packets with Invalid Length
Paquets contenant un ou plusieurs attributs
dont la longueur ne correspond pas au type
d’événement associé.
Packets with Invalid Event
Paquets contenant un ou plusieurs attributs
dont le type d’événement est incorrect.
Packets with Invalid Value
Paquets contenant un ou plusieurs attributs
dont la valeur est incorrecte (par exemple, un ID
VLAN incorrect).
Total Invalid Attributes
Nombre total d’attributs comportant un
paramètre incorrect.
Total Valid Attributes
Nombre total d’attributs ne comportant aucun
paramètre incorrect.
Leave All Events
Paquets envoyés avec le type d’événement Leave
All.
Join Empty Events
Paquets envoyés avec le type d’événement Join
Empty.
Join In Events
Paquets envoyés avec le type d’événement Join
In.
Leave Empty Events
Paquets envoyés avec le type d’événement Leave
Empty.
Leave In Events
Paquets envoyés avec le type d’événement Leave
In.
Empty Events
Paquets envoyés avec le type d’événement
Empty.
Exemples de statistiques
L’exécution de la commande entstat -all renvoie des résultats du type suivant :
-------------------------------------------------------------Statistics for adapters in the Shared Ethernet Adapter ent3
-------------------------------------------------------------Number of adapters: 2
SEA Flags: 00000009
< THREAD >
Chapitre 3. Serveur d’E-S virtuel
149
< GVRP >
VLAN IDs :
ent2: 1
Real Side Statistics:
Packets received: 0
Packets bridged: 0
Packets consumed: 0
Packets transmitted: 0
Packets dropped: 0
Virtual Side Statistics:
Packets received: 0
Packets bridged: 0
Packets consumed: 0
Packets transmitted: 0
Packets dropped: 0
Other Statistics:
Output packets generated: 0
Output packets dropped: 0
Device output failures: 0
Memory allocation failures: 0
ICMP error packets sent: 0
Non IP packets larger than MTU: 0
Thread queue overflow packets: 0
-------------------------------------------------------------Bridge Protocol Data Units (BPDU) Statistics:
Transmit Statistics:
-------------------Packets: 2
Failed packets: 0
Receive Statistics:
------------------Packets: 1370
Unprocessed Packets: 0
Non-contiguous Packets: 0
Packets w/ Unknown PID: 1370
Packets w/ Wrong Length: 0
--------------------------------------------------------------General Attribute Registration Protocol (GARP) Statistics:
Transmit Statistic:
------------------Packets: 2
Failed packets: 0
Receive Statistics:
------------------Packets: 0
Unprocessed Packets: 0
Packets w/ Unknow Attr. Type: 0
Leave All Events: 0
Join Empty Events: 0
Join In Events: 2
Leave Empty Events: 0
Leave In Events: 0
Empty Events: 0
Leave All Events: 0
Join Empty Events: 0
Join In Events: 0
Leave Empty Events: 0
Leave In Events: 0
Empty Events: 0
--------------------------------------------------------------GARP VLAN Registration Protocol (GVRP) Statistics:
Transmit Statistics:
-------------------Packets: 2
Failed packets: 0
Receive Statistics:
Leave All Events: 0
Join Empty Events: 0
Join In Events: 2
150
Guide d’utilisation de PowerVM Editions
------------------Packets: 0
Unprocessed Packets: 0
Attributes w/ Invalid Length: 0
Attributes w/ Invalid Event: 0
Attributes w/ Invalid Value: 0
Total Invalid Attributes: 0
Total Valid Attributes: 0
Leave All Events: 0
Join Empty Events: 0
Join In Events: 0
Leave Empty Events: 0
Leave In Events: 0
Empty Events: 0
Leave Empty Events: 0
Leave In Events: 0
Empty Events: 0
Attributs de réseau
Instructions sur la gestion des attributs du réseau.
Plusieurs commandes du serveur d’E-S virtuel, notamment chdev, mkvdev et cfglnagg, permettent de
modifier les attributs des unités ou du réseau. Cette section définit les attributs pouvant être modifiés.
Attributs Ethernet
Il est possible de modifier les attributs Ethernet ci-après.
Attribut
Description
Maximum Transmission
Unit (mtu)
Indique l’unité de transmission maximale (MTU). Cette valeur peut être tout nombre
compris entre 60 et 65535, mais elle est dépendante du support.
Interface State
(état_interface)
detach
Retire une interface de la liste des interfaces réseau. Si la dernière interface est
déconnectée, le code du pilote d’interface de réseau est déchargé. Pour
modifier la route d’une interface connectée, vous devez déconnecter et ajouter
à nouveau cette interface à l’aide de la commande chdev -dev Interface -attr
état=detach.
down
Identifie une interface comme inactive, ce qui empêche le système de tenter
de transmettre des messages via cette interface. Toutefois, les routes qui
utilisent cette interface ne sont pas automatiquement désactivées. (chdev -dev
Interface -attr état=down)
up
Identifie une interface comme active. Ce paramètre est automatiquement
utilisé lors de la définition de la première adresse d’une interface. Vous
pouvez également l’utiliser pour activer une interface après l’exécution de la
commande chdev -dev Interface -attr état=up.
Network Mask
(masque_réseau)
Indique la partie de l’adresse à réserver pour subdiviser les réseaux en sous-réseaux.
Le masque inclut la partie réseau de l’adresse locale et la partie sous-réseau, extraite de
la zone hôte de l’adresse. Vous pouvez spécifier le masque sous forme d’un nombre
hexadécimal unique commençant par 0x, en notation décimale à points Internet
standard.
Dans l’adresse 32 bits, le masque contient des bits ayant la valeur 1 pour la position
des bits réservés au réseau et aux sous-réseaux et un bit ayant la valeur 0 pour la
position des bits qui définissent l’hôte. Le masque contient la partie du réseau
standard et le segment de sous-réseau est contigu au segment de réseau.
Attributs d’une carte de réseau Ethernet partagée
Vous pouvez modifier les attributs ci-dessous pour une carte de réseau Ethernet partagée.
Attribut
Description
PVID (pvid)
Indique le PVID à utiliser pour la carte de réseau Ethernet partagée.
PVID adapter (carte_PVID)
Indique la carte virtuelle par défaut à utiliser pour les paquets marqués non VLAN.
Physical adapter
(carte_physique)
Indique la carte physique associée à la carte de réseau Ethernet partagée.
Chapitre 3. Serveur d’E-S virtuel
151
Attribut
Description
thread (unité_exécution)
Active ou désactive l’utilisation d’unités d’exécution sur la carte de réseau Ethernet
partagée. L’activation de cette option ajoute environ 16 à 20 % de cycles machine par
transaction pour les flots de données MTU 1500 et 31 à 38 % pour MTU 9000. L’option
d’utilisation d’unités d’exécution augmente le nombre de cycles machine par
transaction pour de faibles charges de travail car les unités d’exécution sont démarrées
pour chaque paquet. A des taux de charge de travail plus élevés, comme les charges
de travail en duplex intégral ou de demandes/réponses, les unités d’exécution durent
plus longtemps sans attente ou réacheminement.
Le mode avec unités d’exécution doit être utilisé lorsqu’une interface SCSI virtuelle est
exécutée sur la même partition logique du serveur d’E-S virtuel que la carte de réseau
Ethernet partagée. Le mode avec unités d’exécution permet de s’assurer que l’interface
SCSI virtuelle et la carte de réseau Ethernet partagée partagent les ressources du
processeur de manière adaptée. Toutefois, l’utilisation d’unités d’exécution augmente
la longueur des chemins d’accès aux instructions et utilise des cycles de processeur
supplémentaires. Si la partition logique du serveur d’E-S virtuel est dédiée uniquement
à l’exécution d’unités Ethernet partagées (et des unités virtuelles Ethernet associées),
les cartes doivent être configurées de manière à ce que l’utilisation d’unités d’exécution
soit désactivée.
Vous pouvez activer ou désactiver l’utilisation d’unités d’exécution à l’aide de l’option
-attr thread de la commande mkvdev. Pour activer l’utilisation d’unités d’exécution,
utilisez l’option -attr thread=1. Pour la désactiver, utilisez l’option -attr thread=0.
Par exemple, la commande ci-dessous désactive l’utilisation d’unités d’exécution pour
la carte de réseau Ethernet partagée ent1 :
mkvdev -sea ent1 -vadapter ent5 -default ent5 -defaultid 1 -attr thread=0
Virtual adapters
(cartes_virtuelles)
Répertorie les cartes de réseau Ethernet virtuelles associées à la carte de réseau
Ethernet partagée.
TCP segmentation
offload(envoi_volumineux)
Active la fonction largesend TCP (également appelée déchargement de la
segmentation) des partitions logiques à la carte physique. Pour fonctionner, cette
dernière doit être activée pour la fonction largesend TCP pour le déchargement de la
segmentation entre la partition logique et la carte de réseau Ethernet partagée. En
outre, la partition logique doit être en mesure d’effectuer une opération largesend.
Sous AIX, la fonction largesend peut être activée sur une partition à l’aide de la
commande ifconfig.
Vous pouvez activer ou désactiver la fonction largesend TCP à l’aide de l’option -a
largesend de la commande chdev. Pour l’activer, utilisez l’option ’-a largesend=1’. Pour
la désactiver, utilisez l’option ’-a largesend=0’.
Par exemple, la commande ci-dessous active largesend pour la carte de réseau Ethernet
partagée ent1 :
chdev -l ent1 -a largesend=1
Par défaut, le paramètre est désactivé (largesend=0).
Jumbo frames
(grandes_trames)
Permet d’augmenter jusqu’à 9000 octets les MTU de l’interface configurée sur la carte
de réseau Ethernet partagée (valeur par défaut : 1500). Si la carte physique sous-jacente
ne prend pas en charge les grandes trames et si la valeur de l’attribut jumbo_frames est
yes, la configuration échoue. La carte physique sous-jacente doit prendre en charge les
grandes trames. La carte de réseau Ethernet partagée active automatiquement les
grandes trames sur sa carte physique sous-jacente si la valeur de jumbo_frames est yes.
La valeur grandes_trames n’est pas modifiable durant l’exécution.
GARP VLAN Registration
Protocol (GVRP) (gvrp)
Active et désactive le protocole GVRP sur une carte de réseau Ethernet partagée.
152
Guide d’utilisation de PowerVM Editions
Attributs de la reprise par transfert d’une carte de réseau Ethernet partagée
Vous pouvez modifier les attributs suivants relatifs à la reprise par transfert d’une carte de réseau
Ethernet partagée.
Attribut
Description
High availability mode
(mode_haute_disponibilité)
Détermine si les unités participent ou non à la configuration de reprise. Par défaut, cet
attribut est paramétré sur disabled (désactivé). En général, une carte de réseau
Ethernet partagée dans une configuration de reprise par transfert fonctionne en mode
auto et la carte principale correspond à la carte dont la priorité est la plus élevée
(valeur numérique la plus basse). Une carte Ethernet partagée peut être passée de
force en mode veille ; elle se comporte alors comme l’unité de secours, tant qu’elle
détecte la présence d’une unité principale fonctionnelle.
Control Channel
(canal_contrôle)
Définit l’unité Ethernet virtuelle requise pour une carte de réseau Ethernet partagée
dans une configuration de reprise par transfert, de manière à ce qu’elle puisse
communiquer avec l’autre carte. Cet attribut ne comporte pas de valeur par défaut ; il
est obligatoire lorsque l’attribut ha_mode n’est pas paramétré sur disabled.
Internet address to ping
(adr_réseau)
Attribut facultatif qui peut être défini pour une carte de réseau Ethernet partagée
définie dans une configuration de reprise par transfert. Lorsque cet attribut est
spécifié, une unité Ethernet partagée applique une commande ping à l’adresse IP, afin
de vérifier la connexion (ainsi que l’état des liaisons des unités physiques). Si elle
détecte une perte de connectivité avec l’hôte de la commande ping spécifié, elle lance
une reprise par transfert vers la carte de réseau Ethernet partagée. Cet attribut n’est
pas pris en charge lorsque vous utilisez une carte de réseau Ethernet partagée avec
une carte de réseau Ethernet hôte (ou carte Ethernet virtuelle intégrée).
Chapitre 3. Serveur d’E-S virtuel
153
Attributs INET
Il est possible de modifier les attributs INET qui suivent.
Attribut
Description
Host Name (nom_hôte)
Indiquez le nom d’hôte que vous souhaitez affecter à la machine en cours.
Dans la définition du nom d’hôte, utilisez des caractères ASCII, de préférence
uniquement alphanumériques. N’utilisez pas de point dans le nom d’hôte. Evitez
d’utiliser des valeurs hexadécimales ou décimales comme premier caractère (par
exemple 3Comm, où 3C peut être interprété comme un caractère hexadécimal). Pour
assurer la compatibilité avec les hôtes précédents, choisissez un nom d’hôte non
qualifié comportant moins de 32 caractères.
Si l’hôte utilise un serveur de noms de domaine pour la résolution des noms, le nom
d’hôte doit contenir le nom de domaine complet.
Dans le système de dénomination de domaine hiérarchique, les noms sont constitués
d’une séquence de sous-noms insensibles à la casse, séparés par des points, sans blanc
imbriqué. Le protocole DOMAIN spécifie qu’un nom de domaine local doit être
inférieur à 64 caractères et que la longueur d’un nom d’hôte doit être inférieure à 32
caractères. Le nom d’hôte est indiqué en premier lieu. Le nom de domaine complet
peut, éventuellement, être spécifié ; le nom d’hôte est suivi d’un point, d’une série de
noms de domaine local séparés par des points et enfin, du domaine racine. Le nom de
domaine complet pour un hôte, y compris les points, doit être inférieur à 255
caractères et respecter le format suivant :
hôte.sous-domaine.sous-domaine.domaine_racine
Dans un réseau hiérarchique, certains hôtes sont conçus comme des serveurs de noms
qui convertissent les noms en adresses Internet pour d’autres hôtes. Ce mécanisme
comporte deux avantages sur l’espace de noms non hiérarchiques : les ressources de
chaque hôte sur le réseau ne sont pas utilisées pour la résolution des noms et
l’administrateur du système n’a pas besoin de gérer les fichiers de résolution de noms
sur chaque machine du réseau. L’ensemble de noms gérés par un seul serveur de
noms est appelé zone d’autorité de ce serveur.
Gateway (passerelle)
Identifie la passerelle à laquelle sont adressés les paquets. Vous pouvez définir le
paramètre Passerelle par un nom symbolique ou une adresse numérique.
Route (route)
Spécifie la route. Le format de l’attribut Route est : route=destination, passerelle, [mesure].
destination
Identifie l’hôte ou le réseau vers lequel vous dirigez la route. Vous pouvez
définir le paramètre Destination par un nom symbolique ou une adresse
numérique.
gateway
Identifie la passerelle à laquelle sont adressés les paquets. Vous pouvez
définir le paramètre Passerelle par un nom symbolique ou une adresse
numérique.
metric
154
Définit la mesure du routage. La valeur par défaut est 0 (zéro). La mesure du
routage est utilisée par le protocole de routage (le programme démon routed).
Des mesures plus élevées rendent la route moins favorable. Les mesures sont
comptées comme des bonds supplémentaires vers le réseau ou l’hôte de
destination.
Guide d’utilisation de PowerVM Editions
Attributs de carte
Il est possible de modifier les attributs de carte suivants. Le comportement de l’attribut peut varier en
fonction de la carte et du pilote dont vous disposez.
Attribut
Cartes/Pilotes
Media Speed (débit_support)
v Carte PCI-X Base-TX 10/100/1000
2 ports
Description
L’attribut de débit du support indique la
vitesse à laquelle la carte tente de
fonctionner. Les débits disponibles sont 10
v Pilote de périphérique de carte
Mbits/s en semi-duplex, 10 Mbits/s en
PCI-X Ethernet Base-T 10/100/1000
duplex intégral, 100 Mbits/s en
semi-duplex, 100 Mbits/s en duplex
intégral et négociation automatique, avec
négociation automatique par défaut.
Sélectionnez la négociation automatique
lorsque la carte doit utiliser la négociation
automatique sur le réseau pour déterminer
le débit. Si le réseau ne prend pas en
charge la négociation automatique,
sélectionnez le débit spécifique.
1000 Mbit/s en semi-duplex et duplex
intégral ne sont pas des valeurs correctes.
Conformément à la spécification IEEE
802.3z, les débits en gigabits de
transmission en duplex doivent être
négociés automatiquement pour les cartes
en cuivre (TX). Pour utiliser ces débits,
sélectionnez la négociation automatique.
Media Speed (débit_support)
v Carte PCI-X Ethernet-SX Gigabit
2 ports
v Pilote de périphérique de carte
PCI-X Ethernet-SX Gigabit
L’attribut de débit du support indique la
vitesse à laquelle la carte tente de
fonctionner. Les débits disponibles sont
1000 Mbit/s en duplex intégral et
négociation automatique. La valeur par
défaut est la négociation automatique.
Sélectionnez la négociation automatique
lorsque la carte doit utiliser la négociation
automatique sur le réseau pour définir la
transmission en duplex. Si le réseau ne
prend pas en charge la négociation
automatique, sélectionnez 1000 Mbit/s en
duplex intégral.
Chapitre 3. Serveur d’E-S virtuel
155
Attribut
Cartes/Pilotes
Description
Media Speed (débit_support)
v Pilote de périphérique de carte PCI
Ethernet Mbit/s 10/100/1000
L’attribut de débit du support indique la
vitesse à laquelle la carte tente de
fonctionner. Les débits disponibles sont 10
Mbits/s en semi-duplex, 10 Mbits/s en
duplex intégral, 100 Mbits/s en
semi-duplex, 100 Mbits/s en duplex
intégral et négociation automatique, avec
négociation automatique par défaut.
Sélectionnez la négociation automatique
lorsque la carte doit utiliser la négociation
automatique sur le réseau pour déterminer
le débit. Si le réseau ne prend pas en
charge la négociation automatique,
sélectionnez le débit spécifique.
Si la négociation automatique est
sélectionnée, l’unité de liaison distante doit
également être définie pour la négociation
automatique afin de s’assurer que la liaison
fonctionne correctement.
Media Speed (débit_support)
v Carte PCI Ethernet Base-T
10/100/1000
v Pilote de périphérique de carte PCI
Ethernet-SX Gigabit
L’attribut de débit du support indique la
vitesse à laquelle la carte tente de
fonctionner. Les débits disponibles sont 10
Mbits/s en semi-duplex, 10 Mbits/s en
duplex intégral, 100 Mbits/s en
semi-duplex, 100 Mbits/s en duplex
intégral et négociation automatique, avec
négociation automatique par défaut.
Sélectionnez la négociation automatique
lorsque la carte doit utiliser la négociation
automatique sur le réseau pour déterminer
le débit. Si le réseau ne prend pas en
charge la négociation automatique,
sélectionnez le débit spécifique.
Pour que la carte s’exécute à 1000 Mbit/s,
vous devez sélectionner le paramètre de
négociation automatique.
Remarque : Pour la carte PCI Ethernet-SX
Gigabit, la seule sélection disponible est la
négociation automatique.
Enable Alternate Ethernet
Address
(utilisation_adr_remplacement)
156
Guide d’utilisation de PowerVM Editions
La valeur yes pour cet attribut indique que
l’adresse de la carte, telle qu’elle apparaît
sur le réseau, est celle spécifiée par
l’attribut Alternate Ethernet Address. Si
vous indiquez la valeur no, l’adresse de
carte unique écrite dans une mémoire
ROM, sur la carte, est utilisée. La valeur
par défaut est no.
Attribut
Cartes/Pilotes
Description
Permet de modifier l’adresse unique de
carte, telle qu’elle apparaît sur le réseau
local. La valeur entrée doit être une adresse
Ethernet de 12 chiffres hexadécimaux et
doit être différente de l’adresse des autres
cartes Ethernet. Il n’existe pas de valeur par
défaut. Cette zone n’a aucun effet sauf si
l’attribut Enable Alternate Ethernet Address
a pour valeur yes, auquel cas cette zone
doit être complétée. Une adresse Ethernet
typique est 0x02608C000001. Tous les
chiffres hexadécimaux, y compris les zéros
de début, doivent être entrés.
Alternate Ethernet Address
(adr_remplacement)
Enable Link Polling
(interrogation_liaison)
v Pilote de périphérique de carte PCI
Ethernet 10/100 Mbit/s
Sélectionnez no pour que le pilote de
périphérique interroge la carte afin de
déterminer l’état d’une liaison, à un
intervalle de temps spécifique. La valeur de
l’intervalle de temps est spécifiée dans la
zone Poll Link Time Interval. Si vous
sélectionnez no, le pilote de périphérique
n’interroge pas la carte pour connaître l’état
de sa liaison. La valeur par défaut est no.
Poll Link Time Interval
(intervalle_interrogation_liaison)
v Pilote de périphérique de carte PCI
Ethernet 10/100 Mbit/s
Durée, en millisecondes, autorisée sur le
pilote de périphérique entre deux
interrogations de la carte pour extraire l’état
de sa liaison. Cette valeur est requise
lorsque l’option Enable Link Polling a
pour valeur yes. Vous pouvez indiquer une
valeur comprise entre 100 et 1000. La
valeur d’incrément est 10. La valeur par
défaut est 500.
Flow Control (ctrl_flux)
Cet attribut spécifie si la carte doit activer
v Pilote de périphérique de carte
PCI-X Ethernet Base-T 10/100/1000 la transmission et la réception du contrôle
de flux. La valeur par défaut est no.
v Pilote de périphérique de carte
PCI-X Ethernet-SX Gigabit
v Carte PCI-X Base-TX 10/100/1000
2 ports
v Carte PCI-X Ethernet-SX Gigabit
2 ports
v Pilote de périphérique de carte PCI
Ethernet-SX Gigabit
Transmit Jumbo Frames
(grandes_trames)
Lorsqu’il a la valeur yes, cet attribut
v Pilote de périphérique de carte
PCI-X Ethernet Base-T 10/100/1000 indique que des trames jusqu’à 9018 octets
de long peuvent être transmises sur cette
v Pilote de périphérique de carte
carte. Si vous indiquez no, la taille
PCI-X Ethernet-SX Gigabit
maximale des trames transmises est 1518
v Carte PCI-X Base-TX 10/100/1000
octets. Il reste possible de recevoir des
2 ports
trames jusqu’à 9018 octets sur cette carte.
v Carte PCI-X Ethernet-SX Gigabit
2 ports
v Pilote de périphérique de carte PCI
Ethernet-SX Gigabit
Chapitre 3. Serveur d’E-S virtuel
157
Attribut
Cartes/Pilotes
Description
Checksum Offload
(déchargement_total_de_contrôle)
Cet attribut avec la valeur yes indique que
v Pilote de périphérique de carte
PCI-X Ethernet Base-T 10/100/1000 la carte calcule le total de contrôle pour les
trames TCP transmises et reçues. Si vous
v Pilote de périphérique de carte
indiquez no, le total de contrôle est calculé
PCI-X Ethernet-SX Gigabit
par le logiciel approprié.
v Carte PCI-X Base-TX 10/100/1000
Lorsque l’attribut de déchargement du total
2 ports
de contrôle est activé sur la carte Ethernet
v Carte PCI-X Ethernet-SX Gigabit
virtuelle, celle-ci transmet le total de
2 ports
contrôle à hypervisor. hypervisor identifie
v Pilote de périphérique de carte PCI
les cartes Ethernet virtuelles dont l’attribut
Ethernet-SX Gigabit
de déchargement du total de contrôle est
v Cartes Ethernet virtuelles
activé et gère en conséquence la
communication entre partitions.
Lorsque les paquets réseau sont routés via
la carte de réseau Ethernet partagée, il y a
des risques d’erreurs de liaison. Dans cet
environnement, les paquets doivent passer
par la liaison physique présentant un total
de contrôle. La communication fonctionne
de la manière suivante :
v Lorsqu’un paquet est reçu d’une liaison
physique, la carte physique vérifie le
total de contrôle. Si la destination du
paquet est une carte Ethernet virtuelle
dont l’attribut de déchargement de total
de contrôle est activé, le récepteur n’a
pas besoin d’effectuer de vérification du
total de contrôle. Un récepteur dont
l’attribut de déchargement du total de
contrôle est activé acceptera le paquet
après vérification du total de contrôle.
v Si un paquet provient d’une carte
Ethernet virtuelle dont l’attribut de
déchargement de total de contrôle est
activé, il est transmis vers la carte
physique sans total de contrôle. La carte
physique générera un total de contrôle
avant d’envoyer le paquet. Les paquets
en provenance d’une carte Ethernet
virtuelle dont l’attribut de déchargement
de total de contrôle est désactivé
génèrent le total de contrôle au niveau de
la source.
Pour activer l’attribut de déchargement du
total de contrôle pour une carte de réseau
Ethernet partagée, toutes les unités
participant doivent également comporter
l’attribut activé. L’unité Ethernet partagée
échouera si les unités sous-jacentes ne
présentent pas les mêmes paramètres de
déchargement du total de contrôle.
158
Guide d’utilisation de PowerVM Editions
Attribut
Cartes/Pilotes
Description
Enable Hardware Transmit
TCP Resegmentation
(envoi_volumineux)
Cet attribut spécifie si la carte doit activer
v Pilote de périphérique de carte
PCI-X Ethernet Base-T 10/100/1000 la transmission de la resegmentation TCP
pour les segments TCP. La valeur par
v Pilote de périphérique de carte
défaut est no.
PCI-X Ethernet-SX Gigabit
v Carte PCI-X Base-TX 10/100/1000
2 ports
v Carte PCI-X Ethernet-SX Gigabit
2 ports
v Pilote de périphérique de carte PCI
Ethernet-SX Gigabit
Attributs d’une unité d’Agrégation de liaisons (EtherChannel)
Vous pouvez modifier les attributs ci-dessous relatifs à une unité d’Agrégation de liaisons ou
EtherChannel.
Attribut
Description
Link Aggregation adapters Cartes constituant l’unité d’Agrégation de liaisons. Pour modifier ces cartes, vous
(noms_cartes)
pouvez modifier cet attribut et sélectionner toutes les cartes qui doivent appartenir à
l’unité d’Agrégation de liaisons. Lorsque vous utilisez cet attribut pour sélectionner
toutes les cartes devant appartenir à l’unité d’Agrégation de liaisons, vous ne devez
pas configurer d’adresse IP sur son interface.
Mode (mode)
Type de canal configuré. En mode standard, le canal envoie les paquets à la carte en
fonction d’un algorithme (la valeur utilisée pour ce calcul est déterminée par l’attribut
Hash Mode). En mode round_robin, le canal envoie un paquet à chaque carte avant de
répéter la boucle. Le mode par défaut est standard.
Le mode 802.3ad permet au protocole LACP (Link Aggregation Control Protocol de
négocier les cartes de l’unité d’Agrégation de liaisons avec un commutateur
compatible avec LACP.
Si vous indiquez une autre valeur que la valeur par défaut à l’attribut Hash Mode,
vous devez indiquer standard ou 802.3ad. Sinon, la configuration de l’unité
d’Agrégation de liaisons échoue.
Hash Mode (mode_hachage)
En mode standard ou IEEE 802.3ad, l’attribut Hash Mode détermine le mode de
sélection de la carte sortante pour chaque paquet. Les différents modes sont les
suivants :
v default : utilise l’adresse IP de destination pour déterminer la carte sortante.
v src_port : utilise le port TCP et UDP source pour cette connexion.
v dst_port : utilise le port TCP ou UDP de destination pour cette connexion.
v src_dst_port : utilise les ports TCP ou UDP source et de destination pour cette
connexion afin de déterminer la carte sortante.
Vous ne pouvez pas utiliser le mode round-robin avec une valeur de mode de hachage
autre que ″default″. La configuration de l’unité d’Agrégation de liaisons échoue si
vous essayez d’utiliser cette combinaison.
Si le paquet n’est pas de type TCP ou UDP, il utilise le mode de hachage par défaut
(adresse IP de destination).
L’utilisation des ports TCP ou UDP pour le hachage permet une meilleure exploitation
des cartes de l’unité d’Agrégation de liaisons, dans la mesure où les connexions à une
même adresse IP de destination peuvent être envoyées sur des cartes différentes (tout
en conservant l’ordre des paquets), ce qui permet d’augmenter la largeur de bande de
l’unité d’Agrégation de liaisons.
Chapitre 3. Serveur d’E-S virtuel
159
Attribut
Description
Internet Address to Ping
(adr_réseau)
Cette zone est facultative. Adresse IP pour laquelle l’unité d’Agrégation de liaisons
doit lancer la commande ping, afin de vérifier que le réseau est actif. Cet attribut est
applicable uniquement en présence d’une carte de sauvegarde et d’une ou plusieurs
cartes dans l’unité d’Agrégation de liaisons. Une adresse zéro (ou uniquement
constituée de zéros) n’est pas prise en compte et désactive l’envoi des paquets ping si
une adresse valide a été préalablement définie. Par défaut, la zone est laissée à blanc.
Retry Timeout
(délai_relance)
Cette zone est facultative. Cet attribut contrôle la fréquence d’envoi par l’unité
d’Agrégation de liaisons d’un paquet ping pour interroger la carte en cours sur l’état
de la liaison. Applicable uniquement si l’unité d’Agrégation de liaisons comporte une
ou plusieurs cartes, si une carte de sauvegarde est définie et si la zone Internet
Address to Ping contient une adresse différente de zéro. Indiquez la valeur du délai
en secondes. La plage des valeurs correctes est comprise entre 1 et 100 secondes. La
valeur par défaut est 1 seconde.
Number of Retries
(nombre_relances)
Cette zone est facultative. Cet attribut indique le nombre de paquets ping perdus
avant que l’unité d’Agrégation de liaisons ne change de carte. Applicable uniquement
si l’unité d’Agrégation de liaisons comporte une ou plusieurs cartes, si une carte de
sauvegarde est définie et si la zone Internet Address to Ping contient une adresse
différente de zéro. La plage des valeurs correctes est comprise entre 2 et 100 relances.
La valeur par défaut est 3.
Enable Gigabit Ethernet
Jumbo Frames
(utilisation_grande_trame)
Cette zone est facultative. Pour utiliser cet attribut, tous les adaptateurs sous-jacents et
le commutateur doivent prendre en charge les grandes trames (jumbo frames).
Applicable uniquement avec une interface Standard Ethernet (en) et non pas avec une
interface IEEE 802.3 (et).
Enable Alternate Address Cette zone est facultative. Si vous indiquez ″yes″ pour cet attribut, vous pouvez
(utilisation_adr_remplacement) indiquer l’adresse MAC que l’unité d’Agrégation de liaisons doit utiliser. Si vous
indiquez ″no″, l’unité d’Agrégation de liaisons utilise l’adresse MAC de la première
carte.
Alternate Address
(adr_remplacement)
Si l’attribut Enable Alternate Address a pour valeur yes, indiquez l’adresse MAC que
vous souhaitez utiliser. L’adresse que vous indiquez doit commencer par 0x et être une
adresse hexadécimale à 12 chiffres.
Attributs de réseau local virtuel (VLAN)
Il est possible de modifier les attributs VLAN ci-après.
Attribut
Valeur
VLAN Tag ID
(ID_marque_vlan)
ID unique associé au pilote VLAN. Vous pouvez indiquer une valeur comprise entre 1
et 4094.
Base Adapter (carte_base)
Carte réseau à laquelle le pilote de périphérique VLAN est connecté.
Statistiques sur la reprise par transfert d’une carte de réseau Ethernet
partagée
Informations et exemples sur les statistiques relatives à la reprise par transfert d’une carte de réseau
Ethernet partagée, par exemple : informations sur la haute disponibilité et les types de paquet.
160
Guide d’utilisation de PowerVM Editions
Description des statistiques
Tableau 44. Description des statistiques relatives à la reprise par transfert d’une carte de réseau Ethernet partagée
Statistique
High availability (Haute disponibilité)
Description
Control Channel PVID
ID VLAN de port de la carte Ethernet virtuelle
utilisée comme canal de contrôle.
Control Packets in
Nombre de paquets reçus sur le canal de
contrôle.
Control Packets out
Nombre de paquets envoyés sur le canal de
contrôle.
Type of Packets
Keep-Alive Packets
Nombre de paquets de maintien de la connexion
reçus sur le canal de contrôle. Les paquets de
maintien de la connexion sont reçus sur la carte
de réseau Ethernet partagée de secours lorsque
la carte de réseau Ethernet partagée principale
est active.
Recovery Packets
Nombre de paquets de reprise reçus sur le canal
de contrôle. Les paquets de reprise sont envoyés
par la carte de réseau Ethernet partagée
principale lorsque celle-ci peut être à nouveau
activée après une reprise après incident.
Notify Packets
Nombre de paquets de notification reçus sur le
canal de contrôle. Les paquets de notification
sont envoyés par la carte de réseau Ethernet
partagée de secours lorsque celle-ci détecte la
reprise de la carte de réseau Ethernet partagée
principale.
Limbo Packets
Nombre de paquets d’état indéterminé reçus sur
le canal de contrôle. Les paquets d’état
indéterminé sont envoyés par la carte de réseau
Ethernet partagée principale lorsque celle-ci
détecte une interruption du fonctionnement du
réseau physique ou en cas de non
fonctionnement de la commande ping sur l’hôte
distant défini (pour indiquer à la carte de
secours qu’elle doit s’activer).
Chapitre 3. Serveur d’E-S virtuel
161
Tableau 44. Description des statistiques relatives à la reprise par transfert d’une carte de réseau Ethernet
partagée (suite)
Statistique
Description
Etat
Etat en cours de la carte de réseau Ethernet partagée.
INIT
Le protocole de reprise par transfert de la carte
de réseau Ethernet partagée vient d’être
initialisé.
PRIMARY
La carte de réseau Ethernet partagée transfère
activement le trafic entre les réseaux locaux
virtuels (VLAN) et le réseau.
BACKUP
La carte de réseau Ethernet partagée est inactive
et ne transfère pas le trafic entre les réseaux
locaux virtuels (VLAN) et le réseau.
RECOVERY
La reprise après incident de la carte de réseau
Ethernet partagée principale a été effectuée et
celle-ci peut être à nouveau activée.
NOTIFY
La carte de réseau Ethernet partagée de secours
à détecté la reprise après incident de la carte de
réseau Ethernet partagée et qu’elle peut donc
redevenir inactive.
LIMBO
L’une des situations suivantes s’est produite :
v Le réseau physique n’est pas opérationnel.
v L’état du réseau physique est inconnu.
v La carte de réseau Ethernet partagée ne
parvient pas à effectuer un ping sur l’hôte
défini.
Bridge Mode
Indique le mode de pontage actuel du trafic de la carte
de réseau Ethernet partagée (le cas échéant).
Unicast
La carte de réseau Ethernet partagée envoie et
reçoit uniquement du trafic à destinataire
unique (aucun trafic multidiffusion ni diffusion).
Pour éviter une saturation de la diffusion, la
carte de réseau Ethernet partagée envoie et
reçoit uniquement du trafic à destinataire
unique lorsqu’elle se trouve à l’état INIT ou
RECOVERY.
All
La carte de réseau Ethernet partagée envoie et
reçoit tout type de trafic réseau.
None
La carte de réseau Ethernet partagée n’envoie ni
ne reçoit aucune trafic réseau.
Number of Times Server became Backup
Nombre de fois où la carte de réseau Ethernet partagée
active est devenue inactive suite à un incident.
Number of Times Server became Primary
Nombre de fois où la carte de réseau Ethernet partagée
inactive est devenue inactive suite à une défaillance de la
carte de réseau Ethernet partagée principale.
162
Guide d’utilisation de PowerVM Editions
Tableau 44. Description des statistiques relatives à la reprise par transfert d’une carte de réseau Ethernet
partagée (suite)
Statistique
Description
High Availability Mode
Comportement de la carte de réseau Ethernet partagée
concernant le protocole de reprise par transfert de carte
de réseau Ethernet partagée.
Auto
Le protocole de reprise par transfert de la carte
de réseau Ethernet partagée détermine si la
carte de réseau Ethernet partagée joue le rôle de
carte de réseau Ethernet partagée principale ou
de carte de réseau Ethernet partagée de secours.
Standby
La carte de réseau Ethernet partagée joue le rôle
de carte de secours si une autre carte de réseau
Ethernet partagée peut jouer le rôle de carte
principale. En mode Standby, une carte de
réseau Ethernet partagée principale devient
carte de réseau Ethernet partagée de secours si
une autre carte de réseau Ethernet partagée peut
devenir carte de réseau Ethernet partagée
principale.
Priority
Indique la priorité de liaison des cartes Ethernet
virtuelles de la carte de réseau Ethernet
partagée. A partir de cette information, le
protocole de la carte de réseau Ethernet
partagée détermine quelle carte de réseau
Ethernet partagée joue le rôle de carte de réseau
Ethernet partagée principale et quelle carte de
réseau Ethernet partagée joue le rôle de carte de
réseau Ethernet partagée de secours. La valeur
est comprise entre 1 et 12 (plus le nombre faible,
plus la priorité de la carte de réseau Ethernet
partagée est élevée pour devenir carte
principale).
Exemples de statistiques
L’exécution de la commande entstat -all renvoie des résultats du type suivant :
ETHERNET STATISTICS (ent8) :
Device Type: Shared Ethernet Adapter
Hardware Address: 00:0d:60:0c:05:00
Elapsed Time: 3 days 20 hours 34 minutes 26 seconds
Transmit Statistics:
-------------------Packets: 7978002
Bytes: 919151749
Interrupts: 3
Transmit Errors: 0
Packets Dropped: 0
Receive Statistics:
------------------Packets: 5701362
Bytes: 664049607
Interrupts: 5523380
Receive Errors: 0
Packets Dropped: 0
Bad Packets: 0
Max Packets on S/W Transmit Queue: 2
S/W Transmit Queue Overflow: 0
Current S/W+H/W Transmit Queue Length: 1
Elapsed Time: 0 days 0 hours 0 minutes 0 seconds
Broadcast Packets: 5312086
Broadcast Packets: 3740225
Chapitre 3. Serveur d’E-S virtuel
163
Multicast Packets: 265589
No Carrier Sense: 0
DMA Underrun: 0
Lost CTS Errors: 0
Max Collision Errors: 0
Late Collision Errors: 0
Deferred: 0
SQE Test: 0
Timeout Errors: 0
Single Collision Count: 0
Multiple Collision Count: 0
Current HW Transmit Queue Length: 1
Multicast Packets: 194986
CRC Errors: 0
DMA Overrun: 0
Alignment Errors: 0
No Resource Errors: 0
Receive Collision Errors: 0
Packet Too Short Errors: 0
Packet Too Long Errors: 0
Packets Discarded by Adapter: 0
Receiver Start Count: 0
General Statistics:
------------------No mbuf Errors: 0
Adapter Reset Count: 0
Adapter Data Rate: 0
Driver Flags: Up Broadcast Running
Simplex 64BitSupport ChecksumOffLoad
DataRateSet
-------------------------------------------------------------Statistics for adapters in the carte de réseau Ethernet partagée ent8
-------------------------------------------------------------Number of adapters: 2
SEA Flags: 00000001
< THREAD >
VLAN IDs :
ent7: 1
Real Side Statistics:
Packets received: 5701344
Packets bridged: 5673198
Packets consumed: 3963314
Packets fragmented: 0
Packets transmitted: 28685
Packets dropped: 0
Virtual Side Statistics:
Packets received: 0
Packets bridged: 0
Packets consumed: 0
Packets fragmented: 0
Packets transmitted: 5673253
Packets dropped: 0
Other Statistics:
Output packets generated: 28685
Output packets dropped: 0
Device output failures: 0
Memory allocation failures: 0
ICMP error packets sent: 0
Non IP packets larger than MTU: 0
Thread queue overflow packets: 0
High Availability Statistics:
Control Channel PVID: 99
Control Packets in: 0
Control Packets out: 818825
Type of Packets Received:
Keep-Alive Packets: 0
Recovery Packets: 0
Notify Packets: 0
Limbo Packets: 0
State: LIMBO
Bridge Mode: All
Number of Times Server became Backup: 0
Number of Times Server became Primary: 0
High Availability Mode: Auto
Priority: 1
164
Guide d’utilisation de PowerVM Editions
-------------------------------------------------------------Real Adapter: ent2
ETHERNET STATISTICS (ent2) :
Device Type: 10/100 Mbps Ethernet PCI Adapter II (1410ff01)
Hardware Address: 00:0d:60:0c:05:00
Transmit Statistics:
-------------------Packets: 28684
Bytes: 3704108
Interrupts: 3
Transmit Errors: 0
Packets Dropped: 0
Receive Statistics:
------------------Packets: 5701362
Bytes: 664049607
Interrupts: 5523380
Receive Errors: 0
Packets Dropped: 0
Bad Packets: 0
Max Packets on S/W Transmit Queue: 2
S/W Transmit Queue Overflow: 0
Current S/W+H/W Transmit Queue Length: 1
Broadcast Packets: 21
Multicast Packets: 0
No Carrier Sense: 0
DMA Underrun: 0
Lost CTS Errors: 0
Max Collision Errors: 0
Late Collision Errors: 0
Deferred: 0
SQE Test: 0
Timeout Errors: 0
Single Collision Count: 0
Multiple Collision Count: 0
Current HW Transmit Queue Length: 1
Broadcast Packets: 3740225
Multicast Packets: 194986
CRC Errors: 0
DMA Overrun: 0
Alignment Errors: 0
No Resource Errors: 0
Receive Collision Errors: 0
Packet Too Short Errors: 0
Packet Too Long Errors: 0
Packets Discarded by Adapter: 0
Receiver Start Count: 0
General Statistics:
------------------No mbuf Errors: 0
Adapter Reset Count: 0
Adapter Data Rate: 200
Driver Flags: Up Broadcast Running
Simplex Promiscuous AlternateAddress
64BitSupport ChecksumOffload PrivateSegment LargeSend DataRateSet
10/100 Mbps Ethernet PCI Adapter II (1410ff01) Specific Statistics:
-----------------------------------------------------------------------Link Status: Up
Media Speed Selected: Auto negotiation
Media Speed Running: 100 Mbps Full Duplex
Receive Pool Buffer Size: 1024
No Receive Pool Buffer Errors: 0
Receive Buffer Too Small Errors: 0
Entries to transmit timeout routine: 0
Transmit IPsec packets: 0
Transmit IPsec packets dropped: 0
Receive IPsec packets: 0
Receive IPsec SA offload count: 0
Transmit Large Send packets: 0
Transmit Large Send packets dropped: 0
Packets with Transmit collisions:
1 collisions: 0
6 collisions: 0
11 collisions: 0
2 collisions: 0
7 collisions: 0
12 collisions: 0
3 collisions: 0
8 collisions: 0
13 collisions: 0
4 collisions: 0
9 collisions: 0
14 collisions: 0
5 collisions: 0
10 collisions: 0
15 collisions: 0
-------------------------------------------------------------Chapitre 3. Serveur d’E-S virtuel
165
Virtual Adapter: ent7
ETHERNET STATISTICS (ent7) :
Device Type: Virtual I/O Ethernet Adapter (l-lan)
Hardware Address: 8a:83:54:5b:4e:9a
Transmit Statistics:
-------------------Packets: 7949318
Bytes: 915447641
Interrupts: 0
Transmit Errors: 0
Packets Dropped: 0
Receive Statistics:
------------------Packets: 0
Bytes: 0
Interrupts: 0
Receive Errors: 0
Packets Dropped: 0
Bad Packets: 0
Max Packets on S/W Transmit Queue: 0
S/W Transmit Queue Overflow: 0
Current S/W+H/W Transmit Queue Length: 0
Broadcast Packets: 5312065
Multicast Packets: 265589
No Carrier Sense: 0
DMA Underrun: 0
Lost CTS Errors: 0
Max Collision Errors: 0
Late Collision Errors: 0
Deferred: 0
SQE Test: 0
Timeout Errors: 0
Single Collision Count: 0
Multiple Collision Count: 0
Current HW Transmit Queue Length: 0
Broadcast Packets: 0
Multicast Packets: 0
CRC Errors: 0
DMA Overrun: 0
Alignment Errors: 0
No Resource Errors: 0
Receive Collision Errors: 0
Packet Too Short Errors: 0
Packet Too Long Errors: 0
Packets Discarded by Adapter: 0
Receiver Start Count: 0
General Statistics:
------------------No mbuf Errors: 0
Adapter Reset Count: 0
Adapter Data Rate: 20000
Driver Flags: Up Broadcast Running
Simplex Promiscuous AllMulticast
64BitSupport ChecksumOffload DataRateSet
Virtual I/O Ethernet Adapter (l-lan) Specific Statistics:
--------------------------------------------------------RQ Lingth: 4481
No Copy Buffers: 0
Trunk Adapter: True
Priority: 1 Active: True
Filter MCast Mode: False
Filters: 255
Enabled: 1 Queued: 0 Overflow: 0
LAN State: Operational
Hypervisor Send Failures: 2371664
Receiver Failures: 2371664
Send Errors: 0
Hypervisor Receive Failures: 0
ILLAN Attributes: 0000000000003103 [0000000000003103]
PVID:
1
VIDs: None
Switch ID: ETHERNET0
Buffers
tiny
166
Reg
512
Alloc Min Max
512
512 2048
MaxA LowReg
512
512
Guide d’utilisation de PowerVM Editions
small
medium
large
huge
512
128
24
24
512
128
24
24
512 2048 512
128 256
128
24
64
24
24
64
24
512
128
24
24
-------------------------------------------------------------Control Adapter: ent9
ETHERNET STATISTICS (ent9) :
Device Type: Virtual I/O Ethernet Adapter (l-lan)
Hardware Address: 8a:83:54:5b:4e:9b
Transmit Statistics:
-------------------Packets: 821297
Bytes: 21353722
Interrupts: 0
Transmit Errors: 0
Packets Dropped: 0
Receive Statistics:
------------------Packets: 0
Bytes: 0
Interrupts: 0
Receive Errors: 0
Packets Dropped: 0
Bad Packets: 0
Max Packets on S/W Transmit Queue: 0
S/W Transmit Queue Overflow: 0
Current S/W+H/W Transmit Queue Length: 0
Broadcast Packets: 821297
Broadcast Packets: 0
Multicast Packets: 0
Multicast Packets: 0
No Carrier Sense: 0
CRC Errors: 0
DMA Underrun: 0
DMA Overrun: 0
Lost CTS Errors: 0
Alignment Errors: 0
Max Collision Errors: 0
No Resource Errors: 0
Late Collision Errors: 0
Receive Collision Errors: 0
Deferred: 0
Packet Too Short Errors: 0
SQE Test: 0
Packet Too Long Errors: 0
Timeout Errors: 0
Packets Discarded by Adapter: 0
Single Collision Count: 0
Receiver Start Count: 0
Multiple Collision Count: 0
Current HW Transmit Queue Length: 0
General Statistics:
------------------No mbuf Errors: 0
Adapter Reset Count: 0
Adapter Data Rate: 20000
Driver Flags: Up Broadcast Running
Simplex 64BitSupport ChecksumOffload DataRateSet
Virtual I/O Ethernet Adapter (l-lan) Specific Statistics:
--------------------------------------------------------RQ Length: 4481
No Copy Buffers: 0
Trunk Adapter: False
Filter MCast Mode: False
Filters: 255
Enabled: 0 Queued: 0 Overflow: 0
LAN State: Operational
Hypervisor Send Failures: 0
Receiver Failures: 0
Send Errors: 0
Hypervisor Receive Failures: 0
ILLAN Attributes: 0000000000003002 [0000000000003002]
PVID:
99
VIDs:
None
Chapitre 3. Serveur d’E-S virtuel
167
Switch ID: ETHERNET0
Buffers
tiny
small
medium
large
huge
Reg
Alloc Min
512
512
512
512
128
128
24
24
24
24
Max
MaxA LowReg
512
2048
512
512
2048
512
128
256
128
24
64
24
24
64
24
512
512
128
24
24
Statistiques relatives à une carte de réseau Ethernet partagée
Informations et exemples sur les statistiques générales relatives à une carte de réseau Ethernet partagée,
telles que les ID VLAN (ID de réseau local virtuel) et les informations sur les paquets.
Description des statistiques
Tableau 45. Description des statistiques relatives à une carte de réseau Ethernet partagée
Statistique
Description
Number of adapters
Nombre de cartes (carte réelle et toutes les cartes
virtuelles).
Remarque : Si vous utilisez la reprise par transfert de la
carte de réseau Ethernet partagée, la carte du canal de
contrôle n’est pas incluse.
SEA flags
Indique les fonctions actuellement exécutées par la carte
de réseau Ethernet partagée.
THREAD
La carte de réseau Ethernet partagée fonctionne
en mode unités d’exécution (les paquets
entrants sont mis en file d’attente et traités par
différentes unités d’exécution). Si cette
indication n’apparaît pas, la carte fonctionne en
mode interruption (les paquets sont traités au
moment de leur réception).
LARGESEND
La fonction d’envoi volumineux a été activée
sur la carte de réseau Ethernet partagée.
JUMBO_FRAMES
La fonction de grandes trames a été activée sur
la carte de réseau Ethernet partagée.
GVRP
VLAN IDs
168
Guide d’utilisation de PowerVM Editions
La fonction GVRP a été activée sur la carte de
réseau Ethernet partagée.
Liste des ID de réseau local virtuel qui ont accès au
réseau via la carte de réseau Ethernet partagée (inclut le
PVID et les réseaux VLAN marqués).
Tableau 45. Description des statistiques relatives à une carte de réseau Ethernet partagée (suite)
Statistique
Real adapters
Description
Packets received
Nombre de paquets reçus sur le réseau
physique.
Packets bridged
Nombre de paquets reçus sur le réseau
physique et envoyés au réseau virtuel.
Packets consumed
Nombre de paquets reçus sur le réseau
physique et adressés à l’interface configurée sur
la carte de réseau Ethernet partagée.
Packets fragmented
Nombre de paquets reçus sur le réseau
physique et fragmentés avant l’envoi au réseau
virtuel. Les paquets sont fragmentés lorsque
leur taille est supérieure à l’unité de
transmission maximale (MTU) de la carte.
Packets transmitted
Nombre de paquets envoyés sur le réseau
physique. Ce nombre inclut les paquets envoyés
par l’interface configurée sur la carte de réseau
Ethernet partagée, ainsi que les paquets envoyés
par le réseau virtuel au réseau physique (y
compris les fragments).
Packets dropped
Nombre de paquets reçus sur le réseau
physique et supprimés pour l’une des raisons
suivantes :
v Le paquet est le plus ancien de la file
d’attente des unités d’exécution et l’espace
libre est insuffisant pour la réception d’un
nouveau paquet.
v Le paquet comporte un ID VLAN incorrect et
ne peut pas être traité.
v Le paquet est adressé à l’interface de la carte
de réseau Ethernet partagée, mais aucun filtre
n’a été enregistré sur celle-ci.
Chapitre 3. Serveur d’E-S virtuel
169
Tableau 45. Description des statistiques relatives à une carte de réseau Ethernet partagée (suite)
Statistique
Virtual adapters
Description
Packets received
Nombre de paquets reçus sur le réseau virtuel.
Il s’agit du nombre de paquets reçus sur
l’ensemble des cartes virtuelles.
Packets bridged
Nombre de paquets reçus sur le réseau virtuel
et envoyés au réseau physique.
Packets consumed
Nombre de paquets reçus sur le réseau virtuel
et adressés à l’interface configurée sur la carte
de réseau Ethernet partagée.
Packets fragmented
Nombre de paquets reçus sur le réseau virtuel
et fragmentés avant l’envoi au réseau physique.
Les paquets sont fragmentés lorsque leur taille
est supérieure à l’unité de transmission
maximale (MTU) de la carte.
Packets transmitted
Nombre de paquets envoyés sur le réseau
virtuel. Ce nombre inclut les paquets envoyés
par l’interface configurée sur la carte de réseau
Ethernet partagée, ainsi que les paquets envoyés
par le réseau physique au réseau virtuel (y
compris les fragments).
Packets dropped
Nombre de paquets reçus sur le réseau virtuel
et supprimés pour l’une des raisons suivantes :
v Le paquet est le plus ancien de la file
d’attente des unités d’exécution et l’espace
libre est insuffisant pour la réception d’un
nouveau paquet.
v Le paquet est adressé à l’interface de la carte
de réseau Ethernet partagée, mais aucun filtre
n’a été enregistré sur celle-ci.
Output packets generated
Nombre de paquets comportant une balise VLAN
incorrecte ou aucune balise VLAN envoyés par l’interface
configurée sur la carte de réseau Ethernet partagée.
Output packets dropped
Nombre de paquets envoyés par l’interface configurée
sur la carte de réseau Ethernet partagée et supprimés à
cause d’une balise VLAN incorrecte.
Device output failures
Nombre de paquets non envoyés suite à des erreurs sur
l’unité sous-jacente. Il peut s’agir d’erreurs envoyées sur
le réseau physique et le réseau virtuel, notamment les
paquets subissant une erreur liée à la fragmentation et au
protocole ICMP (Internet Control Message Protocol)
provenant de la carte de réseau Ethernet partagée.
Memory allocation failures
Nombre de paquets non envoyés par manque de
mémoire sur le réseau pour accomplir l’opération.
170
Guide d’utilisation de PowerVM Editions
Tableau 45. Description des statistiques relatives à une carte de réseau Ethernet partagée (suite)
Statistique
Description
ICMP error packets sent
Nombre de paquets en erreur ICMP envoyés avec succès
en cas d’impossibilité de fragmentation de paquet
volumineux due à la définition du bit don’t fragment.
Non IP packets larger than MTU
Nombre de paquets non envoyés pour les raisons
suivantes : leur taille est supérieure à l’unité de
transmission maximale (MTU) de la carte et leur
fragmentation est impossible car ce ne sont pas des
paquets IP.
Thread queue overflow packets
Nombre de paquets supprimés des files d’attente
d’unités d’exécution à cause d’un espace insuffisant pour
la réception d’un nouveau paquet.
Exemples de statistiques
ETHERNET STATISTICS (ent8) :
Device Type: Shared Ethernet Adapter
Hardware Address: 00:0d:60:0c:05:00
Elapsed Time: 3 days 20 hours 34 minutes 26 seconds
Transmit Statistics:
-------------------Packets: 7978002
Bytes: 919151749
Interrupts: 3
Transmit Errors: 0
Packets Dropped: 0
Receive Statistics:
------------------Packets: 5701362
Bytes: 664049607
Interrupts: 5523380
Receive Errors: 0
Packets Dropped: 0
Bad Packets: 0
Max Packets on S/W Transmit Queue: 2
S/W Transmit Queue Overflow: 0
Current S/W+H/W Transmit Queue Length: 1
Elapsed Time: 0 days 0 hours 0 minutes 0 seconds
Broadcast Packets: 5312086
Broadcast Packets: 3740225
Multicast Packets: 265589
Multicast Packets: 194986
No Carrier Sense: 0
CRC Errors: 0
DMA Underrun: 0
DMA Overrun: 0
Lost CTS Errors: 0
Alignment Errors: 0
Max Collision Errors: 0 No Resource Errors: 0
Late Collision Errors: 0 Receive Collision Errors: 0
Deferred: 0
Packet Too Short Errors: 0
SQE Test: 0
Packet Too Long Errors: 0
Timeout Errors: 0
Packets Discarded by Adapter: 0
Single Collision Count: 0
Receiver Start Count: 0
Multiple Collision Count: 0
Current HW Transmit Queue Length: 1
General Statistics:
------------------No mbuf Errors: 0
Adapter Reset Count: 0
Adapter Data Rate: 0
Driver Flags: Up Broadcast Running
Simplex 64BitSupport ChecksumOffLoad
DataRateSet
-------------------------------------------------------------Statistics for adapters in the carte de réseau Ethernet partagée ent8
-------------------------------------------------------------Number of adapters: 2
SEA Flags: 00000001
< THREAD >
Chapitre 3. Serveur d’E-S virtuel
171
VLAN IDs :
ent7: 1
Real Side Statistics:
Packets received: 5701344
Packets bridged: 5673198
Packets consumed: 3963314
Packets fragmented: 0
Packets transmitted: 28685
Packets dropped: 0
Virtual Side Statistics:
Packets received: 0
Packets bridged: 0
Packets consumed: 0
Packets fragmented: 0
Packets transmitted: 5673253
Packets dropped: 0
Other Statistics:
Output packets generated: 28685
Output packets dropped: 0
Device output failures: 0
Memory allocation failures: 0
ICMP error packets sent: 0
Non IP packets larger than MTU: 0
Thread queue overflow packets: 0
-------------------------------------------------------------Real Adapter: ent2
ETHERNET STATISTICS (ent2) :
Device Type: 10/100 Mbps Ethernet PCI Adapter II (1410ff01)
Hardware Address: 00:0d:60:0c:05:00
Transmit Statistics:
-------------------Packets: 28684
Bytes: 3704108
Interrupts: 3
Transmit Errors: 0
Packets Dropped: 0
Receive Statistics:
------------------Packets: 5701362
Bytes: 664049607
Interrupts: 5523380
Receive Errors: 0
Packets Dropped: 0
Bad Packets: 0
Max Packets on S/W Transmit Queue: 2
S/W Transmit Queue Overflow: 0
Current S/W+H/W Transmit Queue Length: 1
Broadcast Packets: 21
Multicast Packets: 0
No Carrier Sense: 0
DMA Underrun: 0
Lost CTS Errors: 0
Max Collision Errors: 0
Late Collision Errors: 0
Deferred: 0
SQE Test: 0
Timeout Errors: 0
Single Collision Count: 0
Multiple Collision Count:
Current HW Transmit Queue
Broadcast Packets: 3740225
Multicast Packets: 194986
CRC Errors: 0
DMA Overrun: 0
Alignment Errors: 0
No Resource Errors: 0
Receive Collision Errors: 0
Packet Too Short Errors: 0
Packet Too Long Errors: 0
Packets Discarded by Adapter: 0
Receiver Start Count: 0
0
Length: 1
General Statistics:
------------------No mbuf Errors: 0
Adapter Reset Count: 0
Adapter Data Rate: 200
Driver Flags: Up Broadcast Running
Simplex Promiscuous AlternateAddress
64BitSupport ChecksumOffload PrivateSegment LargeSend DataRateSet
172
Guide d’utilisation de PowerVM Editions
10/100 Mbps Ethernet PCI Adapter II (1410ff01) Specific Statistics:
-----------------------------------------------------------------------Link Status: Up
Media Speed Selected: Auto negotiation
Media Speed Running: 100 Mbps Full Duplex
Receive Pool Buffer Size: 1024
No Receive Pool Buffer Errors: 0
Receive Buffer Too Small Errors: 0
Entries to transmit timeout routine: 0
Transmit IPsec packets: 0
Transmit IPsec packets dropped: 0
Receive IPsec packets: 0
Receive IPsec SA offload count: 0
Transmit Large Send packets: 0
Transmit Large Send packets dropped: 0
Packets with Transmit collisions:
1 collisions: 0
6 collisions: 0
11 collisions: 0
2 collisions: 0
7 collisions: 0
12 collisions: 0
3 collisions: 0
8 collisions: 0
13 collisions: 0
4 collisions: 0
9 collisions: 0
14 collisions: 0
5 collisions: 0
10 collisions: 0
15 collisions: 0
-------------------------------------------------------------Virtual Adapter: ent7
ETHERNET STATISTICS (ent7) :
Device Type: Virtual I/O Ethernet Adapter (l-lan)
Hardware Address: 8a:83:54:5b:4e:9a
Transmit Statistics:
-------------------Packets: 7949318
Bytes: 915447641
Interrupts: 0
Transmit Errors: 0
Packets Dropped: 0
Receive Statistics:
------------------Packets: 0
Bytes: 0
Interrupts: 0
Receive Errors: 0
Packets Dropped: 0
Bad Packets: 0
Max Packets on S/W Transmit Queue: 0
S/W Transmit Queue Overflow: 0
Current S/W+H/W Transmit Queue Length: 0
Broadcast Packets: 5312065
Broadcast Packets: 0
Multicast Packets: 265589
Multicast Packets: 0
No Carrier Sense: 0
CRC Errors: 0
DMA Underrun: 0
DMA Overrun: 0
Lost CTS Errors: 0
Alignment Errors: 0
Max Collision Errors: 0 No Resource Errors: 0
Late Collision Errors: 0 Receive Collision Errors: 0
Deferred: 0
Packet Too Short Errors: 0
SQE Test: 0
Packet Too Long Errors: 0
Timeout Errors: 0
Packets Discarded by Adapter: 0
Single Collision Count: 0
Receiver Start Count: 0
Multiple Collision Count: 0
Current HW Transmit Queue Length: 0
General Statistics:
------------------No mbuf Errors: 0
Adapter Reset Count: 0
Adapter Data Rate: 20000
Driver Flags: Up Broadcast Running
Simplex Promiscuous AllMulticast
64BitSupport ChecksumOffload DataRateSet
Virtual I/O Ethernet Adapter (l-lan) Specific Statistics:
Chapitre 3. Serveur d’E-S virtuel
173
--------------------------------------------------------RQ Lingth: 4481
No Copy Buffers: 0
Trunk Adapter: True
Priority: 1 Active: True
Filter MCast Mode: False
Filters: 255
Enabled: 1 Queued: 0 Overflow: 0
LAN State: Operational
Hypervisor Send Failures: 2371664
Receiver Failures: 2371664
Send Errors: 0
Hypervisor Receive Failures: 0
ILLAN Attributes: 0000000000003103 [0000000000003103]
PVID:
1
VIDs: None
Switch ID: ETHERNET0
Buffers
tiny
small
medium
large
huge
Reg
512
512
128
24
24
Alloc
512
512
128
24
24
Min
512
512
128
24
24
Max
MaxA
2048 512
2048 512
256
128
64
24
64
24
LowReg
512
512
128
24
24
Types d’utilisateur sur le serveur d’E-S virtuel
Cette rubrique décrit les types d’utilisateur du serveur d’E-S virtuel et leurs droits.
Le serveur d’E-S virtuel dispose des types d’utilisateur suivants : administrateur principal, administrateur
système, utilisateur technicien de maintenance et utilisateur ingénieur de développement. Après
l’installation, le seul type d’utilisateur actif est l’administrateur principal.
Administrateur principal
L’ID utilisateur de l’administrateur principal (padmin) est le seul ID utilisateur activé après l’installation
du serveur d’E-S virtuel. Il peut exécuter toutes les commandes du serveur d’E-S virtuel. Il ne peut y
avoir qu’un seul administrateur principal sur le serveur d’E-S virtuel.
Administrateur système
L’ID utilisateur administrateur système a accès à toutes les commandes, à l’exception des suivantes :
v lsfailedlogin
v lsgcl
v Commande mirrorios
v Commande mkuser
v oem_setup_env
v Commande rmuser
v Commande shutdown
v Commande unmirrorios
L’administrateur principal peut créer un nombre illimité d’ID d’administrateur système.
174
Guide d’utilisation de PowerVM Editions
Technicien de maintenance
Créez le type d’utilisateur technicien de maintenance (SR) pour permettre à un technicien de maintenance
de se connecter au système afin de réaliser des routines de diagnostic. Une fois connecté, l’utilisateur
technicien de maintenance est dirigé directement vers les menus de diagnostic.
Ingénieur de développement
Créez le type d’utilisateur ingénieur de développement pour permettre à un ingénieur de développement
de se connecter au système et de résoudre les incidents.
Affichage
Ce rôle autorise uniquement les opérations en lecture seule et ne permet d’exécuter que les fonctions de
type ls. Les utilisateurs dotés de ce rôle ne sont pas autorisés à modifier la configuration du système et
ne disposent pas des droits d’écriture dans leur répertoire de base.
Chapitre 3. Serveur d’E-S virtuel
175
176
Guide d’utilisation de PowerVM Editions
Chapitre 4. Integrated Virtualization Manager
Gérez le serveur d’E-S virtuel et les partitions logiques client à l’aide du gestionnaire Integrated
Virtualization Manager.
Le gestionnaire Integrated Virtualization Manager est doté d’une interface de gestion de système basée
sur le Web et d’une interface de ligne de commande, permettant de gérer des serveurs lame systèmes et
BladeCenter qui utilisent le serveur d’E-S virtuel. Sur le système géré, vous pouvez créer des partitions
logiques, gérer la mémoire virtuelle et les connexions Ethernet virtuelles, et afficher des informations de
maintenance relatives au serveur. Integrated Virtualization Manager est livré avec le serveur d’E-S virtuel,
mais il ne peut être activé et utilisé que sur certaines plateformes non équipées de la console HMC
(Hardware Management).
Si vous installez le serveur d’E-S virtuel sur un serveur pris en charge et si aucune console HMC n’est
connectée lors de l’installation du serveur, le gestionnaire Integrated Virtualization Manager est activé sur
ce serveur. Vous pouvez alors l’utiliser pour configurer le système géré via le serveur d’E-S virtuel.
Pour plus d’informations sur l’utilisation du serveur d’E-S virtuel sur un système géré par la console
HMC, voir Chapitre 3, «Serveur d’E-S virtuel», à la page 13.
Sur les serveurs équipés d’un processeur POWER6, vous pouvez installer les systèmes d’exploitation
suivants sur les partitions logiques créées à l’aide d’Integrated Virtualization Manager.
Tableau 46. Prise en charge des systèmes d’exploitation pour les partitions logiques sur les serveurs équipés de
processeur POWER6 par Integrated Virtualization Manager
Système d’exploitation
Serveurs à base de processeurs POWER6
AIX 5.3 ou version ultérieure
v 03E/4A
v 04E/8A
SUSE Linux Enterprise Server 10 Service Pack 2 ou
supérieur
v JS/12
v JS/22
SUSE Linux Enterprise Server 10 Service Pack 1 Update 1 JS/22
ou supérieur
SUSE Linux Enterprise Server 10 Service Pack 1
v 03E/4A
v 04E/8A
Red Hat Enterprise Linux version 5.2
JS/22
Red Hat Enterprise Linux version 5.1
v 03E/4A
v 04E/8A
v JS/12
v JS/22
Red Hat Enterprise Linux version 4.7
JS/22
Red Hat Enterprise Linux version 4.6
v JS/12
v JS/22
Red Hat Enterprise Linux version 4.5
v 03E/4A
v 04E/8A
v JS/22
177
Sur les serveurs équipés d’un processeur POWER5, vous pouvez installer les systèmes d’exploitation
suivants sur les partitions logiques créées à l’aide d’Integrated Virtualization Manager :
v AIX 5.3 (ou plus)
v SUSE Linux Enterprise Server 9 (ou plus)
v SUSE Linux Enterprise Server 10 (ou plus)
v Red Hat Enterprise Linux version 4 (ou plus)
v Red Hat Enterprise Linux version 5 (ou ultérieure)
Integrated Virtualization Manager
Le gestionnaire Integrated Virtualization Manager est une interface de gestion de système exécutée dans un
navigateur pour le serveur d’E-S virtuel. Integrated Virtualization Manager permet de créer et de gérer
des partitions logiques sur un serveur unique.
Integrated Virtualization Manager est pris en charge uniquement sur certains modèles de serveur. Pour
connaître la liste complète des modèles de serveur pris en charge, voir le manuel Guide d’utilisation de
PowerVM Editions . Pour consulter le fichier PDF Guide d’utilisation de PowerVM Editions (SA11-1700),
d’une taille approximative de 4 Mo, voir sa76-0100.pdf
.
Le serveur d’E-S virtuel est un logiciel qui offre une mémoire virtuelle et des ressources Ethernet partagées
aux autres partitions logiques du système géré. Le serveur d’E-S virtuel n’est pas un système
d’exploitation standard qui peut exécuter des applications. Le serveur d’E-S virtuel est installé sur une
partition logique à la place d’un système d’exploitation et sert uniquement à fournir des ressources d’E-S
virtuelles aux autres partitions logiques disposant d’un système d’exploitation standard. Integrated
Virtualization Manager vous permet d’indiquer au serveur comment il doit affecter ces ressources aux
autres partitions logiques.
Avant d’utiliser Integrated Virtualization Manager, vous devez d’abord installer le serveur d’E-S virtuel
sur un serveur non partitionné. Le serveur d’E-S virtuel crée automatiquement une partition logique pour
son usage personnel, laquelle est appelée partition de gestion pour le système géré. La partition de gestion
est pour le serveur d’E-S virtuel la partition logique qui contrôle l’ensemble des ressources d’E-S
physiques sur le système géré. Après avoir installé le serveur d’E-S virtuel, vous pouvez configurer une
carte Ethernet physique sur le serveur de façon à pouvoir vous connecter à Integrated Virtualization
Manager à partir d’un ordinateur disposant d’un navigateur Web.
178
Guide d’utilisation de PowerVM Editions
Cette figure illustre un serveur systèmes ou un serveur lame BladeCenter avec la technologie POWER
Architecture. Le serveur d’E-S virtuel se trouve sur sa propre partition logique et les partitions logiques
client sont gérées par la partition logique serveur d’E-S virtuel. Le navigateur installé sur le PC se
connecte à l’interface du gestionnaire Integrated Virtualization Manager via un réseau, et vous pouvez
utiliser Integrated Virtualization Manager pour créer et gérer les partitions logiques sur le serveur.
Affectation des ressources
Lorsque vous utilisez Integrated Virtualization Manager pour créer une partition logique, vous affectez
les ressources processeur et mémoire directement aux partitions logiques. Si vous avez recours à des
processeurs dédiés, vous spécifiez alors leur nombre exact. Si vous utilisez des processeurs partagés, vous
spécifiez le nombre de processeurs virtuels de la partition logique ; Integrated Virtualization Manager
calcule alors le nombre d’unités de traitement à affecter à la partition logique, en fonction du nombre de
processeurs virtuels. Dans tous les cas, la quantité de ressources affectée est validée sur la partition
logique, depuis la création de la partition logique et jusqu’à la modification de cette quantité ou la
suppression de la partition logique. Vous ne pouvez donc pas surcharger les ressources processeur sur les
partitions logiques en utilisant Integrated Virtualization Manager.
Une partition logique créée à l’aide du gestionnaire Integrated Virtualization Manager comporte des
valeurs de processeur et de mémoire minimale et maximale. Ces valeurs sont utilisées lors de l’exécution
d’une application de gestion de charge de travail sur le système géré, lors du redémarrage du système
géré après un incident processeur ou encore lors du déplacement dynamique de ressources au niveau de
la partition de gestion du serveur d’E-S virtuel. Par défaut, les valeurs minimale et maximale ont la
même valeur que la quantité effective de ressources validées. Vous pouvez modifier les valeurs minimale
et maximale du processeur à tout moment, mais celles de la mémoire uniquement lorsque la partition
logique n’est pas démarrée.
Lorsque vous utilisez Integrated Virtualization Manager pour partitionner votre système géré, une partie
de la mémoire et des processeurs de ce système est affectée à la partition de gestion du serveur d’E-S
Chapitre 4. Integrated Virtualization Manager
179
virtuel. Si vous le souhaitez, vous pouvez faire correspondre les ressources mémoire et processeur
affectées à la partition de gestion avec la charge de travail du serveur d’E-S virtuel. Les disques
physiques peuvent être affectés directement aux partitions logiques ou aux pools de stockage ; les disques
virtuels (ou volumes logiques) peuvent être créés à partir de ces pools et affectés aux partitions logiques.
Les connexions Ethernet physiques sont généralement partagées via la configuration de la carte physique
Ethernet, qui devient un pont Ethernet virtuel entre le réseau local virtuel du serveur et le réseau local
physique externe. carte de réseau Ethernet hôte Autres types de périphériques d’E-S
Planification du gestionnaire Integrated Virtualization Manager
Vous devez développer une planification système pour votre serveur serveurs ou du serveur lame
BladeCenter géré par le gestionnaire Integrated Virtualization Manager.
Une planification correcte est essentielle à la réussite de la configuration et de l’utilisation de votre
serveur. Lorsque vous installez Integrated Virtualization Manager, il se crée automatiquement une
partition logique sur le serveur. Cette partition logique s’appelle partition de gestion. Integrated
Virtualization Manager affecte automatiquement une fraction de la mémoire et des processeurs sur le
serveur à la partition de gestion. Vous pouvez changer les ressources de processeur et de quantité de
mémoire par défaut affectées à la partition de gestion.
Vous devez développer une planification incluant des informations telles que :
v Besoins en ressources système de la partition de gestion. Ces besoins peuvent dépendre de nombreux
facteurs, comme le modèle de serveur, le nombre de partitions logiques que vous créez sur le système
géré et le nombre d’unités virtuelles utilisées par ces partitions logiques.
v Besoins en stockage de chaque partition logique que vous allez créer sur votre système géré. Calculez
l’espace de stockage nécessaire à chaque partition logique pour son système d’exploitation, ses
applications et ses données. Pour plus d’informations sur les besoins en stockage de chaque système
d’exploitation, reportez-vous à la documentation correspondante.
Le tableau suivant contient des informations qui vous aideront à créer une planification système en
fonction de votre modèle matériel.
Tableau 47. Ressources d’informations pour la planification des serveurs gérés par le gestionnaire Integrated
Virtualization Manager
Modèle matériel
Ressources d’informations de planification
Serveurs à base de processeurs POWER6
v «Planification du serveur d’E-S virtuel», à la page 47
Remarque : Bien que ces informations soient centrées
sur la planification du serveur d’E-S virtuel sur un
système qui est géré par une console HMC (Hardware
Management) , la plupart de ces informations
s’appliquent également à la planification du serveur
d’E-S virtuel sur un système géré par le gestionnaire
Integrated Virtualization Manager.
180
Guide d’utilisation de PowerVM Editions
Tableau 47. Ressources d’informations pour la planification des serveurs gérés par le gestionnaire Integrated
Virtualization Manager (suite)
Modèle matériel
Ressources d’informations de planification
BladeCenter
v Planification de PowerVM Editions (ou Advanced
POWER Virtualization Editions) dans Systems
Information Center
v «Planification du serveur d’E-S virtuel», à la page 47
Remarque : Bien que ces informations soient centrées
sur la planification du serveur d’E-S virtuel sur un
serveur serveurs qui est géré par une console HMC, la
plupart de ces informations s’appliquent également à
la planification du serveur d’E-S virtuel sur un serveur
lame BladeCenter.
v Le document Serveur d’E-S virtuel et Integrated
Virtualization Manager - Guide des commandes contient
une description détaillée de la commande mksysplan
sur le gestionnaire Integrated Virtualization Manager.
Une fois que vous avez installé et configuré un
système, vous pouvez utiliser la commande mksysplan
pour créer une planification système basée sur la
configuration système existante. Vous pouvez ensuite
exporter la planification système et l’importer dans un
autre système géré par Integrated Virtualization
Manager. Enfin, vous pouvez utiliser l’assistant de
déploiement de la planification système d’Integrated
Virtualization Manager pour déployer la planification
système sur le nouveau système.
Validation de la planification système sur Integrated Virtualization
Manager
Pour déployer une planification système sur un système géré du gestionnaire Integrated Virtualization
Manager, utilisez l’assistant de déploiement de planification système. Cet assistant valide les informations
de la planification système par rapport à la configuration du système géré avant de lancer le processus de
déploiement.
Le processus de validation d’une planification système comporte deux phases : la phase de validation du
matériel et la phase de validation de la partition.
Lors de la validation du matériel sur le système géré, le gestionnaire Integrated Virtualization Manager
compare les informations suivantes figurant dans la planification système avec le matériel disponible sur
le système géré :
v Processeur, mémoire et stockage qui sont disponibles sur le système géré
v Emplacement des cartes d’E-S physiques
Le matériel décrit dans la planification système est validé lorsqu’il correspond à celui que spécifie le
système géré. Le matériel du système géré peut contenir d’autres ressources, en plus de celles que
spécifie la planification système, et être néanmoins validé, tant qu’il correspond au matériel précisé dans
la planification.
L’exemple suivant illustre la façon dont le gestionnaire Integrated Virtualization Manager compare les
ressources matérielles suivantes figurant dans la planification système au cours du processus de
validation pour déterminer si la planification système est valide pour un système géré :
v Une planification système mentionne un serveur doté de deux processeurs et de 8 Go de mémoire,
ainsi que l’emplacement spécifique de cartes d’E-S physiques au sein de l’unité centrale. Si un serveur
Chapitre 4. Integrated Virtualization Manager
181
contient deux processeurs, de 16 Go de mémoire, des cartes d’E-S physiques placées à l’endroit
mentionné dans la planification, au sein de l’unité centrale, ainsi qu’une unité d’extension disposant de
cartes d’E-S physiques supplémentaires, il est validé.
v Cependant, un serveur qui contient 4 Go de mémoire ne sera pas validé.
v Une unité centrale dont le type de carte d’E-S physique diffère de celui que spécifie la planification
système, pour un emplacement donné, ne sera pas non plus validée. Cependant, si la planification
spécifie un emplacement vide, tout type de carte d’E-S physique sera validé à cet emplacement sur le
système réel.
Le gestionnaire Integrated Virtualization Manager valide également les unités de disque connectées à des
cartes d’E-S physiques en fonction des unités de disque qui figurent dans la planification système.
Lorsque vous utilisez une version du gestionnaire Integrated Virtualization Manager antérieure à la
version 1.5.2, vous ne pouvez déployer des planifications système que sur un nouveau système, ou sur
un système ne comportant pas la partition de gestion configurée pour le gestionnaire Integrated
Virtualization Manager. Vous pouvez installer le gestionnaire Integrated Virtualization Manager, mais
vous ne pouvez pas le configurer.
Si une des phases du processus de validation de matériel échoue pour la planification système, la
validation de l’ensemble du système échoue.
Les conditions à remplir pour que la validation des partitions réussisse varient suivant la version du
gestionnaire Integrated Virtualization Manager que vous utilisez pour déployer la planification système.
Validation des partitions d’une version d’Integrated Virtualization Manager
antérieure à la version 1.5.2
Lorsque vous utilisez une version du gestionnaire Integrated Virtualization Manager antérieure à la
version 1.5.2 pour déployer une planification système, celle-ci et le système cible doivent remplir les
conditions de validation des partitions suivantes :
1. Le système cible doit correspondre à un nouveau système ou à un système pour lequel la partition de
gestion du gestionnaire Integrated Virtualization Manager n’est pas encore configurée. Le déploiement
de la planification système nécessite l’installation du gestionnaire Integrated Virtualization Manager,
mais pas sa configuration.
2. Si le système géré, ciblé par la planification système, contient l’un des éléments suivants, la validation
de la planification échoue :
v Partitions logiques client
v Cartes Ethernet virtuelles
v Cartes Ethernet partagées
v Cartes EtherChannel
v Pools de stockage
v Unités de sauvegarde
3. Si le système géré, ciblé par la planification système, ne dispose pas des ressources disponibles
suivantes comme requis par la planification système, la validation de la planification échoue :
v
v
v
v
Processeurs
Mémoire
Carte d’E-S
Stockage
Si une des phases du processus de validation des partitions échoue pour la planification système, la
validation de l’ensemble du système échoue.
182
Guide d’utilisation de PowerVM Editions
Validation des partitions d’Integrated Virtualization Manager version 1.5.2
Lorsque vous déployez une planification système à l’aide du gestionnaire Integrated Virtualization
Manager version 1.5.2, effectuez le déploiement sur un système déjà utilisé ou dont la configuration n’est
pas celle fournie par défaut par le fabricant.
Lorsque vous utilisez Integrated Virtualization Manager version 1.5.2 pour le déploiement d’une
planification système, la validation des partitions est plus souple. Les critères de validation de partition
du gestionnaire Integrated Virtualization Manager version 1.5.2 présentent les modifications suivantes par
rapport aux versions précédentes :
v La partition de gestion du gestionnaire Integrated Virtualization Manager ou les partitions logiques du
client peuvent exister sur le système cible de la planification système. Toutefois, les partitions logiques
du client et le matériel configuré sur le système cible doivent être identiques à ces mêmes éléments de
la planification système.
v Le système cible peut disposer d’éléments déjà configurés du serveur d’E-S virtuel, tels que des
disques virtuels ou des cartes Ethernet virtuelles. Les éléments de la planification système et les
éléments configurés sur le système géré ne doivent pas correspondre exactement. En se basant sur
certains critères, le processus de validation de la planification système correspond aux éléments du
serveur d’E-S virtuel dans la planification et aux éléments du système cible. Si un élément ne
correspond pas, l’élément de la planification est candidat au déploiement. Toutefois, si l’élément de la
planification système utilise une carte ou une unité qu’utilisent déjà d’autres éléments configurés sur le
système, l’élément de la planification est marqué comme ne pouvant pas être déployé. A la fin du
processus de validation, l’assistant présente la liste des éléments de la planification système pouvant
être déployés et la liste des éléments ne pouvant pas l’être. Lorsque vous poursuivez le déploiement de
la planification système, l’assistant n’essaie pas de déployer des éléments marqués comme ne pouvant
pas l’être.
Les exemples suivants illustrent la façon dont le gestionnaire Integrated Virtualization Manager
compare les éléments du serveur d’E-S virtuel et d’autres éléments du déploiement des partitions
logiques figurant dans la planification système au cours du processus de validation pour déterminer si
ces éléments peuvent être déployés :
– La planification système contient une carte Ethernet partagée pour une partition logique alors
qu’aucune n’est configurée pour le système cible. Dans ce cas, la carte Ethernet partagée de la
planification système est déployée sur le système cible.
– La planification système contient deux cartes EtherChannel et une carte EtherChannel existe sur le
système cible. Cette dernière correspond exactement à l’une des deux cartes de la planification
système et comprend toutes les cartes physiques. Dans ce cas, la validation de cette carte
EtherChannel réussit, mais elle n’est pas déployée. L’autre carte EtherChannel de la planification
système, qui ne nécessite aucune des cartes utilisées par la carte EtherChannel existante ou la carte
Ethernet partagée, est déployée.
– La planification système contient deux pools de stockage et un autre se trouve sur le système cible.
Le pool de stockage existant correspond exactement à l’un de ceux de la planification système, avec
tous les codes d’emplacement de tous les disques et les tailles de disque indiquées. Dans ce cas, la
validation de ce pool de stockage réussit, mais il n’est pas déployé. L’autre pool de stockage de la
planification système, qui ne présente aucun conflit d’attribut avec le pool de stockage existant, est
déployé.
– La planification système contient la carte EtherChannel et le système cible une carte Ethernet
partagée. Cette dernière utilise une carte physique définie pour être utilisée par la carte
EtherChannel dans la planification système. Dans ce cas, la validation de la carte EtherChannel
échoue et la carte ne peut pas être déployée.
v Il n’est plus nécessaire de déployer entièrement une planification système, mais vous pouvez procéder
au déploiement partiel sur le système cible en sélectionnant les partitions logiques à déployer dans la
planification. Vous pouvez réexécuter l’assistant de déploiement de planification système par la suite
afin de déployer le reste des partitions logiques dans la planification système.
Chapitre 4. Integrated Virtualization Manager
183
Si une des phases du processus de validation des partitions échoue pour la planification système, la
validation de l’ensemble du système échoue.
Installation du gestionnaire Integrated Virtualization Manager
Installez la partition de gestion du serveur d’E-S virtuel sur un serveur serveurs ou un serveur lame
BladeCenter. Connectez-vous ensuite à l’interface d’Integrated Virtualization Manager basée sur le Web.
Installation du serveur d’E-S virtuel et activation du gestionnaire
Integrated Virtualization Manager sur des serveurs systèmes
Lorsque vous installez leserveur d’E-S virtuel dans un environnement sans console HMC (Hardware
Management) , le serveur d’E-S virtuel crée automatiquement une partition de gestion dont l’interface est
le gestionnaire Integrated Virtualization Manager.
Avant de commencer, effectuez les opérations suivantes :
1. Vérifiez que le serveur est bien raccordé. En particulier, vérifiez que le câble série relie le PC ou le
terminal ASCII au port système du serveur.
2. Vérifiez que pour l’installation, le système dispose d’une unité de disque de 512 octets. Le serveur
d’E-S virtuel ne reconnaît que les unités de disque de 512 octets.
3. Vérifiez que vous avez accès à l’interface ASMI (Advanced System Management Interface) via
l’interface Web.
4. Vérifiez que vous disposez des droits d’administrateur ou de fournisseur de services agréé sur
l’interface ASMI.
5. A l’aide de l’interface ASMI, modifiez les paramètres suivants selon le type de partition sur laquelle
vous allez installer Integrated Virtualization Manager :
Pour une partition AIX ou Linux, procédez comme suit pour modifier le mode d’amorçage de la
partition :
a. Dans la zone de navigation, développez Contrôle de l’alimentation/redémarrage.
b. Cliquez sur Mettre le système sous/hors tension.
c. Sélectionnez Amorçage sur le menu SMS dans la zone d’amorçage Mode de partition AIX/Linux.
d. Cliquez sur Sauvegarder les paramètres et mettre sous tension.
6. Ouvrez une session de terminal sur le PC, par exemple à l’aide de l’application HyperTerminal, et
attendez que le menu SMS s’affiche. Vérifiez que la vitesse de ligne pour la communication avec
l’unité centrale est de 19 200 bits par seconde.
7. En utilisant l’interface Web ASMI, changez à nouveau le mode d’amorçage de partition pour que le
serveur charge l’environnement d’exploitation au cours du démarrage :
a. Développez Contrôle alimentation/redémarrage.
b. Cliquez sur Mettre le système sous/hors tension.
c. Sélectionnez Poursuivre sur le système d’exploitation dans la zone d’amorçage Mode de partition
AIX/Linux.
d. Cliquez sur Sauvegarder les paramètres.
Pour installer le serveur d’E-S virtuel et activer le gestionnaire Integrated Virtualization Manager,
procédez comme suit :
1. Insérez le CD-ROM ou le DVD-ROM du serveur d’E-S virtuel dans l’unité de disque optique.
2. Dans SMS, sélectionnez le CD-ROM ou le DVD-ROM comme unité d’amorçage :
a. Sélectionnez Choix d’options d’amorçage et appuyez sur Entrée.
b. Sélectionnez Choix unité installation/amorçage et appuyez sur Entrée.
c. Sélectionnez CD/DVD et appuyez sur Entrée.
184
Guide d’utilisation de PowerVM Editions
d. Sélectionnez le type de support qui correspond à l’unité de disque optique, puis appuyez sur
Entrée.
e. Sélectionnez le numéro qui correspond à l’unité de disque optique et appuyez sur Entrée.
f. Sélectionnez Amorçage en mode normal et confirmez que vous souhaitez quitter SMS.
3. Installez le serveur d’E-S virtuel :
a. Sélectionnez la console et appuyez sur Entrée.
b. Sélectionnez une langue pour les menus du système d’exploitation de base et appuyez sur Entrée.
c. Sélectionnez Lancement de l’installation avec paramètres par défaut.
d. Sélectionnez Suite de l’installation. Le système géré redémarre après la fin de l’installation et
l’invite de connexion s’affiche sur le terminal ASCII.
Après avoir installé le gestionnaire Integrated Virtualization Manager, effectuez les tâches
complémentaires à l’installation (acceptez l’accord de licence, recherchez les mises à jour, configurez la
connexion TCP/IP). Pour plus d’informations, voir «Finalisation de l’installation du gestionnaire
Integrated Virtualization Manager», à la page 186.
Information associée
Installation du serveur d’E-S virtuel à l’aide de NIM
Installation du serveur d’E-S virtuel et activation du gestionnaire
Integrated Virtualization Manager sur un serveur lame BladeCenter
avec la technologie POWER Architecture
Lorsque vous installez le serveur d’E-S virtuel sur un serveur lame BladeCenter avec la technologie
POWER Architecture, le serveur d’E-S virtuel crée automatiquement une partition de gestion dont
l’interface est le gestionnaire Integrated Virtualization Manager.
Avant de commencer, effectuez les opérations suivantes :
1. Démarrez une session Telnet ou SSH sur le module de gestionBladeCenter. Pour plus d’instructions,
voir les articles Telnet connection ou Serial connection de l’ Information Center.
2. Ouvrez une session Serial over LAN (SOL). Pour plus d’instructions, voir l’article Starting an SOL
session dans l’ Information Center.
3. Démarrez l’utilitaire SMS (System Management Services). Pour plus d’instructions, voir l’article
Starting the SMS utility dans l’ Information Center.
Pour installer le serveur d’E-S virtuel et activer le gestionnaire Integrated Virtualization Manager,
procédez comme suit :
1. Insérez le CD-ROM ou le DVD-ROM du serveur d’E-S virtuel dans l’unité de disque optique.
2. Affectez le tiroir d’unité au serveur lame sur lequel vous prévoyez d’installer le serveur d’E-S virtuel :
a. Dans l’interface Web du module de gestion, sélectionnez Blade Tasks → Remote Control.
b. Sélectionnez Start Remote Control.
c. Dans la zone Change media tray owner, sélectionnez le serveur lame sur lequel vous voulez
installer le serveur d’E-S virtuel.
Vous pouvez également affecter le tiroir d’unité au serveur lame à l’aide du panneau de
configuration.
3. Dans SMS, sélectionnez le CD-ROM ou le DVD-ROM comme unité d’amorçage :
a. Sélectionnez Choix d’options d’amorçage et appuyez sur Entrée.
b. Sélectionnez Choix unité installation/amorçage et appuyez sur Entrée.
c. Sélectionnez Liste de toutes les unités et appuyez sur Entrée.
d. Sélectionnez le numéro qui correspond à l’unité de disque optique et appuyez sur Entrée.
Chapitre 4. Integrated Virtualization Manager
185
e. Sélectionnez le mode d’amorçage normal et appuyez sur Entrée.
f. Quittez le menu SMS en appuyant sur la touche ″x″, puis confirmez que vous souhaitez quitter
SMS.
4. Installez le serveur d’E-S virtuel :
a. Sélectionnez la console et appuyez sur Entrée.
b. Sélectionnez une langue pour les menus du système d’exploitation de base et appuyez sur Entrée.
c. Sélectionnez Modif/affich des paramètres d’installation et installation et appuyez sur Entrée.
d. Sélectionnez 1 pour vérifier que la valeur définie pour la zone Disque cible est correcte. Vérifiez le
code d’emplacement réel (par exemple, 01-08-00-1,0) du disque dur cible. Le nom logique du
disque dur (par exemple, hdisk0) qui s’affiche dans ce menu peut être différent du nom logique
du même disque dur répertorié dans le serveur d’E-S virtuel (par exemple, avec la commande
lspv) qui s’exécute sur la même machine. Ceci peut se produire lorsque vous ajoutez des disques
après avoir installé le serveur d’E-S virtuel.
e. Revenez dans le menu d’installation et de maintenance et sélectionnez Lancement de l’installation
avec paramètres par défaut.
f. Sélectionnez Suite de l’installation. Le système géré redémarre après la fin de l’installation et
l’invite de connexion s’affiche sur le terminal ASCII.
Après avoir installé le gestionnaire Integrated Virtualization Manager, effectuez les tâches
complémentaires à l’installation (acceptez l’accord de licence, recherchez les mises à jour, configurez la
connexion TCP/IP). Pour plus d’informations, voir «Finalisation de l’installation du gestionnaire
Integrated Virtualization Manager».
Information associée
Installation du serveur d’E-S virtuel à l’aide de NIM
Finalisation de l’installation du gestionnaire Integrated Virtualization
Manager
Après avoir installé le gestionnaire Integrated Virtualization Manager, vous devez effectuer les tâches
complémentaires à l’installation (accepter l’accord de licence, rechercher les mises à jour, configurer la
connexion TCP/IP).
Cette procédure suppose qu’Integrated Virtualization Manager est installé. Pour plus d’informations,
consultez les procédures suivantes :
v «Installation du serveur d’E-S virtuel et activation du gestionnaire Integrated Virtualization Manager
sur des serveurs systèmes», à la page 184
v «Installation du serveur d’E-S virtuel et activation du gestionnaire Integrated Virtualization Manager
sur un serveur lame BladeCenter avec la technologie POWER Architecture», à la page 185
Pour terminer l’installation, procédez comme suit :
1. Connectez-vous à la partition de gestion avec l’ID utilisateur padmin.
2. A l’invite, changez le mot de passe de connexion en un mot de passe sécurisé qui répond à vos
consignes locales en matière de sécurité par mot de passe.
3. Acceptez le contrat de licence du serveur d’E-S virtuel. Pour plus d’informations, voir «Affichage et
acceptation du contrat de licence du serveur d’E-S virtuel», à la page 77.
4. Vérifiez qu’une connexion réseau est configurée entre la partition de gestion et au moins une des
cartes Ethernet physiques sur le système géré. Vous pouvez ainsi accéder à l’interface du gestionnaire
Integrated Virtualization Manager à partir d’un ordinateur connecté à la carte Ethernet physique. Vous
ne pouvez pas utiliser les ports de la console HMC1 et de la console HMC2 pour la connexion à la
partition de gestion.
5. Configurez la connexion TCP/IP pour Integrated Virtualization Manager à l’aide de la commande
mktcpip. Vous devez configurer TCP/IP pour pouvoir effectuer des opérations de partitionnement
186
Guide d’utilisation de PowerVM Editions
logique dynamique. Integrated Virtualization Manager version 1.5.2 ou ultérieure prend en charge
l’utilisation des adresses IPv6. Pour consulter le fichier PDF Serveur d’E-S virtuel et Integrated
Virtualization Manager - Guide des commandes (SA11-1701), d’une taille approximative de 4 Mo, voir
sa76-0101.pdf
.
6. Connectez-vous à l’interface Web ou à l’interface de ligne de commande. Pour plus d’informations,
consultez les procédures suivantes :
v «Connexion à l’interface Web du gestionnaire Integrated Virtualization Manager»
v «Connexion à l’interface de ligne de commande du serveur d’E-S virtuel»
7. Vérifiez s’il existe des mises à jour pour Integrated Virtualization Manager. Pour plus d’informations,
voir «Affichage et mise à jour du niveau de code de la partition de gestion d’Integrated Virtualization
Manager», à la page 217.
Une fois cette opération terminée, configurez la partition de gestion et les partitions logiques client. Pour
plus d’informations, voir «Configuration de la partition de gestion et des partitions logiques client», à la
page 188.
Connexion à l’interface Web du gestionnaire Integrated Virtualization
Manager
Informations sur la connexion à l’interface de gestion de système basée sur le Web pour le gestionnaire
Integrated Virtualization Manager.
Vous devez connaître l’adresse IP qui est affectée au gestionnaire Integrated Virtualization Manager.
Pour établir une connexion avec l’interface basée sur le Web pour le gestionnaire Integrated Virtualization
Manager, procédez comme suit :
1. Ouvrez une fenêtre du navigateur Web et connectez-vous, à l’aide du protocole HTTP ou HTTPS, à
l’adresse IP qui a été affectée au gestionnaire Integrated Virtualization Manager pendant le processus
d’installation. Par exemple, entrez https://123.456.7.890 dans votre navigateur Web, où
123.456.7.890 est l’adresse IP affectée au gestionnaire Integrated Virtualization Manager. La fenêtre
de bienvenue s’affiche.
2. Saisissez l’ID utilisateur par défaut de padmin et indiquez le mot de passe que vous avez défini lors
du processus d’installation. L’interface Integrated Virtualization Manager s’affiche.
Pour plus d’informations sur la navigation dans l’interface basée sur le Web, reportez-vous à l’aide en
ligne d’Integrated Virtualization Manager.
Connexion à l’interface de ligne de commande du serveur d’E-S virtuel
Informations sur la connexion à l’interface de ligne de commande duserveur d’E-S virtuel, qui vous
permet d’utiliser des commandes pour le gestionnaire Integrated Virtualization Manager.
Connectez-vous à l’interface de ligne de commande duserveur d’E-S virtuel en utilisant l’une des
méthodes suivantes :
Ouvrez une session de terminal virtuel pour la partition de gestion
Pour plus d’informations, voir «Ouverture d’une session de terminal virtuel pour une partition
logique», à la page 204.
Telnet Vous pouvez utiliser Telnet pour vous connecter à l’interface de ligne de commande. Telnet ne
fournit pas de connexion sécurisée au serveur d’E-S virtuel. Par conséquent, ayez recours à Telnet
uniquement si la carte Ethernet que vous avez configurée pour accéder à la partition de gestion
est physiquement isolée des réseaux qui ne sont pas sécurisés.
OpenSSL ou Portable OpenSSH
Vous pouvez utiliser OpenSSL ou Portable SSH pour effectuer une connexion sécurisée au serveur
Chapitre 4. Integrated Virtualization Manager
187
d’E-S virtuel à partir d’un emplacement éloigné. Pour plus d’informations, voir «Connexion au
serveur d’E-S virtuel à l’aide d’OpenSSH», à la page 130.
Configuration de la partition de gestion et des partitions logiques
client
Instructions relatives à la configuration du système via le déploiement d’une planification système ou en
configurant manuellement la partition de gestion et les partitions logiques client.
Ces instructions concernent la configuration d’un système qui est géré par Integrated Virtualization
Manager. Si vous envisagez d’installer le serveur d’E-S virtuel sur un système qui est géré par une
console HMC (Hardware Management) , vous avez besoin des instructions d’installation et de
configuration du serveur d’E-S virtuel sur un système géré par une console HMC. Voir «Installation du
serveur d’E-S virtuel et des partitions logiques client», à la page 65.
Les procédures de configuration varient en fonction de vos intentions, selon que vous envisagez ou non
de configurer la partition de gestion et les partitions logiques client. Lorsque vous déployez une
planification système, le gestionnaire Integrated Virtualization Manager configure automatiquement les
ressources virtuelles et crée les partitions logiques et les profils de partition logique client en fonction des
spécifications de configuration définies dans la planification système.
Pour configurer la partition de gestion et les partitions logiques client en déployant une planification
système, vous devez disposer de la version 1.4 d’Integrated Virtualization Manager.
Saisie du code d’activation de PowerVM Editions via Integrated
Virtualization Manager
Vous pouvez saisir le code d’activation de PowerVM Editions (ou Advanced POWER Virtualization) par
le biais du gestionnaire Integrated Virtualization Manager.
Le niveau du code du gestionnaire Integrated Virtualization Manager doit être de la version 1.5 ou d’une
version supérieure pour pouvoir réaliser la procédure qui suit. Pour consulter les informations relatives à
l’affichage et à la mise à jour du niveau de code courant, voir «Affichage et mise à jour du niveau de
code de la partition de gestion d’Integrated Virtualization Manager», à la page 217.
La saisie ou non d’un code d’activation dépend de votre édition de PowerVM Editions et du matériel sur
lequel vous projetez de l’activer. Le tableau suivant récapitule les configurations requises.
Tableau 48. Configuration requise pour le code d’activation
systèmes
Serveurs lame BladeCenter
PowerVM Express Edition
Aucun code d’activation n’est requis.
Express Edition n’est pas disponible
sur les serveurs lame.
PowerVM Standard Edition
Le code d’activation de PowerVM
Editions est requis.
Aucun code d’activation n’est requis.
L’édition Standard est intégrée dans
le serveur lame.
PowerVM Enterprise Edition
Le code d’activation de PowerVM
Editions est requis.
Remarque : Si l’édition Standard est
déjà activée, vous devez saisir un
code d’activation supplémentaire
distinct pour l’édition Enterprise.
Le code d’activation de PowerVM
Editions est requis.
Pour plus d’informations sur les éditions de PowerVM Editions, voir «PowerVM Editions», à la page 2.
188
Guide d’utilisation de PowerVM Editions
Avant de commencer, vérifiez que vous avez accès à Integrated Virtualization Manager. Pour plus
d’informations, voir «Installation du serveur d’E-S virtuel et activation du gestionnaire Integrated
Virtualization Manager sur des serveurs systèmes», à la page 184.
Pour saisir le code d’activation dans Integrated Virtualization Manager, procédez comme suit :
1. Dans le menu IVM Management, cliquez sur Enter PowerVM Editions Key. La fenêtre Enter
PowerVM Editions Key apparaît.
2. Entrez votre code d’activation pour PowerVM Editions et cliquez sur Apply.
Vous pouvez à présent créer plus de deux partitions logiques client utilisant des processeurs partagés ou
des ressources d’entrée-sortie virtuelle.
Déploiement d’une planification système à l’aide d’Integrated
Virtualization Manager
Lorsque vous déployez une planification système, le gestionnaire Integrated Virtualization Manager crée
des partitions logiques sur le système géré, en fonction des spécifications de cette planification.
Configuration requise pour le déploiement d’une planification système
Lorsque vous utilisez une version du gestionnaire Integrated Virtualization Manager antérieure à la
version 1.5.2.0, vérifiez que le système se trouve en configuration usine par défaut. Plus précisément, le
système doit répondre aux prérequis suivants :
v Les partitions logiques clientes ne sont pas configurées sur le système géré.
v Les adaptateurs Ethernet virtuels ne sont pas configurés sur le système géré.
v Les pools de stockage ne sont pas configurés sur le système géré.
v Les unités de sauvegarde ne sont pas configurées sur le système géré.
v Toutes les ressources d’E-S sont affectées à la partition de gestion d’Integrated Virtualization Manager.
Dans la configuration usine par défaut, toutes les ressources d’E-S sont affectées à Integrated
Virtualization Manager. Lorsque vous ajoutez des ressources d’E-S au système, celles-ci sont affectées
au gestionnaire Integrated Virtualization Manager par défaut.
Lorsque vous déployez une planification système à l’aide du gestionnaire Integrated Virtualization
Manager version 1.5.2.0, effectuez le déploiement sur un système déjà utilisé ou dont la configuration
n’est pas celle fournie par défaut par le fabricant. Vous pouvez déployer une planification système sur un
système disposant déjà d’une partition de gestion configurée de Integrated Virtualization Manager ou de
partitions logiques client configurées. Le système cible peut disposer d’éléments déjà configurés du
serveur d’E-S virtuel répertoriés, tels que des disques virtuels ou des cartes Ethernet virtuelles. Si,
toutefois, la planification système que vous envisagez de déployer contient des informations sur des
éléments déjà configurés sur le système, les éléments configurés sur le système cible doivent correspondre
exactement à ceux de la planification système. Dans le cas contraire, la planification système ne peut pas
être validée ou les éléments qu’elle contient ne peuvent pas être déployés.
Il n’est par ailleurs plus nécessaire de déployer entièrement une planification système, mais vous pouvez
procéder au déploiement partiel sur le système cible en sélectionnant les partitions logiques à déployer
dans la planification. Vous pouvez alors réexécuter l’assistant de déploiement de planification système
afin de déployer le reste des partitions logiques dans la planification système par la suite.
Les conditions requises suivantes doivent être satisfaites en plus de celles qui précèdent liées à la version
du gestionnaire Integrated Virtualization Manager :
v Le fichier de planification système existe sur le gestionnaire Integrated Virtualization Manager. Si ce
n’est pas le cas, vous devez l’importer dans Integrated Virtualization Manager.
Chapitre 4. Integrated Virtualization Manager
189
v Le matériel physique est connecté et envoie des rapports au serveur. Si vous déployez une planification
système que vous avez créée à l’aide du gestionnaire Integrated Virtualization Manager, vérifiez que le
matériel et le câblage sur le système cible est identique à celui du système source.
v Le matériel physique du système géré doit correspondre en tout point au matériel identique de la
planification système.
v Integrated Virtualization Manager n’exécute aucune autre opération sur le système géré.
v Vous avez un rôle d’administrateur principal (prime administrator ou padmin). Pour plus
d’informations sur les rôles utilisateur, voir la section sur les rôles utilisateur.
Déploiement d’une planification système
Pour déployer une planification système sur un système géré à l’aide du gestionnaire Integrated
Virtualization Manager, procédez comme suit :
1. Dans la zone de navigation du gestionnaire Integrated Virtualization Manager, sélectionnez Gestion
des planifications système. La page Gestion de planifications système s’ouvre.
2. Dans le tableau Planifications du système, sélectionnez la planification système à déployer.
3. Dans la barre d’outils supérieure du tableau des planifications système, cliquez sur Tâches
supplémentaires → Déploiement pour démarrer l’assistant de déploiement de la planification système.
La page de l’assistant relative à la présentation du déploiement s’ouvre.
4. Si vous y êtes invité, choisissez le système géré sur lequel vous souhaitez déployer la planification
système et cliquez sur Suivant. L’invite s’affiche uniquement si le fichier de planification système
contient plusieurs systèmes. Si la planification système ne correspond pas au matériel sur le système
géré sur lequel vous souhaitez la déployer, l’assistant affiche une boîte de dialogue vous en informant.
Cliquez sur OK pour continuer ou sur Annuler pour sélectionner une autre planification système.
5. Attendez que l’assistant valide le système géré et son matériel, grâce à une comparaison avec la
planification système. Le processus de validation peut prendre un certain temps.
6. S’il s’achève correctement, cliquez sur Next. Dans le cas contraire, corrigez les erreurs signalées par les
messages d’erreur, cliquez sur Annuler pour quitter l’assistant, puis recommencez la procédure
depuis le début. Pour vous aider à corriger des incidents de validation, vous pouvez créer une
planification système basée sur la configuration en cours du système géré. Une telle planification
système peut vous aider à comparer la planification système que vous voulez déployer avec la
configuration actuelle du système géré. Vous pouvez pour ce faire utiliser la tâche Création d’une
planification système dans le gestionnaire Integrated Virtualization Manager, ou exécuter la
commande suivante sur le système :
mksysplan -f nom_de_la_nouvelle_planification_système.sysplan
7. Passez en revue la page Eléments du plan déployable, sélectionnez les partitions logiques dans la
planification système à déployer et cliquez sur Suivant. Cette page indique le statut déployable des
partitions logiques que contient la planification système. Si une partition logique est associée à l’état
partiellement déployé, elle est automatiquement sélectionnée pour le déploiement et vous pouvez
modifier la sélection. Si une partition logique n’est pas sélectionnée pour le déploiement, l’assistant ne
déploie aucune entité dépendant de cette partition, telle que les unités de sauvegarde sur le serveur
d’E-S virtuel.
8. Passez en revue la liste des éléments du plan de déploiement sur la page du déploiement et cliquez
sur Terminer pour commencer à déployer la planification système. Le gestionnaire Integrated
Virtualization Manager crée les partitions logiques spécifiées et déploie les entités indiquées comme
dans la liste. Le processus de déploiement peut durer plusieurs minutes suivant le nombre de
partitions logiques et d’entités à déployer.
Une fois le déploiement de la planification système terminé, exécutez les tâches suivantes :
v Localisez les adaptateurs d’E-S de disque physique correspondant à chaque partition logique et
assurez-vous que les unités de disque qui y sont connectées pourront prendre en charge la
configuration souhaitée pour chaque partition logique.
v Installez les systèmes d’exploitation et les logiciels sur les partitions logiques.
190
Guide d’utilisation de PowerVM Editions
Concepts associés
«Rôles utilisateur», à la page 220
La présente section décrit les rôles utilisateur pour le gestionnaire Integrated Virtualization Manager.
Tâches associées
«Importation d’une planification système dans le gestionnaire Integrated Virtualization Manager», à la
page 213
Vous pouvez importer un fichier de planification système dans la partition de gestion du gestionnaire
Integrated Virtualization Manager. Vous pouvez ensuite déployer la planification système sur le
système géré par Integrated Virtualization Manager.
Configuration manuelle de la partition de gestion et des partitions
logiques client
Vous pouvez configurer des ressources virtuelles sur la partition de gestion et créer les partitions logiques
client et les profils de partition.
Avant de commencer, effectuez les opérations suivantes :
v Déterminez les besoins en ressources système de la partition de gestion du serveur d’E-S virtuel. Ces
besoins peuvent dépendre de nombreux facteurs, comme le modèle de serveur, le nombre de partitions
logiques que vous créez sur le système géré et le nombre d’unités virtuelles utilisées par ces partitions
logiques.
Lorsque vous installez serveur d’E-S virtuel, il se crée automatiquement une partition logique sur le
serveur. (Cette partition logique s’appelle partition de gestion.) serveur d’E-S virtuel affecte
automatiquement une fraction de la mémoire et des processeurs sur le serveur à la partition de gestion.
Vous pouvez changer les ressources de processeur et de quantité de mémoire par défaut affectées à la
partition de gestion.
Pour plus d’informations, voir «Planification du serveur d’E-S virtuel», à la page 47.
v Développez une planification correspondant aux besoins en stockage de chaque partition logique que
vous allez créer sur votre système géré. Calculez l’espace de stockage nécessaire à chaque partition
logique pour son système d’exploitation, ses applications et ses données. Pour plus d’informations sur
les besoins en stockage de chaque système d’exploitation, reportez-vous à la documentation
correspondante.
Modification des ressources de mémoire et de processeur sur la partition de
gestion
Utilisez le gestionnaire Integrated Virtualization Manager pour modifier les ressources de mémoire et de
processeur sur la partition de gestion.
Avant de commencer, effectuez les tâches suivantes :
1. Installez Integrated Virtualization Manager. Pour plus d’informations, voir «Installation du
gestionnaire Integrated Virtualization Manager», à la page 184.
2. Vérifiez que votre rôle utilisateur n’est pas Affichage seulement.
Pour changer les ressources de mémoire et de processeur sur la partition de gestion, procédez comme
suit :
1. Dans le menu Partition Management, sélectionnez View/Modify Partitions. Le panneau
View/Modify Partitions s’affiche.
2. Sélectionnez la partition de gestion (ID de partition 1).
3. Dans le menu Tâches, cliquez sur Propriétés. Le panneau Partition Properties s’affiche.
4. Cliquez sur l’onglet Mémoire pour afficher les paramètres de la mémoire.
5. Changez les quantités de mémoire en attente minimale, affectée et maximale en quantité utilisable par
la partition de gestion. Si vous utilisez une application de gestion de charge de travail, vous pouvez
définir les montants minimaux et maximaux pour la partition de gestion. La quantité affectée est la
Chapitre 4. Integrated Virtualization Manager
191
quantité de mémoire que la partition de gestion a initialement affectée. Si vous n’anticipez pas
d’augmenter de façon dynamique la mémoire au-delà d’un certain point, la définition de la valeur
maximale appropriée permettra d’économiser la mémoire du microprogramme réservée.
6. Cliquez sur l’onglet Traitement pour afficher les paramètres de traitement. Conservez les paramètres
par défaut sauf si vous utilisez une application de gestion de charge de travail.
7. Cliquez sur OK pour effectuer les changements. Il se peut que la prise en compte des modifications
nécessite quelques minutes. Si vous avez modifié une valeur minimale ou maximale, redémarrez le
système pour que les modifications soient prises en compte.
Définition du nombre maximal de partitions logiques
Définissez le nombre maximal de partitions logiques que vous voulez autoriser sur le système géré avec
Integrated Virtualization Manager.
Avant de commencer, vérifier que votre rôle utilisateur n’est pas Affichage seulement.
Vous pouvez définir le nombre maximal de partitions logiques que vous voulez autoriser sur ce système
géré. Le système géré réserve une petite quantité de mémoire système pour répondre au nombre maximal
de partitions logiques que vous spécifiez.
Pour définir le nombre maximal de partitions logiques, procédez comme suit :
1. Dans le menu Partition Management, sélectionnez View/Modify System Properties. Le panneau
View/Modify System Properties s’affiche.
2. Dans la zone Maximum configuré, vérifiez que le nombre maximal de partitions logiques à autoriser
sur ce système géré est défini. Si ce n’est pas le cas, procédez comme suit :
a. Indiquez le nombre maximal de partitions logiques dans la zone Maximum après redémarrage et
cliquez sur OK.
b. Ouvrez une session de terminal virtuel pour la partition de gestion. Pour plus d’informations, voir
«Ouverture d’une session de terminal virtuel pour une partition logique», à la page 204.
c. Redémarrez le système. Pour plus d’informations, voir «Arrêt des partitions logiques», à la page
205. Il se peut que le redémarrage du système géré nécessite quelques minutes. Assurez-vous de
terminer toutes les étapes de configuration avant de redémarrer le système. Sinon, vous pourrez
être contraint de redémarrer le système plusieurs fois.
Mise en miroir de la partition de gestion du gestionnaire Integrated Virtualization
Manager
Pour empêcher toute durée d’immobilisation et perte de données potentielles, ajoutez un deuxième
disque dans le pool de stockage rootvg et mettez en miroir les deux disques.
Lorsque vous installez le serveur d’E-S virtuel, le serveur d’E-S virtuel crée automatiquement le pool de
stockage rootvg et lui affecte un volume physique. Le logiciel du serveur d’E-S virtuel (y compris
Integrated Virtualization Manager) ainsi que les données qu’il utilise initialement sont stockés sur la
partition de gestion (ID de partition 1) sur ce volume physique. En cas d’échec de ce disque, vous ne
pourriez pas gérer vos partitions client et vous seriez confronté à une durée d’immobilisation et la perte
de données. Pour éviter ce type d’interruption dans votre activité, vous devez ajouter un deuxième
disque dans le pool de stockage rootvg et mettre en miroir les deux disques.
Avant de commencer, vérifiez que les conditions suivantes sont remplies :
1. Vous disposez de la version 1.5 ou ultérieure d’Integrated Virtualization Manager. Pour mettre à jour
Integrated Virtualization Manager, voir «Affichage et mise à jour du niveau de code de la partition de
gestion d’Integrated Virtualization Manager», à la page 217.
2. Vous avez un rôle d’administrateur principal (prime administrator ou padmin).
192
Guide d’utilisation de PowerVM Editions
Pour mettre en miroir la partition de gestion, effectuez les étapes suivantes :
1. Ajoutez un nouveau volume physique dans le pool de stockage rootvg. Pour plus d’informations, voir
«Modification des pools de stockage à l’aide du gestionnaire Integrated Virtualization Manager», à la
page 208.
2. Pour mettre en miroir le nouveau volume de façon à garantir qu’ils contient tous les logiciels et
données du volume d’origine, procédez comme suit :
a. Ouvrez une fenêtre de terminal virtuel pour la partition de gestion Pour plus d’informations, voir
«Ouverture d’une session de terminal virtuel pour une partition logique», à la page 204.
b. Connectez-vous au serveur d’E-S virtuel avec l’ID utilisateur et le mot de passe de padmin.
c. A l’invite de commande, exécutez la commande mirriorios comme suit :
mirrorios volume_physique
où volume_physique correspond au nom du volume que vous venez d’ajouter dans rootvg.
Restriction : La commande mirrorios met uniquement en miroir le pool de stockage rootvg. Elle
ne met pas en miroir les autres groupes de volumes ni les disques virtuels créés dans rootvg après
sa mise en miroir initiale.
Configuration du stockage sur le système géré à l’aide du gestionnaire Integrated
Virtualization Manager
Vous pouvez créer un pool de stockage en plus du pool de stockage par défaut, ajouter des volumes
physiques supplémentaires au pool de stockage par défaut et créer des disques virtuels à l’aide
d’Integrated Virtualization Manager.
Vous pouvez affecter un stockage à des partitions logiques avec les méthodes suivantes :
v Vous pouvez affecter des volumes physiques directement à la partition logique. Un volume physique est
une unité logique individuelle qui est identifiée par un numéro d’unité logique (LUN). Il peut s’agir
d’une unité de disque dur ou d’une unité logique sur un réseau de stockage.
v Vous pouvez ajouter des volumes physiques ou des fichiers à un pool de stockage, créer des disques
virtuels à partir de la capacité de stockage de ce pool et affecter les disques virtuels à des partitions
logiques. Les disques virtuels vous permettent de spécifier plus précisément la quantité de stockage
que vous affectez à des partitions logiques. Vous pouvez affecter du stockage à des partitions logiques
sans prendre en considération les capacités réelles des volumes physiques ou des fichiers qui
constituent le pool de stockage.
Pensez à créer un pool de stockage en plus du pool de stockage rootvg par défaut pour le stockage
classique des données, et définissez-le comme pool par défaut. Vous pouvez ensuite ajouter d’autres
volumes physiques à un pool de stockage, créer des disques virtuels à partir d’un pool et affecter ces
disques virtuels à d’autres partitions logiques.
Si vous prévoyez d’affecter des volumes physiques directement à des partitions logiques, vous n’avez pas
besoin d’intervenir au niveau des volumes physiques. Vous pouvez affecter les volumes physiques aux
partitions logiques lorsque vous créez les partitions logiques.
Pour configurer le stockage sur le système géré, procédez comme suit :
1. Créez un deuxième pool de stockage pour le stockage classique des données. Pour plus
d’informations, voir «Création de pools de stockage», à la page 194.
2. Ajoutez des volumes physiques supplémentaires dans le pool de stockage par défaut. Pour plus
d’informations, voir «Modification des pools de stockage à l’aide du gestionnaire Integrated
Virtualization Manager», à la page 208.
3. Créez des disques virtuels à partir du pool de stockage par défaut. Pour plus d’informations, voir
«Création de disques virtuels», à la page 194.
Chapitre 4. Integrated Virtualization Manager
193
Création de pools de stockage :
Vous pouvez créer un pool de stockage basé sur un volume logique ou sur un fichier sur votre système
géré, à l’aide du gestionnaire Integrated Virtualization Manager.
Pour créer un pool de stockage basé sur un volume logique, vous devez affecter au moins un volume
physique au pool de stockage. Lorsque vous affectez des volumes physiques à un pool de stockage, le
système géré efface les informations figurant sur ces volumes, divise ces derniers en partitions physiques
et ajoute la capacité des partitions physiques au pool de stockage. N’ajoutez pas un volume physique à
un pool de stockage s’il contient des données que vous voulez conserver.
Pour créer des pools de stockage basés sur fichier, vous devez disposer d’une version 1.5 ou ultérieure
d’Integrated Virtualization Manager. Pour mettre à jour Integrated Virtualization Manager, voir
«Affichage et mise à jour du niveau de code de la partition de gestion d’Integrated Virtualization
Manager», à la page 217.
Pour créer un pool de stockage, procédez comme indiqué ci-après.
1. Dans le menu Virtual Storage Management, sélectionnez View/Modify Virtual Storage.
2. Cliquez sur l’onglet Storage Pools.
3. Cliquez sur *Création de pool de stockage.... La fenêtre Création de pool de stockage s’affiche.
4. Saisissez le nom du pool de stockage et sélectionnez son type.
5. Saisissez ou sélectionnez les informations requises pour le pool de stockage basé sur volume logique
ou sur fichier et cliquez sur OK.
Création de disques virtuels :
Utilisez Integrated Virtualization Manager pour créer un disque virtuel sur le système géré. (Les disques
virtuels sont également appelés volumes logiques.)
Pour créer un disque virtuel, procédez comme suit :
1. Dans le menu Virtual Storage Management, sélectionnez View/Modify Virtual Storage.
2. Cliquez sur *Création de disque virtuel.... Le panneau Create Virtual Disk s’affiche.
3. Saisissez le nom du disque, sélectionnez un pool de stockage, indiquez la taille du disque virtuel et
cliquez sur OK. Le disque virtuel est créé et le panneau Affichage/modification du stockage virtuel
s’affiche.
4. Répétez cette procédure pour chaque disque virtuel que vous souhaitez créer.
5. Pour afficher ou modifier les propriétés de disques virtuels que vous venez de créer, voir
«Modification des disques virtuels», à la page 208.
Ces étapes reviennent à utiliser la commande mkbdspsur l’interface de ligne de commande.
Si l’espace disque est insuffisant sur le disque virtuel, augmentez la taille du pool de stockage par défaut.
Pour plus d’informations, voir «Modification des pools de stockage à l’aide du gestionnaire Integrated
Virtualization Manager», à la page 208
Configuration d’Ethernet sur le système géré à l’aide du gestionnaire Integrated
Virtualization Manager
Vous pouvez créer des ponts Ethernet virtuels, configurer une carte de réseau Ethernet hôte (ou carte
Ethernet virtuelle intégrée) et affecter des cartes Ethernet physiques à des partitions logiques client à
l’aide du gestionnaire Integrated Virtualization Manager.
Vous pouvez configurer les types suivants d’Ethernet sur votre système géré :
194
Guide d’utilisation de PowerVM Editions
v Vous pouvez créer des ponts Ethernet virtuels sur votre système géré. Les ponts Ethernet virtuels, ou
cartes de réseau Ethernet partagées, connectent les réseaux Ethernet virtuels sur votre système géré à
des réseaux locaux. Pour une plus grande sécurité, ne configurez pas la carte Ethernet physique que
vous utilisez pour vous connecter à la partition de gestion comme pont Ethernet virtuel. Vous pouvez
ainsi isoler la partition de gestion de tous les réseaux externes. (La partition de gestion gère les réseaux
Ethernet virtuels sur votre système géré, mais ne participe à aucun réseau Ethernet virtuel.)
Si vous configurez une seule carte Ethernet physique ou une agrégation de liens pour la connexion à la
partition de gestion et pour un fonctionnement comme pont Ethernet virtuel, pensez à utiliser
OpenSSL et Portable OpenSSH sur la partition de gestion. Vous pouvez utiliser OpenSSL et Portable
OpenSSH pour effectuer une connexion sécurisée au serveur d’E-S virtuel à partir d’un emplacement
éloigné.
Il n’est pas obligatoire de sélectionner une carte Ethernet physique ou un regroupement de liens pour
l’associer à un réseau Ethernet virtuel. Si aucune carte de réseau physique ou regroupement de liens
n’est défini pour un réseau Ethernet virtuel, les partitions logiques du réseau Ethernet virtuel peuvent
communiquer entre elles, mais pas directement avec un réseau physique.
v Vous pouvez configurer un port de carte de réseau Ethernet hôte. Une carte de réseau Ethernet hôte est
une carte Ethernet unique intégrée au système. Elle permet de partitionner un port Ethernet physique.
Une carte de réseau Ethernet hôte peut contenir un ou plusieurs ports physiques, dont chacun peut
être affecté à zéro ou plusieurs partitions logiques.
v Vous pouvez affecter une carte Ethernet physique à une partition logique client.
Pour configurer un réseau Ethernet virtuel sur le système géré, procédez comme suit :
1. Configurez des ponts Ethernet virtuels. Pour plus d’informations, voir «Configuration de ponts
Ethernet virtuels sur le système géré à l’aide du gestionnaire Integrated Virtualization Manager».
2. Configurez une carte de réseau Ethernet hôte. Pour plus d’informations, voir «Affectation du port
d’une carte de réseau Ethernet hôte à une partition logique», à la page 196
3. Affectez une carte Ethernet physique à une partition logique client. Pour plus d’informations, voir
«Gestion dynamique des cartes physiques», à la page 196.
Configuration de ponts Ethernet virtuels sur le système géré à l’aide du gestionnaire Integrated
Virtualization Manager :
Utilisez Integrated Virtualization Manager pour configurer les ponts Ethernet virtuels sur le système géré.
On appelle pont Ethernet virtuel une carte Ethernet ou une agrégation de liens qui relie un réseau Ethernet
virtuel à un réseau local physique. Le pont Ethernet virtuel est également appelé carte Ethernet partagée
car les partitions logiques du réseau Ethernet virtuel se partagent la connexion Ethernet physique. Les
ponts Ethernet virtuels relient les réseaux Ethernet virtuels sur votre système géré à des réseaux locaux
physiques.
Pour une plus grande sécurité, ne configurez pas la carte Ethernet physique ou l’agrégation de liens que
vous utilisez pour la liaison à la partition de gestion comme pont Ethernet virtuel. Vous pouvez ainsi
isoler la partition de gestion de tous les réseaux externes. (La partition de gestion gère les réseaux
Ethernet virtuels sur votre système géré, mais ne participe à aucun réseau Ethernet virtuel.)
Si vous configurez une seule carte Ethernet physique ou une agrégation de liens pour effectuer une
liaison avec la partition de gestion et pour fonctionner comme pont Ethernet virtuel, pensez à installer
OpenSSL et Portable OpenSSH sur la partition de gestion. Vous pouvez utiliser OpenSSL et Portable
OpenSSH pour effectuer une connexion sécurisée au serveur d’E-S virtuel à partir d’un emplacement
éloigné.
Il n’est pas obligatoire de sélectionner une carte Ethernet physique ou un regroupement de liens pour
l’associer à un réseau Ethernet virtuel. Si aucune carte de réseau physique ou regroupement de liens n’est
Chapitre 4. Integrated Virtualization Manager
195
défini pour un réseau Ethernet virtuel, les partitions logiques du réseau Ethernet virtuel peuvent
communiquer entre elles, mais pas directement avec un réseau physique.
Pour exécuter cette procédure, vous ne devez pas avoir un rôle Affichage uniquement ou Technicien de
maintenance.
Pour configurer des ponts Ethernet virtuels, procédez comme suit :
1. Dans le menu Virtual Ethernet Management, sélectionnez View/Modify Virtual Ethernet. Le
panneau View/Modify Virtual Ethernet s’affiche.
2. Cliquez sur l’onglet Pont Ethernet virtuel.
3. Définissez chaque zone Carte physique pour la carte physique que vous voulez utiliser comme pont
Ethernet virtuel pour chaque réseau Ethernet virtuel. (Les ports HMC1 et HMC2 ne s’affichent pas
dans la zone Carte physique et ne peuvent pas être utilisés comme ponts Ethernet virtuels.)
4. Cliquez sur Application pour effectuer les changements.
Affectation du port d’une carte de réseau Ethernet hôte à une partition logique :
Utilisez le gestionnaire Integrated Virtualization Manager pour affecter le port d’une carte de réseau
Ethernet hôte (ou carte Ethernet virtuelle intégrée) à une partition logique de sorte que cette dernière
puisse accéder directement au réseau externe.
Avant de commencer, assurez-vous que vous disposez de la version 1.5 ou ultérieure d’Integrated
Virtualization Manager. Pour mettre à jour Integrated Virtualization Manager, voir «Affichage et mise à
jour du niveau de code de la partition de gestion d’Integrated Virtualization Manager», à la page 217.
Une carte de réseau Ethernet hôte est une carte de réseau Ethernet physique directement intégrée au bus
GX+ sur un système géré. Les cartes de réseau Ethernet hôtes offrent un débit élevé, une faible latence et
le support de la virtualisation pour les connexions Ethernet.
Contrairement à la plupart des autres types d’unité d’E-S, vous ne pouvez pas affecter directement la
carte de réseau Ethernet hôte à une partition logique. En revanche, plusieurs partitions logiques peuvent
être connectées directement à lacarte de réseau Ethernet hôte et utiliser ses ressources. Ainsi, ces
partitions logiques peuvent accéder à des réseaux externes par l’intermédiaire de la carte de réseau
Ethernet hôte sans avoir à utiliser une passerelle Ethernet située sur une autre partition logique.
Pour affecter le port d’une carte de réseau Ethernet hôte à une partition logique, procédez comme suit :
1. Dans le menu Gestion des adaptateurs d’E-S, cliquez sur Affichage/modification de cartes Ethernet
hôtes.
2. Sélectionnez un port avec au moins une connexion disponible et cliquez sur Propriétés.
3. Cliquez sur l’onglet Partitions connectées.
4. Sélectionnez la partition logique à affecter au port de la carte de réseau Ethernet hôte et cliquez sur
OK. Pour supprimer une affectation de partition, désélectionnez la partition logique et cliquez sur
OK.
La zone Performances de l’onglet Général permet en outre d’ajuster les paramètres du port carte de
réseau Ethernet hôte sélectionné. Vous pouvez afficher et modifier la vitesse, l’unité de transmission
maximale et d’autres paramètres du port sélectionné.
Gestion dynamique des cartes physiques
Vous pouvez ajouter et supprimer des cartes physiques sur une partition logique en cours de
fonctionnement.
Vous pouvez modifier les paramètres de la carte physique pour une partition logique à tout moment, si la
partition est susceptible de modifications de carte d’E-S dynamiques.
196
Guide d’utilisation de PowerVM Editions
Lorsque vous effectuez des modifications de carte d’E-S dynamique, gardez les remarques suivantes à
l’esprit :
v Vous risquez de perdre des données si vous retirez une carte physique d’une partition logique en cours
de fonctionnement.
v Vous ne pouvez pas affecter une carte physique à une autre partition si elle est utilisée par le système
d’exploitation de la partition à laquelle elle est actuellement affectée. Si vous essayez de réaffecter la
carte, un message d’erreur s’affiche. Vous devez annuler la configuration de l’unité à l’aide des outils
du système d’exploitation approprié avant de pouvoir changer l’affectation de partition de la carte.
Avant de commencer, assurez-vous que vous disposez de la version 1.5 ou ultérieure d’Integrated
Virtualization Manager. Pour mettre à jour Integrated Virtualization Manager, voir «Affichage et mise à
jour du niveau de code de la partition de gestion d’Integrated Virtualization Manager», à la page 217.
Pour ajouter ou supprimer des cartes physiques sur une partition logique en cours de fonctionnement,
procédez comme suit :
1. Si aucune partition logique client n’existe, passez à l’étape 4.
2. Sélectionnez la partition logique à laquelle affecter une carte physique et cliquez sur Propriétés.
3. Vérifiez que l’option Oui s’affiche pour Opérations DLPAR prises en charge par la carte d’E-S. Il
peut être nécessaire de cliquer sur Récupération des fonctionnalités pour vérifier cette valeur. Si Non
s’affiche pour Opérations DLPAR prises en charge par la mémoire, vous ne pouvez pas ajouter ni
supprimer de cartes physiques sur la partition logique.
4. Dans le menu Gestion des adaptateurs d’E-S, cliquez sur Affichage/modification de cartes
physiques.
5. Sélectionnez la carte dont vous voulez modifier l’affectation de partition et cliquez sur Modification
de l’affectation de la partition.
6. Sélectionnez la partition logique à laquelle affecter la carte physique et cliquez sur OK. Pour rendre
cette carte disponible pour toute partition logique client, y compris celles qui ne sont pas encore
créées, sélectionnez Aucun(e) comme Nouvelle partition.
Création de partitions logiques client à l’aide du gestionnaire Integrated
Virtualization Manager
Vous pouvez créer des partitions logiques client sur le système géré en déployant une planification
système, à l’aide de l’assistant Création de partitions, ou en créant des partitions basées sur des partitions
existantes.
Pour créer des partitions logiques client sur le système géré, choisissez l’une des procédures suivantes :
v Créez des partitions logiques client en déployant une planification système. Pour plus d’informations,
voir «Déploiement d’une planification système à l’aide d’Integrated Virtualization Manager», à la page
189.
v Créez des partitions logiques client à l’aide de l’assistant Création de partitions. Pour plus
d’informations, voir «Création de partitions logiques client à l’aide de l’assistant Création de
partitions», à la page 198.
v Créez des partitions logiques client basées sur des partitions logiques client existantes. Pour plus
d’informations, voir «Création d’une partition basée sur une partition existante», à la page 198.
Lorsque vous avez terminé, vous pouvez activer les partitions logiques client et installer les systèmes
d’exploitation. Pour plus d’instructions, reportez-vous aux informations suivantes :
v «Activation des partitions logiques», à la page 199
v AIX Installation and Migration
v Installation de Linux
Chapitre 4. Integrated Virtualization Manager
197
Création de partitions logiques client à l’aide de l’assistant Création de partitions :
Vous pouvez utiliser l’assistant Création de partitions sur Integrated Virtualization Manager pour créer
une nouvelle partition logique sur votre système géré.
Utilisez tout autre rôle autre que View Only pour exécuter cette tâche. En revanche, n’utilisez pas le rôle
utilisateur Service Representative (SR) pour cette tâche car il ne permet pas de configurer la mémoire
dans l’assistant de création de partitions.
Pour créer une partition logique sur le système géré, procédez comme suit :
1. Dans le menu Partition Management, sélectionnez View/Modify Partitions. Le panneau
View/Modify Partitions s’affiche.
2. Cliquez sur *Création de partition... L’assistant Création de partitions s’affiche.
a. Suivez les instructions qui s’affichent à chaque étape de l’assistant, puis cliquez sur Next lorsque
que vous avez terminé une étape.
b. Lorsque la page de récapitulatif s’affiche, confirmez l’exactitude des informations qu’elle contient
et cliquez sur Finish.
3. Dans le menu Partition Management, sélectionnez View/Modify Partitions. Le panneau
View/Modify Partitions s’affiche ; il contient la nouvelle partition.
Création d’une partition basée sur une partition existante :
Utilisez Integrated Virtualization Manager pour créer une partition logique basée sur une partition
existante sur votre système géré.
Utilisez tout autre rôle autre que View Only pour exécuter cette tâche.
Cette tâche permet de créer une partition logique dotée des mêmes propriétés que la partition existante
sélectionnée, à l’exception de l’ID, du nom, des volumes physiques et des unités optiques.
Pour créer une partition logique basée sur une partition existante, procédez comme suit :
1. Dans le menu Partition Management, sélectionnez View/Modify Partitions. Le panneau
View/Modify Partitions s’affiche.
2. Sélectionnez la partition logique que vous souhaitez utiliser comme base pour la nouvelle partition.
3. Dans le menu Tasks, sélectionnez Create based on. Le panneau Create Based On s’affiche.
4. Saisissez le nom de la nouvelle partition, puis déterminez si vous voulez créer des disques virtuels
avec la nouvelle partition.
5. Cliquez sur OK. Le panneau View/Modify Partitions s’affiche ; il contient la nouvelle partition.
Gestion du système avec le gestionnaire Integrated Virtualization
Manager
Vous pouvez gérer tous les aspects du système avec le gestionnaire Integrated Virtualization Manager,
notamment modifier les ressources du processeur, de la mémoire, du réseau et du stockage dans les
partitions logiques du système.
Affichage et modification des propriétés système
Utilisez Integrated Virtualization Manager pour afficher et modifier les propriétés générales du système
géré.
Utilisez tout autre rôle autre que View Only pour exécuter cette tâche. Le rôle View Only permet
d’afficher les propriétés, mais pas de les modifier.
198
Guide d’utilisation de PowerVM Editions
Pour afficher et modifier les propriétés du système, procédez comme suit :
1. Dans le menu Partition Management, sélectionnez View/Modify System Properties. Le panneau
View/Modify System Properties s’affiche.
2. Selon les propriétés que vous voulez afficher et modifier, cliquez sur l’un des onglets suivants :
v General pour afficher et modifier les informations permettant d’identifier le système géré, l’état de
ce dernier et le nombre maximal de partitions logiques ;
v Memory pour afficher et modifier les informations relatives à l’utilisation de la mémoire du
système géré en général ;
v Processing pour afficher et modifier les informations relatives à l’utilisation des processeurs du
système géré en général.
Pour plus d’informations sur les propriétés système spécifiques que vous pouvez afficher ou modifier,
reportez-vous à l’aide en ligne (
).
Gestion des partitions à l’aide du gestionnaire Integrated Virtualization
Manager
Les tâches de gestion des partitions logiques permettent de créer et de gérer les partitions logiques du
système géré via Integrated Virtualization Manager.
Activation des partitions logiques
Utilisez Integrated Virtualization Manager pour activer des partitions logiques sur les systèmes gérés.
Utilisez tout autre rôle autre que View Only pour exécuter cette tâche.
Vous pouvez activer les partitions logiques manuellement après avoir mis le système géré sous tension,
ou réactiver une partition logique après l’avoir arrêtée manuellement.
Pour activer une partition logique, procédez comme suit :
1. Dans le menu Partition Management, sélectionnez View/Modify Partitions. Le panneau
View/Modify Partitions s’affiche.
2. Sélectionnez la partition logique à activer. Vous pouvez sélectionner plusieurs partitions à la fois.
3. Cliquez sur Activate. Le panneau d’activation des partitions s’affiche. Vérifiez l’ID de partition, le
nom de partition et l’état en cours de la partition logique.
4. Cliquez sur OK pour activer la partition. Dans le panneau Affichage/modification de partitions qui
s’affiche, la partition est activée.
Chaque partition logique est activée avec le mode d’amorçage et la position de verrouillage sélectionnés
dans son panneau de propriétés.
Pour plus d’informations sur l’activation des partitions logiques, voir l’aide en ligne (
).
Ajout d’une partition logique client au groupe de charge de travail de partitions
Si vous souhaitez gérer les ressources de partition logique à l’aide d’un outil de gestion de charge de
travail, vous devez ajouter la partition logique du client au groupe de charge de travail de partitions.
Un groupe de charge de travail de partitions identifie un ensemble de partitions logiques se trouvant sur le
même système physique. Les outils de gestion de charge de travail utilisent des groupes de charge de
travail de partitions afin d’identifier les partitions logiques qu’ils peuvent gérer. Par exemple, L’outil
EWLM (Enterprise Workload Manager) peut dynamiquement et automatiquement redistribuer la capacité
de traitement dans un groupe de charge de travail de partitions afin de répondre aux objectifs de
Chapitre 4. Integrated Virtualization Manager
199
performances de la charge de travail. EWLM règle la capacité de traitement en fonction des calculs qui
comparent les performances réelles du travail traité par le groupe de charge de travail de partitions aux
objectifs métier définis pour le travail.
Les outils de gestion de charge de travail utilisent le partitionnement logique dynamique (DLPAR) pour
effectuer un ajustement des ressources en fonction des objectifs de performances. Par exemple, la fonction
de gestion de partition d’EWLM règle les ressources du processeur en fonction des objectifs de
performance de la charge de travail. C’est pourquoi, EWLM peut régler la capacité de traitement pour les
partitions logiques AIX et Linux.
Limitations :
v N’ajoutez pas la partition de gestion au groupe de charge de travail de partitions. Pour gérer les
ressources de partition logique, les outils de gestion de charge de travail requièrent souvent
l’installation de certains logiciels agent ou de gestion sur les partitions logiques. Pour éviter la création
d’un environnement non pris en charge, n’installez pas de logiciel supplémentaire sur la partition de
gestion.
v Pour les partitions AIX et Linux, la prise en charge du partitionnement logique dynamique (DLPAR)
pour le système d’exploitation diffère de celle des fonctions qui se trouvent dans les propriétés de
partition d’une partition logique. La prise en charge du partitionnement logique dynamique pour le
système d’exploitation correspond à la prise en charge par chaque système d’exploitation au niveau
des fonctions de partitionnement logique dynamique. AIX et Linux prennent en charge l’opération
DLPAR au niveau des processeurs, de la mémoire et des E-S. Les fonctionnalités DLPAR affichées dans
les propriétés d’une partition logique correspondent à une combinaison des éléments suivants :
– une connexion RMC (Resource Monitoring and Control) entre la partition de gestion et la partition
logique du client
– la prise en charge de DLPAR par le système d’exploitation
Par exemple, la partition logique AIX client ne dispose pas de connexion RMC avec la partition de
gestion, mais AIX prend en charge l’opération DLPAR au niveau des processeurs, de la mémoire et des
E-S. Dans ce cas, les fonctionnalités DLPAR affichées dans les propriétés de la partition logique AIX
indiquent que la partition logique AIX n’est pas capable d’une opération DLPAR au niveau des
processeurs, de la mémoire ou des E-S. Toutefois, comme AIX prend en charge le partitionnement
logique dynamique des processeurs, de la mémoire et des E-S, un outil de gestion de charge de travail
peut dynamiquement gérer ses ressources. Les outils de gestion de charge de travail ne dépendent pas
des connexions RMC pour gérer dynamiquement les ressources de partition logique.
v Lorsqu’une partition logique fait partie du groupe de charge de travail de partitions, vous ne pouvez
pas gérer dynamiquement ses ressources à partir du gestionnaire Integrated Virtualization Manager, car
l’outil de gestion de charge de travail contrôle la gestion des ressources dynamiques. Les outils de
gestion de charge de travail ne gèrent pas tous dynamiquement à la fois les ressources de processeur,
de mémoire et d’E-S. Lorsque vous implémentez un outil de gestion de charge de travail qui gère
uniquement un type de ressource, vous limitez votre possibilité de gérer dynamiquement les autres
types de ressource. Par exemple, EWLM gère dynamiquement les ressources du processeur mais non la
mémoire ni les E-S. AIX prend en charge les opérations DELPAR au niveau processeur, mémoire et E-S.
EWLM contrôle la gestion des ressources du processeur, de la mémoire et des E-S pour la partition
logique AIX, mais EWLM ne gère par dynamiquement la mémoire ou les E-S. Etant donné qu’EWLM
contrôle la gestion des ressources dynamiques, vous ne pouvez pas dynamiquement gérer la mémoire
ou les E-S pour la partition logique AIX à partir du gestionnaire Integrated Virtualization Manager.
Pour ajouter une partition logique au groupe de charge de travail de partitions, procédez comme suit :
1. Dans le menu Gestion de partition, sélectionnez Affichage/Modification de partitions. La fenêtre
Affichage/Modification de partitions s’affiche.
2. Sélectionnez la partition logique à inclure dans le groupe de charge de travail de partitions.
3. Dans le menu Tâches, cliquez sur Propriétés. La fenêtre Partition Properties s’affiche.
200
Guide d’utilisation de PowerVM Editions
4. Dans l’onglet Général, sélectionnez Participant au groupe de gestion de la charge de travail sur la
partition et cliquez sur OK.
Information associée
Activation de la gestion des partitions
Suppression de partitions logiques
Utilisez Integrated Virtualization Manager pour supprimer des partitions logiques du système géré.
Utilisez tout autre rôle autre que View Only pour exécuter cette tâche.
Lorsque vous supprimez une partition logique, toutes les ressources en termes de mémoire, de
processeurs et de stockage lui appartenant peuvent être affectées à d’autres partitions logiques.
Pour supprimer une partition logique, procédez comme suit :
1. Dans le menu Partition Management, sélectionnez View/Modify Partitions. Le panneau
View/Modify Partitions s’affiche.
2. Sélectionnez la partition logique à supprimer.
3. Dans le menu Tasks, sélectionnez Delete. Le panneau Delete Partitions s’affiche. Il contient l’ID et le
nom de la partition (qui identifient de façon unique chaque partition logique du système géré) ainsi
que son état. Le panneau contient également une option permettant de supprimer les disques virtuels
associés aux partitions.
4. Cliquez sur OK pour supprimer la partition. Dans le panneau View/Modify Partitions qui s’affiche, la
partition est supprimée.
Chaque partition logique est activée avec le mode d’amorçage et la position de verrouillage sélectionnés
dans son panneau de propriétés.
Pour plus d’informations sur la suppression des partitions logiques, voir l’aide en ligne (
).
Gestion dynamique de la mémoire
Cette rubrique indique comment ajouter et supprimer de la mémoire pour une partition logique en cours
d’exécution.
Vous pouvez ajouter de l’espace mémoire à une partition logique en cours d’exécution ou en retirer si la
partition est susceptible de modification de mémoire dynamique.
Pour ajouter de la mémoire à une partition logique en cours d’exécution ou en retirer, procédez comme
suit :
1. Sélectionnez la partition logique à changer et cliquez sur Properties.
2. Vérifiez que l’option Yes s’affiche pour Memory DLPAR Capable. Il peut être nécessaire de cliquer
sur Retrieve Capabilities pour vérifier cette valeur. Si No s’affiche pour Memory DLPAR Capable,
vous ne pouvez pas ajouter dynamiquement de mémoire à la partition logique ou en retirer.
3. Cliquez sur l’onglet Memory.
4. Indiquez de nouvelles valeurs dans la colonne En attente.
5. Cliquez sur OK. La partition de gestion synchronise la valeur actuellement attribuée par rapport à la
valeur attribuée en attente. Cette opération peut prendre plusieurs secondes. Vous pouvez effectuer
d’autres tâches sur le système lorsque la partition de gestion synchronise les valeurs en cours et en
attente. Pour plus d’informations sur la synchronisation de la surveillance et des valeurs en attente,
voir l’aide en ligne (
).
Chapitre 4. Integrated Virtualization Manager
201
Gestion dynamique des cartes physiques
Vous pouvez ajouter et supprimer des cartes physiques sur une partition logique en cours de
fonctionnement.
Vous pouvez modifier les paramètres de la carte physique pour une partition logique à tout moment, si la
partition est susceptible de modifications de carte d’E-S dynamiques.
Lorsque vous effectuez des modifications de carte d’E-S dynamique, gardez les remarques suivantes à
l’esprit :
v Vous risquez de perdre des données si vous retirez une carte physique d’une partition logique en cours
de fonctionnement.
v Vous ne pouvez pas affecter une carte physique à une autre partition si elle est utilisée par le système
d’exploitation de la partition à laquelle elle est actuellement affectée. Si vous essayez de réaffecter la
carte, un message d’erreur s’affiche. Vous devez annuler la configuration de l’unité à l’aide des outils
du système d’exploitation approprié avant de pouvoir changer l’affectation de partition de la carte.
Avant de commencer, assurez-vous que vous disposez de la version 1.5 ou ultérieure d’Integrated
Virtualization Manager. Pour mettre à jour Integrated Virtualization Manager, voir «Affichage et mise à
jour du niveau de code de la partition de gestion d’Integrated Virtualization Manager», à la page 217.
Pour ajouter ou supprimer des cartes physiques sur une partition logique en cours de fonctionnement,
procédez comme suit :
1. Si aucune partition logique client n’existe, passez à l’étape 4, à la page 197.
2. Sélectionnez la partition logique à laquelle affecter une carte physique et cliquez sur Propriétés.
3. Vérifiez que l’option Oui s’affiche pour Opérations DLPAR prises en charge par la carte d’E-S. Il
peut être nécessaire de cliquer sur Récupération des fonctionnalités pour vérifier cette valeur. Si Non
s’affiche pour Opérations DLPAR prises en charge par la mémoire, vous ne pouvez pas ajouter ni
supprimer de cartes physiques sur la partition logique.
4. Dans le menu Gestion des adaptateurs d’E-S, cliquez sur Affichage/modification de cartes
physiques.
5. Sélectionnez la carte dont vous voulez modifier l’affectation de partition et cliquez sur Modification
de l’affectation de la partition.
6. Sélectionnez la partition logique à laquelle affecter la carte physique et cliquez sur OK. Pour rendre
cette carte disponible pour toute partition logique client, y compris celles qui ne sont pas encore
créées, sélectionnez Aucun(e) comme Nouvelle partition.
Gestion dynamique des processeurs
Cette rubrique indique comment ajouter et supprimer de la puissance de traitement pour une partition
logique en cours d’exécution.
Vous pouvez ajouter de la puissance de traitement à une partition logique en cours d’exécution ou en
retirer si la partition est susceptible de modification de puissance de traitement dynamique.
Pour ajouter de la puissance de traitement à une partition logique en cours d’exécution ou en retirer,
procédez comme suit :
1. Sélectionnez la partition logique à changer et cliquez sur Properties.
2. Vérifiez que l’option Yes s’affiche pour Processing DLPAR Capable. Il peut être nécessaire de cliquer
sur Retrieve Capabilities pour vérifier cette valeur. Si No s’affiche pour Memory DLPAR Capable,
vous ne pouvez pas ajouter dynamiquement de puissance de traitement à la partition logique ou en
retirer.
3. Cliquez sur l’onglet Processing.
4. Indiquez de nouvelles valeurs dans les colonnes En attente pour les unités de traitement, les
processeurs virtuels et le poids non bridé.
202
Guide d’utilisation de PowerVM Editions
5. Cliquez sur OK. La partition de gestion synchronise la valeur actuellement attribuée par rapport à la
valeur attribuée en attente. Cette opération peut prendre plusieurs secondes. Vous pouvez effectuer
d’autres tâches sur le système lorsque la partition de gestion synchronise les valeurs en cours et en
attente. Pour plus d’informations sur la synchronisation de la surveillance et des valeurs en attente,
voir l’aide en ligne (
).
Modification des propriétés d’une partition
Utilisez Integrated Virtualization Manager pour afficher et modifier les propriétés d’une partition logique.
Utilisez tout autre rôle autre que View Only pour exécuter cette tâche. Le rôle Service Representative (SR)
ne permet pas d’afficher ou de modifier les valeurs relatives à la mémoire.
Si la partition logique est hors tension, cette procédure permet de modifier bon nombre de ses propriétés.
Les modifications sont prises en compte lorsque vous réactivez la partition.
Pour afficher et modifier les propriétés de la partition logique, procédez comme suit :
1. Dans le menu Partition Management, sélectionnez View/Modify Partitions. Le panneau
View/Modify Partitions s’affiche.
2. Sélectionnez la partition logique dont vous voulez afficher ou modifier les propriétés.
3. Dans le menu Tasks, sélectionnez Properties. Le panneau Partition Properties s’affiche.
4. Cliquez sur OK pour activer la partition. Dans le panneau View/Modify Partitions qui s’affiche, la
partition est activée.
5. Selon les propriétés que vous voulez afficher et modifier, cliquez sur l’un des onglets suivants :
v General pour afficher les identificateurs et l’état d’exécution de la partition logique. Pour les
partitions AIX et Linux, vous pouvez afficher ou modifier certains identificateurs et informations de
démarrage, notamment le mode d’amorçage et la position de verrouillage. Vous pouvez également
afficher les informations relatives au partitionnement logique dynamique (DLPAR), telles que le
nom d’hôte ou l’adresse IP de la partition, l’état de communication de la partition et les fonctions
DLPAR de la partition.
v Memory pour afficher ou modifier les informations de gestion de la mémoire correspondant à la
partition logique que vous avez sélectionnée.
v Processing pour afficher ou modifier les paramètres de gestion des processeurs correspondant à la
partition logique que vous avez sélectionnée. Par exemple, vous pouvez afficher le mode
compatibilité des processeurs et définir votre préférence pour un partage des processeurs inactifs
pour des partitions dédiées.
v Ethernet pour afficher ou modifier les paramètres de partition logique d’une carte de réseau
Ethernet hôte (ou carte Ethernet virtuelle intégrée), de cartes Ethernet virtuelles et de cartes
Ethernet physiques. Les paramètres Ethernet que vous pouvez modifier varient en fonction du
système d’exploitation de la partition sélectionnée.
v Storage pour afficher ou modifier les paramètres de stockage de la partition logique.
v Optical Devices pour afficher ou modifier les paramètres de partition logique pour les unités
optiques physiques et les unités optiques virtuelles.
v Physical adapters pour afficher ou modifier les cartes physiques affectées à chaque partition
logique.
Les onglets Stockage et Périphériques optiques s’affichent pour toutes les partitions logiques, sauf la
partition de gestion.
Pour plus d’informations sur les propriétés de partition spécifiques que vous pouvez afficher ou modifier,
voir l’aide en ligne (
).
Chapitre 4. Integrated Virtualization Manager
203
Migration d’une partition logique client vers un autre système géré
Vous pouvez faire migrer une partition logique inactive ou opérationnelle sur un autre système géré par
un autre gestionnaire Integrated Virtualization Manager.
Lorsque les systèmes source et cible sont tous les deux gérés par le gestionnaire Integrated Virtualization
Manager version 1.5 ou ultérieure, vous pouvez faire migrer les partitions entre systèmes JS/22 Express
et JS/12 Express.
Lorsque les systèmes source et cible sont tous les deux gérés par le gestionnaire Integrated Virtualization
Manager version 1.5 ou ultérieure, vous pouvez faire migrer les partitions AIX ou Linux entre systèmes
comme indiqué ci-après.
Tableau 49. Serveurs source et cible pour la migration d’une partition avec Integrated Virtualization Manager
Serveur source
Serveur cible
Serveur serveurs équipé d’un processeur POWER6
Serveur serveurs équipé d’un processeur POWER6
Serveur serveurs équipé d’un processeur POWER6
Système JS/22 Express ou système JS/12 Express
Système JS/22 Express ou système JS/12 Express
Système JS/22 Express ou système JS/12 Express
Système JS/22 Express ou système JS/12 Express
Serveur serveurs équipé d’un processeur POWER6
Avant de commencer, effectuez les tâches suivantes :
1. Vérifiez que PowerVM Enterprise Edition (ou Advanced POWER Virtualization Enterprise Edition) est
activé sur les serveurs source et cible. Pour plus d’informations, voir «Saisie du code d’activation de
PowerVM Editions via Integrated Virtualization Manager», à la page 10.
2. Vérifiez que vous avez correctement préparé les systèmes source et cible, ainsi que la partition de
migration pour la migration. Pour plus d’informations, voir «Préparation d’une migration Integrated
Virtualization Manager», à la page 283.
3. Récupérez l’adresse IP ou le nom d’hôte du gestionnaire Integrated Virtualization Manager qui gère le
système vers lequel vous prévoyez de faire migrer la partition.
Vous ne pouvez pas faire migrer la partition de gestion.
Pour faire migrer une partition logique client vers un autre système géré, procédez comme suit :
1. Dans le panneau Affichage/modification de partitions, sélectionnez la partition logique client à faire
migrer, puis cliquez sur Migration.
2. Entrez les informations requises et cliquez sur Validation.
3. Si vous recevez des erreurs de validation, corrigez les erreurs et revenez dans ce panneau.
4. Lorsque vous avez corrigé toutes les erreurs de validation, cliquez surMigration.
Pour afficher l’avancement de la migration, voir «Affichage ou modification du statut d’une partition en
cours de migration», à la page 206
Ouverture d’une session de terminal virtuel pour une partition logique
Connectez-vous à une partition logique à l’aide du terminal virtuel sur le gestionnaire Integrated
Virtualization Manager.
Avant de commencer, assurez-vous que vous disposez de la version 1.5 ou ultérieure d’Integrated
Virtualization Manager. Pour mettre à jour Integrated Virtualization Manager, voir «Affichage et mise à
jour du niveau de code de la partition de gestion d’Integrated Virtualization Manager», à la page 217.
Pour ouvrir une session de terminal virtuel, procédez comme suit :
1. Dans le menu Partition Management, sélectionnez View/Modify Partitions.
204
Guide d’utilisation de PowerVM Editions
2. Sélectionnez la partition logique à laquelle vous connecter et cliquez sur Ouverture fenêtre terminal.
Une fenêtre de terminal virtuel s’ouvre.
Remarque : Comme l’applet possède une signature numérique, il est possible que le navigateur
affiche un avertissement de sécurité vous demandant de confirmer que vous voulez exécuter l’applet.
3. Saisissez le mot de passe correspondant à votre ID de connexion du gestionnaire en cours Integrated
Virtualization Manager. Une session de terminal démarre pour la partition.
Arrêt des partitions logiques
Utilisez Integrated Virtualization Manager pour arrêter une sélection de partitions logiques ou
l’intégralité du système géré.
Utilisez tout autre rôle autre que View Only pour exécuter cette tâche.
Integrated Virtualization Manager fournit les types suivants d’option d’arrêt pour les partitions logiques :
v Système d’exploitation (recommandé)
v Différé
v Immédiat
La méthode d’arrêt recommandée consiste à utiliser la commande d’arrêt des systèmes d’exploitation
client. L’utilisation de la méthode d’arrêt immédiat doit être utilisée en dernier recours, car tout arrêt
anormal peut entraîner une perte de données.
Si vous choisissez la méthode d’arrêt différé, prenez en compte les remarques suivantes :
v Arrêter une partition logique revient à appuyer de façon prolongée sur le bouton blanc de mise sous
tension du panneau de commande d’un serveur non partitionné.
v N’utilisez cette procédure que si vous ne parvenez pas à arrêter les partitions logiques à l’aide des
commandes du système d’exploitation. Lorsque vous utilisez cette procédure pour arrêter les partitions
logiques sélectionnées, l’arrêt n’est effectif qu’au terme d’un délai prédéterminé. Cela laisse aux
partitions logiques le temps de terminer les travaux entrepris et d’enregistrer les données sur les
disques. Si la partition logique ne parvient pas à s’arrêter dans le délai imparti, elle s’arrête de manière
anormale et le prochain redémarrage peut prendre un certain temps.
Si vous envisagez d’arrêter l’intégralité du système géré, arrêtez chaque partition logique client, puis
arrêtez la partition de gestion du serveur d’E-S virtuel.
Pour arrêter une partition logique, procédez comme suit :
1. Dans le menu Partition Management, sélectionnez View/Modify Partitions. Le panneau
View/Modify Partitions s’affiche.
2. Sélectionnez la partition logique à arrêter.
3. Cliquez sur Arrêt. Le panneau Shutdown Partitions s’affiche.
4. Sélectionnez le type d’arrêt.
5. Facultatif : Sélectionnez l’option de redémarrage après l’arrêt si vous souhaitez que la partition
logique démarre immédiatement après son arrêt.
6. Cliquez sur OK pour arrêter la partition. Sur le panneau View/Modify Partitions qui s’affiche, la
partition est arrêtée.
Pour plus d’informations sur l’arrêt des partitions logiques, voir l’aide en ligne (
).
Chapitre 4. Integrated Virtualization Manager
205
Utilisation des fonctions de maintenance du panneau de commande
La présente rubrique explique comment arrêter ou redémarrer des partitions logiques, ou encore lancer
un cliché de la mémoire principale de ces partitions à l’aide des fonctions de maintenance du panneau de
commande du gestionnaire Integrated Virtualization Manager. Ces fonctions portent également le nom de
fonctions du panneau de commande.
Utilisez tout autre rôle autre que View Only pour exécuter cette tâche.
Vous pouvez utiliser les fonctions de maintenance du panneau de commande pour arrêter ou redémarrer
une partition logique sans avoir à arrêter au préalable le système d’exploitation de cette partition.
Avertissement : N’utilisez cette procédure que si vous ne parvenez pas à arrêter ou à redémarrer la
partition logique à l’aide des commandes du système d’exploitation. Les fonctions de maintenance du
panneau de commande entraînent l’arrêt anormal de la partition logique et peuvent donc provoquer la
perte de données. Les programmes exécutés dans ces processus ne peuvent effectuer aucun nettoyage.
Ces fonctions peuvent donner lieu à des résultats indésirables si des données ont été partiellement mises
à jour.
Pour utiliser les fonctions de maintenance du panneau de commande, procédez comme suit :
1. Dans le menu Partition Management, sélectionnez View/Modify Partitions. Le panneau
View/Modify Partitions s’affiche.
2. Sélectionnez la partition logique sur laquelle vous voulez exécuter la fonction.
3. Dans le menu Tasks, sélectionnez Operator panel service functions. Le panneau Operator Panel
Service Functions s’affiche.
4. Sélectionnez la fonction de maintenance du panneau de commande à utiliser pour la partition logique
sélectionnée, puis cliquez sur OK. Dans le panneau View/Modify Partitions qui s’affiche, la partition
logique est arrêtée ou redémarrée.
Pour plus d’informations sur l’utilisation des fonctions de maintenance du panneau de commande, voir
l’aide en ligne (
).
Affichage ou modification du statut d’une partition en cours de migration
Que la partition effectue une migration vers ce système ou un autre, vous pouvez afficher le statut de la
migration, l’arrêter ou la récupérer à partir du gestionnaire Integrated Virtualization Manager.
Avant de commencer, effectuez les tâches suivantes :
1. Assurez-vous que vous disposez de la version 1.5 ou ultérieure d’Integrated Virtualization Manager.
Pour afficher la version d’Integrated Virtualization Manager, voir «Affichage et mise à jour du niveau
de code de la partition de gestion d’Integrated Virtualization Manager», à la page 217.
2. Vérifiez que PowerVM Enterprise Edition (ou Advanced POWER Virtualization Enterprise Edition) est
activé. Pour plus d’informations, voir «Saisie du code d’activation de PowerVM Editions via
Integrated Virtualization Manager», à la page 10.
Pour afficher le statut d’une partition en cours de migration, procédez comme suit :
1. Dans le panneau Affichage/modification de partitions, sélectionnez la partition logique client à faire
migrer, puis cliquez sur Etat.
2. Pour afficher le statut d’une partition en cours de migration, passez en revue les informations du
panneau Statut de migration.
3. Pour arrêter la migration, cliquez sur Arrêter la migration. Lorsque vous arrêtez la migration, le
gestionnaire Integrated Virtualization Manager (à partir duquel a été lancée la migration) tente
d’annuler les modifications et de remettre la partition en cours de migration dans l’état où elle se
trouvait avant le début de la migration.
206
Guide d’utilisation de PowerVM Editions
4. Pour récupérer une migration, cliquez sur Récupérer la migration. Il est possible que vous deviez
récupérer une migration en cas de perte de communication entre les gestionnaires de plateforme,
quelle que soit la situation.
Affichage des codes de référence des partitions
Utiliser Integrated Virtualization Manager pour afficher les codes de référence des partitions logiques du
système géré. Ces codes de référence permettent de connaître des informations générales sur le
diagnostic, l’identification et la résolution des incidents et le débogage du système.
Pour afficher les codes de référence des partitions, procédez comme suit :
1. Dans le menu Partition Management, sélectionnez View/Modify Partitions. Le panneau
View/Modify Partitions s’affiche.
2. Sélectionnez la partition logique dont vous voulez afficher les codes de référence.
3. Dans le menu Tasks, sélectionnez Reference Codes. Le panneau Partition Reference Codes s’affiche.
4. Pour afficher l’historique des codes de référence, entrez le nombre de codes de référence que vous
voulez afficher dans la zone View history, puis cliquez sur Go. Le panneau qui s’affiche contient les
codes de référence les plus récents, au nombre que vous avez indiqué, avec la date et l’heure de
réception de chaque code.
5. Pour afficher les détails d’un code de référence donné, sélectionnez l’option en regard de ce code. Les
détails relatifs au code de référence sélectionné s’affichent dans la zone Details.
6. Cliquez sur OK pour fermer le panneau.
Gestion des unités de stockage à l’aide du gestionnaire Integrated
Virtualization Manager
Utilisez le gestionnaire Integrated Virtualization Manager au niveau des tâches de gestion de la mémoire
pour gérer la capacité de stockage du système géré.
Un pool de stockage est créé automatiquement lors de l’installation du serveur d’E-S virtuel. Ce pool de
stockage, appelé rootvg, est le pool de stockage par défaut. Vous avez la possibilité de créer un pool de
stockage supplémentaire puis définir ce dernier en tant que pool par défaut. Vous pouvez ensuite ajouter
d’autres volumes physiques au pool de stockage par défaut, créer des disques virtuels à partir de ce pool
et affecter les disques virtuels à d’autres partitions logiques.
Création d’unités optiques virtuelles à l’aide du gestionnaire Integrated
Virtualization Manager
Vous pouvez ajouter une nouvelle unité optique virtuelle et monter un support sur la nouvelle unité à
l’aide du gestionnaire Integrated Virtualization Manager.
Remarque : Vous pouvez également exécuter cette procédure lorsque vous utilisez l’assistant Création de
partition.
Avant de commencer, assurez-vous que vous disposez de la version 1.5 ou ultérieure d’Integrated
Virtualization Manager. Pour mettre à jour Integrated Virtualization Manager, voir «Affichage et mise à
jour du niveau de code de la partition de gestion d’Integrated Virtualization Manager», à la page 217.
Pour créer une unité optique virtuelle, procédez comme suit :
1. Dans le menu Partition Management, sélectionnez View/Modify Partitions.
2. Sélectionnez la partition pour laquelle créer une unité optique virtuelle et cliquez sur Properties. Le
panneau Partition Properties s’affiche.
3. Dans la section Périphériques optiques virtuels, cliquez sur Create Device. Une nouvelle unité
optique virtuelle est créée et apparaît dans le tableau.
Chapitre 4. Integrated Virtualization Manager
207
4. Dans la colonne des fichiers multimédias courants pour l’unité optique virtuelle que vous venez de
créer, cliquez sur Modify pour monter le support sur la nouvelle unité. Le panneau de modification
des fichiers multimédias actuels s’affiche.
5. Sélectionnez le support à monter, et cliquez sur OK pour revenir dans le panneau des propriétés de la
partition.
Modification des disques virtuels
Vous pouvez utiliser Integrated Virtualization Manager pour afficher les propriétés des disques virtuels
du système géré et lancer des tâches de maintenance sur ces disques.
Pour afficher et modifier les disques virtuels, procédez comme suit :
1. Dans le menu Virtual Storage Management, sélectionnez View/Modify Virtual Storage. Le panneau
View/Modify Virtual Storage s’affiche.
2. Cliquez sur l’onglet Virtual Disks. La liste des disques virtuels s’affiche.
3. Sélectionnez le disque virtuel à modifier.
4. Dans le menu Tasks, sélectionnez l’une des options suivantes :
v Properties pour afficher les propriétés du disque virtuel sélectionné ;
v Extend pour ajouter de la capacité de stockage au disque virtuel sélectionné ;
v Delete pour supprimer le disque virtuel sélectionné et mettre à la disposition d’autres disques
virtuels les ressources de stockage qui lui sont associées ;
v Modify partition assignment pour changer la partition logique à laquelle est affecté le disque
virtuel sélectionné ou configurer ce dernier de sorte qu’il ne soit affecté à aucune partition logique.
Modification des pools de stockage à l’aide du gestionnaire Integrated
Virtualization Manager
Vous pouvez étendre un pool de stockage, réduire ou supprimer un pool de stockage et affecter un pool
de stockage comme pool par défaut à l’aide d’Integrated Virtualization Manager.
Pour modifier des pools de stockage, procédez comme suit :
1. Dans le menu Virtual Storage Management, sélectionnez View/Modify Virtual Storage. Le panneau
View/Modify Virtual Storage s’affiche.
2. Cliquez sur l’onglet Storage Pools. La liste des pools de stockage s’affiche.
3. Sélectionnez le pool de stockage à modifier.
4. Dans la barre des tâches, cliquez sur l’une des options suivantes :
v Propriétés pour afficher les propriétés du pool de stockage sélectionné ;
v Extension pour ajouter du stockage au pool de stockage sélectionné. Pour étendre des pools de
stockage basés sur un volume logique, ajoutez des volumes physiques au pool de stockage. Pour
étendre des pools de stockage basés sur fichier, ajoutez de l’espace à partir du pool de stockage
parent dans le pool de stockage basé sur fichier.
v Réduction pour réduire la taille du pool de stockage sélectionné. Pour réduire des pools de
stockage basés sur un volume logique, supprimez des volumes physiques du pool de stockage.
Pour réduire le pool de stockage basé sur fichier, supprimez-le.
v Affectation en tant que pool de stockage par défaut pour définir le pool de stockage sélectionné
comme pool de stockage par défaut de ce système géré.
Modification des volumes physiques
Utilisez le gestionnaire Integrated Virtualization Manager pour afficher les propriétés des volumes
physiques du système géré et pour lancer les tâches de maintenance sur ces volumes.
Un volume physique est une unité logique identifiée par un numéro d’unité logique (LUN). Il peut s’agir
d’une unité de disque dur ou d’une unité logique sur un réseau de stockage. Vous pouvez affecter
208
Guide d’utilisation de PowerVM Editions
directement un volume physique à une partition logique ou ajouter un volume physique à un pool de
stockage et créer des disques virtuels à partir du pool de stockage.
Pour afficher et modifier les volumes physiques, procédez comme suit :
1. Dans le menu Virtual Storage Management, sélectionnez View/Modify Virtual Storage. Le panneau
View/Modify Virtual Storage s’affiche.
2. Cliquez sur l’onglet Physical Volumes afin d’afficher une liste des volumes physiques.
3. Sélectionnez le volume physique à modifier.
4. Dans le menu Tasks, sélectionnez l’une des options suivantes :
v Properties pour afficher ou modifier les propriétés du volume physique sélectionné ;
v Modify partition assignment pour changer la partition logique à laquelle est affecté le volume
physique sélectionné ou configurer ce dernier de sorte qu’il ne soit affecté à aucune partition
logique ;
v Add to storage pool pour ajouter le volume physique sélectionné au pool de stockage sélectionné ;
v Remove from storage pool pour supprimer le volume physique sélectionné du pool de stockage
sélectionné.
Modification des unités optiques à l’aide du gestionnaire Integrated Virtualization
Manager
Vous pouvez afficher et modifier les unités optiques physiques et les supports optiques virtuelsà l’aide
d’Integrated Virtualization Manager.
Vous pouvez ajouter des unités optiques à n’importe quelle partition logique ou en supprimer, que cette
partition soit active ou non. Si vous supprimez une unité optique d’une partition logique active, vous êtes
auparavant invité à confirmer la suppression.
Pour modifier un support optique virtuel, vous devez disposer d’une version 1.5 ou ultérieure
d’Integrated Virtualization Manager. Pour mettre à jour Integrated Virtualization Manager, voir
«Affichage et mise à jour du niveau de code de la partition de gestion d’Integrated Virtualization
Manager», à la page 217.
Pour modifier des unités optiques, procédez comme suit :
1. Dans le menu Virtual Storage Management, sélectionnez View/Modify Virtual Storage. Le panneau
View/Modify Virtual Storage s’affiche.
2. Cliquez sur l’onglet Périphériques optiques.
3. Pour modifier le paramètre d’affectation d’une partition logique à une unité optique physique,
procédez comme suit :
a. Dans le tableau Périphériques optiques physiques, sélectionnez l’unité optique à modifier.
b. Dans le menu des tâches, cliquez sur Modification de l’affectation de la partition. Le panneau
Modification de l’attribution de périphériques optiques à la partition s’affiche.
c. Changez la partition à laquelle est affectée l’unité optique ou configurez cette dernière de sorte
qu’elle ne soit affectée à aucune partition logique, puis cliquez sur OK. La liste des unités optiques
s’affiche, avec les modifications que vous avez apportées.
4. Pour modifier le support optique virtuel, cliquez sur l’une des tâches suivantes dans la section
Fichiers multimédias optiques virtuels :
v Extension d’une bibliothèque pour étendre la taille de la médiathèque.
v Suppression d’une bibliothèque pour supprimer la médiathèque et les fichiers qu’elle contient.
v *Ajout d’un fichier multimédia... pour ajouter un fichier multimédia optique dans la médiathèque
et le rendre disponible pour une affectation à une partition.
Chapitre 4. Integrated Virtualization Manager
209
v Modification de l’affectation de la partition pour modifier l’affectation de la partition d’un fichier
multimédia en changeant l’unité optique virtuelle à laquelle un fichier multimédia est affecté. Vous
pouvez affecter un support en lecture seul à plusieurs unités.
v Téléchargement pour ouvrir ou télécharger le fichier multimédia sélectionné.
v Suppression pour supprimer les fichiers multimédias sélectionnés de la médiathèque.
Gestion d’Ethernet à l’aide du gestionnaire Integrated Virtualization
Manager
Utilisez le gestionnaire Integrated Virtualization Manager pour les tâches de gestion du réseau (gestion
de la connectivité du réseau du système géré).
Modification des paramètres TCP/IP sur le serveur d’E-S virtuel
Utilisez le gestionnaire Integrated Virtualization Manager pour modifier les paramètres TCP/IP sur le
serveur d’E-S virtuel.
Utilisez tout rôle autre que View Only pour exécuter cette tâche. Le rôle View Only permet de visualiser
les paramètres TCP/IP, mais pas de les modifier.
Vous devez disposer d’une interface réseau active pour pouvoir afficher ou modifier les paramètres
TCP/IP.
Integrated Virtualization Manager version 1.5.2 prend en charge l’utilisation des adresses IPv6.
ATTENTION :
La modification à distance des paramètres TCP/IP risque d’entraîner la perte des accès à la session en
cours. Vérifiez que vous disposez d’un accès à la partition du gestionnaire Integrated Virtualization
Manager à partir de la console physique avant de modifier les paramètres TCP/IP.
Pour afficher ou modifier les paramètres TCP/IP, procédez comme indiqué ci-après.
1. Dans le menu IVM Management, sélectionnez View/Modify TCP/IP Settings. Le panneau
View/Modify TCP/IP Settings s’affiche.
2. En fonction du paramètre que vous souhaitez afficher ou modifier, sélectionnez l’un des onglets
suivants :
v General pour afficher ou modifier le nom d’hôte et l’adresse IP de la communication de la partition
;
Remarque : Actuellement, Integrated Virtualization Manager prend en charge uniquement des
adresses IPv4 pour le paramètre de communication de la partition.
v Network Interfaces pour afficher ou modifier les propriétés de l’interface réseau, telles que
l’adresse IP, le masque de sous-réseau et l’état de l’interface réseau ;
v Name Services pour afficher ou modifier le nom de domaine, l’ordre de recherche du serveur de
noms et l’ordre de recherche du serveur de domaines ;
v Routing pour afficher ou modifier la passerelle par défaut ;
Remarque : Vous pouvez configurer une passerelle IPv4 par défaut et une passerelle IPv6 par
défaut pour Integrated Virtualization Manager version 1.5.2.
3. Cliquez sur Apply pour activer les nouveaux paramètres.
Création d’une carte Ethernet virtuelle
Vous pouvez créer une carte Ethernet virtuelle sur la partition de gestion et sur les partitions client à
l’aide d’Integrated Virtualization Manager.
210
Guide d’utilisation de PowerVM Editions
Ethernet virtuel assure la connectivité Ethernet entre les partitions. Pour créer une carte Ethernet virtuelle,
spécifiez le numéro d’ID du réseau Ethernet virtuel auquel vous voulez connecter une carte Ethernet
virtuelle correspondante, qui est disponible pour une partition logique. Vous pouvez également ajouter
de nouvelles cartes ou ID de réseau Ethernet virtuel pour la partition.
La plupart des tâches associées à l’Ethernet virtuel IEEE 802.1Q s’exécutent via l’interface de ligne de
commande. Pour une description détaillée des commandes, voir le manuel Serveur d’E-S virtuel et
Integrated Virtualization Manager - Guide des commandes. Pour consulter le fichier PDF Serveur d’E-S virtuel
et Integrated Virtualization Manager - Guide des commandes (SA11-1701), d’une taille approximative de 4 Mo,
voir sa76-0101.pdf
.
Pour créer une carte Ethernet virtuelle, procédez comme suit :
1. Dans le menu Partition Management, sélectionnez View/Modify Partitions.
2. Sélectionnez la partition logique à laquelle affecter la carte Ethernet virtuelle et cliquez sur Propriétés.
3. Sélectionnez l’onglet Ethernet.
4. Pour créer une carte Ethernet virtuelle sur la partition de gestion, procédez comme suit :
a. Dans la section Cartes Ethernet virtuelles, cliquez sur Création d’une carte.
b. Entrez l’ID Ethernet virtuel et cliquez sur OK pour quitter la fenêtre de saisie de l’ID Ethernet
virtuel.
c. Cliquez sur OK pour quitter la fenêtre Propriétés de la partition.
5. Pour créer une carte Ethernet virtuelle sur une partition client, procédez comme suit :
a. Dans la section Cartes Ethernet virtuelles, sélectionnez un Ethernet virtuel pour la carte et cliquez
sur OK.
b. Si aucune carte n’est disponible, cliquez sur Création d’une carte pour ajouter une nouvelle carte
dans la liste, puis réitérez l’étape précédente.
Affichage des paramètres Ethernet virtuels à l’aide du gestionnaire Integrated
Virtualization Manager
Utilisez Integrated Virtualization Manager pour afficher les paramètres Ethernet virtuels du système géré.
Utilisez un rôle autre que View Only pour effectuer les tâches de l’onglet Virtual Ethernet.
Pour afficher les paramètres Ethernet virtuels du système géré, cliquez sur Affichage/Modification des
paramètres Ethernet virtuels dans Gestion des adaptateurs d’E-S. L’onglet Ethernet virtuel affiche des
informations pouvant être visualisées comme suit :
v Vous pouvez afficher les informations par partition, ce qui affiche la liste de tous les réseaux Ethernet
virtuels auxquels appartient chaque partition logique.
v Vous pouvez afficher les informations par Ethernet virtuel, ce qui affiche la liste de toutes les partitions
logiques appartenant à chaque réseau Ethernet virtuel.
Gestion des planifications système
Vous pouvez créer, afficher, importer, exporter, déployer et supprimer des planifications système à partir
du gestionnaire Integrated Virtualization Manager.
Une planification système est une spécification du matériel et des partitions logiques d’un ou de plusieurs
systèmes. Elle peut être utilisée de différentes manières. Vous pouvez, par exemple, l’importer dans le
gestionnaire Integrated Virtualization Manager pour la déployer ensuite sur le système géré. L’assistant
de déploiement de planification système (System Plan Deployment) crée automatiquement des partitions
logiques conformément aux spécifications contenues dans la planification système. Vous pouvez
également créer une planification système à partir de la configuration système en cours et l’exporter
ensuite sur un support. La planification système peut alors être importée puis déployée sur un autre
système.
Chapitre 4. Integrated Virtualization Manager
211
Création d’une planification système à l’aide du gestionnaire Integrated
Virtualization Manager
Vous pouvez utiliser le gestionnaire Integrated Virtualization Manager pour créer une planification
système à partir d’une configuration système existante.
Lorsque vous créez une planification système basée sur le système géré existant à l’aide du gestionnaire
Integrated Virtualization Manager, la partition de gestion lit les informations de configuration sur le
système géré, puis les stocke dans la planification système.
Pour créer une planification système fondée sur une configuration système existante à l’aide du
gestionnaire Integrated Virtualization Manager, procédez comme suit :
1. Dans la zone de navigation, sélectionnez Gestion de planifications système. La page Gestion de
planifications système s’ouvre.
2. Dans la barre d’outils supérieure du tableau des planifications système, cliquez sur
Création/importation d’une planification système. La page Création/importation d’une planification
système s’ouvre.
3. Sélectionnez l’option Création.
4. Entrez un nom de fichier de planification système et une description pour la nouvelle planification
système.
5. Cliquez sur OK. Le gestionnaire Integrated Virtualization Manager génère une nouvelle planification
système basée sur la configuration système en cours qui apparaît dans le tableau Planifications du
système.
Maintenant que vous disposez d’une nouvelle planification système, vous pouvez exporter la
planification système et l’importer dans un autre système Integrated Virtualization Manager géré, ainsi
que déployer la planification système sur ce système géré.
Remarque : Vous avez également la possibilité d’utiliser la commande mksysplan pour accomplir cette
tâche, si vous ne voulez pas utiliser l’interface utilisateur Web d’Integrated Virtualization Manager.
Affichage d’une planification système sur le gestionnaire Integrated Virtualization
Manager
Vous pouvez afficher une planification système sur le gestionnaire Integrated Virtualization Manager par
le biais de l’afficheur de planification système.
L’afficheur utilise une arborescence de navigation et des tables pour afficher les informations du fichier
de planification système. Il comprend certaines fonctionnalités, telles que le tri dynamique par colonne de
table et la capacité à afficher les limites de ponts EADS. Il est fourni avec le gestionnaire Integrated
Virtualization Manager de façon à être accessible depuis celui-ci. Vous devrez néanmoins entrer à
nouveau vos ID utilisateur et mot de passe pour pouvoir afficher la planification système.
Pour afficher une planification système à partir du gestionnaire Integrated Virtualization Manager,
procédez comme suit :
1. Dans la zone de navigation, sélectionnez Gestion des planifications système. La page Gestion de
planifications système s’ouvre.
2. Sélectionnez la planification système à afficher dans le tableau Planifications du système.
3. Dans la barre d’outils supérieure du tableau des planifications système, cliquez sur Tâches
supplémentaires → Affichage. La fenêtre de connexion de l’afficheur de planification système s’affiche.
4. Entrez vos nom d’utilisateur et mot de passe Integrated Virtualization Manager pour vous connecter
à l’afficheur de planification système.
212
Guide d’utilisation de PowerVM Editions
Importation d’une planification système dans le gestionnaire Integrated
Virtualization Manager
Vous pouvez importer un fichier de planification système dans la partition de gestion du gestionnaire
Integrated Virtualization Manager. Vous pouvez ensuite déployer la planification système sur le système
géré par Integrated Virtualization Manager.
Vous devez importer un fichier de planification système dans la partition de gestion d’Integrated
Virtualization Manager pour pouvoir déployer la planification système sur le système géré. Pour que le
déploiement de la planification système réussisse, le matériel du système géré doit correspondre au
matériel de la planification système ou être supérieur. Pour importer un fichier de planification système,
vous devez avoir le rôle d’administrateur principal (prime administrator ou padmin). Pour plus
d’informations sur les rôles utilisateur, voir la section sur les rôles utilisateur.
Pour importer un fichier de planification système dans la partition de gestion du gestionnaire Integrated
Virtualization Manager, procédez comme suit :
1. Dans la zone de navigation, sélectionnez Gestion des planifications système. La page Gestion de
planifications système s’ouvre.
2. Dans la barre d’outils supérieure du tableau des planifications système, cliquez sur
Création/importation d’une planification système. La page Création/importation d’une planification
système s’ouvre.
3. Sélectionnez l’option Importation.
4. Saisissez le nom et le chemin qualifiés complets du fichier de planification système dans la zone Nom
de fichier de la planification système. Ou cliquez sur Parcourir pour sélectionner le fichier de
planification système dans le système de fichiers local. Le nom de ce fichier doit se terminer par le
suffixe .sysplan et ne peut comporter que des caractères alphanumériques.
5. Cliquez sur OK. Si le gestionnaire Integrated Virtualization Manager renvoie une erreur, revenez à
l’étape 4 et vérifiez que les informations que vous avez entrées dans cette zone sont correctes.
Vous pouvez ensuite utiliser le fichier de planification système importé pour déployer la planification
système sur le système géré par Integrated Virtualization Manager.
Concepts associés
«Rôles utilisateur», à la page 220
La présente section décrit les rôles utilisateur pour le gestionnaire Integrated Virtualization Manager.
Déploiement d’une planification système à l’aide d’Integrated Virtualization
Manager
Lorsque vous déployez une planification système, le gestionnaire Integrated Virtualization Manager crée
des partitions logiques sur le système géré, en fonction des spécifications de cette planification.
Configuration requise pour le déploiement d’une planification système
Lorsque vous utilisez une version du gestionnaire Integrated Virtualization Manager antérieure à la
version 1.5.2.0, vérifiez que le système se trouve en configuration usine par défaut. Plus précisément, le
système doit répondre aux prérequis suivants :
v Les partitions logiques clientes ne sont pas configurées sur le système géré.
v Les adaptateurs Ethernet virtuels ne sont pas configurés sur le système géré.
v Les pools de stockage ne sont pas configurés sur le système géré.
v Les unités de sauvegarde ne sont pas configurées sur le système géré.
v Toutes les ressources d’E-S sont affectées à la partition de gestion d’Integrated Virtualization Manager.
Dans la configuration usine par défaut, toutes les ressources d’E-S sont affectées à Integrated
Virtualization Manager. Lorsque vous ajoutez des ressources d’E-S au système, celles-ci sont affectées
au gestionnaire Integrated Virtualization Manager par défaut.
Chapitre 4. Integrated Virtualization Manager
213
Lorsque vous déployez une planification système à l’aide du gestionnaire Integrated Virtualization
Manager version 1.5.2.0, effectuez le déploiement sur un système déjà utilisé ou dont la configuration
n’est pas celle fournie par défaut par le fabricant. Vous pouvez déployer une planification système sur un
système disposant déjà d’une partition de gestion configurée de Integrated Virtualization Manager ou de
partitions logiques client configurées. Le système cible peut disposer d’éléments déjà configurés du
serveur d’E-S virtuel répertoriés, tels que des disques virtuels ou des cartes Ethernet virtuelles. Si,
toutefois, la planification système que vous envisagez de déployer contient des informations sur des
éléments déjà configurés sur le système, les éléments configurés sur le système cible doivent correspondre
exactement à ceux de la planification système. Dans le cas contraire, la planification système ne peut pas
être validée ou les éléments qu’elle contient ne peuvent pas être déployés.
Il n’est par ailleurs plus nécessaire de déployer entièrement une planification système, mais vous pouvez
procéder au déploiement partiel sur le système cible en sélectionnant les partitions logiques à déployer
dans la planification. Vous pouvez alors réexécuter l’assistant de déploiement de planification système
afin de déployer le reste des partitions logiques dans la planification système par la suite.
Les conditions requises suivantes doivent être satisfaites en plus de celles qui précèdent liées à la version
du gestionnaire Integrated Virtualization Manager :
v Le fichier de planification système existe sur le gestionnaire Integrated Virtualization Manager. Si ce
n’est pas le cas, vous devez l’importer dans Integrated Virtualization Manager.
v Le matériel physique est connecté et envoie des rapports au serveur. Si vous déployez une planification
système que vous avez créée à l’aide du gestionnaire Integrated Virtualization Manager, vérifiez que le
matériel et le câblage sur le système cible est identique à celui du système source.
v Le matériel physique du système géré doit correspondre en tout point au matériel identique de la
planification système.
v Integrated Virtualization Manager n’exécute aucune autre opération sur le système géré.
v Vous avez un rôle d’administrateur principal (prime administrator ou padmin). Pour plus
d’informations sur les rôles utilisateur, voir la section sur les rôles utilisateur.
Déploiement d’une planification système
Pour déployer une planification système sur un système géré à l’aide du gestionnaire Integrated
Virtualization Manager, procédez comme suit :
1. Dans la zone de navigation du gestionnaire Integrated Virtualization Manager, sélectionnez Gestion
des planifications système. La page Gestion de planifications système s’ouvre.
2. Dans le tableau Planifications du système, sélectionnez la planification système à déployer.
3. Dans la barre d’outils supérieure du tableau des planifications système, cliquez sur Tâches
supplémentaires → Déploiement pour démarrer l’assistant de déploiement de la planification système.
La page de l’assistant relative à la présentation du déploiement s’ouvre.
4. Si vous y êtes invité, choisissez le système géré sur lequel vous souhaitez déployer la planification
système et cliquez sur Suivant. L’invite s’affiche uniquement si le fichier de planification système
contient plusieurs systèmes. Si la planification système ne correspond pas au matériel sur le système
géré sur lequel vous souhaitez la déployer, l’assistant affiche une boîte de dialogue vous en informant.
Cliquez sur OK pour continuer ou sur Annuler pour sélectionner une autre planification système.
5. Attendez que l’assistant valide le système géré et son matériel, grâce à une comparaison avec la
planification système. Le processus de validation peut prendre un certain temps.
6. S’il s’achève correctement, cliquez sur Next. Dans le cas contraire, corrigez les erreurs signalées par les
messages d’erreur, cliquez sur Annuler pour quitter l’assistant, puis recommencez la procédure
depuis le début. Pour vous aider à corriger des incidents de validation, vous pouvez créer une
planification système basée sur la configuration en cours du système géré. Une telle planification
système peut vous aider à comparer la planification système que vous voulez déployer avec la
214
Guide d’utilisation de PowerVM Editions
configuration actuelle du système géré. Vous pouvez pour ce faire utiliser la tâche Création d’une
planification système dans le gestionnaire Integrated Virtualization Manager, ou exécuter la
commande suivante sur le système :
mksysplan -f nom_de_la_nouvelle_planification_système.sysplan
7. Passez en revue la page Eléments du plan déployable, sélectionnez les partitions logiques dans la
planification système à déployer et cliquez sur Suivant. Cette page indique le statut déployable des
partitions logiques que contient la planification système. Si une partition logique est associée à l’état
partiellement déployé, elle est automatiquement sélectionnée pour le déploiement et vous pouvez
modifier la sélection. Si une partition logique n’est pas sélectionnée pour le déploiement, l’assistant ne
déploie aucune entité dépendant de cette partition, telle que les unités de sauvegarde sur le serveur
d’E-S virtuel.
8. Passez en revue la liste des éléments du plan de déploiement sur la page du déploiement et cliquez
sur Terminer pour commencer à déployer la planification système. Le gestionnaire Integrated
Virtualization Manager crée les partitions logiques spécifiées et déploie les entités indiquées comme
dans la liste. Le processus de déploiement peut durer plusieurs minutes suivant le nombre de
partitions logiques et d’entités à déployer.
Une fois le déploiement de la planification système terminé, exécutez les tâches suivantes :
v Localisez les adaptateurs d’E-S de disque physique correspondant à chaque partition logique et
assurez-vous que les unités de disque qui y sont connectées pourront prendre en charge la
configuration souhaitée pour chaque partition logique.
v Installez les systèmes d’exploitation et les logiciels sur les partitions logiques.
Concepts associés
«Rôles utilisateur», à la page 220
La présente section décrit les rôles utilisateur pour le gestionnaire Integrated Virtualization Manager.
Tâches associées
«Importation d’une planification système dans le gestionnaire Integrated Virtualization Manager», à la
page 213
Vous pouvez importer un fichier de planification système dans la partition de gestion du gestionnaire
Integrated Virtualization Manager. Vous pouvez ensuite déployer la planification système sur le
système géré par Integrated Virtualization Manager.
Exportation d’une planification système à partir du gestionnaire Integrated
Virtualization Manager
Vous pouvez exporter un fichier de planification système depuis le gestionnaire Integrated Virtualization
Manager et le télécharger vers l’ordinateur que vous utilisez pour accéder au gestionnaire Integrated
Virtualization Manager.
Pour exporter un fichier de planification système, vous devez avoir le rôle d’administrateur principal
(prime administrator ou padmin). Pour plus d’informations sur les rôles utilisateur, voir la section sur les
rôles utilisateur.
Pour exporter un fichier de planification système stocké dans un gestionnaire Integrated Virtualization
Manager, procédez comme suit :
1. Dans la zone de navigation du gestionnaire Integrated Virtualization Manager, sélectionnez Gestion
des planifications système. La page Gestion de planifications système s’ouvre.
2. Sélectionnez la planification système à exporter du tableau Planifications du système
3. Dans la barre d’outils supérieure du tableau des planifications système, cliquez sur Tâches
supplémentaires → Exportation. Une fenêtre de téléchargement du fichier du navigateur apparaît.
4. Indiquez si vous souhaitez ouvrir la planification système à l’aide d’un navigateur ou la sauvegarder
sur disque et cliquez sur OK. Etant donné que l’accès à la planification système s’effectue par le biais
Chapitre 4. Integrated Virtualization Manager
215
d’une interface de navigateur, le téléchargement et l’exportation s’effectuent à partir du navigateur.
Les paramètres du navigateur déterminent l’emplacement de téléchargement de la planification
système dans votre système de fichiers local.
Remarque : Il se peut que votre navigateur ajoute l’extension .zip au nom de fichier de la
planification système. Dans ce cas, renommez ce fichier en supprimant l’extension .zip afin d’être
certain de pouvoir l’utiliser.
Si le gestionnaire Integrated Virtualization Manager renvoie une erreur, vérifiez que les informations
que vous avez entrées dans cette fenêtre sont correctes. Si besoin est, cliquez sur Annulation, revenez
à l’étape 3 et recommencez la procédure depuis le début, en vous assurant que les informations
entrées à chaque étape sont correctes.
Vous pouvez importer le fichier de planification système dans un gestionnaire Integrated Virtualization
Manager différent afin de déployer la planification sur d’autres systèmes gérés.
Concepts associés
«Rôles utilisateur», à la page 220
La présente section décrit les rôles utilisateur pour le gestionnaire Integrated Virtualization Manager.
Suppression d’une planification système à partir du gestionnaire Integrated
Virtualization Manager
Vous pouvez supprimer une planification système de la partition de gestion d’Integrated Virtualization
Manager.
La suppression d’une planification système de la partition de gestion d’Integrated Virtualization Manager
n’annule aucune modification de configuration de partition ou de matériel si cette planification système a
été déployée sur le système géré.
Pour retirer la planification système de la partition de gestion d’Integrated Virtualization Manager,
procédez comme suit :
1. Dans la zone de navigation, sélectionnez Gestion des planifications système. La page Gestion de
planifications système s’ouvre.
2. Dans le tableau Planifications du système, sélectionnez la planification système à supprimer.
3. Dans la barre d’outils supérieure du tableau des planifications système, cliquez sur Tâches
supplémentaires. La page Suppression de planifications système s’ouvre.
4. Confirmez qu’il s’agit de la planification système à supprimer et cliquez sur OK pour la supprimer.
Mise à jour du gestionnaire Integrated Virtualization Manager
Vous pouvez mettre à jour le niveau de code de la partition de gestion et le microcode du
microprogramme du serveur d’E-S virtuel à l’aide d’Integrated Virtualization Manager.
Pour mettre à jour le niveau de code de la partition de gestion ou le microcode du microprogramme du
serveur d’E-S virtuel, choisissez l’une des procédures suivantes :
v Mettez à jour le niveau de code courant de la partition de gestion d’Integrated Virtualization Manager.
Pour plus d’informations, voir «Affichage et mise à jour du niveau de code de la partition de gestion
d’Integrated Virtualization Manager», à la page 217.
v Créez une analyse du microcode du système géré, puis téléchargez et mettez à niveau le microcode.
Pour plus d’instructions, voir l’article sur la mise à jour du microprogramme et du microcode de périphérique
d’un serveur d’E-S virtuel via Integrated Virtualization Manager avec une connexion Internet dans le guide
d’installation de votre serveur.
v Mettez à jour le microprogramme et le microcode de périphérique duserveur d’E-S virtuel. Pour plus
d’instructions, voir l’article sur la mise à jour du microprogramme et du microcode de périphérique d’un
serveur d’E-S virtuel via Integrated Virtualization Manager sans connexion Internet dans le guide
d’installation de votre serveur.
216
Guide d’utilisation de PowerVM Editions
Affichage et mise à jour du niveau de code de la partition de gestion d’Integrated
Virtualization Manager
Vous pouvez afficher et mettre à jour le niveau de code courant de la partition de gestion d’Integrated
Virtualization Manager.
Pour mettre à jour la partition de gestion, effectuez les étapes suivantes :
1. Dans le menu Gestion de la maintenance, sélectionnez Mises à jour.
2. Affichez le niveau de code courant du gestionnaire Integrated Virtualization Manager.
3. Allez sur le site Web indiqué sur le panneau pour trouver les dernières mises à jour disponibles et
savoir comment appliquer les mises à jour.
Installation ou remplacement d’une carte PCI sur le serveur d’E-S
virtuel lorsque le système est sous tension
Vous pouvez être amené à installer ou remplacer une carte PCI sur la partition logique du serveur d’E-S
virtuel ou sur la partition de gestion du gestionnaire Integrated Virtualization Manager. La procédure de
cette section permet d’effectuer cette tâche.
Le serveur d’E-S virtuel comporte un gestionnaire d’unités PCI remplaçables à chaud similaire à celui du
système d’exploitation AIX. Le gestionnaire d’unités PCI remplaçables à chaud permet de remplacer à
chaud des cartes PCI sur le serveur, puis de les activer sur la partition logique sans réamorcer le système.
Le gestionnaire d’unités PCI remplaçables à chaud permet d’ajouter, d’identifier et de remplacer les cartes
PCI attribuées au serveur d’E-S virtuel.
Guide d’initiation
Prérequis :
v Pour installer une nouvelle carte, vous devez attribuer un emplacement vide du système à la partition
logique du serveur d’E-S virtuel. Vous pouvez effectuer cette tâche via le partitionnement logique
dynamique (DLPAR).
– Si vous utilisez une console HMC (Hardware Management) , vous devez également mettre à jour le
profil de partition logique du serveur d’E-S virtuel pour que la nouvelle carte soit configurée sur ce
serveur après le redémarrage du système.
– Si vous utilisez le gestionnaire Integrated Virtualization Manager, un emplacement vide est
probablement déjà affecté à la partition logique du serveur d’E-S virtuel, car, par défaut, tous les
emplacements sont affectés à ce serveur. Il suffit d’affecter un emplacement vide à la partition
logique du serveur d’E-S virtuel si vous avez déjà affecté tous les emplacements vides à d’autres
partitions logiques.
v Lorsque vous installez une nouvelle carte, veillez à installer les logiciels nécessaires à la prise en charge
de cette carte et les éventuelles modifications provisoires du logiciel (PTF) disponibles.
v Si vous avez besoin d’aide pour déterminer l’emplacement de la carte PCI, voir Positionnement d’une
carte PCI dans l’unité centrale ou l’unité d’extension, dans le manuel Positionnement d’une carte PCI.
Pour accéder au gestionnaire d’unités PCI remplaçables à chaud du serveur d’E-S virtuel, procédez
comme suit :
1. Si vous utilisez le gestionnaire Integrated Virtualization Manager, connectez-vous à l’interface de ligne
de commande.
2. Utilisez la commande diagmenu pour ouvrir le menu de diagnostic du serveur d’E-S virtuel. Les
menus sont similaires aux menus de diagnostic de AIX.
3. Sélectionnez Sélection des tâches, et appuyez sur Entrée.
4. Dans la liste Sélection des tâches, sélectionnez Gestionnaire d’unités PCI remplaçables à chaud.
Chapitre 4. Integrated Virtualization Manager
217
Installation d’une carte PCI
Pour installer une carte PCI sur le serveur d’E-S virtuel lorsque le système est sous-tension, procédez
comme suit :
1. Dans le gestionnaire d’unités PCI remplaçables à chaud, sélectionnez Ajouter une carte PCI
remplaçable à chaud et appuyez sur Entrée. La fenêtre d’ajout de carte PCI remplaçable à chaud
s’affiche.
2. Sélectionnez l’emplacement PCI vide approprié dans la liste et appuyez sur Entrée. Lorsque
l’emplacement est identifié, il est signalé par un voyant orange qui clignote rapidement à l’arrière du
serveur.
3. Suivez les instructions indiquées à l’écran pour installer la carte, ensuite le voyant de l’emplacement
PCI choisi doit passer à l’état d’action. L’installation de la carte, similaire à la procédure effectuée sur
une partition logique autonome AIX, comporte les étapes suivantes :
a. Voyant de la carte à l’état d’action : clignotement du voyant de l’emplacement de la carte
b. Installation physique de la carte
c. Fin de la tâche d’installation de la carte avec diagmenu.
4. Lancez la commande cfgdev pour configurer l’unité du serveur d’E-S virtuel.
Si vous installez une carte PCI Fibre Channel, elle est alors prête à être reliée à un réseau de stockage
(SAN) et des LUN sont attribués au serveur d’E-S virtuel pour la virtualisation.
Remplacement d’une carte PCI
Prérequis : Avant de retirer ou de remplacer une carte de mémoire, vous devez annuler sa configuration.
Pour plus d’informations, voir «Annulation de la configuration d’une carte de mémoire», à la page 125.
Pour remplacer une carte PCI sur le serveur d’E-S virtuel lorsque le système est sous-tension, procédez
comme suit :
1. Dans le gestionnaire d’unités PCI remplaçables à chaud, sélectionnez Déconfiguration d’une unité et
appuyez sur Entrée.
2. Appuyez sur F4 (ou Echap+4) pour afficher le menu Noms d’unités.
3. Sélectionnez la carte à retirer dans le menu Noms d’unités.
4. Dans la zone Conservation de la définition, répondez Oui à l’aide de la touche de tabulation. Dans
la zone Déconfiguration des unités filles, répondez OUI à l’aide de la touche de tabulation.
5. Appuyez sur Entrée pour vérifier les informations sur l’écran de confirmation de l’opération. Si
l’annulation de la configuration est correctement effectuée, le message OK s’affiche à côté de la zone
Commande en haut de l’écran.
6. Appuyez deux fois sur F4 (ou Echap+4) pour revenir au Gestionnaire d’unités remplaçables à chaud.
7. Sélectionnez Remplacement/Retrait d’une carte PCI remplaçable à chaud.
8. Sélectionnez l’emplacement duquel vous souhaitez retirer l’unité.
9. Sélectionnez remplacer. Lorsque l’emplacement est identifié, il est signalé par un voyant orange qui
clignote rapidement à l’arrière de la machine.
10. Appuyez sur Entrée. La carte passe alors à l’état d’action, c’est-à-dire qu’elle peut être retirée du
système.
Annulation de la configuration d’une carte de mémoire
Avant de retirer ou de remplacer une carte de mémoire, vous devez annuler sa configuration. Les cartes
de mémoire sont en général des unités mères d’unités de stockage, telles que les unités de disque ou les
unités de bande. Pour retirer l’unité mère, il est nécessaire de retirer ou de placer à l’état Défini toutes les
unités filles connectées.
218
Guide d’utilisation de PowerVM Editions
L’annulation de la configuration d’une carte de mémoire comporte les tâches suivantes :
v Fermer toutes les applications qui utilisent la carte à retirer, à remplacer ou à déplacer
v Démonter les systèmes de fichiers
v Vérifier que toutes les unités reliées à la carte ont été identifiées et arrêtées
v Répertorier tous les emplacements en cours d’utilisation ou l’emplacement occupé par une carte
particulière
v Identifier l’emplacement de la carte
v Rendre les unités mère et fille indisponibles
v Rendre la carte indisponible
Si la carte prend en charge les volumes physiques utilisés par une partition logique client, vous devrez
peut-être effectuer des opérations sur la partition logique client avant d’annuler la configuration de la
carte de mémoire. Pour plus d’informations, voir «Préparation des partitions logiques client», à la page
126. La carte peut être en cours d’utilisation lorsque, par exemple, le volume physique a été utilisé pour
créer une unité cible virtuelle ou fait partie d’un groupe de volumes utilisé pour créer une unité cible
virtuelle.
Pour annuler la configuration d’une carte de mémoire SCSI, SSA, et Fibre Channel, procédez comme
suit :
1. Connectez-vous à l’interface de ligne de commande du serveur d’E-S virtuel.
2. Exécutez la commande oem_setup_env pour fermer toutes les applications qui utilisent la carte pour
laquelle vous souhaitez annuler la configuration.
3. Entrez lsslot-c pci pour répertorier tous les emplacements remplaçables à chaud de l’unité centrale
et afficher leurs caractéristiques.
4. Entrez lsdev -C pour afficher l’état des unités de l’unité centrale.
5. Entrez unmount pour démonter les fichiers systèmes, les répertoires ou les fichiers montés qui utilisent
cette carte.
6. Entrez rmdev -l adapter -R pour rendre la carte indisponible.
Avertissement : N’utilisez pas l’option -d avec la commande rmdev pour effectuer des opérations
sur les unités remplaçables à chaud, car cette action supprime la configuration.
Préparation des partitions logiques client
Si les unités cibles virtuelles des partitions logiques client ne sont pas disponibles, cela peut faire échouer
ces partitions logiques ou leurs opérations d’E-S pour une application particulière. Si vous utilisez la
console HMC pour gérer le système, des partitions logiques du serveur d’E-S virtuel peuvent être
redondantes, ce qui permet la maintenance de ce serveur et évite toute immobilisation des partitions
logiques client. Lorsque vous remplacez une carte sur le serveur d’E-S virtuel, si votre partition logique
client dépend d’un ou plusieurs volumes physiques liés à cette carte, vous devrez peut-être effectuer des
opérations sur le client avant d’annuler la configuration de la carte.
Les unités cibles virtuelles doivent se trouver à l’état Défini avant le remplacement de la carte du serveur
d’E-S virtuel. Ne retirez pas les unités virtuelles de façon définitive.
Pour préparer des partitions logiques client en vue de l’annulation de la configuration d’une carte,
effectuez les opérations ci-après en fonction de votre contexte.
Tableau 50. Procédures de préparation de partitions logiques client en fonction du contexte
Contexte
Etapes
Vous disposez de matériel redondant pour la carte sur le
serveur d’E-S virtuel.
Aucune opération n’est requise sur la partition logique
client.
Chapitre 4. Integrated Virtualization Manager
219
Tableau 50. Procédures de préparation de partitions logiques client en fonction du contexte (suite)
Contexte
Etapes
Systèmes gérés par la console HMC uniquement : Vous
disposez de partitions logiques redondantes sur le
serveur d’E-S virtuel qui, associées à des cartes client
virtuelles, offrent plusieurs chemins d’accès au volume
physique de la partition logique client.
Aucune opération n’est requise sur la partition logique
client. Cependant, des erreurs de chemin d’accès peuvent
y être consignées.
Systèmes gérés par la console HMC uniquement : Vous
disposez de partitions logiques redondantes sur le
serveur d’E-S virtuel qui, associées à des cartes client
virtuelles, offrent plusieurs volumes physiques qui
permettent de mettre en miroir un groupe de volumes.
Consultez les procédures relatives au système
d’exploitation du client.
Vous n’avez pas de partitions logiques redondantes sur
le serveur d’E-S virtuel.
Arrêtez la partition logique client.
Pour plus d’informations, voir les rubriques suivantes
relatives à l’arrêt des partitions logiques :
v Pour les systèmes gérés par la console HMC, voir
«Arrêt de partitions logiques AIX à l’aide de la console
HMC» et «Arrêt de partitions logiques Linux à l’aide
de la console HMC» dans Guide de partitionnement
logique.1
v Pour les systèmes gérés par le gestionnaire Integrated
Virtualization Manager, voir «Arrêt des partitions
logiques», à la page 205.
Remarque :
1. Pour consulter le fichier PDF Guide de partitionnement logique (SA11-1696), d’une taille approximative de 3 Mo,
voir sa76-0098.pdf
.
Création et modification de comptes utilisateur
Les tâches de gestion des utilisateurs permettent de gérer les comptes utilisateur Integrated Virtualization
Manager sur le système géré.
Utilisez le compte utilisateur padmin pour afficher, modifier ou créer des comptes utilisateur.
La partition de gestion du système géré utilise les mêmes comptes utilisateur que celle du gestionnaire
Integrated Virtualization Manager. Par conséquent, les modifications que vous apportez aux comptes
utilisateur à l’aide du gestionnaire Integrated Virtualization Manager s’appliquent également aux comptes
utilisateur de la partition de gestion. Par exemple, si vous modifiez le mot de passe d’un compte
utilisateur dans Integrated Virtualization Manager, vous devrez utiliser le nouveau mot de passe lorsque
vous utiliserez ce compte utilisateur pour vous connecter à la partition de gestion.
Pour afficher la liste des comptes utilisateur Integrated Virtualization Manager et démarrer les tâches de
maintenance sur ces comptes, cliquez sur View/Modify User Accounts.
Rôles utilisateur
La présente section décrit les rôles utilisateur pour le gestionnaire Integrated Virtualization Manager.
Le rôle utilisateur définit les fonctions auxquelles un utilisateur peut accéder et celles qu’il peut utiliser.
Une fois un compte utilisateur créé, vous ne pouvez plus modifier le rôle utilisateur qui lui est attribué.
De plus, vous ne pouvez pas créer de compte utilisateur avec les mêmes droits que le compte utilisateur
padmin.
220
Guide d’utilisation de PowerVM Editions
Les rôles utilisateur disponibles pour le gestionnaire Integrated Virtualization Manager sont les suivants :
Tableau 51. Rôles utilisateur Integrated Virtualization Manager
Rôle utilisateur
Description
padmin
Ce rôle est similaire à root (superutilisateur). Un seul
compte utilisateur padmin peut être créé pour le
gestionnaire Integrated Virtualization Manager. Le
compte utilisateur padmin est nécessaire pour afficher,
modifier ou créer des comptes utilisateur.
View/Modify
Ce rôle est le type par défaut pour tous les utilisateurs
autres que padmin. Il permet d’exécuter la plupart des
fonctions dans Integrated Virtualization Manager. Il porte
le nom Administrator dans l’interface de ligne de
commande.
View Only
Ce rôle autorise uniquement les opérations en lecture
seule et ne permet d’exécuter que les fonctions de type
ls. Les utilisateurs ayant ce rôle ne disposent pas des
droits nécessaires pour modifier la configuration système
ni du droit d’accès en écriture à leurs répertoires
personnels. Ce rôle porte le nom View dans l’interface de
ligne de commande.
Service Representative (SR)
Ce rôle permet aux techniciens de maintenance
d’exécuter les commandes requises pour la maintenance
du système sans avoir à se connecter en tant
qu’utilisateur root. Le nom d’utilisateur standard pour le
rôle SR est qserv. Certaines fonctions de maintenance du
gestionnaire Integrated Virtualization Manager sont
accessibles uniquement avec le rôle SR. Les opérations de
maintenance des comptes SR sont les suivantes :
v Exécution des programmes de diagnostic, y compris
les aides à la maintenance (tâches de remplacement à
chaud, certification, format, etc.)
v Exécution de toutes les commandes pouvant être
exécutées par un système de groupe
v Configuration et déconfiguration des unités inutilisées
v Utilisation de l’aide à la maintenance pour mettre à
jour le microcode système
v Exécution des opérations d’arrêt et de redémarrage
Création de comptes utilisateur
La présente rubrique explique comment créer des comptes utilisateur Integrated Virtualization Manager
et définir leurs propriétés de base, par exemple l’ID utilisateur, le mot de passe et le rôle.
Utilisez le compte utilisateur padmin pour exécuter cette tâche.
Pour créer un compte utilisateur, procédez comme suit :
1. Dans le menu IVM Management, sélectionnez View/Modify User Accounts. Le panneau Create User
Accounts s’affiche.
2. Cliquez sur *Création d’un utilisateur.... La fenêtre de création de compte d’utilisateur s’affiche.
3. Entrez l’ID utilisateur et le mot de passe, puis confirmez ce dernier.
4. Sélectionnez le rôle convenant au compte utilisateur, puis cliquez sur OK. Le compte utilisateur est
créé.
Chapitre 4. Integrated Virtualization Manager
221
Si nécessaire, vous pouvez créer d’autres comptes utilisateur. Pour plus d’informations sur les rôles
utilisateur, voir l’aide en ligne (
).
Lorsque vous créez un compte utilisateur, seules ses propriétés de base sont définies. Vous pouvez
indiquer des propriétés utilisateur supplémentaires, telles que les restrictions relatives au mot de passe et
la date d’expiration du compte, en changeant les propriétés utilisateur.
Lorsque vous créez un compte utilisateur à partir de ce panneau, le rôle utilisateur par défaut est
Administrator. Les utilisateurs ayant le rôle Administrator sont autorisés à effectuer toutes les tâches, à
l’exception des tâches de maintenance utilisateur et de celles faisant intervenir le journal de commandes
global et le journal d’échecs de connexion.
De plus, vous ne pouvez pas créer de compte utilisateur avec les mêmes droits que le compte utilisateur
padmin. Le compte utilisateur padmin peut utiliser Integrated Virtualization Manager pour effectuer
toutes les tâches.
Modification des propriétés utilisateur
Utilisez le gestionnaire Integrated Virtualization Manager pour modifier les propriétés de comptes
utilisateur, par exemple le nombre de tentatives de connexion autorisé et la date d’expiration du compte.
Utilisez le compte utilisateur padmin pour exécuter cette tâche.
Pour modifier les propriétés d’un compte utilisateur, procédez comme suit :
1. Dans le menu IVM Management, sélectionnez View/Modify User Accounts. La liste des comptes
utilisateur s’affiche.
2. Sélectionnez le compte utilisateur dont vous voulez modifier les propriétés.
3. Cliquez sur Propriétés. La fenêtre Propriétés utilisateur s’affiche.
4. Sur l’onglet User Settings, effectuez les modifications souhaitées, puis cliquez sur OK. La liste des
comptes utilisateur s’affiche de nouveau.
Les modifications que vous apportez aux paramètres de l’onglet User Settings prendront effet lors de la
prochaine connexion de l’utilisateur au gestionnaire Integrated Virtualization Manager. Pour plus
d’informations sur les propriétés utilisateur, voir l’aide en ligne (
).
La partition de gestion du système géré utilise les mêmes comptes utilisateur que celle du gestionnaire
Integrated Virtualization Manager. Par conséquent, les modifications que vous apportez aux comptes
utilisateur à l’aide du gestionnaire Integrated Virtualization Manager s’appliquent également aux comptes
utilisateur. Par exemple, si vous modifiez le mot de passe d’un compte utilisateur dans Integrated
Virtualization Manager, vous devrez utiliser le nouveau mot de passe lorsque vous utiliserez ce compte
utilisateur pour vous connecter à la partition de gestion.
Modification des paramètres de mot de passe
La présente section explique comment modifier les paramètres des mots de passe et les restrictions
relatives aux comptes utilisateur Integrated Virtualization Manager. Parmi ces paramètres figurent
notamment la durée (en semaines) au terme de laquelle le mot de passe expire et la longueur minimale
du mot de passe.
Utilisez le compte utilisateur padmin pour exécuter cette tâche.
Pour modifier les paramètres du mot de passe d’un compte utilisateur, procédez comme suit :
1. Dans le menu IVM Management, sélectionnez View/Modify User Accounts. La liste des comptes
utilisateur s’affiche.
2. Sélectionnez le compte utilisateur dont vous voulez modifier les paramètres de mot de passe.
222
Guide d’utilisation de PowerVM Editions
3. Cliquez sur Propriétés. La fenêtre Propriétés utilisateur s’affiche.
4. Sur la page Password Settings, effectuez les modifications souhaitées, puis cliquez sur OK. La liste
des comptes utilisateur s’affiche de nouveau.
Les modifications que vous apportez aux paramètres de l’onglet Password Settings prendront effet lors
de la prochaine connexion de l’utilisateur au gestionnaire Integrated Virtualization Manager. Pour plus
d’informations sur les paramètres de mot de passe spécifiques, voir l’aide en ligne (
).
La partition de gestion du système géré utilise les mêmes comptes utilisateur que celle du gestionnaire
Integrated Virtualization Manager. Par conséquent, les modifications que vous apportez aux comptes
utilisateur à l’aide du gestionnaire Integrated Virtualization Manager s’appliquent également aux comptes
utilisateur. Par exemple, si vous modifiez le mot de passe d’un compte utilisateur dans Integrated
Virtualization Manager, vous devrez utiliser le nouveau mot de passe lorsque vous utiliserez ce compte
utilisateur pour vous connecter à la partition de gestion.
Suppression de comptes utilisateur
La présente section explique comment supprimer des comptes utilisateur Integrated Virtualization
Manager.
Utilisez le compte utilisateur padmin pour exécuter cette tâche.
Avertissement : Cette procédure entraîne la suppression de toutes les informations utilisateur du
gestionnaire Integrated Virtualization Manager et de la partition de gestion. Il s’agit notamment des
répertoires initiaux des utilisateurs sur la partition de gestion et de tous les fichiers qu’ils contiennent.
Pour conserver les fichiers que contiennent ces répertoires initiaux, utilisez l’interface de ligne de
commande sur la partition de gestion afin de les copier à un autre emplacement avant de supprimer les
comptes utilisateur.
Pour supprimer un compte utilisateur, procédez comme suit :
1. Dans le menu IVM Management, sélectionnez View/Modify User Accounts. La liste des comptes
utilisateur s’affiche.
2. Sélectionnez le compte utilisateur à supprimer.
3. Cliquez sur Suppression du compte. La fenêtre Suppression de comptes d’utilisateur s’affiche, avec la
liste des comptes d’utilisateur à supprimer.
4. Cliquez sur OK pour supprimer ce compte utilisateur. Dans la liste des comptes utilisateur qui
s’affiche de nouveau, celui que vous avez supprimé n’apparaît plus.
Vous pouvez sélectionner plusieurs comptes utilisateur à supprimer. Pour plus d’informations sur la
suppression de comptes utilisateur, voir l’aide en ligne (
).
Modification des mots de passe utilisateur
La présente section explique comment modifier les mots de passe utilisateur dans Integrated
Virtualization Manager.
Utilisez le compte utilisateur padmin pour exécuter cette tâche.
Pour modifier un mot de passe utilisateur, procédez comme suit :
1. Dans le menu IVM Management, sélectionnez View/Modify User Accounts. La liste des comptes
utilisateur s’affiche.
2. Sélectionnez le compte utilisateur dont vous voulez modifier le mot de passe.
3. Cliquez sur Modification du mot de passe. La fenêtre Modification du mot de passe s’affiche.
4. Entrez le nouveau mot de passe.
Chapitre 4. Integrated Virtualization Manager
223
5. Confirmez le nouveau mot de passe, puis cliquez sur OK. Le mot de passe est modifié et la liste des
comptes utilisateur s’affiche de nouveau.
La modification du mot de passe prendra effet lors de la prochaine connexion de l’utilisateur au
gestionnaire Integrated Virtualization Manager, et l’utilisateur devra alors changer de mot de passe.
La partition de gestion du système géré utilise les mêmes comptes utilisateur que celle du gestionnaire
Integrated Virtualization Manager. Par conséquent, le changement de mot de passe que vous effectuez ici
s’applique également au compte utilisateur de la gestion de partition.
Les utilisateurs peuvent changer de mot de passe en cliquant sur l’option Edit my profile de la barre
d’outils.
Edition du profil utilisateur
Utilisez Integrated Virtualization Manager pour modifier votre profil utilisateur. Cette section décrit plus
spécifiquement la méthode de modification du mot de passe utilisateur.
Vous devez être connecté sous le compte utilisateur dont vous voulez modifier le mot de passe.
Pour modifier le mot de passe de votre compte utilisateur, procédez comme suit :
1. Dans la barre d’outils, cliquez sur Edit my profile. La boîte de dialogue Edit My Profile s’affiche.
2. Tapez le mot de passe en cours, puis le nouveau mot de passe.
3. Confirmez le nouveau mot de passe, puis cliquez sur OK. Le mot de passe est modifié et la page
Integrated Virtualization Manager s’affiche.
Le changement de mot de passe prendra effet lors de votre prochaine connexion au gestionnaire
Integrated Virtualization Manager.
La partition de gestion du système géré utilise les mêmes comptes utilisateur que celle du gestionnaire
Integrated Virtualization Manager. Par conséquent, le changement de mot de passe que vous effectuez ici
s’applique également au compte utilisateur de la gestion de partition.
Le compte utilisateur padmin permet de modifier le mot de passe de n’importe quel compte.
Identification et résolution des incidents liés au gestionnaire
Integrated Virtualization Manager
Utilisez les tâches de gestion de service pour identifier et résoudre les incidents liés au gestionnaire
Integrated Virtualization Manager.
Grâce aux tâches de gestion de service, votre système géré fonctionne correctement et est à jour.
Utilisation du point focal de service pour le gestionnaire Integrated
Virtualization Manager
La présente section explique comment utiliser l’utilitaire SFP (Service Focal Point, point focal de service)
afin de gérer gérer les incidents sur votre système via Integrated Virtualization Manager.
Le point focal de service pour le gestionnaire Integrated Virtualization Manager est une application qui
vous permet de gérer et de créer des événements réparables, de gérer les vidages et de collecter les
données techniques essentielles (VPD).
224
Guide d’utilisation de PowerVM Editions
Sauvegarde et restauration des données de partition
Utilisez Integrated Virtualization Manager pour sauvegarder ou restaurer les informations de
configuration des partitions sur le système géré. Vous pouvez télécharger depuis le système une
sauvegarde existante de la configuration des partitions, créer une sauvegarde, en télécharger une sur le
système ou en restaurer une.
Pour sauvegarder ou restaurer des données de partition, procédez comme suit :
1. Dans le menu Service Management, sélectionnez Backup/Restore. La page Backup/Restore s’affiche.
Elle contient les onglets Partition Configuration Backup/Restore, Management Partition
Backup/Restore et File and Virtual Media Backup/Restore.
2. Pour télécharger depuis le système une sauvegarde existante de la configuration des partitions, créer
une sauvegarde, en télécharger une sur le système ou en restaurer une, cliquez sur l’onglet Partition
Configuration Backup/Restore.
3. Pour les instructions relatives à la sauvegarde et à la restauration des données de la partition de
gestion à l’aide de la commande backupios, cliquez sur l’onglet Management Partition
Backup/Restore.
Pour plus d’informations sur les tâches relatives à la sauvegarde et à la restauration des données de
partition, voir l’aide en ligne (
).
Vous pouvez utiliser le gestionnaire Integrated Virtualization Manager version 1.5.1.1 pour sauvegarder et
restaurer des fichiers de support optique virtuel et des fichiers du répertoire utilisateur /home. Pour plus
d’informations sur la manière de procéder, consultez «Sauvegarde sur bande de fichiers de support
virtuel et de fichiers utilisateur» et «Restauration du support virtuel et des fichiers utilisateur à partir
d’une bande», à la page 226.
Sauvegarde sur bande de fichiers de support virtuel et de fichiers
utilisateur
Utilisez le gestionnaire Integrated Virtualization Manager pour sauvegarder sur bande des fichiers dans
votre répertoire utilisateur /home et des fichiers de support virtuel à partir du système géré.
Une unité de bande doit être montée sur le système géré pour effectuer cette tâche.
Pour sauvegarder sur bande des fichiers utilisateur ou des fichiers de support virtuel, procédez comme
suit :
1. Dans le menu Service Management, sélectionnez Backup/Restore. La page Backup/Restore apparaît.
2. Cliquez sur l’onglet File and Virtual Media Backup/Restore.
3. Dans le tableau des fichiers du système géré, sélectionnez les fichiers à sauvegarder sur bande. Le
répertoire /home/padmin apparaît comme une entrée unique.
Cliquez sur [+] Show Files pour que le tableau affiche la liste de tous les fichiers du répertoire pour
permettre la sélection individuelle. Cliquez sur [-] Hide Files pour que le tableau n’affiche que le
répertoire /home/padmin.
La sélection de l’élément de répertoire permet de sauvegarder tous les fichiers dans le répertoire par
défaut.
4. Sélectionnez la commande Generate. Integrated Virtualization Manager met à jour la page en
remplaçant le tableau Managed System File par un message d’information contenant la commande à
exécuter pour sauvegarder les fichiers sélectionnés.
5. Copiez la commande générée par le gestionnaire Integrated Virtualization Manager et ouvrez une
fenêtre de session de terminal.
6. Collez la commande dans la fenêtre de terminal et exécutez-la pour sauvegarder les fichiers
sélectionnés sur une unité de bande.
Chapitre 4. Integrated Virtualization Manager
225
Vous pouvez également utiliser le gestionnaire Integrated Virtualization Manager pour restaurer des
fichiers dans le répertoire utilisateur /home et des fichiers de support virtuel à partir d’une bande. Pour
plus d’informations, voir «Restauration du support virtuel et des fichiers utilisateur à partir d’une
bande».
Restauration du support virtuel et des fichiers utilisateur à partir d’une
bande
Utilisez le gestionnaire Integrated Virtualization Manager pour restaurer des fichiers dans le répertoire
utilisateur /home et des fichiers de support virtuel à partir d’une bande sur le système géré.
Une unité de bande doit être montée sur le système géré pour effectuer cette tâche.
Pour restaurer des fichiers utilisateur ou des fichiers multimédia virtuels à partir d’une bande, procédez
comme suit :
1. Dans le menu Service Management, sélectionnez Backup/Restore. La page Backup/Restore apparaît.
2. Cliquez sur l’onglet File and Virtual Media Backup/Restore.
3. Cliquez sur List Tape Contents pour afficher la liste de tous les fichiers sur l’unité de bande indiquée.
Lorsque le processus termine la lecture de la bande, vous pouvez afficher la liste des fichiers dans le
tableau Tape Device File.
4. Dans le tableau Tape Device File, sélectionnez les fichiers à restaurer sur le système géré à partir de
la bande.
5. Sélectionnez la commande Generate. Integrated Virtualization Manager met à jour la page en
remplaçant le tableau Tape Device File par un message d’information contenant la commande à
exécuter pour restaurer les fichiers sélectionnés.
6. Copiez la commande générée par le gestionnaire Integrated Virtualization Manager et ouvrez une
fenêtre de session de terminal.
7. Collez la commande dans la fenêtre de terminal et exécutez-la pour restaurer les fichiers sélectionnés
sur le système géré. La commande restaure uniquement des fichiers dans les répertoires pour lesquels
l’ID utilisateur dispose d’un accès en écriture. Si vous avez choisi de restaurer un fichier dans un
répertoire pour lequel vous ne disposez pas des droits adéquats, la commande ne peut pas restaurer
de fichier.
Vous pouvez également utiliser Integrated Virtualization Manager pour sauvegarder sur bande des
fichiers dans le répertoire utilisateur /home et des fichiers de support virtuel sur le système géré. Pour
plus d’informations, voir «Sauvegarde sur bande de fichiers de support virtuel et de fichiers utilisateur»,
à la page 225.
Affichage des journaux d’application
Visualisez les entrées des journaux d’application de votre système géré. Les journaux d’application
répertorient les événements et les erreurs générés par Integrated Virtualization Manager.
Pour afficher les journaux d’application, procédez comme suit :
1. Dans le menu Gestion de la maintenance, cliquez sur Journaux d’applications. Le panneau Journaux
d’applications s’affiche.
2. Pour modifier les critères de sélection, sélectionnez les filtres souhaités, puis cliquez sur Apply.
Cliquez sur Reset pour rétablir les valeurs par défaut des filtres.
Pour plus d’informations sur les critères de sélection et les filtres, voir l’aide en ligne (
).
Affichage des propriétés des journaux d’application
Utilisez Integrated Virtualization Manager pour afficher les propriétés des journaux d’application du
système géré.
226
Guide d’utilisation de PowerVM Editions
Pour afficher les propriétés des journaux d’application, procédez comme suit :
1. Dans le menu Gestion de la maintenance, cliquez sur Journaux d’applications. Le panneau
Application Logs s’affiche.
2. Sélectionnez le journal d’application dont vous voulez modifier les propriétés.
3. Dans le menu Tasks, sélectionnez Properties. La boîte de dialogue Log Properties s’affiche.
4. Cliquez sur OK ou sur Cancel pour fermer la boîte de dialogue. Le panneau Application Logs
s’affiche.
Pour plus d’informations sur les propriétés spécifiques des journaux d’applications, voir l’aide en ligne
(
).
Contrôle des tâches
La présente section explique comment afficher et contrôler les 40 dernières tâches en cours d’exécution
sur le gestionnaire Integrated Virtualization Manager.
Pour afficher les propriétés des tâches, procédez comme indiqué ci-après.
1. Dans le menu Service Management, sélectionnez Monitor Tasks. Le panneau Monitor Tasks s’affiche.
2. Sélectionnez la tâche dont vous souhaitez afficher les propriétés.
3. Cliquez sur Properties. La boîte de dialogue des propriétés de la tâche s’affiche.
4. Cliquez sur Cancel pour fermer la boîte de dialogue. Le panneau Monitor Tasks s’affiche.
Affichage de l’inventaire matériel
Utilisez Integrated Virtualization Manager pour répertorier les unités du système géré avec leurs nom,
état, type et code d’emplacement physique.
Pour afficher les unités du système géré, procédez comme suit :
1. Dans le menu Service Management, sélectionnez Hardware Inventory. Le panneau Hardware
Inventory s’affiche, avec la liste des unités matérielles.
2. Pour trier la liste en fonction d’une catégorie, par exemple par nom d’unité ou par état, cliquez sur
l’en-tête de colonne correspondant.
Cette liste fait apparaître toutes les unités avec le nom qui leur est propre, qu’il s’agisse d’unités
physiques ou d’unités virtuelles. Cette opération peut également être effectuée en lançant la commande
lsdev à partir de l’interface de ligne de commande.
Pour plus d’informations sur les catégories, voir l’aide en ligne (
).
Connexion d’une console HMC à un système géré via Integrated
Virtualization Manager
Informations concernant le passage d’une connexion à un système serveurs géré via Integrated
Virtualization Manager à un système serveurs géré via une console HMC (Hardware Management).
La connexion d’une console HMC à un système géré par le gestionnaire Integrated Virtualization
Manager désactive automatiquement Integrated Virtualization Manager. La console HMC prend en
charge le contrôle de gestion du système. Comme la gestion du système change, vous devez créer à
nouveau votre configuration de partition logique, manuellement ou à partir de sauvegardes.
Pour faire passer la gestion d’un système d’Integrated Virtualization Manager à une console HMC,
procédez comme suit :
Chapitre 4. Integrated Virtualization Manager
227
1. Créez une sauvegarde de la configuration de votre partition avec Integrated Virtualization Manager et
téléchargez-la sur votre système local. Pour plus d’informations, voir «Sauvegarde et restauration des
données de partition», à la page 225. Vous pouvez utiliser le fichier texte de sauvegarde comme
référence pour créer à nouveau vos partitions à l’étape 4.
2. Connectez la console HMC au système. Pour plus d’informations, voir Guide d’installation et de
configuration de la console HMC. Pour consulter le fichier PDF Guide d’installation et de configuration de la
console HMC (SA11-1682), d’une taille approximative de 3 Mo, voir sa76-0084.pdf
. Le système
géré se trouve à l’état de récupération sur la consoleHMC.
3. Initialisez les données de profil à l’aide de l’interface HMC. Pour plus d’informations, voir Guide
d’utilisation de la console HMC et des systèmes gérés. Pour consulter le fichier PDF Guide d’utilisation de la
console HMC et des systèmes gérés (SA11-1703), d’une taille approximative de 4 Mo, voir sa76-0085.pdf
. Cette action supprime la configuration de la partition.
4. A l’aide du fichier texte de sauvegarde que vous avez créé à l’étape 1, créez à nouveau vos partitions
avec HMC. Pour plus d’informations, voir Guide d’utilisation de la console HMC et des systèmes
gérés.Pour consulter le fichier PDF Guide d’utilisation de la console HMC et des systèmes gérés
(SA11-1703), d’une taille approximative de 4 Mo, voir sa76-0085.pdf
228
Guide d’utilisation de PowerVM Editions
.
Chapitre 5. Live Partition Mobility
Live Partition Mobility, un composant du dispositif matériel PowerVM Enterprise Edition (ou Advanced
POWER Virtualization Enterprise Edition) offre la possibilité de déplacer des partitions logiques AIX et
Linux d’un système à un autre. La procédure de migration transfère l’environnement système, y compris
l’état des processeurs, la mémoire, les unités virtuelles rattachées et les utilisateurs connectés. La Mobilité
de partition active et la Mobilité de partition inactive sont les types de migration disponibles pour les
utilisateurs de serveurs équipés de processeurs POWER6.
La Mobilité de partition active vous permet de déplacer des partitions logiques AIX et Linux en cours de
fonctionnement (y compris son système d’exploitation et ses applications) d’un système vers un autre. Il
n’est pas nécessaire d’arrêter la partition logique et les applications s’exécutant sur la partition. Ce type
de migration permet d’équilibrer les charges de travail et les ressources entre les serveurs sans perturber
les utilisateurs.
La Mobilité de partition inactive permet de déplacer une partition logique AIX et Linux hors tension d’un
serveur vers un autre. La Mobilité de partition inactive constitue une méthode fiable pour déplacer une
partition logique avec un minimum d’interaction de la part de l’administrateur système.
Concepts relatifs à l’Mobilité de partition
Avant de déplacer les partitions logiques d’un serveur vers un autre, il est important de comprendre les
concepts qui sous-tendent cette fonction.
Cette documentation a pour but de vous familiariser avec la configuration requise pour la Mobilité de
partition.
Avantages de la Mobilité de partition
Cette rubrique décrit les avantages et les applications de la Mobilité de partition.
Conçue pour améliorer la disponibiblité des systèmes, la Mobilité de partition offre une grande souplesse
en matière de gestion de système. Par exemple :
v Vous pouvez éviter les indisponibilités planifiées pour la maintenance du microprogramme et du
matériel en déplaçant les partitions logiques vers un autre serveur et en assurant leur maintenance. La
Mobilité de partition permet en effet de remplacer les activités de maintenance planifiées.
v Vous pouvez éviter la durée d’immobilisation nécessaire à la mise à niveau d’un serveur en déplaçant
les partitions logiques vers un autre serveur et en effectuant la mise à niveau. Vous pouvez ainsi
poursuivre votre travail sans interruption.
v Si un serveur signale un incident potentiel, vous pouvez déplacer ses partitions logiques vers un autre
serveur avant que l’incident se produise. La Mobilité de partition permet d’éviter les temps
d’immobilisation non planifiés.
v Vous pouvez regrouper sur un serveur de plus grande taille les charges de travail s’exécutant sur des
serveurs sur-utilisés de petite taille.
v Vous pouvez déplacer les charges de travail d’un serveur vers un autre pour optimiser l’utilisation des
ressources et les performances de charge de travail au sein de votre environnement de traitement.
Grâce à la Mobilité de partition active, vous pouvez gérer les charges de travail en réduisant au
minimum la durée d’immobilisation.
Cependant, malgré ses nombreux avantages, la Mobilité de partition n’offre pas les fonctionnalités
suivantes :
v La Mobilité de partition ne prend pas en charge l’équilibrage de charge automatique.
229
v La Mobilité de partition ne fournit pas de pont pour de nouvelles fonctions. Vous devez redémarrer les
partitions logiques et, si possible, les réinstaller pour tirer parti des nouvelles fonctions.
Mobilité de partition active
Cette rubrique fournit des informations sur le processus et les performances de la Mobilité de partition
active.
La Mobilité de partition active consiste à déplacer des partitions logiques AIX et Linux en cours de
fonctionnement (y compris son système d’exploitation et ses applications) d’un serveur vers un autre,
sans interrompre le fonctionnement de la partition logique. La partition mobile conserve son nom, ses
profils et sa configuration en cours. Une partition logique doit être dotée des caractéristiques suivantes
pour que vous puissiez lui appliquer la Mobilité de partition active :
v Elle doit être en cours de fonctionnement.
v Elle doit porter un nom unique qui ne figure pas dans le serveur cible.
v La partition logique du serveur d’E-S virtuel cible doit disposer d’emplacements virtuels inutilisés.
v Seules deux cartes d’E-S série virtuelles par défaut de la partition logique doivent être attribuées à sa
configuration en cours.
v Tous les disques SCSI virtuels doivent être mappés sur des numéros d’unité logique (LUN) visibles sur
le réseau de stockage externe (SAN) et accessibles sur le serveur d’E-S virtuel du serveur cible.
v La partition logique ne doit comporter ni carte physique ni carte de réseau Ethernet hôte. (La carte
Ethernet hôte est parfois appelée carte Ethernet virtuelle intégrée.)
v Elle ne doit pas être une partition logique du serveur d’E-S virtuel.
v Elle ne doit pas appartenir à un groupe de charge de travail de partitions.
v Elle ne doit pas être utilisée en tant que partition logique d’édition de rapports sur le chemin de
traitement des erreurs redondantes.
v Elle ne doit pas utiliser de pages volumineuses.
v Elle ne doit pas utiliser le registre de synchronisation de barrières (BSR).
v Aucun des disques SCSI virtuels de la partition logique ne doit être défini en tant que volume logique
dans un serveur d’E-S virtuel.
Fonctionnement de la Mobilité de partition active sur la console HMC (Hardware
Management) et Integrated Virtualization Manager
Cette rubrique fournit des informations sur le processus de bout en bout de la Mobilité de partition
active.
La Mobilité de partition active consiste à déplacer une partition logique en cours de fonctionnement (y
compris son système d’exploitation et ses applications) d’un serveur vers un autre, sans interrompre le
fonctionnement de la partition. Ce processus comprend les étapes suivantes :
1. L’utilisateur vérifie que toutes les conditions sont remplies et que toutes les tâches de préparation ont
été exécutées.
2. Il lance la Mobilité de partition active à l’aide de l’assistant de migration de partition sur la console
HMC (Hardware Management) ou la tâche de migration à l’aide d’Integrated Virtualization Manager.
3. La console HMC ou Integrated Virtualization Manager vérifie l’environnement de Mobilité de
partition.
4. La console HMC ou Integrated Virtualization Manager prépare les environnements source et cible à la
Mobilité de partition active.
5. La console HMC ou le gestionnaire Integrated Virtualization Manager transfère l’état de la partition
logique depuis l’environnement source vers l’environnement cible. Cet état comprend tous les profils
de partition associés à la partition mobile.
230
Guide d’utilisation de PowerVM Editions
v La partition de maintenance de déplacement source extrait les informations d’état de partition
logique du serveur source et les envoie à la partition de maintenance de déplacement cible sur le
réseau.
v La partition de maintenance de déplacement cible reçoit les informations d’état et les installe sur le
serveur cible.
6. La console HMC ou Integrated Virtualization Manager interrompt la partition mobile sur le serveur
source. La partition de maintenance de déplacement source poursuit le transfert des informations
d’état de partition logique vers la partition de maintenance de déplacement cible.
7. Hypervisor reprend la partition mobile sur le serveur cible.
8. La console HMC ou Integrated Virtualization Manager termine la migration. Toutes les ressources qui
ont été consommées par la partition mobile sur le serveur source sont récupérées par ce dernier,
notamment les suivantes :
v Ressources virtuelles non verrouillées, non configurées ou non définies du serveur d’E-S virtuel sur
le serveur source.
v La console HMC ou Integrated Virtualization Manager supprime, le cas échéant, les emplacements
de la carte virtuelle d’hébergement des profils de partition du serveur d’E-S virtuel.
9. L’utilisateur effectue les tâches post-requises telles que les suivantes :
v Ajout d’une partition mobile à un groupe de charge de travail de partitions
v Ajout de cartes d’E-S dédiées
Caractéristiques du système non modifiées après une migration de partition : Après une migration de
partition, certains attributs de partition logique restent inchangés sur le serveur de destination,
notamment les suivantes :
v Nom de la partition logique
v Type de partition logique (processeur dédié ou partagé)
v Configuration de la partition logique
v Architecture des processeurs
v Etat du traitement multitâche (SMT) de chaque processeur
v Mappage des adresses virtuelles MAC et IP ainsi que des numéros d’unité logique (LUN) sur les unités
cible
Caractéristiques du système susceptibles d’être modifiées après une migration de partition logique :
Une migration de partition logique peut entraîner la modification de certaines informations d’attributs
système, notamment les suivantes :
v Numéro d’identification de la partition logique
v Type, modèle et numéro de série de la machine
v Classe de modèle du serveur sous-jacent
v Version et type de processeur
v Fréquence du processeur
v Caractéristiques d’affinité des blocs de mémoire logique (LMB)
v Nombre maximal de processeurs physiques installés et remplaçables à chaud
v Taille des mémoires cache de niveau 1 et 2
Validation de la Mobilité de partition active
Cette rubrique explique comment l’assistant de migration de partition de la console HMC (Hardware
Management) et la fonction de migration du gestionnaire Integrated Virtualization Manager valident la
configuration de votre système.
Avant de tenter la migration d’une partition logique active, vous devez valider votre environnement.
Pour cela, vous pouvez utiliser la fonction de validation de la console HMC ou du gestionnaire
Chapitre 5. Live Partition Mobility
231
Integrated Virtualization Manager. Si la console HMC ou le gestionnaire Integrated Virtualization
Manager détecte un problème de configuration ou de connexion, un message d’erreur s’affiche avec les
informations nécessaires pour vous aider à résoudre le problème. La fonction de validation de la console
HMC et du gestionnaire Integrated Virtualization Manager exécute les tâches suivantes :
v Elle vérifie les fonctionnalités et la compatibilité de la migration de partition active sur les systèmes
source et cible, Hypervisor POWER6, le serveur d’E-S virtuel et les partitions logique de maintenance
de déplacement.
v Elle vérifie que les connexions RMC (Resource Monitoring and Control) à la partition mobile et au
serveur d’E-S virtuel source et au serveur d’E-S virtuel cible, ainsi que la connexion entre les partitions
de maintenance de déplacement source et cible sont établies.
v Elle vérifie que la partition mobile ne contient aucune carte physique et qu’il n’existe qu’une seule
carte série virtuelle dans les emplacements virtuels.
v Elle vérifie qu’aucun disque SCSI virtuel client de la partition mobile n’est secondé par des volumes
logiques et qu’aucun disque n’est mappé sur des disques internes.
v Elle vérifie que la partition mobile, son système d’exploitation et ses applications prennent en charge
les fonctionnalités de migration active.
v Elle vérifie que la taille du bloc de la mémoire logique est identique sur les serveurs source et cible.
v Elle vérifie que le système d’exploitation de la partition mobile est AIX ou Linux.
v Elle vérifie que la partition logique n’est pas la partition logique d’édition de rapports sur les chemins
de traitement des erreurs redondantes.
v Elle vérifie que la partition logique de maintenance n’est pas configurée avec des registres de
synchronisation de barrières (BSR).
v Elle vérifie que la partition mobile n’utilise pas des pages volumineuses.
v Elle vérifie que la partition mobile ne comporte aucune carte de réseau Ethernet hôte (ou carte Ethernet
virtuelle intégrée).
v Elle vérifie que la partition logique est à l’état actif ou en cours de fonctionnement.
v Elle vérifie que la partition mobile n’appartient pas à un groupe de charge de travail de partitions.
v Elle vérifie l’unicité des adresses MAC de la partition mobile.
v Elle vérifie que les ID de réseau local virtuel nécessaires sont disponibles sur le serveur d’E-S virtuel de
destination.
v Elle vérifie que le nom de la partition mobile n’existe pas déjà dans le serveur de destination.
v Elle vérifie le nombre de migrations actuellement actives par rapport au nombre de migrations actives
prises en charge.
v Elle vérifie que les ressources nécessaires (processeurs, mémoire et emplacements virtuels) sont
disponibles pour créer une partition logique shell sur le système de destination avec la configuration
exacte de la partition mobile.
v Elle vérifie que le système d’exploitation de la partition mobile peut faire l’objet d’une migration. AIX
transmet la demande de vérification de migration aux applications et aux extensions du noyau qui se
sont inscrites pour être informées des événements de reconfiguration dynamique. Le système
d’exploitation accepte ou refuse la migration.
Mobilité de partition inactive
Cette rubrique fournit des informations sur le processus de bout en bout de la Mobilité de partition
inactive.
La Mobilité de partition inactive permet de déplacer une partition logique AIX et Linux hors tension d’un
serveur vers un autre. Comme la console HMC fait toujours migrer le dernier profil activé, il n’est pas
possible de faire migrer une partition logique inactive qui n’a jamais été activée. En revanche, Integrated
Virtualization Manager permet de faire migrer une partition logique qui n’a jamais été activée. Pendant la
migration inactive, la partition mobile conserve son nom et son état inactif. Ses ressources d’E-S virtuelles
232
Guide d’utilisation de PowerVM Editions
sont attribuées (et redéfinies en conséquence) aux partitions logiques appropriées du serveur d’E-S virtuel
du système cible. Ses ressources processeur et mémoire demeurent non attribuées tant que vous n’avez
pas activé la partition logique sur la console HMC.
Une partition logique doit être dotée des caractéristiques suivantes pour que vous puissiez lui appliquer
la Mobilité de partition inactive :
v L’état de la partition logique ne doit pas être Non activé.
v La partition logique peut utiliser des pages volumineuses.
v Elle peut utiliser des registres de synchronisation de barrières (BSR).
v Elle ne doit pas comporter de cartes physiques. La console HMC et Integrated Virtualization Manager
suppriment automatiquement ces cartes.
v Le serveur cible doit disposer d’une capacité de traitement et de mémoire suffisante pour prendre en
charge la configuration des partitions mobiles.
v Elle ne doit pas être une partition logique du serveur d’E-S virtuel.
v Elle ne doit pas appartenir à un groupe de charge de travail de partitions.
v Elle ne doit pas être utilisée en tant que partition logique d’édition de rapports sur le chemin de
traitement des erreurs redondantes.
v Seules deux cartes d’E-S série virtuelles par défaut de la partition logique doivent être attribuées à sa
configuration en cours.
v Aucun des disques SCSI virtuels de la partition logique ne doit être défini en tant que volume logique
dans un serveur d’E-S virtuel.
v Tous les disques SCSI virtuels doivent être mappés sur des numéros d’unité logique (LUN) visibles sur
le réseau de stockage (SAN) externe.
Fonctionnement de la Mobilité de partition inactive
Cette rubrique fournit des informations sur le processus de bout en bout de la Mobilité de partition
inactive.
Une Mobilité de partition inactive permet de déplacer une partition logique hors tension d’un serveur sur
un autre.
1. L’utilisateur vérifie que toutes les conditions sont remplies et que toutes les tâches de préparation ont
été exécutées.
2. Il arrête la partition mobile.
3. Il lance la Mobilité de partition inactive à l’aide de l’assistant de migration de partition sur la console
HMC ou la tâche de migration à l’aide du gestionnaire Integrated Virtualization Manager.
4. La console HMC et Integrated Virtualization Manager vérifient l’environnement de Mobilité de
partition.
5. La console HMC et Integrated Virtualization Manager préparent les environnements source et cible à
la Mobilité de partition inactive.
6. La console HMC et Integrated Virtualization Manager transfèrent l’état de la partition depuis
l’environnement source vers l’environnement cible. Cet état comprend tous les profils de partition
associés à la partition mobile sur la console HMC.
7. La console HMC et Integrated Virtualization Manager terminent la migration. Cela signifie que toutes
les ressources qui ont été consommées par la partition mobile sur le serveur source sont récupérées
par ce dernier, notamment les suivantes :
v Ressources virtuelles non verrouillées, non configurées ou non définies du serveur d’E-S virtuel
source sur les serveurs source et cible.
v La console HMC supprime les emplacements de la carte virtuelle d’hébergement des profils de
partition HMC source.
8. L’utilisateur active la partition mobile sur le serveur cible.
9. L’utilisateur effectue les tâches post-requises telles que les suivantes :
Chapitre 5. Live Partition Mobility
233
v Etablissement de connexions à un terminal virtuel
v Ajout d’une partition mobile à un groupe de charge de travail de partitions
Caractéristiques du système non modifiées après une migration de partition : Après une migration de
partition, certains attributs de partition logique restent inchangés sur le serveur de destination,
notamment les suivantes :
v Nom de la partition logique
v Type de partition logique (processeur dédié ou partagé)
v Configuration de la partition logique
v Architecture des processeurs
v Etat du traitement multitâche (SMT) de chaque processeur
v Mappage des adresses virtuelles MAC et IP ainsi que des numéros d’unité logique (LUN) sur les unités
cible
Caractéristiques du système susceptibles d’être modifiées après une migration de partition logique :
Une migration de partition logique peut entraîner la modification de certaines informations d’attributs
système, notamment les suivantes :
v Numéro d’identification de la partition logique
v Type, modèle et numéro de série de la machine
v Classe de modèle du serveur sous-jacent
v Version et type de processeur
v Fréquence du processeur
v Caractéristiques d’affinité des blocs de mémoire logique (LMB)
v Nombre maximal de processeurs physiques installés et remplaçables à chaud
v Taille des mémoires cache de niveau 1 et 2
Validation d’une Mobilité de partition inactive
Cette rubrique explique comment la console HMC et le gestionnaire Integrated Virtualization Manager
valident la configuration de votre système.
Avant de tenter la migration d’une partition logique inactive, vous devez valider votre environnement.
Pour cela, vous pouvez utiliser la fonction de validation de la console HMC ou du gestionnaire
Integrated Virtualization Manager. Si la console HMC ou le gestionnaire Integrated Virtualization
Manager détecte un problème de configuration ou de connexion, un message d’erreur s’affiche avec les
informations nécessaires pour vous aider à résoudre le problème. La fonction de validation de la console
HMC et du gestionnaire Integrated Virtualization Manager exécute les tâches suivantes :
v Elle vérifie les fonctionnalités et la compatibilité de la migration avec le serveur d’E-S virtuel et
POWER6 Hypervisor sur les systèmes source et cible.
v Elle vérifie que les ressources nécessaires (processeurs, mémoire et emplacements virtuels) sont
disponibles pour créer une partition logique shell sur le système de destination avec la configuration
exacte de la partition mobile.
v Elle vérifie les connexions RMC (Resource Monitoring and Control) au serveur d’E-S virtuel source et
au serveur d’E-S virtuel cible.
v Elle vérifie que le nom de la partition logique n’existe pas déjà dans le serveur de destination.
v Elle vérifie l’unicité de l’adresse MAC virtuelle.
v Elle vérifie que les ID de réseau local virtuel nécessaires sont disponibles sur le serveur d’E-S virtuel de
destination.
v Elle vérifie que la partition logique n’est pas à l’état Non activé.
v Elle vérifie que la partition mobile est une partition logique AIX ou Linux.
234
Guide d’utilisation de PowerVM Editions
v Elle vérifie que la partition mobile n’est ni la partition logique d’édition de rapports sur les chemins de
traitement des erreurs redondantes ni une partition logique de maintenance.
v Elle vérifie que la partition mobile n’appartient pas à un groupe de charge de travail de partitions.
v Elle vérifie que la partition mobile est associée à un profil actif sur la console HMC.
v Elle vérifie le nombre de migrations actuellement inactives par rapport au nombre de migrations
inactives prises en charge.
v Elle vérifie que toutes les unités d’E-S nécessaires sont connectées à la partition mobile via un serveur
d’E-S virtuel et qu’il n’existe, par conséquent, aucune carte physique.
v Elle vérifie que les disques SCSI virtuels affectés à la partition logique sont accessibles par le serveur
d’E-S virtuel sur le système de destination.
v Elle crée le mappage de migration de carte virtuelle pour associer les cartes du serveur d’E-S virtuel
source à celles du serveur d’E-S virtuel de destination.
v Elle vérifie qu’aucun disque SCSI virtuel n’est secondé par des volumes logiques et qu’aucun d’eux
n’est connecté à des disques internes (non-SAN).
Utilisation de la console HMC avec Live Partition Mobility
Cette rubrique fournit des informations sur la migration d’une partition logique active ou inactive à l’aide
de la console HMC (Hardware Management).
Environnement HMC
Cette rubrique décrit la migration d’une partition active ou inactive à l’aide de la console HMC
(Hardware Management).
Serveurs source et cible
Cette rubrique fournit des informations sur la façon de configurer l’environnement des serveurs source et
cible avant d’effectuer une migration de partition logique.
Deux serveurs sont impliqués dans la Mobilité de partition. Le serveur source est celui à partir duquel
vous souhaitez déplacer la partition logique et le serveur cible est celui vers lequel vous la déplacez. Les
serveurs source et cible doivent être équipés de processeurs POWER6 pour participer à la Mobilité de
partition. Le serveur cible doit disposer de ressources mémoire et processeur suffisantes pour permettre
l’exécution de la partition mobile.
Pages volumineuses
Les pages volumineuses peuvent améliorer les performances dans des environnements spécifiques
exigeant un degré élevé de parallélisme, comme dans les environnements de base de données
partitionnés DB2. Vous pouvez définir un nombre de pages volumineuses minimal, maximal ou un
nombre précis à affecter à une partition lors de la création de celle-ci ou du profil de partition.
Une partition logique ne peut pas participer à une Mobilité de partition active si des pages volumineuses
sont utilisées. En revanche, il est possible d’effectuer une migration de partition inactive si la partition
mobile utilise des pages volumineuses. Le profil de partition conserve les ressources de pages
volumineuses, mais leur nombre peut ne pas être disponible sur le serveur de destination ; dans ce cas, la
partition logique démarrera sans certaines pages volumineuses ou sans aucune d’elles après la migration
inactive.
Registre de synchronisation de barrières (BSR)
Le registre de synchronisation de barrières (BSR) est un registre mémoire utilisé sur certains processeurs
reposant sur la technologie POWER. Une application de traitement parallèle s’exécutant sur AIX peut
utiliser un registre BSR pour synchroniser les unités d’exécution de l’application de traitement parallèle.
Chapitre 5. Live Partition Mobility
235
Une partition logique ne peut pas participer à une migration de partition active en présence d’un registre
BSR. En revanche, vous pouvez utiliser une Mobilité de partition inactive si vous ne souhaitez pas
désactiver ce registre.
Console HMC (Hardware Management Console)
La console HMC permet de contrôler les systèmes gérés. Elle permet notamment de gérer des partitions
logiques et d’utiliser la mise à niveau de la capacité à la demande. La console HMC communique à l’aide
des applications de service avec les systèmes gérés pour détecter, regrouper et envoyer les informations à
des fins d’analyse. Vous pouvez utiliser la console HMC pour configurer et contrôler un ou plusieurs
systèmes gérés. Vous devez installer la version 7 ou une version supérieure de la console HMC pour la
fonction Live Partition Mobility. Pendant la migration, la console HMC ou la paire de consoles HMC
redondantes impliquées gère les serveurs source et cible. La console HMC peut gérer plusieurs
migrations simultanément. Cependant, le nombre maximum de migrations de partitions simultanées est
limité par la capacité de traitement de la console HMC.
L’assistant de migration de partition inclus dans la console HMC permet de valider et de terminer une
migration de partition. La console HMC détermine le type de migration à utiliser en fonction de l’état de
la partition logique. Si la partition logique est à l’état En cours d’exécution, la migration est active. Si elle
est à l’état Non activé, la migration est inactive. La console HMC valide votre environnement de partition
logique avant le démarrage de la migration. Au cours de la validation, la console HMC détermine si la
migration a réussi. Si celle-ci a échoué, l’interface graphique affiche les messages d’erreur ainsi que des
suggestions pour vous aider à résoudre le problème de configuration.
Partitions logiques du serveur d’E-S virtuel source et cible
Cette rubrique fournit des informations sur le composant serveur d’E-S virtuel de l’environnement de
Mobilité de partition.
La Mobilité de partition exige une partition logique du serveur d’E-S virtuel sur le serveur source et une
partition logique du serveur d’E-S virtuel sur le serveur de destination. Ces deux partitions logiques du
serveur d’E-S virtuel doivent fournir les ressources réseau et mémoire à la partition mobile. Celle-ci
pourra ainsi accéder à la même mémoire à partir des serveurs source et cible.
Pour la Mobilité de partition active, les partitions logiques du serveur d’E-S virtuel source et cible
doivent être désignées en tant que partitions de maintenance de déplacement. Une partition de maintenance
de déplacement est une partition logique du serveur d’E-S virtuel dotée des caractéristiques suivantes :
v L’attribut de la partition active de déplacement indique que la partition logique du serveur d’E-S
virtuel est en mesure de prendre en charge la migration de la partition active.
v Vous devez disposer de la version 1.5 ou d’une version supérieure pour les deux serveur d’E-S virtuel.
Les partitions de maintenance de déplacement source et cible doivent communiquer entre elles via le
réseau. Sur les serveurs source et cible, l’interface VASI (Virtual Asynchronous Services Interface) assure
la communication entre la partition de maintenance de déplacement et Hypervisor. Ces connections
facilitent la Mobilité de partition active comme suit :
v Sur le serveur source, la partition de maintenance de déplacement extrait les informations d’état de la
partition logique mobile de Hypervisor.
v La partition de maintenance de déplacement du serveur source envoie les informations d’état de
partition logique à la partition de maintenance de déplacement du serveur cible.
v Sur le serveur de destination, la partition de maintenance de déplacement installe les informations
d’état de partition logique sur Hypervisor.
Partition mobile
Cette rubrique fournit des informations sur les incidences de la Mobilité de partition sur la configuration
des partitions mobiles.
236
Guide d’utilisation de PowerVM Editions
Une partition mobile est une partition logique que vous souhaitez déplacer du serveur source vers le
serveur de destination. Vous pouvez faire migrer une partition mobile en cours de fonctionnement ou
hors tension depuis le serveur source vers le serveur de destination.
Remarque : Avant d’effectuer la migration, vérifiez que la partition mobile est en mesure de migrer vers
le serveur de destination.
La console HMC crée un profil de migration pour la partition mobile sur le serveur de destination,
correspondant à la configuration en cours de la partition logique. Pendant la migration, la console HMC
fait migrer tous les profils associés à la partition mobile vers le serveur de destination. Seul le profil de
partition en cours (ou, le cas échéant, le nouveau profil) est converti pendant le processus de migration.
Cette conversion inclut le mappage de l’emplacement SCSI virtuel client sur l’emplacement SCSI virtuel
cible correspondant sur le serveur d’E-S virtuel cible, si nécessaire.
Il n’est pas possible de faire migrer une partition logique s’il existe une partition logique du même nom
sur le serveur de destination. La console HMC crée un nouveau profil de migration contenant l’état en
cours de la partition logique si vous n’indiquez aucun nom de profil. Ce profil remplace le dernier profil
qui a été utilisé pour activer la partition logique. Si vous indiquez le nom d’un profil existant, la console
HMC remplace ce profil par le nouveau profil de migration. Si vous souhaitez conserver les profils
existants de la partition logique, indiquez un nouveau nom de profil unique avant de lancer la migration.
Considérations sur la configuration des E-S de la partition mobile :
N’affectez aucune carte d’E-S physique ou obligatoire à une partition mobile par le biais de la migration
d’une partition active. Toutes les cartes d’E-S de la partition mobile doivent être des unités virtuelles.
Pour supprimer les cartes physiques sur la partition mobile, vous pouvez utiliser la tâche de suppression
du partitionnement logique dynamique.
Une partition mobile dotée de cartes dédiées peut participer à une Mobilité de partition inactive ;
cependant, ces cartes seront supprimées du profil de partition. Ainsi, la partition logique démarrera
uniquement avec les ressources d’E-S virtuelles après une migration inactive. Si des ressources d’E-S
dédiées ont été affectées à la partition logique sur le serveur source, ces ressources deviendront
disponibles lorsque la partition logique sera supprimée du serveur source.
Réseautique
Dans la Mobilité de partition, le réseau situé entre les deux partitions de maintenance de déplacement
permet de transmettre les informations d’état de la partition mobile et d’autres données de configuration
depuis l’environnement source vers l’environnement de destination. La partition mobile utilise le réseau
local virtuel pour accéder au réseau.
Le réseau local virtuel doit être relié par pont à un réseau physique par le biais d’une carte de réseau
Ethernet partagée dans la partition logique du serveur d’E-S virtuel. Le réseau local doit être configuré de
sorte que la partition mobile puisse continuer à communiquer avec les autres clients et serveurs
nécessaires une fois la migration terminée.
La Mobilité de partition active n’impose aucune contrainte en ce qui concerne la taille de la mémoire de
la partition mobile ou le type de réseau reliant les partitions de maintenance de déplacement. Le transfert
de la mémoire n’interrompt pas l’activité d’une partition mobile, mais cette procédure peut prendre du
temps lorsque la configuration d’une mémoire de grande taille est occupée sur un réseau lent. C’est la
raison pour laquelle une connexion à large bande passante telle que Gigabit Ethernet ou une bande
passante plus rapide peut être utile entre les partitions logiques du serveur d’E-S virtuel incluant la
fonction de partition de maintenance de déglacement.
La distance maximale entre les systèmes source et cible est déterminée par la configuration du réseau et
de la mémoire utilisée par les systèmes, la possibilité pour les applications de continuer à fonctionner
lorsque la mémoire est séparée du serveur par une telle distance et l’obligation de gérer les systèmes
source et cible par la même console HMC. Si les deux systèmes se trouvent sur le même réseau, sont
Chapitre 5. Live Partition Mobility
237
connectés à la même mémoire partagée et sont gérés par la même console HMC, la validation de la
Mobilité de partition réussira. Le temps nécessaire au transfert des performances de la partition logique
et de l’application après un déplacement sur une longue distance dépend de la distance réseau réelle
entre les systèmes source et cible et de la sensibilité de l’application par rapport à l’augmentation du
temps d’attente de stockage.
Configuration de la mémoire pour la Mobilité de partition
Cette rubrique fournit des informations sur la configuration mémoire exigée pour la Mobilité de partition.
La partition mobile est transférée d’un serveur vers un autre par le serveur source qui envoie les
informations d’état de la partition logique au serveur de destination sur un réseau local (LAN).
Cependant, il n’est pas possible de transmettre des données de partitionnement de disque d’un système
vers un autre via un réseau. Par conséquent, pour que la Mobilité de partition puisse réussir, la partition
mobile doit utiliser les ressources de stockage virtualisées par un réseau de stockage (SAN), afin qu’elle
puisse accéder à la même mémoire à partir des serveurs source et cible.
Applications logicielles reconnaissant les migrations
Des applications logicielles peuvent être conçues pour reconnaître les modifications matérielles du
système et s’y adapter après le déplacement d’un système vers un autre.
La plupart des applications logicielles s’exécutant dans les partitions logiques AIX et Linux ne nécessitent
aucune modification pour fonctionner correctement lors d’une Mobilité de partition active. Certaines
applications peuvent être dépendantes des caractéristiques qui varient entre les serveurs source et cible, et
certaines autres nécessitent un ajustement pour prendre en charge la migration.
Exemples d’applications qui seraient avantagées si elles prenaient en charge la Mobilité de partition :
v Applications logicielles utilisant les caractéristiques d’affinité de la mémoire et du processeur pour
optimiser leur comportement, car ces caractéristiques peuvent changer suite à une migration. Les
fonctionnalités de l’application restent les mêmes, mais des variations peuvent être observées dans les
performances.
v Les applications utilisant la liaison de processeur conservent leur liaison aux mêmes processeurs
logiques entre les migrations, mais les processeurs physiques changent. La liaison permet généralement
de conserver les caches à chaud, mais le déplacement du processeur physique requiert une hiérarchie
de caches sur le système cible. Cette action est souvent très rapide et l’utilisateur ne doit pas s’en
rendre compte.
v Applications optimisées pour des architectures de caches données, telles que la hiérarchie, la taille, la
taille de ligne et l’associativité.
v Les outils d’analyse des performances, de prévision de la capacité et de comptabilité, ainsi que leurs
agents, prennent généralement en charge la migration, car les compteurs de performances des
processeurs peuvent varier entre les serveurs source et cible, comme le type et la fréquence du
processeur. En outre, les outils calculant une charge système agrégée sur la somme des charges de
toutes les partitions hébergées doivent être informés des partitions qui quittent le système et des
nouvelles qui arrivent.
v Gestionnaires de charge de travail
Configuration requise pour la Mobilité de partition à partir de la
console HMC (Hardware Management)
Cette rubrique contient des informations sur la configuration logicielle et matérielle exigée pour la
Mobilité de partition à partir de la console HMC (Hardware Management).
La configuration logicielle et matérielle exigée pour utiliser la Mobilité de partition varie selon qu’il s’agit
de la migration d’une partition logique active ou inactive. Avant de procéder à la migration d’une
partition logique, vérifiez que l’environnement de Mobilité de partition répond aux conditions minimales
exigées.
238
Guide d’utilisation de PowerVM Editions
Configuration exigée pour la console HMC
Le tableau suivant indique la configuration logicielle exigée pour la console HMC.
Tableau 52. Configuration logicielle exigée pour la console HMC
Configuration exigée pour la
console HMC
Configuration exigée pour la
mobilité active
Configuration exigée pour la
mobilité inactive
X
X
Vous devez installer la version
V7R320 (ou une version supérieure)
de la console HMC.
Pour déterminer la version en cours
de la console HMC et, si nécessaire,
la mettre à jour, voir :
v La section relative à la
détermination de la version et de
l’édition du code machine de la
console HMC dans le Guide
d’utilisation de la console HMC et des
systèmes gérés1.
v La section relative à l’obtention de
correctifs et de mises à niveau du
code machine de la console HMC
dans le Guide d’utilisation de la
console HMC et des systèmes gérés1.
Remarque :
1. Pour consulter le fichier PDF Guide d’utilisation de la console HMC et des systèmes gérés (SA11-1703), d’une taille
approximative de 4 Mo, voir sa76-0085.pdf
.
Configuration exigée pour les serveurs source et cible
Le tableau suivant indique la configuration matérielle exigée pour les serveurs source et cible.
Tableau 53. Configuration exigée pour les serveurs source et cible
Configuration exigée pour les
serveurs
Les serveurs source et cible doivent
correspondre à l’un des modèles
POWER6 :
Configuration exigée pour la
mobilité active
Configuration exigée pour la
mobilité inactive
X
X
v 03E/4A
v 04E/8A
v 17M/MA
Chapitre 5. Live Partition Mobility
239
Tableau 53. Configuration exigée pour les serveurs source et cible (suite)
Configuration exigée pour les
serveurs
Configuration exigée pour la
mobilité active
Configuration exigée pour la
mobilité inactive
X
X
Les serveurs source et destination
doivent disposer du niveau de
microprogramme 01EX320 ou d’un
niveau supérieur.
Pour déterminer le niveau de
microprogramme en cours et, si
nécessaire, le mettre à jour, voir :
v Utilisation de la console HMC
pour afficher les niveaux de
microprogramme existants (code
interne sous licence) dans le Guide
d’utilisation de la console HMC et des
systèmes gérés1.
v Obtention des mises à jour et des
mises à niveau des
microprogrammes du sous-système
d’alimentation et du serveur dans
le Guide d’utilisation de la console
HMC et des systèmes gérés1.
Remarque :
1. Pour consulter le fichier PDF Guide d’utilisation de la console HMC et des systèmes gérés (SA11-1703), d’une taille
approximative de 4 Mo, voir sa76-0085.pdf
.
Configuration exigée pour les partitions logiques du serveur d’E-S virtuel source
et cible
Le tableau suivant indique la configuration logicielle exigée pour les partitions logiques du serveur d’E-S
virtuel source et cible.
Tableau 54. Configuration logicielle exigée pour les partitions logiques du serveur d’E-S virtuel source et cible
Configuration exigée pour la
partition logique du serveur d’E-S
virtuel
Vous devez vous procurer et mettre
en oeuvre le composant matériel
PowerVM Enterprise Edition (ou
Advanced POWER Virtualization
Enterprise Edition) pour utiliser la
Mobilité de partition. Pour plus
d’informations sur PowerVM
Enterprise Edition, voir PowerVM
Editions. Pour plus d’informations
sur l’activation du dispositif matériel
PowerVM Enterprise Edition, voir
Saisie du code d’activation de
PowerVM Editions à partir de la
console HMC version 7.
240
Guide d’utilisation de PowerVM Editions
Configuration exigée pour la
mobilité active
Configuration exigée pour la
mobilité inactive
X
X
Tableau 54. Configuration logicielle exigée pour les partitions logiques du serveur d’E-S virtuel source et cible (suite)
Configuration exigée pour la
partition logique du serveur d’E-S
virtuel
Vous devez installer et activer au
moins une partition logique du
serveur d’E-S virtuel sur les serveurs
source et cible.
Configuration exigée pour la
mobilité active
Configuration exigée pour la
mobilité inactive
X
X
X
X
Pour plus d’informations, voir
Installation du serveur d’E-S virtuel.
Les partitions logiques du serveur
d’E-S virtuel source et cible doivent
correspondre au niveau de version
1.5 ou à un niveau supérieur.
Pour déterminer la version en cours
du serveur d’E-S virtuel et, si
nécessaire, le mettre à jour, voir :
v La commande ioslevel dans le
Serveur d’E-S virtuel et Integrated
Virtualization Manager - Guide des
commandes1.
Remarque :
1. Pour consulter le fichier PDF Serveur d’E-S virtuel et Integrated Virtualization Manager - Guide des commandes
(SA11-1701), d’une taille approximative de 4 Mo, voir sa76-0101.pdf
.
Configuration exigée pour le système d’exploitation
Le tableau suivant indique la configuration exigée pour le système d’exploitation de la Mobilité de
partition.
Tableau 55. Configuration exigée pour le système d’exploitation
Configuration exigée pour le
système d’exploitation
Configuration exigée pour la
mobilité active
Configuration exigée pour la
mobilité inactive
Le système d’exploitation s’exécutant
dans la partition mobile doit être AIX
ou Linux.
X
X
Le système d’exploitation doit être à
l’un des niveaux suivants :
X
v AIX 5L version 5.3 avec niveau de
technologie 5300-07 ou version
ultérieure
v SUSE Linux Enterprise Server 10
Service Pack 1 ou supérieur
Les versions antérieures d’AIX et de
Linux peuvent prendre en charge une
Mobilité de partition inactive si les
systèmes d’exploitation gèrent les
unités virtuelles et les modèles
POWER6.
Chapitre 5. Live Partition Mobility
241
Configuration mémoire exigée
Le tableau suivant indique la configuration mémoire exigée pour les serveurs source et cible.
Tableau 56. Configuration mémoire exigée pour les serveurs source et cible
Configuration mémoire exigée
Configuration exigée pour la
mobilité active
La partition mobile doit utiliser une
mémoire visible pour le serveur d’E-S
virtuel sur les systèmes source et
cible.
Configuration exigée pour la
mobilité inactive
X
X
Préparation d’une migration HMC
Cette rubrique décrit les éléments à prendre en compte pour planifier la migration d’une partition
logique active ou inactive à partir de la console HMC (Hardware Management).
Préparation des serveurs source et cible à la Mobilité de partition
La préparation des serveurs source et cible à la Mobilité de partition exige plusieurs tâches. Les
informations ci-après vous aideront à effectuer une migration correcte.
Pour préparer les serveurs source et cible à la Mobilité de partition, procédez comme suit.
Tableau 57. Tâches de planification des serveurs source et cible
Tâches de planification des serveurs
Tâche de mobilité active
Tâche de mobilité inactive
1. Vérifiez que les serveurs source et
cible remplissent les conditions
requises pour la Mobilité de
partition. Pour plus d’informations,
voir Configuration requise pour la
mobilité de partition à partir de la
console HMC.
X
X
2. Vérifiez que les serveurs source et
cible sont gérés par la même console
HMC (ou paire HMC redondante).
Remarque : La fonction de validation
de l’assistant de la Mobilité de
partition effectue la vérification pour
vous.
X
X
3. Vérifiez que la taille du bloc de
mémoire logique est la même sur les
serveurs source et cible. Pour
déterminer la taille du bloc de la
mémoire logique de chaque serveur
et, si nécessaire, la modifier,
reportez-vous à la rubrique
Modification de la taille du bloc
mémoire de la mémoire logique.
Remarque : La fonction de validation
de l’assistant de la Mobilité de
partition effectue la vérification pour
vous.
X
X
242
Guide d’utilisation de PowerVM Editions
Tableau 57. Tâches de planification des serveurs source et cible (suite)
Tâches de planification des serveurs
Tâche de mobilité active
Tâche de mobilité inactive
4. Vérifiez que le serveur de
destination ne fonctionne pas sur
l’alimentation des batteries. Si tel est
le cas, rétablissez l’alimentation
normale du serveur avant de
déplacer une partition logique.
X
X
5. Vérifiez que le serveur de
destination dispose d’une mémoire
suffisante pour prendre en charge la
partition mobile. Pour plus
d’informations, voir «Détermination
de la mémoire disponible sur le
serveur de destination», à la page
244.
Remarque : La fonction de validation
de l’assistant de la Mobilité de
partition effectue la vérification pour
vous.
X
6. Vérifiez que le serveur de
destination dispose de suffisamment
de processeurs pour prendre en
charge la partition mobile. Pour plus
d’informations, voir «Détermination
des processeurs disponibles sur le
serveur de destination», à la page
245.
Remarque : La fonction de validation
de l’assistant de la Mobilité de
partition effectue la vérification pour
vous.
X
7. Vérifiez que les partitions de
maintenance de déplacement source
et cible peuvent communiquer entre
elles.
Remarque : La fonction de validation
de l’assistant de la Mobilité de
partition effectue la vérification pour
vous.
X
Changement de la taille de bloc de la mémoire logique :
Il est possible de définir manuellement ou automatiquement la taille de bloc de la mémoire logique afin
d’améliorer les performances du système géré.
Le noyau du système utilise la taille de bloc de mémoire pour ses opérations de lecture et d’écriture de
fichiers. Par défaut, la taille de bloc de mémoire logique est définie de manière Automatique. Ainsi, le
système peut définir la taille de bloc de mémoire logique en fonction de la quantité de mémoire physique
disponible. Mais vous pouvez également changer manuellement la taille de bloc de mémoire logique.
Pour sélectionner une taille de bloc de mémoire logique raisonnable pour votre système, tenez compte à
la fois des performances souhaitées et de la quantité de mémoire physique disponible. Les informations
suivantes sont destinées à vous aider dans cette tâche :
v Sur les systèmes dotés de peu de mémoire (2 Go ou moins), une taille de bloc de mémoire logique
importante entraîne une surconsommation de mémoire par le microprogramme. Ce dernier doit utiliser
Chapitre 5. Live Partition Mobility
243
au moins un bloc de mémoire logique. En règle générale, sélectionnez une taille de bloc de mémoire
logique inférieure ou égale à 1/8e de la quantité de mémoire physique installée sur le système.
v Sur les systèmes dotés de beaucoup de mémoire, une taille de bloc de mémoire logique réduite résulte
en un grand nombre de blocs de mémoire logique. Comme chaque bloc de mémoire logique doit être
géré lors de l’amorçage du système, l’existence de ces blocs en grand nombre peut entraîner des
problèmes de performances lors de l’amorçage. En règle générale, limitez le nombre de blocs de
mémoire logique à 8000 ou moins.
Remarque : La taille de bloc de mémoire logique peut être changée lorsque le système est en cours
d’exécution, mais ce changement ne prendra effet qu’au prochain redémarrage du système.
Pour effectuer cette opération, vous devez posséder l’un des niveaux d’autorisation suivants :
v Administrateur
v Fournisseur de services agréé
Pour configurer la taille de bloc de mémoire logique, effectuez la tâche suivante :
1. Dans la sous-fenêtre d’accueil de l’interface ASMI, indiquez votre ID utilisateur et votre mot de passe,
puis cliquez sur Connexion.
2. Dans la zone de navigation, cliquez sur Configuration des performances.
3. Sélectionnez Taille de bloc de mémoire logique.
4. Dans la sous-fenêtre de droite, sélectionnez la taille de bloc appropriée et cliquez sur Sauvegarder les
paramètres.
Détermination de la mémoire disponible sur le serveur de destination :
Cette procédure explique comment déterminer la mémoire disponible sur le serveur de destination et, si
nécessaire, allouer davantage de mémoire.
Vous devez disposer des droits d’administrateur central pour exécuter cette tâche.
Pour déterminer la mémoire disponible sur le serveur de destination à l’aide de la console HMC,
procédez comme suit :
1. Déterminez la quantité de mémoire requise par la partition mobile :
a. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
b. Sélectionnez le serveur géré de votre choix dans la zone de navigation.
c. Dans la zone de contenu, sélectionnez la partition logique de votre choix.
d. Sélectionnez Propriétés et cliquez sur les onglets Matériel et Mémoire.
e. Affichez la section Mémoire et notez la quantité de mémoire maximale, minimale et disponible.
f. Cliquez sur OK.
2. Déterminez la mémoire disponible sur le serveur de destination :
a. Dans la zone de navigation, sélectionnez Gestion de systèmes et Serveurs.
b. Sélectionnez le serveur géré de votre choix dans la zone de navigation.
c. Sélectionnez Propriétés et cliquez sur l’onglet Mémoire.
d. Notez la mémoire actuellement disponible pour la partition (Mo).
e. Cliquez sur OK.
3. Comparez les valeurs des étapes 1 et 2.
v Si le serveur de destination dispose d’une mémoire suffisante pour prendre en charge la partition
mobile, passez à la rubrique «Préparation des serveurs source et cible à la Mobilité de partition», à
la page 242.
244
Guide d’utilisation de PowerVM Editions
v S’il ne dispose pas d’une mémoire suffisante pour prendre en charge la partition mobile, utilisez le
gestionnaire HMC pour supprimer dynamiquement de la mémoire de la partition logique. Vous
pouvez également supprimer de la mémoire des partitions logiques du serveur de destination.
Détermination des processeurs disponibles sur le serveur de destination :
Cette procédure explique comment déterminer les processeurs disponibles sur le serveur de destination
et, si nécessaire, allouer des processeurs supplémentaires.
Vous devez disposer des droits d’administrateur central pour exécuter cette tâche.
Pour déterminer les processeurs disponibles sur le serveur de destination à l’aide de la console HMC,
procédez comme suit :
1. Déterminez le nombre de processeurs requis par la partition mobile :
a. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
b. Sélectionnez le serveur géré de votre choix dans la zone de navigation.
c. Dans la zone de contenu, sélectionnez la partition logique de votre choix.
d. Sélectionnez Propriétés et cliquez sur les onglets Matériel et Processeurs.
e. Affichez la section Processeur et notez le nombre de processeurs maximal, minimal et disponible.
f. Cliquez sur OK.
2. Déterminez les processeurs disponibles sur le serveur de destination :
a. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
b. Sélectionnez le serveur géré de votre choix dans la zone de navigation.
c. Sélectionnez Propriétés et cliquez sur l’onglet Processeurs.
d. Notez les processeurs disponibles.
e. Cliquez sur OK.
3. Comparez les valeurs des étapes 1 et 2.
v Si le serveur de destination dispose de suffisamment de processeurs pour prendre en charge la
partition mobile, passez à la rubrique «Préparation des serveurs source et cible à la Mobilité de
partition», à la page 242.
v S’il ne dispose pas d’un nombre suffisant de processeurs pour prendre en charge la partition
mobile, utilisez la console HMC pour supprimer dynamiquement les processeurs de la partition
logique. Vous pouvez également supprimer des processeurs des partitions logiques du serveur de
destination.
Préparation de la console HMC à la Mobilité de partition
Cette rubrique décrit la tâche permettant de préparer la console HMC à la Mobilité de partition.
Pour préparer la console HMC à la Mobilité de partition, procédez comme suit :
Tableau 58. Tâche de planification de la console HMC
Tâches de planification de la
console HMC
1. Vérifiez que la console HMC
remplit les conditions requises pour
la Mobilité de partition. Pour plus
d’informations, voir «Configuration
requise pour la Mobilité de partition
à partir de la console HMC
(Hardware Management)», à la page
238.
Tâche de mobilité active
Tâche de mobilité inactive
X
X
Chapitre 5. Live Partition Mobility
245
Préparation des partitions logiques du serveur d’E-S virtuel source et du serveur
d’E-S virtuel cible à la Mobilité de partition
La préparation des partitions logiques du serveur d’E-S virtuel source et du serveur d’E-S virtuel cible à
la Mobilité de partition exige plusieurs tâches. Cette rubrique est destinée à vous aider à effectuer une
migration correcte.
Tableau 59. Tâches de planification des partitions logiques du serveur d’E-S virtuel source et du serveur d’E-S virtuel
cible
Tâches de planification du serveur
d’E-S virtuel
Tâche de mobilité active
Tâche de mobilité inactive
1. Vérifiez que les serveurs source
et cible remplissent les conditions
requises pour la Mobilité de
partition. Pour plus d’informations,
voir «Configuration requise pour la
Mobilité de partition à partir de la
console HMC (Hardware
Management)», à la page 238.
X
X
2. Vérifiez que la partition de
maintenance de déplacement est
activée sur une ou plusieurs
partitions logiques du serveur
d’E-S virtuel source et du serveur
d’E-S virtuel cible. Pour plus
d’informations, voir «Activation
des partitions de maintenance de
déplacement».
X
3. Facultatif : synchronisez les
horloges système pour les
partitions logiques du serveur
d’E-S virtuel source et du serveur
d’E-S virtuel cible. Pour plus
d’informations, voir
«Synchronisation des horloges
système», à la page 247.
X
Activation des partitions de maintenance de déplacement :
Les instructions de cette procédure expliquent comment activer la partition de maintenance de
déplacement à l’aide de la console HMC (Hardware Management) (HMC).
Vous devez disposer des droits d’administrateur central ou d’opérateur pour exécuter cette tâche.
Au moins une partition de maintenance de déplacement du serveur d’E-S virtuel source et du serveur
d’E-S virtuel cible de la partition mobile doit participer à la Mobilité de partition active. Si la partition de
maintenance de déplacement est désactivée sur le serveur d’E-S virtuel source ou de destination, la
partition mobile ne peut participer qu’à une Mobilité de partition inactive.
Pour activer les partitions de maintenance de déplacement source et cible à l’aide de la console HMC,
procédez comme suit :
1. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
2. Sélectionnez le serveur géré de votre choix dans la zone de navigation.
3. Dans la zone de contenu, sélectionnez une partition logique de serveur d’E-S virtuel et cliquez sur
Propriétés.
4. Dans l’onglet Général, sélectionnez Partition de maintenance de déplacement et cliquez sur OK.
246
Guide d’utilisation de PowerVM Editions
5. Répétez les étapes 3 et 4 pour le serveur de destination.
Synchronisation des horloges système :
Cette procédure facultative explique comment synchroniser les horloges système pour les partitions
logiques duserveur d’E-S virtuel source et du serveur d’E-S virtuel cible.
Vous devez disposer des droits d’administrateur central pour exécuter cette tâche.
La synchronisation des horloges système pour les partitions logiques du serveur d’E-S virtuel source et
du serveur d’E-S virtuel cible est une étape facultative de la mobilité de partition. Si vous décidez de ne
pas exécuter cette étape, les serveurs source et cible synchroniseront les horloges pendant le déplacement
de la partition mobile depuis le serveur source vers le serveur de destination. L’exécution de cette étape
avant le déplacement de la partition mobile permet d’éviter des erreurs potentielles.
Pour synchroniser les horloges système de la partition logique du serveur d’E-S virtuel source et du
serveur d’E-S virtuel cible à l’aide de la console HMC, procédez comme suit :
1. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
2. Sélectionnez le serveur géré de votre choix dans la zone de navigation.
3. Dans la zone de contenu, sélectionnez une partition logique de serveur d’E-S virtuel et cliquez sur
Propriétés.
4. Cliquez sur l’onglet Paramètres.
5. Sélectionnez Activer pour la référence de temps et cliquez sur OK.
6. Répétez les étapes 3 à 5 pour le serveur de destination server et le serveur d’E-S virtuel de
destination.
Préparation de la partition mobile à la Mobilité de partition
La préparation de la partition mobile à la Mobilité de partition exige plusieurs tâches. Les informations
suivantes sont destinées à vous aider à effectuer une migration correcte.
Pour préparer une partition mobile à la Mobilité de partition, procédez comme suit :
Tableau 60. Tâches de planification de la partition mobile
Tâches de planification de la
partition mobile
1. Vérifiez que le système
d’exploitation remplit les conditions
requises pour la Mobilité de
partition. Pour plus d’informations,
voir «Configuration requise pour la
Mobilité de partition à partir de la
console HMC (Hardware
Management)», à la page 238.
Remarque : La partition mobile ne
peut être ni une partition logique de
serveur d’E-S virtuel.
Tâche de mobilité active
Tâche de mobilité inactive
X
X
Chapitre 5. Live Partition Mobility
247
Tableau 60. Tâches de planification de la partition mobile (suite)
Tâches de planification de la
partition mobile
Tâche de mobilité active
Tâche de mobilité inactive
2. Vérifiez que les connexions RMC
(Resource Monitoring and Control)
sont établies avec la partition mobile,
le serveur d’E-S virtuel source et le
serveur d’E-S virtuel cible et les
partitions de maintenance de
déplacement source et cible. Pour
plus d’informations, voir
«Vérification des connexions RMC
(Resource Monitoring and Control)
pour la partition mobile», à la page
249.
X
3. Vérifiez que la partition mobile
n’est pas activée pour l’édition de
rapports sur le chemin de traitement
des erreurs redondantes. Pour plus
d’informations, voir «Désactivation
de la partition mobile pour l’édition
de rapports sur le chemin de
traitement des erreurs redondantes»,
à la page 250.
X
X
4. Vérifiez que la partition mobile
utilise uniquement une carte série
virtuelle pour les connexions au
terminal virtuel. Pour plus
d’informations, voir «Désactivation
des cartes série virtuelles de la
partition mobile», à la page 251.
X
X
5. Vérifiez que la partition mobile
n’appartient pas à un groupe de
charge de travail de partitions. Pour
plus d’informations, voir
«Suppression d’une partition mobile
d’un groupe de charge de travail de
partitions», à la page 251.
X
X
6. Vérifiez que la partition mobile
n’utilise pas des groupes de registres
de synchronisation de barrières
(BSR). Pour plus d’informations, voir
«Désactivation du registre BSR de la
partition mobile», à la page 252.
X
7. Vérifiez que la partition mobile
n’utilise pas des pages volumineuses.
Pour plus d’informations, voir
«Désactivation des pages
volumineuses pour une partition
mobile», à la page 253.
X
248
Guide d’utilisation de PowerVM Editions
Tableau 60. Tâches de planification de la partition mobile (suite)
Tâches de planification de la
partition mobile
Tâche de mobilité active
8. Vérifiez que la partition mobile ne
comporte ni carte d’E-S physique ni
carte de réseau Ethernet hôte (ou
carte Ethernet virtuelle intégrée).
Pour plus d’informations, voir
«Suppression d’E-S dédiées d’une
partition mobile», à la page 253 et
«Suppression d’une carte de réseau
Ethernet hôte de la partition mobile»,
à la page 254.
X
9. (Facultatif) Déterminez le nom du
profil de partition de la partition
mobile sur le serveur de destination.
X
10. Vérifiez que les applications
s’exécutant dans la partition mobile
partition acceptent ou reconnaissent
la mobilité. Pour plus d’informations,
voir Applications logicielles
reconnaissant les migrations.
X
11. Si vous avez modifié des attributs
de profil de partition, arrêtez la
partition et activez le nouveau profil
afin que les nouvelles valeurs soient
prises en compte. Pour ce faire,
procédez comme suit :
X
Tâche de mobilité inactive
X
X
1. Arrêtez la partition mobile. Voir
la procédure d’arrêt d’un système
d’exploitation dans Guide
d’utilisation de la console HMC et
des systèmes gérés1.
2. Activez le profil de partition de la
partition mobile. Pour plus
d’informations, voir Activation
d’un profil de partition.
Remarque :
1. Pour consulter le fichier PDF Guide d’utilisation de la console HMC et des systèmes gérés (SA11-1703), d’une taille
approximative de 4 Mo, voir sa76-0085.pdf
.
Vérification des connexions RMC (Resource Monitoring and Control) pour la partition mobile :
Cette procédure explique comment vérifier une connexion RMC (Resource Monitoring and Control) pour
la partition mobile.
Vous devez disposer des droits d’administrateur central pour exécuter cette tâche.
RMC est une fonction gratuite d’AIX qui peut être configurée pour surveiller les ressources et intervenir
en réponse à une condition définie. Avec RMC, vous pouvez configurer des actions de réponse ou des
scripts qui gèrent les conditions générales du système et ne requièrent qu’un minimum d’intervention de
la part de l’administrateur système. Sur la console HMC, RMC sert de canal de communication principal
entre les partitions logiques AIX et Linux et la console HMC.
Chapitre 5. Live Partition Mobility
249
Pour vérifier une connexion RMC associée à la partition mobile, procédez comme suit :
1. Sur la ligne de commande de la console HMC, entrez lspartition -dlpar.
Vous obtenez un résultat semblable à cet exemple :
v Si les résultats de votre partition logique sont actifs <Active 1>, la connexion RMC est établie. Dans
ce cas, ignorez la suite de cette procédure et passez à la rubrique «Préparation de la partition
mobile à la Mobilité de partition», à la page 247.
v Si les résultats de votre partition logique sont actifs <Active 0> et si votre partition logique
n’apparaît pas dans les résultats, passez à l’étape suivante.
2. Vérifiez que le port du pare-feu RMC sur la console HMC est désactivé.
v Si le port du pare-feu RMC est désactivé, passez à l’étape 3.
v S’il est activé, modifiez le paramètre du pare-feu HMC. Répétez l’étape 1.
3. Accédez à la partition logique via telnet. Si ce n’est pas possible, ouvrez un terminal virtuel sur la
console HMC pour configurer le réseau sur la partition logique.
4. Si le réseau de partition logique a été configuré correctement et si la connexion RMC n’est toujours
pas établie, vérifiez que l’ensemble de fichiers RSCT est installé.
v Si l’ensemble de fichiers RSCT est installé, utilisez telnet depuis la partition logique vers la console
HMC pour vérifier que le réseau fonctionne correctement et que le pare-feu a été désactivé. Répétez
l’étape 1 une fois ces tâches de vérification effectuées. Si les problèmes persistent lors de
l’établissement d’une connexion RMC pour la partition mobile, contactez votre support technique.
v Si l’ensemble de fichiers RSCT n’est pas installé, installez-le à partir de votre CD d’installation AIX.
Remarque : L’établissement d’une connexion RMC après une modification de la configuration du réseau
ou l’activation de la partition logique requiert un délai d’environ cinq minutes.
Désactivation de la partition mobile pour l’édition de rapports sur le chemin de traitement des erreurs
redondantes :
Cette procédure explique comment désactiver une partition mobile pour l’édition de rapports sur le
chemin de traitement des erreurs redondantes.
Vous devez disposer des droits d’administrateur central pour exécuter cette tâche.
L’édition de rapports sur le chemin de traitement des erreurs redondantes permet à une partition logique
de signaler à la console HMC les problèmes matériels courants liés au serveur ainsi que les erreurs
matérielles liées aux partitions logiques. Vous devez désactiver cette fonction pour faire migrer une
partition logique.
Pour désactiver l’édition de rapports sur le chemin de traitement des erreurs redondantes à partir de la
console HMC, procédez comme suit :
1.
2.
3.
4.
5.
6.
7.
Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
Sélectionnez le serveur géré de votre choix dans la zone de navigation.
Dans la zone de contenu, sélectionnez la partition logique de votre choix.
Sélectionnez Configuration > Gestion de profils.
Sélectionnez le profil de votre choix et cliquez sur Actions > Edition.
Cliquez sur l’onglet Paramètres.
Désélectionnez Activation de génération de rapports pour chemin de traitement des erreurs
redondantes et cliquez sur OK. Activez la partition logique avec ce profil pour que cette modification
prenne effet.
250
Guide d’utilisation de PowerVM Editions
Désactivation des cartes série virtuelles de la partition mobile :
Cette procédure explique comment désactiver des cartes série virtuelles non réservées pour une partition
mobile.
Vous devez disposer des droits d’administrateur central pour exécuter cette tâche.
Les cartes série virtuelles sont souvent utilisées pour les connexions de terminal virtuel au système
d’exploitation. Les deux premières cartes série virtuelles (emplacements 0 et 1) sont réservées à la console
HMC. Pour qu’une partition logique puisse participer à une Mobilité de partition, elle ne doit comporter
aucune carte série virtuelle, excepté les deux réservées à la console HMC.
Pour désactiver les cartes série virtuelles non réservées à partir de la console HMC, procédez comme
suit :
1. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
Sélectionnez le serveur géré de votre choix dans la zone de navigation.
Dans la zone de contenu, sélectionnez la partition logique de votre choix.
Sélectionnez Configuration > Gestion de profils.
Sélectionnez le profil de votre choix et cliquez sur Actions > Edition.
Sélectionnez l’onglet Carte virtuelle.
Si plus de deux cartes sont affichées, vérifiez que les autres cartes au-delà des cartes 0 et 1 ne sont pas
sélectionnées comme requises.
v Si certaines de ces cartes sont sélectionnées comme requises, sélectionnez celle que vous voulez
supprimer. Cliquez ensuite sur Actions > Suppression pour supprimer la carte du profil de
partition.
v Vous pouvez également sélectionner Partitionnement logique dynamique > Cartes virtuelles pour
afficher le panneau Cartes virtuelles. Sélectionnez ensuite la carte à supprimer et cliquez sur
Actions > Suppression pour la supprimer de la partition mobile.
8. Cliquez sur OK.
2.
3.
4.
5.
6.
7.
Suppression d’une partition mobile d’un groupe de charge de travail de partitions :
Cette procédure explique comment supprimer une partition mobile d’un groupe de charge de travail de
partitions.
Vous devez disposer des droits d’administrateur central pour exécuter cette tâche.
Un groupe de charge de travail de partitions identifie un ensemble de partitions logiques situées sur le
même système physique. Le profil de partition indique le nom du groupe de charge de travail de
partitions auquel il appartient, le cas échéant. Ce groupe est défini lorsque vous utilisez le gestionnaire
HMC pour configurer une partition logique. Pour qu’une partition logique puisse participer à une
Mobilité de partition, elle ne doit pas être affectée à un groupe de charge de travail de partitions.
Pour supprimer la partition mobile d’un groupe de charge de travail de partitions à partir de la console
HMC, procédez comme suit :
1. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
2. Sélectionnez le serveur géré de votre choix dans la zone de navigation.
3. Dans la zone de contenu, sélectionnez la partition logique de votre choix.
4. Sélectionnez Configuration > Gestion de profils.
5. Sélectionnez le profil de votre choix et cliquez sur Actions > Edition.
6. Cliquez sur l’onglet Paramètres.
7. Dans la zone Gestion de la charge de travail, sélectionnez (Aucun) et cliquez sur OK.
Chapitre 5. Live Partition Mobility
251
8. Répétez les étapes 1 à 7 pour tous les profils de partition associés à la partition mobile. Vous devrez
activer la partition logique pour que cette modification prenne effet.
Désactivation du registre BSR de la partition mobile :
Cette procédure explique comment désactiver les groupes de BSR (barrier synchronization register)
associés à la partition mobile.
Vous devez disposer des droits d’administrateur central pour exécuter cette tâche.
Le registre de synchronisation de barrières (BSR) est un registre de mémoire inclus dans certains systèmes
équipés de processeurs POWER. Une application de traitement parallèle s’exécutant sur AIX peut utiliser
un registre BSR pour synchroniser les unités d’exécution de l’application de traitement parallèle.
Pour qu’une partition logique puisse participer à une Mobilité de partition, elle ne doit utiliser aucun
groupe de BSR. Si elle en utilise, elle peut participer à une Mobilité de partition inactive.
Pour désactiver le registre BSR de la partition mobile à partir de la console HMC, procédez comme suit :
1. Dans la zone de navigation, sélectionnez Gestion de systèmes et Serveurs.
2. Dans la zone de navigation, sélectionnez le serveur géré de votre choix, puis cliquez sur Propriétés.
3. Cliquez sur l’onglet Fonctions.
v Si l’option de prise en charge de registre BSR a pour valeur True, cliquez sur OK et passez à
l’étape suivante.
v Si cette même option a pour valeur False, le serveur ne prend pas en charge les registres BSR.
Dans ce cas, ignorez la suite de cette procédure et passez à la rubrique «Préparation de la partition
mobile à la Mobilité de partition», à la page 247.
Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
Sélectionnez le serveur géré de votre choix dans la zone de navigation.
Sélectionnez la partition logique de votre choix dans la zone de contenu.
Sélectionnez Propriétés dans la zone Tâche.
Cliquez sur l’onglet Matériel.
Cliquez sur l’onglet Mémoire.
v Si le nombre de groupes de BSR est égal à zéro, la partition mobile peut participer à une Mobilité
de partition active ou inactive. Dans ce cas, ignorez la suite de cette procédure et passez à la
rubrique «Préparation de la partition mobile à la Mobilité de partition», à la page 247.
v Si le nombre de groupes de BSR n’est pas égal à zéro, effectuez l’une des actions suivantes :
– Effectuez une migration inactive au lieu d’une migration active.
– Cliquez sur OK et passez à l’étape suivante pour préparer la partition mobile à une migration
active.
10. Sélectionnez la partition mobile et cliquez sur Configuration > Gestion de profils.
11. Sélectionnez le profil de partition à l’aide duquel vous voulez réactiver la partition mobile, puis
cliquez sur Action > Edition.
12. Cliquez sur l’onglet Mémoire.
v Si le nombre de groupes de BSR est égal à zéro, la partition mobile peut participer à une Mobilité
de partition active ou inactive. Dans ce cas, ignorez la suite de cette procédure et passez à la
rubrique «Préparation de la partition mobile à la Mobilité de partition», à la page 247.
v Si le nombre de groupes de BSR n’est pas égal à zéro, effectuez l’une des actions suivantes pour
attribuer la valeur zéro si vous souhaitez exécuter une migration active :
– Entrez 0 dans la zone des groupes de BSR.
– Cliquez sur OK et passez à l’étape suivante pour préparer la partition mobile à une migration
active.
4.
5.
6.
7.
8.
9.
252
Guide d’utilisation de PowerVM Editions
13. Activez la partition mobile avec ce profil afin que la modification prenne effet.
Désactivation des pages volumineuses pour une partition mobile :
Cette procédure explique comment désactiver les pages volumineuses pour une partition mobile.
Vous devez disposer des droits d’administrateur central pour exécuter cette tâche.
Les pages volumineuses peuvent améliorer les performances dans des environnements spécifiques
exigeant un degré élevé de parallélisme, comme dans les environnements de base de données
partitionnés DB2. Vous pouvez définir un nombre de pages volumineuses minimal, maximal ou un
nombre précis à affecter à une partition lors de la création de celle-ci ou du profil de partition.
Pour qu’une partition logique puisse participer à une Mobilité de partition, elle ne doit comporter aucune
page volumineuse. Si elle en contient, elle peut participer à une Mobilité de partition inactive.
Pour désactiver les pages volumineuses de la partition mobile à partir de la console HMC, procédez
comme suit :
1. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
2. Sélectionnez le serveur géré de votre choix dans la zone de navigation.
3. Sélectionnez Propriétés dans la zone Tâche.
4. Cliquez sur l’onglet Fonctions.
v Si l’option de prise en charge de pages volumineuses a pour valeur True, cliquez sur OK et passez
à l’étape suivante.
v Si cette même option a pour valeur False, le serveur source ne prend pas en charge les pages
volumineuses. La partition mobile peut participer à une Mobilité de partition active ou inactive.
Dans ce cas, ignorez la suite de cette procédure et passez à la rubrique «Préparation de la partition
mobile à la Mobilité de partition», à la page 247.
5. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
6. Sélectionnez le serveur géré de votre choix dans la zone de navigation.
7. Dans la zone de contenu, sélectionnez la partition logique de votre choix.
8. Sélectionnez Propriétés et cliquez sur les onglets Matériel et Mémoire.
v Si la mémoire de page volumineuse est égale à 0, ignorez la suite de cette procédure et passez à la
rubrique «Préparation de la partition mobile à la Mobilité de partition», à la page 247.
v Si la mémoire de page volumineuse n’est pas égale à 0, effectuez l’une des actions suivantes :
– Effectuez une migration inactive au lieu d’une migration active.
– Cliquez sur OK et passez à l’étape suivante pour préparer la partition mobile à une migration
active.
9. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
10. Sélectionnez le serveur géré de votre choix dans la zone de navigation.
11. Dans la zone de contenu, sélectionnez la partition logique de votre choix.
12. Sélectionnez Configuration > Gestion de profils.
13. Sélectionnez le profil de votre choix et cliquez sur Actions > Edition.
14. Cliquez sur l’onglet Memory.
15. Entrez 0 dans la zone de mémoire de page volumineuse désirée, puis cliquez sur OK.
16. Activez la partition mobile avec ce profil afin que la modification prenne effet.
Suppression d’E-S dédiées d’une partition mobile :
Cette procédure explique comment supprimer des E-S dédiées d’une partition mobile.
Chapitre 5. Live Partition Mobility
253
Vous devez disposer des droits d’administrateur central pour exécuter cette tâche.
Les E-S dédiées sont des unités physiques qui se trouvent dans le serveur lui-même ainsi que dans les
unités d’extension et les tours connectées au serveur. Pour qu’une partition logique puisse participer à
une Mobilité de partition, elle ne doit inclure aucune E/S dédiée. Toutes les E/S doivent être virtuelles.
Vous pouvez utiliser la Mobilité de partition inactive si une partition mobile comporte des E/S dédiées.
Celles-ci seront alors supprimées automatiquement de la partition logique avant le lancement de la
migration.
Pour supprimer des E-S dédiées de la partition mobile à partir de la console HMC, procédez comme
suit :
1. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
2. Sélectionnez le serveur géré de votre choix dans la zone de navigation.
3. Sélectionnez la partition logique de votre choix dans la zone de contenu.
4. Sélectionnez Configuration > Gestion de profils.
5. Sélectionnez le profil de partition de votre choix et cliquez sur Actions > Edition.
6. Cliquez sur l’onglet E-S.
v Si l’option Requis ou Désiré est sélectionnée pour une ressource, effectuez l’une des actions
suivantes :
– Sélectionnez les unités requises ou désirées et cliquez sur Supprimer puis sur OK. Passez à
l’étape suivante pour préparer la partition mobile à une migration active.
7. Arrêtez la partition mobile, puis mettez-la sous tension en utilisant le profil que vous venez de
modifier avec les ressources d’E-S dédiées.
Suppression d’une carte de réseau Ethernet hôte de la partition mobile :
Cette procédure explique comment supprimer une carte de réseau Ethernet hôte (ou carte Ethernet
virtuelle intégrée) d’une partition mobile à partir de la console HMC.
Vous devez disposer des droits d’administrateur central pour exécuter cette tâche.
Pour supprimer une carte de réseau Ethernet hôte de la partition mobile à partir de la console HMC,
procédez comme suit :
1. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
2. Sélectionnez le serveur géré de votre choix dans la zone de navigation.
Sélectionnez la partition mobile et cliquez sur Configuration > Gestion de profils.
Sélectionnez le profil de partition de votre choix et cliquez sur Actions > Edition.
Sélectionnez l’onglet LHEA (Logical Host Ethernet Adapters).
Sélectionnez les emplacements du port physique dont l’ID de port logique est affecté à ce port et
cliquez sur Réinitialisation.
7. Cliquez sur OK.
3.
4.
5.
6.
Activation d’une partition logique à l’aide de la console HMC :
Vous devez activer une partition logique pour pouvoir l’utiliser. Lorsque vous activez une partition
logique, le système valide les ressources sur la partition et démarre le système d’exploitation ou le logiciel
installé sur la partition logique.
Pour activer une partition logique, vous devez sélectionner un profil de partition. Un profil de partition est
un enregistrement sur la console HMC (Hardware Management) qui indique une configuration possible
pour une partition logique.
254
Guide d’utilisation de PowerVM Editions
Pour activer une partition logique à l’aide de la console HMC, vous devez être administrateur central,
opérateur ou responsable produit au laboratoire. Pour plus d’informations sur les rôles utilisateur, voir les
tâches et les rôles dans le Guide d’utilisation de la console HMC et des systèmes gérés. Pour consulter le
résumé du document Guide d’utilisation de la console HMC et des systèmes gérés (SA11-1703), voir
sa76-0085.pdf
Pour activer une partition logique avec la console HMC, procédez comme suit :
1. Dans la zone de navigation, ouvrez Gestion des systèmes, ouvrez Serveurs et cliquez sur le système
hébergeant la partition logique.
2. Dans la zone de contenu, sélectionnez la partition logique, cliquez sur le bouton Tâches et
sélectionnez Opérations → Activer.
3. Sélectionnez le profil de partition que vous souhaitez utiliser lors de l’activation de la partition
logique.
4. Si vous souhaitez que la console HMC ouvre une fenêtre de terminal ou une session de console
lorsque la partition logique est activée, sélectionnez Ouverture d’une fenêtre de terminal ou d’une
session de console.
5. Si vous souhaitez utiliser une position de verrou de sécurité ou un mode d’amorçage différent de celle
ou celui spécifié(e) dans le profil de partition, cliquez sur Options avancées, sélectionnez la position
du verrou de sécurité ou le mode d’amorçage de votre choix et cliquez sur OK.
6. Cliquez sur OK.
Préparation de la configuration mémoire à la Mobilité de partition
Vous devez exécuter plusieurs tâches pour vous assurer que la configuration mémoire correspond à la
configuration minimale exigée pour la Mobilité de partition. Les informations ci-après vous aideront à
effectuer une migration correcte.
Si votre environnement correspond à la configuration minimale requise, sélectionnez Vérification de la
configuration mémoire existante.
Si vous devez configurer cet environnement, sélectionnez Configuration de l’environnement mémoire.
Vérification de la configuration mémoire existante pour la Mobilité de partition :
Exécutez les tâches permettant de vérifier que votre configuration mémoire correspond à la configuration
minimale exigée pour la Mobilité de partition.
Avant de faire migrer une partition logique, vérifiez que votre configuration mémoire remplit les
conditions requises pour effectuer la migration d’une partition logique. Procédez comme suit pour
vérifier votre configuration mémoire.
Vérifiez les connexions, affectations et attributs ci-après.
Tableau 61. Tâches de planification de la mémoire
Tâches de planification de la
mémoire
Tâche de mobilité active
Tâche de mobilité inactive
1. Vérifiez que la valeur no_reserve
est attribuée aux attributs
reserve_policy.
X
X
2. Vérifiez que les unités virtuelles
sont associées à un même
identificateur unique, identificateur
physique ou attribut de volume IEEE.
Voir Identification des disques
exportables
X
X
Chapitre 5. Live Partition Mobility
255
Tableau 61. Tâches de planification de la mémoire (suite)
Tâches de planification de la
mémoire
Tâche de mobilité active
Tâche de mobilité inactive
3. Vérifiez que la partition mobile a
accès à la carte SCSI virtuelle du
serveur d’E-S virtuel source. Pour
plus d’informations, voir
«Vérification de l’accès de la partition
mobile à la carte SCSI virtuelle du
serveur d’E-S virtuel de destination»,
à la page 259.
X
X
4. Vérifiez que la partition mobile
aura accès à la carte SCSI virtuelle du
serveur d’E-S virtuel de destination
après sa migration vers le système de
destination. Pour plus d’informations,
voir «Vérification de l’accès de la
partition mobile à la carte SCSI
virtuelle du serveur d’E-S virtuel de
destination», à la page 259.
X
X
5. Vérifiez que la partition mobile a
accès à la mémoire physique. Pour
plus d’informations, voir
«Vérification de l’accès de la partition
mobile à sa mémoire physique», à la
page 266.
X
X
6. Vérifiez que la partition mobile ne
comporte aucune unité ou carte d’E-S
dédiée. Pour plus d’informations,
voir «Suppression d’E-S dédiées
d’une partition mobile», à la page
253.
X
7. Si vous avez modifié des attributs
de profil de partition, procédez
comme suit pour que les nouvelles
valeurs soient prises en compte.
X
X
1. Arrêtez la partition logique
associée au profil de partition
logique modifié. Pour plus
d’informations, voir la procédure
d’arrêt d’un système
d’exploitation dans le Guide
d’utilisation de la console HMC et
des systèmes gérés1.
2. Activez le profil de partition
modifié. Pour plus
d’informations, voir Activation
d’un profil de partition.
Remarque :
1. Pour consulter le fichier PDF Guide d’utilisation de la console HMC et des systèmes gérés (SA11-1703), d’une taille
approximative de 4 Mo, voir sa76-0085.pdf
256
Guide d’utilisation de PowerVM Editions
.
Identification des disques exportables :
Pour exporter un volume physique en tant qu’unité virtuelle, le volume physique doit comporter un
attribut de volume IEEE, un identificateur unique (UDID) ou un identificateur physique (PVID).
Pour identifier les disques exportables, procédez comme suit :
1. Déterminez si une unité est associée à un identificateur d’attribut de volume IEEE en exécutant la
commande suivante sur la ligne de commande du serveur d’E-S virtuel :
lsdev -dev hdiskX -attr
Une valeur est indiquée dans le champ ieee_volname pour les disques ayant un identificateur
d’attribut de volume IEEE. Des informations comparables à celles qui suivent s’affichent :
...
cache_method
False
ieee_volname
False
lun_id
False
...
fast_write
Write Caching method
600A0B800012DD0D00000AB441ED6AC IEEE Unique volume name
0x001a000000000000
Logical Unit Number
Si le champ ieee_volname n’apparaît pas, l’unité na pas d’identificateur d’attribut de volume IEEE.
2. Si l’unité n’a pas d’identificateur d’attribut de volume IEEE, déterminez si elle a un UDID en
procédant comme suit :
a. Entrez oem_setup_env.
b. Saisissez odmget -qattribute=id_unique CuAt. Les disques comportant un UDID sont alors
répertoriés. Des informations comparables à celles qui suivent s’affichent :
CuAt:
name = "hdisk1"
attribute = "unique_id"
value = "2708ECVBZ1SC10IC35L146UCDY10-003IBMscsi"
type = "R"
generic = ""
rep = "nl"
nls_index = 79
CuAt:
name = "hdisk2"
attribute = "unique_id"
value = "210800038FB50AST373453LC03IBMscsi"
type = "R"
generic = ""
rep = "nl"
nls_index = 79
Les unités de cette liste qui sont accessibles à partir d’autres partitions du serveur d’E-S virtuel
peuvent être utilisées dans les configurations SCSI MPIO virtuelles.
c. Entrez exit.
3. Si l’unité n’a ni identificateur d’attribut de volume IEEE ni UDID, déterminez si elle a un PVID en
procédant comme suit :
lspv
Les disques et leurs PVID respectifs sont indiqués. Des informations comparables à celles qui suivent
s’affichent :
Chapitre 5. Live Partition Mobility
257
NAME
hdisk0
hdisk1
hdisk2
hdisk3
hdisk4
PVID
00c5e10c1608fd80
00c5e10cf7eb2195
00c5e10c44df5673
00c5e10cf3ba6a9a
none
VG
rootvg
rootvg
None
None
None
STATUS
active
active
4. Si l’unité n’a ni identificateur d’attribut de volume IEEE ni UDID ni PVID, effectuez l’une des tâches
suivantes pour lui affecter un identificateur :
a. Mettez à niveau votre logiciel fournisseur et répétez l’intégralité de la procédure d’identification
de disques exportables, depuis le début. Les versions les plus récentes de certains logiciels
fournisseur incluent l’identification des unités à l’aide d’un UDID. Avant d’effectuer une mise à
niveau, veillez à préserver les unités SCSI virtuelles que vous avez créées avec des versions du
logiciel qui ne prennent pas en charge l’identification d’unités à l’aide d’un UDID. Pour plus
d’informations, voir la documentation fournie par le fournisseur du logiciel.
b. Si le logiciel fournisseur ne fournit pas d’identificateur d’attribut de volume UDID ou IEEE,
attribuez un PVID au volume physique en exécutant la commande suivante :
chdev -dev hdiskX -attr pv=yes
Modification des propriétés de la carte SCSI virtuelle du serveur d’E-S virtuel source :
Cette procédure explique comment modifier les préférences de connexion et les affectations
d’emplacement de la carte SCSI virtuelle du serveur d’E-S virtuel source.
Si vous avez des doutes concernant les affectations d’emplacement et les préférences de connexion pour
la carte SCSI virtuelle du serveur d’E-S virtuel source, remplissez la «Fiche technique des cartes d’E-S
virtuelles de la mobilité de partition», à la page 263.
Vous devez disposer des droits d’administrateur central pour exécuter cette tâche.
Pour modifier les propriétés de la carte SCSI virtuelle à l’aide de la console HMC, procédez comme suit :
1. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
2. Sélectionnez le serveur géré de votre choix dans la zone de navigation.
3. Sélectionnez le serveur d’E-S virtuel de votre choix dans la zone de contenu.
4. Sélectionnez Configuration > Gestion de profils.
5. Sélectionnez le profil de partition de votre choix et cliquez sur Actions > Edition.
6. Cliquez sur l’onglet Cartes virtuelles.
7. Sélectionnez l’unité SCSI serveur et cliquez sur Actions > Edition.
a. Dans la zone Carte, entrez le numéro d’emplacement de la carte SCSI virtuelle créée dans le
serveur d’E-S virtuel pour la partition mobile.
b. Sélectionnez Connexion possible de la partition logique client sélectionnée uniquement.
c. Dans la zone Partition client, sélectionnez la partition logique client.
d. Dans la zone ID carte client, entrez l’ID de la carte client associée à la partition logique client.
e. Cliquez sur OK pour enregistrer les modifications apportées au profil de partition.
8. Cliquez sur OK pour quitter la fenêtre des propriétés du profil de partition.
Modification des propriétés de la carte SCSI virtuelle de la partition mobile :
Cette procédure explique comment modifier les préférences de connexion et les affectations
d’emplacement de la carte SCSI virtuelle source sur la partition mobile.
Si vous avez des doutes concernant les affectations d’emplacement et les préférences de connexion pour
les cartes SCSI virtuelles de la partition mobile, remplissez la «Fiche technique des cartes d’E-S virtuelles
de la mobilité de partition», à la page 263.
258
Guide d’utilisation de PowerVM Editions
Pour modifier les propriétés d’une carte SCSI virtuelle, vous devez disposer des droits d’administrateur
central.
Pour modifier les propriétés de la carte SCSI virtuelle à l’aide de la console HMC, procédez comme suit :
1. Dans la zone de navigation, ouvrez l’élément Gestion de systèmes.
2. Sélectionnez Serveur.
3. Sélectionnez une partition mobile et cliquez sur Propriétés.
4. Cliquez sur l’onglet Cartes virtuelles.
5. Développez l’option SCSI Virtuel et sélectionnez la carte SCSI à laquelle la carte SCSI virtuelle de la
partition logique du serveur d’E-S virtuel source devra accéder.
6. Ouvrez le serveur d’E-S virtuel source.
7. Sélectionnez le numéro d’emplacement de la carte SCSI virtuelle du serveur d’E-S virtuel auquel la
partition mobile devra accéder, puis cliquez sur OK.
Vérification de l’accès de la partition mobile à la carte SCSI virtuelle du serveur d’E-S virtuel de destination :
Cette procédure explique comment vérifier de quelle façon la partition mobile aura accès à la carte SCSI
virtuelle du serveur d’E-S virtuel une fois sa migration effectuée vers le système de destination.
Afin de vérifier la configuration de l’interface SCSI virtuelle, vous devez disposer des droits
d’administrateur central.
La carte SCSI virtuelle du serveur d’E-S virtuel permet aux partitions logiques client (y compris la
partition mobile) d’accéder à la mémoire. Pour qu’une mobilité de partition (active ou inactive) réussisse,
les partitions logiques du serveur d’E-S virtuel doivent disposer au minimum d’une carte SCSI virtuelle
configurée pour permettre l’accès à la partition mobile.
Afin de vérifier la configuration de l’interface SCSI virtuelle à l’aide de la console HMC, procédez comme
suit :
1. Vérifiez la configuration de la carte SCSI virtuelle de la carte SCSI virtuelle du serveur d’E-S virtuel
de destination :
a. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
b. Sélectionnez le serveur de destination de votre choix dans la zone de navigation.
c. Sélectionnez la partition logique de votre choix dans la zone de contenu.
d. Sélectionnez Propriétés dans la zone Tâche.
e. Cliquez sur l’onglet Cartes virtuelles.
f. Développez Interface SCSI virtuelle.
g. Vérifiez que les valeurs de Partition distante et Carte distante ne sont pas définies.
2. Si tel n’est pas le cas, procédez comme suit :
a. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
b. Sélectionnez le serveur géré de votre choix dans la zone de navigation.
c. Sélectionnez la partition logique de votre choix dans la zone de contenu.
d. Sélectionnez Propriétés dans la zone Tâche.
e. Cliquez sur l’onglet Cartes virtuelles.
f. Cliquez sur Actions > Création > Carte SCSI . La fenêtre de création de carte SCSI s’affiche.
g. Sélectionnez Connexion possible de n’importe quelle partition client et cliquez sur OK.
h. Cliquez sur Soumettre pour quitter la fenêtre Propriétés de la carte client SCSI.
i. Cliquez sur OK pour enregistrer les modifications apportées au profil de partition logique.
Chapitre 5. Live Partition Mobility
259
Configuration de l’environnement mémoire pour la Mobilité de partition :
La configuration de votre environnement mémoire pour la Mobilité de partition exige plusieurs tâches.
Cette rubrique est destinée à vous aider à effectuer une migration correcte.
Pour définir la configuration mémoire, procédez comme ci-après.
Tableau 62. Tâches de planification de la mémoire
Tâches de planification de la
mémoire
Tâche de mobilité active
Tâche de mobilité inactive
1. Installez et configurez un réseau de
stockage. Pour consulter la liste des
unités de stockage gérées par le
serveur d’E-S virtuel, voir
Envirionnement géré par le serveur
d’E-S virtuel.
X
X
2. Configurez une carte SCSI sur le
serveur d’E-S virtuel source. Pour
plus d’informations, voir «Ajout d’un
contrôleur SAN à un serveur d’E-S
virtuel», à la page 261.
X
X
3. Connectez les partitions logiques
du serveur d’E-S virtuel au réseau de
stockage.
X
X
4. Attribuez la valeur no_reserve aux
attributs reserve_policy des volumes
physiques du client mobile.
X
X
5. Affectez les mêmes disques à la
partition source et à toutes les
partitions logiques du serveur d’E-S
virtuel de destination.
X
X
6. Déterminez les affectations des
emplacements de la carte SCSI
virtuelle et les spécifications de
connexion. Pour plus d’informations,
voir «Fiche technique des cartes d’E-S
virtuelles de la mobilité de partition»,
à la page 263.
X
X
8. Créez une connexion entre la carte
SCSI et la carte SCSI virtuelle sur le
serveur d’E-S virtuel source. Pour
plus d’informations, voir Création de
l’unité cible virtuelle sur le serveur
d’E-S virtuel.
X
X
9. Configurez les cartes SCSI
virtuelles sur la partition mobile.
Pour plus d’informations, voir
«Configuration d’une carte SCSI
virtuelle sur la partition mobile», à la
page 264.
X
X
260
Guide d’utilisation de PowerVM Editions
Tableau 62. Tâches de planification de la mémoire (suite)
Tâches de planification de la
mémoire
Tâche de mobilité active
Tâche de mobilité inactive
10. Activez la partition mobile pour
établir la communication entre la
carte SCSI virtuelle de la partition
mobile et la carte virtuelle de la
partition logique du serveur d’E-S
virtuel source. Pour plus
d’informations, voir Activation d’un
profil de partition.
X
X
11. Vérifiez que la partition mobile a
accès à la mémoire physique. Pour
plus d’informations, voir
«Vérification de l’accès de la partition
mobile à sa mémoire physique», à la
page 266.
X
X
12. Vérifiez que la partition mobile ne
comporte aucune unité ou carte d’E-S
dédiée. Pour plus d’informations,
voir «Suppression d’E-S dédiées
d’une partition mobile», à la page
253.
X
13. Si vous avez modifié des attributs
de profil de partition, procédez
comme suit pour que les nouvelles
valeurs soient prises en compte.
X
X
1. Arrêtez la partition logique
associée au profil de partition
modifié. Pour plus
d’informations, voir la procédure
d’arrêt d’un système
d’exploitation dans Guide
d’utilisation de la console HMC et
des systèmes gérés1.
2. Activez le profil de partition
modifié. Pour plus
d’informations, voir Activation
d’un profil de partition.
Remarque :
1. Pour consulter le fichier PDF Guide d’utilisation de la console HMC et des systèmes gérés (SA11-1703), d’une taille
approximative de 4 Mo, voir sa76-0085.pdf
.
Ajout d’un contrôleur SAN à un serveur d’E-S virtuel :
Cette procédure explique comment ajouter au moins un contrôleur SAN au serveur d’E-S virtuel source
et au serveur d’E-S virtuel cible.
Vous devez disposer des droits d’administrateur central pour exécuter cette tâche.
Sur le serveur d’E-S virtuel, un contrôleur SAN permet à la partition mobile d’accéder à la mémoire. Pour
qu’une Mobilité de partition (active ou inactive) réussisse, les partitions logiques du serveur d’E-S virtuel
source et du serveur d’E-S virtuel cible doivent disposer d’un contrôleur SAN et accéder à la même
mémoire de partition mobile.
Chapitre 5. Live Partition Mobility
261
Pour ajouter un contrôleur SAN à l’aide de la console HMC, procédez comme suit :
1. Ajoutez dynamiquement une carte Fibre Channel physique à la partition logique du serveur d’E-S
virtuel source. Pour plus d’informations, voir Ajout dynamique d’unités et d’emplacements
d’entrée-sortie :
2. Mettez à jour les profils de partition du serveur d’E-S virtuel source avec le nouveau contrôleur SAN.
Vous devez mettre à jour les profils de partition de sorte que les données du nouveau contrôleur SAN
ne soient pas perdues lors de la prochaine activation des profils.
a. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
b. Sélectionnez le serveur géré de votre choix dans la zone de navigation.
c. Sélectionnez le serveur d’E-S virtuel de votre choix dans la zone de contenu.
d. Sélectionnez Configuration > Gestion de profils.
e. Sélectionnez le profil de partition de votre choix et cliquez sur Actions > Edition.
f. Cliquez sur l’onglet E-S.
g. Sélectionnez une carte Fibre Channel dans le tableau E-S physique, puis cliquez sur Ajouter
comme unité requise. La carte apparaît dans la colonne Ajouté et marquée en tant qu’unité
requise.
h. Cliquez sur OK pour enregistrer les modifications apportées au profil de partition.
3. Répétez cette procédure pour le serveur de destination et la partition logique du serveur d’E-S virtuel
de destination.
Ajout dynamique d’unités et d’emplacements d’entrée-sortie physiques à l’aide de la console HMC :
Vous pouvez ajouter un emplacement d’entrée-sortie physique (ainsi que la carte et les unités connectées
à cet emplacement) à une partition logique en cours d’exécution à l’aide de la console HMC (Hardware
Management) (HMC). Cette opération permet d’ajouter des fonctions d’E-S à une partition logique en
cours d’exécution sans devoir arrêter la partition logique.
Une partition logique Linux prend en charge l’ajout dynamique d’emplacements d’entrée-sortie physiques
uniquement lorsque les conditions suivantes sont remplies :
v Une distribution Linux prenant en charge le partitionnement logique dynamique est installée sur la
partition logique Linux. Les distributions prenant en charge le partitionnement logique dynamique
incluent SUSE Linux Enterprise Server 9 et les versions ultérieures.
v Le module d’outils DynamicRM est installé sur la partition logique Linux. Pour plus d’informations sur
le module d’outils DynamicRM, voir le site Web Service and productivity tools.
Pour ajouter dynamiquement un emplacement d’entrée-sortie physique à une partition logique en cours
d’exécution à l’aide de la console HMC, vous devez être administrateur central, technicien de
maintenance, opérateur ou responsable produit au laboratoire. Pour plus d’informations sur les rôles
utilisateur, voir les tâches et les rôles dans le Guide d’utilisation de la console HMC et des systèmes gérés.
Pour consulter le résumé du document Guide d’utilisation de la console HMC et des systèmes gérés
(SA11-1703), voir sa76-0085.pdf
.
Pour ajouter dynamiquement un emplacement d’entrée-sortie physique à une partition logique en cours
d’exécution à l’aide de la console HMC, procédez comme suit :
1. Dans la zone de navigation de votre console HMC, ouvrez Gestion des systèmes, ouvrez Serveurs et
cliquez sur le système hébergeant la partition logique.
2. Dans la zone de contenu, sélectionnez la partition logique, cliquez sur le bouton Tâches et
sélectionnez Partitionnement logique dynamique → Cartes physiques → Ajouter.
3. Sélectionnez l’emplacement d’entrée-sortie physique à ajouter à la partition logique.
4. Si vous voulez affecter l’emplacement d’entrée-sortie physique à un pool d’entrée-sortie, sélectionnez
le pool d’entrée-sortie pour l’emplacement d’entrée-sortie dans ID de pool d’entrée-sortie.
262
Guide d’utilisation de PowerVM Editions
5. Cliquez sur OK.
Fiche technique des cartes d’E-S virtuelles de la mobilité de partition :
Cette fiche technique permet de planifier les affectations d’emplacement et les spécifications de connexion
des cartes d’E-S virtuelles dans votre environnement.
Pour que la partition mobile accède à la mémoire, elle doit disposer d’un accès à une carte SCSI virtuelle
du serveur d’E-S virtuel. Vous pouvez spécifier qu’une carte donnée du serveur SCSI virtuel soit
accessible uniquement à la partition mobile. Cette spécification exige la connaissance de l’affectation
d’emplacement de la carte client SCSI virtuelle sur la partition mobile.
Le tableau ci-après est destiné à vous aider à planifier les affectations d’emplacement et les spécifications
de connexion pour les cartes d’E-S virtuelles du serveur d’E-S virtuel source et du serveur d’E-S virtuel
cible et la carte d’E-S virtuelle de la partition mobile. Pour déterminer les emplacements disponibles pour
une carte donnée, voir «Détermination des emplacements disponibles pour les cartes SCSI virtuelles».
Tableau 63. Fiche technique des affectations d’emplacement et des spécifications de connexion des cartes d’E-S
virtuelles
Carte d’E-S virtuel
Numéro d’emplacement
Spécification de connexion
Carte SCSI virtuelle du serveur d’E-S
virtuel source
Carte d’E-S virtuelle de la partition
mobile sur le système source
Par exemple, le serveur d’E-S virtuel source comprend une carte SCSI virtuelle à l’emplacement 12. La
carte SCSI virtuelle de la partition mobile a été configurée sur l’emplacement 4. La carte SCSI virtuelle du
serveur d’E-S virtuel a été configurée pour fournir un accès uniquement à la carte SCSI virtuelle de la
partition mobile. La carte SCSI virtuelle de la partition mobile a été configurée pour accéder à la carte
SCSI virtuelle du serveur d’E-S virtuel.
Tableau 64. Exemple d’affectations d’emplacement et de spécifications de connexion
Carte d’E-S virtuel
Numéro d’emplacement
Spécification de connexion
Carte SCSI virtuelle du serveur d’E-S
virtuel source
12
Emplacement 4 correspondant à la
carte SCSI virtuelle de la partition
mobile
Carte d’E-S virtuelle de la partition
mobile sur le système source
4
Emplacement 12 correspondant à la
carte SCSI virtuelle du serveur d’E-S
virtuel
Détermination des emplacements disponibles pour les cartes SCSI virtuelles :
Cette procédure explique comment déterminer les emplacements disponibles pour les cartes SCSI
virtuelles sur le serveur d’E-S virtuel source, le serveur d’E-S virtuel de destination et la partition mobile.
Vous devez disposer des droits d’administrateur central pour exécuter cette tâche.
Pour afficher les propriétés d’une carte SCSI virtuelle à l’aide de la console HMC, procédez comme suit :
1. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
2. Sélectionnez le serveur géré de votre choix dans la zone de navigation.
3. Sélectionnez la partition logique de votre choix dans la zone de contenu.
4. Sélectionnez Propriétés dans la zone Tâche.
Chapitre 5. Live Partition Mobility
263
5. Sélectionnez l’onglet Carte virtuelle et cliquez sur SCSI virtuel.
6. Affichez les affectations d’emplacement en cours et cliquez sur OK.
Configuration d’une carte SCSI virtuelle de serveur d’E-S virtuel :
Cette procédure explique comment configurer au moins une carte SCSI virtuelle sur le serveur d’E-S
virtuel source et cible.
Vous devez disposer des droits d’administrateur central pour exécuter cette tâche.
Extrayez votre «Fiche technique des cartes d’E-S virtuelles de la mobilité de partition», à la page 263
complétée. Vous aurez besoin de ces informations pour configurer les cartes SCSI virtuelles du serveur
d’E-S virtuel source et du serveur d’E-S virtuel cible.
Une carte SCSI virtuelle de serveur d’E-S virtuel permet aux partitions logiques (y compris la partition
mobile) d’accéder à la mémoire. Pour qu’une Mobilité de partition (active ou inactive) réussisse, les
partitions logiques du serveur d’E-S virtuel source doivent comporter au moins une carte SCSI virtuelle
configurée pour fournir un accès à la partition mobile.
Pour configurer une carte SCSI virtuelle à l’aide de la console HMC, procédez comme suit :
1. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
2. Sélectionnez le serveur géré de votre choix dans la zone de navigation.
3. Sélectionnez le serveur d’E-S virtuel source et cliquez sur Partitionnement logique dynamique →
Cartes virtuelles.
4. Sélectionnez Actions > Création > Carte SCSI.
a. Dans la zone Carte, entrez le numéro d’emplacement de la carte SCSI virtuelle créée dans le
serveur d’E-S virtuel pour la partition mobile.
b. Sélectionnez Connexion possible de la partition client sélectionnée uniquement.
c. Dans la zone Partition client, sélectionnez la partition logique client.
d. Dans la zone ID carte client, entrez l’ID de la carte client associée à la partition logique client.
e. Cliquez sur OK pour enregistrer les modifications apportées à la carte SCSI.
f. Cliquez sur OK pour enregistrer la nouvelle configuration de la carte virtuelle.
5. Mettez à jour les profils de partition du serveur d’E-S virtuel avec les nouvelles cartes d’E-S virtuelles.
Vous devez mettre à jour les profils de partition de sorte que les nouvelles cartes d’E-S virtuelles ne
soient pas perdues lors de la prochaine activation des profils.
a. . Sélectionnez la partition logique du serveur d’E-S virtuel et cliquez sur Configuration -> Gestion
de profils.
b. Sélectionnez Actions > Edition.
c. Cliquez sur l’onglet Cartes d’E-S virtuelles.
d. Sélectionnez Actions > Création > Carte SCSI. La fenêtre des propriétés de la carte de serveur
SCSI s’affiche.
e. Remplissez les zones avec les mêmes données que celles indiquées à l’étape 4.
f. Cliquez sur OK pour quitter la fenêtre des propriétés de la carte de serveur SCSI.
g. Cliquez sur OK pour enregistrer les modifications apportées au profil de partition.
h. Cliquez sur OK pour quitter la fenêtre des propriétés du profil de partition.
Configuration d’une carte SCSI virtuelle sur la partition mobile :
Cette procédure explique comment configurer au moins une carte SCSI virtuelle sur la partition mobile.
Vous devez disposer des droits d’administrateur central pour exécuter cette tâche.
264
Guide d’utilisation de PowerVM Editions
Extrayez votre «Fiche technique des cartes d’E-S virtuelles de la mobilité de partition», à la page 263
complétée. Vous aurez besoin de ces informations pour configurer la carte SCSI virtuelle de la partition
mobile.
La carte SCSI virtuelle de la partition mobile permet à celle-ci d’accéder à la mémoire via sa connexion à
la carte SCSI virtuelle de la partition logique du serveur d’E-S virtuel. La carte SCSI virtuelle du serveur
d’E-S virtuel se connecte à la carte SCSI physique du serveur d’E-S virtuel source, laquelle se connecte au
réseau de stockage. Enfin, la partition mobile accède à la mémoire physique via ces connexions.
Pour configurer une carte SCSI virtuelle à l’aide de la console HMC, procédez comme suit :
1. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
2. Sélectionnez le serveur géré de votre choix dans la zone de navigation.
3. Sélectionnez la partition mobile et cliquez sur Partitionnement logique dynamique > Cartes
virtuelles.
4. Sélectionnez Actions > Création > Carte SCSI. La fenêtre de création de carte SCSI virtuelle s’affiche.
a. Dans la zone Carte, entrez le numéro d’emplacement de la carte SCSI virtuelle indiqué dans
l’unité SCSI du serveur d’E-S virtuel pour cette partition mobile.
b. Dans la zone Partition de serveur sélectionnez le serveur d’E-S virtuel.
c. Dans la zone ID carte serveur, entrez l’ID de la carte serveur associée à la partition logique client.
d. Cliquez sur OK pour enregistrer les modifications apportées à la carte SCSI.
e. Cliquez sur OK pour enregistrer la nouvelle configuration de la carte virtuelle.
5. Mettez à jour les profils de partition avec les nouvelles cartes d’E-S virtuelles. Vous devez mettre à
jour les profils de partition. afin que les nouvelles cartes d’E-S virtuelles ne soient pas perdues lors de
la prochaine activation des profils.
a. . Sélectionnez la partition mobile et cliquez sur Configuration -> Gestion de profils.
b. Sélectionnez Actions > Edition.
c. Cliquez sur l’onglet Cartes d’E-S virtuelles.
d. Sélectionnez Actions > Création > Carte SCSI. La fenêtre des propriétés de la carte de serveur
SCSI s’affiche.
e. Remplissez les zones avec les mêmes données que celles indiquées à l’étape 4.
f. Cliquez sur OK pour quitter la fenêtre Propriétés de la carte client SCSI.
g. Cliquez sur OK pour enregistrer les modifications apportées au profil de partition.
h. Cliquez sur OK pour quitter la fenêtre des propriétés du profil de partition.
Liaison de cartes SCSI virtuelles au disque SAN :
Cette rubrique explique comment lier des cartes SCSI virtuelles au disque SAN.
1. Sur la ligne de commande du serveur d’E-S virtuel, entrez oem_setup_env, puis lscfg. Recherchez les
disques durs reliés au contrôleur SAN qui seront utilisés pour la partition mobile. Ces disques sont
répertoriés en tant qu’unités MPIO ou de réseau de disques.
Voici un exemple de disque dur d’un réseau de disques : + hdisk3
U787B.001.DNW5D5B-P1-C3T1-W200900A0B80FD390-L1000000000000 1722-600 (600) Disk Array Device
2. Entrez lsmap -all. Le nombre suivant le C dans la colonne Physloc correspond au numéro de
l’emplacement SCSI virtuel du serveur d’E-S virtuel. Dans cet exemple, la colonne Physloc contient
U9133.55A.100EDCA-V2-C6. C6 correspond à l’emplacement SCSI virtuel numéro 6.
3. Entrez mkdev -V hdiskX -vadapter vhostX, où X représente le numéro du disque dur (hdisk) et de
l’hôte virtuel (vhost) à rattacher ensemble.
4. Entrez exit, puis lsmap -all. Les données du terminal virtuel (VTD), le numéro d’unité logique
(LUN), l’unité de sauvegarde et l’emplacement physique (Physloc) apparaissent sous la carte vhost.
Chapitre 5. Live Partition Mobility
265
Vérification de l’accès de la partition mobile à sa mémoire physique :
Cette procédure explique comment vérifier l’accès de la partition mobile à la mémoire physique sur le
réseau de stockage.
Pour que la Mobilité de partition réussisse, la partition mobile doit avoir accès à la même mémoire
physique à partir des environnements source et cible. Les connexions suivantes doivent exister dans
l’environnement source :
v Chaque carte SCSI virtuelle de la partition mobile doit avoir accès à une carte SCSI virtuelle cible sur la
partition logique du serveur d’E-S virtuel source.
v Les cartes SCSI virtuelles cible de la partition logique du serveur d’E-S virtuel source doivent avoir
accès à une carte SAN reliée à l’hôte sur la partition logique du serveur d’E-S virtuel source.
v La carte SAN reliée à l’hôte sur la partition logique du serveur d’E-S virtuel source doit être connectée
à un réseau de stockage et avoir accès aux unités de mémoire physique que vous voulez rendre
accessibles à la partition mobile dans le réseau de stockage.
Les connexions suivantes doivent exister dans l’environnement de destination :
v La partition logique du serveur d’E-S virtuel de destination doit comporter des emplacements virtuels
inutilisés.
v La carte SAN reliée à l’hôte sur la partition logique du serveur d’E-S virtuel de destination doit être
connectée au même réseau de stockage que la partition logique du serveur d’E-S virtuel source et avoir
accès à la même mémoire physique de partition mobile que la partition logique du serveur d’E-S
virtuel source.
Vous devez disposer des droits d’administrateur central pour exécuter cette tâche.
Pour vérifier ces connexions à l’aide de la console HMC, procédez comme suit :
1. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
2. Sélectionnez le serveur géré de votre choix dans la zone de navigation.
3. Sélectionnez le serveur d’E-S virtuel source dans la zone de contenu.
4. Sélectionnez Matériel (Informations) >Cartes virtuelles > SCSI dans la zone Tâche.
5. Vérifiez les informations suivantes, puis cliquez sur OK :
v Carte virtuelle
v Unité de sauvegarde
v Partition distante
v Carte distante
v Unité de sauvegarde distante
Remarque : Les zones relatives à la carte SCSI virtuelle peuvent rester vides si la partition mobile est
hors tension ou si le disque physique n’est pas relié à la carte SCSI virtuelle du serveur d’E-S virtuel.
Si des informations sont incorrectes, reportez-vous à la rubrique «Préparation de la configuration
mémoire à la Mobilité de partition», à la page 255 et exécutez les tâches associées à ces informations.
Préparation de la configuration réseau à la Mobilité de partition
Vous devez exécuter plusieurs tâches pour vous assurer que la configuration réseau correspond à la
configuration minimale exigée pour la Mobilité de partition. Les informations ci-après vous aideront à
effectuer une migration correcte.
266
Guide d’utilisation de PowerVM Editions
Pour préparer votre configuration réseau à la mobilité de partition, procédez comme suit :
Tableau 65. Tâches de planification du réseau
Tâches de planification du réseau
Tâche de mobilité active
Tâche de mobilité inactive
1. Créez une carte de réseau Ethernet
partagée dans la partition logique du
serveur d’E-S virtuel source et du
serveur d’E-S virtuel cible à partir de
la console HMC. Voir Création d’une
carte Ethernet partagée.
X
X
2. Configurez des cartes Ethernet
virtuelles dans les partitions logiques
du serveur d’E-S virtuel source et du
serveur d’E-S virtuel cible.
X
X
3. Vérifiez que la partition mobile
dispose d’une carte Ethernet virtuelle.
X
4. Activez la partition mobile pour
établir la communication entre la
carte Ethernet virtuelle et la carte
Ethernet virtuelle du serveur d’E-S
virtuel. Pour plus d’informations,
voir Activation d’un profil de
partition.
X
5. Vérifiez que le système
d’exploitation de la partition mobile
reconnaît la nouvelle carte Ethernet.
X
6. Si des cartes réseau physiques ont
été définies dans la partition mobile,
déplacez dynamiquement les E-S
physiques à l’aide de la console
HMC. Voir Gestion dynamique
d’unités et d’emplacements d’E-S
physiques à l’aide de la console
HMC.
X
7. Configurez le réseau local de sorte
que la partition mobile puisse
continuer à communiquer avec les
autres clients et serveurs nécessaires
une fois la migration terminée.
X
X
Création d’une carte de réseau Ethernet partagée via la console HMC version 7 :
Vous pouvez créer une carte de réseau Ethernet partagée sur le serveur d’E-S virtuel pour permettre aux
partitions logiques client d’accéder au réseau externe sans disposer d’une carte Ethernet physique.
Si vous envisagez d’utiliser une carte de réseau Ethernet partagée avec une carte de réseau Ethernet hôte
(ou carte Ethernet virtuelle intégrée), vérifiez que la carte Ethernet hôte logique (LHEA) du serveur d’E-S
virtuel est en mode espion. Pour plus d’informations, voir «Configuration d’une carte Ethernet hôte
logique (LHEA) en mode espion», à la page 92.
Pour créer une carte de réseau Ethernet partagée sur le serveur d’E-S virtuel via la console HMC
(Hardware Management) (HMC), version 7 ou ultérieure, procédez comme suit :
1. Dans la zone de navigation, développez Gestion de systèmes → Serveurs et sélectionnez le serveur
sur lequel se trouve la partition logique du serveur d’E-S virtuel.
2. Dans la zone de contenu, sélectionnez la partition logique du serveur d’E-S virtuel.
Chapitre 5. Live Partition Mobility
267
3. Cliquez sur Tâches et sélectionnez Configuration → Gestion de profils. La page Gestion de profils
s’affiche.
4. Sélectionnez le profil dans lequel vous voulez créer la carte de réseau Ethernet partagée et cliquez
sur Actions → Edition. La page Propriétés du profil de partition logique s’affiche.
5. Cliquez sur l’onglet Cartes virtuelles.
6. Cliquez sur Actions → Création → Carte Ethernet.
7. Sélectionnez Carte compatible IEEE 802.1Q.
8. Si vous utilisez plusieurs réseaux locaux virtuels (VLAN), ajoutez tout ID VLAN supplémentaire
pour les partitions logiques client devant communiquer avec le réseau externe à l’aide de cette carte
virtuelle.
9. Sélectionnez Accès au réseau externe pour utiliser cette carte comme passerelle entre les réseaux
locaux virtuels (VLAN) et un réseau externe. Cette carte Ethernet est configurée dans le cadre de la
carte de réseau Ethernet partagée.
10. Si vous n’utilisez pas la fonction de reprise par transfert de la carte de réseau Ethernet partagée,
vous pouvez utiliser la priorité de liaison par défaut. Si vous utilisez la reprise par transfert de la
carte de réseau Ethernet partagée, attribuez à la priorité de liaison de la carte Ethernet partagée
principale un nombre inférieur à celui de la carte de réseau Ethernet partagée de secours.
11. Lorsque vous avez terminé, cliquez sur OK.
12. Affectez ou créez l’une des cartes réelles suivantes :
v Affectez une carte physique Ethernet au serveur d’E-S virtuel.
v Si vous envisagez d’agréger plusieurs cartes physiques Ethernet dans une unité d’Agrégation de
liaisons ou EtherChannel, affectez plusieurs cartes physiques Ethernet au serveur d’E-S virtuel.
v Si vous envisagez d’utiliser la carte de réseau Ethernet partagée avec une carte de réseau Ethernet
hôte, créez une carte Ethernet hôte logique (LHEA) pour la partition logique du serveur d’E-S
virtuel.
13. Cliquez sur OK pour quitter la page Propriétés de profil de partition logique.
14. Cliquez sur Fermer pour quitter la page Profils gérés.
15. Effectuez à nouveau cette procédure pour chaque carte de réseau Ethernet partagée requise.
Une fois cette opération terminée, configurez la carte de réseau Ethernet partagée via l’interface de ligne
de commande du serveur d’E-S virtuel. Pour plus d’informations, voir «Configuration d’une carte de
réseau Ethernet partagée», à la page 93.
Configuration d’une carte de réseau Ethernet partagée :
Instructions relatives à la configuration d’une carte de réseau Ethernet partagée.
Pour configurer une carte de réseau Ethernet partagée, vous devez d’abord créer la carte à l’aide de la
console HMC (Hardware Management) (HMC). Pour plus d’informations, consultez les procédures
suivantes :
v «Création d’une carte de réseau Ethernet partagée via la console HMC version 7», à la page 91
v «Création d’une carte de réseau Ethernet partagée via la console HMC version 6», à la page 92
Pour configurer une carte de réseau Ethernet partagée à l’aide du serveur d’E-S virtuel, procédez comme
suit :
1. Vérifiez que la carte de ligne Ethernet virtuelle est disponible en entrant la commande suivante :
lsdev -virtual
2. Identifiez la carte Ethernet physique à utiliser pour créer la carte de réseau Ethernet partagée en
exécutant la commande suivante :
lsdev -type adapter
268
Guide d’utilisation de PowerVM Editions
Remarques :
v Vérifiez que le protocole TCP/IP n’est pas configuré sur l’interface pour la carte Ethernet physique.
S’il est configuré, la commande mkvdev échouera à l’étape suivante.
v Une unité d’Agrégation de liaisons, ou EtherChannel, peut également servir de carte de réseau
Ethernet partagée.
v Si vous envisagez d’utiliser la carte de réseau Ethernet hôte (ou carte Ethernet virtuelle intégrée)
avec la carte de réseau Ethernet partagée, veillez à utiliser la carte LHEA pour créer la carte de
réseau Ethernet partagée.
3. Configurez la carte de réseau Ethernet partagée en exécutant la commande suivante :
mkvdev -sea unité_cible -vadapter cartes_ethernet_virtuelles \
-default CarteEthernetVirtuelleDéfaut -defaultid PVIDCarteEthernetPartagéeDéfaut
Où :
target_device
Carte physique à utiliser en tant que partie intégrante de l’unité de carte de réseau Ethernet
partagée.
virtual_ethernet_adapters
Cartes Ethernet virtuelles qui utiliseront la carte de réseau Ethernet partagée.
DefaultVirtualEthernetAdapter
Carte Ethernet virtuelle par défaut utilisée pour traiter les paquets non marqués. Si vous ne
disposez que d’une seule carte Ethernet virtuelle pour cette partition logique, utilisez-la
comme carte par défaut.
SEADefaultPVID
PVID associé à la carte Ethernet virtuelle par défaut.
Par exemple, pour créer une carte de réseau Ethernet partagée ent3 en utilisant la carte Ethernet
physique ent0 (ou Agrégation de liaisons) et une seule carte Ethernet virtuelle, ent2, (définie avec
PVID = 1), entrez la commande suivante :
mkvdev -sea ent0 -vadapter ent2 -default ent2 -defaultid 1
4. Vérifiez la création de la carte de réseau Ethernet partagée à l’aide de la commande suivante :
lsdev -virtual
5. Prévoyez-vous d’accéder au serveur d’E-S virtuel à partir du réseau avec l’unité physique permettant
de créer la carte de réseau Ethernet partagée ?
v Oui : Passez à l’étape 6, à la page 94.
v Non : La procédure est terminée et vous n’avez pas à effectuer les étapes restantes.
6. Envisagez-vous de définir des adresses IP sur des VLAN autres que celui qui est spécifié par le PVID
de la carte de réseau Ethernet partagée ?
v Oui : Passez à l’étape 7, à la page 94 pour créer des pseudo-unités VLAN.
v Non : Passez à l’étape 8, à la page 94 pour configurer une connexion TCP/IP.
7. Pour configurer des pseudo-unités VLAN, procédez comme suit :
a. Créez une pseudo-unité VLAN sur la carte de réseau Ethernet partagée en exécutant la commande
suivante :
mkvdev
-vlan CarteCible -tagid IDBalise
Où :
v CarteCible est la carte de réseau Ethernet partagée.
v IDBalise est l’ID du réseau local virtuel (VLAN) que vous avez défini lors de la création de la
carte Ethernet virtuelle associée à la carte de réseau Ethernet partagée.
Chapitre 5. Live Partition Mobility
269
Par exemple, pour créer une pseudo-unité VLAN qui utilise la carte de réseau Ethernet partagée
ent3 que vous venez de créer (avec ID du réseau VLAN = 1), entrez la commande suivante :
mkvdev -vlan ent3 -tagid 1
b. Vérifiez que la pseudo-unité VLAN a été créée en entrant la commande suivante :
lsdev -virtual
c. Répétez cette procédure pour toute éventuelle pseudo-unité VLAN requise.
8. Exécutez la commande suivante pour configurer la première connexion TCP/IP. La première
connexion doit figurer sur le même VLAN et le même sous-réseau logique que la passerelle par
défaut.
mktcpip -hostname NomHôte -inetaddr Adresse -interface Interface -netmask \
MasqueSousRéseau -gateway Passerelle -nsrvaddr AdresseServeurNoms -nsrvdomain Domaine
Où :
v NomHôte est le nom d’hôte du serveur d’E-S virtuel
v Adresse est l’adresse IP que vous souhaitez utiliser pour la connexion TCP/IP
v Interface est l’interface associée à l’unité carte de réseau Ethernet partagée ou à une pseudo-unité
VLAN. Par exemple, si l’unité de carte de réseau Ethernet partagée est ent3, l’interface associée est
en3.
v MasqueSousRéseau est l’adresse de masque de sous-réseau définie pour votre sous-réseau.
v Passerelle est l’adresse de passerelle de votre sous-réseau.
v AdresseServeurNoms est l’adresse de votre serveur de noms de domaine.
v Domaine est le nom de votre domaine.
Si vous n’avez pas d’autre VLAN, la procédure est terminée et vous n’avez pas à effectuer les étapes
restantes.
9. Exécutez la commande suivante pour configurer d’autres connexions TCP/IP :
chdev -dev interface -perm -attr
netaddr=adresseIP -attr
netmask=netmask -attr state=up
Lorsque vous utilisez cette commande, indiquez l’interface (enX) associée à l’unité de carte de réseau
Ethernet partagée ou à la pseudo-unité VLAN.
La carte de réseau Ethernet partagée est maintenant configurée. Lorsque vous aurez configuré les
connexions TCP/IP pour les cartes virtuelles des partitions logiques client à l’aide des systèmes
d’exploitation de ces dernières, ces partitions logiques pourront communiquer avec le réseau externe.
Concepts associés
«Reprise par transfert de carte de réseau Ethernet partagée», à la page 62
La fonction de reprise par transfert de carte de réseau Ethernet partagée assure la redondance, car elle
permet de configurer une carte de réseau Ethernet partagée de secours sur une autre partition logique
du serveur d’E-S virtuel, laquelle peut être utilisée en cas de défaillance de la carte de réseau Ethernet
partagée principale. La connectivité réseau des partitions logiques client est maintenue, sans
interruption.
Validation de l’environnement de Mobilité de partition à partir de la
console HMC
Cette procédure explique comment valider l’environnement de Mobilité de partition à partir de la console
HMC.
Vous devez disposer des droits d’administrateur central pour exécuter cette tâche.
270
Guide d’utilisation de PowerVM Editions
Pour vérifier l’environnement de Mobilité de partition à partir de la console HMC, procédez comme
suit :
1. Dans la zone de navigation, ouvrez l’élément Gestion de systèmes.
2. Sélectionnez Serveurs.
3. Dans la zone de navigation, sélectionnez le serveur source.
4. Sélectionnez la partition mobile et développez Opérations > Mobilité > Validation. La fenêtre
Validation de la migration de partitions s’affiche.
5. Dans le panneau de validation, sélectionnez le serveur de destination et cliquez sur Validation. Des
données de validation suggérées s’affichent dans le panneau.
6. Vérifiez les paramètres SCSI virtuels et ceux du réseau virtuel du système de destination.
7. Vous ne pouvez modifier les paramètres par défaut de la partition de maintenance de déplacement
que dans le cadre d’une Mobilité de partition active.
8. Cliquez sur Validation pour confirmer que les paramètres modifiés sont toujours acceptables pour la
Mobilité de partition.
Migration d’une partition logique à l’aide de la console HMC (Hardware
Management)
La migration d’une partition logique exige plusieurs tâches. Les informations suivantes sont destinées à
vous aider à effectuer une migration correcte.
Prérequis
Pour faire migrer une partition logique, procédez comme ci-après.
Tableau 66. Tâches prérequises pour la migration d’une partition logique
Tâches de Mobilité de partition prérequises
Tâche de mobilité active
Tâche de mobilité inactive
1. Vous devez vous procurer et mettre en oeuvre
le composant matériel PowerVM Enterprise
Edition (ou Advanced POWER Virtualization
Enterprise Edition) pour utiliser la Mobilité de
partition. Pour plus d’informations sur
PowerVM Enterprise Edition, voir PowerVM
Editions. Pour plus d’informations sur
l’activation du dispositif matériel PowerVM
Enterprise Edition, voir Saisie du code
d’activation de PowerVM Editions à partir de la
console HMC version 7.
X
X
2. Vérifiez que vous avez exécuté toutes les
tâches de planification requises pour la Mobilité
de partition. Pour plus d’informations, voir
«Préparation d’une migration HMC», à la page
242.
X
X
3. Vérifiez que les serveurs source et cible sont à
l’état d’exécution. Pour plus d’informations sur
la mise sous tension d’un serveur, voir Mise sous
tension du système géré.
X
X
Chapitre 5. Live Partition Mobility
271
Tableau 66. Tâches prérequises pour la migration d’une partition logique (suite)
Tâches de Mobilité de partition prérequises
Tâche de mobilité active
4. Vérifiez que la partition mobile est hors
tension.
Tâche de mobilité inactive
X
Pour plus d’informations sur la mise hors
tension de la partition mobile, voir :
v AIX : Utilisation de la console HMC
(Hardware Management) pour arrêter les
partitions logiques AIX dans le Guide de
partitionnement logique1.
v Linux : Utilisation de la console HMC
(Hardware Management) pour arrêter les
partitions logiques Linux dans le Guide de
partitionnement logique1.
Remarque : Si vous souhaitez déplacer la
partition logique en mode actif et que celle-ci est
hors service, vous devez la remettre en service.
Pour plus d’informations, voir les conseils sur la
résolution des incidents :
v AIX : Résolution des incidents des partitions
logiques AIX dans le Guide de partitionnement
logique1.
v Linux : Résolution des incidents des partitions
logiques Linux dans le Guide de partitionnement
logique1.
5. Vérifiez que la partition mobile est à l’état
d’exécution. Pour plus d’informations sur
l’activation d’une partition logique, voir
Activation d’un profil de partition.
X
6. Vérifiez que les partitions logiques des
serveurs d’E-S virtuels source et cible sont
actives. Pour plus d’informations sur l’activation
d’une partition logique, voir Activation d’un
profil de partition.
X
7. Vérifiez que tous les travaux sur bande
magnétique et sur CD sont terminés ou arrêtés.
X
8. Exécutez l’outil de vérification de migration
sur la console HMC pour vous assurer que les
serveurs, les serveurs d’E-S virtuels, la partition
mobile, la mémoire et le réseau sont prêts pour
la Mobilité de partition. Pour plus
d’informations, voir «Validation de
l’environnement de Mobilité de partition à partir
de la console HMC», à la page 270.
X
X
X
Remarque :
1. Pour consulter le fichier PDF Guide de partitionnement logique (SA11-1696), d’une taille approximative de 3 Mo,
voir sa76-0098.pdf
.
Pour faire migrer une partition logique à l’aide de la console HMC, procédez comme suit :
1. Dans la zone de navigation, ouvrez l’élément Gestion de systèmes.
2. Sélectionnez Serveurs.
3. Dans la zone de contenu, ouvrez le serveur source.
272
Guide d’utilisation de PowerVM Editions
4. Sélectionnez la partition mobile et cliquez sur Opérations > Mobilité > Migration.
5. Exécutez l’assistant.
Post-requis
Vous devez exécuter plusieurs tâches après avoir terminé la migration de votre partition logique. Les
informations suivantes sont destinées à vous aider à effectuer une migration correcte.
Tableau 67. Tâches post-requises pour la migration d’une partition logique
Mobilité de partitionTâches
post-requises
Tâche de mobilité active
Tâche de mobilité inactive
1. Activez la partition mobile sur le
serveur de destination. Pour plus
d’informations, voir Activation d’un
profil de partition.
X
2. (Facultatif) Ajoutez les cartes d’E-S
dédiées à la partition mobile sur le
serveur de destination. Pour plus
d’informations, voir «Ajout d’E-S
dédiées à une partition mobile», à la
page 276.
X
X
3. Si des connexions au terminal
virtuel ont été perdues pendant la
migration, rétablissez-les sur le
serveur de destination.
X
X
4. (Facultatif) Affectez la partition
mobile à un groupe de charge de
travail de partitions logiques. Pour
plus d’informations, voir «Ajout
d’une partition mobile à un groupe
de charge de travail de partitions», à
la page 278.
X
X
5. Si des applications non prises en
charge par la mobilité ont été fermées
sur la partition mobile avant le
déplacement de celle-ci, redémarrez
ces applications sur le serveur de
destination.
X
Mise sous tension d’un système géré
Cette rubrique explique comment mettre un système géré sous tension via la console HMC.
La console HMC permet de mettre un système géré sous tension et de contrôler l’état de mise sous
tension.
Pour mettre le système géré sous tension, votre profil utilisateur doit être l’un des suivants :
v administrateur central
v technicien de maintenance
v opérateur
v responsable produit
Pour mettre le système géré sous tension, procédez comme suit :
1. Dans la zone de navigation, développez le dossier Gestion de systèmes.
2. Cliquez sur l’icône Serveurs.
Chapitre 5. Live Partition Mobility
273
3. Dans la zone de contenu, sélectionnez le système géré.
4. Sélectionnez Tâches, Opérations, puis Mise hors tension
5. Sélectionnez le mode de mise sous tension souhaité, puis cliquez sur OK.
Arrêt de partitions logiques AIX à l’aide de console HMC
Vous pouvez arrêter des partitions logiques AIX à l’aide de la console HMC (Hardware Management).
Arrêt différé du système d’exploitation :
Lorsque vous utilisez l’option d’arrêt différé, la console HMC lance la commande AIX shutdown pour
arrêter normalement la partition logique. Cette option n’est disponible que lorsque le système
d’exploitation est en cours de fonctionnement, et que la partition logique est dans un état
microprogramme ouvert.
Pour effectuer un arrêt différé du système d’exploitation à l’aide de la la console HMC, procédez comme
suit :
1. Dans la zone de navigation de votre console HMC, ouvrez Gestion des systèmes, ouvrez Serveurs et
cliquez sur le système hébergeant la partition logique.
2. Dans le panneau du contenu, sélectionnez la partition logique, cliquez sur le bouton Tâches et
sélectionnez Opérations → Arrêt.
3. Sélectionnez Système d’exploitation et cliquez sur OK.
Arrêt immédiat du système d’exploitation :
Lorsque vous utilisez l’option d’arrêt immédiat, la console HMC émet la commande AIX shutdown -F
pour arrêter la partition logique dans les plus brefs délais, sans envoyer de messages aux autres
utilisateurs. Cette option n’est disponible que lorsque le système d’exploitation est en cours de
fonctionnement, et que la partition logique est dans un état microprogramme ouvert.
Pour arrêter immédiatement le système d’exploitation à l’aide de console HMC, procédez comme suit :
1. Dans la zone de navigation de votre console HMC, ouvrez Gestion des systèmes, ouvrez Serveurs et
cliquez sur le système hébergeant la partition logique.
2. Dans la zone de contenu, sélectionnez la partition logique, cliquez sur le bouton Tâches et
sélectionnez Opérations → Arrêter.
3. Sélectionnez Arrêt immédiat du système d’exploitation et cliquez sur OK.
Arrêt différé d’une partition logique :
Avec l’option d’arrêt différé, la partition logique observe un délai prédéterminé avant de s’arrêter. Cela
lui donne le temps de terminer les travaux entrepris et d’enregistrer les données sur des disques.
Pour effectuer un arrêt différé d’une partition logique AIX à l’aide de la console HMC, procédez comme
suit :
1. Dans la zone de navigation de votre console HMC, ouvrez Gestion des systèmes, ouvrez Serveurs et
cliquez sur le système hébergeant la partition logique.
2. Dans la zone de contenu, sélectionnez la partition logique, cliquez sur le bouton Tâches et
sélectionnez Opérations → Arrêter.
3. Sélectionnez Différé et cliquez sur OK.
Arrêt immédiat d’une partition logique :
Avec l’option d’arrêt immédiat, le système s’arrête sans aucun délai prédéfini.
274
Guide d’utilisation de PowerVM Editions
Pour procéder à un arrêt immédiat d’une partition logique AIX à l’aide de la console HMC, procédez
comme suit :
1. Dans la zone de navigation de votre console HMC, ouvrez Gestion des systèmes, ouvrez Serveurs et
cliquez sur le système hébergeant la partition logique.
2. Dans la zone de contenu, sélectionnez la partition logique, cliquez sur le bouton Tâches et
sélectionnez Opérations → Arrêter.
3. Sélectionnez Immédiat et cliquez sur OK.
Arrêt de partitions logiques Linux à l’aide de la console HMC
Vous pouvez arrêter des partitions logiques Linux et le système d’exploitation Linux à l’aide de la console
HMC (Hardware Management).
Arrêt différé du système d’exploitation :
Lorsque vous utilisez l’option d’arrêt différé, la console HMC (Hardware Management) lance la
commande Linux shutdown -h +1 pour arrêter normalement la partition logique. Cette option n’est
disponible que lorsque le système d’exploitation est en cours de fonctionnement, et que la partition
logique est dans un état microprogramme ouvert.
Pour effectuer un arrêt différé du système d’exploitation à l’aide de la la console HMC, procédez comme
suit :
1. Dans la zone de navigation de votre console HMC, ouvrez Gestion des systèmes, ouvrez Serveurs et
cliquez sur le système hébergeant la partition logique.
2. Dans le panneau du contenu, sélectionnez la partition logique, cliquez sur le bouton Tâches et
sélectionnez Opérations → Arrêt.
3. Sélectionnez Système d’exploitation et cliquez sur OK.
Arrêt immédiat du système d’exploitation :
Lorsque vous utilisez l’option d’arrêt immédiat, la console HMC (Hardware Management) lance la
commande Linux shutdown -h now pour arrêter la partition logique dans les plus brefs délais, sans
envoyer de message d’avertissement aux autres utilisateurs. Cette option n’est disponible que lorsque le
système d’exploitation est en cours de fonctionnement, et que la partition logique est dans un état
microprogramme ouvert.
Pour arrêter immédiatement le système d’exploitation à l’aide de console HMC, procédez comme suit :
1. Dans la zone de navigation de votre console HMC, ouvrez Gestion des systèmes, ouvrez Serveurs et
cliquez sur le système hébergeant la partition logique.
2. Dans la zone de contenu, sélectionnez la partition logique, cliquez sur le bouton Tâches et
sélectionnez Opérations → Arrêter.
3. Sélectionnez Arrêt immédiat du système d’exploitation et cliquez sur OK.
Arrêt différé d’une partition logique :
Avec l’option d’arrêt différé, la partition logique observe un délai prédéterminé avant de s’arrêter. Cela
lui donne le temps de terminer les travaux entrepris et d’enregistrer les données sur des disques.
Pour exécuter un arrêt différé pour une partition logique Linux avec la console HMC, procédez comme
suit :
1. Dans la zone de navigation de votre console HMC, ouvrez Gestion des systèmes, ouvrez Serveurs et
cliquez sur le système hébergeant la partition logique.
2. Dans la zone de contenu, sélectionnez la partition logique, cliquez sur le bouton Tâches et
sélectionnez Opérations → Arrêter.
Chapitre 5. Live Partition Mobility
275
3. Sélectionnez Différé et cliquez sur OK.
Arrêt immédiat d’une partition logique :
Avec l’option d’arrêt immédiat, le système s’arrête sans aucun délai prédéfini.
Pour procéder à un arrêt immédiat d’une partition logique Linux à l’aide de la console HMC, procédez
comme suit :
1. Dans la zone de navigation de votre console HMC, ouvrez Gestion des systèmes, ouvrez Serveurs et
cliquez sur le système hébergeant la partition logique.
2. Dans la zone de contenu, sélectionnez la partition logique, cliquez sur le bouton Tâches et
sélectionnez Opérations → Arrêter.
3. Sélectionnez Immédiat et cliquez sur OK.
Ajout d’E-S dédiées à une partition mobile
Cette procédure explique comment ajouter des E-S dédiées à une partition mobile après une migration.
Vous devez disposer des droits d’administrateur central pour exécuter cette tâche.
Les E-S dédiées permettent à votre système géré de collecter, stocker et transmettre des données. Les E-S
dédiées sont des unités physiques qui se trouvent dans le serveur lui-même ainsi que dans les unités
d’extension et les tours connectées au serveur.
Avant de déplacer la partition mobile depuis l’environnement source vers l’environnement de destination,
vous avez peut-être dû déplacer des E-S dédiées depuis la partition mobile vers une autre partition
mobile. Une fois la partition mobile transférée correctement dans l’environnement de destination, vous
pouvez y ajouter des E-S dédiées.
Pour ajouter des E-S dédiées à la partition mobile à partir de la console HMC, procédez comme suit :
1. Ajoutez dynamiquement les cartes d’E-S dédiées à la partition mobile ou déplacez-les dynamiquement
depuis une partition logique vers la partition mobile. Voir les instructions suivantes :
v AIX : Gestion dynamique des unités et emplacements d’E-S physiques
v Linux : Ajout dynamique d’unités et d’emplacements d’entrée-sortie à l’aide de la version 7 ou
d’une version ultérieure de la console HMC
2. Mettez à jour les profils de partition avec les nouvelles affectations d’E-S : Vous devez mettre à jour
les profils de partition de sorte que les nouvelles affectations d’E-S ne soient pas perdues lors de la
prochaine activation des profils.
a. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
b. Sélectionnez le serveur géré de votre choix dans la zone de navigation.
c. Sélectionnez la partition logique de votre choix dans la zone de contenu.
d. Sélectionnez Configuration > Gestion de profils.
e. Sélectionnez le profil de votre choix et cliquez sur Actions > Edition.
f. Cliquez sur l’onglet E-S.
g. Pour chaque ressource à dédier à la partition mobile, sélectionnez Ajouter comme unité requise
ou Ajouter comme unité souhaitée.
h. Cliquez sur OK. Vous devrez activer la partition logique avec ce profil pour que cette modification
prenne effet.
i. Répétez les étapes 2f à 2h pour chaque profil de partition associé à la partition mobile.
276
Guide d’utilisation de PowerVM Editions
Gestion dynamique d’unités et d’emplacements d’E-S physiques à l’aide de la console HMC :
Vous pouvez ajouter, supprimer et déplacer dynamiquement des unités et des emplacements d’E-S
physiques depuis et vers des partitions logiques en cours de fonctionnement à l’aide de la console HMC
(Hardware Management) (HMC). Les partitions logiques peuvent ainsi partager des unités d’entrée-sortie
peu fréquemment utilisées (des unités de disque optiques, par exemple).
Les partitions logiques peuvent être associées à des unités ou des emplacements d’E-S imposés ou
souhaités. Lorsque vous spécifiez qu’une unité ou un emplacement d’entrée-sortie est souhaité (ou
partagé), cela signifie que cette unité ou cet emplacement d’entrée-sortie est destiné à être partagé avec
d’autres partitions logiques ou qu’il est facultatif. Lorsque vous précisez qu’une unité ou un emplacement
d’entrée-sortie est requis (ou dédié), cela signifie que vous ne pouvez pas activer la partition logique si
l’unité ou l’emplacement est indisponible ou utilisé par une autre partition logique.
Remarque : En cas de déplacement dynamique des ressources, la modification de la configuration n’est
que temporaire et n’est pas répercutée dans le profil de partition. Cela signifie que toutes les
modifications de configuration seront perdues à la prochaine activation du profil de partition. Si vous
voulez sauvegarder la nouvelle configuration de partition, vous devez modifier le profil de partition.
Ajout dynamique d’unités et d’emplacements d’entrée-sortie physiques à l’aide de la console HMC :
Vous pouvez ajouter un emplacement d’entrée-sortie physique (ainsi que la carte et les unités connectées
à cet emplacement) à une partition logique en cours d’exécution à l’aide de la console HMC (Hardware
Management) (HMC). Cette opération permet d’ajouter des fonctions d’E-S à une partition logique en
cours d’exécution sans devoir arrêter la partition logique.
Une partition logique Linux prend en charge l’ajout dynamique d’emplacements d’entrée-sortie physiques
uniquement lorsque les conditions suivantes sont remplies :
v Une distribution Linux prenant en charge le partitionnement logique dynamique est installée sur la
partition logique Linux. Les distributions prenant en charge le partitionnement logique dynamique
incluent SUSE Linux Enterprise Server 9 et les versions ultérieures.
v Le module d’outils DynamicRM est installé sur la partition logique Linux. Pour plus d’informations sur
le module d’outils DynamicRM, voir le site Web Service and productivity tools.
Pour ajouter dynamiquement un emplacement d’entrée-sortie physique à une partition logique en cours
d’exécution à l’aide de la console HMC, vous devez être administrateur central, technicien de
maintenance, opérateur ou responsable produit au laboratoire. Pour plus d’informations sur les rôles
utilisateur, voir les tâches et les rôles dans le Guide d’utilisation de la console HMC et des systèmes gérés.
Pour consulter le résumé du document Guide d’utilisation de la console HMC et des systèmes gérés
(SA11-1703), voir sa76-0085.pdf
.
Pour ajouter dynamiquement un emplacement d’entrée-sortie physique à une partition logique en cours
d’exécution à l’aide de la console HMC, procédez comme suit :
1. Dans la zone de navigation de votre console HMC, ouvrez Gestion des systèmes, ouvrez Serveurs et
cliquez sur le système hébergeant la partition logique.
2. Dans la zone de contenu, sélectionnez la partition logique, cliquez sur le bouton Tâches et
sélectionnez Partitionnement logique dynamique → Cartes physiques → Ajouter.
3. Sélectionnez l’emplacement d’entrée-sortie physique à ajouter à la partition logique.
4. Si vous voulez affecter l’emplacement d’entrée-sortie physique à un pool d’entrée-sortie, sélectionnez
le pool d’entrée-sortie pour l’emplacement d’entrée-sortie dans ID de pool d’entrée-sortie.
5. Cliquez sur OK.
Chapitre 5. Live Partition Mobility
277
Ajout d’une partition mobile à un groupe de charge de travail de partitions
Cette procédure explique comment ajouter une partition mobile à un groupe de charge de travail de
partitions après une migration.
Vous devez disposer des droits d’administrateur central pour exécuter cette tâche.
Un groupe de charge de travail de partitions identifie un ensemble de partitions logiques situées sur le
même système physique. Les outils de gestion de charge de travail utilisent des groupes de charge de
travail de partitions afin d’identifier les partitions logiques qu’ils peuvent gérer.
Avant de déplacer la partition mobile depuis l’environnement source vers l’environnement de destination,
vous avez peut-être dû supprimer la partition mobile d’un groupe de charge de travail de partitions. Une
fois la partition mobile transférée correctement dans l’environnement de destination, vous pouvez
l’inclure dans un groupe de charge de travail de partitions.
Pour inclure la partition mobile dans un groupe de charge de travail de partitions à partir de la console
HMC, procédez comme suit :
1. Dans la zone de navigation, ouvrez Gestion de systèmes et sélectionnez Serveurs.
2. Sélectionnez le serveur géré de votre choix dans la zone de navigation.
3. Sélectionnez la partition logique de votre choix dans la zone de contenu.
4. Sélectionnez Configuration > Gestion de profils.
5. Sélectionnez le profil de votre choix et cliquez sur Actions > Edition.
6. Cliquez sur l’onglet Paramètres.
7. Dans la zone Gestion de la charge de travail, sélectionnez (Aucun) et cliquez sur OK.
8. Répétez les étapes 1 à 7 pour tous les profils de partition associés à la partition mobile. Vous devrez
activer la partition logique avec ce profil pour que cette modification prenne effet.
Vous pouvez également utiliser le partitionnement logique dynamique (DLPAR) en sélectionnant la
partition logique, > Propriétés > et l’onglet Autre.
Identification et résolution des incidents liés à la Mobilité de partition
Cette section explique comment isoler et résoudre les problèmes liés à la Mobilité de partition active et
inactive.
Si vous ne réussissez pas à résoudre vous-même certains problèmes, vous devrez collecter des
informations pour aider les techniciens de l’assistance technique à trouver une solution en temps voulu.
Identification et résolution des incidents liés à la Mobilité de partition active
Cette section explique comment résoudre les problèmes pouvant survenir lors d’une Mobilité de partition
active.
La liste ci-après répertorie les erreurs possibles et les solutions pour y remédier.
Tableau 68. Problèmes connus et solutions liés à la Mobilité de partition active
Incident
Solution
Si le système d’exploitation s’exécutant dans la partition
mobile ne prend pas en charge explicitement le registre
de version de processeur du serveur de destination et
que le processeur détermine que ce support explicite est
obligatoire, le processeur n’autorise pas la migration.
Procédez de l’une des façons suivantes :
278
Guide d’utilisation de PowerVM Editions
v Déplacez la partition logique sur un autre système.
v Mettez à jour le système d’exploitation à un niveau
qui prend en charge les registres de version de
processeur du système cible.
Tableau 68. Problèmes connus et solutions liés à la Mobilité de partition active (suite)
Incident
Solution
Vous recevez une erreur concernant le système
d’exploitation pendant une tentative de migration d’une
partition logique.
1. Consultez le journal des erreurs du système
d’exploitation pour les incidents liés au système
d’exploitation.
2. Consultez le journal des erreurs de la console HMC
pour les incidents liés à l’application.
Vous recevez une erreur HMC signalant un manque de
Procédez de l’une des façons suivantes :
mémoire sur le serveur de destination.
v Déplacez la partition logique sur un autre serveur.
Remarque : Une mémoire suffisante inclut la quantité de
v Allouez davantage de mémoire disponible sur le
mémoire disponible et la quantité de mémoire contiguë
serveur de destination. Pour plus d’informations, voir
disponible sur le serveur. Si la partition mobile requiert
«Détermination de la mémoire disponible sur le
davantage de mémoire contiguë, une allocation
serveur de destination», à la page 244.
supplémentaire de mémoire disponible ne permet pas de
résoudre le problème.
La console HMC et les systèmes gérés ont perdu leur
connexion au cours de la migration.
1. Dans la zone de navigation HMC, sélectionnez
Migration de partition.
2. Dans la zone de contenu, sélectionnez le système
source ou de destination et cliquez sur Reprise.
3. Dans le panneau de reprise sur incident de migration,
cliquez sur Reprise.
Pendant une tentative de modification dynamique de
ressources, vous recevez une erreur signalant que le
démon RMC (Resource Monitoring and Control) n’est
pas connecté.
Cette erreur se produit généralement lors d’un problème
de connexion réseau entre les partitions logiques et la
console HMC. Pour résoudre le problème, vérifiez la
configuration réseau de votre système.
Identification et résolution des incidents liés à la Mobilité de partition inactive
Cette section explique comment résoudre les problèmes liés à une Mobilité de partition inactive.
La liste ci-après répertorie les erreurs possibles et les solutions pour y remédier.
Tableau 69. Problèmes connus et solutions liés à la Mobilité de partition inactive
Incident
Solution
Si la partition mobile est déplacée vers un serveur que le Déplacez la partition logique sur un autre système.
système d’exploitation ne prend pas en charge (et si le
support explicite est obligatoire), le démarrage de la
partition logique sur le serveur de destination échouera.
Vous recevez une erreur signalant un manque de
Procédez de l’une des façons suivantes:
mémoire sur le serveur de destination.
v Déplacez la partition logique sur un autre serveur.
Remarque : Une mémoire suffisante inclut la quantité de
v Allouez davantage de mémoire disponible sur le
mémoire disponible et la quantité de mémoire contiguë
serveur de destination. Pour plus d’informations, voir
disponible sur le serveur. Par conséquent, si la partition
«Détermination de la mémoire disponible sur le
mobile requiert davantage de mémoire contiguë, une
serveur de destination», à la page 244.
allocation supplémentaire de mémoire disponible ne
résoudra pas le problème.
Codes de référence de la Mobilité de partition
Les codes de référence de la Mobilité de partition sont des aides au diagnostic qui permettent de
déterminer l’origine d’un incident lié au matériel ou au système d’exploitation. L’utilisation de ces codes
permet de trouver la solution qui convient pour résoudre l’incident. Pour utiliser efficacement les codes
de référence, vous devez les associer à d’autres procédures de maintenance et d’assistance.
Chapitre 5. Live Partition Mobility
279
Pour plus d’informations sur l’identification et la résolution des problèmes, voir le Codes de référence du
système document PDF correspondant à votre modèle de serveur.
Utilisation d’Integrated Virtualization Manager avec Live Partition
Mobility
Cette rubrique fournit des informations sur la migration d’une partition logique active ou inactive à l’aide
du gestionnaire Integrated Virtualization Manager.
Environnement Integrated Virtualization Manager
Cette rubrique décrit la configuration d’un environnement de partitions actives ou inactives à l’aide du
gestionnaire Integrated Virtualization Manager.
Serveurs source et cible
Cette rubrique fournit des informations sur la façon de configurer l’environnement des serveurs source et
cible avant d’effectuer une migration.
Deux serveurs sont impliqués dans la Mobilité de partition. Le serveur source est celui à partir duquel
vous souhaitez déplacer la partition logique et le serveur cible est celui vers lequel vous la déplacez. Les
serveurs source et cible doivent être équipés de processeurs POWER6 pour participer à la Mobilité de
partition. Le serveur de destination doit disposer de ressources mémoire et processeur suffisantes pour
permettre l’exécution de la partition mobile.
Integrated Virtualization Manager
Si vous installez le serveur d’E-S virtuel sur un système non géré par une console HMC ou non géré par
un serveur lame BladeCenter, le serveur d’E-S virtuel devient la partition de gestion et inclut le
gestionnaire Integrated Virtualization Manager pour la gestion des systèmes. Integrated Virtualization
Manager comprend une interface de ligne de commande Web que vous pouvez utiliser pour faire migrer
une partition logique d’un système équipé du processeur POWER6 vers un autre.
La tâche de migration sur Integrated Virtualization Manager permet de valider et de terminer une
migration de partition. Integrated Virtualization Manager détermine le type de migration à utiliser en
fonction de l’état de la partition logique. Si la partition logique est à l’état En cours d’exécution, la
migration est active. Si elle est à l’état Non activé, la migration est inactive. Avant de faire migrer une
partition logique, effectuez un contrôle de validation pour vérifier que la migration se déroulera
correctement.
Réseautique
Pendant une Mobilité de partition active, il est important que les deux partitions de gestion puissent
communiquer entre elles. Le réseau permet de transmettre les informations d’état de la partition mobile
et d’autres données de configuration depuis l’environnement source vers l’environnement de destination.
La partition mobile utilise le réseau local virtuel pour accéder au réseau. Le réseau local virtuel doit être
relié à un réseau physique par le biais d’un pont Ethernet virtuel dans la partition de gestion. Le réseau
local doit être configuré de sorte que la partition mobile puisse continuer à communiquer avec les autres
clients et serveurs nécessaires une fois la migration terminée.
La Mobilité de partition active n’impose aucune contrainte en ce qui concerne la taille de la mémoire de
la partition mobile. Le transfert de la mémoire n’interrompt pas l’activité d’une partition mobile, mais
cette procédure peut prendre du temps lorsque la configuration d’une mémoire de grande taille est
impliquée sur un réseau lent. Par conséquent, utilisez une connexion à large bande passante telle que
Gigabit Ethernet.
Configuration mémoire exigée pour la migration de partitions
Cette rubrique récapitule la configuration mémoire exigée pour la mobilité de partition.
280
Guide d’utilisation de PowerVM Editions
La partition mobile est transférée d’un serveur vers un autre par le serveur source qui envoie les
informations d’état de la partition logique au serveur de destination sur un réseau local (LAN).
Cependant, il n’est pas possible de transmettre des données de partitionnement de disque d’un système
vers un autre via un réseau. Par conséquent, pour que la mobilité de partition puisse réussir, la partition
mobile doit utiliser les ressources de stockage virtualisées par un réseau de stockage (SAN), afin qu’elle
puisse accéder à la même mémoire à partir des serveurs source et cible.
Configuration requise pour la Mobilité de partition à l’aide d’Integrated
Virtualization Manager
Cette rubrique contient des informations sur la configuration logicielle et matérielle générale exigée pour
la Mobilité de partition à l’aide d’Integrated Virtualization Manager.
La configuration logicielle et matérielle nécessaire à l’utilisation de la Mobilité de partition varie selon
qu’il s’agit de la migration d’une partition logique AIX ou Linux active ou inactive. Avant de procéder à
la migration d’une partition logique, vérifiez que l’environnement de Mobilité de partition répond aux
conditions minimales exigées.
Configuration exigée pour les serveurs source et cible
Le tableau suivant indique la configuration matérielle exigée pour Integrated Virtualization Manager.
Tableau 70. Configuration exigée pour les serveurs source et cible
Configuration exigée pour les
serveurs
Les serveurs source et cible doivent
correspondre à l’un des modèles
POWER6 :
Configuration exigée pour la
mobilité active
Configuration exigée pour la
mobilité inactive
X
X
v 03E/4A
v 04E/8A
v JS/12 Express
v JS/22 Express
Configuration exigée pour Integrated Virtualization Manager
Le tableau suivant indique la configuration logicielle exigée pour Integrated Virtualization Manager.
Tableau 71. Configuration logicielle exigée pour Integrated Virtualization Manager
Configuration exigée pour
Integrated Virtualization Manager
Les serveurs source et cible doivent
utiliser la version 1.5 ou une version
supérieure d’Integrated Virtualization
Manager. Pour plus d’informations
sur l’installation d’Integrated
Virtualization Manager, voir
Installation du gestionnaire
Integrated Virtualization Manager.
Configuration exigée pour la
mobilité active
Configuration exigée pour la
mobilité inactive
X
X
Pour déterminer la version en cours
d’Integrated Virtualization Manager
et, si nécessaire, la mettre à jour, voir
Affichage et mise à jour du niveau de
code de la partition de gestion.
Chapitre 5. Live Partition Mobility
281
Tableau 71. Configuration logicielle exigée pour Integrated Virtualization Manager (suite)
Configuration exigée pour
Integrated Virtualization Manager
Vous devez vous procurer et mettre
en oeuvre le composant matériel
PowerVM Enterprise Edition (ou
Advanced POWER Virtualization
Enterprise Edition) pour utiliser la
Mobilité de partition. Pour plus
d’informations sur PowerVM
Enterprise Edition, voir PowerVM
Editions. Pour plus d’informations
sur l’activation du dispositif matériel
PowerVM Enterprise Edition, voir
Saisie du code d’activation de
PowerVM Editions à l’aide
d’Integrated Virtualization Manager.
Configuration exigée pour la
mobilité active
Configuration exigée pour la
mobilité inactive
X
X
Configuration exigée pour le système d’exploitation
Le tableau suivant indique la configuration logicielle prise en charge pour la Mobilité de partition.
Tableau 72. Configuration exigée pour le système d’exploitation
Configuration exigée pour le
système d’exploitation
Configuration exigée pour la
mobilité active
Configuration exigée pour la
mobilité inactive
Le système d’exploitation s’exécutant
dans la partition mobile doit être AIX
ou Linux.
X
X
Le système d’exploitation doit être à
l’un des niveaux suivants :
X
X
v AIX 5L version 5.3 avec niveau de
technologie 5300-07 ou version
ultérieure
v SUSE Linux Enterprise Server 10
(SLES 10) Service Pack 1 ou
supérieur
Les versions antérieures d’AIX et de
Linux peuvent participer à une
Mobilité de partition inactive si les
systèmes d’exploitation gèrent les
unités virtuelles et les modèles
POWER6.
Configuration mémoire exigée
Le tableau suivant indique la configuration mémoire exigée pour les serveurs source et cible.
Tableau 73. Configuration mémoire exigée pour les serveurs source et cible
Configuration mémoire exigée
Configuration exigée pour la
mobilité active
Le réseau de stockage est la seule
unité de stockage prise en charge
pour la Mobilité de partition.
282
Guide d’utilisation de PowerVM Editions
X
Configuration exigée pour la
mobilité inactive
X
Tableau 73. Configuration mémoire exigée pour les serveurs source et cible (suite)
Configuration mémoire exigée
La partition mobile doit utiliser une
mémoire visible pour le serveur d’E-S
virtuel sur les systèmes source et
cible.
Configuration exigée pour la
mobilité active
X
Configuration exigée pour la
mobilité inactive
X
Préparation d’une migration Integrated Virtualization Manager
Cette rubrique décrit les éléments à prendre en compte pour planifier la migration d’une partition
logique active ou inactive à l’aide du gestionnaire Integrated Virtualization Manager.
Préparation des serveurs source et cible à une migration de partition Integrated
Virtualization Manager
Cette rubrique décrit les tâches permettant de préparer les serveurs source et cible à une migration de
partition Integrated Virtualization Manager.
La préparation des serveurs source et cible à une migration de partition Integrated Virtualization
Manager exige plusieurs tâches. Ces informations sont destinées à vous aider à effectuer une migration
correcte.
Pour préparer les serveur source et destination à une migration de partition Integrated Virtualization
Manager, procédez comme suit.
Tableau 74. Tâches de planification des serveurs source et cible
Tâches de planification des serveurs
Tâche de mobilité active
Tâche de mobilité inactive
1. Vérifiez que les serveurs source et
cible remplissent les conditions
requises pour la Mobilité de partition
à l’aide d’Integrated Virtualization
Manager. Pour plus d’informations,
voir «Configuration requise pour la
Mobilité de partition à l’aide
d’Integrated Virtualization Manager»,
à la page 281.
X
X
2. Vérifiez que la taille du bloc de
mémoire logique est la même sur les
serveurs source et cible. Déterminez
la taille du bloc de mémoire logique
de chaque serveur et modifiez-la, si
nécessaire. Pour plus d’informations,
voir Affichage et modification des
propriétés système.
Remarque : La fonction de validation
effectue la vérification pour vous.
X
X
Chapitre 5. Live Partition Mobility
283
Tableau 74. Tâches de planification des serveurs source et cible (suite)
Tâches de planification des serveurs
Tâche de mobilité active
Tâche de mobilité inactive
3. Vérifiez que le serveur de
destination dispose d’une mémoire
suffisante pour prendre en charge la
partition mobile. Pour plus
d’informations, voir «Détermination
de la mémoire disponible sur le
serveur de destination à l’aide
d’Integrated Virtualization Manager».
Remarque : La fonction de validation
effectue la vérification pour vous.
X
X
4. Vérifiez que le serveur de
destination dispose de suffisamment
de processeurs pour prendre en
charge la partition mobile. Pour plus
d’informations, voir Détermination
des processeurs disponibles sur le
serveur de destination à l’aide
d’Integrated Virtualization Manager.
Remarque : La fonction de validation
effectue la vérification pour vous.
X
X
5 Vérifiez que le serveur d’E-S virtuel
source et le serveur d’E-S virtuel cible
peuvent communiquer entre eux.
Remarque : La fonction de validation
effectue la vérification pour vous.
X
X
Détermination de la mémoire disponible sur le serveur de destination à l’aide d’Integrated
Virtualization Manager :
Cette procédure explique comment déterminer la mémoire disponible sur le serveur de destination et, si
nécessaire, allouer davantage de mémoire à l’aide du gestionnaire Integrated Virtualization Manager.
Utilisez tout autre rôle autre que View Only pour exécuter cette tâche. Le rôle Service Representative (SR)
ne permet pas d’afficher ou de modifier les valeurs relatives à la mémoire.
Pour déterminer la mémoire disponible sur le serveur de destination à l’aide d’Integrated Virtualization
Manager, procédez comme suit :
1. Déterminez la quantité de mémoire requise par la partition mobile :
a. Dans le menu Gestion de partition, cliquez sur Affichage/modification de partitions. Le panneau
Affichage/modification de partitions s’affiche.
b. Sélectionnez la partition logique dont vous voulez afficher les propriétés.
c. Dans le menu Tâches, cliquez sur Propriétés. Le panneau Propriétés de la partition s’affiche.
d. Cliquez sur l’onglet Mémoire et notez la quantité de mémoire maximale, minimale et disponible.
e. Cliquez sur OK.
2. Déterminez la mémoire disponible sur le serveur de destination :
a. Dans le menu Gestion de partition, cliquez sur Affichage/modification des propriétés système. Le
panneau Affichage/modification des propriétés système s’affiche.
b. Sélectionnez l’onglet Mémoire.
c. Notez la mémoire actuellement disponible.
d. Cliquez sur Appliquer.
3. Comparez les valeurs des étapes 1 et 2.
284
Guide d’utilisation de PowerVM Editions
v Si le serveur de destination dispose d’une mémoire suffisante pour prendre en charge la partition
mobile, passez à la rubrique «Préparation des serveurs source et cible à une migration de partition
Integrated Virtualization Manager», à la page 283.
v S’il ne dispose pas d’une mémoire suffisante pour prendre en charge la partition mobile, utilisez le
gestionnaire Integrated Virtualization Manager pour supprimer dynamiquement de la mémoire de
la partition logique. Vous pouvez également supprimer de la mémoire des partitions logiques du
serveur de destination.
Remarque : Après la migration, POWER6Hypervisor utilise la mémoire du serveur de destination.
Vérifiez que celui-ci dispose d’une mémoire suffisante pour prendre en charge les besoins en mémoire
de la partition logique et d’Hypervisor.
Détermination des processeurs disponibles sur le serveur de destination à l’aide d’Integrated
Virtualization Manager :
Cette procédure explique comment déterminer les processeurs disponibles sur le serveur de destination
et, si nécessaire, allouer des processeurs supplémentaires.
Vous devez disposer des droits d’administrateur central pour exécuter cette tâche.
Pour déterminer les processeurs disponibles sur le serveur de destination à l’aide d’Integrated
Virtualization Manager, procédez comme suit :
1. Déterminez le nombre de processeurs requis par la partition mobile :
a. Dans le menu Gestion de partition, cliquez sur Affichage/modification de partitions. Le panneau
Affichage/modification de partitions s’affiche.
b. Sélectionnez la partition logique dont vous voulez afficher les propriétés.
c. Dans le menu Tâches, cliquez sur Propriétés. Le panneau Propriétés de la partition s’affiche.
d. Cliquez sur l’onglet Traitement et notez le nombre minimal, maximal et disponible d’unités de
traitement.
e. Cliquez sur OK.
2. Déterminez les processeurs disponibles sur le serveur de destination :
a. Dans le menu Gestion de partition, sélectionnez Affichage/modification des propriétés système.
Le panneau Affichage/modification des propriétés système s’affiche.
b. Cliquez sur l’onglet Traitement.
c. Notez le nombre d’unités de traitement actuellement disponibles.
d. Cliquez sur Appliquer.
3. Comparez les valeurs des étapes 1 et 2.
v Si le serveur de destination dispose de suffisamment de processeurs pour prendre en charge la
partition mobile, passez à la rubrique «Préparation des serveurs source et cible à une migration de
partition Integrated Virtualization Manager», à la page 283.
v S’il ne dispose pas d’un nombre suffisant de processeurs pour prendre en charge la partition
mobile, utilisez le gestionnaire Integrated Virtualization Manager pour supprimer dynamiquement
les processeurs de la partition logique. Vous pouvez également supprimer des processeurs des
partitions logiques du serveur de destination.
Chapitre 5. Live Partition Mobility
285
Préparation d’Integrated Virtualization Manager à la Mobilité de partition
Pour préparer le gestionnaire Integrated Virtualization Manager à la Mobilité de partition, procédez
comme suit :
Tableau 75. Tâche de planification d’Integrated Virtualization Manager
Tâches de planification d’Integrated
Virtualization Manager
Tâche de mobilité active
Tâche de mobilité inactive
X
X
Vérifiez que le gestionnaire
Integrated Virtualization Manager
remplit les conditions requises pour
la Mobilité de partition. Pour plus
d’informations, voir «Configuration
requise pour la Mobilité de partition
à l’aide d’Integrated Virtualization
Manager», à la page 281.
Préparation de la partition mobile à la Mobilité de partition à l’aide d’Integrated
Virtualization Manager
La préparation de la partition mobile à la Mobilité de partition exige plusieurs tâches. Les informations
ci-après vous aideront à effectuer une migration correcte.
Pour préparer la partition mobile à la Mobilité de partition à l’aide d’Integrated Virtualization Manager,
procédez comme suit :
Tableau 76. Tâches de planification de la partition mobile
Tâches de planification de la
partition mobile
Tâche de mobilité active
Tâche de mobilité inactive
1. Vérifiez que le système
d’exploitation remplit les conditions
requises pour la Mobilité de
partition. Pour plus d’informations,
voir «Configuration requise pour la
Mobilité de partition à l’aide
d’Integrated Virtualization Manager»,
à la page 281.
X
2. Vérifiez que les partitions de
gestion source et cible peuvent
communiquer entre elles.
X
X
3. Vérifiez que la partition mobile
n’appartient pas à un groupe de
charge de travail de partitions. Pour
plus d’informations, voir
«Suppression de la partition mobile
d’un groupe de charge de travail de
partitions à l’aide d’Integrated
Virtualization Manager», à la page
287.
X
X
286
Guide d’utilisation de PowerVM Editions
Tableau 76. Tâches de planification de la partition mobile (suite)
Tâches de planification de la
partition mobile
Tâche de mobilité active
4. Vérifiez que la partition mobile ne
comporte ni carte physique ni carte
de réseau Ethernet hôte (ou carte
Ethernet virtuelle intégrée). Pour plus
d’informations, voir Gestion
dynamique des cartes physiques et
Affectation d’un port de carte de
réseau Ethernet hôte à une partition
logique.
Remarque : Le gestionnaire
Integrated Virtualization Manager
supprimera les E-S physiques
affectées à la partition mobile au
cours d’une migration inactive.
X
5. Vérifiez que les applications
s’exécutant dans la partition mobile
partition acceptent ou reconnaissent
la mobilité. Pour plus d’informations,
voir Applications logicielles
reconnaissant les migrations.
X
Tâche de mobilité inactive
Suppression de la partition mobile d’un groupe de charge de travail de partitions à l’aide d’Integrated
Virtualization Manager :
Cette procédure explique comment supprimer une partition mobile d’un groupe de charge de travail de
partitions.
Un groupe de charge de travail de partitions identifie un ensemble de partitions logiques situées sur le
même système physique. Ce groupe est défini lorsque vous utilisez le gestionnaire Integrated
Virtualization Manager pour configurer une partition logique. Il est destiné aux applications qui gèrent
des groupes de logiciels. Pour qu’une partition logique puisse participer à une Mobilité de partition, elle
ne doit pas être affectée à un groupe de charge de travail de partitions.
Pour supprimer la partition mobile d’un groupe de charge de travail de partitions à l’aide d’Integrated
Virtualization Manager, procédez comme suit :
1. Dans le menu Gestion de partition, cliquez sur Affichage/modification de partitions. La fenêtre
Affichage/modification de partitions s’affiche.
2. Sélectionnez la partition logique à supprimer du groupe de charge de travail de partitions.
3. Dans le menu Tâches, cliquez sur Propriétés. La fenêtre Propriétés de la partition s’affiche.
4. Dans l’onglet Général, désélectionnez Participant au groupe de charge de travail de partitions.
5. Cliquez sur OK.
Suppression de cartes physiques de la partition mobile :
Cette procédure explique comment supprimer des cartes physiques d’une partition mobile.
Les cartes physiques permettent à votre système géré de collecter, stocker et transmettre des données. Ces
unités physiques se trouvent dans le serveur lui-même ainsi que dans les unités d’extension et les tours
connectées au serveur.
Chapitre 5. Live Partition Mobility
287
Pour qu’une partition logique puisse participer à une Mobilité de partition, elle ne doit inclure aucune
carte physique. Toutes les cartes doivent être virtuelles. Vous pouvez utiliser la Mobilité de partition
inactive si la partition mobile comprend des cartes physiques. Ces cartes seront alors supprimées
automatiquement de la partition logique avant le lancement de la migration.
Pour supprimer des cartes physiques de la partition mobile à l’aide du gestionnaire Integrated
Virtualization Manager, procédez comme suit :
1. Dans le menu Gestion de partition, cliquez sur Affichage/modification de partitions. Le panneau
Affichage/modification de partitions s’affiche.
2. Sélectionnez la partition logique à modifier.
3. Dans le menu Tâches, cliquez sur Propriétés. Le panneau Propriétés de la partition s’affiche.
4. Cliquez sur l’onglet Cartes physiques.
5. Désélectionnez les cartes physiques à supprimer de la partition logique.
6. Cliquez sur OK.
Préparation de la configuration mémoire à la Mobilité de partition à l’aide
d’Integrated Virtualization Manager
Vous devez exécuter plusieurs tâches pour vous assurer que la configuration mémoire correspond à la
configuration minimale exigée pour la Mobilité de partition. Les informations ci-après vous aideront à
effectuer une migration correcte.
Si votre environnement correspond déjà à la configuration minimale requise indiquée précédemment,
sélectionnez Vérification de la configuration mémoire existante.
Si vous devez configurer cet environnement, sélectionnez Configuration de l’environnement mémoire.
Vérification de la configuration mémoire existante pour la Mobilité de partition à l’aide d’Integrated
Virtualization Manager :
Exécutez les tâches permettant de vérifier que votre configuration mémoire correspond à la configuration
minimale exigée pour la Mobilité de partition.
Avant de faire migrer une partition logique, vous devez vérifier que votre configuration mémoire
correspond à la configuration minimale exigée pour effectuer la migration d’une partition logique.
Procédez comme suit pour vérifier votre configuration mémoire.
Vérifiez les connexions, affectations et attributs ci-après.
Tableau 77. Tâches de planification de la mémoire
Tâches de planification de la
mémoire
Tâche de mobilité active
1. Vérifiez que la migration des
unités virtuelles est possible. Voir
Identification des disques exportables
X
2. Vérifiez que la partition mobile a
accès à la mémoire physique. Pour
plus d’informations, voir
«Vérification de l’accès de la partition
mobile à sa mémoire physique», à la
page 289.
X
288
Guide d’utilisation de PowerVM Editions
Tâche de mobilité inactive
X
Tableau 77. Tâches de planification de la mémoire (suite)
Tâches de planification de la
mémoire
Tâche de mobilité active
Tâche de mobilité inactive
X
X
3. Vérifiez que la partition mobile ne
comporte ni carte physique ni carte
de réseau Ethernet hôte (ou carte
Ethernet virtuelle intégrée). Pour plus
d’informations, voir «Suppression de
cartes physiques de la partition
mobile», à la page 287 et Affectation
d’un port carte de réseau Ethernet
hôte à une partition logique.
Configuration de l’environnement mémoire pour la Mobilité de partition :
La configuration de l’environnement mémoire pour la Mobilité de partition exige plusieurs tâches. Les
informations suivantes sont destinées à vous aider à effectuer une migration correcte.
Pour définir la configuration mémoire, procédez comme ci-après.
Tableau 78. Tâches de planification de la mémoire
Tâches de planification de la
mémoire
Tâche de mobilité active
Tâche de mobilité inactive
1. Installez et configurez un réseau de
stockage. Pour consulter la liste des
unités de stockage gérées par le
serveur d’E-S virtuel, voir
Environnement géré par le serveur
d’E-S virtuel.
X
X
2. Connectez les partitions de gestion
source et cible au réseau de stockage.
X
X
3. Attribuez la valeur no_reserve aux
attributs reserve_policy des volumes
physiques du client mobile.
X
X
4. Affectez les mêmes disques à la
partition de gestion source et à toutes
les partitions de gestion de
destination possibles.
X
X
5. Vérifiez que la partition mobile a
accès au réseau de stockage.
X
X
6. Vérifiez que la partition mobile ne
comporte aucune unité ou carte d’E-S
dédiée. Pour plus d’informations,
voir «Suppression de cartes
physiques de la partition mobile», à
la page 287.
X
Vérification de l’accès de la partition mobile à sa mémoire physique :
Cette procédure explique comment vérifier l’accès de la partition mobile à la mémoire physique sur le
réseau de stockage.
Pour que la Mobilité de partition réussisse, la partition mobile doit avoir accès à la même mémoire
physique à partir des environnements source et cible. Dans l’environnement de destination, la carte SAN
Chapitre 5. Live Partition Mobility
289
reliée à l’hôte dans la partition de gestion de destination doit être connectée au même réseau de stockage
que la partition de gestion source et avoir accès à la même mémoire physique de la partition mobile que
la partition de gestion source.
Pour vérifier ces connexions à l’aide d’Integrated Virtualization Manager, procédez comme suit :
1. Dans le menu de gestion de la mémoire virtuelle, cliquez sur Afficher/Modifier la mémoire virtuelle.
2. Dans l’onglet Disque Virtuel, vérifiez que la partition logique ne possède pas de disque virtuel.
3. Dans l’onglet Volumes physiques, vérifiez que les volumes physiques mappés sur la partition mobile
sont exportables. Pour plus d’informations, voir Identification des disque exportables.
Si des informations sont incorrectes, reportez-vous à la rubrique Préparation de la configuration
mémoire et exécutez la tâche associée à ces informations.
Préparation de la configuration réseau à la Mobilité de partition à l’aide
d’Integrated Virtualization Manager
Vous devez exécuter plusieurs tâches pour vous assurer que la configuration réseau correspond à la
configuration minimale exigée pour la Mobilité de partition. Les informations ci-après vous aideront à
effectuer une migration correcte.
Pour préparer la configuration réseau à la Mobilité de partition, procédez comme suit.
Tableau 79. Tâches de planification du réseau
Tâches de planification du réseau
Tâche de mobilité active
Tâche de mobilité inactive
X
X
2. Veillez à connecter la partition de
gestion source et cible et la carte
Ethernet partagée au réseau.
X
X
3. Vérifiez que la partition mobile
dispose d’une carte Ethernet virtuelle.
X
4. Activez la partition mobile pour
établir la communication entre la
liaison Ethernet virtuelle et la carte
Ethernet virtuelle de la partition de
gestion. Pour plus d’informations,
voir Activation des partitions
logiques.
X
1. Configurez un point Ethernet
virtuel sur la partition de gestion
source et cible à l’aide du
gestionnaire Integrated Virtualization
Manager. Voir «Configuration de
ponts Ethernet virtuels sur le système
géré à l’aide du gestionnaire
Integrated Virtualization Manager», à
la page 195.
Affichez les paramètres Ethernet
virtuels du système géré et modifiez
la configuration réseau Ethernet
virtuelle dans la partition de gestion
source et cible. Voir «Configuration
de ponts Ethernet virtuels sur le
système géré à l’aide du gestionnaire
Integrated Virtualization Manager», à
la page 195
290
Guide d’utilisation de PowerVM Editions
Tableau 79. Tâches de planification du réseau (suite)
Tâches de planification du réseau
Tâche de mobilité active
5. Vérifiez que le système
d’exploitation de la partition mobile
reconnaît la nouvelle carte Ethernet.
Pour configurer et gérer des
nouvelles cartes Ethernet, voir
Configuration et gestion des cartes
dans l’Information Center serveurs et
AIX.
X
6. Supprimez dynamiquement l’E-S
physique à l’aide du gestionnaire
Integrated Virtualization Manager.
Voir Gestion dynamique des E-S.
X
7. Configurez le réseau local de sorte
que la partition logique à faire migrer
puisse continuer à communiquer
avec les autres clients et serveurs
nécessaires une fois la migration
terminée.
X
Tâche de mobilité inactive
X
Validation de l’environnement de Mobilité de partition à l’aide
d’Integrated Virtualization Manager
Cette procédure explique comment valider l’environnement de Mobilité de partition à l’aide d’Integrated
Virtualization Manager.
Pour valider l’environnement de Mobilité de partition à l’aide d’Integrated Virtualization Manager,
procédez comme suit :
1. Dans le menu Gestion de partition, cliquez sur Affichage/modification de partitions. Le panneau
Affichage/modification de partitions s’affiche.
2. Sélectionnez la partition logique à faire migrer et cliquez sur Migration dans le menu Tâches.
3. Indiquez l’IVM ou HMC distant, l’ID utilisateur distant et le mot de passe de la partition à faire
migrer.
4. Cliquez sur Validation pour confirmer que les paramètres modifiés sont acceptables pour la Mobilité
de partition.
Migration d’une partition logique à l’aide d’Integrated Virtualization
Manager
La migration d’une partition logique exige plusieurs tâches. Les informations suivantes sont destinées à
vous aider à effectuer une migration correcte.
Prérequis
Vous devez exécuter plusieurs tâches avant de faire migrer une partition logique. Les informations
suivantes sont destinées à vous aider à effectuer une migration correcte.
Chapitre 5. Live Partition Mobility
291
Tableau 80. Tâches prérequises pour la migration d’une partition logique
Tâches de Mobilité de partition prérequises
Tâche de mobilité active
Tâche de mobilité inactive
1. Vous devez vous procurer et mettre en oeuvre
le composant matériel PowerVM Enterprise
Edition (ou Advanced POWER Virtualization
Enterprise Edition) pour utiliser la Mobilité de
partition. Pour plus d’informations sur
PowerVM Enterprise Edition, voir PowerVM
Editions. Pour plus d’informations sur
l’activation du dispositif matériel PowerVM
Enterprise Edition, voir Saisie du code
d’activation de PowerVM Editions à partir de la
console HMC version 7.
X
X
2. Vérifiez que vous avez exécuté toutes les
tâches de planification requises pour la Mobilité
de partition. Pour plus d’informations, voir
«Préparation d’une migration Integrated
Virtualization Manager», à la page 283.
X
X
X
X
3. Vérifiez que les ressources processeur et
mémoire sont synchronisées après l’ajout ou la
suppression dynamique de ressources. Pour plus
d’informations, voir «Gestion dynamique de la
mémoire», à la page 201 et «Gestion dynamique
des processeurs», à la page 202.
4. Vérifiez que les serveurs source et cible sont à
l’état d’exécution.
5. Vérifiez que la partition mobile est hors
tension.
X
6. Vérifiez que la partition mobile est à l’état
d’exécution. Pour plus d’informations sur
l’activation d’une partition logique, voir
Activation d’une partition logique.
X
7. Vérifiez que le serveur d’E-S virtuel source et
le serveur d’E-S virtuel cible sont actifs. Pour
plus d’informations sur l’activation d’une
partition logique, voir Activation d’une partition
logique.
X
8. Vérifiez que tous les travaux sur bande
magnétique et sur CD sont terminés ou arrêtés.
X
9. Exécutez l’outil de validation de migration sur
Integrated Virtualization Manager pour vous
assurer que les serveurs, la partition mobile, la
mémoire et le réseau sont prêts pour la Mobilité
de partition. Pour plus d’informations, voir
«Validation de l’environnement de Mobilité de
partition à l’aide d’Integrated Virtualization
Manager», à la page 291.
X
X
X
Migration d’une partition logique à l’aide d’Integrated Virtualization Manager
Pour faire migrer une partition logique à l’aide de la console Integrated Virtualization Manager, procédez
comme suit :
1. Dans le menu Gestion de partition, cliquez sur Affichage/modification de partitions. Le panneau
Affichage/modification de partitions s’affiche.
292
Guide d’utilisation de PowerVM Editions
2. Sélectionnez la partition logique à faire migrer et cliquez sur Migration dans le menu Tâches.
3. Indiquez l’IVM distant, l’ID utilisateur distant et le mot de passe de la partition logique à faire
migrer.
4. Cliquez sur Migration.
Post-requis
Vous devez exécuter plusieurs tâches une fois la migration d’une partition logique effectuée. Les
informations suivantes sont destinées à vous aider à effectuer une migration correcte.
Tableau 81. Tâches post-requises pour la migration d’une partition logique
Mobilité de partitionTâches
post-requises
Tâche de mobilité active
1. Activez la partition mobile sur le
serveur de destination. Pour plus
d’informations, voir Activation d’une
partition logique.
Tâche de mobilité inactive
X
2. (Facultatif) Ajoutez les cartes
physiques à la partition mobile sur le
serveur de destination. Pour plus
d’informations, voir Gestion
dynamique des cartes physiques.
X
X
3. Si des connexions au terminal
virtuel ont été perdues pendant la
migration, rétablissez-les sur le
serveur de destination. Pour plus
d’informations, voir Ouverture d’une
session de terminal virtuel.
X
X
4. (Facultatif) Affectez la partition
mobile à un groupe de partitions
logiques. Pour plus d’informations,
voir «Ajout d’une partition logique
client au groupe de charge de travail
de partitions», à la page 199.
X
X
5. Si des applications non prises en
charge par la mobilité ont été fermées
sur la partition mobile avant le
déplacement de celle-ci, redémarrez
ces applications sur le serveur de
destination.
X
Arrêt des partitions logiques
Utilisez Integrated Virtualization Manager pour arrêter une sélection de partitions logiques ou
l’intégralité du système géré.
Utilisez tout autre rôle autre que View Only pour exécuter cette tâche.
Integrated Virtualization Manager fournit les types suivants d’option d’arrêt pour les partitions logiques :
v Système d’exploitation (recommandé)
v Différé
v Immédiat
Chapitre 5. Live Partition Mobility
293
La méthode d’arrêt recommandée consiste à utiliser la commande d’arrêt des systèmes d’exploitation
client. L’utilisation de la méthode d’arrêt immédiat doit être utilisée en dernier recours, car tout arrêt
anormal peut entraîner une perte de données.
Si vous choisissez la méthode d’arrêt différé, prenez en compte les remarques suivantes :
v Arrêter une partition logique revient à appuyer de façon prolongée sur le bouton blanc de mise sous
tension du panneau de commande d’un serveur non partitionné.
v N’utilisez cette procédure que si vous ne parvenez pas à arrêter les partitions logiques à l’aide des
commandes du système d’exploitation. Lorsque vous utilisez cette procédure pour arrêter les partitions
logiques sélectionnées, l’arrêt n’est effectif qu’au terme d’un délai prédéterminé. Cela laisse aux
partitions logiques le temps de terminer les travaux entrepris et d’enregistrer les données sur les
disques. Si la partition logique ne parvient pas à s’arrêter dans le délai imparti, elle s’arrête de manière
anormale et le prochain redémarrage peut prendre un certain temps.
Si vous envisagez d’arrêter l’intégralité du système géré, arrêtez chaque partition logique client, puis
arrêtez la partition de gestion du serveur d’E-S virtuel.
Pour arrêter une partition logique, procédez comme suit :
1. Dans le menu Partition Management, sélectionnez View/Modify Partitions. Le panneau
View/Modify Partitions s’affiche.
2. Sélectionnez la partition logique à arrêter.
3. Cliquez sur Arrêt. Le panneau Shutdown Partitions s’affiche.
4. Sélectionnez le type d’arrêt.
5. Facultatif : Sélectionnez l’option de redémarrage après l’arrêt si vous souhaitez que la partition
logique démarre immédiatement après son arrêt.
6. Cliquez sur OK pour arrêter la partition. Sur le panneau View/Modify Partitions qui s’affiche, la
partition est arrêtée.
Pour plus d’informations sur l’arrêt des partitions logiques, voir l’aide en ligne (
).
Gestion dynamique des cartes physiques
Vous pouvez ajouter et supprimer des cartes physiques sur une partition logique en cours de
fonctionnement.
Vous pouvez modifier les paramètres de la carte physique pour une partition logique à tout moment, si la
partition est susceptible de modifications de carte d’E-S dynamiques.
Lorsque vous effectuez des modifications de carte d’E-S dynamique, gardez les remarques suivantes à
l’esprit :
v Vous risquez de perdre des données si vous retirez une carte physique d’une partition logique en cours
de fonctionnement.
v Vous ne pouvez pas affecter une carte physique à une autre partition si elle est utilisée par le système
d’exploitation de la partition à laquelle elle est actuellement affectée. Si vous essayez de réaffecter la
carte, un message d’erreur s’affiche. Vous devez annuler la configuration de l’unité à l’aide des outils
du système d’exploitation approprié avant de pouvoir changer l’affectation de partition de la carte.
Avant de commencer, assurez-vous que vous disposez de la version 1.5 ou ultérieure d’Integrated
Virtualization Manager. Pour mettre à jour Integrated Virtualization Manager, voir «Affichage et mise à
jour du niveau de code de la partition de gestion d’Integrated Virtualization Manager», à la page 217.
Pour ajouter ou supprimer des cartes physiques sur une partition logique en cours de fonctionnement,
procédez comme suit :
1. Si aucune partition logique client n’existe, passez à l’étape 4, à la page 197.
294
Guide d’utilisation de PowerVM Editions
2. Sélectionnez la partition logique à laquelle affecter une carte physique et cliquez sur Propriétés.
3. Vérifiez que l’option Oui s’affiche pour Opérations DLPAR prises en charge par la carte d’E-S. Il
peut être nécessaire de cliquer sur Récupération des fonctionnalités pour vérifier cette valeur. Si Non
s’affiche pour Opérations DLPAR prises en charge par la mémoire, vous ne pouvez pas ajouter ni
supprimer de cartes physiques sur la partition logique.
4. Dans le menu Gestion des adaptateurs d’E-S, cliquez sur Affichage/modification de cartes
physiques.
5. Sélectionnez la carte dont vous voulez modifier l’affectation de partition et cliquez sur Modification
de l’affectation de la partition.
6. Sélectionnez la partition logique à laquelle affecter la carte physique et cliquez sur OK. Pour rendre
cette carte disponible pour toute partition logique client, y compris celles qui ne sont pas encore
créées, sélectionnez Aucun(e) comme Nouvelle partition.
Ajout d’une partition logique client au groupe de charge de travail de partitions
Si vous souhaitez gérer les ressources de partition logique à l’aide d’un outil de gestion de charge de
travail, vous devez ajouter la partition logique du client au groupe de charge de travail de partitions.
Un groupe de charge de travail de partitions identifie un ensemble de partitions logiques se trouvant sur le
même système physique. Les outils de gestion de charge de travail utilisent des groupes de charge de
travail de partitions afin d’identifier les partitions logiques qu’ils peuvent gérer. Par exemple, L’outil
EWLM (Enterprise Workload Manager) peut dynamiquement et automatiquement redistribuer la capacité
de traitement dans un groupe de charge de travail de partitions afin de répondre aux objectifs de
performances de la charge de travail. EWLM règle la capacité de traitement en fonction des calculs qui
comparent les performances réelles du travail traité par le groupe de charge de travail de partitions aux
objectifs métier définis pour le travail.
Les outils de gestion de charge de travail utilisent le partitionnement logique dynamique (DLPAR) pour
effectuer un ajustement des ressources en fonction des objectifs de performances. Par exemple, la fonction
de gestion de partition d’EWLM règle les ressources du processeur en fonction des objectifs de
performance de la charge de travail. C’est pourquoi, EWLM peut régler la capacité de traitement pour les
partitions logiques AIX et Linux.
Limitations :
v N’ajoutez pas la partition de gestion au groupe de charge de travail de partitions. Pour gérer les
ressources de partition logique, les outils de gestion de charge de travail requièrent souvent
l’installation de certains logiciels agent ou de gestion sur les partitions logiques. Pour éviter la création
d’un environnement non pris en charge, n’installez pas de logiciel supplémentaire sur la partition de
gestion.
v Pour les partitions AIX et Linux, la prise en charge du partitionnement logique dynamique (DLPAR)
pour le système d’exploitation diffère de celle des fonctions qui se trouvent dans les propriétés de
partition d’une partition logique. La prise en charge du partitionnement logique dynamique pour le
système d’exploitation correspond à la prise en charge par chaque système d’exploitation au niveau
des fonctions de partitionnement logique dynamique. AIX et Linux prennent en charge l’opération
DLPAR au niveau des processeurs, de la mémoire et des E-S. Les fonctionnalités DLPAR affichées dans
les propriétés d’une partition logique correspondent à une combinaison des éléments suivants :
– une connexion RMC (Resource Monitoring and Control) entre la partition de gestion et la partition
logique du client
– la prise en charge de DLPAR par le système d’exploitation
Par exemple, la partition logique AIX client ne dispose pas de connexion RMC avec la partition de
gestion, mais AIX prend en charge l’opération DLPAR au niveau des processeurs, de la mémoire et des
E-S. Dans ce cas, les fonctionnalités DLPAR affichées dans les propriétés de la partition logique AIX
indiquent que la partition logique AIX n’est pas capable d’une opération DLPAR au niveau des
processeurs, de la mémoire ou des E-S. Toutefois, comme AIX prend en charge le partitionnement
logique dynamique des processeurs, de la mémoire et des E-S, un outil de gestion de charge de travail
Chapitre 5. Live Partition Mobility
295
peut dynamiquement gérer ses ressources. Les outils de gestion de charge de travail ne dépendent pas
des connexions RMC pour gérer dynamiquement les ressources de partition logique.
v Lorsqu’une partition logique fait partie du groupe de charge de travail de partitions, vous ne pouvez
pas gérer dynamiquement ses ressources à partir du gestionnaire Integrated Virtualization Manager, car
l’outil de gestion de charge de travail contrôle la gestion des ressources dynamiques. Les outils de
gestion de charge de travail ne gèrent pas tous dynamiquement à la fois les ressources de processeur,
de mémoire et d’E-S. Lorsque vous implémentez un outil de gestion de charge de travail qui gère
uniquement un type de ressource, vous limitez votre possibilité de gérer dynamiquement les autres
types de ressource. Par exemple, EWLM gère dynamiquement les ressources du processeur mais non la
mémoire ni les E-S. AIX prend en charge les opérations DELPAR au niveau processeur, mémoire et E-S.
EWLM contrôle la gestion des ressources du processeur, de la mémoire et des E-S pour la partition
logique AIX, mais EWLM ne gère par dynamiquement la mémoire ou les E-S. Etant donné qu’EWLM
contrôle la gestion des ressources dynamiques, vous ne pouvez pas dynamiquement gérer la mémoire
ou les E-S pour la partition logique AIX à partir du gestionnaire Integrated Virtualization Manager.
Pour ajouter une partition logique au groupe de charge de travail de partitions, procédez comme suit :
1. Dans le menu Gestion de partition, sélectionnez Affichage/Modification de partitions. La fenêtre
Affichage/Modification de partitions s’affiche.
2. Sélectionnez la partition logique à inclure dans le groupe de charge de travail de partitions.
3. Dans le menu Tâches, cliquez sur Propriétés. La fenêtre Partition Properties s’affiche.
4. Dans l’onglet Général, sélectionnez Participant au groupe de gestion de la charge de travail sur la
partition et cliquez sur OK.
Information associée
Activation de la gestion des partitions
Codes de référence de la Mobilité de partition
Les codes de référence de la Mobilité de partition sont des aides au diagnostic qui permettent de
déterminer l’origine d’un incident lié au matériel ou au système d’exploitation. L’utilisation de ces codes
permet de trouver la solution qui convient pour résoudre l’incident. Pour utiliser efficacement les codes
de référence, vous devez les associer à d’autres procédures de maintenance et d’assistance.
Pour plus d’informations sur l’identification et la résolution des problèmes, voir le Codes de référence du
système document PDF correspondant à votre modèle de serveur.
296
Guide d’utilisation de PowerVM Editions
Chapitre 6. Partition Load Manager for AIX
Le gestionnaire de chargement de partition pour AIX 5L offre des fonctions de gestion automatisée des
ressources du processeur et de la mémoire sur des partitions logiques compatibles DLPAR sur AIX 5L.
Le gestionnaire de chargement de partition alloue des ressources aux partitions à la demande, en
respectant des règles définies par l’utilisateur. Les ressources des partitions dont les besoins en ressources
sont faibles sont allouées aux partitions présentant une demande élevée de ressources, ce qui améliore
globalement l’utilisation des ressources du système. Ainsi, les ressources qui, si elles restaient allouées à
une partition qui n’en a pas besoin, demeureraient inutilisées, permettent de répondre aux besoins en
ressources d’autres partitions situées sur le même système.
Le gestionnaire de chargement de partition utilise un modèle client-serveur pour consigner et gérer
l’utilisation des ressources. Les clients, ou partitions gérées, signalent au gestionnaire de chargement de
partition si des ressources sont sous-utilisées ou sur-utilisées. Dès notification de l’un de ces événements,
le serveur du gestionnaire de chargement de partition décide ou non d’allouer des ressources suivant des
règles de gestion définies par l’utilisateur. Ces règles déterminent le volume de ressources disponibles à
allouer à chaque partition.
Le gestionnaire de chargement de partition fonctionne comme tout autre logiciel de gestion de système
puisqu’il vous permet d’afficher les ressources réparties sur vos partitions, de les regrouper en segments
gérables, d’affecter et de réaffecter ces ressources au sein d’un groupe ou à plusieurs groupes, et de
consigner localement l’activité sur les partitions. Les processus sous-jacents du gestionnaire de
chargement de partition utilisent la fonction RMC (Resource Monitoring and Control) pour la
communication en réseau avec les partitions gérées.
La configuration requise pour l’utilisation du serveur du gestionnaire de chargement de partition est la
suivante :
v Une console HMC (Hardware Management Console) doit être connectée au système géré.
v Le système du gestionnaire de chargement de partition peut s’exécuter sous AIX 5L version 5.2 avec
niveau de technologie 5200-04 ou AIX 5L version 5.3.
v Le système gestionnaire de chargement de partition peut être une partition d’un serveur géré, une
partition d’un autre serveur ou un système AIX autonome.
v Une connectivité réseau est requise entre le serveur du gestionnaire de chargement de partition et la
console HMC et chaque partition gérée.
v Plusieurs serveurs gestionnaire de chargement de partition peuvent être exécutés sur un système AIX.
v Un serveur de gestionnaire de chargement de partition peut gérer des partitions au sein d’un seul
serveur géré.
Gestionnaire de chargement de partition pour AIX
gestionnaire de chargement de partition assure la gestion et la surveillance des ressources mémoire et
processeur sur des partitions logiques au sein d’un système géré qui utilise la technologie POWER5.
gestionnaire de chargement de partition permet d’utiliser de manière plus efficace les ressources par la
définition de seuils pour des ressources spécifiques. En cas de dépassement d’un seuil, gestionnaire de
chargement de partition peut tenter d’affecter à la partition logique concernée des ressources affectées à
d’autres partitions logiques non utilisées.
Le gestionnaire de chargement de partition est fourni avec le dispositif PowerVM Editions.
297
Lorsque le gestionnaire de ressources gestionnaire de chargement de partition démarre, il enregistre
plusieurs événements sur chaque noeud des partitions logiques requises. Les événements suivants sont
enregistrés de manière individuelle sur tous les noeuds de partitions logiques gérés :
v Seuils élevés de pagination mémoire
v Seuils bas et élevés d’utilisation de la mémoire
v Seuils bas et élevés de la charge moyenne processeur
Le gestionnaire de ressources du gestionnaire de chargement de partition effectue un suivi de ces valeurs
de seuil. Chaque fois qu’un seuil est dépassé, le gestionnaire de chargement de partition reçoit un
événement RMC (Resource Monitoring and Control). Lorsque le seuil dépassé est élevé, cela signifie que
le noeud a besoin de ressources supplémentaires. Au contraire, un seuil bas indique que le noeud dispose
de plus de ressources qu’il ne lui en faut.
Lorsqu’un noeud nécessite des ressources supplémentaires, le gestionnaire de chargement de partition
détermine si ce noeud peut accepter d’autres ressources. Si le noeud peut accepter des ressources
supplémentaires, le gestionnaire de chargement de partition recherche les ressources disponibles. Ces
ressources peuvent figurer aux emplacements suivants :
v Pool libre, c’est-à-dire la liste des ressources actuellement inutilisées et gérées par gestionnaire de
chargement de partition. Ces ressources sont librement réaffectées.
v Noeuds indiquant par le biais d’événements qu’ils peuvent céder des ressources. Ces ressources sont
retirées des noeuds qui n’en ont pas besoin et réaffectées au noeud nécessitant des ressources
supplémentaires.
v Ressource issue d’un noeud qui en fait un moindre usage, ou une moindre priorité, que le noeud
nécessitant la ressource. Ces ressources sont retirées du noeud d’une priorité inférieure et réaffectées au
noeud nécessitant des ressources supplémentaires.
Pour déterminer le noeud qui nécessite plus ou moins de ressources, il est essentiel de tenir compte de
certaines valeurs définies dans un fichier de règles. Ce fichier de règles détaille les partitions, leurs
autorisations et leurs seuils, puis les répartit en plusieurs groupes. Chaque noeud (et non chaque
partition logique) géré par gestionnaire de chargement de partition doit être défini dans le fichier de
règles avec les différentes valeurs d’attribut associées. Certains des attributs associés au noeud sont les
valeurs maximales, minimales et garanties pour les ressources, les valeurs de partage variables, etc.
gestionnaire de chargement de partition tient compte de ces attributs en cas de décision à prendre pour la
réallocation d’une ressource d’une partition logique vers une autre.
Par exemple, il est probable qu’une machine cède ses ressources à un noeud dont la valeur d’attribut de
partages variables est plus élevée si la machine a une valeur d’attribut de partages variables inférieure et
si ses ressources sont supérieures à la valeur de ressource garantie dans le fichier de règles.
Préparation de l’installation du gestionnaire de chargement de
partition
La présente rubrique explique comment installer le gestionnaire de chargement de partition.
Avant d’installer le gestionnaire de chargement de partition, effectuez les opérations suivantes :
Résolution de nom
Résolvez le nom d’hôte en procédant comme suit :
1. Définissez le nom d’hôte sur chaque partition logique en lui attribuant le nom d’hôte qualifié complet,
par exemple lpar1.domain.com.
298
Guide d’utilisation de PowerVM Editions
2. Si vous n’utilisez pas un serveur de noms, modifiez le fichier /etc/hosts sur chaque partition logique
afin qu’il comprenne le nom d’hôte du serveur du gestionnaire de chargement de partition, comme le
montre l’exemple suivant :
172.16.0.30
172.16.0.100
lpar1.domain.com
plmserver1.domain.com
lpar1
plmserver1
3. Si vous n’utilisez pas un serveur de noms, modifiez le fichier /etc/hosts sur le serveur du gestionnaire
de chargement de partition afin qu’il comprenne les noms d’hôte des partitions logiques et de la
console HMC, comme le montre l’exemple suivant :
172.16.0.100
172.16.0.30
172.16.0.33
172.16.0.3
plmserver1.domain.com
lpar1.domain.com
lpar2.domain.com
p5hmc1.domain.com
plmserver1
lpar1
lpar2
p5hmc1
Partitionnement logique dynamique sur les partitions logiques
Déterminez la capacité de partitionnement logique dynamique des partitions logiques en exécutant ce qui
suit :
1. Pour déterminer si chaque partition logique est capable de partitionnement logique dynamique,
exécutez la commande suivante :
lssrc -a | grep rsct
Si le démon Gestionnaire de ressources Partition Load Manager est en cours d’exécution, la partition
logique a une session RMC (Resource Monitoring and Control) active avec la console HMC et est
capable de partitionnement logique dynamique.
Si le démon du gestionnaire de ressources du gestionnaire de chargement de partition n’est pas actif,
vérifiez la résolution de nom et la connectivité réseau entre la console HMC et la partition logique.
2. Si vous avez modifié le nom d’hôte sans réinitialiser le système, recyclez les démons RMC sur chaque
partition logique en exécutant les commandes suivantes :
/usr/sbin/rcst/bin/rmcctrl -z
/usr/sbin/rsct/bin/rmcctrl -s
Accès RSH et RCP aux partitions logiques gérées à partir du serveur du gestionnaire de chargement de
partition
Un accès au shell éloigné (rsh) et au panneau de commande éloigné (rcp) est requis pour toutes les
partitions logiques pour configurer le gestionnaire de chargement de partition. Si rsh et rcp ont été
désactivés pour des raisons de sécurité, procédez comme suit pour activer ces services :
1. Editez le fichier .rhosts sur chaque partition logique et ajoutez les lignes suivantes :
plmserver1 root
plmserver1.domain.com root
2. Activez rsh et rcp sur chaque partition logique en exécutant les commandes suivantes :
chmod 4554 /usr/sbin/rshd
chmod 4554 /usr/bin/rcp
3. Editez le fichier /etc/inetd.conf et annulez la mise en commentaire de la ligne suivante :
shell stream tcp6 nowait root /usr/sbin/rshd rshd
4. Redémarrez le démon inetd en exécutant la commande suivante :
refresh -s inetd
5. Testez l’accès rsh à partir du serveur du gestionnaire de chargement de partition sur chaque partition
logique en exécutant les commandes suivantes :
rsh lpar1 -l root date
rsh lpar2 -l root date
Chapitre 6. Partition Load Manager for AIX
299
Création d’un ID utilisateur AIX pour le gestionnaire de chargement de partition
Le serveur du gestionnaire de chargement de partition est un programme setuid qui s’exécute à l’aide de
l’ID utilisateur configuré. Cet utilisateur doit échanger des clés ssh avec l’utilisateur de la console HMC
configuré et disposer des droits requis sur RMC avant d’exécuter le gestionnaire de chargement de
partition. Utilisez n’importe laquelle des interfaces de gestion pour créer l’ID plmuser sur le serveur du
gestionnaire de chargement de partition.
Installation des outils logiciels OpenSSH
La présente rubrique explique comment télécharger et installer des outils logiciels OpenSSH sur une
partition logique AIX. OpenSSH doit être configuré afin de faciliter l’authentification et la communication
entre le serveur du gestionnaire de chargement de partition et la console HMC (Hardware Management
Console) de contrôle.
Lorsque le gestionnaire gestionnaire de chargement de partition répond à une demande de ressource, il
utilise des commandes HMC distantes pour collecter les informations de partition et initier les opérations
de partitionnement logique dynamique. Il est nécessaire que la tâche Activation ou désactivation de
l’exécution des commandes à distance de la console HMC soit activée pour que cette dernière puisse
communiquer avec OpenSSH.
Lorsque vous configurez un utilisateur sur la console HMC pour OpenSSH, attribuez-lui l’un des rôles
suivants :
v Administrateur système
v Technicien de maintenance
v Chef opérateur
L’utilisation d’OpenSSH n’est possible que si un utilisateur est défini sur la console HMC avec des droits
de commande à distance. Cet utilisateur doit échanger des clés ssh avec l’utilisateur de console HMC
configuré mais il n’est pas obligatoirement celui qui porte l’ID plmuser.
Les outils logiciels OpenSSH prennent en charge les protocoles SSH1 et SSH2. Ils offrent des fonctions
d’interpréteur de commandes permettant le chiffrement et l’authentification réseau. OpenSSH repose sur
une architecture client et serveur. OpenSSH lance le processus démon sshd sur l’hôte AIX, puis patiente
jusqu’à l’établissement d’un connexion par les clients. OpenSSH prend en charge les paires de clés
publiques et privées pour l’authentification et le chiffrement de canaux permettant de sécuriser les
connexions réseau et l’authentification par l’hôte. Pour davantage d’informations sur OpenSSH,y compris
les pages d’aide, voir http://www.openssh.org.
Le logiciel OpenSSH est fourni dans AIX 5.3 Expansion Pack. Cette version d’OpenSSH est compilée et
proposée sous la forme de modules installp utilisant le code source de niveau openssh-3.7.1p2. Les
modules installp comportent des pages man et des jeux de fichiers de messages traduits. Le programme
OpenSSH contenu sur le support CD-ROM Expansion Pack est fourni sous licence conformément aux
dispositions des (IPLA) non garantis.
Avant d’installer les modules installp d’OpenSSH , vous devez installer le logiciel OpenSSL (Open Secure
Sockets Layer) qui contient la bibliothèque chiffrée.
Après avoir téléchargé le module OpenSSL, vous pouvez installer OpenSSL et OpenSSH.
1. Installez le module OpenSSL RPM à l’aide de la commande geninstall comme suit :
# geninstall -d/répertoire R:openssl-0.9.6g
où répertoire est le nom du répertoire dans lequel télécharger le module OpenSSL. Un message
semblable à ce qui suit s’affiche :
300
Guide d’utilisation de PowerVM Editions
SUCCESSES
--------openssl-0.9.6g-3
2. Installez les modules installp d’OpenSSH à l’aide de la commande geninstall, comme suit :
# geninstall -Y -d/répertoire I:openssh.base
Utilisez l’option -Y pour indiquer que vous acceptez le contrat de licence OpenSSH après avoir pris
connaissance du texte de licence.
Pour afficher le contrat de licence, tapez la commande suivante :
# geninstall -IapE -drépertoire openssh.base 2>&1 |pg
Dès que vous avez accepté le contrat de licence, un message semblable à ce qui suit s’affiche :
Installation Summary
-------------------Name
Level
Part
Event
Result
------------------------------------------------------------------------------openssh.base.client
3.6.0.5200
USR
APPLY
SUCCESS
openssh.base.server
3.6.0.5200
USR
APPLY
SUCCESS
openssh.base.client
3.6.0.5200
ROOT
APPLY
SUCCESS
openssh.base.server
3.6.0.5200
ROOT
APPLY
SUCCESS
Vous pouvez également afficher le contrat de licence et installer OpenSSL et OpenSSH respectivement à
l’aide des raccourcis license_on_media et install_software de SMIT.
Les fichiers binaires OpenSSH suivants sont installés à l’issue de la procédure précédemment décrite :
scp
Programme de copie de fichiers similaire à rcp
sftp
Programme similaire à FTP compatible avec les protocoles SSH1 et SSH2
sftp-server
Sous-système de serveur SFTP (démarré automatiquement par le serveur démon sshd)
ssh
Similaire aux programmes clients rlogin et rsh
ssh-add
Outil permettant d’ajouter des clés dans ssh-agent
ssh-agent
Agent permettant de stocker des clés privées
ssh-keygen
Outil de génération de clé
ssh-keyscan
Utilitaire permettant de regrouper des clés hôtes publiques à partir d’un certain nombre de
système hôtes
ssh-keysign
Utilitaire permettant une authentification hôte
sshd
Serveur démon utilisé pour permettre la connexion
Accès SSH à la console HMC depuis le serveur du gestionnaire de chargement de partition
Une fois que SSH est installé, vous pouvez générer les clés SSH et communiquer avec la console HMC.
Si vous allez exécuter le serveur du gestionnaire de chargement de partition sous l’ID plmuser, octroyez
l’accès SSH à la console HMC à partir du serveur du gestionnaire de chargement de partition en
procédant comme suit :
1. Connectez-vous sous l’ID plmuser.
Chapitre 6. Partition Load Manager for AIX
301
2. Générez les clés SSF sur le serveur du gestionnaire de chargement de partition à l’aide de la
commande suivante :
ssh-keygen -t
rsa
3. Echangez les clés SSH avec la console HMC à l’aide des commandes suivantes :
scp hscroot@p5hmc1:.ssh/authorized_keys2 ~/.ssh/tmp_authorized_keys2
cat ~/.ssh/id_rsa.pub >> ~/.ssh/tmp_authorized_keys2
scp ~/.ssh/tmp_authorized_keys2 hscroot@p5hmc1:.ssh/authorized_keys2
4. Testez l’accès SSH à la console HMC avec l’ID plmuser sans utiliser de mot de passe, à l’aide de la
commande suivante :
ssh hscroot@p5hmc1 date
5. Procurez-vous le nom du système géré auprès de la console HMC à l’aide de la commande suivante :
ssh hscroot@p5hmc1 lssyscfg -r sys
Sauf si le nom du système géré est modifié sur la console HMC à l’aide de l’onglet Propriétés du
système géré, le nom par défaut du système géré est du type suivant :
server-9117-570-SNxxxxxxx
Remarque : Le nom d’hôte de la console HMC utilisé dans la configuration et le nom du système
géré sont indiqués dans la règle du gestionnaire de chargement de partition. Si vous possédez
plusieurs systèmes gérés, déterminez celui qui contient les partitions à gérer. Pour chaque système
géré, utilisez la commande suivante :
ssh hmcuser@hmchost lssyscfg –r lpar –m machine
Information associée
AIX Toolbox for Linux Applications
Installation du serveur du gestionnaire de chargement de partition
La présente rubrique explique comment installer le serveur du gestionnaire de chargement de partition
sur une partition logique AIX.
Pour installer le serveur du gestionnaire de chargement de partition, procédez comme suit :
1. Chargez le CD du gestionnaire de chargement de partition sur votre système.
2. A l’aide de la commande installp ou du raccourci smitty install_latest, installez les jeux de fichiers
suivants :
v plm.license
v plm.server.rte
v plm.sysmgt.websm
v plm.msg.en_US.server
v plm.msg.en_US.websm
3. Lisez et acceptez le contrat de licence.
Maintenant que le serveur du gestionnaire de chargement de partition est installé, vous pouvez créer un
fichier de règles et configurer RMC (Resource Monitoring and Control) pour le gestionnaire de
chargement de partition. Si vous créez d’abord le fichier de règles et que Web-based System Manager est
utilisé, vous pouvez avoir recours à ce fichier de règles pour entrer la liste de partitions en cours de
gestion.
302
Guide d’utilisation de PowerVM Editions
Configuration du fichier de règles
La présente rubrique explique comment configurer le fichier de règles du serveur du gestionnaire de
chargement de partition.
Concepts relatifs au fichier de règles
Le système utilise un fichier de règles afin de déterminer les ressources du processeur et de la mémoire
que le serveur du gestionnaire de chargement de partition peut gérer. La règle inclut également des
partages de ressources, des définitions de groupe et des paramètres réglables. Ce fichier définit les
partitions qui doivent être gérées, leurs autorisations garanties, ainsi que leurs autorisations d’utilisation
minimales et maximales.
Le fichier de règles se divise en sections, chacune d’elles comportant une zone type. Chaque section
respecte le format suivant :
<intitulé_section>
attribute=<valeur>
attribute2=<valeur>
type=<valeur>
Pour le fichier de règles, les points suivants doivent être respectés :
v Le fichier de règles se compose de sections contenant des attributs.
v Les noms de section ne peuvent pas contenir des caractères blancs et doivent être immédiatement
suivis de deux-points (:). Un nom de section ne peut être suivi que d’un espace ou d’un commentaire.
Pour une meilleure lisibilité, entrez les noms de strophe en commençant sur la 1ère colonne de la ligne.
Les types de section suivants sont pris en charge :
– globals:
– tunables:
– group_name:
– partition_name:
v Les attributs se composent d’un nom et d’une valeur séparés par un signe égal (=). Les noms et les
valeurs d’attribut ne peuvent pas contenir de blancs. Seuls un espace ou un commentaire peuvent faire
suite à la valeur. Pour une meilleure lisibilité, entrez les attributs de façon à ce qu’ils soient en retrait
sous le nom de la strophe qui les contient.
v Un attribut ne doit pas être répété dans une section. Dans une section, seul le premier attribut est
utilisé.
v Les commentaires doivent commencer par le caractère dièse (#). Les commentaires peuvent commencer
sur n’importe quelle colonne de la ligne et aller jusqu’à la fin de la ligne.
v Les sections peuvent être placées dans n’importe quel ordre dans le fichier de règles. Nous vous
suggérons l’ordre suivant :
1. Section globals
2. Section tunables
3. Section group pour le premier groupe
4. Sections partition pour les partitions du premier groupe
5. Section repeat group/partition pour les groupes suivants
Les types de sections disponibles et leurs attributs sont décrits comme suit :
Section globals :
Cette section indique l’environnement global pour le serveur du gestionnaire de chargement de
partition. Seules des sections globals peuvent figurer dans une règle du gestionnaire de
chargement de partition.
Chapitre 6. Partition Load Manager for AIX
303
Les attributs suivants sont requis dans la section globals :
Attribut
Description
hmc_host_name
Nom d’hôte de la console HMC (Hardware Management Console) qui gère le serveur
contenant les partitions gérées. Il s’agit du nom d’hôte qui a été utilisé pour la console
HMC lors de l’échange des clés ssh.
hmc_cec_name
Le nom du système géré de la console HMC pour le serveur qui contient les partitions
gérées.
hmc_user_name
Nom d’utilisateur employé par le gestionnaire de chargement de partition pour envoyer
des commandes OpenSSH à la console HMC.
L’attribut suivant est facultatif dans la section globals :
Attribut
Valeur
minimale
Valeur
maximale
Valeur par
défaut
hmc_command_wait
1 minute
60 minutes
5 minutes
Description
Délai (en minutes) observé par le
gestionnaire de chargement de
partition avant dépassement du
délai d’une commande HMC. Il
s’agit du dépassement de délai DR
(DR Phase Timeout), l’une des trois
phases.
Section tunables :
Cette section facultative permet d’indiquer les attributs réglables pour les partitions gérées. Il
n’existe pas d’attributs obligatoires dans cette section. Le gestionnaire gestionnaire de chargement
de partition a sélectionné des valeurs par défaut pour ces attributs qui sont adaptées à la plupart
des installations. Toutefois, les installations ayant des exigences particulières peuvent
personnaliser leur installation en spécifiant les attributs dans la strophe. Les attributs des strophes
réglables peuvent également être spécifiés dans les strophes de groupe et de partition. Un attribut
réglable pour une partition s’obtient en respectant l’ordre suivant :
1. A partir de la section partition.
2. A partir de la section group contenant la partition si l’attribut réglable n’est pas spécifié dans
la section partition.
3. A partir de la section tunables si l’attribut réglable n’est pas spécifié dans les sections partition
ou group.
4. La valeur par défaut est utilisée si l’attribut réglable n’est pas spécifié dans les sections
partition, groupe ou tunables.
Indiquez l’un des attributs processeur suivants :
Attribut
Valeur
minimale
Valeur
maximale
Valeur
par
défaut
cpu_intervals
1
100
6
304
Guide d’utilisation de PowerVM Editions
Description
Le nombre de périodes de 10 secondes
qu’un échantillon d’UC doit traverser avant
que le gestionnaire gestionnaire de
chargement de partition ne s’active.
L’indication d’une valeur plus élevée peut
augmenter le temps de réaction du
gestionnaire de chargement de partition aux
modifications du système. Une valeur plus
faible active le gestionnaire de chargement
de partition plus rapidement.
Attribut
Valeur
minimale
Valeur
maximale
Valeur
par
défaut
cpu_load_low
0,10
1.00
0.5
Valeur basse du seuil de charge moyenne de
l’UC. Une partition dont la charge moyenne
est inférieure à cette valeur est considérée
comme fonctionnant en sur-capacité.
Remarque : Le delta minimum entre
cpu_load_low et cpu_load_high est de 0.10.
cpu_load_high
0.2
10
1
Valeur haute du seuil de charge moyenne de
l’UC. Une partition dont la charge moyenne
est supérieure à cette valeur est considérée
comme fonctionnant en sous-capacité.
Remarque : Le delta minimum entre
cpu_load_low et cpu_load_high est de 0.10.
Non
Indique si la capacité d’UC non utilisée par
une partition est retirée de cette dernière. La
valeur Non indique qu’une capacité d’UC
non nécessaire reste dans la partition jusqu’à
ce qu’une autre partition en ait besoin. La
valeur Oui indique qu’une capacité d’UC
non nécessaire est retirée de la partition
lorsque la partition n’en a plus besoin.
cpu_free_unused
Description
Indiquez l’un des attributs processeur partagé suivants :
Attribut
Valeur
minimale
Valeur
maximale
Valeur par
défaut
ec_delta
1
100
10
Capacité d’UC qui peut être ajoutée ou
retirée à une partition de processeur partagé.
Cette valeur indique la capacité (en
pourcentage) autorisée pour ajout ou retrait.
ec_per_vp_min
0.1
0.9
0.5
Capacité minimale autorisée par processeur
virtuel. Cet attribut permet d’empêcher la
dégradation de performances d’une partition
qui utiliserait trop de processeurs par
rapport à sa capacité autorisée. Lorsque cette
capacité autorisée est retirée d’une partition,
les processeurs virtuels correspondants sont
également retirés si la capacité autorisée de
chaque processeur virtuel est inférieure à la
valeur indiquée ici.
Remarque : Le delta minimum entre
ec_per_vp_min et ec_per_vp_max est 0.10.
ec_per_vp_max
0.2
1
0.8
Capacité maximale autorisée par processeur
virtuel. Cet attribut contrôle la capacité
disponible qui peut être utilisée par une
partition d’UC non bridée. Lorsque la
capacité autorisée est ajoutée à une partition,
les processeurs virtuels correspondants sont
également ajoutés si la capacité autorisée de
chaque processeur virtuel est supérieure à la
valeur indiquée ici. L’augmentation du
nombre de processeurs virtuels sur une
partition non bridée permet à cette dernière
d’utiliser une capacité d’UC supérieure.
Remarque : Le delta minimum entre
ec_per_vp_min et ec_per_vp_max est 0.10.
Description
Chapitre 6. Partition Load Manager for AIX
305
Indiquez l’un des attributs mémoire suivants :
Attribut
Valeur
minimale
Valeur
maximale
Valeur par
défaut
mem_intervals
1
100
6
Le nombre de périodes de 10 secondes
qu’un échantillon de mémoire doit
traverser avant que le gestionnaire
gestionnaire de chargement de
partition ne s’active. L’indication d’une
valeur plus élevée peut augmenter le
temps de réaction du gestionnaire de
chargement de partition aux
modifications du système. Une valeur
plus faible active le gestionnaire de
chargement de partition plus
rapidement.
mem_util_low
1
90
50
Valeur basse du seuil d’utilisation de
la mémoire. Une partition dont
l’utilisation de mémoire est inférieure à
cette valeur est considérée comme
fonctionnant en sur-capacité. Les
unités sont exprimées en pourcentages.
Remarque : Le delta minimum entre
mem_util_low et mem_util_high est
10.
mem_util_high
1
100
90
Valeur haute du seuil d’utilisation de
la mémoire. Une partition dont
l’utilisation de mémoire est supérieure
à cette valeur est considérée comme
fonctionnant en sous-capacité. Les
unités sont exprimées en pourcentages.
Remarque : Le delta minimum entre
mem_util_low et mem_util_high est
10.
mem_pgstl_high
0
2147483647
0
Seuil de rafraîchissement de pages.
Une partition dont la fréquence de
rafraîchissement de pages, qui
correspond au nombre de
rafraîchissements de page par seconde,
est supérieure ou égale à cette valeur
est considérée comme fonctionnant en
sous-capacité. Les unités sont
exprimées en valeurs d’entier. Le
résultat du contrôle de ce seuil fait
l’objet d’une opération ET logique avec
le résultat du contrôle du seuil
mem_util_high lorsque vous
déterminez si la mémoire est requise.
306
Guide d’utilisation de PowerVM Editions
Description
Valeur
minimale
Attribut
Valeur
maximale
mem_free_unused
mem_delta
1
256
Valeur par
défaut
Description
Non
Indique à quel moment la mémoire
non utilisée par une partition est
retirée de cette dernière. La valeur
Non indique que la mémoire non
nécessaire reste dans la partition
jusqu’à ce qu’une autre partition en ait
besoin. La valeur Oui signifie que la
mémoire non utilisée est retirée de la
partition lorsque celle-ci n’en a plus
besoin.
Spécifie
qu’un bloc
LMB doit
être retiré ou
ajouté sur la
partition à
un moment
donné.
Quantité de mémoire à ajouter ou à
retirer sur une partition. Les unités
sont indiquées en mégaoctets. Si la
valeur indiquée est inférieure à la taille
LMB (bloc mémoire logique) du
système, elle est arrondie à cette
dernière. Si cette valeur est supérieure
à la taille LMB du système, elle est
également arrondie à cette dernière.
Section group_name :
Cette section indique le nom et les attributs globaux d’un groupe ainsi que le ou les sections
réglables. Le nom d’une section group indique le nom du groupe. La section group vous permet
de créer plusieurs groupes de partitions qui sont gérés de manière indépendante. Au moins un
groupe doit être défini.
Les attributs suivants sont requis dans la section group :
v type = group
v cpu_maximum
v mem_maximum
L’attribut cpu_maximum indique si la gestion processeur est souhaitée pour les partitions du
groupe et, si besoin est, la capacité processeur à affecter aux partitions. Si la gestion de processeur
est spécifiée, elle est exécutée pour toutes les partitions du groupe. Spécifier une valeur
cpu_maximum de 0 indique que la gestion de processeur n’est pas exécutée pour les partitions
du groupe.
Ces partitions doivent toutes être dotées du même type de processeur. L’attribut cpu_type
indique le type de processeur de toutes les partitions du groupe. Sa syntaxe est la suivante :
cpu_type = dedicated | shared
L’attribut mem_maximum indique si la gestion mémoire est souhaitée pour les partitions du
groupe et, si besoin est, la capacité mémoire à affecter aux partitions. Si la gestion mémoire est
spécifiée, elle est exécutée pour toutes les partitions du groupe. Spécifier une valeur
mem_maximum de 0 indique que la gestion mémoire n’est pas exécutée pour les partitions du
groupe.
Vous pouvez indiquer pour les attributs cpu_maximum et mem_maximum des valeurs
supérieures au volume de ressources physiques du serveur. Dans ce cas, toutes les ressources
disponibles vont être utilisées pour répondre aux demandes de ressources des partitions gérées.
Les attributs suivants sont requis dans cette section :
Chapitre 6. Partition Load Manager for AIX
307
Attribut
Description
type=group
Attribut identifiant cet élément en tant que section
group. Cet attribut doit être indiqué sous la forme type =
group.
cpu_maximum
Capacité d’UC maximale à affecter aux partitions du
groupe. Les unités sont indiquées en unités UC
physiques. La valeur 0 indique que les UC ne sont pas
gérées pour les partitions du groupe.
mem_maximum
Quantité maximale de mémoire à affecter aux partitions
du groupe. Les unités sont indiquées en mégaoctets
(Mo). La valeur 0 indique qu’aucune mémoire ne doit
être gérée pour les partitions du groupe.
cpu_type
Type de processeur des partitions du groupe. Toutes les
partitions du groupe doivent être du même type. La
valeur de l’attribut doit être dédiée ou partagée.
Section partition_name :
Cette section indique le nom et les attributs d’une partition. Une section partition est requise pour
chaque partition gérée.
Le nom de la section partition correspond au nom d’hôte de la partition gérée.
Les attributs suivants sont requis dans la section partition :
v type = partition
v group = group_name
Les attributs suivants sont facultatifs dans la section partition :
v cpu_minimum
v cpu_guaranteed
v cpu_maximum
v cpu_shares
v mem_minimum
v mem_guaranteed
v mem_maximum
v mem_shares
Lorsqu’elles ne sont pas indiquées, les valeurs d’attribut cpu_minimum, cpu_guaranteed et
cpu_maximum sont extraites respectivement des valeurs de définition relatives à l’UC minimale,
souhaitée et à la partition HMC maximale. De la même façon, les valeurs d’attribut
mem_minimum, mem_guaranteed et mem_maximum sont extraites des valeurs de définition
relatives à la mémoire de partition HMC minimale, souhaitée et maximale. Les valeurs de
partages par défaut sont 1.
Si des valeurs minimale, garantie et maximale sont indiquées dans les règles, elles doivent
respecter les conditions de relation suivantes :
minimum <= guaranteed <= maximum
Si la gestion des ressources d’UC ou de mémoire n’est pas souhaitée sur une partition spécifique
d’un groupe, les valeurs de ressource peuvent être toutes définies par une même valeur. Si la
gestion des ressources d’UC ou de mémoire n’est pas souhaitée pour l’ensemble des partitions
d’un groupe, les attributs cpu_maximum ou mem_maximum peuvent avoir pour valeur 0 dans la
définition de groupe.
Toute valeur d’UC ou de mémoire spécifiée dans la règle doit être compatible avec la définition
de partition HMC des partitions. Vous ne pouvez pas utiliser le gestionnaire de chargement de
308
Guide d’utilisation de PowerVM Editions
partition pour réduire une valeur minimale de partition en deçà de la valeur minimale de la
console HMC. Vous ne pouvez pas non plus utiliser le gestionnaire de chargement de partition
pour augmenter une valeur maximale de partition au-delà de la valeur maximale de la console
HMC. Les administrateurs système sont tenus de s’assurer de la compatibilité entre les règles du
gestionnaire de chargement de partition et les définitions de partition HMC.
Les attributs cpu_shares et mem_shares sont facultatifs dans la section partition, la valeur par
défaut étant 1.
La valeur par défaut de cpu_shares doit être égale aux partages de toutes les partitions du
groupe. La valeur cpu_shares par défaut pour les partitions de processeur partagées, non bridées,
n’est pas obtenue à partir de l’attribut de poids variable de la définition HMC de partition. Si
l’attribut cpu_shares n’est pas indiqué, le gestionnaire de chargement de partition ne définit pas
l’attribut HMC de poids variable pour la partition. (La valeur de poids variable définie par la
console HMC est utilisée.) Si l’attribut cpu_shares est indiqué et que la partition est partagée ou
non bridée, le gestionnaire de chargement de partition définit l’attribut HMC de poids variable de
la partition à partir de la valeur de cpu_shares.
Les attributs réglables suivants sont utilisés dans la section partition :
Attribut
Valeur
minimale
Valeur
maximale
Valeur par
défaut
Description
type
Attribut obligatoire identifiant cet
élément en tant que section partition.
Cet attribut doit être indiqué sous la
forme type = partition.
group
Attribut obligatoire indiquant le
groupe qui contient cette partition.
cpu_minimum
Capacité d’UC minimale à affecter à
une partition. Les unités sont
indiquées en unités UC physiques.
cpu_guaranteed
Capacité d’UC garantie à affecter à une
partition. Les unités sont indiquées en
unités UC physiques.
cpu_maximum
Capacité d’UC maximale à affecter à la
partition. Les unités sont indiquées en
unités UC physiques.
cpu_shares
0
255
1
Facteur sans unités utilisé pour
indiquer comment la capacité d’UC
disponible excédentaire de l’attribut
cpu_guaranteed est distribuée aux
partitions du groupe. La capacité d’UC
disponible excédentaire est affectée aux
partitions au moyen de la formule
suivante :
(cpu_shares) / (somme de cpu_shares
à partir des partitions actives du
groupe)
Remarque : La valeur minimale 0
limite une partition à la seule réception
de sa capacité d’UC garantie
(cpu_guaranteed).
mem_minimum
Quantité de mémoire minimale à
affecter à la partition. Les unités sont
indiquées en mégaoctets (Mo).
Chapitre 6. Partition Load Manager for AIX
309
Attribut
Valeur
minimale
Valeur
maximale
Valeur par
défaut
Description
mem_guaranteed
Quantité de mémoire garantie à
affecter à la partition. Les unités sont
indiquées en mégaoctets (Mo).
mem_maximum
Quantité de mémoire maximale à
affecter à la partition. Les unités sont
indiquées en mégaoctets (Mo).
mem_shares
0
255
1
Facteur sans unités utilisé pour
indiquer comment la quantité de
mémoire disponible excédentaire de
l’attribut mem_guaranteed est
distribuée aux partitions du groupe. La
quantité de mémoire disponible
excédentaire est affectée aux partitions
au moyen de la formule suivante :
(mem_shares) / (somme des
mem_shares des partitions)
Remarque : La valeur minimale 0
limite une partition à la seule réception
de sa quantité de mémoire garantie
(mem_guaranteed).
Exemple de création et de configuration de fichier de règles
A l’aide de Web-based System Manager, créez un fichier de règles en procédant comme suit.
Remarque : Si vous utilisez un serveur X distant, définissez la variable DISPLAY et utilisez la commande
wsm & pour démarrer le client Web-based System Manager.
1. Créez un fichier de règles.
2. Ajoutez le nom du fichier de règles : /etc/plm/policies/plm1
3. Ajoutez les valeurs globales suivantes pour les zones suivantes :
Nom de la console HMC (Hardware Management Console) : p5hmc1
Nom d’utilisateur de la console HMC : hscroot
Nom du complexe électronique central : serveur-9117-570-SNxxxxxxx
4. Procurez-vous les noms de partitions logiques et des paramètres de la console HMC en exécutant les
commandes suivantes :
v ssh hscroot@p5hmc1 lssyscfg -r lpar -m serveur-9117-570-SNxxxxxxx (noms des partitions
logiques et noms de profil par défaut)
v ssh hscroot@p5hmc1 lshwres -r proc -m serveur-9117-570-SNxxxxxxx --level lpar (paramètres)
v ssh hscroot@p5hmc1 lshwres -r proc -m serveur-9117-570-SNxxxxxxx --level sys (ressources
système)
La sortie comprend les informations suivantes :
v name=lpar1, default_profile=default
v curr_min_proc_units=0.5, curr_proc_units=0.75, curr_max_proc_units=1.25
v name=lpar2, default_profile=default
v curr_min_proc_units=0.5, curr_proc_units=0.75, curr_max_proc_units=1.25
5. Ajoutez les informations de groupe suivantes au fichier de règles :
Nom du groupe : plm1
UC maximum : 1.75
310
Guide d’utilisation de PowerVM Editions
Mémoire maximum : N/A
Type UC : partagé
Sélectionnez CPU management
Désélectionnez Memory management
6. Ajoutez les informations suivantes pour les partitions pour la gestion des ressources UC :
v Nom de partition : lpar1.domain.com (il s’agit du nom d’hôte entièrement qualifié de lpar1)
v Nom du groupe : plm1
v Droits de la ressource :
UC minimum : 0,5
UC garantie : 0,75
UC maximum : 1,25
Parts variable UC : 1 (par défaut)
v Nom de partition : lpar2.domain.com
v Nom du groupe : plm1
v Droits de la ressource :
UC minimum : 0,5
UC garantie : 0,75
UC maximum : 1,25
Parts variable UC : 1 (par défaut)
v Attributs réglables :
Seuil haut de la moyenne de la charge UC : 0,8
Seuil bas de la moyenne de la charge UC : 0,2
Détermination de l’état d’une partition
Le gestionnaire de chargement de partition permet de demander l’état des partitions logiques de votre
système géré.
Tout utilisateur peut exécuter la commande xlplm pour afficher les informations d’état relatives aux
instances du gestionnaire de chargement de partition.
Détermination de l’état du gestionnaire de chargement de partition
Afin de déterminer l’état de toutes les instances en cours du gestionnaire de chargement de partition,
entrez la commande suivante :
xlplm -Q
Une liste des instances en cours d’exécution s’affiche. Si aucune instance n’est en cours d’exécution, rien
ne s’affiche.
Détermination des attributs d’une instance
Pour déterminer les attributs d’une instance unique, entrez la commande suivante, où test1 est le nom
de l’instance :
xlplm -Q test1
Le résultat de cette commande est similaire à ce qui suit :
PLM Instance: test1
GROUP: group1
CUR
MAX
AVAIL
RESVD
MNGD
Chapitre 6. Partition Load Manager for AIX
311
CPU:
MEM:
6.00
8192
4.00
8192
0.00
0
0.00
0
Yes
Yes
GUAR
3.00
4096
MAX
3.00
4096
SHR
MAX
3.00
4096
SHR
thimblelp10.server.company.com
RESOURCES:
CUR
CPU:
3.00
MEM:
4096
MIN
1.00
1024
1
1
thimblelp11.server.company.com
RESOURCES:
CUR
CPU:
3.00
MEM:
4096
MIN
1.00
1024
GUAR
3.00
4096
1
1
Affichage d’informations supplémentaires
Pour afficher des informations supplémentaires concernant une instance spécifique, entrez la commande
suivante, où test1 est le nom de l’instance :
xlplm -v -Q test1
Le résultat prolixe de cette commande est similaire à ce qui suit :
PLM Instance: test1
CEC Name
Mode
Policy
Log
HMC Host
HMC User
Thimble
monitor
/etc/plm/policies/policy1
/tmp/log.test
kbuphsc2.server.company.com
hscroot
GROUP: group1
CUR
CPU:
6.00
MEM:
8192
MAX
4.00
8192
AVAIL
0.00
0
RESVD
0.00
0
MNGD
Yes
Yes
CPU TYPE: dedicated
thimblelp10.server.company.com
RESOURCES:
CUR
CPU:
3.00
MEM:
4096
MIN
1.00
1024
GUAR
3.00
4096
MAX
3.00
4096
SHR
1
1
TUNABLES:
INTVL
6
6
CPU:
MEM:
FRUNSD
LOADLO
LOADHI
DELTA
0
0.40
1.00
1.00
0
50%
90%
256
PGSTL
0\
thimblelp11.server.company.com
RESOURCES:
CUR
CPU:
3.00
MEM:
4096
MIN
1.00
1024
GUAR
3.00
4096
MAX
3.00
4096
SHR
1
1
TUNABLES:
CPU:
MEM:
INTVL
6
6
FRUNSD
LOADLO
LOADHI
DELTA
0
0.40
1.00
1.00
0
50%
90%
256
PGSTL
0
*****************************************************************************
312
Guide d’utilisation de PowerVM Editions
Affectation de ressources à des partitions
Vous pouvez affecter des ressources à des partitions spécifiques et même réserver des ressources pour des
partitions spécifiques quelle que soit la période à laquelle ces partitions utiliseront ces ressources. Vous
pouvez réserver et affecter des ressources à partir d’un groupe de partitions gérées à l’aide de la
commande xlplm -R. Ces ressources réservées peuvent être utilisées pour créer une nouvelle partition
non gérée, ou encore pour faire de la place à une nouvelle partition dans le groupe géré.
Les ressources réservées ne seront pas affectées à une partition existant dans un groupe à moins d’être
préalablement libérées. Si une partition auparavant désactivée est activée et intègre un groupe géré,
toutes les ressources réservées au sein de ce groupe sont automatiquement retirées de l’ensemble des
ressources réservées, également appelé pool libre, et affectées à la nouvelle partition. Si les ressources
réservées sont utilisées au lieu de créer une nouvelle partition non gérée, elles peuvent être rendues au
groupe après amorçage de la partition, puis être automatiquement récupérées par le groupe géré si elles
deviennent ultérieurement disponibles et nécessaires.
Le volume réservé demandé est absolu, de sorte qu’une commande de réservation peut se traduire par
une réservation ou une libération, suivant le volume de réservation en cours. Les modifications
minimales de réservation admises sont les suivantes :
v 1 Mo de mémoire
v 1 unité de traitement pour un groupe de processeur dédié
v 0,01 unité de traitement pour un groupe de processeur partagé
Lorsque vous réservez des ressources, des ressources disponibles sont d’abord recherchées dans le pool
libre du groupe cible. Si ce pool libre comporte suffisamment de ressources pour répondre à la demande,
le volume de ressources demandé est retiré du pool. Dans le cas contraire, des ressources sont retirées
d’une ou de plusieurs partitions présentant une charge de travail plus faible, ou nécessitant moins de
ressources. Une demande de réservation peut échouer si le volume de ressources demandé est supérieur
au minimum admis pour le groupe.
Gestion des demandes de ressources mémoire
L’exemple ci-après illustre l’utilisation du gestionnaire de chargement de partition pour la gestion des
demandes de ressources mémoire. Dans ce cas, le gestionnaire de chargement de partition répond aux
demandes de ressources mémoire de deux partitions :
Les deux partitions, LP0 et LP1, sont configurées comme suit :
LP0 :
Minimum = 1024 Mo
Garanti = 1024 Mo
Maximum = 4096 Mo
Poids = 2
Volume en cours autorisé = 1024 Mo
LP1 :
Minimum = 1024 Mo
Garanti = 1024 Mo
Maximum = 4096 Mo
Volume en cours autorisé = 1024 Mo
Poids = 1
La quantité totale de mémoire gérée par le gestionnaire de chargement de partition est de 5 120 Mo.
Compte tenu de l’affectation de mémoire en cours pour chaque partition, indiquée par la valeur Volume
en cours autorisé = 1024 Mo, le gestionnaire de chargement de partition peut considérer qu’il reste
3 072 Mo non affectés et disponibles.
Si les deux partitions sont chargées en termes d’utilisation de la mémoire, les événements exigeant
davantage de ressources mémoire sont générés et transférés sur le serveur du gestionnaire de chargement
de partition. Pour chaque événement reçu, le gestionnaire de chargement de partition identifie la partition
Chapitre 6. Partition Load Manager for AIX
313
comme étant réceptrice (taker). Parallèlement, le gestionnaire de chargement de partition vérifie si la
partition utilise un volume de ressources supérieur au volume qui est garanti. Si c’est le cas, elle est
identifiée comme étant en excédent de ressources (excess user). Etant donné que des ressources sont
disponibles, le gestionnaire de chargement de partition répond immédiatement à la demande et affecte de
la mémoire suivant la valeur de l’attribut mem_increment (défini dans les règles du gestionnaire de
chargement de partition ou par la valeur interne par défaut) à la partition à partir de la partition
contenant de la mémoire disponible. Une fois la mémoire déplacée, les nouvelles affectations sont les
suivantes :
LP0 :
LP1 :
Volume en cours autorisé = 2560 Mo
Volume en cours autorisé = 2560 Mo
Même avec les affectations en cours, les partitions continuent à générer des événements qui nécessitent
davantage de ressources mémoire.
Pour chaque événement, le gestionnaire de chargement de partition continue à identifier la partition
comme étant ″taker″ et ″excess user″ car celle-ci dispose de plus de ressources que ce qui lui est garanti.
Néanmoins, comme il n’y a pas d’autres ressources disponibles, la demande est mise en file d’attente s’il
n’y a pas d’autres donneurs de ressources ou d’utilisateurs en excédent de ressources (excess user).
Lorsque le gestionnaire reçoit une demande de ressources de la deuxième partition, il lui applique
également une marque ″taker″ et ″excess user″. Un utilisateur excédentaire étant déjà en file d’attente, le
gestionnaire de chargement de partition peut satisfaire la demande de ressources.
Les partitions LP0 et LP1 étant toutes deux marquées ″taker″ et ″excess user″, le gestionnaire de
chargement de partition utilise le poids qui leur est associé comme facteur déterminant pour la
répartition des ressources autorisées excédentaires (somme des volumes en cours autorisés pour chaque
partition dont on soustrait la somme des volumes des affectations de ressources garanties) entre les deux
partitions.
Dans cet exemple, des 3072 Mo excédentaires, 2048 Mo sont affectés à la partition LP0 et 1024 Mo à la
partition LP1. Le gestionnaire de chargement de partition affecte la quantité de mémoire (définie en Mo
par la valeur mem_incrememt) de la partition LP1 à la partition LP0.
Face à des demandes constantes de mémoire de chaque partition, le gestionnaire de chargement de
partition répartit la mémoire de façon à obtenir les volumes en cours suivants :
LP0 :
LP1 :
Volume en cours autorisé = 3072 Mo
Volume en cours autorisé = 2048 Mo
Gestion des ressources processeur dans un environnement de partition partagé
L’exemple ci-après illustre comment le gestionnaire de chargement de partition gère des ressources
processeur dans un environnement de partition partagé. Les deux partitions sont configurées comme
suit :
LP0 :
Minimum = 0,1 Mo
Garanti = 0,5 Mo
Maximum = 2,0
Max autorisé par processeur virtuel = 0,8
Poids = 3
Volume en cours autorisé = 0,1
Nombre actuel de processeurs virtuels = 1
LP1 :
Minimum = 0,1
Garanti = 0,5 Mo
Maximum = 2,0
Max autorisé par processeur virtuel = 0,8
Poids = 1
Volume en cours autorisé = 0,1
Nombre actuel de processeurs virtuels = 1
314
Guide d’utilisation de PowerVM Editions
Le volume processeur total autorisé et géré par le gestionnaire de chargement de partition est égal à 2,0.
Compte tenu du volume actuellement affecté (0,1) à chaque partition, le gestionnaire de chargement de
partition peut répartir les processeurs non affectés (1,8).
Si les deux partitions commencent à exécuter des travaux gourmands en ressources processeur, elles
demandent davantage de ressources processeur autorisées au gestionnaire de chargement de partition. Le
gestionnaire de chargement de partition identifie alors les partitions demandeuses comme étant taker et
excess users si le volume de ressource qui leur est actuellement affecté est supérieur au volume garanti.
Outre les nombre de processeurs autorisés, le gestionnaire de chargement de partition gère également le
nombre de processeurs virtuels. Lorsque le volume de ressources autorisé de l’une des ressources dépasse
0,8, un processeur virtuel est également ajouté.
Dans cet exemple, le gestionnaire de chargement de partition affecte les ressources autorisées disponibles
jusqu’à obtention de l’état suivant :
LP0 :
Volume en cours autorisé = 1,0
Nombre en cours de processeurs virtuels = 2
LP1 :
Volume en cours autorisé = 1,0
Nombre actuel de processeurs virtuels = 2
Si les partitions demandent encore des ressources supplémentaires, le gestionnaire de chargement de
partition redistribue les volumes de ressources autorisés d’après le poids et l’excédent autorisés. Dans
notre exemple, entre les partitions LP0 et LP1, l’excédent est égal à 1,5. La partition LP0 ayant un poids
égal à 3 et la partition LP1 ayant un poids égal à 1, le gestionnaire de chargement de partition retire des
ressources processeur autorisées de la partition LP1 et les réaffecte à la partition LP0. Si les deux
partitions sont toujours occupées, les ressources sont affectées de la manière suivante :
LP0 :
Volume en cours autorisé = 1,25
Nombre en cours de processeurs virtuels = 2
LP1 :
Volume en cours autorisé = 0,75
Nombre en cours de processeurs virtuels = 2
Configuration de RMC
La présente rubrique explique comment configurer RMC (Resource Monitoring and Control) et vérifier
qu’il est correctement installé.
Le serveur du gestionnaire de chargement de partition utilise RMC pour communiquer avec les partitions
logiques gérées.
La configuration de RMC comprend l’authentification hôte et l’autorisation utilisateur. L’authentification
hôte implique un échange de clés publiques entre le serveur du gestionnaire de chargement de partition
et les noeuds gérés (partitions). Ceci permet au serveur du gestionnaire de chargement de partition
d’établir une connexion ou de créer une session avec le système géré. L’autorisation utilisateur implique
l’ajout d’une entrée dans le fichier ACL (contrôle d’accès) RMC et permet à l’utilisateur plmuser (serveur
du gestionnaire de chargement de partition) d’accéder à la classe de ressources requise. Le script
plmsetup permet d’automatiser ces tâches en utilisant des commandes de shell éloigné. Si le shell éloigné
est indisponible ou non configuré, l’administrateur peut effectuer ces tâches manuellement.
Lancez le script de shell suivant en tant qu’utilisateur root sur la machine gestionnaire qui va exécuter le
gestionnaire de chargement de partition :
/etc/plm/setup/plmsetup
Une fois le script exécuté, le fichier ACL de RMC sur la machine éloignée comportera une entrée similaire
à ce qui suit :
vendor.LPAR
plmuser@plmserver1.domain.com
*
rw
Chapitre 6. Partition Load Manager for AIX
315
La procédure de configuration utilise les arguments suivants :
v ID utilisateur à l’aide duquel le gestionnaire de chargement de partition doit s’exécuter
v Nom d’hôte de la partition
Cet ID utilisateur est utilisé pour la configuration des fichiers ACL RMC sur les partitions logiques. Les
fichiers ACL permettent d’authentifier les utilisateurs autorisés de chaque classe de ressources lorsqu’ils
se connectent au sous-système RMC. Seul cet utilisateur est autorisé à accéder au gestionnaire de
chargement de partition. Seul l’utilisateur autorisé peut exécuter le gestionnaire de chargement de
partition. En revanche, tout utilisateur peut exécuter des commandes permettant d’afficher uniquement
des données.
Configuration de RMC (Resource Monitoring and Control) pour le gestionnaire de chargement de
partition
Configurez RMC pour le gestionnaire de chargement de partition en procédant comme suit :
1. Sélectionnez Set up Management of Logical Partitions.
Nom d’utilisateur authentifié :plmuser
2. Sélectionnez Automatically setup with each partition in the policy file.
Nom du fichier de règles :/etc/plm/policies/plm1
3. Cliquez sur OK.
Vous pouvez aussi effectuer cette configuration en utilisant la ligne de commande si vous êtes l’utilisateur
root sur le serveur du gestionnaire de chargement de partition :
/etc/plm/setup/plmsetup lpar_hostname plmuser
Pour exécuter cette commande, vous devez posséder l’accès à rsh et rcp. Une fois la configuration
exécutée, vous pouvez supprimer le fichier .rhosts.
Vérification de l’installation et de la configuration de RMC
Cette rubrique décrit la procédure de vérification de la configuration de RMC.
Pour vérifier la configuration RMC, exécutez ce qui suit en tant qu’utilisateurgestionnaire de chargement
de partition pour chacune des partitions logiques qui ont été utilisées avec le script plmsetup. Remplacez
PART_HOST par le nom des partitions logiques dans la commande suivante :
CT_CONTACT=PART_HOST lsrsrc vendor.LPAR
Si les attributs persistants de la classe de ressources sont affichés, la vérification est réussie.
Si les attributs persistants de la classe de ressources ne sont pas affichés, exécutez les tâches suivantes :
v Pour identifier et résoudre des incidents liés à l’hôte ou aux connexions, procédez comme suit.
1. Procédez à une authentification sur l’hôte. Exécutez la procédure suivante :
a. Exécutez la commande suivante à la fois sur la machine serveur gestionnaire de chargement de
partition et sur la partition logique.
/usr/sbin/rsct/bin/ctsvhbal
Une liste d’identités s’affiche. Il s’agit des identités permettant d’identifier une partition donnée.
b. Exécutez la commande suivante à la fois sur la machine serveur gestionnaire de chargement de
partition et sur la partition logique.
/usr/sbin/rsct/bin/ctsthl -l
Sur la machine serveur gestionnaire de chargement de partition, il y a une entrée pour la
partition logique. Sur la partition logique, il y a une entrée pour la machine serveurgestionnaire
de chargement de partition. La valeur HOST_IDENTITY doit correspondre à l’une des identités
répertoriées dans la sortie de la commande ctsvhbal correspondante.
316
Guide d’utilisation de PowerVM Editions
2. Si la valeur HOST_IDENTITY de la sortie de la commande ctsthl ne concorde pas avec l’identité
correcte dans la sortie de la commande ctsvhbal soit sur la machine serveur gestionnaire de
chargement de partition soit sur la partition logique, changez la valeur HOST_IDENTITY en
exécutant les étapes suivantes :
a. Supprimez la valeur HOST_IDENTITY incorrecte en exécutant la commande suivante :
/usr/sbin/rsct/bin/ctsthl -d -n HOST_IDENTITY
b. Ajoutez la valeur HOST_IDENTITY correcte en exécutant la commande suivante :
/usr/sbin/rsct/bin/ctsthl -a -n IDENTITY -m METHOD \
-p ID_VALUE
La valeur du paramètre METHOD peut être obtenue à partir de la commande ctsthl.
Recherchez pour cela une entrée relative à la machine elle-même. Dans cette entrée, utilisez la
valeur de la zone Identifier Generation Method. Exemple : rsa512. Pour la valeur du paramètre
ID_VALUE, utilisez la zone Identifier Value dans la même entrée.
v Pour corriger les erreurs de type utilisateur ou autorisation, vérifiez le fichier ACL sur la partition
logique. Dans la fichier /var/ct/cfg/ctrmc.acls, vers la fin, figure une section pour vendor.LPAR qui
ressemble à ce qui suit :
vendor.LPAR
plmuser@plmserver1.domain.com
*
rw
Le nom d’utilisateur dans la strophe doit correspondre au nom d’utilisateur véritable pour exécuter le
gestionnaire gestionnaire de chargement de partition. De plus, le nom d’hôte dans la strophe doit
correspondre à ce qui a été retourné par la commande ctsvhbal qui a été exécutée sur la machine
serveur gestionnaire de chargement de partition. Si le nom d’hôte est incorrect, exécutez à nouveau le
script plmsetup, cette fois en utilisant l’IDENTITY fournie par la commande ctsvhbal.
Pour plus d’informations concernant la configuration et la gestion des clusters, voir le site Web Cluster
library.
Information associée
Bibliothèque de clusters
Démarrage et arrêt du serveur du gestionnaire de chargement de
partition
La présente rubrique explique comment démarrer et arrêter le serveur du gestionnaire de chargement de
partition et comment vérifier les statistiques du gestionnaire de chargement de partition.
Démarrage du serveur du gestionnaire de chargement de partition
v Hypothèses relatives à l’environnement :
Nom de configuration : default
Nom du fichier de règles :/etc/plm/policies/plm1
Nom du fichier journal : /var/opt/plm/plm.log
Mode de fonctionnement :management ou monitoring
v Pour démarrer le serveur du gestionnaire de chargement de partition, procédez de l’une des façons
suivantes :
– Pour le mode de fonctionnement de gestion, entrez la commande suivante sur la ligne de
commande :
xlplm -S -p /etc/plm/policies/plm1 -l /var/opt/plm/plm.log -o M
– Pour le mode de fonctionnement d’analyse, entrez la commande suivante sur la ligne de
commande :
xlplm -S -p /etc/plm/policies/plm1 -l /var/opt/plm/plm.log -o N
Vérifiez le journal à l’aide de la commande suivante :
tail -f /var/opt/plm/plm.log
Chapitre 6. Partition Load Manager for AIX
317
Vérification des statistiques du gestionnaire de chargement de partition
La commande xlpstat est indépendante du serveur gestionnaire de chargement de partition et peut par
conséquent être exécutée que le serveur gestionnaire de chargement de partition soit ou non en cours
d’exécution. La commande xlpstat peut être exécutée à tout moment après la configuration de la fonction
RMC.
Vérifiez les statistiques du gestionnaire de chargement de partition en tapant la commande suivante, qui
permet de vérifier les statistiques toutes les cinq secondes jusqu’à ce que vous annuliez la commande :
xlpstat -p /etc/plm/policies/plm1 5
Arrêt du serveur du gestionnaire de chargement de partition
Pour arrêter le serveur du gestionnaire de chargement de partition, procédez de l’une des façons
suivantes :
v Hypothèse : Le nom de configuration est default.
v Sur la ligne de commande, tapez la commande suivante :
xlplm -K default
Commandes relatives au gestionnaire de chargement de partition
Une description de chaque commande gestionnaire de chargement de partition est fournie ici. Vous
pouvez également accéder à ces informations à partir de la ligne de commande en tapant la commande
man.
Commande xlplm
La commande xlplm permet de démarrer, d’arrêter, de modifier, de réserver, et d’interroger un serveur de
gestionnaire de chargement de partition.
Finalité
Démarrer, arrêter, modifier, réserver et interroger un serveur de gestionnaire de chargement de partition.
Cette commande est utilisée avec le gestionnaire de chargement de partition sous AIX uniquement.
Syntaxe
xlplm -S -p fichier_règles -l fichier_journal [ -o mode_fonctionnement] [ configuration ]
xlplm -K [ configuration ]
xlplm -M [ -p fichier_règles ] [ -l fichier_journal ] [ -o mode_fonctionnement ] [configuration ]
xlplm -R -g nom_groupe [ -c taille_ressources_UC ] [ -m taille_ressources_mémoire ] [ configuration ]
xlplm -Q [ -r ] [ -f ] [ configuration ]
xlplm -C -p fichier_règles
Description
Le démon xlplmd du serveur du gestionnaire de chargement de partition effectue les opérations de
gestion de ressource spécifiées.
318
Guide d’utilisation de PowerVM Editions
Options
Option
Description
-c taille_ressources_UC
Indique la quantité de ressources processeur à réserver.
-C
Vérifie la validité du fichier de règles.
-f
Par défaut, l’opération d’interrogation affiche les valeurs de configuration actives
qui ont pu être ajustées lors de l’exécution en raison de conflits avec le profil de
partition. Cette option permet de modifier la sortie de sorte que les valeurs
spécifiées initialement dans le fichier de règles soient affichées.
-g nom_groupe
Indique le nom d’un groupe dans le fichier de règles. Utilisez cette option pour
réserver ou libérer des ressources. Les ressources que vous souhaitez réserver sont
supprimées du groupe spécifié dans le fichier de règles. Lorsque vous libérez des
ressources, elles sont placées dans un pool libre du groupe spécifié dans le fichier
de règles.
-K
Arrête l’instance du gestionnaire de chargement de partition. Vous devez disposer
des droits d’accès de niveau superutilisateur ou bien être connecté en tant que
plmuser, ID utilisateur permettant d’utiliser cette option.
-l fichier_journal
Spécifie le nom du fichier qui doit contenir le journal d’activité du gestionnaire de
chargement de partition.
-M
Modifie un serveur de gestionnaire de chargement de partition. Vous devez
disposer des droits d’accès de niveau superutilisateur ou bien être connecté en
tant que plmuser, ID utilisateur permettant d’utiliser cette option.
-m taille_ressources_mémoire
Indique la quantité de ressources mémoire à réserver.
-o mode_fonctionnement
Indique si le serveur du gestionnaire de chargement de partition doit fonctionner
en mode de gestion, avec la valeur M, ou en mode de surveillance avec la valeur N.
Lorsque le démon xlplm démarre, la valeur par défaut est le mode de gestion ou
la valeur M.
-p fichier_règles
Indique le nom du fichier de règles du gestionnaire de chargement de partition.
-Q
Interroge l’état du serveur du gestionnaire de chargement de partition.
-R
Réserve ou libère les ressources d’une partition gérée par un serveur de
gestionnaire de chargement de partition. Vous devez disposer des droits d’accès
de niveau superutilisateur ou bien être connecté en tant que plmuser, ID
utilisateur permettant d’utiliser cette option.
-r
Pour utiliser le serveur du gestionnaire de chargement de partition en mode de
données brutes.
-S
Démarre une instance du gestionnaire de chargement de partition. Vous devez
disposer des droits d’accès de niveau superutilisateur ou bien être connecté en
tant que plmuser, ID utilisateur permettant d’utiliser cette option.
Paramètres
Paramètre
Description
configuration
Identifie une instance de la gestion du gestionnaire de chargement de partition. Ce
paramètre doit être spécifié s’il y a plusieurs instances du serveur du gestionnaire de
chargement de partition sur votre système. Si le paramètre n’est pas spécifié, une valeur par
défaut est utilisée.
Chapitre 6. Partition Load Manager for AIX
319
Etat de sortie
Cette commande renvoie les valeurs de fin suivantes :
0
La commande a abouti.
1
Le programme a détecté une erreur interne irrémédiable, tel qu’un échec d’allocation de mémoire
ou d’appel système.
2
Impossible d’ouvrir ou de créer le fichier de règles spécifié.
3
Impossible d’ouvrir ou de créer le fichier de règles spécifié.
4
Impossible de créer un fichier temporaire obligatoire dans le répertoire /tmp.
5
La règle spécifiée est incorrecte.
6
Impossible de démarrer le démon. Cet incident peut résulter d’une erreur interne ou d’une
incapacité à communiquer avec la console HMC (Hardware Management Console).
7
Erreur d’utilisation de la ligne de commande.
8
Le nombre spécifié pour la quantité de réservation est incorrect.
9
L’utilisateur en cours ne correspond pas à l’utilisateur autorisé dans le fichier
/etc/plm/auth/plmuser, ou il est impossible de lire le fichier.
10
Une instance portant le nom demandé existe déjà.
11
Une instance portant le nom demandé n’existe pas.
12
Le mode demandé est le même que celui qui est en cours.
13
Echec d’une commande éloignée sur la console HMC.
14
Echec d’une requête de réservation lié à l’une des raisons suivantes :
v Le groupe est inconnu.
v La quantité de réservation est déjà définie dans la quantité demandée.
v Impossible de réserver la quantité demandée.
v La ressource demandée n’est pas gérée.
Exemples
1. Démarrez un serveur de gestionnaire de chargement de partition en mode de gestion avec le nom de
configuration cec1 en entrant l’une des commandes suivantes sur le serveur du gestionnaire de
chargement de partition :
cd /etc/xlplm/cec1
xlplm -S -p policy -l log cec1
ou
xlplm -S -p /etc/xlplm/cec1 -l /etc/xlplm/cec1/log -o M cec1
2. Démarrez le serveur du gestionnaire de chargement de partition en mode de surveillance en entrant
ce qui suit :
xlplm -S -p policy -l log -o N cec1
3. Arrêtez le serveur du gestionnaire de chargement de partition en entrant ce qui suit :
xlplm -K cec1
4. Chargez une nouvelle règle sur le serveur du gestionnaire de chargement de partition en entrant ce
qui suit :
xlplm -M -p evening_policy cec1
320
Guide d’utilisation de PowerVM Editions
5. Démarrez un serveur de gestionnaire de chargement de partition à l’aide du nouveau fichier journal,
nommé newlog en entrant ce qui suit :
xlplm -M -l newlog cec1
6. Affichez les noms de configuration du serveur du gestionnaire de chargement de partition actif en
entrant ce qui suit :
xlplm -Q
Commande xlpstat
La commande xlpstat permet d’afficher les statistiques de charge de partition logique pour une liste de
noms d’hôte.
Finalité
Affiche les statistiques de charge de partition logique pour une liste de noms d’hôte.
Cette commande est utilisée avec le gestionnaire de chargement de partition sous AIX uniquement.
Syntaxe
xlpstat [-r] {-p fichier_règles | -f liste_hôtes} [intervalle] [nombre]
Description
Affiche les statistiques de charge pour une ou plusieurs partitions logiques éloignées. La commande
contacte les systèmes éloignés après chaque nombre de secondes spécifiées au paramètre intervalle pour
chaque nombre d’intervalles indiqués au paramètre nombre. Si les paramètres intervalle et nombre sont
omis, les systèmes éloignés sont interrogés une seule fois. Si seul le paramètre nombre est omis, les
systèmes éloignés sont interrogés après chaque nombre de secondes indiquées au paramètre intervalle
jusqu’à ce que la commande soit arrêtée par l’utilisateur.
L’appelant de cette commande doit être le superutilisateur ou l’utilisateur autorisé du gestionnaire de
chargement de partition.
Pour la sortie formatée, le résultat s’affiche comme suit pour chaque hôte répertorié dans le fichier
d’entrée :
UC
-----------------------STAT TYP
CUR
PCT
LOAD
MEM
-----------------CUR
PCT PGSTL
up
up
up
1024
2048
5120
D
D
D
4.00
2.00
10.00
50.15
95.72
98.31
0.65
0.90
1.03
43.10
97.48
72.25
HOST
0 testlp1
250 testlp2
0 testlp3
STAT Etat de la partition. Peut être "up" (en fonction) ou "down" (hors fonction).
TYP Type de la partition. Peut être "D" (dédié), "S" (partagé) ou "U" (inconnu).
Si le type défini est "U", la commande n’a pas pu interroger le type de partition et
il se peut qu’un incident lié à la connectivité ou à l’authentification existe.
CUR Quantité en cours de ressources allouées à la partition
PCT Utilisation en pourcentage de la ressource
LOAD Moyenne de charge de l’unité centrale
PGSTL Défilement des pages par seconde
HOST Nom de l’hôte géré
Chapitre 6. Partition Load Manager for AIX
321
Le résultat brut s’affiche sous forme d’en-tête contenant des descriptions de colonne suivies d’une ligne
de données pour chaque hôte :
#host_name:group_name:status:cpu_type:cpu_ent:cpu_util:cpu_load:mem_ent:mem_util:mem_pgstl
testlp1.mydomain.com:group1:up:dedicated:4.00:45.05:0.38:1024:75.00:0
testlp2.mydomain.com:group1:up:dedicated:2.00:87.23:0.92:2048:92.21:123
testlp3.mydomain.com:group1:up:dedicated:10.00:95.17:1.01:5120:70.30:0
Options
Option
Description
-r
Mode de sortie brute. Les données sont imprimées sur
une ligne par hôte séparée par un deux-points.
-p fichier_règles
Extrait la liste d’hôtes du fichier de règles donné.
-f liste_hôtes
Extrait la liste d’hôtes du fichier texte donné. Ce fichier
comporte un nom d’hôte par ligne.
Etat de sortie
Cette commande renvoie les valeurs de fin suivantes :
1
Erreur interne.
3
Impossible d’ouvrir le fichier d’entrée.
5
Fichier de règles incorrect.
7
Erreur d’utilisation.
9
Non autorisé.
322
Guide d’utilisation de PowerVM Editions
Chapitre 7. PowerVM Lx86
Informations sur PowerVM Lx86, sa disponibilité et le matériel pris en charge.
Le dispositif matériel PowerVM Editions (anciennement appelé Advanced POWER Virtualization) inclut
PowerVM Lx86. Lx86 est un traducteur dynamique binaire qui permet aux applications Linux (compilées
pour Linux sur Intel) de s’exécuter sans modification, parallèlement aux applications Linux on POWER
locales. La conversion dynamique des instructions x86 vers POWER et leur mise en cache pour optimiser
les performances de conversion par Lx86 le permet. Lx86 mappe en outre les appels système Linux sur
Intel en appels système Linux sur Power. Aucune modification ou recompilation des applications Linux
x86 n’est nécessaire.
Lx86 crée un environnement x86 virtuel dans lequel peuvent s’exécuter les applications Linux sur Intel.
Actuellement, un environnement Lx86 virtuel prend en charge des distributions Linux x86 SUSE ou Red
Hat. Le traducteur et l’environnement virtuel s’exécutent strictement dans l’espace utilisateur. Aucune
modification du noyau POWER n’est requise. Lx86 n’exécute pas le noyau x86 sur la machine POWER.
L’environnement virtuel Lx86 n’est pas une machine virtuelle. Les applications x86 sont encapsulées,
donnant l’impression de disposer d’un environnement d’exploitation Linux on x86, bien que le système
sous-jacent est un système Linux on POWER.
Lx86 est inclus dans PowerVM Express Edition,PowerVM Standard Edition et dans PowerVM Enterprise
Edition.
Pour plus d’informations sur Lx86, voir PowerVM Lx86 for x86 Linux Applications Administration
Guide.
323
324
Guide d’utilisation de PowerVM Editions
Annexe. Fonctions d’accessibilité
Les fonctions d’accessibilité permettent aux utilisateurs présentant un handicap, par exemple les
personnes à mobilité réduite ou à déficience visuelle, d’utiliser les produits informatiques.
La liste suivante recense les principales fonctions d’accessibilité :
v Opération sur le clavier uniquement
v Interfaces utilisées habituellement par les lecteurs d’écran
v Touches reconnaissables de manière tactile et qui ne s’activent pas d’un simple toucher
v Unités conformes aux normes de l’industrie en matière de ports et de connecteurs
v Connexion d’autres unités d’entrée et de sortie
325
326
Guide d’utilisation de PowerVM Editions
Remarques
Les informations contenues dans ce document concernent les produits et services proposés aux
Etats-Unis.
Le fabriquant peut ne pas offrir dans d’autres pays les produits, services ou fonctions décrits dans le
présent document. Pour plus d’informations, référez-vous aux documents d’annonce disponibles dans
votre pays ou adressez-vous au partenaire commercial du fabricant. Toute référence à un produit, logiciel
ou service du fabricant n’implique pas que seul ce produit, logiciel ou service puisse convenir. Tout autre
élément fonctionnellement équivalent peut être utilisé, s’il n’enfreint aucun droit du fabricant. Il est de la
responsabilité de l’utilisateur d’évaluer et de vérifier lui-même le fonctionnement des produits,
programmes ou services.
Le fabricant peut détenir des brevets ou des demandes de brevet couvrant les produits mentionnés dans
le présent document. La remise de ce document ne vous donne aucun droit de licence sur ces brevets ou
demandes de brevet. Si vous désirez recevoir des informations concernant l’acquisition de licences,
veuillez en faire la demande par écrit au fabricant.
Le paragraphe suivant ne s’applique ni au Royaume-Uni, ni dans aucun pays dans lequel il serait
contraire aux lois locales : LE PRESENT DOCUMENT EST LIVRE «EN L’ETAT». LE FABRICANT
DECLINE TOUTE RESPONSABILITE, EXPLICITE OU IMPLICITE, RELATIVE AUX INFORMATIONS
QUI Y SONT CONTENUES, Y COMPRIS EN CE QUI CONCERNE LES GARANTIES DE VALEUR
MARCHANDE OU D’ADAPTATION A VOS BESOINS. Certaines juridictions n’autorisent pas l’exclusion
des garanties implicites, auquel cas l’exclusion ci-dessus ne vous sera pas applicable.
Le présent document peut contenir des inexactitudes ou des coquilles. Il est mis à jour périodiquement.
Chaque nouvelle édition inclut les mises à jour. Le fabricant peut modifier sans préavis les produits et
logiciels décrits dans ce document.
Les références à des sites Web non référencés par le fabricant sont fournies à titre d’information
uniquement et n’impliquent en aucun cas une adhésion aux données qu’ils contiennent. Les éléments
figurant sur ces sites Web ne font pas partie des éléments du présent produit et l’utilisation de ces sites
relève de votre seule responsabilité.
Le fabricant pourra utiliser ou diffuser, de toute manière qu’il jugera appropriée et sans aucune obligation
de sa part, tout ou partie des informations qui lui seront fournies.
Les licenciés souhaitant obtenir des informations permettant : (i) l’échange des données entre des logiciels
créés de façon indépendante et d’autres logiciels (dont celui-ci), et (ii) l’utilisation mutuelle des données
ainsi échangées, doivent adresser leur demande à :
Ces informations peuvent être soumises à des conditions particulières, prévoyant notamment le paiement
d’une redevance.
Le logiciel sous licence décrit dans ce document et tous les éléments sous licence disponibles s’y
rapportant sont fournis par IBM conformément aux dispositions du Livret Contractuel IBM, des
Conditions Internationales d’Utilisation de Logiciels IBM, des Conditions d’Utilisation du Code Machine
IBM ou de tout autre contrat équivalent.
Les données de performance indiquées dans ce document ont été déterminées dans un environnement
contrôlé. Par conséquent, les résultats peuvent varier de manière significative selon l’environnement
d’exploitation utilisé. Certaines mesures évaluées sur des systèmes en cours de développement ne sont
327
pas garanties sur tous les systèmes disponibles. En outre, elles peuvent résulter d’extrapolations. Les
résultats peuvent donc varier. Il incombe aux utilisateurs de ce document de vérifier si ces données sont
applicables à leur environnement d’exploitation.
Les informations concernant les produits de fabricants tiers ont été obtenues auprès des fournisseurs de
ces produits, par l’intermédiaire d’annonces publiques ou via d’autres sources disponibles. Ce fabricant
n’a pas testé ces produits et ne peut confirmer l’exactitude de leurs performances ni leur compatibilité. Il
ne peut recevoir aucune réclamation concernant des produits de fabricants tiers. Toute question
concernant les performances de produits de fabricants tiers doit être adressée aux fournisseurs de ces
produits.
Toute instruction relative aux intentions du fabricant pour ses opérations à venir est susceptible d’être
modifiée ou annulée sans préavis, et doit être considérée uniquement comme un objectif.
Tous les tarifs indiqués sont les prix de vente actuels suggérés par IBM et sont susceptibles d’être
modifiés sans préavis. Les tarifs appliqués peuvent varier selon les revendeurs.
Ces informations sont fournies uniquement à titre de planification. Elles sont susceptibles d’être modifiées
avant la mise à disposition des produits décrits.
Le présent document peut contenir des exemples de données et de rapports utilisés couramment dans
l’environnement professionnel. Ces exemples mentionnent des noms fictifs de personnes, de sociétés, de
marques ou de produits à des fins illustratives ou explicatives uniquement. Tous ces noms sont fictifs et
toute ressemblance avec des noms et adresses utilisés par une entreprise réelle serait purement fortuite.
Licence sur les droits d’auteur :
Le présent logiciel contient des exemples de programmes d’application en langage source destinés à
illustrer les techniques de programmation sur différentes plateformes d’exploitation. Vous avez le droit de
copier, de modifier et de distribuer ces exemples de programmes sous quelque forme que ce soit et sans
paiement d’aucune redevance au fabricant, à des fins de développement, d’utilisation, de vente ou de
distribution de programmes d’application conformes aux interfaces de programmation des plateformes
pour lesquels ils ont été écrits ou aux interfaces de programmation IBM. Ces exemples de programmes
n’ont pas été rigoureusement testés dans toutes les conditions. Par conséquent, le fabricant ne peut
garantir expressément ou implicitement la fiabilité, la maintenabilité ou le fonctionnement de ces
programmes.
INFORMATIONS SUR LA LICENCE DE CODE ET LA CLAUSE DE PROTECTION :
Le constructeur vous concède une licence non exclusive de droits d’auteur vous autorisant à utiliser tous
les exemples de code de programmation à partir desquels vous pouvez générer des fonctions similaires
adaptées à vos besoins spécifiques.
SOUS RESERVE DE TOUTE GARANTIE LEGALE QUI NE PEUT ETRE EXCLUE, LE FABRICANT NE
FOURNIT AUCUNE GARANTIE OU CONDITION EXPLICITE OU IMPLICITE, Y COMPRIS, ET DE
FACON NON LIMITATIVE, TOUTE GARANTIE OU CONDITION IMPLICITE D’APTITUDE A
L’EXECUTION D’UN TRAVAIL DONNE, ET TOUTE GARANTIE EN NON CONTRE-FACON
CONCERNANT LE LOGICIEL OU LE SUPPORT TECHNIQUE, LE CAS ECHEANT.
LE FABRICANT, SES DEVELOPPEURS OU FOURNISSEURS NE PEUVENT EN AUCUN CAS ETRE
TENUS RESPONSABLES DES DOMMAGES SUIVANTS, ET CE, MEME S’ILS ONT ETE INFORMES DE
LEUR POSSIBLE SURVENANCE :
1. PERTE OU DETERIORATION DE VOS DONNEES ;
2. PREJUDICES MORAUX, ACCESSOIRES OU INDIRECTS ; OU
328
Guide d’utilisation de PowerVM Editions
3. PERTE DE BENEFICE, D’ACTIVITE COMMERCIALE, DE REVENU, DE CLIENTELE OU
D’ECONOMIES ESCOMPTEES.
CERTAINES LEGISLATIONS N’AUTORISENT PAS LA LIMITATION OU L’EXCLUSION DE
PREJUDICES DIRECTS, ACCESSOIRES OU INDIRECTS, AUQUEL CAS LES EXCLUSIONS OU LES
LIMITATIONS QUI PRECEDENT NE VOUS SERONT PAS APPLICABLES.
Toute copie totale ou partielle de ces programmes exemples et des oeuvres qui en sont dérivées doit
comprendre une notice de copyright, libellée comme suit :
© (nom de votre entreprise) (année). Des segments de code sont dérivés des programmes exemples d’IBM
Corp. © Copyright IBM Corp. _année ou années_. Tous droits réservés.
Si vous visualisez ces informations en ligne, il se peut que les photographies et illustrations en couleur
n’apparaissent pas à l’écran.
Marques
Les termes qui suivent sont des marques d’International Business Machines Corporation aux Etats-Unis
et/ou dans certains autres pays :
AIX
AIX 5L
BladeCenter
IBM
Micro-Partitioning
OpenPower
POWER
Power Architecture
POWER5
POWER6
PowerVM Editions
Tivoli
Tivoli Enterprise
Intel, Intel Inside, Intel Inside logo, Intel Centrino, Intel Centrino logo, Celeron, Intel Xeon, Intel
SpeedStep, Itanium et Pentium sont des marques de Intel Corporation aux Etats-Unis et/ou dans certains
autres pays.
Microsoft, Windows, Windows NT et le logo Windows sont des marques de Microsoft Corporation aux
Etats-Unis et/ou dans certains autres pays.
Java ainsi que toutes les marques incluant Java sont des marques de Sun Microsystems, Inc. aux
Etats-Unis et/ou dans certains autres pays.
Linux est une marque déposée de Linus Torvalds aux Etats-Unis et/ou dans certains autres pays.
Red Hat, le logo Red Hat ″Shadow Man″ et tous les logos et toutes les marques de Red Hat sont des
marques de Red Hat Inc. aux Etats-Unis et/ou dans certains autres pays.
UNIX est une marque enregistrée de The Open Goup aux Etats-Unis et/ou dans certains autres pays.
Remarques
329
Les autres noms de sociétés, de produits et de services peuvent appartenir à des tiers.
Dispositions
Les droits d’utilisation relatifs à ces publications sont soumis aux dispositions suivantes.
Usage personnel : Vous pouvez reproduire ces publications pour votre usage personnel, non commercial,
sous réserve que toutes les mentions de propriété soient conservées. Vous ne pouvez distribuer ou
publier tout ou partie de ces publications ou en faire des oeuvres dérivées, sans le consentement exprès
du fabricant.
Usage commercial : Vous pouvez reproduire, distribuer et afficher ces publications uniquement au sein
de votre entreprise, sous réserve que toutes les mentions de propriété soient conservées. Vous ne pouvez
reproduire, distribuer, afficher ou publier tout ou partie de ces publications en dehors de votre entreprise,
ou en faire des oeuvres dérivées, sans le consentement exprès du fabricant.
Excepté les droits d’utilisation expressément accordés dans ce document, aucun autre droit, licence ou
autorisation, implicite ou explicite, n’est accordé pour ces publications ou autres données, logiciels ou
droits de propriété intellectuelle contenus dans ces publications.
Le fabricant se réserve le droit de retirer les autorisations accordées dans le présent document si
l’utilisation des publications s’avère préjudiciable à ses intérêts ou que, selon son appréciation, les
instructions susmentionnées n’ont pas été respectées.
Vous ne pouvez télécharger, exporter ou réexporter ces informations qu’en total accord avec toutes les
lois et règlements applicables dans votre pays, y compris les lois et règlements américains relatifs à
l’exportation.
LE FABRICANT NE DONNE AUCUNE GARANTIE SUR LE CONTENU DE CES PUBLICATIONS. CES
PUBLICATIONS SONT LIVREES EN L’ETAT SANS AUCUNE GARANTIE EXPLICITE OU IMPLICITE.
LE FABRICANT DECLINE NOTAMMENT TOUTE RESPONSABILITE RELATIVE A CES
INFORMATIONS EN CAS DE CONTREFAÇON AINSI QU’EN CAS DE DEFAUT D’APTITUDE A
L’EXECUTION D’UN TRAVAIL DONNE.
330
Guide d’utilisation de PowerVM Editions
BULL CEDOC
357 AVENUE PATTON
B.P.20845
49008 ANGERS CEDEX 01
FRANCE
REFERENCE
86 A1 40EV 03

Manuels associés