▼
Scroll to page 2
of
49
Bull NovaScale 4040 HPC Linux Installation du matériel REFERENCE 86 F1 51EG 00 Bull NovaScale 4040 HPC Linux Installation du matériel Matériel Avril 2003 BULL CEDOC 357 AVENUE PATTON B.P.20845 49008 ANGERS CEDEX 01 FRANCE REFERENCE 86 F1 51EG 00 The following copyright notice protects this book under the Copyright laws of the United States of America and other countries which prohibit such actions as, but not limited to, copying, distributing, modifying, and making derivative works. Copyright Bull S.A., 2003 Imprimé en France Vos suggestions sur la forme et le fond de ce manuel seront les bienvenues. Une feuille destinée à recevoir vos remarques se trouve à la fin de ce document. Pour commander d’autres exemplaires de ce manuel ou d’autres publications techniques Bull, veuillez utiliser le bon de commande également fourni en fin de manuel. Marques déposées Toutes les marques déposées sont la propriété de leurs titulaires respectifs. Linux est une marque déposée de Linus Torvalds. Itanium est une marque déposée d’Intel Corporation. La loi du 11 mars 1957, complétée par la loi du 3 juillet 1985, interdit les copies ou reproductions destinées à une utilisation collective. Toute représentation ou reproduction intégrale ou partielle faite par quelque procédé que ce soit, sans consentement de l’auteur ou de ses ayants cause, est illicite et constitue une contrefaçon sanctionnée par les articles 425 et suivants du code pénal. Ce document est fourni à titre d’information seulement. Il n’engage pas la responsabilité de Bull S.A. en cas de dommage résultant de son application. Des corrections ou modifications du contenu de ce document peuvent intervenir sans préavis ; des mises à jour ultérieures les signaleront éventuellement aux destinataires. Table des matières PRÉFACE.............................................................................................................................................. III BUT DU DOCUMENT .............................................................................................................................. V ORGANISATION DU DOCUMENT ............................................................................................................. V CHAPITRE 1. NOTIONS GÉNÉRALES SUR LINUX HPC.......................................................... 1-1 1.1 HPC (HIGH PERFORMANCE COMPUTING).................................................................................... 1-1 1.1.1 Définition de HPC .............................................................................................................. 1-1 1.1.2 Utilisation du HPC ............................................................................................................. 1-1 1.2 LINUX ........................................................................................................................................ 1-1 1.2.1 Définition ............................................................................................................................ 1-1 1.2.2 La petite histoire… ............................................................................................................. 1-2 1.2.3 LINUX et HPC ................................................................................................................... 1-2 1.3 CLUSTER HPC ............................................................................................................................. 1-3 1.3.1 Qu’est-ce qu’un cluster ? ................................................................................................... 1-3 1.3.2 Les grands types de cluster ................................................................................................ 1-3 1.3.3 L’architecture d’un cluster HPC......................................................................................... 1-4 1.4 LINUX HPC ET BULL ................................................................................................................... 1-5 CHAPITRE 2. DESCRIPTION DE L’ENVIRONNEMENT MATÉRIEL HPC NOVASCALE 4040 .................................................................................................................... 2-1 2.1 INTRODUCTION ............................................................................................................................ 2-1 2.1 LE RACK 36U............................................................................................................................... 2-3 2.2 LE NŒUD D’ADMINISTRATION ...................................................................................................... 2-4 2.3 LES NŒUDS DE CALCUL................................................................................................................ 2-5 2.4 LE NŒUD DES ENTRÉES/SORTIES .................................................................................................. 2-6 2.5 L’INTERCONNEXION ETHERNET ................................................................................................... 2-6 2.6 L’INTERCONNEXION SCI.............................................................................................................. 2-8 2.7 L’INTERCONNEXION SÉRIE......................................................................................................... 2-10 2.8 LE SOUS-SYSTÈME DE STOCKAGE ............................................................................................... 2-13 CHAPITRE 3. INSTALLATION MATÉRIELLE ........................................................................... 3-1 3.1 PLAN GÉNÉRAL D’UNE CONFIGURATION 8 NŒUDS ....................................................................... 3-1 3.1 RÈGLES DE PLACEMENT DES ÉLÉMENTS DANS LES ARMOIRES ...................................................... 3-3 3.2 RÈGLES DE PLACEMENT DES ADAPTATEURS PCI DANS LES NŒUDS ............................................. 3-4 3.3 EXEMPLE D’UN CLUSTER 4 NŒUDS .............................................................................................. 3-4 3.4 RÈGLES ET PLAN DE CÂBLAGE ..................................................................................................... 3-6 3.5 ADMINISTRATION DU MATÉRIEL .................................................................................................. 3-8 3.5.1 Mise en route du nœud d’administration............................................................................. 3-8 3.5.2 Mise en route et contrôle des autres nœuds......................................................................... 3-8 GLOSSAIRE ........................................................................................................................................ g-1 RÉFÉRENCES .................................................................................................................................... r-1 Table des matières iii iv HPC Linux installation hardware Préface But du document Le but de ce document est de montrer comment construire un environnement matériel Linux HPC à partir des matériels Bull NovaScale 4040 basés sur l‘architecture Itanium-2™ La description des logiciels HPC, Open Source ou propriétaires, testés par Bull pour ces architectures Bull Itanium-2 ™ fait l’objet d’autres documents. Organisation du document Après cette préface, • Le chapitre 1 décrit les notions de base sur HPC dans un environnement LINUX et de logiciels libres. • Le chapitre 2 décrit les composants matériels d’une configuration HPC NovaScale 4040 de Bull. • Le chapitre 3 décrit l’installation matérielle de ces composants Préface v vi HPC Linux installation hardware Chapitre 1. Notions générales sur Linux HPC 1.1 HPC (High Perform ance Computing) 1.1.1 Définition de HPC C’est ce qu’on appelle en français le calcul de haute performance. Ce terme définit les grosses applications scientifiques nécessitant une grande puissance de calcul et également une grande précision des résultats 1.1.2 Utilisation du HPC Le calcul de haute performance est utilisé dans différents domaines : • La recherche (dynamique moléculaire, mécanique des fluides…) • L’industrie scientifique (automobile, nucléaire, météo …) • L’imagerie de synthèse (effets spéciaux…) • Le data mining (exploitation statistique de grosses bases de données type Data Warehouse…) 1.2 LINUX 1.2.1 Définition Linux est un système d'exploitation de type UNIX, multi-tâches et multiutilisateurs, disponible sur de nombreuses architectures matérielles, en particulier les machines à base de processeurs ix86 et Itanium™. Il intègre la plupart des technologies les plus récentes (SMP, clustering, RAID). La principale singularité de Linux est d'être un logiciel libre, développé de façon collaborative et pour une grande part bénévole par des milliers de programmeurs répartis dans le monde. Linux est un noyau. Pour l’utiliser, il faut des applications, c’est ce que proposent les distributions. Une distribution est un ensemble de programmes plus un noyau à installer sur une machine. Parmi les distributions Linux, on peut citer RedHat, Mandrake, Suse, TurboLinux . Notions générales sur Linux HPC 1-1 1.2.2 La petite histoire… Linux est un système d’exploitation conçu par Linus Torvalds, un étudiant finlandais. Le commencement de l’écriture du noyau eu lieu en 1991. La règle de base qui a prévalu tout au long de sa réalisation voulait que la licence soit ouverte. Toutes les parties de ce système d'exploitation ont ainsi été réécrites et améliorées au fil du temps (aujourd'hui il en est à sa version 2.4.19). Le noyau Linux est diffusé sous forme de « distributions », contenant le noyau ainsi que des programmes souvent accompagnées d’un outil « maison » facilitant l’installation. Elles sont mises à disposition sur des sites FTP et des CD commercialisés. Linux bénéficie à ce titre énormément des logiciels libres mis au point dans le cadre de divers autres projets, en particulier de GNU. 1.2.3 LINUX et HPC 1.2.3.1 Avantages de Linux • • • • Multi-plateforme : le noyau Linux fonctionne sur PC, Itanium, PowerPC … Fiable, robuste De nombreux logiciels (y compris le noyau) sont en Open Source et à ce titre téléchargeables gratuitement sur Internet. En outre, cela permet qu’un maximum de personnes travaille sur ces logiciels et accélère les temps de développement. Très largement déployé : Linux compte de plus en plus d'adeptes, non seulement dans les Centres de Recherche et les Universités, mais aussi dans l'industrie. La synergie qui existe derrière Linux est immense et explique la qualité et son émergence très rapide. 1.2.3.2 Open Source (Logiciel lib re) Depuis Linus Torvalds et son système Linux, l'Open Source s'est considérablement développé. Le logiciel Libre, en tant qu'idée politique, a été popularisé par Richard Stallman depuis 1984, année où il a créé la Free Software Foundation (FSF) et son projet GNU. Il a mis sur pied un ensemble de droits dont il estimait que tout utilisateur devait pouvoir jouir, et les a codifiés au sein de la licence publique générale de GNU, ou GPL. Le code source n'est donc plus la possession privée d'une personne, d'un groupe de personnes, ou d'une société, comme c'était le cas depuis la naissance de l'informatique dans les années 60, jusque dans les années 80/90. Les plus grandes entreprises emboîtent actuellement le pas des développeurs indépendants et proposent à leur tour des logiciels de qualité professionnelle en Open Source. 1-2 HPC Linux installation hardware Voici quelques uns des principes de l’Open Source et de la licence GPL : • Libre utilisation • Libre redistribution • Le code source doit être à disposition de tout le monde • La licence doit autoriser les modifications et les travaux dérivés • Intégrité du code source de l’auteur : diffusion de patchs • Le redistributeur doit accorder la même licence aux destinataires Il existe d’autres licences comme la licence BSD. A la différence de la licence GPL , la licence BSD pourra permettre (si indiqué dans le source) la non diffusion des modifications. Pour plus d’informations consulter les pages : http://www.gnu.org http://www.opensource.org http://www.freebsd.org 1.3 Cluster HPC 1.3.1 Qu’est-ce qu’un cluste r ? Un cluster est un ensemble de machines (appelée nœuds) connectées entre elles dans le but de remplir une fonction. Chaque nœud peut être monoprocesseur ou multiprocesseur SMP (multitraitement symétrique), les processeurs se partageant dans ce cas la mémoire et les disques. 1.3.2 Les grands types de c luster Cluster scientifique (HPC) : Le calcul est divisé en plusieurs tâches qui seront effectuées en parallèle sur les différentes machines du cluster. Ces clusters sont surtout utilisés par le monde scientifique, graphique. Cluster haute-disponibilité (HA) : Il est créé afin d’éviter une interruption de service en cas de dysfonctionnement matériel ou logiciel d’une machine. Par exemple, si un nœud serveur n’est plus apte à assurer ses fonctions, il sera automatiquement remplacé par une autre machine du cluster. Le load balancing ou répartition de charge est souvent cité lorsque l’on parle de clustering. Il a pour but de distribuer l’exécution de processus système ou réseau sur les différents nœuds. Ainsi, lorsque le nœud répartiteur de charge reçoit un processus, il regarde la charge et la spécialisation de chacun des nœuds et il affecte ainsi le processus au plus approprié. Ce principe est utilisé dans le domaine des réseaux et plus particulièrement sur celui des services comme les serveurs WEB ou FTP. Notions générales sur Linux HPC 1-3 1.3.3 L’architecture d’un clu ster HPC Un système Cluster HPC est : • Un ensemble de machines indépendantes et similaires en terme d’architecture et vitesse. Une des machines (le nœud serveur) répartit les tâches entre toutes les autres (nœuds clients) qui lui renvoient le résultat une fois les calculs terminés. • Cet ensemble disposera d’un réseau dédié rapide de communication interne pour les applications parallèles(MPI) et d’un autre réseau TCPIP pour le management faisant apparaître l’ensemble comme une seule entité vue de l’extérieur. Cette notion s’oppose à celle de réseau de stations où chaque nœud dispose d’un écran, clavier . Schéma d’un cluster classique Le nœud serveur contrôle l’ensemble du cluster. Il est aussi la console du cluster et la passerelle (gateway) vers le monde extérieur. Un grand cluster peut avoir plus d’un nœud serveur et des nœuds clients dédiés à des tâches bien spécifiques (ex : calcul, serveur de fichiers). 1-4 HPC Linux installation hardware 1.4 Linux HPC et Bull Linux aujourd’hui est un système d’exploitation capable de supporter les exigences des environnements HPC demandées par les applications scientifiques en terme de nombre de CPUs, bande passante IO et de support pour la programmation parallèle. C’est pourquoi Bull le propose sur ces platesformes SMP Itanium-2 4 voies (NovaScale 4040) , 8 voies (IL820R) et 16 voies (IL1620R) ainsi que sur des configurations « cluster » interconnectant des NovaScale 4040 pour accroitre la capacité CPU. Notions générales sur Linux HPC 1-5 1-6 HPC Linux installation hardware Chapitre 2. Description de l’environnement matériel HPC NovaScale 4040 2.1 Introduction L'architecture matérielle d'un cluster HPC est directement dérivée de son utilisation principale: le calcul intensif sur un grand nombre de processeurs. Le nombre de processeurs étant limité, par construction, dans une machine, l'élément déterminant de cette architecture est la multiplication de machines, appelées "nœuds" de calcul, ou "grain", chacune apportant son nombre limité de processeurs dans un travail de coopération globale pour atteindre le niveau de puissance demandé par une application. Cette architecture demande un chef d'orchestre coordonnant les actions des autres nœuds, la répartition des éléments applicatifs et la répartition des données entre les nœuds. Un nœud particulier du cluster, le "nœud serveur" ou "nœud d'administration" est dédié à cette tache. Il constitue le point d'accès centralisé au cluster (au sens connexion au réseau utilisateur) et propose au monde extérieur une visibilité unifiée du cluster. Ce nœud centralise aussi toute l'administration matérielle et la configuration de cluster. Les données nécessaires au calcul demandent généralement un espace de stockage très supérieur à celui disponible en interne sur chaque nœud. Un sous-système disque est donc intégré au cluster, connecté à un second nœud particulier du cluster appelé "nœud des entrées-sorties". Les données sont ensuite distribuées vers les autres nœuds de calcul par des méthodes classiques de distribution de fichiers de type "NFS" ("Network File System"). Afin de minimiser les coûts, il est possible de faire jouer ces deux rôles aux même nœud physique. Un fort niveau d'interconnexion physique est nécessaire à l'intérieur d'un cluster pour acheminer tous ces trafics d'information entre les différents nœuds. On définit donc 3 niveaux distincts d'interconnexion, chacun apportant des éléments matériels propres: Description de l’environnement matériel HPC NovaScale 4040 2-1 • Le premier dédié à la coopération applicative et l'échange entre nœuds d'éléments sémantiques de l'application, basé sur un lien physique SCI. • Un deuxième dédié à la répartition des données applicatives présentes sur le sous-système disque connecté au nœud des entrèes-sorties, et basé sur un réseau Ethernet haut-débit (Gigabit). Ce réseau est aussi utilisé pour toute l’administration et la configuration logicielle du cluster. • Enfin un troisième dédié à l'administration matérielle du cluster, basé sur des lignes série. La suite de ce chapitre reprend ces éléments de base pour aborder leur description physique précise en se basant sur les exemples : • d’un cluster 4 nœuds de calcul ( 4 nœuds identiques dont 1 également utilisé pour l’administration) • d'un cluster 8 nœuds (6 nœuds uniquement de calcul, 1 d'administration et de calcul, 1 d'entrées-sorties et de calcul). Sont décrites les règles d'installation nécessaires à la bonne intégration de l'ensemble pour constituer une configuration opérationnelle sur le plan matériel. Pour obtenir des détails plus précis sur chaque élément matériel décrit ici, se référer à sa documentation spécifique. 2-2 HPC Linux installation hardware 2.1 Le rack 36U Le cluster HPC Bull est intégré dans une armoire (« Rack ») standard de 19 pouces de large, et 36 unités de hauteur (l’unité de hauteur équivaut à 44,45 mm soit 1 pouce 3/4). Chaque élément intégré occupe un nombre entier d’unités. (voir tableau) Deux armoires sont nécessaires pour accueillir l’ensemble des éléments constitutifs de notre exemple à 8 machines. Elément Nœud de calcul Sous-système disque-base Sous-système disque-extension Ecran/clavier/souris intègrés Switch Ethernet Répartiteurs d’alimentation Hauteur occupée (en Unités) 4 3 2 2 2 0 Tableau 1 : hauteur des éléments dans une armoire Pour assurer la bonne stabilité de l’ensemble, tous les éléments dans une armoire sont boulonnés aux rails internes au moins en partie avant, et sont fixés pour la plupart sur des équerres elles-mêmes fixées sur les rails avant et arrière. Ces pièces de fixation font l’objet de kits spécifiques à chaque élément (« kit de fixation ») car elles prennent en compte les spécificités de perçage de chaque élément. L’armoire elle-même doit être bien stabilisée sur le sol au moyen des vérins inclus, pour limiter au maximum les vibrations nuisibles au bon fonctionnement de tout matériel informatique. L’alimentation électrique des éléments est distribuée par l’intermédiaire de boîtiers répartiteurs d’alimentation (« PDU » : Power Distribution Unit) offrant chacun 6 sorties électriques au format US. Une armoire peut contenir jusqu’à 4 boîtiers répartiteurs d’alimentation qui sont situés verticalement de chaque coté de l’armoire entre les parois et les rails de fixation, deux situés en partie haute, et deux en partie basse, à l’arrière de l’armoire. Ces boîtiers répartiteurs sont d’abord placés à gauche de l’armoire vue par l’arrière, puis à droite si nécessaire. Ces répartiteurs d’alimentation doivent chacun être reliés au réseau d’alimentation électrique au moyen de la prise ad-hoc. Description de l’environnement matériel HPC NovaScale 4040 2-3 2.2 Le nœud d’adminis tration Bien que chaque nœud d’un cluster soit physiquement équivalent au niveau architecture, encombrement et connectique de base, le nœud d’administration (et le nœud des entrées-sorties lorsqu’il est dissocié du nœud d’administration) présente certaines particularités matérielles induites par sa fonction dans le cluster : • Il est le seul à pouvoir être connecté à un réseau externe, donc accessible de l’extérieur du cluster. • L’ensemble console (écran/clavier/souris) du cluster lui est connecté, et à lui seulement. • Il centralise la gestion matérielle les autres nœuds en étant le point central du réseau des lignes série. • Sa position dans l’armoire doit le rendre aisément accessible à un opérateur car il centralise la plupart des opérations manuelles nécessaires à l’administration matérielle du cluster (accès au bouton de marche / arrêt, accès au lecteurs CD-ROM et disquettes, etc…) La puissance de ce nœud peut être modulée (nombre de CPUs, mémoire, espace disque interne) pour des raisons de coût et adaptée si besoin à son seul rôle d’administration de cluster. Comme tous les autres nœuds, sa connectique de base inclut : • 4 ports USB (Universal Serial Bus), sur lesquels viennent se connecter le clavier et la souris, • 1 port vidéo SVGA pour connecter l’écran, • 1 port série inutilisé, • 1 port ethernet 10/100/1Gb à relier au switch ethernet, • 2 connecteurs d’alimentation électrique dont un au moins doit être relié à un des boîtiers répartiteurs d’alimentation. Le nœud d’administration contient obligatoirement 3 adaptateurs PCI additionnels : • 1 carte SCI placée dans un des emplacements PCI les plus à gauche, pour participation de ce nœud au réseau SCI (voir le chapitre SCI pour les détails) • 1 ou 2 cartes (2 cartes au-delà de 7 nœuds dans un cluster) asynchrones rs232 8 ports, placées dans les emplacement PCI les plus à droite, pour l’administration matérielle du cluster. Un boîtier éclateur des 8 lignes série y est connecté (voir le chapitre spécifique sur les lignes série). • 1 carte d’accès réseau au monde extérieur. 2-4 HPC Linux installation hardware 2.3 Les nœuds de calc ul Les nœuds de calcul à l’intérieur d’un cluster sont surtout caractérisés par une taille de mémoire centrale et un nombre de CPUs adaptés à la puissance désirée globalement. Du point de vue connectique, ils incluent : • 4 ports USB inutilisés • 1 port VGA inutilisé • 1 port série relié à l’adaptateur PCI rs232 du nœud d’administration, par l’intermédiaire du boîtier de répartition 8 ports série de ce nœud. • 1 port ethernet 10/100/1Gb à relier au switch Ethernet • 2 connecteurs d’alimentation électrique dont un au moins doit être relié à un des boîtiers répartiteurs d’alimentation. Chaque nœud de calcul contient obligatoirement un adaptateur PCI SCI pour sa participation au réseau SCI, relié par 2 câbles au nœuds précédents et 2 autres câbles aux nœuds suivants de chacun des anneaux SCI auxquels il participe . Description de l’environnement matériel HPC NovaScale 4040 2-5 2.4 Le nœud des entré es/sorties Ce nœud, lorsqu’il est dissocié du nœud d’administration, contient les adaptateurs PCI SCSI de connexion aux éléments de stockage externe. Ses autres connexions sont identiques à celles d’un nœud de calcul. Un adaptateur PCI SCI sera également mis pour lui permettre de participer au réseau SCI. Ce nœud peut aussi contenir d’autres adaptateurs PCI d’entrées/sorties pour d’autres besoins optionnels de stockage tels que lecteur de bandes magnétiques ou sous-système de sauvegarde. 2.5 L’interconnexion E thernet Comme décrit ci-dessus, chaque nœud d’un cluster inclut un port Ethernet 10/100/1Gb, et l’ensemble de ces nœuds est relié à un switch ethernet qui constitue le cœur de ce réseau dans le cluster. L’arrivée du réseau d’établissement, dans lequel le cluster doit s’insérer, se fait par un adaptateur PCI réseau additionnel placé dans le nœud d’administration, et compatible avec le type du réseau d’établissement. Le switch ethernet, qui peut être du type 100Mb ou 1Gb suivant le coût et la puissance désirés, se place en partie centrale ou basse de l’armoire contenant le nœud d’administration pour faciliter son câblage à l’ensemble des autres nœuds, y compris ceux présents dans l’autre armoire. Il se fixe en face arrière de l’armoire et prend son alimentation électrique sur un des répartiteurs d’alimentation adjacents. Le câblage ethernet s’effectue à l’aide de câbles RJ45/RJ45 catégorie 5 de 7,5 mètres. L’administration matérielle du switch s’effectue par l’intermédiaire du nœud d’administration, à travers la connexion existante vers celui-ci (administration « in-band »). Voir la documentation spécifique à cet élément pour plus de détails. Le nommage et l’adressage des nœuds dans un cluster doit obéir à des règles strictes et logiques pour pouvoir aisément identifier et localiser un nœud lorsque leur nombre croît. Les règles de nommage à adopter sont les suivantes : • Les armoires composant un cluster sont numérotées dans leur ordre physique de placement dans le centre de calcul : R01, R02, R03, R04, etc… 2-6 HPC Linux installation hardware • • • • Dans la suite de ce document chaque nœud est nommé par son emplacement dans une armoire, à partir du bas de l’armoire, et indexé par le numéro de cette armoire : - Le premier nœud en bas de la première armoire se nomme N0101 - Le deuxième nœud à partir du bas de la première armoire se nomme N0102 - Etc.. - Le premier nœud en bas de la deuxième armoire se nomme N0201 - Le deuxième nœud à partir du bas de la deuxième armoire N0202 - Le troisième N0203 - Etc… Suivant le nombre de nœuds dans une armoire et leurs positions relatives, le nommage peut être discontinu si un emplacement d’un nœud est laissé vacant. Le nœud d’administration est le nœud N0105 compte tenu de son emplacement dans l’armoire. Le nœud des entrées-sorties, s’il est dissocié du nœud d’administration est le nœud N0101. L’administrateur pourra néanmoins renommer à sa convenance ces noeuds notamment pour les configurations IP, SCALI et fichiers de configuration minicom Dans nos exemples nous appellerons souvent le nœud d’administration « admin »plutôt que « N0105 ». On pourra préférer aussi nommer avec « n » plutôt que « N » (n0102 plutôt que N0102) Le nœud d’administration possède aussi un second nom réseau et une adresse ethernet laissés au choix de l’administrateur et permettant son accès depuis l’extérieur à travers l’adaptateur réseau PCI additionnel. Les autres nœuds constituent un sous-réseau privé ethernet local au cluster. Il est conseillé de leur affecter une adresse ethernet statique en reprenant le nommage des nœuds dans la partie variable de l’adressage sur un segment : • L’adresse de segment privé utilisée est à prendre dans une plage compatible avec le plan d’adressage de l’entreprise et conformément aux règles du RFC1918 (plage d’adressage catégorie 1 ou 2). Par exemple 172.16.12.xxx • La partie spécifique à chaque nœud fait référence à son nom, par exemple : - 172.16.12.11 pour le premier nœud de la première armoire, - 172.16.12.12 pour le deuxième nœud de la première armoire, - etc… - 172.16.12.21 pour le premier nœud de la deuxième armoire, - etc… Description de l’environnement matériel HPC NovaScale 4040 2-7 2.6 L’interconnexion S CI Le cluster HPC Bull utilise des adaptateurs PCI d’interconnexion hautes performances SCI en mode « tore bi-dimentionnel » comme infrastructure de communication inter-nœud. L’interface -message (« MPI » : Message Passing Interface) SCALI est optimisée pour tirer pleinement parti de cette infrastructure. Chaque nœud de calcul, et le nœud d’administration possèdent un adaptateur PCI SCI, directement relié aux nœuds précédent et suivant, ce qui élimine l’obligation de disposer d’un switch SCI en apportant une architecture plus sûre et plus extensible à moindre coût. Chaque adaptateur SCI possède 4 connecteurs mono -directionnels (deux en entrée et deux en sortie). Les sorties sont les deux connecteurs supérieurs, les entrées les deux connecteurs inférieurs, les connecteurs étant apairés verticalement, paire 0 à gauche, paire 1 à droite suivant le schéma suivant : Chaque paire (une entrée/une sortie) doit être connectée à l’aide de deux câbles spécifiques aux autres nœuds de manière à former des boucles ou anneaux offrant le maximum de maillage dans le cluster. 2-8 HPC Linux installation hardware Dans le cas d’un cluster 4 nœuds (N0101, N0102, N0103, N0105) le câblage sera ; Notre cluster 4 nœuds est câblé ainsi : N 0 1 05 OUT IN N 0 1 03 OUT N 0 1 02 OUT IN IN N 0101 OUT IN P aires 0 P aires 1 Les liaisons entre les nœuds d’ un cluster 4 nœuds s’établissent ainsi: Nœud initial (OUT) Nœud destinataire Nœud destinataire (IN) (IN) Paire 0 Paire 1 N0101 N0105 N0102 N0102 N0103 N0101 N0103 N0102 N0105 N0105 N0101 N0103 Description de l’environnement matériel HPC NovaScale 4040 2-9 Dans le cas du cluster 8 nœuds reliés par SCI le câblage sera: Ces liaisons entre nœuds s’établissent ainsi: Nœud initial (OUT) N0206 N0205 N0204 N0203 N0202 N0201 N0105 N0101 Nœud destinataire Nœud destinataire (IN) (IN) Paire 0 Paire 1 N0204 N0202 N0206 N0201 N0203 N0105 N0205 N0101 N0105 N0206 N0202 N0205 N0101 N0204 N0201 N0203 La première dimension de l’interconnexion SCI est construite sur les « paires 0 » de chaque nœud . La deuxième dimension est construite sur les « paires 1 » des nœuds. 2.7 L’interconnexion S érie Tous les éléments constitutifs d’un cluster (nœuds de calcul, nœud des entrées-sorties, sous-système disque) sont connectés au nœud d’administration par un réseau de lignes série (RS232) en étoile à partir de ce nœud. Une ou deux cartes série 8 ports sont nécessaires suivant le nombre d’éléments. 2-10 HPC Linux installation hardware En boîtier éclateur placé au bas de l’armoire et relié à chaque adaptateur série PCI permet de disposer de 8 connecteurs RS232 DB25-mâle, numérotés de 0 à 7 : Chacun des nœuds de calcul et d’entrée-sortie doit être relié à ce boîtier par l’intermédiaire d’un câble DB25-femelle/DB9-femelle composé d’une grande longueur DB25-femelle/DB25-femelle et d’un court câble d’adaptation DB25male/DB9-femelle, à partir de son connecteur série DB9-Male situé à l’arrière en haut à gauche. ier Veiller à respecter l’ordre de branchement des nœuds sur le boîtier (1 nœud ième sur le connecteur 0, 2 nœud sur le connecteur 1, etc..). Le sous-système disque possède aussi 2 ports série qu’il faut brancher sur les deux derniers connecteurs du seul boîtier si le nombre de nœuds le permet, ou du deuxième boîtier si le cluster comprend plus de 7 nœuds (i.e. 1 nœud d’administration non connecté au boîtier et 6 autres nœuds connectés sur les 6 premiers connecteurs). Se référer à la documentation spécifique du sous-système disque pour plus d’information. Description de l’environnement matériel HPC NovaScale 4040 2-11 Nommage des ports série (exemple à 8 nœuds de calcul), le boîtier 1 correspond à celui de l’adaptateur PCI le plus à droite : Boîtier N° de connecteur Elément connecté 1 0 Nœud N0101 1 1 1 2 1 3 1 4 1 5 1 6 1 7 ss-disque 2 0 Nœud 0201 2 1 Nœud 0202 2 2 Nœud 0203 2 3 Nœud 0204 2 4 Nœud 0205 2 5 Nœud 0206 2 6 2 7 ss-disque 2-12 Fonction Nœud des E/S Nœud de calcul n°1 Nœud de calcul n°2 Nœud de calcul n°3 Nœud de calcul n°4 Nœud de calcul n°5 Nœud de calcul n°6 Nommage Linux ttyD008 ttyD009 ttyD010 ttyD011 ttyD012 ttyD013 ttyD014 ttyD015 ttyD000 ttyD001 ttyD002 ttyD003 ttyD004 ttyD005 ttyD006 ttyD007 HPC Linux installation hardware 2.8 Le sous-système d e stockage Le sous-système de stockage est un élément essentiel d’un cluster car il permet de stocker les données nécessaires à l’application et dont l’accès doit être réparti sur l’ensemble des nœuds. Il se compose d’un élément principal à 14 emplacements disque: Et d’un élément optionnel d’extension à 8 emplacements disque afin d’augmenter sa capacité : L’élément optionnel est relié à l’élément principal par 2 câbles SCSI externes. Pour une description plus complète de ces éléments, se référer à leur documentation spécifique. Le sous-système disque offre deux processeurs de gestion de volumes RAID ayant chacun sa sortie SCSI et est connecté au nœud des entrées-sorties par deux adaptateurs PCI de bus SCSI placés dans celui-ci. Description de l’environnement matériel HPC NovaScale 4040 2-13 Les données sont ensuite distribuées aux autres nœuds suivant leurs besoins applicatifs par le réseau d’interconnexion Ethernet et un protocole de distribution de fichiers de type NFS. L’administration du sous-système disque s’effectue par l’intermédiaire de deux lignes série (une pour chaque processeur de gestion de volumes RAID) à relier au boîtier de répartition des 8 lignes séries de l’armoire à l’aide du câble fourni. Chaque élément du sous-système disque possède optionnellement deux alimentations électriques séparées à relier à deux boîtiers répartiteurs d’alimentation électrique de l’armoire. 2-14 HPC Linux installation hardware Chapitre 3. Installation matérielle 3.1 Plan général d’une configuration 8 nœuds Le cluster 8 nœuds opérationnel présente la structure suivante : Installation matérielle 3-1 3-2 HPC Linux installation hardware 3.1 Règles de placeme nt des éléments dans les armoires Armoire R01 : Elément Switch Ethernet Nœud des E/S (N0101) Sous-système disque Extension disque Console intégrée Nœud de contrôle (N0105 ou admin) Taille (en unités) 2 4 3 2 2 4 Emplacement (en Unités) 1-2 3-6 7-9 10-11 15-16 21-24 Notes : § Les emplacements sont numérotés de bas en haut de l’armoire. § Concernant le nœud N0105 affecté à l’administration et au contrôle il sera préférable de le nommer « admin ». C’est ce qui est fait dans la partie Installation de ce document. Armoire R02 : Element Nœud de calcul n°1 (N0201) Nœud de calcul n°2 (N0202) Nœud de calcul n°3 (N0203) Nœud de calcul n°4 (N0204) Nœud de calcul n°5 (N0205) Nœud de calcul n°6 (N0206) Taille (en unités) 4 4 4 4 4 4 Emplacement (en Unités) 3-6 7-10 11-14 15-18 19-22 23-26 Note : Les emplacements sont numérotés de bas en haut de l’armoire. Installation matérielle 3-3 3.2 Règles de placeme nt des adaptateurs PCI dans les nœuds Les emplacements PCI des nœuds sont numérotés de 1 à 8, de droite à gauche lorsque le nœud est vu par l’arrière. Type d’adaptateur PCI Adaptateur SCI Adaptateur Ethernet Adaptateurs SCSI Adaptateurs lignes série Nœud Tous Nœud de contrôle Nœud d’E/S Nœud de contrôle Emplacement 8 6 6-7 1-2 3.3 Exemple d’un clus ter 4 nœuds Cet exemple reprend les règles énoncées ci-dessus pour une implémentation d’un cluster 4 nœuds dont un nœud de contrôle intégrant les fonctions du nœud des entrées-sorties. Ce cluster est construit dans une seule armoire : Armoire R01 : Elément Switch Ethernet Nœud de calcul n°1 (N0101) Nœud de calcul n°2 (N0102) Nœud de calcul n°3 (N0103) Console intégrée Sous-système disque Nœud de contrôle (N0105) 3-4 Taille (en unités) 2 4 4 4 2 3 4 Emplacement (en Unités) 1-2 3-6 7-10 11-14 15-16 18-20 21-24 HPC Linux installation hardware Le nœud de contrôle et entrées-sorties contient à la fois les adaptateurs SCSI, SCI et Ethernet pour connexion au réseau d’entreprise. Un seul adaptateur lignes série est nécessaire pour une telle configuration. Les adaptateurs PCI de ce nœud de contrôle et entrées-sorties sont donc placés suivant les règles suivantes : Type d’adaptateur PCI Adaptateur SCI Adaptateur Ethernet Adaptateurs SCSI Adaptateur lignes série Emplacement 8 5 4-6 1 Le placement des adaptateurs dans les autres nœuds reste inchangé. Installation matérielle 3-5 L’interconnexion SCI se fait suivant les règles suivantes : Nœud initial (OUT) N0101 N0102 N0103 N0105 Nœud destinataire Nœud destinataire (IN) (IN) Paire 0 Paire 1 N0105 N0102 N0103 N0101 N0102 N0105 N0101 N0103 Les lignes séries sont câblées sur l’unique boîtier comme suit : N° de connecteur Elément connecté 0 Nœud 0101 1 Nœud 0102 2 Nœud 0103 3 4 5 6 ss-disque 7 ss-disque Fonction Nommage Linux Nœud de calcul n°1 ttyD000 Nœud de calcul n°2 ttyD001 Nœud de calcul n°3 ttyD002 ttyD003 ttyD004 ttyD005 ttyD006 ttyD007 3.4 Règles et Plan de c âblage Chaque câble utilisé dans un cluster doit être étiqueté à chaque extrémité. Une extrémité donnée doit faire référence à l’élément connecté à l’autre extrémité et éventuellement à un port particulier lorsqu’il en existe plusieurs. Exemple : le câble ethernet du premier nœud vers le switch ethernet doit comporter à son extrémité coté nœud : le nom du switch et le n° du port sur le switch. A son extrémité coté switch doit être indiqué le nom du nœud. A l’intérieur d’une armoire, les câbles constituant le réseau SCI doivent être correctement lovés et rangés côté gauche, ceux constituant les réseaux série et ethernet côté droit. Les câbles destinés à passer d’une armoire à l’autre ont été prévus d’une longueur assez grande pour pouvoir cheminer par un faux-plancher lorsque les armoires sont adjacentes, afin de laisser le sol autour des armoires vierge de tout câble interne au cluster. Console : § Relier le clavier et la souris aux ports USB du nœud d’administration (N0105). § Relier l’écran au port SVGA du nœud d’administration. 3-6 HPC Linux installation hardware Câblage des lignes série : § Connecter les boitiers répartiteurs 8 ports aux 2 adaptateurs PCI RS232 du nœud d’administration. § Relier les ports série intégrés de tous les nœuds (hormis le nœud d’administration) à ces boitiers, en respectant l’ordre des nœuds, et en suivant le tableau page 2-12.. § Relier les ports séries du sous-système disque au derniers connecteurs du ou des boitiers. Câblage Ethernet : § Relier chaque port Ethernet intégré de chaque nœud à un port du switch, en respectant l’ordre des nœuds. § Relier la carte additionnelle PCI Ethernet du nœud d’administration au réseau d’établissement Câblage SCI : § Tous les connecteurs SCI doivent être utilisés § Procéder au câblage suivant les indications du chapitre 3.1.7 Câblage SCSI : § Relier, s’il existe, le sous-système d’extension disque au principal par les deux câbles fournis. § Relier le sous-système disque aux deux cartes SCSI du nœud des entrées-sorties Alimentation : § Relier chaque élément au boitier répartiteur d’alimentation le plus proche. § Lorsque l’option « double alimentation » d’un élément a été choisie, le relier à deux répartiteurs différents. § Connecter les répartiteurs au réseau électrique. Installation matérielle 3-7 3.5 Administration du matériel 3.5.1 Mise en route du nœu d d’administration Le nœud d’administration représentant la partie visible extérieurement du cluster, sa mise en route et son administration matérielle se fait normalement à l’aide de la console lui étant directement connectée. L’opération du reste du cluster passe obligatoire par la disponibilité de ce nœud d’administration . Il doit donc être le premier à être mis en route, installé avec son système d’exploitation et configuré. L’administration matérielle des autres éléments se fait ensuite par l’intermédiaire de sa console ou de toute autre console lui étant connectée sur le réseau externe. 3.5.2 Mise en route et contr ôle des autres nœuds L’administration matérielle des autres nœuds du cluster s’effectue à travers le réseau d’interconnexion série. Sur le nœud d’administration, un programme d’émulation de terminal minicom (ou xminicom dans une fenêtre X) doit être utilisé pour avoir accès à la console des autres nœuds. Le lancement de ce programme se fait par : $ minicom n0x0y & (n0x0y identifie le nom du nœud auquel on veut accéder. Ce nom est utilisé comme suffixe du fichier /etc/minirc.n0x0y créé sur le nœud à administrer comme suit). Pour « sortir » de minicom, il faut entrer les caractères « CTRL A » puis « X ». Configuration de minicom : minicom utilise un fichier de configuration propre à chaque nœud, situé dans le répertoire « /etc/ » et portant le nom « minirc.<nom du nœud >». Chacun de ces fichiers positionne les valeurs des paramètres de travail de chaque ligne série. 3-8 HPC Linux installation hardware Exemple pour un cluster 4 noeuds (admin, n0101, n0102, n0103): $ cat /etc/minirc.n0101 # minicom default configuration file for node N0101 pr port /dev/ttyD000 pu baudrate 115200 pu bits 8 pu parity N pu stopbits 1 pu mautobaud Yes pu statusline disabled pu hasdcd No pu minit pu mreset $ $ cat /etc/minirc.n0102 # minicom default configuration file for node N0102 pr port /dev/ttyD001 pu baudrate 115200 pu bits 8 pu parity N pu stopbits 1 pu mautobaud Yes pu statusline disabled pu hasdcd No pu minit pu mreset $ $ cat /etc/minirc.n0103 # minicom default configuration file for node N0103 pr port /dev/ttyD002 pu baudrate 115200 pu bits 8 pu parity N pu stopbits 1 pu mautobaud Yes pu statusline disabled pu hasdcd No pu minit pu mreset $ Installation matérielle 3-9 3-10 HPC Linux installation hardware Glossaire BANDE PASSANTE La largeur de bande est l'intervalle de fréquences (« la bande ») transmises sans distorsions notables sur un support de transmission bien défini (atténuation...). Elle est mesurée en Hz. Pour les réseaux, et ensuite par extension pour tous les médias, cela représente la quantité de données transmise par unité de temps, c'est-à-dire le débit, aussi appelé (de façon peu orthodoxe mais fort commune) bande passante. Dans ce cas elle est mesurée en bit/s. BEOWULF Superordinateur composé de nombreuses stations de travail exécutant le même code en parallèle. Les Stations, aussi simples et idiotes que possible, sont appelées des « Noeuds », contrôlées via réseau par un ou plusieurs serveur(s). Un Beowulf n'utilise aucun matériel particulier, uniquement des machines et des équipements de réseau courants. Le logiciel est lui aussi courant, comme par exemple le système d'exploitation Linux, ainsi que PVM et MPI. La définition est parfois restreinte aux machines construites selon le premier modèle de Beowulf, conçu par la NASA. Les systèmes Beowulf sont répartis en deux classes, selon qu'ils sont entièrement construits à partir d'éléments trouvés à la mercerie du coin (Classe I), ou qu'ils comprennent des éléments spécifiquement conçus (Classe II). CLUSTER (en français grappe) Architecture de groupes d'ordinateurs, utilisée pour former de gros serveurs. Chaque machine est un noeud du cluster, l'ensemble est considéré comme une seule et unique machine. Utilisée pour le calcul scientifique, le décisionnel, le transactionnel et le datawarehouse. DEBIT Quantité d'information empruntant un canal de communication pendant un intervalle de temps. Mesuré en Mbit/s ou Mo/s. FSF La Free Software Foundation est une organisation américaine dédiée à l'abolition des restrictions sur la copie, la redistribution, la compréhension et la modification des programmes informatiques. Elle promeut le développement et l'utilisation du Logiciel Libre, et est l'initiatrice du projet GNU. GNU Un acronyme récursif "GNU Not Unix". GNU/LINUX Il s’agit de l’ensemble formé par le noyau Linux et du système GNU. Glossaire g-1 GPL General Public License. Le statut juridique des logiciels distribués « librement », à l'origine utilisé pour le projet GNU de la FSF. HPC High Performance Computing. Informatique de haute performance. Itanium™ Architecture Architecture 64 bits des nouvelles puces d'Intel, destinées à remplacer les x86. Il s'agit d'une rupture totale avec la série x86, le jeu d'instructions n'ayant plus rien à voir, ni les éléments de l'architecture du processeur. Le résultat est quelque chose de globalement plus simple, donc de bien plus rapide, en donnant un contrôle plus fin au logiciel (en particulier les compilateurs) sur le matériel. La première version s'appelle Itanium (précédemment appelée Merced). Il aura fallu six ans de développement pour qu'il apparaisse sur le marché. Maintenant la deuxième génération, Itanium-2, a fait son apparition. ITANIUM™ Processor Processeur 64 bits d’Intel et destiné à remplacer les x86 (dont les Pentiums), tout en restant compatible. Itanium est le premier modèle de l’architecture Itanium et l’Itanium-2™ est le 2ième. LATENCE Temps minimal de propagation d'un signal. Par extension, temps minimal de transmission d'un ensemble de données à travers d'un réseau. LINUX Linux est un système d'exploitation de type UNIX, multi-tâches et multi-utilisateurs, disponible sur de nombreuses architectures matérielles, en particulier les machines à base de processeurs x86 et Itanium. Il intègre la plupart des technologies les plus récentes (SMP, clustering, RAID…). Linux est un noyau. Pour l’utiliser, il faut des applications, c’est ce que proposent les distributions. Une distribution est un ensemble de programmes plus un noyau à installer sur une machine. Parmi les distributions Linux, on peut citer RedHat, Mandrake, Suse, TurboLinux … MONITORING Contrôle pas à pas, c'est-à-dire qu'on ne laisse aucune liberté au système contrôlé. Le monitoring permet aussi de contrôler et/ou surveiller un processus en temps réel. MPI Message Passing Interface. Bibliothèque portable utilisée pour des applications parallèles. NFS Network File System. C'est un système de gestion de fichiers de réseau, présenté par Sun en 1985 pour ses stations sans disque. Les versions principalement utilisées g-2 HPC Linux installation hardware actuellement sont les versions 2 (utilisant UDP) et, depuis 1993, 3 (pouvant utiliser UDP ou TCP). NOEUD Ordinateur connecté à un réseau. Dans le monde du clustering, chaque machine du cluster est appelée nœud. Leurs fonctions peuvent ensuite être différentes : nœud de management, nœud de calcul, nœud de storage … OPEN SOURCE Définition particulière du logiciel libre, mise au point en 1998 par Eric Raymond, cherchant à adapter le principe à l'entreprise. Elle comporte neuf points (pour le moment): la libre redistribution, la mise à disposition du code source, la possibilité de distribuer ses travaux dérivés, le respect du code source originel, l'absence de discrimination envers des personnes, l'absence de limitation sur le domaine d'application du logiciel, la distribution de la licence et sa non-spécificité à un produit, et enfin le fait qu'elle ne contamine pas le travail des autres. PARALLELISATION Transformer un programme de façon qu'il soit possible de l'exécuter efficacement sur plusieurs processeurs. PROCESSUS Programme en cours d'exécution, avec son environnement. Terme essentiellement utilisé dans le monde Unix à l'origine. PVFS Parallel Virtual File System. Projet se définissant comme l'exploration de la « conception, de l'implémentation et des utilisations potentielles des entrées/sorties parallèles ». Développé par l'université de Clemson et la NASA, PVFS est destiné aux clusters de Stations de Travail et aux machines Beowulf PVM Parallel Virtual Machine. API gérant la communication entre les nœuds d'un cluster de machines. RAID Installation de disques durs en batterie pour augmenter le stockage et la fiabilité. RISC Architecture de processeur. SCALABILITE La capacité d'un système à supporter une augmentation de ses contraintes dans un domaine particulier, ou dans tous les domaines. On pourrait proposer le nom " échelonnabilité" comme traduction. Par exemple un système est dit "scalable" en terme de nombre d'utilisateurs si ses performances de fonctionnement sont aussi bonnes avec une dizaine d'utilisateurs connectés qu'avec une centaine. Glossaire g-3 SERVEUR DE FICHIERS Serveur qui met uniquement des fichiers à disposition du réseau, et pas ses autres ressources (comme sa puissance de calcul, ses liaisons...). En général, son point fort est son disque dur. SMP Symmetric MultiProcessing. Système multiprocesseur distribuant symétriquement les tâches entre différents processeurs partageant une mémoire commune, en s'assurant qu'ils ne vont pas se mettre à écrire tous à la même adresse en même temps. SWAP Le fait d'utiliser une partie d'un disque dur comme de la mémoire vive. SYsTEME DE GESTION DE FICHIERS (SGF) Il définit par exemple la structure interne de l'arborescence, les formats d'enregistrements, le découpage des disques, les métadonnées sur les fichiers... Un SGF est constitué d'un service de gestion (pour l'organisation des fichiers entre eux) et d'un système de fichiers (pour les opérations sures et dans les fichiers). TRACE La Trace d'un programme est la succession des états de son environnement au cours de son exécution. g-4 HPC Linux installation hardware Références Généralités sur les clusters www.beowulf.org www.tldp.org/HOWTO/Parallel-Processing-HOWTO.html www.top500.org www.phy.duke.edu/brahma/beowulf_online_book/ www.Linux-Consulting.com/Cluster/ Les architectures parallèles www.lri.fr/~fci/support95.html www.idris.fr Les interconnects www.scali.com www.dolphin.com www.essi.fr/~riveill/rapport01-these-cecchet.pdf www.ens-lyon.fr/~rewestrel/thses.ps HPC www.epcc.ed.ac.uk/HPCinfo L’ouvrage High Performance Computing de Dowd & Severance aux éditions O’Reilly. Librairies scientifiques www.lifl.fr/west/courses/cshp/bibsp.pdf www.irisa.fr/orap/Publications/Forum6/petitet.ps www.netlib.org Références r-1 r-2 HPC Linux installation hardware Vos remarques sur ce document / Technical publication remark form Titre / Title : Bull NovaScale 4040 HPC Linux Installation du matériel Nº Reférence / Reference Nº : 86 F1 51EG 00 Daté / Dated : Avril 2003 ERREURS DETECTEES / ERRORS IN PUBLICATION AMELIORATIONS SUGGEREES / SUGGESTIONS FOR IMPROVEMENT TO PUBLICATION Vos remarques et suggestions seront examinées attentivement. Si vous désirez une réponse écrite, veuillez indiquer ci-après votre adresse postale complète. Your comments will be promptly investigated by qualified technical personnel and action will be taken as required. If you require a written reply, please furnish your complete mailing address below. NOM / NAME : SOCIETE / COMPANY : ADRESSE / ADDRESS : Remettez cet imprimé à un responsable BULL ou envoyez-le directement à : Please give this technical publication remark form to your BULL representative or mail to: BULL CEDOC 357 AVENUE PATTON B.P.20845 49008 ANGERS CEDEX 01 FRANCE Date : Technical Publications Ordering Form Bon de Commande de Documents Techniques To order additional publications, please fill up a copy of this form and send it via mail to: Pour commander des documents techniques, remplissez une copie de ce formulaire et envoyez-la à : BULL CEDOC ATTN / Mr. L. CHERUBIN 357 AVENUE PATTON B.P.20845 49008 ANGERS CEDEX 01 FRANCE Phone / Téléphone : FAX / Télécopie E–Mail / Courrier Electronique : +33 (0) 2 41 73 63 96 +33 (0) 2 41 73 60 19 srv.Cedoc@franp.bull.fr Or visit our web sites at: / Ou visitez nos sites web à: http://www.logistics.bull.net/cedoc http://www–frec.bull.com http://www.bull.com CEDOC Reference # No Référence CEDOC Qty Qté CEDOC Reference # No Référence CEDOC Qty Qté CEDOC Reference # No Référence CEDOC __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] Qty Qté [ _ _ ] : no revision number means latest revision / pas de numéro de révision signifie révision la plus récente NOM / NAME : Date : SOCIETE / COMPANY : ADRESSE / ADDRESS : PHONE / TELEPHONE : FAX : E–MAIL : For Bull Subsidiaries / Pour les Filiales Bull : Identification: For Bull Affiliated Customers / Pour les Clients Affiliés Bull : Customer Code / Code Client : For Bull Internal Customers / Pour les Clients Internes Bull : Budgetary Section / Section Budgétaire : For Others / Pour les Autres : Please ask your Bull representative. / Merci de demander à votre contact Bull. PLACE BAR CODE IN LOWER LEFT CORNER BULL CEDOC 357 AVENUE PATTON B.P.20845 49008 ANGERS CEDEX 01 FRANCE REFERENCE 86 F1 51EG 00 Utiliser les marques de découpe pour obtenir les étiquettes. Use the cut marks to get the labels. NovaScale 4040 HPC Linux Installation du matériel 86 F1 51EG 00 NovaScale 4040 HPC Linux Installation du matériel 86 F1 51EG 00 NovaScale 4040 HPC Linux Installation du matériel 86 F1 51EG 00