Sommaire
Edito
Temps fort
Tribune
Succès
Paroles d'experts
Solutions
En bref
Sondage express
Agenda
Version PDF
 

Abonnez-vous à
Bull Direct :

Votre email

Archives
n°24  |  Mars   2008
Tribune

« Bull, Architecte d’un monde ouvert™ » : l’application au calcul intensif
Par Fabio Gallo, Directeur des Solutions HPC de Bull

Vice-Président et Directeur des Solutions HPC de Bull depuis février 2008, Fabio Gallo était précédemment Vice-Président, responsable du développement des ventes pour l'Europe et le Moyen Orient de Scali, société spécialisée dans les solutions de réseau pour le HPC. Auparavant, Fabio Gallo a occupé plusieurs fonctions à haute responsabilité chez IBM, SGI et plus récemment chez Linux Networx Inc. où il a multiplié par 5 en 3 ans le chiffre d'affaires Europe et Moyen Orient.

La puissance des systèmes de calcul haute performance s’accroît à une vitesse vertigineuse : en un an, la puissance cumulée des 500 systèmes les plus puissants du monde a doublé. Face aux multiples technologies et architectures utilisées pour ces systèmes, Bull prend position. Car toutes les infrastructures et toutes les architectures ne se valent pas : selon le type d’application, certaines seront appropriées, d’autres risquent de décevoir les utilisateurs en usage réel. Bull a fait des choix stratégiques décisifs pour la liberté d’action de ses clients et privilégie deux facteurs déterminants :
  1. Des systèmes ouverts reposant sur des standards, garants de flexibilité et d’un rapport performance/prix optimal
  2. Une architecture en cluster pertinente, parfaitement en phase avec les applications utilisées et les volumes de données à transférer.

Flexibilité, puissance et pérennité
Il est toujours risqué de prédire l’avenir, mais les clusters de serveurs «standards», qui représentent désormais 80 % des 500 machines les plus puissantes au monde, possèdent des avantages indéniables qui assurent leur pérennité industrielle sur le marché des supercalculateurs, face aux autres architectures, tels que les systèmes MPP (Massively Parallel Processing) ou les quelques systèmes vectoriels subsistants. Les progrès réalisés pour l’intégration permettent de fédérer jusqu’à plusieurs milliers de serveurs, soit des dizaines de milliers de cœurs, pour construire des clusters puissants atteignant jusqu’à plusieurs centaines de téraflops. Et les technologies des clusters à l’échelle pétaflopique sont déjà en cours de test par de grands industriels et des laboratoires de recherche académique.

Le principal atout des clusters, c’est leur flexibilité, qui permet de bâtir un système spécifiquement adapté aux besoins des utilisateurs. C’est là la meilleure garantie pour que les performances en situation réelle soient à la hauteur des espérances des utilisateurs.

C’est ainsi que les clusters offrent une plus grande flexibilité au niveau de la quantité de mémoire par cœur de calcul . Alors que bien des systèmes MPP imposent un volume de mémoire très réduit, les clusters permettent de choisir la quantité de mémoire associée à chaque cœur en fonction des besoins des applications – les codes de simulation par exemple tournent plus efficacement avec une grande quantité de mémoire par cœur.

Les clusters offrent également une plus grande flexibilité au niveau de la gestion des entrées/sorties . La structure des E/S est totalement modulaire et peut donc être adaptée en fonction de la nature des codes – plus ou moins de nœuds d’E/S, plus ou moins de connexions, etc. Car il n’y a pas que la puissance de calcul à prendre en compte, encore faut-il que la bande passante des entrées/sorties suive.

Le réseau d’interconnexion des clusters offre généralement un meilleur niveau de performance . Les interconnects utilisés sont standards, ils ne sont aucunement liés aux serveurs, ce qui permet de bénéficier immédiatement des dernières évolutions technologiques. Dans ce domaine encore, l’architecture en cluster permet de choisir le réseau d’interconnexion offrant le meilleur rapport performance/prix par rapport aux besoins réels de communication entre applications.

Du point de vue des applications, les clusters de serveurs standard exigent un bien moindre effort d’adaptation des codes . En effet, d’une part ils offrent une performance supérieure par cœur, par rapport aux systèmes MPP dont la faible performance par cœur exige, à niveau de puissance égal, une plus grande parallélisation des applications. D’autre part le système d’exploitation des clusters est totalement standard, ce qui évite par exemple d’avoir à reprogrammer les E/S des applications, une tâche bien souvent nécessaire avec un système propriétaire. En calcul scientifique comme ailleurs, partir sur une voie propriétaire a ses contraintes en termes d’indépendance et de liberté d’évolution. C’est l’une des raisons majeures qui ont poussé les systèmes vectoriels, pourtant pionniers du calcul scientifique, vers leur déclin actuel – moins de 1 % des machines les plus puissantes au monde.

Dernier point, et c’est probablement le plus important aux yeux d’un acheteur, à puissance de calcul égale, ce sont les clusters de serveurs standard qui fournissent les solutions au meilleur prix – maintenance comprise – même pour de très grosses configurations. C’est une conséquence directe de l’utilisation de processeurs et autres composants de grande diffusion, et des possibilités de dimensionnement fin du système en fonction des besoins réels. Et ça évite le surdimensionnement.

De plus, pour rendre les clusters aussi faciles à administrer qu’un système unique, Bull a développé la suite logicielle HPC Bull Advanced Server (BAS), une solution robuste bâtie sur Linux®, assurant l’intégralité des fonctions de gestion d’un cluster -- réseau d’interconnexion et stockage compris.

Enfin, s’il est vrai que pendant longtemps la densité des clusters a laissé à désirer, leur encombrement au sol a connu une régression phénoménale ces dernières années. La puissance par armoire est en augmentation constante et d’ici un an, elle dépassera celle des systèmes MPP.

En résumé, ce sont les architectures de cluster ouvertes qui offrent la meilleure productivité pour un centre de calcul, en limitant le temps passé à adapter les codes, en maximisant le débit grâce aux performances des entrées-sorties et du réseau, en permettant de tirer profit des efforts de développement d’une large communauté et enfin en diminuant les coûts d’acquisition et de maintenance.

Des possibilités infinies
Avec une architecture en cluster, chaque supercalculateur est un objet unique, conçu pour répondre aux besoins spécifiques du client, en particulier en fonction de ses domaines d’applications. On peut même constituer un système « hybride », qui associe des nœuds d’architectures différentes – par exemples serveurs de grande diffusion et serveurs SMP – pour mieux couvrir les besoins d’applications diverses. Cela peut être intéressant par exemple pour de grandes simulations multiphysiques ou multi-échelles. Bull a déjà conçu pour certains de ces clients des systèmes hybrides dans lesquels deux types de machines sont gérés de façon transparente au sein de l’environnement logiciel Bull et accèdent tous à un système de fichiers commun.

Une ambition de leader et des développements pétaflopiques
Les solutions HPC de Bull ont séduit de prestigieux clients en France, en Europe mais aussi en Asie et en Amérique latine. Après le déploiement de TERA-10 au CEA en 2006 , alors le 5 e supercalculateur le plus puissant du monde et le 1 er européen, Bull a remporté de nombreux succès, aussi bien auprès de grands industriels (Dassault Aviation, Pininfarina…) que d’universités et centres de recherche académiques, dont récemment 4 des 7 plus grandes universités fédérales brésiliennes, l’Université de Cardiff, le réseau D-Grid allemand… En moins de trois ans d’activité dans le domaine du HPC, nous avons livré plus de 100 supercalculateurs dans 15 pays sur trois continents. Ceci illustre bien la percée que Bull, seul constructeur européen, est en train d’opérer dans le monde du calcul scientifique et la pertinence des choix technologiques effectués.

Bull a l’ambition de devenir le leader européen du HPC. C’est pourquoi nous faisons d’importants investissements sur deux axes majeurs :

  • La démocratisation du HPC : la puissance de calcul, et en particulier les perspectives de compétitivité ouvertes par les applications de simulation, ne doivent plus être l’apanage des grands. Bull propose donc des solutions HPC adaptées aux PME/PMI ou aux centres de recherche de taille intermédiaire. C’est dans cette optique que nous avons acquis la société Serviware, leader français dans l’intégration de solutions pour le calcul intensif, qui a une large base de clients industriels.
  • Nos départements R&D développent la nouvelle génération des très grands supercalculateurs, à l’échelle du pétaflop. Outre leurs travaux propres, ils contribuent activement à de nombreux projets coopératifs qui préparent les environnements pétaflopiques, tant au niveau matériel qu’au niveau logiciel, en partenariat avec de grands industriels et des centres de recherche universitaires.

Bull, aux côtés de ses partenaires institutionnels et industriels, façonne les architectures et les logiciels HPC de demain, avec toujours la même exigence d’ouverture et d’accessibilité.


ENVOYER A UN AMI POUR EN SAVOIR PLUS
Contact  |  Site map  |  Legal  |  Privacy