High performance computing

High performance computing

Superordinateur

Le superordinateur JET

Un superordinateur (ou supercalculateur) est un ordinateur conçu pour atteindre les plus hautes performances possibles avec les technologies connues lors de sa conception, en particulier en termes de vitesse de calcul.

La science des superordinateurs est appelée HPC, pour High Performance Computing, ce qui se traduit par Calcul haute performance.

Sommaire

Historique

CDC 6600 avec sa console

Les premiers superordinateurs sont apparus dans les années 1960, conçus par Seymour Cray pour le compte de la société Control Data Corporation (CDC), premier constructeur mondial de superordinateur jusque dans les années 1970. Cray Research, fondée par Seymour Cray après son départ de CDC, prit alors l'avantage sur CDC et ses autres concurrents jusqu'en 1990. Dans les années 1980, à l'image de ce qui s'était produit sur le marché des miniordinateurs une décennie plus tôt, de nombreuses petites sociétés se sont lancées sur ce marché, mais la plupart ont disparu dans le « crash » du marché des superordinateurs au milieu des années 1990. De nos jours les superordinateurs sont le plus souvent conçus comme des modèles uniques par des constructeurs informatiques « traditionnels » comme IBM et HP qu'ils aient derrière eux une longue tradition en la matière (IBM) ou qu'ils aient racheté dans les années 1990 des entreprises spécialisées alors en difficulté pour acquérir de l'expérience dans ce domaine.

Le terme superordinateur lui-même reste assez vague et évolutif, car les ordinateurs les plus puissants du monde à un moment donné tendent à être égalés puis dépassés par des machines d'utilisation courante. Les premiers superordinateurs CDC étaient de simples ordinateurs mono-processeurs (mais possédant parfois jusqu'à dix processeurs périphériques pour les entrées-sorties) environ dix fois plus rapides que la concurrence. Dans les années 1970 la plupart des superordinateurs ont adopté un processeur vectoriel, qui effectue le décodage d'une instruction une seule fois pour l'appliquer à toute une série d'opérandes. C'est seulement vers la fin des années 1980 que la technique des systèmes massivement parallèles a été adoptée, avec l'utilisation dans un même superordinateur de milliers de processeurs. De nos jours certains de ces superordinateurs parallèles utilisent des microprocesseurs RISC conçus pour des ordinateurs de série, comme les PowerPC ou les PA-RISC. D'autres utilisent des processeurs de moindre coût d'apparence extérieure CISC microprogrammés en RISC dans la puce (AMD, Intel) : le rendement en est un peu moins élevé, mais le canal d'accès à la mémoire - souvent goulet d'étranglement - est bien moins sollicité.

Utilisation

Totalisation de la puissance de calcul des 500 meilleurs supercalculateurs mondiaux de 1993 à 2008. Source : TOP500.
Puissance de calcul des 500 meilleurs supercalculateurs mondiaux en novembre 2008 par pays ainsi que la puissance du calcul partagé.

Les superordinateurs sont utilisés pour toutes les tâches qui nécessitent une très forte puissance de calcul comme les prévisions météorologiques, l'étude du climat, la modélisation moléculaire (calcul des structures et propriétés de composés chimiques...), les simulations physiques (simulations aérodynamiques, calculs de résistance des matériaux, simulation d'explosion d'arme nucléaire, étude de la fusion nucléaire...), la cryptanalyse, etc.

Les institutions de recherche civiles et militaires comptent parmi les plus gros utilisateurs de superordinateurs. En France, on trouve ces machines dans les centres nationaux de calculs universitaire tel que l'IDRIS, le CINES, mais aussi au CEA. En janvier 2006, le plus puissant supercalculateur français était le TERA-10 développé par Bull et générant 60 teraflops.

En juin 2009, c'est la machine Jade de type SGI Altix basée au CINES qui se place au 20 ième rang mondial avec 147 TFlops. En avril 2008, le GENCI a commandé à Bull une machine de près de 300 Téraflops. La barre du Pétaflops (1 000  Téraflops) a été franchie par une machine IBM appelée "Roadrunner" qui est aussi la plus efficace en termes de consommation d'énergie[1].

Avant 2006, le plus puissant supercalculateur français était l'AlphaServer SC45 1 GHz appartenant au CEA, était classé 41e en novembre 2004, après avoir été 4e à la mi-2002.

Conception

Les superordinateurs tirent leur supériorité sur les ordinateurs conventionnels à la fois de leur architecture, parfois pipeline (exécution d'une instruction identique sur une longue série de données), parfois parallèle (nombre très élevé de processeurs fonctionnant chacun sur une partie du calcul) leur permettant d'exécuter plusieurs tâches simultanément, et de composants rapides. Ils sont presque toujours conçus spécifiquement pour certains types de tâche (le plus souvent les calculs numériques scientifiques : calcul matriciel ou vectoriel) et ne cherchent pas de performance particulière dans les autres domaines.

L'architecture mémorielle de leur mémoire est étudiée pour fournir en continu les données à chaque processeur afin d'exploiter au maximum sa puissance de calcul. Les performances mémoire supérieures (meilleurs composants et meilleure architecture) expliquent pour une large part l'avantage des superordinateurs sur les ordinateurs classiques.

Leur système d'entrée/sortie est conçu pour fournir une large bande passante, la latence étant moins importante puisque ce type d'ordinateur n'est pas conçu pour traiter des transactions.

Comme pour tout système parallèle, la loi d'Amdahl s'applique, et les concepteurs de superordinateurs consacrent une partie de leurs efforts à éliminer les parties non parallélisables du logiciel et à développer des améliorations matérielles pour supprimer les goulots d'étranglement restants.

Principaux obstacles techniques

  • Les superordinateurs produisent une grande quantité de chaleur et doivent être refroidis pour fonctionner normalement. Le refroidissement de ces ordinateurs pose souvent un problème important de climatisation.
  • L'information ne peut circuler plus vite que la vitesse de la lumière entre deux parties de l'ordinateur. Lorsque la taille d'un superordinateur dépasse plusieurs mètres, le temps de latence entre certains composants se compte en dizaines de nanosecondes. Les éléments sont donc disposés pour limiter la longueur des câbles qui relient les composants. Sur le Cray-1, par exemple, ils étaient disposés en cercle.
  • Ces ordinateurs sont capables de traiter et de communiquer de très importants volumes de données en très peu de temps. La conception doit assurer que ces données puissent être lues, transférées et stockées rapidement. Dans le cas contraire, la puissance de calcul des processeurs serait sous-exploitée.

Historique des records

Date Superordinateur Constructeur Type de processeurs/fréquence Nombre Puissance réelle (en FLOPS) Emplacement
1938 Z1 Konrad Zuse 1 Flops chez Konrad Zuse, Allemagne
1939 Z2 Konrad Zuse 5 Flops chez Konrad Zuse, Allemagne
1941 Z3 Konrad Zuse 5,33 Hz 20 Flops Deutsche Versuchsanstalt für Luftfahrt, Allemagne
1942 Heath Robinson TRE 200 Flops Bletchley Park, Angleterre
1943 Colossus Mk I TRE 5 kFlops Bletchley Park, Angleterre
1944 Colossus Mk II TRE 5 kFlops Bletchley Park, Angleterre
1946 ENIAC 100 kHz 50 kFlops Aberdeen Proving Ground, États-Unis
1956 TX-0 83 kFlops Massachusetts Institute of Technology, États-Unis
1958 SAGE IBM 400 kFlops United States Air Force, États-Unis
1960 UNIVAC LARC 500 kFlops Lawrence Livermore National Laboratory, États-Unis
1961 IBM 7030 IBM 1,2 MFlops Los Alamos National Laboratory, États-Unis
1964 CDC 6600 3 MFlops Lawrence Livermore National Laboratory, États-Unis
1969 CDC 7600 36 MFlops Lawrence Livermore National Laboratory, États-Unis
1974 Star-100 CDC 100 MFlops Lawrence Livermore National Laboratory, États-Unis
1975 ILLIAC IV Burroughs 150 MFlops Ames Research Center (NASA), États-Unis
1981 Cyber-205 CDC 400 MFlops plusieurs endroits dans le monde
1983 X-MP4 Cray/SGI Cray Vector X-MP 416 820 MFlops plusieurs endroits dans le monde
1984 M-13 2,4 GFlops Scientific Research Institute of Computer Complexes, URSS
1985 Cray-2/8 3,9 GFlops Lawrence Livermore National Laboratory, États-Unis
1989 ETA10-G/8 10,3 GFlops Université de l'État de Floride, États-Unis
1993 CM-5 Thinking Machines Corporation SPARC 1 024 59,7 GFlops Los Alamos National Laboratory, États-Unis
1993 Numerical Wind Tunnel Fujitsu Fujitsu VPP500 140 124,5 GFlops National Aerospace Lab, Japon
1994 XP/S140 Intel Intel Paragon 3 680 143,4 GFlops Sandia National Labs, É.-U.
1994 Numerical Wind Tunnel Fujitsu Fujitsu VPP500 140 170,4 GFlops National Aerospace Lab, Japon
1996 SR2201 Hitachi Hitachi SR2201 1 024 220,4 GFlops Université de Tokyo, Japon
1996 CP-PACS Hitachi Hitachi SR2xxx CP-PACS 2 048 368,2 GFlops Center for Computational Physics, Japon
1997 ASCI Red Intel Intel Paragon ASCI-Red 7 264 1,07 TFlops Sandia National Laboratories, États-Unis
1997 ASCI Red Intel Intel Paragon ASCI-Red 9 152 1,34 TFlops Sandia National Laboratories, États-Unis
1999 ASCI Red Intel Intel Paragon ASCI-Red 9 472 2,12 TFlops Sandia National Laboratories, États-Unis
1999 ASCI Red Intel Intel Paragon ASCI-Red 9 632 2,38 TFlops Sandia National Laboratories, États-Unis
2000 ASCI White IBM IBM IBM POWER3 375 MHz 8 192 4,94 TFlops Lawrence Livermore National Laboratory, États-Unis
2001 ASCI White IBM IBM IBM POWER3 375 MHz 8 192 7,23 TFlops Lawrence Livermore National Laboratory, États-Unis
2002 Earth Simulator NEC NEC SX6 1 000 MHz 5 120 35,86 TFlops Yokohama Institute for Earth Sciences, Japon
16/09/2004 Blue Gene/L IBM PowerPC 440 700 MHz 16 384 36,01 TFlops Lawrence Livermore National Laboratory, États-Unis
26/10/2004 Columbia SGI Intel Itanium 2 1 500 MHz 8 192 42,7 TFlops Ames Research Center (NASA), États-Unis
11/2004 Columbia SGI Intel Itanium 2 1 500 MHz 10 160 51,87 TFlops Ames Research Center (NASA), États-Unis
11/2004 Blue Gene/L IBM PowerPC 440 700 MHz 32 768 70,7 TFlops Lawrence Livermore National Laboratory, États-Unis
24/3/2005 Blue Gene/L IBM PowerPC 440 700 MHz 65 536 135,5 TFlops Lawrence Livermore National Laboratory, États-Unis
27/10/2005 Blue Gene/L IBM PowerPC 440 700 MHz 131 072 280,6 TFlops Lawrence Livermore National Laboratory, États-Unis
2007 Blue Gene/L IBM 478,2 TFlops Lawrence Livermore National Laboratory, États-Unis
2008 Roadrunner IBM PowerXCell 8i 3 200 MHz 129 600 1,456 PFlops DoE-Los Alamos National Laboratory, Los Alamos, Nouveau-Mexique, États-Unis

Systèmes d'exploitation pour superordinateurs

  • Linux devient aujourd'hui massivement multiprocesseurs, et est le système équipant la très grande majorité (84,60 %) des 500 supercalculateurs les plus puissants de la planète[2] ;
  • Unix perd progressivement du terrain face à Linux, mais occupe encore une place de choix sur le marché des supercalculateurs (6,00 %) ;
  • Windows ne peut gérer au maximum que 2 processeurs, sauf dans certaines versions « serveur » spécifiques, lui permettant de gérer selon les versions 4, 8 ou 32 processeurs. Seuls 7 des 500 supercalculateurs les plus puissants de la planète font tourner Windows, soit 1.40 % ;
  • BSD et Mac OS sont très peu représentés (0,40 % chacun) ;
  • Les autres ("Mixed") représentent 7.20 % ;

Notes et références de l'article

Voir aussi

Articles connexes

  • Projet TOP500 - les 500 premiers superordinateurs au monde
  • Deep Blue
  • Seymour Cray
  • GENCI
  • BOINC - puissance de calcul distribuée sur des ordinateurs personnels : cfr. le projet de l'université de Berkeley.
  • TER@TEC - Pôle européen de compétence en simulation numérique haute performance - www.teratec.eu

Liens et documents externes

Bibliographie

Ce document provient de « Superordinateur ».

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article High performance computing de Wikipédia en français (auteurs)

Игры ⚽ Поможем решить контрольную работу

Regardez d'autres dictionnaires:

  • High-performance computing — (HPC) uses supercomputers and computer clusters to solve advanced computing problems. Today, computer systems approaching the teraflops region are counted as HPC computers.OverviewThe term is most commonly associated with computing used for… …   Wikipedia

  • High-Performance-Computing — Hochleistungsrechnen (englisch: high performance computing – HPC) ist ein Bereich des computergestützten Rechnens. Er umfasst alle Rechenarbeiten, deren Bearbeitung einer hohen Rechenleistung oder Speicherkapazität bedarf. Hochleistungsrechner… …   Deutsch Wikipedia

  • High Performance Computing — Hochleistungsrechnen (englisch: high performance computing – HPC) ist ein Bereich des computergestützten Rechnens. Er umfasst alle Rechenarbeiten, deren Bearbeitung einer hohen Rechenleistung oder Speicherkapazität bedarf. Hochleistungsrechner… …   Deutsch Wikipedia

  • High performance computing — Hochleistungsrechnen (englisch: high performance computing – HPC) ist ein Bereich des computergestützten Rechnens. Er umfasst alle Rechenarbeiten, deren Bearbeitung einer hohen Rechenleistung oder Speicherkapazität bedarf. Hochleistungsrechner… …   Deutsch Wikipedia

  • High Performance Computing Act —   [dt. »Gesetz für Hochgeschwindigkeitscomputeranwendungen«], Information Highway …   Universal-Lexikon

  • High Performance Computing and Networking —   [Abk. HPCN, dt. »Hochleistungsrechnen und vernetzen«], 1994 gegründete niederländische Gemeinschaft mehrerer Firmen und Forschungsinstitute, die auf dem Gebiet der Technologie integrierter Schaltkreise tätig sind. Die Organisation versucht… …   Universal-Lexikon

  • High Performance Computing and Communication Act of 1991 — The High Performance Computing and Communication Act of 1991 (HPCA) is an Act of Congress promulgated in the 102nd United States Congress as Pub.L. 102 194 on 1991 12 09. Often referred to as the Gore Bill,[1] it was created and introduced by… …   Wikipedia

  • High Performance Computing Modernization Program — The High Performance Computing Modernization Program (HPCMP) is a program within the United States Department of Defense to modernize the US military s computing infrastructure. It is under the direction of the Deputy Under Secretary of Science… …   Wikipedia

  • International Conference on High Performance Computing — The International Conference on High Performance Computing (or HiPC) is an international meeting on high performance computing. It serves as a forum to present current work by researchers from around the world as well as highlight activities in… …   Wikipedia

  • National Center for High-Performance Computing — Taiwan s National Center for High Performance Computing (NCHC) (國家高速網路與計算中心), founded in 1991, is one of nine national level research laboratories under Taiwan’s National Applied Research Laboratories (NARL). The NCHC is Taiwan’s primary facility …   Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”