Supercomputer 'Titans' Face Enorme Energikostnader

{h1}

Den næste generation af supercomputere kan omdanne videnskab og samfund, men kun hvis de kan løse et stort strømproblem.

Warehouse-størrelse supercomputere koster $ 1 million til $ 100 millioner kan virke så fjernt fra almindelige bærbare computere og tabletter som græske udødelige på Mount Olympus. Men det næste store spring i supercomputing kunne ikke kun omdanne USAs videnskab og innovation, men også lægge meget mere computerkraft i forbrugernes hænder.

Den næste generation af supercomputers "exascale" kunne udføre 1 milliard milliard beregninger pr. Sekund - 1.000 gange bedre end de mest kraftfulde supercomputere i dag. Sådanne supercomputere kunne for første gang nøjagtigt simulere forbrændingsmotorer af biler, jetflymotorer og lige atomfusionsreaktorer. De ville også muliggøre "SimEarth" -modeller på planeten ned til 1 kilometer skalaen (sammenlignet med 50 eller 100 kms i dag) eller simuleringer af levende celler, der indeholder de molekylære, kemiske, genetiske og biologiske niveauer på én gang.

"Næsten meget, hvert videnskabsområde drives i dag af teori, eksperiment og simulering," sagde Steve Scott, chefstekniker i forretningsenheden Tesla hos NVIDIA. "Forskere bruger maskiner til at køre en virtuel oplevelse for at forstå verden omkring os."

Men fremtiden for supercomputing har en svimlende energikostnad - kun en exascale supercomputer ville have brug for strøm svarende til den maksimale output af Hoover Dam. For at komme rundt om dette problem skal computerforskere og matematikere drømme om en helt ny type computerarkitektur, der prædiker energieffektivitet.

Simuleringer af et protein genereret af Cray X-T (Jaguar) ved Oak Ridge National Laboratory og Blue Gene / P ved Argonne National Laboratory.

Simuleringer af et protein genereret af Cray X-T (Jaguar) ved Oak Ridge National Laboratory og Blue Gene / P ved Argonne National Laboratory.

Kredit: Benoit Roux, Argonne National Laboratory og University of Chicago

Forskere indsamlet for at diskutere disse udfordringer under et workshop afholdt af Institut for Computational and Experimental Research i matematik ved Brown University i januar.

"Vi har nået det punkt, hvor eksisterende teknologi har taget os om så vidt vi kan gå med nuværende modeller," siger Jill Pipher, direktør for ICERM. "Vi har øget datakraften med 1000 gange om nogle år nu, men nu har vi nået grænserne."

Vi kan genopbygge dem

Computeringeniører har formået at presse dobbelt antallet af transistorer i samme mikrochiprum hvert par år - en trend kendt som Moores lov - da de holdt strømkravene stabile. Men selvom de kunne presse nok transistorer på en mikrochip for at gøre exascale computing mulig, bliver den nødvendige effekt for stor.

"Vi går ind i en verden, der begrænses ikke af hvor mange transistorer vi kan sætte en chip, eller om vi kan se dem så hurtigt som muligt, men ved den varme, de genererer," fortalte Scott InnovationNewsDaily. "Chippen ville brænde og effektivt smelte."

Det kræver en radikal omstrukturering af computerarkitektur for at gøre det meget mere energieffektivt. US Department of Energy ønsker at finde en måde at lave en exascale supercomputer inden 2020, der ville bruge mindre end 20 megawatt strøm - ca. 100 gange mindre end Hoover Dam's maksimale effektkapacitet på 2.074 megawatt, som det ville være nødvendigt i dag.

At lave en exascale supercomputer i dag ville kræve mere strømudgangsækvivalent til Hoover Dam.

At lave en exascale supercomputer i dag ville kræve mere strømudgangsækvivalent til Hoover Dam.

Kredit: USAs Indenrigsministerium

Ændring af computerarkitektur kræver også en omskrivning af de softwareprogrammer, der kører på dagens computere. Arbejdet med at finde ud af, at puslespillet falder til anvendt matematikere.

"Når kode er skrevet, er den skrevet til computere, hvor hukommelsen er billig," forklares Pipher. "Nu, hvis du bygger disse nye maskiner, skal du forsøge at skrive programmer på forskellige måder."

Du siger CPU, siger jeg GPU

Dagens hurtigste supercomputere ligner hundredvis af køleskabsskabe pakket ind i store rum. Hver af disse kabinetter kan huske mere end 1.000 centrale behandlingsenheder (CPU'er), hvor en CPU er stort set ækvivalent med "hjernen", der udfører softwareprograminstruktioner inde i en enkelt bærbar computer.

Den nyeste generation af petascale supercomputere (i stand til 1 quadrillion beregninger pr. Sekund) er blevet brugt ved at bruge tusindvis af CPU'er, der er sammenkoblet sammen. Men hver CPU er designet til at køre nogle opgaver så hurtigt som muligt med mindre hensyn til energieffektivitet, og så CPU'er vil ikke gøre for exascale supercomputere.

En lovende løsning kommer fra et selskab kendt blandt pc-spillere. Omkring et årti siden oprettede NVIDIA grafiske behandlingsenheder (GPU'er), der fokuserer på at køre mange opgaver effektivt - en nødvendighed for at skabe den rige grafik af en video eller et spil, der spiller på en computer.

Energibesparelserne kan være enorme, når en GPU bruger næsten 8 gange mindre energi end en CPU pr. Computerberegning eller -instruktion.

NVIDIA GPU'er, der hjælper computere med at vise grafikrige spil som f.eks

NVIDIA GPU'er, der hjælper computere med at vise grafikrige spil som "Crysis 2", kan også hjælpe strømmen til morgendagens supercomputere.

Kredit: EA

"GPUS blev designet med energieffektivitet i tankerne først, ikke kører en enkelt opgave hurtigt," sagde Scott. "Derfor er de unikt kvalificerede til denne udfordring. Vi skal meget mere effektive om, hvor meget mere arbejde vi kan gøre per watt [af energi]."

NVIDIA GPU'er ligger allerede inden for tre af verdens hurtigste supercomputere, herunder Kinas Tianhe-1A på andenpladsen.GPU'er vil også øge $ 100 millioner Titan supercomputer planlagt til installation på Oak Ridge National Laboratory i Oak Ridge, Tenn. - en petascale supercomputer, der igen kunne gøre USA hjem til verdens hurtigste supercomputer.

Bedre computere til alle

Vejen til exascale computing vil ikke være let, men NVIDIA har en tidslinje for at skabe nye generationer af GPU'er, der kan føre til en sådan supercomputer i 2018. Virksomhedens "Kepler" GPU forventes at løbe 5 milliarder beregninger pr. Watt energi, når den debuterer i 2012, mens næste generations "Maxwell" GPU måske udfører 14 milliarder beregninger pr. watt inden 2014.

Men NVIDIA investerede ikke i high performance computing bare for at bygge en håndfuld store supercomputere hvert år - især når hver generation af GPU'er koster omkring 1 milliard dollars at udvikle sig. I stedet ser det supercomputinginvesteringen, der fører til mere magtfulde computere til en meget større pool af kunder blandt virksomheder og enkeltpersoner.

Supercomputere som Cray's XK6 kan tilbyde endnu mere kraftfulde computing muligheder for virksomheder og laboratorier.

Supercomputere som Cray's XK6 kan tilbyde endnu mere kraftfulde computing muligheder for virksomheder og laboratorier.

Kredit: Cray

De samme mikrochip indenfor supercomputere kan ende op i en gamers hjemmecomputer, påpegede Scott. I den forstand giver hver nye generation af mere kraftfulde chips til sidst mere computerkraft til billigere - til det punkt, hvor de sjældne supercomputere i dag kan blive mere almindelige i morgen.

Dette resultat er mindre almindeligt end ekstraordinært for at flytte videnskab og innovation fremad.

"Når du kan bygge et petascale system for $ 100.000, begynder det at blive meget overkommeligt for selv små afdelinger på et universitet eller endda små grupper i den private industri," sagde Scott.

Denne historie blev leveret af InnovationNewsDaily, et søsters websted til WordsSideKick.com. Du kan følge InnovationNewsDaily Senior Writer Jeremy Hsu på Twitter @ScienceHsu. Følg InnovationNewsDaily på Twitter @News_Innovation, eller på Facebook.


Video Supplement: .




DA.WordsSideKick.com
All Rights Reserved!
Reproduktion Af Materialer Tilladt Kun Prostanovkoy Aktivt Link Til Webstedet DA.WordsSideKick.com

© 2005–2019 DA.WordsSideKick.com