Most recent comments
Liveblogg nyttårsaften 2017
Tor, 11 months, 2 weeks
Jogging og blogging
Are, 1 year, 11 months
Liveblogg nyttårsaften 2016
Are, 1 year, 11 months
Reading in dark times
Are, 2 years
Moldejazz 2016
Camilla, 2 years, 4 months
Dørskilt
Karoline, 2 years, 5 months
Halifax
Tor, 2 years, 5 months
Sony Smartwatch 3 review
Tor, 2 years, 6 months
Numerikk, takk
Tor, 2 years, 6 months
Topp tur
Camilla, 2 years, 8 months
50 book challenge
Camilla, 11 months, 2 weeks
Ten years ago
Kurs for brukere
Tor
Controls
Register

Exascale

EPCC underviser en ettårig MSc i High Performance Computing, og som en del av dette kurset arrangerer de en serie med gjesteforelesninger hver fredag i noen uker på våren. Jeg har vært på de to siste av disse foredragene, og det slår meg at fremtiden når det gjelder barske datamaskiner er ikke på langt nær så sikker som man kan få inntrykk av hvis man går på bare ett slikt foredrag.

Det hippe nå om dagen er å snakke om Exascale Computing, som altså betyr å designe en datamaskin som leverer en Exaflop/s, eller 1018 regneoperasjoner i sekundet. Verdens sinteste maskin er for øyeblikket K i Japan, som leverer 10 Petaflop/s, så ytelsen må økes hundre ganger for å nå Exascale, og flere firmaer har uttalt at det planlegger å være på plass i 2018.

Det er et helt lass med utfordringer knyttet til å øke ytelsen på verdens største datamaskiner 100 ganger. For eksempel er organisasjoner som kjøper en datamaskin av dette kaliberet omtrent villige til å betale 200 millioner dollar. Slik har det vært en stund, og slik kommer det til å fortsette å være. Så det holder ikke bare å kjøpe flere noder, man må lage dem billigere og/eller bedre. En annen viktig ting er energiforbruket. K trekker nesten 10 MegaWatt, og en datamaskin som trekker mye mer vil være meget upraktisk å kjøle og meget dyr å drifte. Så energiforbruket pr. flop bør helst gå ned ganske mye.

I forrige uke var det en fyr fra Nvidia som snakket om sin visjon for fremtiden, og den inkluderte naturligvis GPUer, mens i dag var det en fyr hadde vært med på å utviklen den nyeste, argeste prosessoren til IBM, og han sa at GPUer er «a passing fad». Han som holdt foredraget i dag var egentlig ganske tøff i trynet, så det hadde vært interessant å sett ham i en slags debatt. Det er for eksempel ganske vanlig å si at det store problemet i fremtiden blir at folk må lære seg å skrive programmer med mindre interkommunikasjon, siden GPUer er raske og nettverk er tregt, mens IBM mannen i dag sa at det er bare søppel, og at utfordringen kun ligger i hardware. Og systemet de har designet har raskere nettverk enn RAM, som forsåvidt er et overbevisende argument.

Nvidia-mannen var imidlertid også inne på noe viktig. Han snakket nemlig om energibruk, som GPUer typisk er ganske gode på, og fortalte at å utføre en regneoperasjon i en prosessor koster omtrent 1 picoJoule pr bit (jeg tror han sa bit, mulig det var flop). Å hente noe fra cacheminnet koster langt mer, kanskje noe slikt som 100 picoJoule, mens å hente noe i RAM koster 2 nanoJoule. Skal man kommunisere med en annen node ryker det naturligvis enda mer energi. Smart minnebruk er dermed absolutt essensielt for å holde energiforbruket nede når man skal utvikle fremtidens argeste datamaskiner.

Helt til slutt, dagens bilde:

Knut uttrykker frustrasjon over at koden hans krasjer med feilkode 5


-Tor Nordam
Matteus likes this
Category
Technology
Tags
GPU
superdatamaskiner
EPCC
Exascale
HPC
Views
2325
Last edited by
Tor, 10.03.12 12:07