Car-tech

Seterusnya: komputer exascale, dijangka tiba 2020

Exascale computing’s impacts on understanding the human brain

Exascale computing’s impacts on understanding the human brain

Isi kandungan:

Anonim

Jika peningkatan dalam kelajuan superkomputer terus pada kadar semasa, kita akan melihat mesin exascale pertama menjelang 2020, menganggarkan penyelenggara

Kami masih mempunyai cara untuk pergi sebelum prestasi exascale mungkin. Mesin exascale akan dapat satu kali lipat FLOPS (operasi terapung setiap saat), atau 10 hingga FLOPS ke-18. Malah, superkomputer terpantas hari ini menawarkan kurang daripada 20 peratus keupayaan mesin exascale.

Top500

Ketinggian baru

Dalam edisi paling popular superkomputer Top500, dikeluarkan pada hari Isnin, komputer terpantas dalam senarai adalah sistem Titan Makmal Kebangsaan Oak Ridge, mesin yang mampu melaksanakan 17.59 petaflops. Petaflop adalah perhitungan titik apung quadrillion per saat, atau 10 hingga ke-15 FLOPS.

Tetapi setiap Top500 baru-senarai yang dikumpulkan dua kali setahun menunjukkan seberapa cepat kelajuan superkomputer berkembang. Berdasarkan senarai, superkomputer seolah-olah mendapat sepuluh kali ganda kuasa setiap sepuluh tahun atau lebih. Pada tahun 1996, komputer teraflop pertama muncul di Top500, dan pada tahun 2008, komputer petaflop pertama muncul dalam senarai. Mengekstrak daripada kadar kemajuan ini, Dongarra menganggarkan bahawa pengkomputeran exascale harus tiba sekitar 2020.

Komuniti Pengkomputeran Prestasi Tinggi (HPC) telah mengambil pengkomputeran exascale sebagai peristiwa penting. Intel telah mewujudkan barisan pemproses multicore secara besar-besaran, yang dipanggil Phi, bahawa harapan syarikat boleh menjadi asas bagi komputer exascale yang boleh berjalan menjelang 2018.

Dalam perbualannya, Dongarra melancarkan ciri-ciri mesin exascale. Mesin semacam ini mungkin mempunyai antara 100,000 dan 1,000,000 nod dan akan dapat melaksanakan sehingga satu bilion benang pada bila-bila masa. Prestasi nod individu mestilah antara 1.5 dan 15 teraflops dan interkoneksi perlu mempunyai keluaran antara 200 hingga 400 gigabit sesaat.

Pembuat superkomputer akan perlu membina mesin supaya kos dan penggunaan kuasa mereka tidak meningkat dalam fesyen linear bersama-sama dengan prestasi, supaya mereka terlalu mahal untuk membeli dan lari, kata Dongarra. Mesin exascale perlu menelan belanja kira-kira $ 200 juta, dan menggunakan hanya sekitar 20 megawatt, atau kira-kira 50 gigaflop per watt.

Dongarra mengharapkan bahawa separuh kos membina komputer sedemikian akan diperuntukkan untuk membeli memori untuk sistem itu. Berdasarkan penghasilan peta memori, Dongarra menganggarkan bahawa $ 100 juta akan membeli antara 32 petabytes hingga 64 petabi ingatan menjelang 2020.

Top500

Cabaran perisian

Selain cabaran dalam perkakasan, pereka superkomputer exascale mesti juga bergelut dengan isu perisian. Satu isu akan disegerakkan, kata Dongarra. Mesin hari ini menyampaikan tugas di antara banyak node yang berbeza, walaupun pendekatan ini perlu diselaraskan sebagai jumlah nod yang meningkat.

"Hari ini, model kami untuk pemprosesan selari adalah model fork / join, tetapi anda tidak boleh melakukannya di [iaitu exascale] tahap paralelisme Kita mesti mengubah model kita, kita perlu lebih segerak, "kata Dongarra. Sepanjang baris yang sama, algoritma perlu dibangunkan yang mengurangkan jumlah komunikasi keseluruhan di antara nod.

Faktor lain juga perlu dipertimbangkan. Perisian mesti datang dengan rutin terbina dalam untuk pengoptimuman. "Kami tidak boleh bergantung kepada pengguna menetapkan butang dan tombol yang betul untuk mendapatkan perisian berjalan di mana-mana berhampiran prestasi puncak," kata Dongarra. Daya tahan kerosakan akan menjadi satu lagi ciri penting, seperti kebolehulangan hasil, atau jaminan bahawa pengiraan yang kompleks akan menghasilkan jawapan yang sama apabila dijalankan lebih dari sekali.

Reproduktif mungkin kelihatan seperti sifat yang jelas untuk komputer. Tetapi pada hakikatnya, ia boleh menjadi satu cabaran untuk pengiraan besar pada superkomputer multinode.

"Dari sudut pandangan kaedah berangka, sukar untuk menjamin kebolehulangan semula sedikit," kata Dongarra. "Masalah utama adalah melakukan pengurangan - jumlah kesimpulan yang sama selari.Jika saya tidak dapat menjamin pesanan di mana angka-angka itu datang bersama-sama, saya akan mempunyai kesilapan yang berbeza-beza. Perbezaan kecil itu dapat diperbesar dengan cara yang boleh menyebabkan jawapan menyimpang dari segi bencana, "katanya.

" Kita perlu membuat satu senario di mana kita boleh menjamin perintah di mana operasi itu dilakukan, jadi kita dapat menjamin kita mempunyai hasil yang sama, "Kata Dongarra.

Joab Jackson merangkumi perisian perusahaan dan berita teknologi umum untuk

Perkhidmatan Berita IDG

. Ikut Joab di Twitter di @Joab_Jackson. Alamat e-mel Joab ialah [email protected]