Komponen

Di dalam Tsubame - Supercomputer GPU Nvidia

NVIDIA ОПЯТЬ ЗАМЕДЛЯЮТ ВИДЕОКАРТЫ

NVIDIA ОПЯТЬ ЗАМЕДЛЯЮТ ВИДЕОКАРТЫ
Anonim

Apabila anda memasuki bilik komputer di tingkat dua bangunan komputer Institut Teknologi Tokyo, anda tidak akan diserang oleh saiz superkomputer terpantas kedua di Jepun. Anda tidak dapat melihat komputer Tsubame untuk unit penghawa dingin perindustrian yang berdiri dengan cara anda, tetapi ini dengan sendirinya memberitahu. Dengan lebih daripada 30,000 teras pemprosesan yang meletup, mesin itu menggunakan megawatt kuasa dan perlu dipertahankan.

Tsubame berada di peringkat superkomputer paling cepat ke-29 di dunia dalam kedudukan Top 500 terbaru dengan kelajuan 77.48T Flops operasi terapung setiap saat) pada penanda aras Linpack standard industri.

Walaupun kedudukannya agak baik, itu bukan apa yang membuatkannya istimewa. Perkara yang menarik mengenai Tsubame adalah bahawa ia tidak bergantung kepada kuasa pemprosesan mentah CPU (unit pemprosesan pusat) sahaja untuk mendapatkan kerja yang dilakukan. Tsubame termasuk beratus-ratus pemproses grafik yang sama jenis yang digunakan dalam PC pengguna, bekerja bersama CPU dalam persekitaran bercampur yang dikatakan oleh beberapa orang adalah model untuk superkomputer masa depan yang berkhidmat disiplin seperti bahan kimia.

[Bacaan lanjut: Kotak NAS terbaik untuk media streaming dan sandaran]

Pemproses grafik (GPU) sangat baik dengan cepat melakukan pengiraan yang sama pada jumlah data yang besar, sehingga mereka dapat membuat kerja pendek beberapa masalah dalam bidang seperti dinamika molekul, simulasi fisika dan pemprosesan gambar.

"Saya fikir dalam kebanyakan masalah yang menarik di masa depan, masalah yang menjejaskan kemanusiaan di mana kesannya berasal dari alam … memerlukan keupayaan untuk memanipulasi dan menghitung pada set data yang sangat besar," kata Jen-Hsun Huang, Ketua Pegawai Eksekutif daripada Nvidia, yang bercakap di universiti minggu ini. Tsubame menggunakan 680 kad grafik Tesla Nvidia.

Berapa banyak perbezaan yang dibuat oleh GPU? Takayuki Aoki, seorang profesor kimia bahan di universiti, berkata bahawa simulasi yang digunakan untuk mengambil masa tiga bulan kini mengambil masa 10 jam pada Tsubame.

Tsubame sendiri - apabila anda bergerak melepasi penghawa dingin - dipecah beberapa bilik dalam dua tingkat bangunan dan sebahagian besarnya terdiri daripada sistem pemasangan Sun x4600 yang dipasang. Terdapat 655 kesemuanya, masing-masing mempunyai 16 CPU CPU AMD Opteron di dalamnya, dan papan pemecut Clearspeed CSX600.

Cip grafik yang terkandung dalam 170 unit mount-mount Nvidia Tesla S1070 yang telah diletakkan di antara Sistem matahari. Setiap sistem 1U Nvidia mempunyai empat GPU di dalamnya, masing-masing mempunyai 240 teras pemprosesan untuk sejumlah 960 teras bagi satu sistem.

Sistem Tesla telah ditambah kepada Tsubame selama kira-kira seminggu ketika komputer beroperasi.

"Orang menganggap kita gila," kata Satoshi Matsuoka, pengarah Pusat Maklumat dan Pengkomputeran Global di universiti. "Ini adalah superkomputer ¥ 1 bilion (US $ 11 juta) yang memakan kuasa megawatt, tetapi kami membuktikan secara teknikal bahawa ia mungkin."

Hasilnya ialah apa yang dipanggil kakitangan universiti versi 1.2 superkomputer Tsubame.

" Saya fikir kita sepatutnya dapat mencapai 85 [T Flops], tetapi kami kehabisan masa sehingga 77 [T Flops], "kata Matsuoka mengenai penanda aras yang dilakukan pada sistem itu. Pada 85T Flops ia akan menaikkan beberapa tempat dalam Top 500 dan menduduki tempat terpantas di Jepun.

Selalu masa depan: Senarai Top 500 yang baru akan dikeluarkan pada bulan Jun 2009, dan Institut Teknologi Tokyo juga sedang mencari

"Ini bukan penghujung Tsubame, ia hanya permulaan percepatan GPU menjadi arus perdana," kata Matsuoka. "Kami percaya bahawa di dunia akan terdapat superkomputer yang mendaftar beberapa petaflops pada tahun-tahun yang akan datang, dan kami ingin mengikutinya."

Tsubame 2.0, sebagaimana dia dijuluki peningkatan seterusnya, harus berada di sini dalam tempoh dua tahun akan datang dan akan mempunyai prestasi yang mantap sekurang-kurangnya petaflop (petaflop adalah 1,000 teraflops), katanya. Reka bentuk asas untuk mesin masih belum dimuktamadkan tetapi ia akan meneruskan asas komputasi heterogen untuk mencampurkan CPU dan GPU, katanya.