What is High Performance Computing?
Transkript
What is High Performance Computing?
Enabling Grids for E-sciencE Paralel Hesaplama Onur Temizsoylu Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi ODTÜ, Ankara www.eu-egee.org EGEE-II INFSO-RI-031688 EGEE and gLite are registered trademarks İçerik Enabling Grids for E-sciencE – – – – Neden paralel hesaplama? Terminoloji Paralel hesaplamanın tarihi Teori: Hızlanma, Amdahl Yasası Sınıflandırma – – – – – Yönetim Modelleri Programlama Modelleri Paralel Donanım Mimarileri Paralel Uygulamalar Örnek Problemler EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 2 Neden Paralel Hesaplama Enabling Grids for E-sciencE – Hesaplama ihtiyaçları, gün geçtikçe artmaktadır. Daha yüksek frekanslı sensörler, görselleştirme kalitesinin artması, dağıtık veri tabanları buna birer örnektir. – Diğer taraftan işlemci teknolojisi fiziksel limitlerine (termodinamik, ışık hızı, CMOS transistörler) yaklaşmaktadır. – Paralel hesaplama, daha hızlı sonuç almak için bir uygulamaya ait program parçalarının birden fazla işlemcide aynı anda çalıştırılmasıdır. – Ağ teknolojilerindeki hızlı gelişmeler paralel hesaplama için kolay edinilebilir ve ulaşılabilir donanımlara izin vermektedir. EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 3 Moore Yasası (?) Enabling Grids for E-sciencE – Intel’in kurucularından Gordon E. Moore tarafından ortaya atılmıştır. – “Mikroişlemciler içindeki transistör sayısı her iki yılda bir iki katına çıkacaktır.” – Buna bağlı olarak işlemci hızlarının da iki katına çıkması beklenmektedir. – Ucuz CMOS transistörlerle üretim, 2008 yılı içinde 45nm üretim teknolojisi bile kullanılsa da hız artışının sonu gelmektedir. – Intel, çok çekirdekli işlemciler ile Moore yasasını geçerli kılmaya çalışmaktadır. EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 4 Butters Yasası Enabling Grids for E-sciencE – Ağ dünyasında ise Gerald Butters her dokuz ayda tek bir fiber kablodan geçebilecek veri miktarının iki katına çıktığını öne sürmüştür. – Özellikle WDM teknolojisi ile optik kablolar üzerinden transfer edilebilecek veri miktarı artmaktadır. – İşlemcilerden farklı olarak farklı dalga boylarında çalışan lazer ışığı kullanıcı farkında olmadan birleştirilmektedir. – Lokal ve geniş ağlardaki hızlı teknoloji değişimi ile paralel hesaplama için küme bilgisayarlar, grid hesaplama gibi yöntem ve mimariler ortaya çıkmıştır. EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 5 Terminoloji Enabling Grids for E-sciencE – Süreç (“Process”) – İş Parçacığı (“Thread”) – Görev (“Task”) – – – – – – Hızlanma (“Speedup”) Ölçeklenebilirlik (“Scalability”) Verimlilik Senkronizasyon (“Synchronization”) Paralel Ek Yükü (“Parallel Overhead”) Süperbilgisayar EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 6 Paralel Hesaplamanın Tarihi Enabling Grids for E-sciencE – İlk paralel hesaplamanın varsayılmaktadır M.Ö. tabletlerde yapıldığı Donanım İşletim Sistemi / Derleyici Uygulamalar Seri Çağı Donanım İşletim Sistemi / Derleyici Uygulamalar Paralel Çağı 1940 50 60 70 80 90 2000 2030 Ticarileştirme Araştırma EGEE-II INFSO-RI-031688 Grid Son Ürün ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 7 Paralel Hesaplamanın Tarihi Enabling Grids for E-sciencE 194 2 Atanasoff–Berry Computer (ABC) 30 OPS 194 6 UPenn ENIAC 100 kOPS 196 0 UNIVAC LARC 150 kFLOPS 197 6 CRAY-1 250 MFLOPS 199 5 CRAY T3E > 1 TFLOPS 199 7 Intel ASCI Red 1.3 TFLOPS 200 4 IBM Blue Gene/L 280 TFLOPS EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 8 Paralel Hesaplamanın Tarihi Enabling Grids for E-sciencE – TOP500 Listesine göre son 15 sene içinde süperbilgisayar sistemlerinde mimari değişimi EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 9 Paralelleştirme Enabling Grids for E-sciencE – Bir işin paralelleştirilmesinde programın çalışma zamanını azaltmak amaçlanır. EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi toplam 10 Paralelleştirme Ek Yükü Enabling Grids for E-sciencE İşlemcilerde fazladan geçen süre İletişim ek yükü Senkronizasyon ek yükü Programın paralel olmayan/ olamayan parçaları – Paralel programlamada ek yük ve çalışma zamanı hızlanma ve verimlilik ile ifade edilir. İşlemci Zamanı Haberleşme Ek Yükü 8 işle 4 i mci şle mci 2 iş le mc i – Ek yük: 1 ci m le ş i Çalışma Zamanında Azalma Çalışma Zamanı EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 11 Hızlanma ve Verimlilik Enabling Grids for E-sciencE – İ sayıda işlemcide programın toplam işlemci zamanını Z(i) olarak ifade edelim. Hızlanma (i) = Z(1) / Z(i) Verimlilik (i) = Hızlanma (i) / i Hızlanma ideal Süper-lineer Saturasyon Felaket – İdeal durumda: Z (i) = Z (1) / i Hızlanma (i) = i Verimlilik (i) = 1 Verimlilik İşlemci Sayısı 1 – Ölçeklenebilir programlar büyük işlemci sayılarında bile verimli kalırlar. İşlemci Sayısı EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 12 Amdahl Yasası Enabling Grids for E-sciencE – Amdahl yasası: “Kodun paralel olmayan kısmı (ek yük), kodun ölçeklenebilirliği konusunda üst limiti oluşturur.” – Kodun seri kısmını s, paralel kısmını p olarak ifade edersek: 1 =s+p Z (1) = Z (s) + Z (p) = Z (1) * (s + p) = Z (1) * (p + (1-p)) Z (i) = Z (1) * (p/i + (1-p)) Hızlanma (i) = Z (1) / Z (i) = 1 / (p/i + 1 – p) Hızlanma (i) < 1 / (1 - p) EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 13 Pratikte Enabling Grids for E-sciencE – Pratikte programları paralelleştirmek Amdahl yasasında görüldüğü kadar zor değildir. – Ancak programın çok büyük bir kısmını paralel işlem için harcaması gereklidir. Hızlanma 8.0 P=8 7.0 6.0 5.0 P=4 4.0 3.0 P=2 2.0 1.0 0% David J. Kuck, Hugh Performance Computing, Oxford Univ.. Press 1996 EGEE-II INFSO-RI-031688 Grid 20% 40% 60% 80% 100% Kodda Paralel Kısım 1970s 1980s 1990s En iyi paralel kodlar ~99% diliminde ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 14 Coarse/Fine Grained Paralel Enabling Grids for E-sciencE – Fine-Grained: Genelde her döngüde paralelleştirme vardır. Çok sayıda döngü paralleleştirilir. Kodun çok iyi bilinmesine gerek yoktur. Çok fazla senkronizasyon noktası vardır. – Coarse-Grained: Geniş döngülerle paralleştirme yapılır. Daha az senkronizasyon noktası vardır. Kodun iyi anlaşılması gerekir. Ana Program Coarse-grained A E B F C G K H L p I J N M O q r s t EGEE-II INFSO-RI-031688 Grid D Fine-grained ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 15 Ölçeklenebilirlik Enabling Grids for E-sciencE – Ölçeklenebilirliği etkileyen diğer faktörler: İş parçacıkları arası yük dengesizliği : Bir kodun i0 herhangi bir paralel kısmının i1 çalışma zamanı en uzun süren iş i2 parçacığının çalışma zamanıdır. i3 Coarse-Grained programlamada başlangıç ortaya çıkması daha olasıdır. Çok fazla senkronizasyon: Kodda küçük döngüler sırasında her seferinde senkronizasyon yapılırsa bu ek yük getirir. FineGrained programlamada ortaya çıkması daha olasıdır. EGEE-II INFSO-RI-031688 Grid Çalışma Zamanı ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi bitiş 16 Flynn Sınıflandırması Enabling Grids for E-sciencE – Michael J. Flynn paralel bilgisayar mimarilerini komut ve veri akışlarına göre sınıflandırmıştır: SISD (Single Instruction, Single Data) • PCler, iş istasyonları SIMD (Single Instruction, Multiple Data) • Vektör makineler, Intel SSE MISD (Multiple Instruction, Single Data) • Çok fazla örneği yok MIMD (Multiple Instruction, Multiple Data) • SGI sunucular, küme bilgisayarlar EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 17 SISD Enabling Grids for E-sciencE Komutlar Veri Girişi EGEE-II INFSO-RI-031688 Grid İşlemci Veri Çıkışı ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 18 MISD Enabling Grids for E-sciencE Komut Akışı A Komut Akışı B Komut Akışı C İşlemci A Girdi Verisi Çıktı Verisi İşlemci B İşlemci C EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 19 SIMD Enabling Grids for E-sciencE Komut Akışı Girdi Akışı A Girdi Akışı B Girdi Akışı C EGEE-II INFSO-RI-031688 Grid Çıktı Akışı A İşlemci A Çıktı Akışı B İşlemci B İşlemci C Çıktı Akışı C ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 20 MIMD Enabling Grids for E-sciencE Komut Akışı A Girdi Akışı A Girdi Akışı B Girdi Akışı C EGEE-II INFSO-RI-031688 Grid Komut Akışı B Komut Akışı C Çıktı Akışı A İşlemci A Çıktı Akışı B İşlemci B İşlemci C Çıktı Akışı C ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 21 Ortak Bellek MIMD Enabling Grids for E-sciencE İşlemci A B E L L E K Y O L U İşlemci B B E L L E K Y O L U İşlemci C B E L L E K Y O L U Bellek EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 22 Dağıtık Bellek MIMD Enabling Grids for E-sciencE IPC IPC Kanalı Kanalı İşlemci A B E L L E K Y O L U BELLEK A EGEE-II INFSO-RI-031688 Grid İşlemci B B E L L E K Y O L U BELLEK B İşlemci C B E L L E K Y O L U BELLEK C ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 23 Terminoloji - II Enabling Grids for E-sciencE – Son senelerde ağ hızındaki önemli artış ve çoklu çekirdekli işlemcilerin kullanılmaya başlaması ile paralel hesaplama konusunda birçok terminoloji karışıklığı olmaya başlamıştır. MPP, küme bilgisayarlarla hesaplama, dağıtık hesaplama, grid hesaplama... – Paralel hesaplamada yaygın kullanılan terimlerden bazıları şunlardır: Multiprocessing: İki veya daha fazla işlemcinin aynı bilgisayar sistemi içinde kullanılmasıdır. Dağıtık hesaplama: Ağ üzerinden iki veya daha fazla bilgisayar üzerinde aynı anda belli bir programa ait parçaların çalıştırıldığı hesaplama. EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 24 Paralel Programlama Modelleri Enabling Grids for E-sciencE • Ortak Hafıza Modelleri – Dağıtık Ortak Bellek – Posix Threads – OpenMP – Java Threads (HKU JESSICA, IBM cJVM) • Mesaj Tabanlı Modeller – PVM – MPI • Hibrid Modeller – Ortak ve dağıtık hafızayı birlikte kullananlar – OpenMP ve MPI birlikte kullananlar • Nesne ve Servis Tabanlı Modeller – Geniş alanda dağıtık hesaplama teknolojileri Nesne: CORBA, DCOM Servis: Web servisleri tabanlı • Bilimsel araştırma projelerinde sıklıkla Derleyici tarafından paralelleştirilen ortak bellek tabanlı programlar MPI gibi mesaj paylaşımı tabanlı programlar kullanılmaktadır. • Belirli bir programlama modelinin seçimi, genellikle uygulama gereksinimi, kişisel tercih veya donanımla ilgilidir. • Ortak hafızaya sahip makineler, hem OpenMP gibi SMP hem de MPI gibi mesaj paylaşımı tabanlı modelleri çalıştırabilirler. EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 25 π sayısını OpenMP ile hesaplamak Enabling Grids for E-sciencE π= 1 4 dx (1+x2) 0 =0<i<N Σ 4 N(1+((i+0.5)/N)2) #define n 1000000 main() { double pi, l, ls = 0.0, w = 1.0/n; int i; #pragma omp parallel private(i,l) reduction(+:ls) { #pragma omp for for(i=0; i<n; i++) { l = (i+0.5)*w; ls += 4.0/(1.0+l*l); } #pragma omp master printf(“pi is %f\n”,ls*w); #pragma omp end master } } • Seri programlama şeklinde yazılıyor • Otomatik yük dağılımı yapılıyor. • Bütün değişkenler paylaşılıyor. EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 26 π sayısını MPI ile hesaplamak Enabling Grids for E-sciencE π= 1 4 dx (1+x2) 0 =0<i<N Σ 4 N(1+((i+0.5)/N)2) #include <mpi.h> #define N 1000000 main() { double pi, l, ls = 0.0, w = 1.0/N; int i, mid, nth; MPI_init(&argc, &argv); MPI_comm_rank(MPI_COMM_WORLD,&mid); MPI_comm_size(MPI_COMM_WORLD,&nth); } for(i=mid; i<N; i += nth) { l = (i+0.5)*w; ls += 4.0/(1.0+l*l); } MPI_reduce(&ls,&pi,1,MPI_DOUBLE,MPI_SUM,0,MPI_COMM_WORLD); if(mid == 0) printf(“pi is %f\n”,pi*w); MPI_finalize(); • Önce iş parçacıkları belirleniyor • Bütün değişkenler sürece özel kalıyor. • Uygulama dışında yük dağılımı ve veri paylaşımı yapılıyor. EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 27 Paralel Uygulamalarda Bağlantı Enabling Grids for E-sciencE – Sıkı bağlı sistemler: Süreçler arasında yoğun haberleşme Gecikme süresine hassas Ortak Bellek Paralel Dağıtık Bellek Paralel EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 28 Paralel Uygulamalarda Bağlantı Enabling Grids for E-sciencE – Gevşek bağlı sistemler: Süreçler arasında haberleşme azdır veya hiç yoktur. Gecikme süresine hassas değillerdir. Ancak bant genişliği veri transferi için etkili olabilir. – Parametrik çalışan uygulamalar Süreçler arasında haberleşme yoktur. Kümelerde, grid altyapılarında çalışan uygulamaların çoğunluğunu oluştururlar. EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 29 Paralel Donanım Mimarileri Enabling Grids for E-sciencE – – – – – – SMP makineler MPP makineler NUMA makineler Superscalar işlemciler Vektör makineler Küme bilgisayarlar EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 30 SMP Enabling Grids for E-sciencE – SMP, birden fazla eş işlemcinin ortak bir belleğe bağlandığı çok işlemcili bir bilgisayar mimarisidir. – SMP sistemler, görevleri işlemciler arasında paylaşabilirler. – SMP sistemler, paralel hesaplama için kullanılan en eski sistemlerdir ve hesaplamalı bilimlerde yoğun bir şekilde kullanılırlar. EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 31 MPP Enabling Grids for E-sciencE – MPP, binlerce işlemci kullanılabilen çok işlemcili bir mimaridir. – Bir MPP sisteminde her işlemci kendi belleğine ve işletim sistemi kopyasına sahiptir. – MPP sistemler üzerinde çalışacak uygulamalar eş zamanda çalışacak eş parçalara bölünebilmelidirler. – MPP sistemlere yeni işlemci ekledikten sonra uygulamalar yeni paralel kısımlara bölünmelidirler. SMP sistemler ise bundan çok iş parçacığı çalıştırabilir yapıları sayesinde hemen faydalanırlar. EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 32 NUMA Enabling Grids for E-sciencE – NUMA, çok işlemcili makinelerde bellek erişim zamanının bellek yerine göre değiştiği bir bellek tasarımıdır. – İlk defa 1990’larda ortaya çıkmıştır. – Modern işlemciler, belleklere hızlı bir şekilde erişmeye ihtiyaç duyarlar. NUMA, istenen verinin “cache” bellekte bulunamaması, belleğin başka işlemci tarafından kullanılması gibi performans sorunlarını her işlemciye bellek vererek aşar. – Intel Itanium ve AMD Opteron işlemciler ccNUMA tabanlıdır. EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 33 Superscalar İşlemciler Enabling Grids for E-sciencE – 1998 senesinden beri üretilen bütün genel amaçlı işlemciler “superscalar” işlemcilerdir. – “Superscalar” işlemci mimarisi, tek bir işlemcide makine kodu seviyesinde paralellik sağlar. – “Superscalar” bir işlemci tek bir basamakta birden fazla işlem yapar. EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 34 Vektör Makineler Enabling Grids for E-sciencE – Vektör işlemciler, aynı anda birden fazla veri üstünde matematik işlem yapabilen işlemcilerdir. – Şu anda süperbilgisayar dünyasında vektör işlemciler çok az kullanılmaktadırlar. – Ancak bugün çoğu işlemci vektör işleme komutları içermektedirler (Intel SSE). – Vektör işlemciler, aynı matematiksel komutu farklı veriler üzerinde defalarca çalıştırmak yerine bütün veri yığınını alıp aynı işlemi yapabilirler. EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 35 Küme Bilgisayarlar Enabling Grids for E-sciencE – Hesaplamada küme bilgisayar kullanımı 1994 senesinde NASA’da Beowulf projesi ile başlamıştır. 16 Intel 486 DX4 işlemci ethernet ile bağlanmıştır. – Yüksek performanslı hesaplama, artık küme bilgisayarlarla hesaplama halini almıştır. – Küme bilgisayar, birlikte çalışmak üzere bağlanmış birden fazla sunucudan oluşur. – En önemli dezavantajı kullanıcıya tek sistem arayüzü sunamamasıdır. EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 36 Paralel Uygulamalar Enabling Grids for E-sciencE EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 37 Dünya Simülasyonu Enabling Grids for E-sciencE • • • • Gelişmiş nümerik simülasyon yöntemleri ile sanal bir dünya yaratarak gelecekte dünyanın nasıl görüneceğini hesaplayan bir Japonya’da bir projedir. 40 TFLOPS işlem kapasitesine sahiptir. Toplam 10 TByte belleğe sahiptir. Her birinde 8 vektör işlemci bulunan 640 işlemci ucundan oluşur. EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 38 TeraGrid Enabling Grids for E-sciencE Caltech: Data collection analysis 0.4 TF IA-64 IA32 Datawulf 80 TB Storage Sun IA64 ANL: Visualization LEGEND Cluster Visualization Cluster Storage Server Shared Memory IA32 IA64 IA32 Disk Storage Backplane Router 1.25 TF IA-64 96 Viz nodes 20 TB Storage IA32 Extensible Backplane Network LA Hub 30 Gb/s 40 Gb/s 30 Gb/s 30 Gb/s 30 Gb/s 30 Gb/s 4 TF IA-64 DB2, Oracle Servers 500 TB Disk Storage 6 PB Tape Storage 1.1 TF Power4 IA64 Chicago Hub Sun IA64 10 TF IA-64 128 large memory nodes 230 TB Disk Storage 3 PB Tape Storage GPFS and data mining Pwr4 SDSC: Data Intensive NCSA: Compute Intensive EV7 EV68 6 TF EV68 71 TB Storage 0.3 TF EV7 shared-memory 150 TB Storage Server Sun PSC: Compute Intensive PSC integrated Q3 03 EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 39 EGEE Altyapısı Enabling Grids for E-sciencE Scale > 49 ülkede 224 site ~ 38.000 işlemci > 15 PB veri alanı > Günde onbinlerce çalışan iş > Yüzden fazla kayıtlı sanal organizasyon EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 40 LHC Enabling Grids for E-sciencE • LHC 7’şer TeV’lik enerjiye sahip iki proton demetini çarpıştıracak. LHC 2007’de çalışmaya • En yeni süperiletken teknolojisini kullanarak mutlak sıfırın hemen üstünde – 2710C’de çalışacak. , Dedektörleri birer saray büyüklüğünde olan dört deney: • 27 km’lik çevresiyle dünyadaki en büyük süperiletken uygulaması olacak. ALICE ATLAS CMS LHCb EGEE-II INFSO-RI-031688 Grid başlayacak ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 41 LHC Verileri Enabling Grids for E-sciencE 1 Gigabyte (1GB) = 1000MB A DVD filmi • Saniyede 40 milyon olay 1 Terabyte (1TB) = 1000GB Dünyanın yıllık kitap üretimi • Filtrelemeden sonra saniyede 100 ilginç olay 1 Petabyte (1PB) = 1000TB Bir LHC deneyinin yıllık veri üretimi • Her olayda bir megabitlik dijital veri = 0.1 Gigabit/s’lik veri kayıt hızı • Yılda 1010 olay kaydı = 10 Petabyte/yıllık veri üretimi CMS EGEE-II INFSO-RI-031688 Grid LHCb ATLAS 1 Exabyte (1EB) = 1000 PB Dünyanın yıllık bilgi üretimi ALICE ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 42 Enabling Grids for E-sciencE EGEE-II INFSO-RI-031688 Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi 43
Benzer belgeler
Giriş ve Motivasyon
– Hesaplama ihtiyaçları, gün geçtikçe artmaktadır. Daha
yüksek frekanslı sensörler, görselleştirme kalitesinin
artması, dağıtık veri tabanları buna birer örnektir.
– Diğer taraftan işlemci teknoloj...