Dünyanın en zorlu problemlerini çözmek üzere tasarlanan süper bilgisayarlar, her gün insan zihnini aşan milyarlarca işlem gerçekleştiriyor. Lawrence Livermore Ulusal Laboratuvarı’ndaki “El Capitan” ya da Oak Ridge’deki “Frontier” gibi sistemler, bu devasa gücü tek bir işlemci yerine binlerce birimin eş zamanlı çalışmasından alıyor
. İklim modellerinden genetik araştırmalara, nükleer simülasyonlardan yapay zeka eğitimlerine kadar pek çok kritik görev bu dijital devlere emanet. Ancak yaygın bir yanılgıyı düzeltmekte fayda var: Bu sistemler kuantum bilgisayarı değil. Geleneksel bitlerle (0 ve 1) çalışan klasik yapılar olsalar da, asıl farkları bu hesaplamaları akıl almaz bir ölçekte ve hızda yapabilmeleri.Teknolojinin önündeki dört büyük engelSüper bilgisayarlar her ne kadar durdurulamaz görünse de, mühendisler hala somut kısıtlamalarla mücadele ediyor
. Bu makinelerin verimliliğini; iş yükünün ölçeklenmesi, veri aktarım hızı, enerji tüketimi ve sistem güvenilirliği gibi dört temel sorun belirliyor. Söz konusu engeller üzerinde yoğun çalışmalar yürütülse de henüz kalıcı bir çözüm bulunmuş değil.Süper bilgisayarın verimliliği, aslında çözmeye çalıştığı problemin yapısına bağlı
. Bu makineler en çok “paralel işleme” uygun olan, yani küçük parçalara bölünerek aynı anda çözülebilen görevlerde yüksek performans sergiliyor. Örneğin bir iklim modeli; okyanusları ve atmosferi binlerce bölgeye ayırıp her birini aynı anda hesaplayabilir. Fakat bazı problemler doğası gereği ardışık ilerlemek zorunda
. Bir adımın bitmesi için diğerinin sonucunun beklendiği durumlarda, dünyanın en güçlü donanımı dahi hızı artıramıyor. Bu yüzden gelişme sadece donanım eklemekle değil, yazılımları bu güce uyumlu hale getirmekle mümkün.Veri trafiği ve enerji maliyetiİşlem hızının ötesindeki bir diğer büyük engel ise veri trafiği olarak karşımıza çıkıyor
. Bir makine ne kadar hızlı hesap yaparsa yapsın, işleyeceği bilgiyi hafızadan çekmek zorunda. Çoğu zaman sistemin performansı, işlemcinin gücüyle değil, verinin taşınma süresiyle sınırlı kalıyor. Mühendisler bu gecikmeyi azaltmak adına veriyi fiziksel olarak işlemciye en yakın noktalarda saklamaya çalışıyor.Bunun yanı sıra devasa enerji tüketimi de hem ekonomik hem de çevresel bir yük oluşturuyor
. En hızlı süper bilgisayarlar orta ölçekli bir şehrin harcadığı elektriği tüketiyor. Bu süreçte ortaya çıkan yüksek ısıyı tahliye etmek için çok gelişmiş soğutma sistemleri gerekiyor. Haliyle enerji verimliliğini artırmak, artık sadece hızlanmak kadar kritik bir hedef.Son olarak, binlerce parçanın bir araya geldiği bu sistemlerde arıza riski her zaman mevcut
. Kilometrelerce kablo ve karmaşık ünitelerden birinde yaşanacak ufacık bir temassızlık, günler süren bir deneyi yarıda bırakabiliyor. Bilim insanları, bir hata anında çalışmanın kaybolmaması için sistemi düzenli aralıklarla yedekleyen özel yazılımlar kullanıyor. Ancak donanım arızalarının önüne tamamen geçmek imkansız
. Sonuçta bir makine ne kadar büyürse, içinde bozulabilecek parçaların sayısı da o oranda artıyor.