Yapay zeka iş yüklerine yönelik günümüzün en güçlü yeni veri merkezi GPU’ları, her biri 700 watt’a kadar enerji tüketebilir. Yıllık %61’lik kullanımla bu, yılda yaklaşık 3.740.520 Wh veya 3,74 MWh’ye karşılık gelecektir. GPU başına, Özellikle uzaklaştırıp yalnızca geçen yıl satılan toplam GPU sayısına baktığımızda, gücün kullanılabilirliği ve çevresel etkilerle ilgili endişeleri artırıyor.

Nvidia geçen yıl 3,76 milyon veri merkezi GPU’su sattı ve pazarın %98’ini oluşturdu. Intel, AMD ve diğer oyunculardan kalan %2’lik kısım da eklenince, 2023’te veri sunucularına 3.836.000’den fazla GPU teslim edilecek.

Bu sayıyı geçen yılki toplam veri merkezi GPU teslimatlarıyla çarptığınızda, yılda 14.348,63 GWh elektrik kullanılmış olur. Bunu bir bağlama oturtmak gerekirse, ortalama bir Amerikan evi yılda 10.791 kWh kullanıyor, bu da geçen yıl satılan veri merkezi GPU’larının 1,3 milyon hanenin yıllık kullandığı miktardaki gücü tükettiği anlamına geliyor. Buna devlet düzeyinde bakarsak, Kaliforniya Enerji Komisyonu eyaletin 2022’de 203.257 GWh ürettiğini, bunun da veri merkezi GPU’larının eyaletin yıllık üretiminin yaklaşık %7’sini tükettiği anlamına geldiğini bildirdi.

Ancak bunların yalnızca veri merkezi GPU’ları olduğunu unutmamalısınız. Buradaki veriler CPU’ları, soğutma sistemlerini ve veri merkezlerinin düzgün çalışması için gereken diğer ekipmanları içermez. Örneğin, RTX 4090’ların çoğu minimum 850 watt’lık bir güç kaynağı önerirken, bazıları 1.000, hatta 1.200 watt gerektirir. Minimum değere göre gidersek, geçen yıl inşa edilen sunucular ve veri merkezleri yıllık 25 GWh’nin üzerinde enerjiye ihtiyaç duyuyor. Bu sayılara 2022 ve daha eski tarihli veri merkezleri dahil değildir ve bu yıl çevrimiçi olacak çok sayıda veri merkezi de dikkate alınmamaktadır.

Sektör analistleri, veri merkezi GPU pazarının 2028 yılına kadar yıllık bazda %34,6 oranında büyüyeceğini tahmin ediyor; bu da önümüzdeki yıllarda muhtemelen daha fazla veri merkezi GPU’sunun piyasaya sürüleceğini göreceğimiz anlamına geliyor. Ayrıca Nvidia’nın yeni nesil AI GPU’larının mevcut 700 watt’lık H100’den daha fazla güç çekmesi bekleniyor. Veri merkezi bilgisayarları önümüzdeki yıllarda güç tüketimini sürdürseler bile (koramayacaklar), veri merkezlerine yönelik güç talebinin pazarın büyümesiyle orantılı olarak artması gerekiyor.

Veri merkezlerinin bu benzeri görülmemiş yükselişi, güç altyapımızla ilgili endişeleri artırıyor. Aslında ABD hükümeti, özellikle bu yeni veri merkezlerinin şebeke üzerinde aşırı baskı oluşturabileceği göz önüne alındığında, teknoloji şirketleriyle yapay zeka elektrik talepleri hakkında zaten görüşmelerde bulunuyor. Meta kurucusu Mark Zuckerberg, sınırlı gücün, özellikle de yapay zeka büyümesini sınırlayacağını bile söylüyor Enerdata kaydetti küresel enerji üretiminin son on yılda yılda yalnızca %2,5 arttığını söyledi.

Yine de teknoloji şirketleri bu konuya kör değil. Geleneksel olarak bir yazılım şirketi olan Microsoft, veri merkezleri için küçük modüler nükleer reaktörlere bile yatırım yapmayı düşünüyor. Kesinlikle bir ton güç gerektirecek olan 100 milyar dolarlık bir yapay zeka süper bilgisayarı oluşturmak için OpenAI ile ortaklık kurduğu için bu özellikle önemlidir.

Veri odaklı toplumumuzda yapay zekanın yükselişi, bilgi işlem gereksinimlerimizi karşılamak için çok fazla elektriğe ihtiyacımız olduğu anlamına geliyor. Dahası, elektrikli araçlar gibi çok fazla enerjiye ihtiyaç duyan diğer gelecek teknolojileri de unutmamalıyız. Daha fazla güç sağlarken aynı zamanda daha az güç tüketen çipler (ve motorlar) geliştirmenin bir yolunu bulamazsak, muhtemelen daha fazla güç üretim tesisi eklememiz ve bunları ihtiyaç duyulan yere ulaştırmak için destekleyici altyapıyı yükseltmemiz gerekecek.



genel-21