Doğal dil işleme teknolojisi biçimindeki üretken yapay zeka (AI), büyük ve küçük kuruluşların yeni verimlilikler bulma ve görevleri otomatikleştirme amacıyla pilot uygulama konusunda acele etmesiyle dünyayı kasıp kavurdu.

Teknoloji devleri Google, Microsoft ve Amazon, bulut tabanlı genAI teknolojileri sunuyor veya bunları kullanıcılar için iş uygulamalarına dahil ediyor; IDC’ye göre şirketlerin yapay zekaya yaptığı küresel harcamaların 2026 yılına kadar 301 milyar dolara ulaşması bekleniyor.

Ancak genAI araçları, öncelikle OpenAI’nin ChatGPT’si ve Google’ın Bard’ının temelini oluşturan büyük dil modellerinin (LLM’ler) eğitimi için çok sayıda hesaplama kaynağı tüketiyor. GenAI kullanımı arttıkça, doğal dil işleme için bilgi depoları olan bu modelleri çalıştırmak için kullanılan donanım üzerindeki baskı da artıyor.

İşlemci ve bellek yongaları gibi farklı yongaların tek bir pakette bir araya getirilmesiyle oluşturulan grafik işlem birimleri (GPU’lar), LLM’leri eğitmek ve dağıtmak için gereken bant genişliğini sundukları için yapay zeka platformlarının temeli haline geldi. Ancak AI çip üreticileri talebe yetişemiyorum. Sonuç olarak, son aylarda AI GPU’lar için karaborsalar ortaya çıktı.

Bazıları bu eksiklikten Nvidia gibi şirketleri sorumlu tutuyor. GPU üretiminde piyasayı köşeye sıkıştıran ve tedarik konusunda sıkıntı yaşıyor. Yapay zekanın yükselişinden önce Nvidia, video oyunlarında gelişmiş grafikler oluşturmaya yardımcı olan üst düzey işlemciler tasarladı ve üretti; bu, artık makine öğrenimi ve yapay zeka için son derece uygulanabilir olan özel işlem türüdür.

Yapay zekanın GPU’lara olan susuzluğu

2018’de OpenAI bir analiz yayınladı 2012’den bu yana, en büyük yapay zeka eğitim çalışmalarında kullanılan bilgi işlem gücü miktarının katlanarak arttığı ve her 3,4 ayda bir ikiye katlandığı görülüyor (Karşılaştırıldığında, Moore Yasası Bir entegre devredeki transistör sayısının her iki yılda bir ikiye katlandığını öne sürdü.

OpenAI raporunda, “2012’den bu yana bu ölçüm 300.000 kattan fazla arttı (2 yıllık iki katına çıkma süresi yalnızca 7 kat artış sağlayacaktır)” dedi. “Bilgi işlemdeki iyileştirmeler yapay zeka ilerlemesinin önemli bir bileşeni olmuştur; dolayısıyla bu eğilim devam ettiği sürece, günümüzün yeteneklerinin çok ötesindeki sistemlerin etkilerine hazırlanmaya değer.”

OpenAI’nin tezinin değiştiğine inanmak için hiçbir neden yok; Aslında, Elektrik ve Elektronik Mühendisleri Enstitüsü’nden (IEEE) araştırmacı Jay Shah’a göre, geçen Kasım ayında ChatGPT’nin kullanıma sunulmasıyla talep arttı. “Şu anda büyük teknoloji şirketlerinin, kullanıcı deneyimini iyileştirmek ve mevcut ürünlerine yeni özellikler eklemek için farklı yapay zeka modellerini eğitmek ve test etmek için donanım taleplerinde (özellikle GPU’lar) büyük bir artış görüyoruz” dedi.

OpenAI ve Amazon gibi Yüksek Lisans yaratıcıları zaman zaman en büyük modeli kimin oluşturabileceği konusunda iddialı bir mücadele içinde görünüyor. Bazılarının boyutu artık 1 trilyon parametreyi aşıyor; bu da eğitmek ve çalıştırmak için daha da fazla işlem gücüne ihtiyaç duydukları anlamına geliyor.

Shah, “Modelleri daha da büyütmenin alanı ileriye taşıyacağını düşünmüyorum” dedi. “Bu aşamada bile, bu modellerin eğitimi hesaplama açısından son derece pahalı olmaya devam ediyor, paraya mal oluyor ve iklim üzerinde daha büyük karbon ayak izleri yaratıyor. Ayrıca, başkaları bu modellere erişebildiğinde, onları eğitebildiğinde, test edebildiğinde ve doğrulayabildiğinde araştırma topluluğu da gelişiyor.”

Shah’a göre çoğu üniversite ve araştırma kurumu, zaten çok büyük olan LLM’leri çoğaltmayı ve iyileştirmeyi göze alamaz; bu nedenle, AI modellerini eğitmek ve dağıtmak için daha az donanım ve zaman kullanan verimli teknikler bulmaya odaklanıyorlar. Kendi kendini denetleyen öğrenme, transfer öğrenme, sıfır atışlı öğrenme ve temel modeller gibi tekniklerin umut verici sonuçlar verdiğini söyledi.

“Yapay zeka araştırma topluluğunun geçerli bir çözüm bulmasını bir ila iki yıl daha beklerim” dedi.

Kurtarmaya yönelik girişimler mi var?

ABD merkezli AI çip start-up’ları gibi Grafik çekirdeği, Kneron Ve iDEAL Yarı İletken kendilerini Nvidia gibi endüstrinin güçlü isimlerine alternatif olarak görüyorlar. Örneğin Graphcore, yeni bir işlemci türü öneriyor. akıllı işlem ünitesi (IPU), şirketin baştan sona AI bilgi işlem ihtiyaçlarını karşılayacak şekilde tasarlandığını söyledi. Kneron’un çipleri, elektrikli araçlar (EV’ler) veya akıllı binalar gibi ileri düzey yapay zeka uygulamaları için tasarlandı.

Mayıs ayında iDEAL Semiconductor yeni bir silikon bazlı mimari başlattı “SuperQ” adı verilen bu teknolojinin diyotlar, metal oksit yarı iletken alan etkili transistörler (MOSFET’ler) ve entegre devreler gibi yarı iletken cihazlarda daha yüksek verimlilik ve daha yüksek voltaj performansı üretebileceğini iddia ediyor.

iDEAL Semiconductor’ın kurucu ortağı ve başkanı Mike Burns’e göre yarı iletken tedarik zinciri çok karmaşık olsa da, yeni kapasiteyi çevrimiçi hale getirmek için üretim kısmı en uzun teslim süresine sahip.

“Bir fabrikayı yüksek kullanımda çalıştırmak çok karlı olabilirken, onu düşük kullanımda çalıştırmak aşırı koşullar nedeniyle mali bir felaket olabilir. [capital expenses] Üretim ekipmanlarıyla ilgili” dedi Burns. “Bu nedenlerden dolayı fabrikalar kapasite artırımı konusunda dikkatli davranıyor. Tedarik zincirinde yaşanan, COVID, jeopolitik ve EV’ler ile yapay zeka için ihtiyaç duyulan çip türlerindeki değişiklikler de dahil olmak üzere çeşitli şoklar, düzeltilmesi bir ila üç yıl sürebilecek çeşitli kısıtlamalara yol açtı. Kısıtlamalar, jeopolitiğe yakalanan hammaddeler veya inşa edilmeyi bekleyen üretim kapasitesi de dahil olmak üzere her düzeyde ortaya çıkabilir.”

Video oyunları Nvidia için büyük bir iş olmaya devam ederken, gelişen yapay zeka işi, şirketin yapay zeka çip pazarının %80’inden fazlasını kontrol etmesine olanak tanıdı. Nvidia’nın gelirlerindeki büyük artışa rağmen analistler tedarik zincirinde potansiyel sorunlar olduğunu düşünüyor. Şirket kendi yongalarını tasarlıyor ancak yarı iletken endüstrisinin çoğu gibi bunları üretmek için TSMC’ye güveniyor ve bu da Nvidia’yı tedarik zinciri kesintilerine karşı duyarlı hale getiriyor.

Buna ek olarak, açık kaynak çabaları sayısız yapay zeka dil modelinin geliştirilmesine olanak sağladı, bu nedenle küçük şirketler ve yapay zeka girişimleri de ürüne özel yüksek lisans (LLM) geliştirmek için devreye giriyor. Yapay zekanın yanlışlıkla hassas bilgileri paylaşmasıyla ilgili gizlilik endişeleri nedeniyle birçok şirket, küçük yapay zeka modellerini yerel olarak çalıştırabilen ürünlere de yatırım yapıyor ( Kenar Yapay Zekası).

Buna “kenar” adı veriliyor çünkü yapay zeka hesaplaması, bulutta veya özelde merkezi olarak konumlandırılmış bir LLM’nin aksine, verinin bulunduğu ağın ucunda kullanıcıya daha yakın (örneğin, tek bir sunucuda veya akıllı bir arabada) gerçekleşiyor. veri merkezi.

Edge AI, radyologların patolojileri tanımlamasına, Nesnelerin İnterneti (IoT) cihazları aracılığıyla ofis binalarını kontrol etmesine yardımcı oldu ve sürücüsüz arabaları kontrol etmek için kullanıldı. Uç yapay zeka pazarının değeri 2021’de 12 milyar dolar olarak gerçekleşti. 107,47 milyar dolara ulaşması bekleniyor 2029’a kadar.

Shaw, “Yapay zekayı yerel olarak çalıştırabilen daha fazla ürün göreceğiz, bu da donanıma olan talebi daha da artıracak” dedi.

Daha küçük LLM’ler çözüm mü?

Araştırma firması Gartner’ın seçkin başkan yardımcısı analisti Avivah Litan, GPU yongalarının ölçeklendirilmesinin er ya da geç yapay zeka model boyutlarındaki büyümeye ayak uyduramayacağını söyledi. “Dolayısıyla modelleri giderek büyütmeye devam etmek geçerli bir seçenek değil” dedi.

iDEAL Semiconductor’dan Burns, “Daha verimli Yüksek Lisans ve Yapay Zeka çözümlerinin geliştirilmesine ihtiyaç duyulacak, ancak ek GPU üretimi bu denklemin kaçınılmaz bir parçası” diyerek aynı fikirde.

Enerji ihtiyaçlarına da odaklanmalıyız” dedi. “Hem donanım hem de veri merkezi enerji talebi açısından ayak uydurmaya ihtiyaç var. Yüksek Lisans eğitimi temsil edebilir önemli bir karbon ayak izi. Dolayısıyla GPU üretiminde ve aynı zamanda GPU’yu kullanan yapay zeka sunucusunu tasarlamak için kullanılması gereken bellek ve güç yarı iletkenlerinde de gelişmeler görmemiz gerekiyor.”

Bu ayın başlarında dünyanın en büyük çip üreticisi TSMC, üretim kısıtlamalarıyla karşı karşıya olduğunu itiraf etti ve AI ve HPC uygulamaları için GPU’ların sınırlı kullanılabilirliği. Semicon Tayvan’dan Liu, “Şu anda müşterilerimizin tüm taleplerini karşılayamıyoruz, ancak bunların yaklaşık %80’ini karşılamaya çalışıyoruz” dedi. “Bu geçici bir aşama olarak görülüyor. Gelişmiş çip paketleme kapasitemizin kabaca bir buçuk yıl içinde artmasının ardından azalma olacağını öngörüyoruz.”

2021’de yerli çip üretimindeki düşüş, dünya çapında bir tedarik zinciri krizinin altını çizdi ve bu da üretimin ABD’ye yeniden kaydırılması çağrılarına yol açtı. ABD hükümetinin onları CHIPS Yasası aracılığıyla teşvik etmesiyle, Intel, SAMSUNGMikron ve TSMC birkaç yeni ABD tesisi için planlarını açıkladı. (Qualcomm, GlobalFoundries ortaklığıyla, ayrıca 4,2 milyar dolar yatırım yapmayı planlıyor Malta, NY tesisinde çip üretimini ikiye katlayacak.)

TSMC, diğer şirketler (hem entegre cihaz üreticileri (IDM) hem de dökümhaneler) tam kapasiteye yakın veya tam kapasitede çalışırken bile, çip üretimini artırmak için bu yıl 36 milyar dolardan fazla harcama yapmayı planlıyor. küresel yönetim danışmanlığı firması McKinsey & Co’ya göre.

“Çip endüstrisi buna ayak uyduramıyor. Litan, GPU inovasyonunun, model boyutlarının genişletilmesinden ve büyümesinden daha yavaş ilerlediğini söyledi. “Donanımın değişmesi her zaman yazılıma göre daha yavaştır.”

Ancak TSMC’den Liu, AI çip tedarikindeki kısıtlamaların “geçici” olduğunu ve 2024 yılı sonuna kadar hafifletilebileceğini söyledi. Nikkei Asia’da bir rapor.

Hem ABD CHIPS ve Bilim Yasası hem de Avrupa Chips Yasası, kendi kıyılarındaki çip üretimini geri getirerek ve artırarak arz ve talep zorluklarını ele almayı amaçlıyordu. Öyle olsa bile, CHIPS Yasasının kabul edilmesinin üzerinden bir yılı aşkın bir süre geçtikten sonra TMSC, açılış tarihi ertelendi ABD Başkanı Joseph R. Biden Jr.’ın 52,7 milyar dolarlık çip ülkesine geri gönderme gündeminin en önemli parçası olarak lanse ettiği Phoenix, AZ Dökümhanesi için. TSMC, 2024 yılında bir açılış planlamıştı; vasıflı işgücü eksikliği nedeniyle 2025’te çevrimiçi olacak. İkinci bir TSMC tesisinin 2026 yılında açılması planlanıyor.

Dünyanın en büyük silisyum karbür tedarikçisi Wolfspeed, yakın zamanda bunun muhtemelen on yılın ikinci yarısı olacağını itiraf etti CHIPS Yasası ile ilgili yatırımlar tedarik zincirini etkilemeden önce.

iDEAL Semiconductor’dan Burns, ABD ve Avrupa Çip yasalarının, üretim sistemindeki esnekliği artırmak için yarı iletken endüstrisinin bazı kısımlarını yeniden destekleyerek tedarik zinciri sorununun çözülmesine yardımcı olması gerektiğini söyledi.

Burns, “ABD CHIPS ve Bilim Yasası, yarı iletken tedarik zinciri riskini ulusal bir diyaloga yükselterek sektörü zaten etkiledi. Artık tedarik zinciri risklerine odaklanan ilgi, özel sektör yatırımlarını artırdı” dedi. “ABD’li üreticiler kapasitelerini genişletme planlarını açıkladılar ve Teksas, Ohio, New York ve Arizona gibi yerlerdeki yatırımlar hızla sürüyor. CHIPS ve Bilim Yasasının mevcut tedarik zincirini ne ölçüde çözebileceğini tam olarak değerlendirmek zaman alacak Ancak bu, yerli üretim kapasitesinin genişletilmesinde iyi bir ilk adımdır.”

Yapay zeka çipi kıtlığına rağmen yapay zeka çip stokları hızla arttı. Nvidia’nınki de dahilHisse senedi fiyatı son 52 haftada üç kattan fazla artarak piyasa değeri trilyon doları aştı.

IEEE’den Shaw ayrıca ABD hükümetinin dökümhanelere vaat ettiği fonları sağlayamadığını, bunun da varsayılan olarak birçok ABD merkezli teknoloji şirketinin mevcut üreticilere güvenmeyi planlamak zorunda olduğu anlamına geldiğini belirtti.

Shaw, “Şahsen ben, ABD topraklarında Asyalı muadillerinden daha ucuz donanım üretmenin hala dört ila beş yıl süreceğine inanıyorum” dedi.

Telif Hakkı © 2023 IDG Communications, Inc.



genel-13