Günümüzün en gelişmiş yapay zeka sistemleri, arabaları şehrin sokaklarında yönlendirmekten insan benzeri nesir yazmaya kadar etkileyici başarılara sahip. Ancak ortak bir darboğazı paylaşıyorlar: donanım. Son teknoloji sistemler geliştirmek, genellikle çok büyük miktarda bilgi işlem gücü gerektirir. Örneğin, DeepMind’ın protein yapısını tahmin eden AlphaFold’u oluşturmak, yüzlerce GPU’dan oluşan bir küme aldı. Zorluğun altını daha da çizen bir kaynak tahminler AI başlangıcı OpenAI’nin dil üreten GPT-3 sistemini tek bir GPU kullanarak geliştirmenin 355 yıl alacağını söyledi.
Yapay zeka sistem geliştirmenin belirli yönlerini hızlandırmak için tasarlanan yeni teknikler ve çipler, donanım gereksinimlerini azaltmayı vaat ediyor (ve aslında zaten var). Ancak bu tekniklerle gelişmek, daha küçük şirketler için zor olabilecek uzmanlık gerektirir. En azından, altyapı girişiminin kurucu ortakları Varun Mohan ve Douglas Chen’in iddiası bu. arıza. Bugün gizlilikten doğan Exafunction, yapay zeka sistemlerini eğitmek için donanım kullanmanın karmaşıklığını ortadan kaldıracak bir platform geliştiriyor.
“İyileştirmeler [in AI] genellikle hesaplama karmaşıklığındaki büyük artışlarla desteklenir. Sonuç olarak, şirketler derin öğrenmenin faydalarını gerçekleştirmek için donanıma büyük yatırımlar yapmak zorunda kalıyor. Chen, TechCrunch’a bir e-posta röportajında verdiği demeçte, bu çok zor çünkü teknoloji çok hızlı gelişiyor ve derin öğrenme bir şirkette değerini kanıtladıkça iş yükü boyutu hızla artıyor.” “Derin öğrenme hesaplamalarını geniş ölçekte çalıştırmak için gerekli özel hızlandırıcı çipleri çok az. Bu çipleri verimli bir şekilde kullanmak, derin öğrenme pratisyenleri arasında nadir görülen ezoterik bilgiyi de gerektirir.”
25 milyon doları Greenoaks liderliğindeki Founders Fund’ın katılımıyla A Serisi turdan gelen 28 milyon dolarlık risk sermayesi ile Exafunction, AI’daki uzmanlık eksikliğinin belirtisi olarak gördüğü şeyi ele almayı hedefliyor: atıl donanım. AI sistemlerini “eğitmek” için kullanılan GPU’lar ve yukarıda bahsedilen özel çipler – yani, sistemlerin tahmin yapmak için kullanabileceği verileri beslemek – sıklıkla yetersiz kullanılmaktadır. Bazı AI iş yüklerini çok hızlı tamamladıklarından, işlemciler ve bellek gibi donanım yığınının diğer bileşenlerinin yetişmesini beklerken boşta kalırlar.
AI geliştirme platformu Weights and Biases’in kurucusu Lukas Beiwald, raporlar şirketinin müşterilerinin yaklaşık üçte birinin GPU kullanımının ortalama %15’ten az olduğunu. Bu arada, 2021’de anket Exafunction ile rekabet eden Run:AI tarafından görevlendirilen şirketlerin sadece %17’si AI kaynaklarının “yüksek kullanımını” başarabildiklerini söylerken, %22’si altyapılarının çoğunlukla boşta olduğunu söyledi.
Maliyetler artıyor. Binaen Run:AI için, şirketlerin %38’inin yapay zeka altyapısı için (donanım, yazılım ve bulut ücretleri dahil) yıllık bütçesi Ekim 2021 itibarıyla 1 milyon doları aştı. tahmini GPT-3 eğitimi için 4.6 milyon dolar harcamış olmak.
Mohan, e-posta yoluyla, “Derin öğrenmede faaliyet gösteren çoğu şirket, zamanlarını ve bant genişliğini kaynakları optimize etme endişesiyle harcamamak için temel teknolojilerine odaklanabilmek için işe giriyor” dedi. “Odaklandığımız sorunu, yani müşterilere üstün performans sunarken GPU’lar gibi hızlandırılmış donanımları yönetmenin zorluklarını ortadan kaldıran anlamlı bir rakip olmadığına inanıyoruz.”
Bir fikrin tohumu
Exafunction’ın kurucu ortağı olmadan önce Chen, Facebook’ta yazılım mühendisiydi ve burada Oculus Quest gibi cihazlar için araçların oluşturulmasına yardım etti. Mohan, şirketin özerklik altyapı ekiplerini yönetmekten sorumlu otonom teslimat girişimi Nuro’da teknoloji lideriydi.
“Derin öğrenme iş yüklerimiz olarak [at Nuro] karmaşıklık ve talep arttıkça, donanımımızı buna göre ölçeklendirmek için net bir çözüm olmadığı ortaya çıktı, ”dedi Mohan. “Simülasyon garip bir problem. Belki de paradoksal olarak, yazılımınız geliştikçe, köşe durumları bulmak için daha da fazla yinelemeyi simüle etmeniz gerekir. Ürününüz ne kadar iyi olursa, hata bulmak için aramanız o kadar zor olur. Bunun ne kadar zor olduğunu öğrendik ve sahip olduğumuz kaynaklardan daha fazla performans elde etmek için binlerce mühendislik saati harcadık.”
Exafunction müşterileri, şirketin yönetilen hizmetine bağlanır veya Exafunction’ın yazılımını bir Kubernetes kümesinde dağıtır. https://www.exafunction.com/ teknolojisi, kaynakları dinamik olarak tahsis eder ve hesaplamayı, mümkün olduğunda nokta bulut sunucuları gibi “uygun maliyetli donanımlara” taşır.
Mohan ve Chen, Exafunction platformunun iç işleyişi hakkında soru sorulduğunda, bu ayrıntıları şimdilik gizli tutmayı tercih ederek itiraz ettiler. Ancak, Exafunction’ın yüksek düzeyde kaldıraç sağladığını açıkladılar. sanallaştırma Yapay zeka iş yüklerini sınırlı donanım kullanılabilirliği ile bile çalıştırmak, görünüşte maliyetleri düşürürken daha iyi kullanım oranlarına yol açar.
Exafunction’ın teknolojisi hakkında – Google’ın tensör işleme birimleri (TPU’lar) gibi bulutta barındırılan hızlandırıcı yongaları destekleyip desteklemediği de dahil olmak üzere – bilgi açıklama konusundaki çekingenliği bazı endişelere neden oluyor. Ancak şüpheleri gidermek için Mohan, isim vermeden, Exafunction’ın “bilgisayar vizyonunun en ileri noktasındaki en gelişmiş otonom araç şirketlerinden ve kuruluşlarından bazıları” için GPU’ları zaten yönettiğini söyledi.
“Exafunction, iş yüklerini GPU’lar gibi hızlandırma donanımlarından ayıran, maksimum verimli kullanım sağlayarak maliyetleri düşüren, performansı hızlandıran ve şirketlerin donanımdan tam olarak faydalanmasına olanak tanıyan bir platform sağlıyor. [The] platform, ekiplerin çalışmalarını tek bir platformda birleştirmesini sağlar.
Birbirinden farklı yazılım kitaplıklarını bir araya getirmenin zorlukları” diye ekledi. “Bunu bekliyoruz [Exafunction’s product] AWS’nin bulut bilişim için yaptığını derin öğrenme için yaparak, pazara son derece olanak sağlayacak.”
Büyüyen piyasa
Mohan’ın Exafunction için görkemli planları olabilir, ancak “akıllı” altyapı tahsisi kavramını AI iş yüklerine uygulayan tek şirket başlangıç değil. Beyond Run:AI – ürünü ayrıca AI iş yüklerini optimize etmek için bir soyutlama katmanı oluşturur — grid.ai teklifler Veri bilimcilerin yapay zeka modellerini donanımlar arasında paralel olarak eğitmesine olanak tanıyan yazılım. Kendi adına, Nvidia satıyor Yapay Zeka Kurumsalşirketlerin AI iş yüklerini Nvidia sertifikalı sunucularda sanallaştırmasına olanak tanıyan bir araç ve çerçeve paketi.
Ancak Mohan ve Chen, kalabalığa rağmen büyük bir adreslenebilir pazar görüyor. Konuşmada, Exafunction’ın abonelik tabanlı platformunu yalnızca AI geliştirmenin önündeki engelleri kaldırmanın bir yolu olarak değil, aynı zamanda tedarik zinciri kısıtlamalarıyla karşı karşıya kalan şirketlerin eldeki donanımdan “daha fazla değer elde etmelerini” sağlamanın bir yolu olarak konumlandırdılar. (Son yıllarda, bir dizi farklı nedenden ötürü, GPU’lar popüler ürünler haline geldi.) Bulut her zaman vardır, ancak Mohan ve Chen’e göre, maliyetleri artırabilir. 1 tahmin etmek şirket içi donanım kullanarak bir yapay zeka modeli eğitmenin, en düşük maliyetli bulut tabanlı alternatiften 6,5 kata kadar daha ucuz olduğunu buldu.
Mohan, “Derin öğrenmenin neredeyse sonsuz uygulamaları olsa da, bizi en çok heyecanlandıran iki tanesi otonom araç simülasyonu ve geniş ölçekte video çıkarımı” dedi. “Simülasyon, otonom araç endüstrisindeki tüm yazılım geliştirme ve doğrulamanın merkezinde yer alır… Derin öğrenme, çeşitli sektörlerdeki uygulamalarla otomatik video işlemede olağanüstü ilerlemeye de yol açmıştır. [But] GPU’lar otonom araç şirketleri için gerekli olsa da, fiyatlarına ve kıtlığına rağmen donanımları sıklıkla yeterince kullanılmamaktadır. [Computer vision applications are] ayrıca hesaplama gerektiren, [because] Her yeni video akışı, her kameranın günde milyonlarca kare çıkışı sağlamasıyla, bir veri hortumunu etkin bir şekilde temsil ediyor.”
Mohan ve Chen, A Serisinin sermayesinin Exafunction’ın ekibini genişletmeye ve ürünü “derinleştirmeye” harcanacağını söylüyor. Şirket ayrıca “gecikme süresine en duyarlı uygulamalar” için (örneğin, otonom sürüş ve bilgisayar görüşü) AI sistem çalışma zamanlarını optimize etmeye yatırım yapacak.
Mohan, “Şu anda öncelikle mühendisliğe odaklanan güçlü ve çevik bir ekip olsak da, 2022’de kuruluşumuzun büyüklüğünü ve yeteneklerini hızla oluşturmayı umuyoruz.” Dedi. “Neredeyse her sektörde, iş yükleri daha karmaşık hale geldikçe (ve giderek artan sayıda şirket derin öğrenme içgörülerinden yararlanmak istiyor), bilgi işlem talebinin çok daha fazla olduğu açıktır. [supply]. Pandemi bu endişeleri vurgulamış olsa da, bu fenomen ve bununla ilgili darboğazlar, özellikle son teknoloji modeller katlanarak daha talepkar hale geldikçe, önümüzdeki yıllarda daha da akut hale gelmeye hazırlanıyor.”