İşletmeler yapay zekayı iş akışlarına ve ürünlerine giderek daha fazla entegre ettikçe, Araçlara ve platformlara yönelik artan bir talep var Bu, makine öğrenimi modellerinin oluşturulmasını, test edilmesini ve dağıtılmasını kolaylaştırır. Popüler olarak makine öğrenimi işlemleri (MLOps) olarak bilinen bu platform kategorisi, InfuseAI, Comet, Arrikto, Arize, Galileo, Tecton ve Diveplane gibi yeni kurulan şirketler ve Google Cloud, Azure ve gibi yerleşik şirketlerin sunduğu teklifler nedeniyle zaten biraz kalabalık. AWS.

Şimdi, Güney Koreli bir MLOps platformu çağrıldı VESSL AI şirket içi ve bulut ortamlarını birleştiren hibrit altyapıyı kullanarak GPU harcamalarını optimize etmeye odaklanarak kendine bir niş yaratmaya çalışıyor. Ve girişim, özel büyük dil modelleri (LLM’ler) ve dikey yapay zeka aracıları geliştirmek isteyen şirketleri hedefleyen altyapısının gelişimini hızlandırmak için A Serisi finansman turunda 12 milyon dolar topladı.

Şirketin hâlihazırda 50 kurumsal müşterisi var; bunların arasında Hyundai gibi bazı büyük isimler de var; Güney Koreli bir havacılık ve silah üreticisi olan LIG Nex1; TMAP MobilitesiUber ile Koreli telekomünikasyon şirketi SK Telecom arasında hizmet olarak mobilite ortak girişimi olan ; yanı sıra teknoloji girişimleri Yanolja, Upstage, ScatterLab ve Wrtn.ai. Şirket ayrıca stratejik olarak ortaklık kurmuştur. Kahin Ve Google Bulut Kurucu ortak ve CEO Jaeman Kuss An, TechCrunch’a ABD’de 2.000’den fazla kullanıcısı olduğunu söyledi.

An, 2020 yılında Jihwan Jay Chun (CTO), Intae Ryoo (CPO) ve Yongseon Sean Lee (teknoloji lideri) ile birlikte bir girişim kurdu. Kurucuların daha önce Google’da, mobil oyun şirketi PUBG’de ve bazı AI girişimlerinde belirli bir sorunu çözmek için görevleri vardı. Önceki bir tıbbi teknoloji girişiminde makine öğrenimi modelleri geliştirirken uğraşmak zorunda kaldığı sıkıntılı nokta: Makine öğrenimi araçlarını geliştirme ve kullanmanın gerektirdiği muazzam miktardaki iş.

Ekip, hibrit bir altyapı modelinden yararlanarak süreci daha verimli ve özellikle daha ucuz hale getirebileceklerini keşfetti. Şirketin MLOps platformu, GPU masraflarını %80’e kadar azaltmak için temel olarak çoklu bulut stratejisi ve spot örnekleri kullanıyor. An, bu yaklaşımın aynı zamanda GPU eksikliklerini de giderdiğini ve büyük yapay zeka modellerinin eğitimini, dağıtımını ve çalışmasını kolaylaştırdığını belirtti. ölçekli LLM’ler.

An, “VESSL AI’nin çoklu bulut stratejisi, AWS, Google Cloud ve Lambda gibi çeşitli bulut hizmeti sağlayıcılarının GPU’larının kullanılmasına olanak tanıyor” dedi. “Bu sistem en uygun maliyetli ve verimli kaynakları otomatik olarak seçerek müşteri maliyetlerini önemli ölçüde azaltır.”

VESSL platformu dört ana özellik sunar: Yapay zeka modeli eğitimini otomatikleştiren VESSL Run; Gerçek zamanlı dağıtımı destekleyen VESSL Serve; İş akışlarını kolaylaştırmak için model eğitimi ve veri ön işlemeyi birleştiren VESSL Pipelines; ve küme ortamında GPU kaynak kullanımını optimize eden VESSL Cluster.

Şirketin toplam tutarını 16,8 milyon dolara çıkaran A Serisi turunun yatırımcıları arasında A Ventures, Ubiquitous Investment, Mirae Asset Securities, Sirius Investment, SJ Investment Partners, Woori Venture Investment ve Shinhan Venture Investment yer alıyor. Girişimin Güney Kore’de ve ABD’deki San Mateo ofisinde 35 çalışanı var.



genel-24