MWC 2022 öncesinde Intel, AI çıkarım performansını hızlandırmak için büyük yükseltmeleri teşvik eden OpenVINO araç setinin Intel Dağıtımının yeni bir sürümünü yayınladı.
OpenVINO’nun 2018’de piyasaya sürülmesinden bu yana çip devi, yüz binlerce geliştiricinin uçtan başlayarak hem kurumsal hem de müşterilere uzanan AI çıkarım performansını hızlandırmasını sağladı.
Bu son sürüm, üç buçuk yıllık geliştirici geri bildirimlerine dayanan yeni özellikler içerir ve ayrıca daha fazla derin öğrenme modeli seçimi, daha fazla cihaz taşınabilirliği seçeneği ve daha az kod değişikliğiyle daha yüksek çıkarım performansı içerir.
Intel’in Ağ ve Kenar Grubundaki OpenVINO geliştirici araçlarının Başkan Yardımcısı Adam Burns, şirketin OpenVINO araç takımı dağıtımının bu son sürümü hakkında daha fazla bilgi verdi. basın bültenidiyor ki:
“OpenVINO 2022.1’in en son sürümü, optimizasyonları basitleştirmek ve otomatikleştirmek için yüz binlerce geliştiriciden üç yıldan fazla bir süredir öğrenilen bilgiler üzerine inşa edilmiştir. En son yükseltme, donanım otomatik keşfini ve otomatik optimizasyonu ekler, böylece yazılım geliştiriciler her platformda en iyi performansı elde edebilir. Bu yazılım ve Intel silikon, önemli bir AI ROI avantajı sağlar ve ağınızdaki Intel tabanlı çözümlere kolayca dağıtılır.”
OneAPI temeli üzerine inşa edilen Intel Distribution of OpenVINO araç seti, uçtan buluta üretime dağıtılan daha hızlı, daha doğru gerçek dünya sonuçları sağlamayı hedefleyen yüksek performanslı derin öğrenme için bir araçlar paketidir. En son sürümdeki yeni özellikler, geliştiricilerin genişletilmiş bir dizi derin öğrenme modelinde kolaylıkla kodu benimsemesini, bakımını yapmasını, optimize etmesini ve dağıtmasını kolaylaştırıyor.
Intel Distribution of OpenVINO araç setinin en son sürümü, başka bir çerçeveden geçiş yaparken daha az kod değişikliği gerektiren güncellenmiş, daha temiz bir API’ye sahiptir. Aynı zamanda, karmaşıklığı en aza indirmek için Model Optimize Edici’nin API parametreleri azaltılmıştır.
Intel ayrıca metinden sese ve ses tanıma gibi kullanım durumları için doğal dil programlama (NLP) modelleri için daha geniş bir destek de içeriyor. Performans açısından, OTOMATİK cihaz modu artık model gereksinimlerine dayalı olarak mevcut sistem çıkarım kapasitesini kendi kendine keşfediyor, böylece uygulamaların ilerlemek için artık bilgi işlem ortamlarını bilmesine gerek kalmıyor.
Son olarak Intel, hem CPU’da hem de entegre GPU’da yüksek performanslı çıkarım için geliştirmeler sağlamak üzere 12. Nesil Intel Core CPU’larda hibrit mimari desteği ekledi.