AWS’nin bu haftaki yıllık re:Invent konferansında CEO Adam Selipsky ve diğer üst düzey yöneticiler, üretken yapay zeka sistemlerine artan kurumsal ilgiyi çekmek ve Microsoft, Oracle, Google ve IBM gibi rakiplerle mücadele etmek için yeni hizmetler ve güncellemeler duyurdu.

Pazar payı açısından en büyük bulut hizmeti sağlayıcısı olan AWS, üretken yapay zekaya artan ilgiden yararlanmak istiyor. İşletmelerin 2023 yılında üretken yapay zeka ve ilgili teknolojilere küresel olarak 16 milyar dolar yatırım yapması bekleniyor. rapor Pazar araştırma firması IDC’den.

Üretken yapay zeka yazılımının yanı sıra ilgili altyapı donanımı, BT ve iş hizmetlerini de içeren bu harcamanın, %73,3’lük bileşik yıllık büyüme oranıyla (CAGR) 2027’de 143 milyar dolara ulaşması bekleniyor.

IDC’ye göre bu üstel büyüme, aynı dönemde dünya çapındaki BT harcamalarının Bileşik Büyüme Oranından (CAGR) neredeyse 13 kat daha fazla.

Rakiplerinin çoğu gibi, özellikle KahinSelipsky, AWS’nin üretken stratejisinin üç katmana bölündüğünü ortaya çıkardı: birincisi veya altyapı katmanı, büyük dil modellerinin (LLM’ler) eğitimi veya geliştirilmesi için; uygulamalar oluşturmak için gereken temel büyük dil modellerinden oluşan bir orta katman; ve diğer iki katmanı kullanan uygulamaları içeren üçüncü bir katman.

AWS, üretken yapay zeka için altyapıyı güçlendiriyor

Ekleyen bulut hizmetleri sağlayıcısı altyapı yetenekleri ve çipler Geçen yıldan bu yana, gelişmiş enerji verimliliğiyle yüksek performanslı bilgi işlemi desteklemek amacıyla, en son versiyonlarını duyurdu. Graviton ve Stajyer bu hafta cips

AWS’ye göre Graviton4 işlemci, mevcut nesil Graviton3 işlemcilere göre %30’a kadar daha iyi bilgi işlem performansı, %50 daha fazla çekirdek ve %75 daha fazla bellek bant genişliği sağlıyor.

Trainium2 ise birinci nesil Trainium çiplerine göre dört kata kadar daha hızlı eğitim sağlayacak şekilde tasarlandı.

Bu çipler, 100.000 çipe kadar EC2 UltraClusters’a yerleştirilebilecek ve temel modellerin (FM’ler) ve LLM’lerin şimdiye kadar olduğundan çok daha kısa sürede eğitilmesine olanak tanıyacak ve enerji verimliliğini ikiye kadar artıracak. Şirket, önceki nesle göre kat daha fazla olduğunu söyledi.

Rakipleri Microsoft, Oracle, Google ve IBM, üretken yapay zeka iş yükleri de dahil olmak üzere yüksek performanslı bilgi işlem için kendi çiplerini üretiyor.

Microsoft yakın zamanda piyasaya sürse de Maia AI Hızlandırıcı ve Azure Kobalt CPU’ları Model eğitimi iş yükleri için Oracle, kendi çiplerini üretmek amacıyla Ampere ile ortaklık kurdu. Oracle Amper A1. Daha önce Oracle, yapay zeka altyapısı için Graviton çiplerini kullanıyordu. Google’ın bulut bilişim kolu Google Cloud, Tensör İşleme Birimleri (TPU’lar) biçiminde kendi AI çiplerini üretiyor ve en son çipleri de kullanılarak birleştirilebilen TPUv5e’dir. Çok dilimli teknoloji. IBM, araştırma bölümü aracılığıyla da bir çip üzerinde çalışıyor. Kuzey Kutbuüretken iş yüklerini verimli bir şekilde destekleyebilir.

re:Invent, AWS ayrıca Nvidia ile ortaklığını da genişlettidesteği de dahil olmak üzere DGX BulutuCeiba adında yeni bir GPU projesi ve üretken yapay zeka iş yüklerini destekleyen yeni örnekler.

AWS, 1 trilyon parametrenin ötesine ulaşabilen üretken yapay zeka ve LLM’lerin eğitimini hızlandırabilen Nvidia’nın DGX Cloud GPU kümesine ev sahipliği yapacağını söyledi. OpenAI de LLM’yi eğitmek için DGX Cloud’u kullandı. SohbetGPT.

Şubat ayının başında Nvidia DGX Cloud’u kullanılabilir hale getireceğini söyledi Oracle Cloud, Microsoft Azure, Google Cloud Platform ve diğer bulut sağlayıcıları aracılığıyla. Martta, Oracle, DGX Cloud desteğini duyurduve onu yakından Microsoft takip ediyor.

re:Invent yetkilileri ayrıca Nvidia L40S GPU’lara sahip yeni Amazon EC2 G6e bulut sunucularının ve L4 GPU’larla desteklenen G6 bulut sunucularının üzerinde çalışıldığını duyurdu.

L4 GPU’lar, Hopper H100’e göre ölçeklendirilmiştir ancak çok daha fazla güç verimliliği sunar. Bu yeni örnekler, yapay zekayla denemeler yapmak isteyen startup’lara, işletmelere ve araştırmacılara yöneliktir.

Nvidia ayrıca, kullanıcılara sohbet robotları gibi üretken yapay zeka araçlarının geliştirilmesinde yardımcı olmak için NeMo Retriever mikro hizmetini AWS’ye entegre etme planlarını da paylaştı. NeMo Retriever, işletmelerin özel LLM’leri kurumsal verilere bağlamasına olanak tanıyan üretken bir yapay zeka mikro hizmetidir, böylece şirket kendi verilerine dayalı olarak uygun yapay zeka yanıtları üretebilir.

Ayrıca AWS, Nvidia’nın GH200’ünü getiren ilk bulut sağlayıcısı olacağını söyledi. Grace Hopper Süper Çipleri buluta.

Nvidia GH200 NVL32 çok düğümlü platformu, Nvidia’nın NVLink ve NVSwitch ara bağlantıları aracılığıyla 32 Grace Hopper süper çipini birbirine bağlıyor. Platform, Amazon’un ağ sanallaştırması (AWS Nitro System) ve hiper ölçekli kümeleme (Amazon EC2 UltraClusters) aracılığıyla bağlanan Amazon Elastic Compute Cloud (EC2) bulut sunucularında mevcut olacak.

Uygulama oluşturma için daha fazla seçenek sunan yeni temel modelleri

AWS, daha fazla temel model seçeneği sunmak ve uygulama oluşturmayı kolaylaştırmak amacıyla, üretken yapay zeka uygulama oluşturma hizmeti Amazon Bedrock içindeki mevcut temel modellerine yönelik güncellemeleri duyurdu.

Bedrock’a eklenen güncellenmiş modeller arasında Anthropic’in Claude 2.1 ve Meta Llama 2 70B modelleri yer alıyor ve bunların her ikisi de genel kullanıma sunuldu. Amazon ayrıca kendi tescilli Titan Text Lite ve Titan Text Express temel modellerini Bedrock’a ekledi.

Ayrıca bulut hizmetleri sağlayıcısı, AI uygulama geliştirme hizmetine önizleme aşamasında Amazon Titan Image Generator modelini ekledi.

Şu anda Bedrock’ta mevcut olan temel modelleri büyük dil modellerini (LLM’ler) içerir AI21 Labs, Cohere Command, Meta, Anthropic ve Stability AI’nin ahırlarından.

Rakipleri Microsoft, Oracle, Google ve IBM ayrıca tescilli ve açık kaynaklı modeller de dahil olmak üzere çeşitli temel modeller sunmaktadır. Microsoft, OpenAI’nin GPT modelleriyle birlikte Meta’nın Llama 2’sini sunarken Google, PaLM 2, Codey, Imagen ve Chirp gibi tescilli modeller sunmaktadır. Oracle ise Cohere’den modeller sunuyor.

AWS ayrıca Bedrock’ta kuruluşların kendi kullanım durumları ve iş ihtiyaçları için en iyi temel modeli değerlendirmesine, karşılaştırmasına ve seçmesine olanak tanıyan Model Değerlendirme adlı yeni bir özelliği de yayınladı.

Tamamen benzer olmasa da Model Değerlendirme, Google Vertex AI’ninkiyle karşılaştırılabilir. Model BahçeGoogle ve iş ortaklarının temel modellerinin bulunduğu bir depodur. Microsoft Azure’un OpenAI hizmeti de büyük dil modellerini seçme olanağı sunuyor. LLM’ler Azure Marketi’nde de bulunabilir.

Amazon Bedrock ve SageMaker, uygulama geliştirmeyi kolaylaştıracak yeni özelliklere kavuşuyor

Hem Amazon Bedrock hem de SageMaker, yalnızca modellerin eğitilmesine yardımcı olmakla kalmayıp aynı zamanda uygulama geliştirmeyi hızlandırmak amacıyla AWS tarafından güncellendi.

Bu güncellemeler, Retrieval Augmented Generation (RAG), LLM’lere ince ayar yapma yetenekleri ve Titan Text Lite ve Titan Text Express modellerini Bedrock içinden önceden eğitme yeteneği gibi özellikleri içerir. AWS ayrıca LLM’lerin ölçeklendirilmesine ve yapay zeka dağıtımının maliyetinin azaltılmasına yardımcı olan SageMaker HyperPod ve SageMaker Inference’ı da tanıttı.

Google’ın Vertex AI’sı, IBM’in Watsonx.ai’si, Microsoft’un Azure OpenAI’si ve Oracle üretken yapay zeka hizmetinin belirli özellikleri de Amazon Bedrock’a benzer özellikler sağlayarak, özellikle işletmelerin modellere ve RAG yeteneğine ince ayar yapmasına olanak tanıyor.

Ayrıca, Google’ın Üretken Yapay Zeka StüdyosuTemel modellerin ayarlanması, dağıtılması ve izlenmesi için düşük kodlu bir paket olan ve iş analistlerine yönelik bir başka düşük kodlu platform olan ve modellerin oluşturulmasına yardımcı olmak için bu hafta güncellenen AWS’nin SageMaker Canvas ile karşılaştırılabilir.

AWS de dahil olmak üzere bulut hizmeti sağlayıcılarının her biri, kuruluşların veri ve model eğitimiyle ilgili en iyi uygulamalarla uyumlu olmasını sağlamak için Amazon Bedrock için Guardrails gibi yazılım kitaplıklarına ve hizmetlere de sahiptir.

Amazon Q, AWS’nin Microsoft’un GPT odaklı Copilot’una yanıtı

Salı günü Selipsky, bulut devinin re:Invent 2023 konferansının yıldızının prömiyerini yaptı: Şirketin Microsoft’a yanıtı olan Amazon Q GPT– odaklı Copilot üretken yapay zeka asistanı.

Selipsky’nin Q duyurusu, Microsoft CEO’su Satya Nadella’nın Ignite ve Build’deki açılış konuşmasını anımsatıyordu; burada Office 365 ve Dynamics 365 de dahil olmak üzere çok çeşitli özel ürünlerde Copilot’un çeşitli entegrasyonlarını ve çeşitlerini duyurdu.

Amazon Q işletmeler tarafından uygulama geliştirme de dahil olmak üzere çeşitli işlevlerde kullanılabilir, kodu dönüştürmek, iş zekası oluşturmak, iş uygulamaları için üretken bir yapay zeka asistanı olarak hareket etmek ve müşteri hizmetleri temsilcilerine Amazon Bağlantısı teklif.

Rakipler çok geride değil. Ağustos ayında Google da üretken yapay zeka tabanlı asistanı Duet AI’yi veri analitiği, veritabanları, altyapı ve uygulama yönetimi de dahil olmak üzere bulut hizmetlerinin çoğuna ekledi.

Şirket, benzer şekilde, Oracle’ın yönetilen üretken yapay zeka hizmetinin aynı zamanda işletmelerin LLM tabanlı üretken yapay zeka arayüzlerini bir API aracılığıyla uygulamalarına entegre etmelerine olanak tanıdığını belirterek şunları ekledi: kendi üretken yapay zeka asistanını bulut hizmetlerine ve NetSuite’e getirecek.

re:Invent’teki diğer üretken yapay zeka ile ilgili güncellemeler arasında Amazon Bedrock için vektör veritabanlarına yönelik güncellenmiş destek yer alıyor. Bu veritabanları Amazon Aurora ve MongoDB’yi içerir. Desteklenen diğer veritabanları arasında Pinecone, Redis Enterprise Cloud ve Amazon OpenSearch Serverless için Vector Engine yer alır.

Telif Hakkı © 2023 IDG Communications, Inc.



genel-12