“Herkesin yapay zeka hakkında konuşmayı bırakıp onunla bir şeyler yapmaya başlamasının zamanı geldi.” Appian’ın kurucusu ve CEO’su Matt Calkins, Appian Europe 2023 etkinliğindeki sunumunu bu kısa formülle tamamladı.
Appian’ın patronu, 2024’ün üretken yapay zekanın şirketlere gireceği yıl olması gerekiyorsa, bunu aceleye getirmenin hiçbir sorun olmayacağını garanti ediyor. “Bu dönüşümün kazananı büyük teknoloji değil, kurumsal müşteriler ve işletmeler olmalıdır.”
Üretken yapay zeka etrafındaki çılgınlığı yakalayan teknoloji devlerine eşekten bir tekme. Microsoft, bulut altyapısı aracılığıyla OpenAI’ye sıkı sıkıya tutunuyor; Google, ücretsiz Google Workspace ofis paketine ve Gmail’e yapay zeka enjekte ediyor.
Yapay zeka performansı ve güvenliği nasıl sağlanır?
Onları yapay zekanın şampiyonu yapmaya yetecek mi?
UiPath, Automation Anywhere, Pegasystems ve SAP ile Appian da dahil olmak üzere BPM (İş Süreci Yönetimi) ve RPA (Robotik Süreç Otomasyonu) oyuncuları için yutulması zor bir hap.
Matt Calkins sahnede “10 yılı aşkın süredir yapay zeka yapıyoruz” diyor. Bu nedenle, performansın yanı sıra ve her şeyden önce güvenlik arayan B2B müşterileri için API’lerin, RPA’nın ve yapay zekanın yönetiminde bu oyuncuları bu aşırı uzmanlaşmış ekosistemden “büyük teknolojinin” çıkarması söz konusu değildir.
Özel yapay zekaya doğru
Bu nedenle Appian, güvenlik ve uyumluluğun hassas akorunu kullanıyor. Şirketin DNA’sının savunma ve finansal hizmetler sektörlerindeki müşterilere dayandığını söylemek gerekir.
Mat Calkins, “Yapay zekamızla kritik süreçleri halledeceğimize ve özel yapay zeka sunacağımıza söz veriyoruz” diyor. Özel yapay zeka mı? Verilerin nerede barındırıldığını bilmediğimiz genel bulutun aksine, “özel bulut”tan ödünç alınmış gibi görünen bir kavram.
“Şimdiye kadar, iş dünyasında yapay zeka kullanmak istiyorsanız ya güvenlik duvarınızın arkasına açık kaynaklı bir yapay zeka kurmanız gerekiyordu ki bu da yüksek düzeyde uzmanlık gerektiriyor ya da bir tedarikçinin sitesinde bağlamla ilgili gerçek sorunlarla birlikte genel bir yapay zeka kullanmanız gerekiyor. Yanıtların ve bilgilerin kalitesinin önemi” diye belirtiyor Appian’ın CEO’su. “Bizim fikrimiz, isteği verilerle aynı anda bir platforma göndermek. Bu şekilde iyi sonuçlar elde edeceksiniz.”
“Veriler hiçbir zaman modeli eğitmek için kullanılmaz”
Ve bu birkaç aşamadan geçer. Appian’ın baş strateji sorumlusu Malcolm Ross, “OpenAI’yi ilk olarak platformumuzda sunduk” dedi ve şöyle devam etti: “Ancak bu zorluklar yaratıyor çünkü OpenAI’nin veri güvenliği uyumluluğu çok düşük.”
“Dolayısıyla OpenAI’den 28 Eylül’de yayınlanan bir AWS LLM olan Bedrock’a geçiş sürecindeyiz. Bedrock’u Appian güvenlik duvarının arkasında uygulamaya ve mimariye entegre edeceğiz. Böylece verilerin çevremizi asla terk etmez. Appian bu noktada hâlâ prototip aşamasındadır.
Ancak her şeyden önce, hizmet sağlayıcının kalitesinin ötesinde, özel yapay zekanın geliştirilmesi de bir mimari meselesidir.
Malcolm Ross, özel yapay zeka ile “veriler hiçbir zaman modeli eğitmek için kullanılmaz” diyor. Doğal dilin anlamsal olarak anlaşılması için Yüksek Lisans kullanıyoruz. Ardından, üzerinde istediğimiz bağlamı vermek için çok sayıda hızlı mühendislik yapıyoruz. bir diyalog”.
Talepleri karşılayan yanıtlar almamızı sağlayan, istemin kalitesidir.
Bu teknik tercihin bir sonucu olarak veriler hiçbir zaman yapay zeka motoru tarafından saklanmaz. Çoğu düzenlemeye tabi sektörlerde çalışan Appian müşterilerinin güvenliğini garanti etmek için yeterlidir.
Appian strateji yöneticisi şunları ekliyor: “Veri filtreleme söz konusu olduğunda, tasarımcılar veriler üzerinde tam kontrole sahip; bu da PII’nin (tanımlanabilir özel bilgiler) veya tanımlanabilir genel bilgilerin verilerden tamamen gizlenmesini mümkün kılıyor.” diye ekliyor. .
“Yani bir Alman müşteri hakkında konuşmak istesem ve bir süre sonra o müşteri GDPR kapsamında unutulma hakkını iddia etse bile, bu konuşma yapay zeka modelinde korunmadı.
Bu nedenle, yapay zeka motoru etkileşimlerle geliştirilmediğinden, kullanıcı isteklerini karşılayan yanıtların alınmasını mümkün kılan, istemin kalitesidir. Malcolm Ross, “LLM’nin anlaşılmasını geliştiren şey hızlı mühendisliktir” diyor.
“Şimdilik perde arkasında hızlı mühendislik yapılıyor”
“Hızlı mühendislik şimdilik perde arkasında gerçekleşiyor, kullanıcı bunu görmüyor. Gelecek yıl, yapay zekanın dikkatini belirli bir alana odaklamak için istemler oluşturmalarına olanak tanıyacak özelliklere bakıyoruz “.
Ancak bu yüksek derecede hassasiyet gerektirir. Çünkü yapay zekanın bir işlev adı veya sözdizimsel temsili halüsinasyona uğratmaması gerekir. “Dolayısıyla bu yapay zekayı, sonuçları döndürürken yapay zekayı gerçek zamanlı olarak doğrulayan hem kuralcı hem de tahmine dayalı kendi özel mantığımızla birleştiriyoruz. Bir halüsinasyon tespit edersek, sonucu kullanıcıya göstermeden önce perde arkasında düzeltmeler yapıyoruz. “diyor Malcolm Ross.
Üretken yapay zekanın bu şekilde yapılması, veri güvenliği sorununun ötesinde maliyetlerin sınırlandırılmasını da mümkün kılıyor. Her veri yeniden eğitimi, bulut mimarilerinde GPU hesaplama süresi gerektirir.
“Ertesi gün akşamdan kalmalıkla uyanıyoruz, faturayı alıyoruz”
Malcolm Ross, “Ekonomik yönün önem kazanmaya başladığını belirtiyor. 2023’te büyük bir yapay zeka partisi verdik. Sonra ertesi gün akşamdan kalma bir halde uyanıyoruz, faturayı alıyoruz. Ve böylece herkes bir araya geliyor. Nasıl yaratılacağını soruyor.” Müşterilerimiz için kabul edilebilir fiyatlandırma modelleri.
Bu gelişmeleri beklerken şirketin yine de OpenAI trendine boyun eğmesi gerekiyor. Çeşitli kaynaklardan (CRM, veritabanları vb.) gelen verileri, verileri taşımadan bir veri modelinde birleştiren platformunun en son sürümünde AI Copilot modülü bulunuyor.
Malcolm Ross, “AI Copilot metinleri özetleyebilir, kağıt formların analizine dayalı formları doldurabilir, platform verilerine dayalı olarak e-postaları otomatik olarak yazabilir” diye açıklıyor.