Üretken yapay zekanın (genAI) olanaklarının hâlâ büyüsüne kapılan şirket yöneticileri, çoğunlukla BT departmanlarının teknolojinin nasıl çalışacağını bulmasında ısrar ediyor.

Halüsinasyonlar ve ürettiği her bir satırı kontrol etmeyi (ve umulan verimlilik artışlarını ortadan kaldırmayı) zorunlu kılan diğer hatalar gibi genAI ile ilgili olağan endişeleri bir kenara bırakalım. Veya veri sızıntısının kaçınılmaz olduğunu ve çok geç olana kadar tespit edilmesinin neredeyse imkansız olacağını. (OWASP bir araya getirdi genAI’nin en büyük BT tehditlerinin etkileyici listesi ve genel olarak Yüksek Lisanslar.)

Mantık ve sağduyu, bir görevdeyken üst yönetimin her zaman güçlü yönleri olmamıştır. Bu, BT sorusunun nadiren “GenAI yapmalı mıyız?” olacağı anlamına geliyor. Bizim için mantıklı mı?” Şöyle olacaktır: “Bize bunu yapmamız emredildi. Devam etmenin en uygun maliyetli ve güvenli yolu nedir?”

Aklımdaki bu sorularla ilgimi çekti. AWS CEO’su Adam Selipsky ile Associated Press röportajı – özellikle şu yorum: “Kurumsal müşterilerimizin çoğu model oluşturmayacak. Çoğu başkalarının yaptığı modelleri kullanmak istiyor. Tek bir şirketin dünyadaki tüm modelleri tedarik edeceği fikrinin gerçekçi olmadığını düşünüyorum. Müşterilerin deneme yapması gerektiğini keşfettik ve bu hizmeti sağlıyoruz.”

Bu, geçerli bir argüman ve birçok üst düzey yöneticinin düşüncelerinin adil bir özetidir. Ama öyle olmalı mı? Seçim yalnızca satın alma veya inşa etme arasında değildir. İşletme kendi modelini oluşturup yönetmeli mi? Büyük bir oyuncuya mı güveniyorsunuz (özellikle AWS, Microsoft veya Google gibi)? Veya GenAI arenasındaki düzinelerce küçük özel oyuncudan birini mi kullanacaksınız?

Kuruluşa ve işletmenin özel ihtiyaçlarına ve hedeflerine bağlı olarak bu üçünün birleşimi olabilir ve muhtemelen de olmalıdır.

Göz önünde bulundurulması gereken binlerce lojistik ve ayrıntı olmasına rağmen, gen AI geliştirmelerini ve dağıtımlarını içeren temel kurumsal BT sorusu basittir: Güven.

genAI kullanma kararının kurumsal bulut kararıyla pek çok ortak noktası var. Her iki durumda da bir şirket, entelektüel değerlerinin çoğunu (en hassas verileri) üçüncü bir tarafa devretmektedir. Her iki durumda da üçüncü taraf mümkün olduğu kadar az görünürlük ve kontrol sunmaya çalışıyor.

Bulutta, kurumsal kiracılara, verilerini doğrudan etkileyen yapılandırma veya diğer ayar değişikliklerinden nadiren bahsedilir. (Bir bulut satıcısını hayal bile etmeyin sormak bu değişiklikleri yapma izni için kurumsal kiracıya başvurun.)

genAI ile benzerlikler açıktır: Verilerim nasıl korunuyor? GenAI yanıtları nasıl korunuyor? Veri eğitimimiz rakiplerimiz tarafından kullanılacak bir model mi? Bu konuda tam olarak modelin ne olduğunu nasıl bilebilirim? dır-dir ile eğitim mi veriliyor?

Pratik bir mesele olarak, bu durum sözleşmeler yoluyla ele alınacak (ya da kaçınılacak), bu da bizi büyük bir üçüncü tarafla ya da daha küçük, daha az bilinen bir şirketle çalışma seçimine geri getiriyor. Ne kadar küçük olursa, sözleşme koşullarınızı kabul etmeye o kadar açık olurlar.

GenAI stratejinizi belirlerken bu dinamiği unutmayın: Daha büyük balık olduğunuzda elde edilmesi daha kolay olan birçok taviz isteyeceksiniz.

Güvenin gerçekten devreye girdiği bir sözleşme oluştururken budur. Baş danışmanınız, CISO’nuz ve uyum şefiniz için yeterli görünürlük ve kontrolü buna yazmak zor olacaktır. Ancak daha da büyük endişe kaynağı doğrulamadır: Üçüncü taraf bir genAI sağlayıcı, söz verdiklerini yaptıklarından emin olmak için operasyonlarını denetlemenize izin verecek mi?

Daha da korkutucusu, sorduğunuz her şeyi kabul etseler bile, nasıl olabilmek bu öğelerden bazıları doğrulandı mı? Üçüncü taraf, verilerinizin kendi algoritmalarını eğitmek için kullanılmayacağının sözünü verirse, kullanılmayacağından nasıl emin olabilirsiniz?

Bu nedenle işletmelerin, muhtemelen daha küçük bir oyuncu satın alarak, çok sayıda genAI çalışmasını kendileri yapmaktan bu kadar çabuk vazgeçmemeleri gerekir. (Kendi çalışanlarınıza güvenip güvenmediğiniz konusuna girmeyelim. Güveniyormuş gibi davranalım.)

Akamai’deki danışmanlık CISO’su Steve Winterfield, makine öğrenimi de dahil olmak üzere genel yapay zeka ile temelde farklı olan yüksek lisans ve gen yapay zeka arasında önemli bir ayrım yapıyor.

Winterfeld, “Çalışanlarımın (genel) yapay zekayla uğraşmasından hiçbir zaman endişe duymadım, ancak artık halka açık yapay zekadan bahsediyoruz” dedi. “Öğrenim veri tabanının bir kısmını alıp onu başka bir yere dağıtabilir. Olan biteni denetleyebilir miyim? Diyelim ki satış ekibinden bir kişi, yakında duyurulacak yeni bir ürün hakkında bir e-posta yazmak istiyor ve (genAI)’dan yardım istiyor. Risk, henüz duyurmadığımız bir şeyin açığa çıkmasıdır. Google’ın DNA’sı, müşterinin iş modeli olmasıdır. Bilgilerimizin paylaşılmasını nasıl önleyebilirim? Bana göster.”

Winterfeld, daha küçük genAI şirketleriyle pazarlık yapmanın sorun olmadığını ancak bu şirketin iflas etmesi veya bir Akamai rakibi tarafından satın alınması gibi geleceği konusunda endişe duyduğunu söyledi. “İki yıl içinde ortalıkta olacaklar mı?”

Bir diğer önemli endişe ise siber güvenliktir: Üçüncü taraf firma verilerinizi ne kadar iyi koruyacak ve CISO’nuz kendi güvenliğinizi sağlamak için genAI kullanmayı seçerse bu ne kadar iyi çalışacak?

Küresel danışmanlık firması Wipro’nun stratejiden sorumlu genel müdürü Josey George, “Yapay zeka sistemlerine yönelik düşmanca saldırılara ilişkin görünürlük eksikliği nedeniyle SOC’ler tamamen gafil avlanacak” dedi. “Günümüzde SOC’ler, olay/günlük kaynağı olarak görev yapan birden fazla BT altyapısı türünden veri topluyor [such as] güvenlik duvarları, sunucular, yönlendiriciler, uç noktalar, ağ geçitleri ve bu verileri güvenlik analitiği platformlarına aktarın. Classic ve genAI’yi içlerine yerleştirecek daha yeni uygulamalar, AI sistemlerine yönelik gelişmiş düşmanca saldırıları normal girdilerden ayırt edemeyecek ve dolayısıyla her zamanki gibi iş olay günlükleri oluşturacaktır.

George, “Bu, bu sistemlerden olay kayıtları olarak toplananların, yakın veya devam eden bir saldırıyı işaret edecek hiçbir değeri olmayacağı anlamına gelebilir” dedi.

Yapay zeka tedarikçisi Ensense’nin kurucu ortağı ve CTO’su ve uzun süredir yapay zeka sektöründe deneyimli olan Michael Krause, “Şu anda yapay zeka şirketleriyle ortaklık kurmak için tehlikeli bir zaman” dedi. “Bu dalgayı sürdürürken birçok yapay zeka şirketi kuruldu ve Gerçeği kurgudan ayırmak zor.

Krause, “Sektör olgunlaştıkça ve duman ve aynalı şirketler azaldıkça bu durum değişecek” dedi. “Birçok şirket ve ürün, uyumluluğu kanıtlamayı neredeyse imkansız hale getiriyor.”

Krause, genAI projeleri için ortaklık kurmaya çalışan kurumsal CISO’lara birkaç öneride bulundu.

“Paylaşılan modelleri eğitmek veya ince ayar yapmak için hiçbir dahili verinin kullanılmamasını ve hiçbir verinin kullanılmamasını zorunlu kılın [should] kaydedilebilir veya saklanabilir. Özel kullanımınız için ayrı bir ortamın dağıtılmasını, her türlü veri paylaşımının yasaklanmasını ve erişimin sizin tarafınızdan kontrol edilmesini zorunlu kılın. Talep üzerine veya sonuçlandığında tüm veri ve ortamların kapatılmasını ve silinmesini zorunlu kılın. Görev sonucundan önce ve sonra bir veri güvenliği denetimi yapılması konusunda anlaşın.”

Dikkat edilmesi gereken şeylerden bahsetmişken, CEO’nun yönetim kurulunu kovabileceği tek şirket olan OpenAI, Microsoft’tan ve özellikle Microsoft’un parasından biraz yardım alarak da olsa, 13 Aralık’ta hüküm ve koşullarını güncellediğinde pek çok kişinin tepkisini çekti. yeni haliyle kullanım ŞartlarıOpenAI, birisinin bir şirket e-posta adresi kullanması durumunda bu hesabın otomatik olarak “kuruluşun bizimle olan ticari hesabına eklenebileceğini” söyledi. Böyle bir durumda “kuruluşun yöneticisi, içeriğe erişim de dahil olmak üzere hesabınızı kontrol edebilecektir.”

Kullanmak için ya ücretsiz bir kişisel hesap bulmanız ya da ChatGPT’ye “Benim için bir özgeçmiş yazabilir misiniz?” sorusunu sormaktan kaçınmanız gerekecek. veya “Patronumun e-posta hesabına nasıl girebilirim?”

Yeni sürüm, insanların OpenAI’nin algoritmalarını kendi verileri üzerinde eğitme seçeneğini devre dışı bırakmasına olanak tanıyor. Ancak OpenAI bunu kolaylaştırmıyor ve kullanıcıları bunu yapmak için pek çok engelin üzerinden atlamaya zorluyor. Kullanıcılara gitmelerini söyleyerek başlar bu sayfaya. Ancak bu sayfa, vazgeçmeye izin vermiyor. Bunun yerine, bu sayfa kullanıcıların gitmesini öneriyor başka bir sayfaya. Bu sayfa da çalışmıyor ancak başka bir URL’ye işaret ediyor ve sağ köşede uygulanabilecek bir düğme var. Daha sonra, bir e-posta adresini doğrulaması gerekir ve Daha sonra Talebi dikkate alacağını söyledi.

Neredeyse vazgeçmeyi caydırmak istediklerini düşünebilirsiniz. (Güncelleme: Güncellemenin yayınlanmasından kısa bir süre sonra OpenAI, hatalı bağlantılardan birini kaldırdı.)

Telif Hakkı © 2023 IDG Communications, Inc.



genel-13