Rubrik’in bu haftaki halka arz başvurusunda – çalışan sayısı ve maliyet beyanlarıyla ilgili bölümler arasında – veri yönetimi şirketinin üretken yapay zeka ve yeni teknolojiye eşlik eden riskler hakkında nasıl düşündüğünü ortaya koyan bir parça vardı: Rubrik sessizce bir yönetim komitesi kurdu Yapay zekanın işinde nasıl uygulandığını denetlemek.

Form S-1’e göre yeni AI yönetişim komitesi, Rubrik’in mühendislik, ürün, hukuk ve bilgi güvenliği ekiplerinden yöneticileri içeriyor. Dosyada, ekiplerin birlikte üretken yapay zeka araçlarını kullanmanın potansiyel yasal, güvenlik ve iş risklerini değerlendireceği ve “bu tür riskleri azaltmak için atılabilecek adımlar” üzerinde düşüneceği belirtiliyor.

Açık olmak gerekirse, Rubrik özünde bir yapay zeka işi değil; tek yapay zeka ürünü olan bir sohbet robotu. Yakut Kasım 2023’te piyasaya sürülen Microsoft ve OpenAI API’leri üzerine kuruludur. Ancak diğerleri gibi Rubrik (ve mevcut ve gelecekteki yatırımcıları) yapay zekanın işinde giderek artan bir rol oynayacağı bir gelecek düşünüyor. İşte bu nedenle yapay zeka yönetimine sahip olmak yeni normal haline gelebilir.

Düzenleyici incelemeler artıyor

Bazı şirketler inisiyatif almak için yapay zekanın en iyi uygulamalarını benimsiyor, ancak diğerleri AB Yapay Zeka Yasası gibi düzenlemeler tarafından bunu yapmaya zorlanacak.

“Dünyanın ilk kapsamlı yapay zeka yasası” olarak adlandırılan ve bu yılın sonlarında blok genelinde yasalaşması beklenen dönüm noktası niteliğindeki mevzuat, “kabul edilemez risk” getirdiği düşünülen bazı yapay zeka kullanım örneklerini yasaklıyor ve diğer “yüksek riskli” uygulamaları tanımlıyor. Tasarı aynı zamanda önyargı ve ayrımcılık gibi zararları artırabilecek riskleri azaltmayı amaçlayan yönetişim kurallarını da ortaya koyuyor. Bu risk derecelendirme yaklaşımının, yapay zekayı benimsemek için ileriye dönük mantıklı bir yol arayan şirketler tarafından geniş çapta benimsenmesi muhtemeldir.

Hogan Lovells International LLP’nin ortağı olan gizlilik ve veri koruma avukatı Eduardo Ustaran, AB Yapay Zeka Yasasının ve onun sayısız yükümlülüklerinin yapay zeka yönetişimine olan ihtiyacı artırmasını ve bunun da komiteler gerektirmesini bekliyor. “Yapay zeka yönetişim programını tasarlama ve denetleme konusundaki stratejik rolünün yanı sıra, operasyonel açıdan bakıldığında yapay zeka yönetişim komiteleri, riskleri ele alma ve en aza indirme konusunda önemli bir araçtır” dedi. “Bunun nedeni, kolektif olarak, uygun şekilde kurulmuş ve kaynaklara sahip bir komitenin, tüm risk alanlarını önceden tahmin edebilmesi ve bunlar gerçekleşmeden önce bunlarla başa çıkmak için işletmeyle birlikte çalışabilmesidir. Bir anlamda yapay zeka yönetişim komitesi, diğer tüm yönetişim çabalarına temel oluşturacak ve uyumluluk boşluklarını önlemek için çok ihtiyaç duyulan güvenceyi sağlayacak.”

yakın zamanda Politika belgesi AB Yapay Zeka Yasasının kurumsal yönetim üzerindeki etkileri konusunda ESG ve uyumluluk danışmanı Katharina Miller da aynı görüşte olup şirketlerin bir uyumluluk önlemi olarak Yapay Zeka yönetişim komiteleri kurmalarını tavsiye etti.

Yasal inceleme

Uyumluluk yalnızca düzenleyicileri memnun etmek anlamına gelmez. İngiliz-Amerikan hukuk firması Norton Rose Fulbright, AB Yapay Zeka Yasasının dişlerine sahip ve “Yapay Zeka Yasasına uymamanın cezaları ciddi” kayıt edilmiş.

Kapsamı Avrupa’nın ötesine de uzanıyor. Hukuk firması, “AB bölgesi dışında faaliyet gösteren şirketler, AB kullanıcılarını veya verilerini içeren yapay zeka ile ilgili faaliyetler yürütmeleri halinde Yapay Zeka Yasası hükümlerine tabi olabilir” diye uyardı. GDPR’ye benzer bir şeyse, mevzuatın özellikle yapay zeka konusunda artan AB-ABD işbirliğinin ortasında uluslararası bir etkisi olacaktır.

Yapay zeka araçları, bir şirketin başını yapay zeka mevzuatının ötesinde belaya sokabilir. Rubrik, muhtemelen halka arzından dolayı TechCrunch ile yorumlarını paylaşmayı reddetti sessiz dönemancak şirketin dosyasında yapay zeka yönetişim komitesinin çok çeşitli riskleri değerlendirdiği belirtiliyor.

Seçim kriterleri ve analiz, üretken yapay zeka araçlarının kullanımının gizli bilgiler, kişisel veriler ve gizlilik, müşteri verileri ve sözleşme yükümlülükleri, açık kaynak yazılım, telif hakkı ve diğer fikri mülkiyet hakları, şeffaflık, çıktı doğruluğu ve güvenilirliği ile ilgili sorunları nasıl ortaya çıkarabileceğinin değerlendirilmesini içerir. ve güvenlik.

Rubrik’in yasal dayanakları kapsama arzusunun çeşitli başka nedenlerden kaynaklanabileceğini unutmayın. Örneğin, sorunları sorumlu bir şekilde öngördüğünü göstermek için de orada olabilir; Rubrik daha önce yalnızca veri sızıntısı ve hack ile değil, aynı zamanda fikri mülkiyet davaları.

Bir optik meselesi

Şirketlerin yapay zekaya yalnızca risk önleme perspektifinden bakmayacaklarını söylemeye gerek yok. Onların ve müşterilerinin kaçırmak istemeyeceği fırsatlar olacak. “Halüsinasyon” (yani bilgiyi uydurma eğilimi) gibi bariz kusurlara rağmen üretken yapay zeka araçlarının uygulanmasının bir nedeni de budur.

Bu, şirketlerin kurması gereken iyi bir denge olacak. Bir yandan, yapay zeka kullanımıyla övünmek, söz konusu kullanım ne kadar gerçek olursa olsun veya kârlılık açısından ne gibi bir fark yaratırsa yaratsın, değerlemelerini artırabilir. Öte yandan potansiyel riskler konusunda da kafalarını rahat tutmaları gerekecek.

Gizlilik ve güvenlik yazılımı sağlayıcısı OneTrust’un gizlilik danışmanı Adomas Siudika, “Yapay zekanın geleceğinin büyük ölçüde halkın yapay zeka sistemlerine ve bunları kullanan şirketlere güvenip güvenmeyeceğine bağlı olduğu, yapay zeka evriminin bu kilit noktasındayız” dedi. yazdı konuyla ilgili bir blog yazısında.

Yapay zeka yönetişim komitelerinin kurulması muhtemelen güven cephesinde yardımcı olmanın en az bir yolu olacaktır.



genel-24