Geliştiricilere, veri bilimcilere ve iş liderlerine yardımcı olmak için her gün yeni yapay zeka (AI) platformları ve araçları ortaya çıkıyor. Bununla birlikte, bu hızlı büyüme, en azından AI sistemlerinin sorumluluk ve hesap verebilirlik kapasitesinin çok ötesinde, AI’nın karmaşıklığını da artırıyor.

Bu, yakın tarihli bir sonucun soruşturma 1.240 profesyonelle yürütülen ve sorumlu yapay zeka girişimlerinin ilerleyişini ve iş dünyasında yapay zeka araçlarının benimsenmesini inceleyen MIT Sloan Management Review ve Boston Consulting Group tarafından yayınlandı.

Çalışma yazarlarına göre yapay zekanın vaatlerinin sonuçları var: “Örneğin, üretken yapay zekanın hantal olduğu kanıtlandı ve çok çeşitli kullanım durumlarına hazırlıksız olan kuruluşlar için öngörülemeyen riskler ortaya koydu.” Burada, üretici yapay zekanın resmi projeler bağlamında kullanımına değil, profesyonellerin kendi inisiyatifleriyle kullanımına atıfta bulunuyorlar. Gölge BT gibi, bu uygulamaya gölge yapay zeka diyorlar.

Şirketler ‘AI kullanımının yaygınlaşmasıyla hazırlıksız yakalandı’

Ortak yazarlar, birçok şirketin “kurum içinde yapay zeka kullanımının yaygınlaşmasıyla hazırlıksız yakalandığını” gözlemliyor. Ek olarak, yapay zeka gelişiminin hızlı ilerlemesi “yapay zekayı sorumlu bir şekilde kullanmayı zorlaştırıyor ve sorumlu yapay zeka programlarına ayak uydurması için baskı yapıyor.”

AI gölgelerindeki sürekli artıştan kaynaklanan riskler konusunda uyarıda bulunuyorlar. Örneğin, kuruluşların ChatGPT, Dall-E 2 ve Midjourney gibi artan sayıda üçüncü taraf yapay zeka araçlarına bel bağlaması. Bu araçlar, gerçekçi metinler, resimler veya sesler oluşturmak için eğitim verilerini kullanır. Ancak bu uygulamalar, şirketleri tespit edilmesi zor olan yeni iş, yasal ve itibar risklerine maruz bırakır.

Araştırmacılar, “yapay zeka sistemlerinin insanların, bireylerin ve toplumun iyiliğine hizmet etmek için geliştirilmesini ve işletilmesini sağlamayı amaçlayan ilkeleri, politikaları, araçları ve süreçleri içeren bir çerçeve” olarak tanımladıkları sorumlu yapay zekanın önemini vurguluyor. darbe”.

Kuruluşların %78’i üçüncü taraf yapay zeka araçlarına erişimleri olduğunu söylüyor

Araştırmacılar, başka bir zorluğun, bazı şirketlerin “daha geniş bir endüstri işten çıkarma eğiliminin bir parçası olarak sorumlu yapay zekaya ayrılmış iç kaynakları kesmesi” gerçeğinden kaynaklandığı konusunda uyarıyor. “Sorumlu yapay zekaya yapılan yatırımlardaki bu azalmalar, muhtemelen en çok ihtiyaç duyulduğu zamanlarda oluyor.”

Örneğin, çalışanların ChatGPT sohbet robotunun yaygın kullanımı birçok kuruluşu şaşırttı ve güvenlikle ilgili etkileri olabilir.

Araştırma, kuruluşların %78’inin üçüncü taraf yapay zeka araçlarına eriştiğini bildirdiğini gösteriyor. Ve yarısından fazlası (%53) yalnızca üçüncü taraf yapay zeka araçlarına güveniyor ve şirket içinde tasarlanmış veya geliştirilmiş yapay zeka teknolojileri yok.

Kanun koyucu sizin yerinize yapmadan önce kendinizi koruyun

Ortak yazarlar, sorumlu yapay zeka programlarının “hem şirket içi tasarlanmış hem de üçüncü taraf yapay zeka araçlarını kapsaması gerektiği” konusunda ısrar ediyor. “Yapay zeka sisteminin nereden çıktığına bakılmaksızın aynı etik ilkeler geçerli olmalıdır. Sonuçta, bir şeyler ters giderse, etkilenen kişi için aracın şirket içinde mi yoksa satın alınmış mı olduğunun pek bir önemi olmayacaktır.”

Ortak yazarlar, üçüncü taraf AI riskini veya bu konudaki başka herhangi bir AI riskini azaltacak sihirli bir değnek olmadığını vurguluyor, ancak günümüzün geniş ölçüde açık ortamında sorumlu AI sağlamak için çok katmanlı bir yaklaşımı savunuyorlar.

Bu yaklaşımlar aşağıdakileri içerebilir:

  • Bir Tedarikçinin Sorumlu Yapay Zeka Uygulamalarını Değerlendirme
  • sorumlu yapay zeka ilkelerine bağlı kalmayı gerektiren sözleşmeye dayalı bir formülasyon
  • Tedarikçi ön sertifikasyonu ve denetimleri (varsa)
  • Ürün düzeyinde dahili incelemeler (üçüncü taraf bir araç bir ürün veya hizmete entegre edildiğinde)
  • İlgili düzenleyici gerekliliklere veya endüstri standartlarına uygunluk
  • Etik yapay zeka geliştirme yönergeleri, risk değerlendirme çerçeveleri ve izleme ve denetleme protokolleri gibi kapsamlı bir dizi politika ve prosedürün dahil edilmesi.

Son olarak, ortak yazarlar, AI sistemleri tanıtıldıkça hükümet mevzuatının bu eylemleri bir zorunluluk haline getirebileceği konusunda uyarıyorlar.


Kaynak : “ZDNet.com”



genel-15