Sorumlu ve etik yapay zeka, özellikle AI, karar verme ve otomasyonun her yönüne sızarken, zamanımızın sıcak konusu haline geldi. Bir IBM anketine göreBugün şirketlerin %35’i işlerinde yapay zeka kullandıklarını söylüyor ve %42’si bu olasılığı araştırıyor.

Aynı IBM anketi, güvenin son derece önemli olduğunu buldu – beş katılımcıdan dördü, AI’nın bir karara nasıl ulaştığını açıklayabilmenin işleri için önemli olduğunu söylüyor.

Bununla birlikte, AI hala koddur – yani bir dizi 1’ler ve 0’lar.Empati iletmez ve çoğu zaman yapar. bağlam soyutlaması.

Önyargılı ve zararlı sonuçlar verme potansiyeline sahiptir. Yapay zeka, basit sohbet robotlarından veya kestirimci bakımdan, yürütme veya tıbbi karar desteğine kadar komuta zincirinde yukarıya doğru ilerlerken, işleri nasıl dengeleyeceğinizi bilmeniz gerekir.

Başka bir deyişle, AI geliştiricileri, uygulayıcıları, kullanıcıları ve destekçileri, akıl yürütmelerini açıklayabilmeli, kararların nasıl alındığını açıklayabilmeli ve buna göre sürekli olarak yeni senaryolara uyum sağlayabilmelidir.

“Sorumlu” bir yapay zekanın zorluğu

Ancak sorumlu yapay zekanın uygulanması kolay değildir. Özellikle gelişiminden sorumlu ekipler için baskı ile eş anlamlıdır. Melissa Heikkilä’nın belirttiği gibi MIT Teknoloji İncelemesiSorumlu AI ekiplerinde tükenmişlik daha yaygın hale geliyor“. En büyük organizasyonların sahip olduğu “Hayatlarımızın, toplumlarımızın ve siyasi sistemlerin bu sistemlerin nasıl tasarlandığından, geliştirildiğinden ve konuşlandırıldığından nasıl etkilendiğini değerlendiren ekiplere yatırım yapıyoruz.“Küçük ve orta ölçekli işletmeler ve yeni başlayanlar için bu, bu sorumlulukların geliştiricilere, mühendislere ve veri bilimcilerine düştüğü anlamına geliyor.

Sonuç – en büyük şirketlerde bile – şudur “sorumlu yapay zeka üzerinde çalışan ekipler genellikle kendi başlarına“, Heikkilä’yı gözlemler. “Bu iş, içerik denetimi kadar psikolojik olarak yorucu olabilir. Sonuç olarak, bu ekiplerin üyeleri kendilerini değersiz hissedebilirler, bu da zihinsel sağlıklarını etkileyebilir ve tükenmişliğe yol açabilir.

Son yıllarda yapay zekanın benimsenme hızı, baskıyı yoğun seviyelere yükseltti. AI, laboratuvardan üretim hatlarına taşındı “son yıllarda beklenenden daha hızlıSorumlu yapay zekanın savunucusu haline gelen Bay Thurai, diyor. Sorumlu yapay zekanın yönetimitarafsızlık ve inançları arasında bir ayrım yapmaya çalışırken inançlarına, görüşlerine, görüşlerine ve kültürlerine aykırı içerik, karar ve verileri ılımlı hale getirmeye zorlanırlarsa özellikle yorucu olabilir. AI 7/24 çalıştığından ve AI tarafından verilen kararlar bazen yaşamı değiştiren olaylar olduğundan, döngüdeki insanların bu hıza ayak uydurması beklenir, bu da tükenmişliğe, yargılara ve hataya açık kararlara yol açabilir.

Kanun sürüklüyor

Kanunlar ve yönetim”AI kadar hızlı ilerlemedi“, o ekler. “Pek çok şirketin etik yapay zeka ve yapay zeka yönetişimi için uygun prosedürlere ve yönergelere sahip olmaması gerçeğiyle birleştiğinde bu, süreci daha da karmaşık hale getiriyor.

Buna ekle mahkemeler ve hukuk sistemleri tarafından potansiyel zorluklarağır cezalar uygulamaya başlayan ve şirketleri kararlarını yeniden gözden geçirmeye zorlayan“ve bir iklim elde edersiniz”AI sistemlerinde kuralları uygulamaya çalışan çalışanlar için özellikle streslidir.

Yönetim desteği de eksiktir, bu da stresi artırır. A 1000 yönetici araştırması MIT Sloan Management Review tarafından yayınlanan ve Boston Consulting Group bunu doğrulamaktadır. Ancak, çalışma gösteriyor ki çoğu yönetici aynı fikirde olsa da “sorumlu yapay zeka, güvenlik, önyargı, adalet ve gizlilik konuları dahil olmak üzere teknolojiyle ilgili riskleri azaltmanın anahtarıdır“- bunun bir öncelik olarak kabul edilmediğinin farkındalar”.

Riskler nasıl azaltılır

Öyleyse, savunucular, geliştiriciler ve AI analistleri potansiyel tükenmişlik sorunlarını nasıl ele alıyor? Yapay zeka kaynaklı stres ve tükenmişliği hafifletmenin bazı yolları şunlardır:

  • İş liderlerini sonuçlar hakkında bilgilendirin. Filtrelenmemiş yapay zeka kararları ve sonuçları yasal işlem riskini taşır. “Liderler, etik ve sorumlu yapay zeka harcamalarının maliyetini, tek başına bir harcama olarak değil, şirketlerinin hesap verebilirliğini geliştirmenin bir yolu olarak düşünmelidir.“, diyor Thurai.”Artık daha az para harcamak kârlarını iyileştirebilirken, tek bir olumsuz mahkeme kararı, bu yatırımlardan elde edilecek tasarrufları gölgede bırakabilir.
  • Uygun kaynakları edinin. AI sınavlarının neden olduğu stres, şirket tarafından sağlanan desteği yeniden düşünmeyi gerektiren yeni bir olgudur. “Teknoloji şirketlerindeki birçok zihinsel sağlık kaynağı zaman yönetimi ve iş-yaşam dengesine odaklanır, ancak duygusal ve psikolojik olarak zorlayıcı konularda çalışan insanlar için daha fazla desteğe ihtiyaç vardır.“, yazıyor Heikkila.
  • Sorumlu yapay zekanın bir öncelik olduğundan emin olmak için işletmeyle yakın işbirliği içinde çalışın. “Tüm AI sorumlu olmalıdırThurai, AI’nın en önemli stratejik önceliği olan şirketlerin yalnızca %19’unun sorumlu AI programları üzerinde çalıştığını tespit eden MIT-BCG çalışmasına (yukarıda bahsedilen) atıfta bulunuyor.Bu sayı %100’e yakın olmalıdır.Yöneticiler ve çalışanlar, etik, ahlak ve adaleti içeren bütünsel karar verme sürecine katılmaya teşvik edilmelidir.
  • Önceden yardım isteyin.Etik AI kararları vermek için AI mühendislerinden ziyade uzmanlardan yardım isteyin“, diyor Bay Thurai.
  • İnsanları döngüde tutun. AI karar sürecine her zaman yedekleme stratejilerini dahil edin. Esnek olun ve sistemleri yeniden tasarlamaya açık olun. SAS, Accenture Applied Intelligence, Intel ve Forbes tarafından yürütülen bir anket dört kişiden birinin itiraf ettiğini ortaya koyuyor Şüpheli veya tatmin edici olmayan sonuçlar nedeniyle AI tabanlı bir sistemi yeniden tasarlamak, yeniden tasarlamak veya devre dışı bırakmak zorunda kalmak.
  • Mümkün olduğunca otomatikleştirin : “AI hiper ölçekli işlemedir“, diyor Bay Thurai.”Veri kalitesinin manuel olarak doğrulanması ve sonuçların doğrulanması işlemi çalışmıyor. İşletmelerin, süreci otomatikleştirmek için yapay zeka veya diğer büyük ölçekli çözümleri uygulaması gerekir.
  • Önyargıyı verilerden uzak tutun. AI modellerini eğitmek için kullanılan veriler, veri seti sınırlamaları nedeniyle örtük önyargılar içerebilir. Yapay zeka sistemlerine giren verilerin iyi kontrol edilmesi gerekiyor.
  • Algoritmaları üretime geçirmeden önce doğrulayın. AI algoritmalarına giren veriler günden güne değişebiliyor ve bu algoritmaların sürekli test edilmesi gerekiyor.

Bu iki kutuplu ve taraflı dünyada, yapay zeka tarafından verilen etik kararları yanlış olarak etiketlemek kolaydır.“, diyor Thurai.”Şirketler hem yapay zeka kararlarının şeffaflığına hem de uygulanan etik ve yönetişime çok dikkat etmelidir. Yukarıdan aşağıya parçalanabilir AI ve şeffaflık iki önemli unsurdur. Süreçleri değerlendirmek ve düzeltmek için bunları düzenli denetimlerle birleştirin

Kaynak : ZDNet.com



genel-15