Buna göre bir KPMG araştırması Geçen ay yayınlanan bir araştırmaya göre dört kişiden üçü, güvence mekanizmaları mevcut olduğunda yapay zeka sistemlerine güvenmeye daha istekli.

Ve yanıt verenlerin yalnızca beşte ikisi mevcut düzenlemelerin ve korumaların yapay zekanın benimsenmesini kolaylaştırdığına inandığı için bu hala yapılması gereken bir iş. Aynı çalışmaya göre halkın yapay zeka düzenlemesinden duyduğu memnuniyetsizliği yansıtan bir oran.

Bu bağlamda katılımcıların yüzde 71’i yapay zekanın düzenlenmesini bekliyor ve yüzde 61’i yapay zeka sistemlerinden şüphelendiğini söylüyor. Bu “sigorta” ilkelerinin ne olduğu görülecektir.

“Öncelikle makinelerin hata yaptığını kabul etmeliyiz”

Araştırmaya katılanlar için bunlar, doğruluk ve güvenilirliğin izlenmesine yönelik sistemler, ‘Yapay Zeka ve davranış kuralları’ etiğinin bağımsız denetimleri gibi “etik ve sorumlu kullanımı sağlamayı amaçlayan mekanizmalardır”. Endişe duyulan alanlardan biri de yapay zeka sistemlerinin önyargısı, yani bir tür taraflılık sorunudur.

“Öncelikle makinelerin hata yaptığını kabul etmeliyiz” diye açıklıyor Ivana Bartoletti Women Leanding in AI Network’ün kurucusu ve Wipro’nun çalışanı. Az önce birlikte yazdı Avrupa Konseyi için “Yapay zeka sistemlerinin etkisi, cinsiyet eşitliği de dahil olmak üzere eşitliği teşvik etme potansiyelleri ve ayrımcılık yasağı konularında oluşturabilecekleri riskler üzerine çalışma” başlıklı bir rapor.

Önyargılar yapay zeka sistemlerine birçok şekilde sızabilir. Örneğin, eğitim için kullanılan ve toplumdaki önyargıları yansıtabilecek veriler aracılığıyla. Yapay zeka, insan toplumunun çeşitli yönlerine nüfuz etmeye devam ettikçe, önyargılı kararlardan kaynaklanan zarar ve hata riski de önemli ölçüde artıyor.

“Yapay zeka önyargısı yalnızca ayrımcılık sorunlarıyla değil aynı zamanda performansla da bağlantılıdır”

“Şirketler bunun farkında olmalıdır, çünkü yapay zeka önyargısı yalnızca ayrımcılık sorunlarıyla değil, aynı zamanda performans sorunlarıyla da bağlantılıdır. Örneğin önyargılı bir yapay zeka, kötü finansal kararlar vermenize neden olacaktır.” Bu noktada düşünmeye yiyecek sağlıyor. “Bu makinelere, tasarımları gereği güvenmemek aslında iyi bir yaklaşım olacaktır” diyor.

Daha sonra bu önyargıları düzeltmek için yapay zeka sistemlerinin geliştirme sürecini ve işlevlerini anlamak önemlidir. Lama NachmanIntel Laboratuvarları Akıllı Sistemler Araştırma Laboratuvarı direktörü, yapay zeka eğitim ve öğrenim sürecine çok çeşitli uzmanlardan gelen geri bildirimleri dahil etmenin önemli olduğunu açıklıyor.

“Yapay zeka sisteminin yapay zeka geliştiricisinden değil, alan uzmanından öğrendiğini varsayıyoruz. Ayrıca yapay zeka sistemini öğreten kişi de bir yapay zeka sisteminin nasıl programlanacağını bilmiyor. Ancak sistem otomatik olarak eylem oluşturabiliyor” ve diyalog tanıma modelleri” diye açıklıyor.

“Ön yargının yazılıma kodlanması sorunu”

Sonuç olarak, yapay zeka sistemlerindeki önyargılar adil olmayan sonuçlara yol açarak ayrımcılığa ve aynı zamanda zayıf karar almaya yol açabilir.

“[Dans ce rapport], önyargıların yazılımlara kodlanması durumunda sorunun ne olduğunu bulmak için yola çıktık” diye açıklıyor Ivana Bartoletti. “Pek çok insan, insanların zaten önyargılı olduğunu düşünüyor, o yüzden kimin umurunda? Ancak sorun şu ki, önyargılar kodlandığında ve otomatikleştirildiğinde onları tespit etmek ve bunlara karşı çıkmak çok daha zor oluyor.”

Raporun yazarlarının algoritmik ayrımcılık dediği şey budur. Ivana Bartoletti, “Algoritmik ayrımcılıkla mücadele etmek diğer ayrımcılık türlerinden çok daha zordur” diyor. Bu, bu önyargıları tespit etmek ve azaltmak için etkili metodolojilere olan ihtiyacı güçlendirir.

“Veri bilimciler sorumlu yapay zekanın uygulanmasında ilk savunma hattıdır”

Araştırmacı, “Her şeyden önce veri bilimcileri, çoğu şirkette sorumlu yapay zekanın uygulanmasında ilk savunma hattı olduklarının farkına varmalı” diyor. “İkinci savunma hattı gizlilik uzmanları, veri güvenliği uzmanları, avukatlar ve risk yönetimi ekipleri olmalıdır.”

“Şu anda gördüğüm asıl sorun, ikinci basamak rollerin ve veri bilimcilerin, yani kod mimarlarının farklı diller konuşmasıdır. Sadece aynı dili konuşuyorlar. Herkes adaletin ne olduğunu anlayabilecek, tarafsızlık, şeffaflık ve güvenilirliktir.”

Belki de bu iki toplum, iş dünyasında yapay zekanın tehlikeleriyle mücadele etmek için çalışan kuruluşlar aracılığıyla bir diyalog kurmaya çalışabilir.

Yapay zeka denetçileri için doğrulanabilir kurallar oluşturun

İnsanlık İçin kar amacı gütmeyen bir kuruluştur. Yapay zeka ve otonom sistemlerle ilişkili riskleri inceler ve analiz eder. ForHumanity’nin genel müdürü ve kurucusu Ryan Carrier, ZDNET’e organizasyonun gönüllülerden oluştuğunu söylüyor. “ForHumanity’nin dünya çapında 91 ülkeden 1.600’den fazla çalışanı var ve çalışan sayımız ayda 40 ila 60 kişi arasında artıyor” diyor.

ForHumanity topluluğu %100 açıktır ve kimlerin katılabileceği konusunda herhangi bir kısıtlama yoktur. Sadece siteye kaydolun ve davranış kurallarını kabul edin. Kâr amacı gütmeyen kuruluşa gönüllü olan herkes sürece istediği kadar katılabilir.

ForHumanity’nin ana hedeflerinden biri, AI denetçileri için tanınmış yasalara, standartlara ve en iyi uygulamalara dayalı doğrulanabilir kurallar oluşturmaktır. Kuruluş daha sonra bu doğrulanabilir kuralları hükümetlere ve düzenleyicilere sunar.

ForHumanity, Avrupa Birliği’ne başvurdu ve Carrier’ın söylediğine göre yapay zeka ve algoritmik sistemler için AB onaylı bir sertifikasyon sistemi almaya yakın. Yapay zeka sistemlerine yatırım yapan şirketlerin daha fazla yasal belirliliğe sahip olmasına izin vermek için yeterli.

Temel hakları, demokratik değerleri ve hukukun üstünlüğünü destekleyen yapay zeka eğitimini uygulayın

Yapay Zeka ve Dijital Politika Merkezi (CAIDP) Yapay zeka araştırması ve politikası üzerinde çalışan başka bir kuruluştur. Temel hakları, demokratik değerleri ve hukukun üstünlüğünü destekleyen yapay zeka eğitimi sunmaya odaklanıyor.

CAIDP ücretsiz seminerler düzenlemektedir. Şu ana kadar bu eğitimlerden 207 öğrenci mezun oldu.

CAIDP Başkanı Merve Hickok, ZDNET’e verdiği demeçte, katılımcıların “yapay zekanın hakları nasıl etkilediğini öğrenen ve hükümetleri nasıl sorumlu tutacağı ve yapay zeka sektöründeki değişimi nasıl etkileyeceği konusunda beceri ve savunuculukla ayrılan avukatlar, uygulayıcılar, araştırmacılar” olduğunu söyledi. Stajlar bir dönem sürer ve haftada yaklaşık altı saatlik bir taahhüt gerektirir.

KPMG araştırmasına göre dünya genelinde katılımcıların %82’si yapay zekanın farkında ancak yarısı teknolojiyi ve onun nasıl kullanıldığını anlamadığını itiraf ediyor. Yani hala gidilecek uzun bir yol var.



genel-15