Microsoft, yapay zeka alanındaki en büyük isimlerden biri haline geldi ve bize ilginç ve bazen garip Bing Chat AI’yı getirdi. Şirket yapay zekaya büyük yatırım yaptı ve şimdi şirketi ve teknolojiyi kontrol altında tutmak için üç taahhütte bulundu. Yasalar ve yönetmelikler, yapay zekaya yetişmek için acele ediyor ve ihtiyaç duyduğumuz yerde çok geride kalıyor. Open AI CEO’su devlet kurumları arasında zıpladı düzen için yalvarmak.
Sam Altman, yılın başlarında Kongre’ye yaptığı açıklamada, düzenlenmemiş yapay zekanın ve azalan güvenin tehlikelerinin küresel bir sorun olduğu konusunda netti ve “istediğimiz gelecek bu değil” şeklindeki güçlü ifadeyle bitirdi.
Yapay zekayı kontrol altında tutmaya yardımcı olmak için Microsoft’un “Yapay Zeka Müşteri Taahhütleri” hem kendi kendini düzenleme hem de müşteri güvencesi işlevi görmeyi amaçlar. Şirket, AI’yı sorumlu bir şekilde geliştirme ve dağıtma hakkında öğrendiklerini paylaşmayı ve kullanıcıların da aynı şeyi yapmasına yardımcı olmayı planlıyor.
Microsoft Kurumsal Başkan Yardımcısı ve Baş Hukuk Müşaviri Yardımcısı Antony Cook, aşağıdaki temel taahhütleri bir toplantıda paylaştı: blog gönderisiT:
“Yapay zekayı sorumlu bir şekilde geliştirme ve dağıtma hakkında öğrendiklerimizi paylaşın”
Şirket, şirketin dahili Sorumlu Yapay Zeka Standardı, Yapay Zeka Etki Değerlendirme Şablonu, Şeffaflık Notları ve daha fazlası dahil olmak üzere tüketicilerin öğrenmesine olanak sağlamak için bilgileri paylaşacak ve önemli belgeler yayınlayacak. Ayrıca, Microsoft çalışanlarını “Microsoft’taki kültür ve uygulama” hakkında bize fikir vermesi için eğitmek için kullanılan bir eğitim müfredatı da sunacak.
Bilgi paylaşımının bir parçası olarak Microsoft, soruları yanıtlamak ve sorumlu AI kullanımını uygulamak için “dünyanın dört bir yanındaki bölgelerde özel kaynaklara ve uzmanlığa yatırım yapacağını” söylüyor.
Küresel ‘temsilcilere’ ve konseylere sahip olmak, yalnızca teknolojinin batılı olmayan bölgelere yayılmasını hızlandırmakla kalmayacak, aynı zamanda teknolojinin ağırlıklı olarak İngilizce dilinde tartışılması ve temellendirilmesinin getirdiği dil ve kültürel engelleri de ortadan kaldıracaktır. İnsanlar kendi endişelerini tanıdık bir dilde ve bu endişelerin nereden geldiğini gerçekten anlayan insanlarla tartışabilecekler.
“Yapay Zeka Güvence Programı Oluşturma”
Yapay Zeka Güvence Programı, temel olarak, yapay zekayı Microsoft platformlarında nasıl kullanırsanız kullanın, sorumlu yapay zeka için yasal ve düzenleyici gereklilikleri karşılamasını sağlamaya yardımcı olmak için vardır. Çoğu kişi Bing Chat AI kullanırken yasallığı dikkate almadığından, şeffaflığa sahip olmak kullanıcıların kendilerini güvende hissetmelerini sağladığından, bu, insanların teknolojiyi güvenli ve emniyetli bir şekilde kullanmasını sağlamada önemli bir faktördür.
Microsoft ayrıca müşterilerini görüşlerini dinlemek ve en son araçları ve teknolojisi hakkında geri bildirim almak için “müşteri konseylerinde” bir araya getireceğini söylüyor.
Son olarak şirket, AI düzenlemesini teşvik etmek ve uygun çerçeveleri desteklemek için hükümet organlarına ve kendi paydaşlarına teklifler sunmak için hükümetlerle etkileşimde aktif bir rol oynamayı taahhüt etti.
“Kendi AI sistemlerinizi sorumlu bir şekilde uygularken sizi destekleyin”
Son olarak Microsoft, yapay zeka kullanırken sizin ve işletmeniz için bir kaynak olarak dünya çapında “özel bir AI hukuk ve düzenleme uzmanları ekibi” oluşturmayı planlıyor.
Microsoft’un işletmeleri için yapay zeka yeteneklerini kullanan kullanıcıları dikkate alması, yapay zeka taahhütlerine hoş bir katkıdır, çünkü artık pek çok kişi teknolojiyi kendi girişimlerine yavaş yavaş dahil ederek yaklaşımlarını kendi başlarına bulmak ve dengelemek zorunda kalmaktadır.
Araçların arkasındaki şirketten kaynaklara sahip olmak, işletme sahipleri ve çalışanları için uzun vadede inanılmaz derecede yardımcı olacak ve onlara Microsoft’un yapay zekasını sorumlu bir şekilde kullanırken güvenebilecekleri adımlar ve bilgiler sağlayacaktır.
Çok küçük çok geç
Microsoft’un yapay zeka taahhütlerini, yazılımın ilk çalışmalarında ve yapay zeka geliştirmede yer alan öncü Etik ve Toplum ekibini kestikten kısa bir süre sonra duyurması, en hafif tabirle biraz garip. Şirket etik ekibinden kurtulmaya istekliyse, bu taahhütlere uyulacağına dair bana pek güven vermiyor.
Yapay zekanın en iyi ihtimalle tahmin edilemez bir teknoloji olduğunu kabul etsem de (sonuçta Bing Chat’in bazı çok garip şeyler yaptığını gördük), Microsoft’un şu anda uygulamaya koyduğu AI Müşteri Taahhütleri, sahip olmamız gereken bir şey gibi görünüyor. çok daha önce görüldü. Teknolojiyi dünyaya yaymak ve daha sonra Olaydan sonra onu kullanan insanlara nasıl bakılacağını tartışmak Microsoft açısından bir başarısızlıktır.