Elon Musk yeni yapay zeka şirketinin arkasındaki ekibi açıkladığında xAI Misyonu “evrenin gerçek doğasını anlamak” olduğu söylenen bu kurum, geçen ay yapay zekanın vaatleri ve tehlikeleri hakkındaki varoluşsal kaygılara yanıt vermenin kritikliğinin altını çizdi.

Yeni kurulan şirket, davranışlarını gerçekten teknolojinin potansiyel risklerini azaltacak şekilde ayarlayabilir mi, yoksa yalnızca OpenAI üzerinde avantaj elde etmeyi mi hedefliyor, şirketin oluşumu şirketlerin yapay zeka ile ilgili endişelere gerçekte nasıl yanıt vermesi gerektiği konusunda önemli soruları gündeme getiriyor. Özellikle:

  1. Şirket içinde, özellikle de en büyük temel model şirketlerinde, inşa ettikleri teknolojinin hem kısa hem de uzun vadeli etkileri hakkında gerçekte kim sorular soruyor?
  2. Sorunlara uygun bir bakış açısı ve uzmanlıkla mı yaklaşıyorlar?
  3. Teknolojik değerlendirmeleri sosyal, ahlaki ve epistemolojik konularla yeterince dengeliyorlar mı?

Üniversitede, o zamanlar uyumsuz bir kombinasyon gibi görünen bilgisayar bilimi ve felsefe alanında uzmanlaştım. Bir sınıfta, etik (“Doğru olan ne, yanlış olan?”), ontoloji (“Orada gerçekten ne var?”) ve epistemoloji (“Gerçekte ne biliyoruz?”) hakkında derinlemesine düşünen insanlarla çevriliydim. Bir diğerinde etrafım algoritma, kodlama ve matematikle uğraşan insanlarla çevriliydi.

Yirmi yıl sonra, öngörü yerine şans eseri, şirketlerin yapay zeka hakkında nasıl düşünmesi gerektiği bağlamında bu kombinasyon o kadar da uyumsuz değil. Yapay zekanın etkisinin riskleri varoluşsaldır ve şirketlerin bu risklere layık gerçek bir taahhütte bulunmaları gerekmektedir.

Etik yapay zeka, ne olduğuna, ne istediğimize, ne bildiğimizi düşündüğümüze ve zekanın nasıl ortaya çıktığına dair derin bir anlayış gerektirir.

Bu, liderlik ekiplerine, oluşturdukları teknolojinin sonuçlarını değerlendirebilecek yeterli donanıma sahip paydaşlardan oluşan bir ekip oluşturmak anlamına gelir; bu, kod yazan ve API’leri güçlendiren mühendislerin doğal uzmanlığının ötesindedir.

Yapay zeka yalnızca bilgisayar bilimi mücadelesi, sinir bilimi mücadelesi veya optimizasyon mücadelesi değildir. Bu insani bir meydan okumadır. Bu sorunu ele almak için, kapsam olarak eşdeğer bir “Zihinlerin Yapay Zeka Toplantısı”nın kalıcı bir versiyonunu benimsememiz gerekiyor. Oppenheimer’ın disiplinler arası buluşması 1940’ların başında New Mexico çölünde (doğduğum yer).

İnsan arzusu ile yapay zekanın istenmeyen sonuçlarının çarpışması, araştırmacıların “uyum sorunu” olarak adlandırdığı ve ustaca tanımladığı bir durumla sonuçlanır. Brian Christian‘ın kitabı ‘Hizalama Sorunu’. Temelde, makinelerin en kapsamlı talimatlarımızı yanlış yorumlama gibi bir yolu var ve onların sözde efendileri olarak bizim, yapmalarını istediğimizi düşündüğümüz şeyi tam olarak anlamalarını sağlama konusunda zayıf bir geçmişe sahibiz.

Net sonuç: Algoritmalar önyargıyı ve dezenformasyonu ilerletebilir ve böylece toplumumuzun dokusunu aşındırabilir. Daha uzun vadeli, daha distopik bir senaryoda “hain dönüş”ve uygarlığımızın işleyişi üzerinde çok fazla kontrol bıraktığımız algoritmalar hepimizi ele geçiriyor.

Oppenheimer’ın bilimsel meydan okumasının aksine, etik yapay zeka, ne olduğuna, ne istediğimize, ne bildiğimizi sandığımıza ve zekanın nasıl ortaya çıktığına dair derin bir anlayış gerektirir. Bu, doğası gereği kesinlikle bilimsel olmasa da, kesinlikle analitik olan bir girişimdir. Hem beşeri bilimlerden hem de bilimlerden eleştirel düşünceye dayanan bütünleştirici bir yaklaşım gerektirir.

Farklı alanlardan düşünürlerin artık her zamankinden daha fazla birlikte çalışması gerekiyor. Bunu gerçekten doğru yapmak isteyen bir şirketin rüya takımı şöyle görünecektir:

  • Baş yapay zeka ve veri etik uzmanı: Bu kişi, etik veri ilkelerinin dile getirilmesi ve benimsenmesi, etik veri kullanımına yönelik referans mimarilerinin geliştirilmesi, vatandaşların verilerinin nasıl tüketildiğine ilişkin hakları ve bunlarla sınırlı olmamak üzere veri ve yapay zeka ile ilgili kısa ve uzun vadeli sorunları ele alacaktır. Yapay zeka tarafından kullanılan ve yapay zeka davranışını şekillendirmek ve yeterince kontrol etmek için kullanılan protokoller. Bu, rolü büyük ölçüde bir teknoloji planının yansımalarını ele almaktan ziyade yürütmek olan baş teknoloji sorumlusundan ayrı olmalıdır. Bu, şirket içi karar alıcılar ile düzenleyiciler arasındaki iletişim boşluğunu kapatan, CEO’nun kadrosunda yer alan üst düzey bir roldür. Bir veri etikçisini baş yapay zeka etik uzmanından ayıramazsınız: Veri, yapay zekanın ön koşulu ve yakıtıdır; Yapay zekanın kendisi yeni veriler doğurur.
  • Baş filozof mimar: Bu rol, uzun vadeli, varoluşsal kaygıları temel olarak “Hizalama Sorunu”na odaklanarak ele alacaktır: Yapay zekayı insan ihtiyaçları ve hedefleri ile mümkün olan maksimum ölçüde hizalamak için korumaların, politikaların, arka kapıların ve durdurma anahtarlarının nasıl tanımlanacağı .
  • Baş sinir bilimci: Bu kişi, duyarlılık ve zekanın yapay zeka modellerinde nasıl ortaya çıktığı, insan bilişinin hangi modellerinin yapay zekanın gelişimi için en alakalı ve yararlı olduğu ve yapay zekanın bize insan bilişi hakkında neler öğretebileceği gibi kritik soruları ele alacaktır.

Kritik olarak, rüya ekibinin çıktısını sorumlu, etkili teknolojiye dönüştürmek için, “Üçlü” tarafından ortaya atılan soyut kavramları ve soruları çalışan yazılıma dönüştürebilecek teknoloji uzmanlarına ihtiyacımız var. Çalışan tüm teknoloji gruplarında olduğu gibi bu da resmin tamamını gören ürün liderine/tasarımcıya bağlıdır.

“Yapay Zeka Çağı”nda yeni nesil yaratıcı ürün liderlerinin, yapay zeka için model altyapısını kapsayan teknoloji yığınının yeni katmanlarının yanı sıra ince ayar ve özel model geliştirme gibi şeylere yönelik yeni hizmetler arasında rahatça hareket etmesi gerekiyor. Baş filozof mimarın öngördüğü şekilde korumaları, arka kapıları ve kapatma anahtarlarını uygulamak için “Döngüdeki İnsan” iş akışlarını hayal edecek ve tasarlayacak kadar yaratıcı olmaları gerekiyor. Bir rönesans mühendisinin, baş yapay zekanın ve veri etikçisinin politikalarını ve protokollerini çalışma sistemlerine çevirme becerisine sahip olmaları gerekiyor. Baş sinir bilimcinin makineler ve zihinler arasında geçiş yapma ve daha akıllı, daha sorumlu yapay zekayı ortaya çıkarma potansiyeline sahip bulguları yeterince ayırt etme çabalarını takdir etmeleri gerekiyor.

OpenAI’ye, bu personel bulma sorunuyla mücadele eden iyi gelişmiş, son derece etkili, temel model bir şirketin ilk örneklerinden biri olarak bakalım: baş bilim adamı (aynı zamanda kurucu ortağıdır), bir küresel politika başkanıve bir genel danışman.

Bununla birlikte, yönetici liderlik pozisyonlarında yukarıda özetlediğim üç pozisyon olmadan, teknolojilerinin yansımalarını çevreleyen en büyük sorular yanıtsız kalır. Sam Altman ise endişeli Süperzekanın tedavisine ve koordinasyonuna kapsamlı ve düşünceli bir şekilde yaklaşma konusunda bütünsel bir diziliş oluşturmak, başlamak için iyi bir yerdir.

Şirketlerin insanların verilerinin güvenilir koruyucuları olduğu ve yapay zeka odaklı inovasyonun iyilikle eş anlamlı olduğu daha sorumlu bir gelecek inşa etmeliyiz. Geçmişte hukuk ekipleri mahremiyet gibi konularda suskundu, ancak aralarında en parlak olanlar yapay zeka çağında etik veri kullanımına ilişkin sorunları kendi başlarına çözemeyeceklerinin farkındalar.

Kararların alındığı masaya geniş görüşlü, farklı bakış açılarını getirmek, makineleri yerinde tutarken insanlığın gelişmesinin hizmetinde etik verilere ve yapay zekaya ulaşmanın tek yoludur.



genel-24