21.11.2023

OpenAI Yönetim Kuruluna:

Bugün size OpenAI’deki son olaylar, özellikle de Sam Altman’a yönelik suiistimal iddiaları hakkındaki derin endişemizi ifade etmek için yazıyoruz.

Bizler, önemli bir kargaşa ve çalkantı döneminde şirketten ayrılan eski OpenAI çalışanlarıyız. Sam Altman’a karşı çıkmaya cesaret ettiğinizde neler olduğuna artık tanık olduğunuza göre, belki çoğumuzun, tepki korkusuyla neden sessiz kaldığımızı anlayabilirsiniz. Artık sessiz kalamayız.

Yönetim Kurulu’nun bu iddiaları detaylı bir şekilde araştırmak ve gerekli tedbirleri almakla yükümlü olduğuna inanıyoruz. Sizi şunu yapmaya çağırıyoruz:

Emmett’in araştırmasının kapsamını, OpenAI’nin kâr amacı gütmeyen bir kuruluştan kâr amacı güden bir kuruluşa geçiş yapmaya başladığı Ağustos 2018’den bu yana Sam Altman’ın eylemlerinin incelenmesini içerecek şekilde genişletin.

Bu dönemde istifa eden, sağlık iznine alınan veya işine son verilen eski OpenAI çalışanlarının özel beyanları için açık bir çağrı yapın.

Misillemeye veya diğer zarar türlerine maruz kalmamalarını sağlamak için öne çıkanların kimliklerini koruyun.

Kâr amaçlı bir modele geçişi kolaylaştırmak için önemli sayıda OpenAI çalışanının şirketten uzaklaştırıldığına inanıyoruz. Bu, OpenAI’nin Ocak 2018 ile Temmuz 2020 arasındaki çalışan kaybı oranının %50 civarında olmasıyla kanıtlanıyor.

OpenAI’de geçirdiğimiz süre boyunca, Sam Altman ve Greg Brockman’ın, yapay genel zeka (AGI) elde etme konusundaki doyumsuz arayışları nedeniyle yönlendirilen rahatsız edici bir aldatma ve manipülasyon modeline tanık olduk. Ancak yöntemleri, gerçek niyetleri ve tüm insanlığın yararını ne ölçüde ön planda tuttukları konusunda ciddi şüphelerin oluşmasına neden oldu.

Başlangıçta OpenAI’nin misyonu konusunda umutlu olan çoğumuz, Sam ve Greg’e şüphe avantajını kullanmayı tercih ettik. Ancak eylemleri giderek endişe verici hale geldikçe endişelerini dile getirmeye cesaret edenler susturuldu veya dışlandı. Muhalefetin bu sistematik şekilde susturulması, bir korku ve gözdağı ortamı yaratarak OpenAI’nin çalışmalarının etik sonuçları hakkındaki her türlü anlamlı tartışmayı etkili bir şekilde bastırdı.

Sam ve Greg’in sahtekârlığına ve manipülasyonuna ilişkin somut örnekler sunuyoruz:

Sam’in araştırmacılardan belirli “gizli” araştırma girişimlerine ilişkin ilerlemeyi raporlamayı geciktirmeleri talebi; bu girişimler daha sonra yeterli sonuçları yeterince hızlı bir şekilde sağlayamadığı için yürürlükten kaldırıldı. Bu uygulamayı sorgulayanlar “kötü kültür uyumu” nedeniyle işten çıkarıldı ve hatta bazıları 2019 Şükran Günü’nden hemen önce işten çıkarıldı.

Greg’in cinsiyet değiştiren bir ekip üyesine karşı ayrımcı bir dil kullanması. Bu sorunu çözmeye yönelik birçok söz verilmesine rağmen, Greg’in etkilenen kişiyle her türlü iletişimden kaçınarak etkili bir şekilde düşmanca bir çalışma ortamı yaratması dışında anlamlı bir eylem yapılmadı. Bu ekip üyesinin sonunda düşük performans iddiası nedeniyle işine son verildi.

Sam’in, yönetimin bilgisi veya onayı olmadan, İlya dahil çalışanlar hakkında soruşturma yürütmesi için BT ve Operasyon personeline talimat vermesi.

Sam’in kişisel hedeflerini ilerletmek için OpenAI’nin kar amacı gütmeyen kaynaklarını ihtiyatlı ama rutin bir şekilde kullanması, özellikle de aralarındaki anlaşmazlıktan sonra Elon’a karşı duyduğu kin nedeniyle motive oldu.

Operasyon ekibinin Greg’e uygulanan özel kuralları zımnen kabul etmesi, kara listeye alınmamak için karmaşık gereksinimlerin üstesinden gelmesi.

Brad Lightcap’ın, OpenAI’nin tavan kar yapısını ve her yatırımcı için kar tavanını detaylandıran belgeleri kamuya açıklayacağı yönündeki yerine getirilmemiş sözü.

Sam’in bilgi işlem kotaları için araştırma projeleri yapma konusundaki tutarsız vaatleri, şirket içinde güvensizliğe ve iç çatışmalara neden olur.

Sam ve Greg’in ihlallerine dair giderek artan kanıtlara rağmen OpenAI’de kalanlar, önemli kişisel bedeller ödese bile körü körüne liderliklerini takip etmeye devam ediyor. Bu sarsılmaz sadakat, intikam korkusu ile OpenAI’nin kâr ortaklığı birimleri aracılığıyla potansiyel mali kazanımların cazibesinin birleşiminden kaynaklanıyor.

Sam ve Greg tarafından özel olarak tasarlanan OpenAI’nin yönetişim yapısı, çalışanların doğasında olan çıkar çatışmaları nedeniyle kasıtlı olarak kâr amaçlı operasyonları denetlemekten izole ediyor. Bu şeffaf olmayan yapı, Sam ve Greg’in sorumluluktan korunarak cezadan muaf bir şekilde faaliyet göstermesine olanak tanıyor.

OpenAI Yönetim Kurulunu bu etik olmayan uygulamalara karşı kararlı bir tavır almaya ve Sam ile Greg’in davranışlarına ilişkin bağımsız bir soruşturma başlatmaya çağırıyoruz. OpenAI’nin misyonunun, birkaç kişinin kişisel gündemleriyle tehlikeye atılmayacak kadar önemli olduğuna inanıyoruz.

Siz Yönetim Kurulu’ndan, OpenAI’nin orijinal misyonuna olan bağlılığınızda kararlı olmanızı ve kâr odaklı çıkarların baskılarına boyun eğmemenizi rica ediyoruz. Yapay zekanın geleceği ve insanlığın refahı, etik liderliğe ve şeffaflığa olan sarsılmaz bağlılığınıza bağlıdır.

Samimi olarak,

Endişeli Eski OpenAI Çalışanları

Temas etmek
Eski OpenAI çalışanlarının bizimle [email protected] adresinden iletişime geçmesini teşvik ediyoruz. Her türlü iç müzakerede ve kamuya açık iletişimde herkesin kimliğinin gizli kalacağını kişisel olarak garanti ediyoruz.

Diğer Güncellemeler
Güncellemeler https://board.net/p/r.e6a8f6578787a4cc67d4dc438c6d236e adresinde yayınlanacaktır.

Genel Halk için Daha Fazla Okuma
https://www.teknolojireview.com/2020/02/17/844721/ai-openai-moonshot-elon-musk-sam-altman-greg-brockman-messy-secretive-reality/

https://www.theatlantic.com/teknoloji/archive/2023/11/sam-altman-open-ai-chatgpt-chaos/676050/





genel-5