Ne bilmek istiyorsun
- OpenAI daha önce güvenlikten çok parlak ürünlere öncelik verdiği için eleştirilere maruz kalmıştı.
- Şirketin eski bir çalışanı da benzer duyguları dile getirerek şirketten Yapay Zeka Titanik’i olarak bahsetti.
- Eski çalışan, şirket kritik ve gelişmiş önlemleri benimsemediği takdirde OpenAI’nin güvenlik önlemlerinin ve bariyerlerinin yapay zekanın kontrolden çıkmasını önleyemeyeceğini ve kontrol edemeyeceğini söylüyor.
OpenAI son birkaç aydır manşetlerde yer alıyor (tartışmalı olarak tüm yanlış sebeplerden dolayı). Şirketin eski hizalama başkanı Jan Leike de dahil olmak üzere güvenlik ekibinin çoğunun şirketten ayrılmasıyla başladı. Leike, şirketin güvenlik kültürü ve süreçleri arka planda kalırken parlak ürünlere odaklandığını belirtti.
Görünen o ki, eski bir OpenAI çalışanı olan William Saunders da benzer duyguları dile getirmiş gibi görünüyor. Alex Kantrowitz’in YouTube’daki podcast’i Saunders bu ayın başlarında şunları söyledi:
“Gerçekten Yapay Zeka Titanik’inde çalışmak istemiyordum ve bu yüzden istifa ettim. OpenAI’daki üç yılım boyunca bazen kendime şu soruyu sorardım. OpenAI’nin izlediği yol daha çok Apollo programına mı yoksa Titanik’e mi benziyordu? Dünyayı değiştirmek için bu yoldalar ve yine de bir şeyler yayınladıklarında öncelikleri daha çok bir ürün şirketine benziyor. Ve bence en rahatsız edici olan da bu.”
OpenAI CEO’su Sam Altman, AGI ve süper zekaya ulaşmak da dahil olmak üzere şirket için hırsları ve hedefleri konusunda çekingen davranmadı. Ayrı bir röportajda Altman, bu kilometre taşlarının bir gecede dinamik bir değişim oluşturmayacağını açıkladı. Teknolojik gelişmelere olan ilginin kısa ömürlü olduğunu ve yalnızca bir iki haftalık çıldırma.
OpenAI’nin eski süper hizalama lideri, şirketin karar alma süreci ve yeni nesil modeller, güvenlik, izleme, hazırlık, emniyet, düşmanca dayanıklılık ve daha fazlası konusundaki temel öncelikleri konusunda üst düzey OpenAI yöneticileriyle aynı fikirde olmadığını açıkladı. Bu da nihayetinde onun şirketten ayrılmasına neden oldu.
Büyük resme bakıldığında, Altman’ın yapay zekanın ilerlemesini durduracak büyük bir kırmızı düğme olmadığını açıkça kabul etmesine rağmen, ChatGPT üreticisinin güvenlikten çok parlak ürünleri önceliklendirmesi oldukça endişe verici.
Güvenlik, OpenAI’nin en büyük sorunudur
![Eski OpenAI Güvenlik Çalışanlarının Endişelendiği Şeyler - YouTube](https://teknomers.com/wp-content/uploads/2024/07/Eski-bir-OpenAI-calisani-ust-duzey-yoneticilerin-guvenlikten-cok-parlak.jpg)
Yapay zeka alanındaki gelişmeler büyük ölçüde güvenlik ve gizlilik endişeleriyle doludur. Windows Recall’ı hatırlıyor musunuz? Microsoft’un gizlilik kabusu ve bir hacker’ın cenneti. Redmond devi yakın zamanda yalnızca Windows 11 Copilot+ PC’lere gönderilen çılgın yeni nesil yapay zeka özelliklerini tanıttı. Bunlar arasında Canlı Altyazılar, Windows Studio efektleri ve göz kamaştırıcı Windows Recall yer alıyor.
Teoride ve kağıt üzerinde, Windows Recall havalı ve kullanışlı görünüyordu (tartışmalı). Ancak, İngiltere veri gözlemcisinin bile dikkatini çeken birçok gizlilik sorunuyla doluydu. Yapay zeka destekli özellik tepki aldı ve Microsoft’un piyasaya sürülmeden önce bile geri çağırmasını sağladı.
OpenAI benzer bir gemide ancak daha büyük ölçekte. Saunders, OpenAI güvenlik önlemlerini kötü şöhretli Titanik gemisine benzetiyor ve şirketin ‘Apollo Uzay programı yaklaşımını’ benimsemesini tercih edeceğini belirtiyor. Bağlam için, program Amerikan astronotlarının 11 uzay uçuşu yapmasını ve ayda yürümesini içeren bir NASA projesiydi.
Şirketin mevcut önlemlerine aşırı güvendiğini ve ilerlemelerinin hızlı ilerlemelerine karşı sağır gibi göründüğünü ekledi. OpenAI’nin Apollo programı yaklaşımını benimsediği takdirde iyi durumda olabileceğini söylüyor.
Apollo 13 gibi büyük sorunlar yaşandığında bile, yeterli bir yedekliliğe sahiplerdi ve herkesi güvenli bir şekilde geri getirmek için duruma uyum sağlayabildiler.
Willian Saunders, Eski OpenAI çalışanı
Saunders, Titanic’in geliştirilmesinin arkasındaki ekibin gemiyi batmaz hale getirmeye daha fazla odaklandığını ancak felaketin gerçekleşmesi durumunda yeterli sayıda cankurtaran botu yerleştirmeyi unuttuğunu söylüyor. Sonuç olarak, hazırlıksızlık ve önemli güvenlik önlemlerinin göz ardı edilmesi nedeniyle birçok insan hayatını kaybetti.
Konuşurken İş İçeridenSaunders, Apollo Uzay programının çeşitli zorluklarla karşı karşıya olduğunu kabul etti. Aynı şekilde, “AGI veya herhangi bir yeni teknolojiyi sıfır riskle geliştirmek mümkün değil,” diye ekledi. “Şirketin bu riskleri önlemek için mümkün olan tüm makul adımları atmasını görmek istiyorum.”
Saunders, büyük ölçekli siber saldırılara ve biyolojik silahların geliştirilmesine yol açabilecek bir ‘Titanik felaketi’nin yaklaştığını öngörüyor. Saunders, OpenAI’nin bu tür olayları önlemek için daha fazla “can kurtarma botuna” yatırım yapmayı düşünmesi gerektiğini söylüyor. Buna, araştırma şirketlerine modellerin erken yayınlanmasından kaynaklanabilecek potansiyel tehlike ve zararı değerlendirmek için yeterli zaman vermek amacıyla yeni LLM’lerin başlatılmasının ertelenmesi de dahildir.