Ne bilmek istiyorsun
- OpenAI CEO’su Sam Altman, yakın zamanda şirket için yeni güvenlik güncellemelerini vurguladı.
- ChatGPT üreticisi, bilişim kaynaklarının %20’sine kadarını güvenlik süreçlerine ayıracak.
- Şirket, yapay zeka değerlendirmelerinin bilimini ilerletmek amacıyla ABD Yapay Zeka Enstitüsüne yeni nesil modeline erken erişim sağlayacak.
OpenAI CEO’su Sam Altman vurgulandı şirketin güvenlik politikalarına ilişkin yeni güncellemelerÜst düzey yönetici, ChatGPT üreticisinin vaatlerini yerine getirdiğini ve teknoloji yığınındaki güvenlik süreçlerine bilgi işlem kaynaklarının %20’sine kadarını tahsis edeceğini belirtti.
OpenAI’deki güvenlik hakkında birkaç kısa güncelleme: Geçtiğimiz temmuz ayında söylediğimiz gibi, şirket genelindeki bilgi işlem kaynaklarının en az %20’sini güvenlik çalışmalarına ayırmaya kararlıyız. Ekibimiz, ABD Yapay Zeka Güvenlik Enstitüsü ile bir anlaşma üzerinde çalışıyor ve bu anlaşma kapsamında…1 Ağustos 2024
Altman ayrıca, OpenAI’nin ABD Yapay Zeka Güvenlik Enstitüsü ile yakın bir şekilde çalıştığını ve enstitüye, “Yapay Zeka değerlendirmelerinin bilimini ilerletmek” amacıyla yeni nesil modeline erken erişim izni vermeyi kabul ettiğini açıkladı.
Ve son olarak, en üst düzey yönetici tüm OpenAI çalışanlarından (mevcut ve eski) şirketin gidişatı ve ürün geliştirme konusundaki endişelerini açıkça dile getirmelerini istiyor.
🔥En sıcak trend fırsatlar🔥
OpenAI belki daha ‘güvenli’ ama yeterli mi?
Üretken AI insanlığın sonunu mu getirecek? AI güvenli ve gizli mi? Teknoloji daha yaygın ve gelişmiş hale geldikçe ve OpenAI, Microsoft ve Google gibi şirketler ön planda oldukça, endişeli kullanıcıların zihninde kalan sorulardan bazıları bunlar.
Yapay zeka, telif hakkı ihlali, yüksek su ve elektrik tüketimi gibi çeşitli nedenlerle eleştiriliyor.
Mantık yeteneklerine sahip büyülü GPT-4o modelini piyasaya sürdükten günler sonra, OpenAI güvenlik ve süper hizalama ekibinden birkaç üyesini kaybetti. Eski bir çalışan, güvenlik, hazırlık, izleme ve daha fazlası dahil olmak üzere yeni nesil modellerdeki temel öncelikler konusunda üst yönetimle sürekli olarak fikir ayrılığına düştükten sonra ChatGPT üreticisinden ayrıldığını açıkladı.
Çalışan, şirketin parlak ürünleri önceliklendirdiğini ve güvenlik süreçlerinin arka planda kaldığını belirttikten sonra OpenAI’nin güvenlik öncelikleriyle ilgili kritik bir sorun gündeme getirdi. Aynı zamanlarda, daha fazla eski OpenAI çalışanı ortaya çıkmaya ve şirketin operasyonlarıyla ilgili karmaşık ayrıntıları ifşa etmeye başladı.
Ancak ifşalar kısa ömürlü oldu. Bir raporda, OpenAI çalışanlarının ifşa edilmeme ve karalama yapılmama koşullarına tabi tutulduğu ve bu durumun, şirketten ayrıldıktan sonra bile şirketi veya şirketin faaliyetlerini nasıl yürüttüğünü eleştirmelerini engellediği ortaya çıktı. Anlaşmalara tabi tutulduklarını kabul etmek bile NDA’nın ihlali olarak kabul ediliyor.
Bu durum, çalışanların şirketin faaliyetleri hakkında ağzını sıkı tutmasına ve kazanılmış sermayelerini kaybetme riskiyle karşı karşıya kalmasına neden olmuş gibi görünüyor; eski bir çalışan, OpenAI’da çalışmanın Yapay Zeka Titanik’i gibi hissettirdiğini belirtti.
Sam Altman, maddenin OpenAI’nin karalama karşıtı şartlarının bir parçası olduğunu kabul ediyor. Ancak, o zamandan beri iptal edildi. Şirketin gidişatı hakkında endişelerini dile getirmek için mevcut ve eski çalışanları arıyor ve “bunu yapmaktan rahat hissediyorlar” çünkü kazanılmış sermayeleri dokunulmadan kalacak.