OpenAI, insan kadar zeki bir AI geliştirme yarışında liderdir. Yine de çalışanlar basında görünmeye devam ediyor ve podcast’lerde 80 milyar dolarlık kar amacı gütmeyen araştırma laboratuvarındaki güvenlikle ilgili ciddi endişelerini dile getirmek için. En son gelen Washington postİsmi açıklanmayan bir kaynak, OpenAI’nin güvenlik testlerini aceleyle yaptığını ve güvenliğini sağlamadan önce ürünlerini övdüğünü iddia etti.

“Fırlatmanın güvenli olup olmadığını bilmeden lansman sonrası partiyi planladılar” dedi isimsiz bir çalışan Washington post“Biz bu süreçte temelde başarısız olduk.”

OpenAI’da güvenlik sorunları büyük bir sorun — ve gelmeye devam ediyor gibi görünüyor. OpenAI’daki mevcut ve eski çalışanlar, kurucu ortak Ilya Sutskever’in ayrılmasının ardından güvenlik ekibinin feshedilmesinden kısa bir süre sonra, girişimden daha iyi güvenlik ve şeffaflık uygulamaları talep eden bir açık mektup imzaladılar. Önemli bir OpenAI araştırmacısı olan Jan Leike, kısa bir süre sonra istifa etti ve bir gönderide şirkette “güvenlik kültürü ve süreçlerinin parlak ürünlere göre ikinci planda kaldığını” iddia etti.

Güvenlik, OpenAI’nin temelini oluşturur tüzükAGI’nin bir rakipte ulaşılması durumunda OpenAI’nin rekabete devam etmek yerine güvenliği ilerletmek için diğer kuruluşlara yardımcı olacağını iddia eden bir maddeyle. Böylesine büyük ve karmaşık bir sistemin doğasında var olan güvenlik sorunlarını çözmeye adanmış olduğunu iddia ediyor. OpenAI, açık olmaktan ziyade tescilli modellerini bile gizli tutuyor (buna neden oluyor iğnelemeler (ve davalar) güvenlik uğruna. Uyarılar, şirket kültürü ve yapısı için çok önemli olmasına rağmen güvenliğin önceliksizleştirilmiş gibi görünmesini sağlıyor.

OpenAI’nin sıcak koltukta olduğu açık — ancak halkla ilişkiler çabaları tek başına toplumu korumaya yetmeyecek

OpenAI sözcüsü Taya Christianson yaptığı açıklamada, “En yetenekli ve en güvenli AI sistemlerini sağlama konusundaki geçmiş performansımızla gurur duyuyoruz ve riski ele alma konusundaki bilimsel yaklaşımımıza inanıyoruz” dedi. Sınır“Bu teknolojinin önemi göz önüne alındığında, titiz bir tartışma kritik önem taşıyor ve misyonumuza hizmet etmek için dünya çapında hükümetler, sivil toplum ve diğer topluluklarla etkileşime girmeye devam edeceğiz.”

OpenAI ve ortaya çıkan teknolojiyi inceleyen diğerlerine göre güvenlikle ilgili riskler muazzamdır. “Mevcut sınır AI geliştirme, ulusal güvenlik için acil ve artan riskler oluşturmaktadır” raporu ABD Dışişleri Bakanlığı tarafından Mart ayında görevlendirildi dedi. “Gelişmiş AI ve AGI’nin yükselişi [artificial general intelligence] “Küresel güvenliği nükleer silahların kullanılmasına benzer şekilde istikrarsızlaştırma potansiyeline sahiptir.”

OpenAI’daki alarm zilleri, geçen yıl CEO Sam Altman’ı kısa süreliğine görevden alan yönetim kurulu darbesini de takip ediyor. Yönetim kurulu, Altman’ın “iletişimlerinde tutarlı bir şekilde dürüst olmaması” nedeniyle görevden alındığını söyledi ve bu da personeli rahatlatmak için pek işe yaramayan bir soruşturmaya yol açtı.

OpenAI sözcüsü Lindsey Held, Postalamak GPT-4o lansmanı güvenlik konusunda “köşe kesmedi”, ancak ismi açıklanmayan başka bir şirket temsilcisi güvenlik inceleme zaman çizelgesinin tek bir haftaya sıkıştırıldığını kabul etti. Anonim temsilci “Bunu yapma şeklimizi tamamen yeniden düşünüyoruz” dedi Postalamak. “Bu [was] “Bunu yapmanın en iyi yolu bu değil.”

Devam eden tartışmalar karşısında (hatırlayın) O olay?), OpenAI birkaç iyi zamanlanmış duyuruyla korkuları yatıştırmaya çalıştı. Bu hafta, duyuruldu GPT-4o gibi gelişmiş AI modellerinin biyobilimsel araştırmalara nasıl güvenli bir şekilde yardımcı olabileceğini keşfetmek için Los Alamos Ulusal Laboratuvarı ile iş birliği yapıyor ve aynı duyuruda Los Alamos’un kendi güvenlik siciline defalarca işaret etti. Ertesi gün, isimsiz bir sözcü söylenmiş Bloomberg OpenAI’nin büyük dil modellerinin yapay genel zekaya doğru kaydettiği ilerlemeyi izlemek için dahili bir ölçek oluşturduğunu söyledi.

Bu haftanın OpenAI’dan gelen güvenlik odaklı duyuruları, güvenlik uygulamalarına yönelik artan eleştiriler karşısında savunma amaçlı bir vitrin süsü gibi görünüyor. OpenAI’nın sıcak koltukta olduğu açık — ancak halkla ilişkiler çabaları tek başına toplumu korumaya yetmeyecektir. Gerçekten önemli olan, OpenAI’nın içeride iddia ettiği gibi, sıkı güvenlik protokolleriyle AI geliştirmede başarısız olmaya devam etmesi durumunda Silikon Vadisi balonunun ötesindekiler üzerindeki potansiyel etkidir: ortalama bir kişinin özelleştirilmiş-AGI’nin geliştirilmesinde söz hakkı yoktur ve yine de OpenAI’nın yarattıklarından ne kadar korunacakları konusunda hiçbir seçeneği yoktur.

“Yapay zeka araçları devrim niteliğinde olabilir” FTC başkanı Lina Khan söylenmiş Bloomberg Kasım ayında. Ancak “şu an itibariyle” dedi, “bu araçların kritik girdilerinin nispeten az sayıda şirket tarafından kontrol edildiğine” dair endişeler var.

Güvenlik protokollerine karşı yapılan sayısız iddia doğruysa, bu kesinlikle OpenAI’nin AGI’nin yöneticisi olarak bu role uygunluğu hakkında ciddi sorular ortaya çıkarır, ki bu da organizasyonun esasen kendisine atadığı bir roldür. San Francisco’daki bir grubun potansiyel olarak toplumu değiştirebilecek teknolojiyi kontrol etmesine izin vermek endişe vericidir ve kendi saflarında bile şeffaflık ve güvenlik için her zamankinden daha acil bir talep vardır.



genel-2