Dün OpenAI, uzun zamandır beklenen yeni nesil AI dil modeli GPT-4’ü duyurdu. Sistemin yetenekleri hâlâ değerlendiriliyor, ancak araştırmacılar ve uzmanlar beraberindeki materyalleri inceledikçe, birçoğu belirli bir özellikle ilgili hayal kırıklığını dile getirdi: Ana şirketin ismine rağmen, GPT-4 bir açık AI modeli.

OpenAI, GPT-4 için pek çok kıyaslama ve test sonucunun yanı sıra bazı ilgi çekici demolar paylaştı, ancak sistemi eğitmek için kullanılan veriler, enerji maliyetleri veya onu oluşturmak için kullanılan belirli donanım veya yöntemler hakkında esasen hiçbir bilgi sunmadı. .

AI araştırması açık mı yoksa kapalı mı olmalı? Uzmanlar aynı fikirde değil

AI topluluğundaki pek çok kişi, bu kararı eleştirdi ve bunun şirketin bir araştırma kuruluşu olarak kuruluş ahlakını baltaladığını ve başkalarının onun çalışmalarını tekrar etmesini zorlaştırdığını belirtti. Belki daha da önemlisi, bazıları bunun GPT-4 gibi yapay zeka sistemlerinin oluşturduğu türden tehditlere karşı koruma geliştirmeyi zorlaştırdığını söylüyor, bu şikayetler yapay zeka dünyasında artan gerilim ve hızlı ilerlemenin olduğu bir zamanda geliyor.

“‘Açık’ yapay zekayı kapatabileceğimizi düşünüyorum: GPT-4’ü tanıtan 98 sayfalık makale, eğitim setlerinin içeriği hakkında *hiçbir şey* ifşa etmediklerini gururla beyan ediyor.” tweet attı Nomic AI’da bilgi tasarımından sorumlu Başkan Yardımcısı Ben Schmidt, konuyla ilgili bir ileti dizisinde.

Burada Schmidt, GPT-4’teki bir bölümden bahsediyor. teknik rapor şu şekilde okunur:

GPT-4 gibi büyük ölçekli modellerin hem rekabet ortamı hem de güvenlik etkileri göz önüne alındığında, bu rapor mimari (model boyutu dahil), donanım, eğitim hesaplaması, veri kümesi oluşturma, eğitim yöntemi veya benzerleri hakkında daha fazla ayrıntı içermez.

Ile konuşmak Sınır OpenAI’nin baş bilim adamı ve kurucu ortağı Ilya Sutskever, bir röportajda bu noktayı genişletti. Sutskever, OpenAI’nin GPT-4 hakkında daha fazla bilgi paylaşmamasının – rekabet korkusu ve güvenlikle ilgili korkular – nedenlerinin “açık” olduğunu söyledi:

Sutskever, “Rekabetçi manzara cephesinde – dışarısı rekabetçi,” dedi. “GPT-4’ü geliştirmek kolay değil. Bu şeyi üretmek için hemen hemen tüm OpenAI’nin çok uzun süre birlikte çalışması gerekti. Ve aynı şeyi yapmak isteyen pek çok şirket var, bu yüzden rekabetçi açıdan bakıldığında, bunu alanın olgunlaşması olarak görebilirsiniz.”

“Güvenlik tarafında, güvenlik tarafının henüz rekabetçi taraf kadar belirgin bir sebep olmadığını söyleyebilirim. Ama değişecek ve temelde aşağıdaki gibi. Bu modeller çok güçlü ve giderek daha güçlü hale geliyorlar. Bir noktada, bu modellerle büyük zararlar vermek isteniyorsa oldukça kolay olacaktır. Yetenekler yükseldikçe, onları ifşa etmek istememeniz mantıklı geliyor.”

“Birkaç yıl içinde açık kaynak yapay zekanın akıllıca olmadığının herkes için tamamen açık olmasını bekliyorum.”

Kapalı yaklaşım, 2015 yılında mevcut CEO Sam Altman, Tesla CEO’su Elon Musk (2018’de yönetim kurulundan istifa eden) ve Sutskever’in de aralarında bulunduğu küçük bir grup tarafından kurulan OpenAI için belirgin bir değişiklik. bir tanıtım blog yazısı, Sutskever ve diğerleri, kuruluşun amacının “hissedarlar yerine herkes için değer yaratmak” olduğunu ve bunu yapmak için alandaki diğer kişilerle “özgürce işbirliği yapacağını” söylediler. OpenAI, kâr amacı gütmeyen bir kuruluş olarak kuruldu, ancak daha sonra, şu anda özel işletme lisanslarına sahip olduğu Microsoft başta olmak üzere milyarlarca dolarlık yatırımı güvence altına almak için “sınırlı kâr” haline geldi.

OpenAI’nin araştırmasını paylaşma yaklaşımını neden değiştirdiği sorulduğunda Sutskever, “Yanılmışız. Düz, yanılmışız. Bizim gibi siz de bir noktada buna inanırsanız, AI – AGBen – son derece, inanılmaz derecede güçlü olacağım, o zaman açık kaynak yapmak mantıklı değil. Bu kötü bir fikir… Birkaç yıl içinde açık kaynak yapay zekanın akıllıca olmadığının herkes için tamamen açık olmasını bekliyorum.”

Yapay zeka topluluğundaki bu konudaki görüşler farklılık gösteriyor. Özellikle, GPT-4’ün lansmanı, Facebook sahibi Meta tarafından geliştirilen LLaMA adlı başka bir AI dil modelinin çevrimiçi olarak sızdırılmasından ve açık kaynak araştırmasının tehditleri ve faydaları hakkında benzer tartışmaları tetiklemesinden sadece haftalar sonra geldi. GPT-4’ün kapalı modeline verilen ilk tepkilerin çoğu olumsuzdu.

Ile konuşmak Sınır DM aracılığıyla, Nomic AI’dan Schmidt, GPT-4’ün hangi veriler üzerinde eğitildiğini görememenin, sistemin güvenli bir şekilde nerede kullanılabileceğini bilmeyi ve düzeltmeler bulmayı zorlaştırdığını açıkladı.

Schmidt, “İnsanların bu modelin nerede işe yaramayacağına dair bilinçli kararlar verebilmesi için, onun ne işe yaradığına ve hangi varsayımların ortaya çıktığına dair daha iyi bir fikre sahip olmaları gerekiyor” dedi. “Karlı iklimlerde tecrübesi olmayan, sürücüsüz bir arabaya güvenmem; bu gerçek durumlarda kullanıldığında ortaya çıkabilecek bazı delikler veya başka sorunlar olması muhtemeldir.”

Lightning AI CEO’su ve açık kaynak aracı PyTorch Lightning’in yaratıcısı William Falcon, söylenmiş GirişimBeat kararı iş açısından anladığını söyledi. (“Bunu bir şirket olarak yapmaya hakkınız var.”) Ancak, hareketin daha geniş topluluk için “kötü bir emsal” oluşturduğunu ve zararlı etkileri olabileceğini de söyledi.

“Bu model ters giderse … topluluk nasıl tepki vermeli?”

“Eğer bu model ters giderse, ki ters gidecek, onu zaten halüsinasyonlarla gördünüz ve size yanlış bilgi veriyor, toplum nasıl tepki verecek?” dedi Şahin. “Etik araştırmacıları nasıl gidip gerçekten çözümler önerebilir ve bu yol işe yaramazsa, belki de bu diğer şeyi yapmak için ince ayar yapabilirler?”

Bazıları tarafından OpenAI’nin GPT-4’ün yapısının ayrıntılarını gizlemesi için öne sürülen bir başka neden de yasal sorumluluktur. Yapay zeka dil modelleri, birçoğunun (önceki GPT sistemleri dahil) web’den bilgi sıyırdığı devasa metin veri kümeleri üzerinde eğitilir. muhtemelen telif hakkıyla korunan materyal içerir. İnternetten içerik konusunda da eğitilmiş AI görüntü oluşturucular, tam da bu nedenle yasal zorluklarla karşı karşıya kaldılar; şu anda birkaç firma bağımsız sanatçılar ve stok fotoğraf sitesi Getty Images tarafından dava ediliyor.

OpenAI’nin eğitim verilerini paylaşmamasının nedenlerinden birinin bu olup olmadığı sorulduğunda Sutskever, “Bu konudaki görüşüm, eğitim verilerinin teknoloji olduğu yönünde. Bu şekilde görünmeyebilir, ama öyle. Ve eğitim verilerini ifşa etmememizin sebebi, parametre sayısını ifşa etmememizin sebebi ile hemen hemen aynı.” Sutskever, OpenAI’nin eğitim verilerinin korsan materyal içermediğini kesin olarak ifade edip edemeyeceği sorulduğunda yanıt vermedi.

Sutskever, açık kaynak modellerinin güvenlik önlemleri geliştirmeye yardımcı olduğu fikrinin “değeri” olduğu konusunda OpenAI’yi eleştirenlerle aynı fikirdeydi. “Daha fazla insan bu modelleri incelerse, onlar hakkında daha fazla şey öğreniriz ve bu iyi olur” dedi. Ancak OpenAI, bu nedenlerle bazı akademik ve araştırma kurumlarına sistemlerine erişim sağladı.

Araştırmayı paylaşma konusundaki tartışma, birden çok cephede baskı oluşturan yapay zeka dünyası için çılgınca bir değişim zamanında geliyor. Kurumsal tarafta, Google ve Microsoft gibi teknoloji devleri, ürünlerine AI özellikleri eklemek için acele ediyor ve genellikle önceki etik kaygıları bir kenara bırakıyor. (Microsoft kısa bir süre önce kendini yapay zeka ürünlerinin etik yönergelere uymasını sağlamaya adamış bir ekibi işten çıkardı.) Araştırma tarafında, teknolojinin kendisi görünüşte hızla gelişiyor ve yapay zekanın ciddi ve yakın bir tehdit haline geldiğine dair korkuları ateşliyor.

Birleşik Krallık düşünce kuruluşu The Center for Long-Term Resilience’ın yapay zeka politikası başkanı Jess Whittlestone, bu çeşitli baskıları dengelemenin ciddi bir yönetişim zorluğu oluşturduğunu ve üçüncü taraf düzenleyicileri dahil etmesi gerekeceğini söylediği bir zorluk olduğunu söyledi.

“Bu kararları vermek bireysel şirketlere bağlı olmamalı.”

Whittlestone, “Bu AI yeteneklerinin çok hızlı hareket ettiğini görüyoruz ve genel olarak bu yeteneklerin toplum olarak onlara uyum sağlayabileceğimizden daha hızlı ilerlemesinden endişe duyuyorum” dedi. Sınır. OpenAI’nin GPT-4 hakkında daha fazla ayrıntı paylaşmama nedenlerinin iyi olduğunu, ancak AI dünyasında gücün merkezileştirilmesi konusunda da geçerli endişeler olduğunu söyledi.

Whittlestone, “Bu kararları vermek tek tek şirketlere düşmemeli” dedi. “İdeal olarak, buradaki uygulamaları kodlamamız ve ardından belirli modellerle ilişkili riskleri ve bunları dünyaya yaymanın mantıklı olup olmadığını incelemede daha büyük bir rol oynayan bağımsız üçüncü taraflara sahip olmamız gerekiyor.”





genel-2