ChatGPT’nin arkasındaki teknoloji şirketi OpenAI, firmanın yapay zekaya yaklaşımını güvenlik açısından daha sorumlu ve tutarlı hale getirmeyi amaçlayan bir ‘Güvenlik ve Güvenlik Komitesi’ kurduğunu duyurdu.
OpenAI ve komitede yer alacak CEO Sam Altman’ın, genel olarak insan benzeri zekaya benzeyen ve kendi kendine öğrenebilen yapay zekayı elde etmek olarak kabul edilen AGI’ye (Yapay Genel Zeka) ulaşan ilk kişi olmak istediği bir sır değil. . Yakın zamanda GPT-4o’yu halka tanıtan OpenAI, halihazırda AGI’ye bir adım daha yakın olmasını beklediği yeni nesil GPT modelini eğitiyor.
GPT-4o, girdilerle başa çıkabilen ve ses, metin ve görüntülere yanıt verebilen, bir sonraki seviye multimodal (birden fazla ‘modda’ işlem yapabilen) üretken bir yapay zeka modeli olarak 13 Mayıs’ta kamuoyuna tanıtıldı. Genel olarak olumlu bir karşılama ile karşılandı, ancak o zamandan bu yana inovasyonun gerçek yetenekleri, sonuçları ve buna benzer teknolojilerin etrafındaki etik ile ilgili daha fazla tartışma ortaya çıktı.
Bir haftadan biraz daha uzun bir süre önce OpenAI Wired’a onaylandı Yapay zeka modellerinin güvenliğini denetlemekten sorumlu olan önceki ekibinin dağıtıldığını ve mevcut diğer ekiplere yeniden dahil edildiğini söyledi. Bu, OpenAI kurucu ortağı ve baş bilim insanı Ilya Sutskever ve AI güvenlik ‘süper hizalama’ ekibinin eşbaşkanı Jan Leike gibi önemli şirket figürlerinin dikkate değer ayrılışlarının ardından geldi. Ayrılışlarının, OpenAI ve özellikle Altman’ın teknolojilerini sorumlu bir şekilde geliştirmek için yeterince çaba göstermediği ve durum tespiti yapmaktan vazgeçtiği yönündeki endişeleriyle ilgili olduğu bildirildi.
Görünüşe göre bu, OpenAI’ye üzerinde düşünecek çok şey verdi ve buna yanıt olarak gözetim komitesini oluşturdu. İçinde duyuru yazısı OpenAI, komitenin oluşturulmasıyla ilgili olarak ‘bu önemli anda güçlü bir tartışmayı’ memnuniyetle karşıladığını da belirtiyor. Komitenin ilk işi önümüzdeki 90 gün boyunca “OpenAI süreçlerini ve güvenlik önlemlerini değerlendirmek ve daha da geliştirmek” ve ardından önerileri şirketin yönetim kuruluyla paylaşmak olacak.
90 gün sonra ne olacak?
Daha sonra kabul edilmesi kararlaştırılan tavsiyeler, “emniyet ve emniyetle tutarlı bir şekilde” kamuya açıklanacak.
Komite, Quora Adam D’Angelo CEO’su Başkan Bret Taylor ve Sony Entertainment’ın eski yöneticisi Nicole Seligman’ın yanı sıra, aralarında Sam Altman’ın da bulunduğu altı OpenAI çalışanından ve araştırmacı ve kurucu ortağı John Schulman’dan oluşacak. OpenAI. Bloomberg’e göreOpenAI, bu süreç kapsamında dış uzmanlara da danışacağını belirtti.
OpenAI’nin benimsediği tavsiyelerin yayınlandığı zamana kadar kararımı saklı tutacağım ve bunların nasıl uygulandığını görebiliyorum, ancak sezgisel olarak OpenAI’nin (veya herhangi bir büyük teknoloji firmasının) güvenliğe ve etiğe öncelik verdiğine dair en fazla güvenim yok. Yapay Zeka yarışını kazanmaya çalıştıkları kadar.
Bu bir utançtır ve genel olarak konuşursak, ne olursa olsun en iyi olmaya çabalayanların, eylemlerinin maliyetini ve etkilerini ve başkalarını – büyük olsa bile – gerçek bir şekilde nasıl etkileyebileceklerini düşünmekte genellikle yavaş olmaları talihsiz bir durumdur. çok sayıda insanın etkilenmesi muhtemeldir.
Yanıldığım kanıtlandığı için mutlu olacağım ve umarım öyleyimdir ve ideal bir dünyada, tüm teknoloji şirketleri, yapay zeka yarışında olsun ya da olmasın, yaptıkları işin etiğini ve güvenliğini önceliklendirmelidir. yenilik için çabaladıkları seviyededir. Şu ana kadar yapay zeka alanında, benim durduğum yerden bakıldığında durum böyle görünmüyor ve gerçek sonuçlar olmadığı sürece, OpenAI gibi şirketlerin genel ahlaklarını veya davranışlarını değiştirmek için bu kadar etkilendiğini görmüyorum.