OpenAI CEO’su Sam Altman’ın Çarşamba günü University College London’da konuşmasını izlemek için yüzlerce kişi caddenin derinliklerine kadar uzanıyordu. Bekleyenler gün ışığında şirket ve ChatGPT kullanma deneyimleri hakkında dedikodu yaparken, bir avuç protestocu giriş kapılarının önünde sert bir uyarıda bulundu: OpenAI ve onun gibi şirketler, zarar verme şansı bulamadan önce gelişmiş AI sistemleri geliştirmeyi bırakmalı. insanlık.
“Bak, belki bir dolandırıcı satıyordur. Protestoculardan biri olan Oxford Üniversitesi’nde güneş jeomühendisliği ve varoluşsal risk üzerine çalışan bir öğrenci olan Gideon Futerman, Altman hakkında şunları söyledi: “Ama bu durumda, sistemleri yeterince bilinen zararlar. Muhtemelen onlara bir son vermemiz gerekiyor. Ve eğer haklıysa ve genellikle akıllı olan sistemler kuruyorsa, o zaman tehlikeler çok, çok, çok daha büyük.”
Altman içeride sahneye çıktığında coşkulu bir karşılama aldı. OpenAI CEO’su, geçen hafta ABD’de yaptığı son (ve aynı derecede nazik) senato duruşmasının ardından şu anda bir dünya turunda. Şimdiye kadar Fransa Cumhurbaşkanı Emmanuel Macron, Polonya Başbakanı Mateusz Morawiecki ve İspanya Başbakanı Pedro Sánchez ile bir araya geldi. Amaç iki yönlü görünüyor: ChatGPT’nin neden olduğu AI’ya olan ilgi patlamasının ardından korkuları yatıştırmak ve AI düzenlemesi hakkındaki konuşmaların önüne geçmek.
Londra’da Altman, insanların yapay zekanın etkileri konusunda endişelenmekte haklı olduklarını, ancak kendisine göre yapay zekanın potansiyel faydalarının çok daha büyük olduğunu belirterek tanıdık konuşma noktalarını tekrarladı. Düzenleme ihtimalini yine memnuniyetle karşıladı – ancak yalnızca doğru türden. “Geleneksel Avrupa yaklaşımı ile geleneksel ABD yaklaşımı arasında bir şey” görmek istediğini söyledi. Yani, biraz düzenleme ama çok fazla değil. Çok fazla kuralın küçük şirketlere ve açık kaynak hareketine zarar verebileceğini vurguladı.
“Bu konuyu en az nükleer maddeyi ele aldığımız kadar ciddiye aldığımızdan emin olmak istiyorum.”
“Öte yandan,” dedi, “sanırım çoğu insan, eğer birisi kodu kırar ve bir süper zeka oluşturursa – nasıl tanımlarsanız yapın – – konusunda hemfikirdir. [then] bununla ilgili bazı küresel kurallar uygun … Bunu en azından nükleer maddeyi ele aldığımız kadar ciddiye aldığımızdan emin olmak istiyorum; mega ölçekli sistemler için abilir süper zekayı doğurur.”
OpenAI’yi eleştirenlere göre, aksi takdirde yapay genel zeka veya AGI olarak bilinen süper zekayı düzenlemeye ilişkin bu konuşma retorik bir aldatmacadır – Altman’ın dikkati AI sistemlerinin mevcut zararlarından uzaklaştırması ve kanun koyucuların ve halkın dikkatini bilimle meşgul etmesinin bir yolu -fi senaryoları.
AI Now enstitüsünün genel müdürü Sarah Myers West, Altman gibi insanların “hesap verebilirliği geleceğe doğru konumlandırdığını” söyledi. Sınır geçen hafta. West, bunun yerine, yapay zeka sistemlerinin yarattığı, hatalı tahmine dayalı polislikten ırksal olarak önyargılı yüz tanımaya ve yanlış bilgilerin yayılmasına kadar bilinen mevcut tehditlerden bahsetmemiz gerektiğini söylüyor.
Altman, mevcut zararlar üzerinde fazla durmadı, ancak bir noktada yanlış bilgi konusuna değindi ve konu yanlış bilgi yaymak olduğunda yapay zeka sistemlerinin “etkileşimli, kişiselleştirilmiş, ikna edici yeteneği” konusunda özellikle endişeli olduğunu söyledi. Röportajı yapan yazar Azeem Azhar, böyle bir senaryonun, yapay bir ses kullanarak birini arayan ve alıcıyı bilinmeyen bir sona ikna eden bir AI sistemini içerebileceğini öne sürdü. Altman şunları söyledi: “Bence bu bir meydan okuma olacak ve orada yapılacak çok şey var.”
Ancak gelecekten umutlu olduğunu söyledi. Son derece umutlu. Altman, mevcut AI araçlarının bile dünyadaki eşitsizliği azaltacağına ve “bu teknolojik devrimin diğer tarafında çok daha fazla iş olacağına” inandığını söylüyor.
“Bu teknoloji tüm dünyayı ayağa kaldıracak.”
“Benim temel dünya modelim, zeka maliyetinin ve enerji maliyetinin iki sınırlı girdi, bir nevi dünyanın iki sınırlayıcı reaktifi olduğudur. Ve bunları önemli ölçüde daha ucuza, çok daha erişilebilir hale getirebilirseniz, bu, açıkçası, fakir insanlara zengin insanlardan daha çok yardımcı olur” dedi. “Bu teknoloji tüm dünyayı ayağa kaldıracak.”
Ayrıca, bilim adamlarının giderek daha güçlü hale gelen yapay zeka sistemlerini “uyumlama” yoluyla kontrol altında tutma kapasiteleri konusunda da iyimserdi. (Hizalama, basitçe “yazılımın istemediğimizi değil, istediğimizi yapmasını sağlamak” olarak tanımlanabilecek geniş bir yapay zeka araştırması konusudur.)
Altman, “Süper akıllı sistemlerin hizalanmasının nasıl çalıştığını düşündüğümüz hakkında yayınladığımız birçok fikrimiz var, ancak bunun teknik olarak çözülebilir bir sorun olduğuna inanıyorum” dedi. “Ve şimdi bu cevaba birkaç yıl önce olduğundan daha fazla güveniyorum. Pek iyi olmayacağını düşündüğüm yollar var ve umarım onlardan kaçınırız. Ama dürüst olmak gerekirse, işlerin şu anda gittiği gidişattan oldukça memnunum.”
Ancak konuşmanın dışında protestocular ikna olmadı. Birincisi, UCL’de siyaset bilimi ve etik eğitimi alan bir yüksek lisans öğrencisi olan Alistair Stewart, şunları söyledi: Sınır “gelişmiş sistemlerde bir tür duraklama veya moratoryum” görmek istedi – AI araştırmacıları ve Elon Musk gibi önde gelen teknoloji figürleri tarafından imzalanan yakın tarihli bir açık mektupta savunulan aynı yaklaşım. Stewart, Altman’ın yapay zeka destekli müreffeh bir gelecek vizyonunun yanlış olduğunu düşünmediğini, ancak işleri şansa bırakamayacak kadar “çok fazla belirsizlik” olduğunu söyledi.
Altman bu grubu ikna edebilecek mi? Stewart, OpenAI CEO’sunun sahnede geçirdikten sonra protestocularla konuşmak için dışarı çıktığını ancak Stewart’ın fikrini değiştiremediğini söylüyor. OpenAI’nin, korkuluklarla birlikte AI sistemlerinin yeteneklerini aynı anda geliştirmeyi içeren güvenliğe yaklaşımı hakkında bir dakika kadar sohbet ettiklerini söylüyor.
Stewart, “Bu görüşmeden öncekinden biraz daha endişeli ayrıldım,” dedi. “Bunun işe yarayacağını düşünmesini sağlayacak hangi bilgilere sahip olduğunu bilmiyorum.”