iyi bir şey var Bugünün yapay zeka yapılarının size söylediklerine güvenmemek için bir nedeniniz var ve bunun zekanın veya insanlığın temel doğasıyla, Wittgensteincı dil temsili kavramlarıyla ve hatta veri kümesindeki yanlış bilgiyle hiçbir ilgisi yok. Önemli olan tek şey, bu sistemlerin bir şey arasında ayrım yapmamasıdır. dır-dir doğru ve bir şey görünüyor doğru. AI’nın bu şeyleri aşağı yukarı birbiriyle değiştirilebilir olarak kabul ettiğini anladığınızda, her şey çok daha anlamlı hale gelir.
Şimdi, bununla ilgili her türlü medya ve konuşmada sürekli olarak gerçekleşen büyüleyici ve geniş kapsamlı tartışmaların hiçbirini kısa devre yapmak istemiyorum. “Zeka” ve “dil”in gerçekte ne olduğunu ve ChatGPT gibi bir şeyin bunlara sahip olup olmadığını sorgulayan ve tartışan filozoflardan dilbilimcilere, mühendislerden bilgisayar korsanlarına, barmenlerden itfaiyecilere kadar herkes var.
Bu harika! Ve bu alandaki en zeki insanlardan bazıları güneşteki anlarının tadını çıkarırken, karşılaştırmalı bebeklerin ağzından yeni bakış açıları geldiğinden çok şey öğrendim.
Ama aynı zamanda, bir bira veya kahve içerken, birisi “tüm bu GPT şeylerine ne demeli, yapay zekanın ne kadar akıllı hale gelmesi biraz korkutucu, değil mi?” Aristoteles, mekanik Türk, algılayıcı veya “İhtiyacınız olan tek şey dikkat” ile nereden başlıyorsunuz?
Bu sohbetlerden biri sırasında, insanların bu sistemlerin neden hem gerçekten harika hem de tamamen güvenilmez olabileceğini anlamalarına yardımcı olduğunu bulduğum basit bir yaklaşıma rastladım ve bazı alanlardaki kullanışlılıklarından ve etrafta yapılan harika sohbetlerden hiçbir şey eksiltmedim. onlara. Yine de vektörler veya matrisler hakkında bir şey duymak istemeyen diğer meraklı, şüpheci insanlarla bu konuda konuşurken bakış açısını yararlı bulursanız diye paylaşacağımı düşündüm.
Anlaşılması gereken ve doğal bir sonuca götüren sadece üç şey vardır.
- Bu modeller, muazzam bir metin veri kümesinde kelimeler ve cümleler vb. Hiç kimse, bu bir isim, bu bir fiil, bu bir tarif, bu bir retorik araç demedi; ancak bunlar kullanım kalıplarında doğal olarak ortaya çıkan şeylerdir.
- Google ve Apple gibi tanıdık yazılım şirketlerinin son on yıldır AI olarak adlandırmasının aksine, bu modellere özel olarak soruları nasıl yanıtlayacakları öğretilmiyor. Onlar temelde API’lere götüren boşlukları olan Mad Lib’lerdir: her soru ya açıklanır ya da genel bir yanıt üretir. Büyük dil modellerinde soru, diğerleri gibi sadece bir dizi kelimedir.
- Bu modeller, yanıtlarında temel bir ifade edici “güven” kalitesine sahiptir. Basit bir kedi tanıma AI örneğinde, bunun bir kedi olmadığından kesinlikle emin olduğu anlamına gelen 0’dan, bunun bir kedi olduğundan kesinlikle emin olduğu anlamına gelen 100’e gider. Tercih ettiğiniz yanıt ölçüsü ne olursa olsun, güven düzeyi 85 veya 90 ise ona “evet, bu bir kedi” demesini söyleyebilirsiniz.
Modelin nasıl çalıştığı hakkında bildiklerimizi göz önünde bulundurduğumuzda, can alıcı soru şu: Güvenilir olan nedir? hakkında? Bir kedinin veya sorunun ne olduğunu bilmez, yalnızca bir eğitim setindeki veri düğümleri arasında bulunan istatistiksel ilişkiler. Küçük bir ince ayar, kedi dedektörünün resmin bir ineği, gökyüzünü veya bir natürmort resmini gösterdiğinden eşit derecede emin olmasını sağlar. Model kendi “bilgisine” güvenemez çünkü üzerinde eğitildiği verinin içeriğini fiilen değerlendirmenin bir yolu yoktur.
AI, cevabından ne kadar emin olduğunu ifade ediyor. kullanıcıya doğru görünüyor.
Bu, kedi dedektörü için ve GPT-4 için de geçerlidir — fark, çıktının uzunluğu ve karmaşıklığı meselesidir. AI, doğru ve yanlış cevap arasında ayrım yapamaz – yalnızca bir tahminde bulunabilir ne kadar olası bir dizi kelime doğru olarak kabul edilmelidir. Bu nedenle, herhangi bir konuda bir otorite olarak değil, dünyanın en kapsamlı bilgili saçmalıkçısı olarak görülmelidir. Seninle dalga geçtiğinin farkında bile değil — bir yanıt üretmek için eğitilmiştir. istatistiksel olarak doğru cevaba benziyorve söyleyecek herhangi bir şey Bu benzerliği geliştirmek için.
AI, soruyu anlamadığı için hiçbir sorunun cevabını bilmiyor. Soruların ne olduğunu bilmiyor. Hiçbir şey “bilmiyor”! Cevap soruyu takip eder çünkü istatistiksel analizinden yola çıkarak, bu kelime dizisinin önceki kelime serisini takip etmesi en olasıdır. Bu kelimelerin gerçek yerlere, insanlara, yerlere vb. atıfta bulunup bulunmadığı önemli değildir – yalnızca bunlar beğenmek Gerçek olanlar.
Yapay zekanın Monet olmayan Monet benzeri bir resim üretebilmesinin nedeni ile aynı – önemli olan tek şey, insanların bir sanat eserini kendisine ait olarak tanımlamasına neden olan tüm özelliklere sahip olmasıdır. Bugünün yapay zekası, olgusal yanıtlara “Nilüferler”e yaklaştığı gibi yaklaşıyor.
Şimdi, bunun orijinal veya çığır açan bir kavram olmadığını eklemek için acele ediyorum – temelde stokastik papağanı veya deniz altı ahtapotunu açıklamanın başka bir yolu. Bu problemler, çok zeki insanlar tarafından çok erken tespit edildi ve teknoloji konularıyla ilgili yorumları geniş çapta okumak için harika bir neden oluşturuyor.
Ancak günümüzün sohbet robotu sistemleri bağlamında, insanların sezgisel olarak bu yaklaşımı benimsediğini gördüm: modeller gerçekleri veya kavramları anlamıyor, ancak kelimeler arasındaki ilişkiler ve yanıtları bir yanıtın “sanatçı izlenimi”. Amaçları, aşağı indiğinizde, boşluğu doldurmaktır. inandırıcı bir şekildeOlumsuz doğru şekilde. Verdiği yanıtlara temelde güvenilemeyecek olmasının nedeni budur.
Tabii bazen, hatta çoğu zaman, cevabı dır-dir doğru! Ve bu bir tesadüf değil: birçok soru için en doğru görünen cevap doğru cevaptır. Bu modelleri bu kadar güçlü ve tehlikeli yapan da budur. Milyonlarca kelime ve belgenin sistematik bir çalışmasından çıkarabileceğiniz o kadar çok şey var ki. Ve “Nilüferler”i tam olarak yeniden yaratmanın aksine, gerçek bir tepkinin yaklaşık olarak aynı zamanda olgusal olmasına izin veren – ama aynı zamanda tamamen veya kısmen icat edilmiş bir tepkinin eşit veya daha fazla görünmesini sağlayan bir dil esnekliği vardır. AI’nın umursadığı tek şey, cevabın doğru taranmasıdır.
Bu, bunun gerçekten bilgi olup olmadığı, modellerin “anladığı” bir şey olup olmadığı, bir tür zeka elde edip etmedikleri, zekanın ne olduğu gibi konulardaki tartışmalara açık kapı bırakır. Wittgenstein’ı getirin!
Ayrıca, gerçeğin gerçekten önemli olmadığı durumlarda bu araçları kullanma olasılığını da açık bırakır. Yazar tıkanmasını aşmak için bir açılış paragrafının 5 çeşidini oluşturmak istiyorsanız, bir yapay zeka vazgeçilmez olabilir. Nesli tükenmekte olan iki hayvan hakkında bir hikaye uydurmak veya pokemon hakkında bir sone yazmak istiyorsanız, gidin. Yanıtın gerçeği yansıtması çok önemli olmadığı sürece, büyük bir dil modeli istekli ve yetenekli bir ortaktır ve tesadüfen değil, insanların onunla en çok eğlendiği yer burasıdır.
Yapay zekanın nerede ve ne zaman yanlış yaptığını tahmin etmek çok ama çok zordur çünkü modeller çok büyük ve opaktır. Bir kıta büyüklüğünde bir kart kataloğu hayal edin, robotlar tarafından yüz yıllık bir süre boyunca organize edildi ve güncellendi, ilk prensiplerden hareketle ortaya çıktılar. İçeri girip sistemi anlayabileceğinizi mi sanıyorsunuz? Zor soruya doğru, kolay soruya yanlış cevap verir. Neden? Şu anda bu, ne AI’nın ne de yaratıcılarının cevaplayamadığı bir soru.
Bu gelecekte, hatta belki de yakın gelecekte değişebilir. Her şey o kadar hızlı ve öngörülemez bir şekilde ilerliyor ki hiçbir şey kesin değil. Ancak şimdilik bu, akılda tutulması gereken yararlı bir zihinsel modeldir: Yapay zeka buna inanmanızı ister ve şansını artırmak için her şeyi söyler.