Bir Yapay Zeka Ay'ı Nasıl Keşfetmeli? başlıklı makale için resim

Fotoğraf: Alberta Üniversitesi

Yapay zekadaki (AI) hızlı ilerleme, alandaki bazı önde gelen sesleri araştırma molası için çağrıolasılığını artırmak AI güdümlü insan neslinin tükenmesive hatta hükümet düzenlemesi istemek. Endişelerinin merkezinde, AI’nın kontrolünü kaybedeceğimiz kadar güçlü olabileceği fikri var.

Ama daha temel bir sorunu kaçırdık mı?

Nihayetinde yapay zeka sistemleri, insanların daha iyi ve daha doğru kararlar almasına yardımcı olmalıdır. Yine de günümüzün en etkileyici ve esnek yapay zeka araçları bile – ChatGPT gibilerinin arkasındaki büyük dil modelleri gibi – ters etki yapabilir.

Neden? İki önemli zayıflıkları var. Karar vericilerin nedenselliği veya belirsizliği anlamalarına yardımcı olmazlar. Ve büyük miktarlarda veri toplamak için teşvikler yaratırlar ve mahremiyete, yasal ve etik sorulara ve risklere karşı gevşek bir tutumu teşvik edebilirler.

Sebep, sonuç ve güven

ChatGPT ve diğer “temel modeller”, muazzam veri kümeleri arasında gezinmek ve bu verilerde bulunan dil kalıpları veya resimler ile açıklamalar arasındaki bağlantılar gibi faktörler arasındaki ilişkileri belirlemek için derin öğrenme adı verilen bir yaklaşım kullanır. Sonuç olarak enterpolasyonda, yani tahminde bulunmada veya bilinen değerler arasındaki boşlukları doldurmada harikadırlar.

İnterpolasyon, yaratma ile aynı şey değildir. Karmaşık ortamlarda faaliyet gösteren karar vericiler için gerekli olan bilgileri veya içgörüleri üretmez.

Ancak, bu yaklaşımlar büyük miktarda veri gerektirir. Sonuç olarak, kuruluşları muazzam veri havuzları oluşturmaya veya başka amaçlar için toplanan mevcut veri kümeleri arasında gezinmeye teşvik ederler. “Büyük veri” ile uğraşmak, güvenlik, mahremiyet, yasallık ve etik konularında önemli riskler getirir.

Düşük riskli durumlarda, “verilerin ne olacağını önerdiğine” dayalı tahminler inanılmaz derecede yararlı olabilir. Ancak bahisler daha yüksek olduğunda, cevaplamamız gereken iki soru daha var.

İlki, dünyanın nasıl çalıştığıyla ilgili: “Bu sonucu yönlendiren nedir?” İkincisi, dünya hakkındaki bilgimizle ilgilidir: “Bundan ne kadar eminiz?”

Büyük verilerden faydalı bilgilere

Belki de şaşırtıcı bir şekilde, nedensel ilişkileri anlamak için tasarlanmış yapay zeka sistemleri “büyük veriye” ihtiyaç duymaz. Bunun yerine, ihtiyaç duydukları kullanışlı bilgi. Bilginin yararlılığı, elimizdeki soruya, karşılaştığımız kararlara ve bu kararların sonuçlarına verdiğimiz değere bağlıdır.

ABD’li istatistikçi ve yazar Nate Silver’ın deyişiyle, gerçek miktarı topladığımız verilerin hacminden bağımsız olarak yaklaşık olarak sabittir.

Peki çözüm nedir? Süreç, mevcut bilginin çeşitlemelerini üretmek yerine bize gerçekten bilmediğimiz şeyleri söyleyen yapay zeka teknikleri geliştirmekle başlar.

Neden? Çünkü bu, nedenleri ve sonuçları çözmemizi sağlayacak bir sırayla, minimum miktarda değerli bilgiyi belirlememize ve edinmemize yardımcı olur.

Ay’da bir robot

Bu tür bilgi oluşturma AI sistemleri zaten var.

Basit bir örnek olarak, “Ay’ın yüzeyi nasıl görünür?” sorusuna cevap vermesi için Ay’a gönderilen bir robotu ele alalım.

Robotun tasarımcıları, robota ne bulacağına dair önceden bir “inanç” verebilir ve bu inanca ne kadar “güven” duyması gerektiğinin bir göstergesi olabilir. Güven derecesi, inanç kadar önemlidir, çünkü robotun neyi bilmediğinin bir ölçüsüdür.

Robot yere iner ve bir kararla karşı karşıya kalır: hangi yöne gitmeli?

Robotun amacı, Ay’ın yüzeyini olabildiğince çabuk öğrenmek olduğundan, öğrenmesini en üst düzeye çıkaracak yöne gitmelidir. Bu, hangi yeni bilginin robotun arazi hakkındaki belirsizliğini azaltacağı veya robotun bilgisine olan güvenini ne kadar artıracağı ile ölçülebilir.

Robot yeni yerine gidiyor, sensörlerini kullanarak gözlemlerini kaydediyor ve inancını ve ilgili güvenini güncelliyor. Bunu yaparken Ay’ın yüzeyini mümkün olan en verimli şekilde öğrenir.

“Aktif SLAM” (Etkin Eşzamanlı Yerelleştirme ve Haritalama) olarak bilinen buna benzer robotik sistemler ilk kez önerildi. 20 yılı aşkın bir süre önceve onlar hala bir aktif araştırma alanı. İstikrarlı bir şekilde bilgi toplama ve anlayışı güncelleme yaklaşımı, adı verilen istatistiksel bir tekniğe dayanmaktadır. Bayes optimizasyonu.

Bilinmeyen manzaraların haritalanması

Hükümet veya endüstrideki bir karar verici, Ay’daki robottan daha fazla karmaşıklıkla karşı karşıya kalır, ancak düşünce aynıdır. İşleri, bilinmeyen sosyal veya ekonomik manzaraları keşfetmeyi ve haritalamayı içerir.

Diyelim ki tüm çocukları okulda başarılı olmaya ve liseyi bitirmeye teşvik edecek politikalar geliştirmek istiyoruz. Hangi eylemlerin, ne zaman ve hangi koşullar altında bu hedeflere ulaşılmasına yardımcı olacağına dair kavramsal bir haritaya ihtiyacımız var.

Robotun ilkelerini kullanarak bir başlangıç ​​sorusu oluşturuyoruz: “Hangi müdahale(ler) çocuklara en çok yardımcı olacak?”

Daha sonra, mevcut bilgileri kullanarak taslak bir kavramsal harita oluştururuz. Ayrıca bu bilgiye olan güvenimizin bir ölçüsüne ihtiyacımız var.

Daha sonra farklı bilgi kaynaklarını içeren bir model geliştiriyoruz. Bunlar robotik sensörlerden değil, topluluklardan, yaşanmış deneyimlerden ve kayıtlı verilerden elde edilen faydalı bilgilerden olacaktır.

Ardından topluluk ve paydaş tercihlerini içeren analizlere dayanarak “Hangi aksiyonlar hangi koşullarda uygulanmalı?”

Son olarak tartışır, öğrenir, inançları günceller ve süreci tekrarlarız.

Gittikçe öğreniyoruz

Bu, “yaptığımız gibi öğrenme” yaklaşımıdır. Yeni bilgiler elimize geldikçe, önceden belirlenmiş bazı kriterleri en üst düzeye çıkarmak için yeni eylemler seçilir.

Yapay zekanın yararlı olabileceği nokta, bilmediğimiz şeyleri ölçen algoritmalar aracılığıyla hangi bilgilerin en değerli olduğunu belirlemektir. Otomatik sistemler de bu bilgileri insanlar için zor olabilecek bir oranda ve yerlerde toplayabilir ve depolayabilir.

Bunun gibi AI sistemleri, Bayes karar-teorik çerçevesi. Açık varsayımlar üzerine kurulu modelleri açıklanabilir ve şeffaftır. Matematiksel olarak titizdirler ve garantiler sunabilirler.

En iyi müdahaleyi en iyi zamanda yapmaya yardımcı olmak için nedensel yolları tahmin etmek üzere tasarlanmıştır. Ve etkilenen topluluklar tarafından birlikte tasarlanarak ve birlikte uygulanarak insani değerleri birleştirir.

Yasalarımızda reform yapmamız ve potansiyel olarak tehlikeli yapay zeka sistemlerinin kullanımına rehberlik edecek yeni kurallar oluşturmamız gerekiyor. Ancak en başta iş için doğru aleti seçmek de bir o kadar önemlidir.


Yapay zeka, sohbet robotları ve makine öğreniminin geleceği hakkında daha fazla bilgi edinmek ister misiniz? Kapsamımızın tamamına göz atın yapay zekaveya kılavuzlarımıza göz atın En İyi Ücretsiz AI Sanat Üreticileri Ve OpenAI ChatGPT Hakkında Bildiğimiz Her Şey.

Sally CrippsTeknoloji UTS İnsan Teknolojisi Enstitüsü Müdürü, Matematik ve İstatistik Profesörü, Sidney Teknoloji Üniversitesi; Alex FischerOnur Üyesi, Avustralya Ulusal Üniversitesi; Edward SantowProfesör ve Eş-Direktör, İnsan Teknolojisi Enstitüsü, Sidney Teknoloji Üniversitesi; Hadi Mohasel AfşarBaş Araştırmacı Bilim İnsanı, Sidney Teknoloji ÜniversitesiVe Nicholas DavisGelişmekte Olan Teknoloji Endüstrisi Profesörü ve İnsan Teknolojisi Enstitüsü Eş-Direktörü, Sidney Teknoloji Üniversitesi

Bu makale şu adresten yeniden yayınlanmıştır: Konuşma Creative Commons lisansı altında. Okumak orijinal makale.



genel-7