Geçen hafta sıcak bir dakika için, şimdiden öldürücü yapay zekanın eşiğindeymişiz gibi göründü.

Birkaç haber kaynağı, askeri bir insansız hava aracının, insanın hedefinin önünde durduğuna karar verdikten sonra operatörüne saldırdığını bildirdi. Ancak bunun bir simülasyon olduğu ortaya çıktı. Ve sonra simülasyonun kendisinin olmadığı ortaya çıktı. Bir Hava Kuvvetleri albayı, bir konferansta yanlışlıkla bir düşünce deneyini gerçek olarak tanımlamıştı.

Öyle olsa bile, yalanlar dünyanın yarısını dolaşıyor, gerçek botlarını bağlamadan önce hikaye yapay zekanın insan ırkına yönelik tehdidi hakkındaki kolektif, bilinçsiz endişelerimize sızacak, bu fikir iki “vaftiz babasının uyarıları sayesinde güç kazandı. ” AI ve varoluşsal risk hakkında iki açık mektup.

Kaçak tanrılar ve makineler hakkında kültürümüzün derinliklerine işlemiş korkular tetikleniyor — ancak herkesin sakinleşmesi ve burada gerçekte neler olup bittiğine daha yakından bakması gerekiyor.

Öncelikle, ChatGPT gibi yapay zeka sistemlerinin insani değerlerle daha dikkatli bir şekilde uyumlu hale getirilmesi gerektiğine uzun süredir inanan bilgisayar bilimcileri topluluğunu kabul edelim. AI’yı dürüstlük ve nezaket gibi ilkeleri takip edecek şekilde tasarlarsanız, gelecekte geri dönüp hepimizi öldürmeye çalışma olasılıklarının daha düşük olduğunu öne sürüyorlar. Benim bu bilim adamlarıyla bir sorunum yok.

Ancak son birkaç ayda, bir yok olma tehdidi fikri, kamusal söylemde o kadar sabit hale geldi ki, kayınvalidenizle bir akşam yemeğinde bu konuyu gündeme getirebilir ve herkesin konunun önemi konusunda hemfikir olarak başını sallamasını sağlayabilirsiniz.

İlk bakışta bu gülünç. Ayrıca, iki nedenden dolayı önde gelen yapay zeka şirketleri için harika bir haber:

1) Sonunda o kadar anlaşılmaz hale gelecek ki, onu anlamayı umamayacağımız kadar güçlü bir yapay zeka sistemi hayaleti yaratıyor. Bu kulağa korkutucu gelebilir, ancak aynı zamanda bu sistemleri, yapay zeka sistemlerini satın alma ve dağıtma telaşında daha çekici hale getiriyor. Teknoloji belki bir gün insan ırkını yok edebilir, ancak bu, bugün işinizi ne kadar güçlü bir şekilde etkileyebileceğini göstermiyor mu?

Bu tür paradoksal propaganda geçmişte işe yaradı. Büyük ölçüde OpenAI’nin en büyük rakibi olarak görülen prestijli AI laboratuvarı DeepMind, hayata AGI veya insan yeteneklerini aşabilecek yapay genel zeka oluşturma hedefiyle bir araştırma laboratuvarı olarak başladı. Kurucuları Demis Hassabis ve Shane Legg, on yıldan daha uzun bir süre önce fon aramak için Peter Thiel gibi büyük risk sermayesi yatırımcılarına ilk kez gittiklerinde bu teknolojinin varoluşsal tehdidi konusunda çekingen değildiler. Aslında, riskler hakkında açıkça konuştular ve ihtiyaç duydukları parayı aldılar.

Yapay zekanın dünyayı yok eden yeteneklerini belirsiz şekillerde öne çıkarmak, gelecekteki yapay zekaya sonsuz yetenek ve güç atfederek boşlukları hayal gücümüzle doldurmamıza olanak tanır. Ustaca bir pazarlama taktiği.

2) Önde gelen yapay zeka firmalarının işine zarar verebilecek diğer girişimlerden dikkatleri uzaklaştırır. Bazı örnekler: Avrupa Birliği bu ay, OpenAI’yi ChatGPT’yi geliştirmek için kullanılan telif hakkıyla korunan materyalleri ifşa etmeye zorlayacak AI Yasası adı verilen bir yasayı oyluyor. (OpenAI’den Sam Altman başlangıçta firmasının yasa nedeniyle AB’de “faaliyetini durduracağını” söyledi, sonra geri adım attı.) Bir savunuculuk grubu da yakın zamanda ABD Federal Ticaret Komisyonu’nu OpenAI hakkında bir soruşturma başlatmaya ve şirketi tatmin etmesi için zorlamaya çağırdı. AI sistemlerinin “şeffaf, açıklanabilir” olması için ajansın gereklilikleri [and] adil.”

Şeffaflık, büyük teknoloji firmalarının 2015 ile 2020 arasında daha fazla yatırım yaptığı bir alan olan yapay zeka etiğinin merkezinde yer alır. O zamanlar, Google, Twitter ve Microsoft’un hepsinde, ChatGPT’ye güç verenler gibi yapay zeka sistemlerinin istemeden nasıl devam edebileceğini araştıran güçlü araştırma ekipleri vardı. kadınlara ve etnik azınlıklara yönelik önyargılar, insanların mahremiyetini ihlal etmekte ve çevreye zarar vermektedir.

Yine de araştırmacıları ne kadar çok şey ortaya çıkarırsa, iş modelleri de sorunun o kadar çok parçası gibi görünüyordu. Google AI araştırmacıları Timnit Gebru ve Margaret Mitchell tarafından hazırlanan 2021 tarihli bir makale, işverenleri tarafından oluşturulan büyük dil modellerinin azınlık grupları için tehlikeli önyargılara sahip olabileceğini, bu sorunun opaklıkları nedeniyle daha da kötüleştiğini ve kötüye kullanıma karşı savunmasız olduklarını söyledi. Gebru ve Mitchell daha sonra kovuldu. Microsoft ve Twitter da AI etik ekiplerini dağıtmaya devam etti.

Antropolog ve Cambridge Üniversitesi üyesi Alexa Hagerty’ye göre bu, diğer AI etik araştırmacıları için bir uyarı görevi gördü. Teknoloji firmalarının görüşünü karakterize ederek, “‘Etikle ilgili endişeleri dile getirmek için tutuldunuz’, ancak bizim hoşlanmadıklarımızı gündeme getirmeyin'” diyor.

Sonuç, artık yapay zeka etiği alanı için bir finansman ve dikkat krizi ve yapay zeka sistemlerini denetlemek istiyorlarsa araştırmacıların nereye gitmeleri gerektiği konusundaki kafa karışıklığı, önde gelen teknoloji firmalarının yapay zeka modellerinin nasıl olduğu konusunda daha gizli hale gelmesiyle daha da zorlaşıyor. moda

Bu, felaketten endişe duyanlar için bile bir problem. Bu sistemler şeffaf değilse ve insanların bunları inceleme konusunda uzmanlığı yoksa, gelecekte insanların yapay zekayı kontrol etmesi nasıl beklenebilir?

Genellikle imkansız olarak lanse edilen yapay zekanın kara kutusunu çözme fikri o kadar da zor olmayabilir. Ulusal Bilimler Akademisi’nin hakemli bir dergisi olan Proceedings of the National Academy of Sciences’ta (PNAS) Mayıs 2023’te yayınlanan bir makale, yapay zekanın sözde açıklanabilirlik sorununun şimdiye kadar birçok uzmanın düşündüğü kadar gerçekçi olmadığını gösterdi. .

OpenAI CEO’su Sam Altman gibi yıkıcı yapay zeka riski konusunda uyarıda bulunan teknoloji uzmanları, bunu genellikle belirsiz terimlerle yapıyor. Yine de bu tür kuruluşlar, teknolojilerinin uygarlığı yok etme şansının çok az olduğuna gerçekten inanıyorlarsa, neden en başta onu inşa etsinler? Bu, Silikon Vadisi’nin yapay zeka inşaatçılarının uzun vadeli ahlaki matematiğiyle kesinlikle çelişiyor, bu da sonsuz maliyetli küçük bir riskin büyük bir öncelik olması gerektiğini söylüyor.

Geleceğin belirsiz bir kıyameti hakkında ellerimizi sıkmak yerine şimdi yapay zeka sistemlerine daha yakından bakmak, yalnızca daha mantıklı olmakla kalmıyor, aynı zamanda insanları felaketle sonuçlanan bir olayın olmasını en başta önlemek için daha güçlü bir konuma getiriyor. Yine de teknoloji şirketleri, algoritmaları etrafında şeffaflığı zorlamaktansa, bu uzak olasılık hakkında endişelenmemizi tercih eder.

Yapay zeka ile geleceğimiz söz konusu olduğunda, bugün gerekli olan daha büyük incelemeden bilimkurgunun dikkatimizi dağıtmasına direnmeliyiz.

© 2023 Bloomberg LP


Motorola Edge 40, geçtiğimiz yıl piyasaya sürülen Edge 30’un halefi olarak kısa süre önce ülkede görücüye çıktı. Nothing Phone 1 veya Realme Pro+ yerine bu telefonu satın almalı mısınız? Bunu ve daha fazlasını Gadgets 360 podcast’i Orbital’de tartışıyoruz. Orbital şu ​​adreste mevcuttur: spotify, Gaana, JioSaavn, Google Podcast’leri, Apple Podcast’leri, Amazon Müzik ve podcast’lerinizi nereden alırsanız alın.
Ortaklık bağlantıları otomatik olarak oluşturulabilir – ayrıntılar için etik beyanımıza bakın.



genel-8