Kimse geleceği teknoloji endüstrisinden daha ustaca satamaz. Savunucularına göre hepimiz “metaverse” içinde yaşayacağız, finansal altyapımızı “web3” üzerine kuracağız ve hayatımızı “yapay zeka” ile güçlendireceğiz. Bu terimlerin üçü de, gerçekliğin ısırmasına rağmen milyarlarca dolar kazandıran seraplardır. Özellikle yapay zeka, düşünen makineler kavramını çağrıştırıyor. Ancak hiçbir makine düşünemez ve hiçbir yazılım gerçekten zeki değildir. Tek başına ifade, tüm zamanların en başarılı pazarlama terimlerinden biri olabilir.

Geçen hafta OpenAI, ChatGPT’nin temelini oluşturan teknolojinin önemli bir yükseltmesi olan GPT-4’ü duyurdu. Sistem, selefinden bile daha insansı geliyor ve doğal olarak zekası hakkındaki fikirleri güçlendiriyor. Ancak GPT-4 ve bunun gibi diğer büyük dil modelleri, ölçeğini tasavvur etmesi zor olan metin veritabanlarını (önceki model için bir trilyon kelimeye yakın) basitçe yansıtıyor. Onu düzeltmelerle yeniden programlayan bir insan ordusunun yardım ettiği modeller, sözcükleri olasılığa dayalı olarak bir araya getiriyor. Bu zeka değil.

Bu sistemler, akla yatkın görünen metinler üretmek üzere eğitilirler, ancak arama motorlarına takılabilecek yeni bilgi kehanetleri olarak pazarlanırlar. GPT-4 hata yapmaya devam ettiğinde bu çılgınlıktır ve yalnızca birkaç hafta önce Microsoft ve Alphabet’in Google’ı, yeni arama motorlarının gerçekler üzerinde hata yaptığı utanç verici demolara maruz kaldı.

Önemli değil: “Sinir ağları” ve “derin öğrenme” gibi terimler, yalnızca bu programların insan benzeri olduğu fikrini desteklemektedir. Sinir ağları hiçbir şekilde insan beyninin kopyası değildir; işleyişinden yalnızca genel olarak ilham alıyorlar. İnsan beynini kabaca 85 milyar nöronla denemeye ve kopyalamaya yönelik uzun süredir devam eden çabaların tümü başarısız oldu. Bilim adamlarının geldiği en yakın nokta, 302 nöronlu bir solucanın beynini taklit etmektir.

Bilgisayar sistemleri hakkında büyülü düşünceyi yaymayan ve bu sistemleri tasarlayan insanları sorumluluklarından kurtarmayan farklı bir sözlüğe ihtiyacımız var. Daha iyi bir alternatif nedir? Makul teknoloji uzmanları yıllarca “AI” yerine “makine öğrenme sistemlerini” koymaya çalıştılar, ancak bu aynı şekilde dilden düşmez.

Eski bir İtalyan politikacı ve teknoloji uzmanı olan Stefano Quintarelli, insanların yapay zeka hakkında sorduğu soruların gülünçlüğünün altını çizmek için “Öğrenme Algoritmalarına ve Makine Çıkarımlarına Yönelik Sistemik Yaklaşımlar” veya SALAMI adlı başka bir alternatif ortaya attı: SALAMI duyarlı mı? SALAMI’nin insanlar üzerinde bir üstünlüğü olacak mı?

Anlamsal bir alternatif için en umutsuz girişim, muhtemelen en doğru olanıdır: “yazılım”.

“Ama,” diye sorduğunuzu duyar gibiyim, “Bu kadar büyülü görünen bir teknolojiyi tarif etmek için biraz mecazi bir steno kullanmanın nesi yanlış?”

Cevap şu ki, makinelere zeka atfetmek onlara insanlardan hak edilmemiş bir bağımsızlık veriyor ve etkilerinin yaratıcılarını sorumluluktan kurtarıyor. ChatGPT’yi “akıllı” olarak görürsek, o zaman San Francisco’daki startup OpenAI’yi, onun yaratıcısını, hatalarını ve önyargılarını hesaba katmaya daha az eğilimli oluruz. Aynı zamanda teknolojinin zararlı etkilerinden muzdarip insanlar arasında kaderci bir uyum yaratır; “AI” işinizi almayacak veya sanatsal yaratımlarınızı çalmayacak olsa da – diğer insanlar alacak.

Meta Platforms’tan Snap’e ve Morgan Stanley’e kadar şirketler, sistemlerine sohbet robotları, metin ve görüntü üreteçleri takmak için acele ettikleri için, sorun artık her zamankinden daha acil. Google ile girdiği yeni silahlanma yarışından güç alan Microsoft, OpenAI’nin hâlâ büyük ölçüde denenmemiş olan dil modeli teknolojisini Word, Outlook ve Excel gibi en popüler iş uygulamalarına koyuyor. Microsoft, yeni özelliği hakkında “Copilot, insanların AI ile çalışma şeklini ve AI’nın insanlarla çalışma şeklini temelden değiştirecek” dedi.

Ancak müşteriler için akıllı makinelerle çalışma vaadi neredeyse yanıltıcıdır. “[AI is] Birinci Körfez Savaşı sırasında ‘akıllı silahlar’ ifadesinin yükselişi, hala mümkün olmayan tamamen kesin hedeflemeye dair kansız bir vizyonu ima ettiği için, mevcut gerçeklikten ziyade bir tür ütopik umudu ifade eden bu etiketlerden biri,” diyor Steven. Poole, kelimelerin ve etiketlerin tehlikeli gücü hakkında Unspeak kitabının yazarı.

Büyük dil modellerindeki önyargıları eleştiren bir makale yayınladıktan sonra Google tarafından kovulan bilgisayar bilimcisi Margaret Mitchell, isteksizce son yıllarda çalışmasının “AI” temelli olduğunu söyledi. “Daha önce… benim gibi insanlar ‘makine öğrenimi’ üzerinde çalıştığımızı söylüyordu. Bu, insanların gözlerini kamaştırmanın harika bir yolu,” diye itiraf etti Cuma günü bir konferans panelinde.

Eski Google meslektaşı ve Dağıtılmış Yapay Zeka Araştırma Enstitüsü’nün kurucusu Timnit Gebru, kendisinin de “AI” demeye ancak 2013 civarında başladığını söyledi: “Söylenecek şey haline geldi.”

Mitchell, “Korkunç ama bunu ben de yapıyorum,” diye ekledi. “Dokunduğum her şeye ‘AI’ diyorum çünkü o zaman insanlar söylediklerimi dinleyecek.”

Ne yazık ki, “AI” kelime dağarcığımıza o kadar yerleşmiş ki, sallamak neredeyse imkansız olacak, zorunlu hava alıntılarını hatırlamak zor. En azından, bu tür sistemlerin yan etkilerinden sorumlu tutulması gereken insan yöneticilere ne kadar bağımlı olduğunu kendimize hatırlatmalıyız.

Yazar Poole, ChatGPT gibi sohbet botlarına ve Midjourney gibi görüntü oluşturuculara “dev intihal makineleri” demeyi tercih ettiğini söylüyor çünkü bunlar esasen orijinal olarak insanlar tarafından yaratılan düzyazı ve resimleri yeniden birleştiriyor. “Anlaşılacağından emin değilim” diyor.

Birden fazla yönden, gerçekten “AI” ile sıkışıp kaldık.

© 2023 Bloomberg LP


Realme, Mini Kapsülün Realme C55’in tanımlayıcı özelliği olmasını istemeyebilir, ancak sonunda telefonun en çok konuşulan donanım özelliklerinden biri olacak mı? Bunu Gadgets 360 podcast’i Orbital’de tartışıyoruz. Orbital şu ​​adreste mevcuttur: spotify, Gaana, JioSaavn, Google Podcast’leri, Apple Podcast’leri, Amazon Müzik ve podcast’lerinizi nereden alırsanız alın.
Ortaklık bağlantıları otomatik olarak oluşturulabilir – ayrıntılar için etik beyanımıza bakın.



genel-8