Birkaç kısa ay içinde, tamamen bilgisayarlar tarafından yazılan ikna edici haber makaleleri fikri, saçmalık olarak algılanan bir gerçekliğe dönüştü. zaten bazı okuyucuların kafasını karıştırıyor. Artık yazarlar, editörler ve kural koyucular yapay zeka tarafından oluşturulan metnin haber akışlarında giderek daha dağınık görüneceği bir dünyada güveni sürdürmek için standartlar geliştirmek için çabalıyorlar.
CNET gibi büyük teknoloji yayınları zaten elleriyle üretken AI kurabiye kavanozuna yakalandı ve olgusal hatalara eğilimli ChatGPT tarzı sohbet botları tarafından yazılan makalelerde düzeltmeler yapmak zorunda kaldık. Diğer ana akım kurumlar, örneğin Insider, haber makalelerinde AI kullanımını araştırıyor en azından şimdilik, özellikle daha fazla kısıtlama ile. Yelpazenin daha distopik ucunda, düşük kaliteli içerik çiftlikleri, haber hikayelerini yaymak için zaten sohbet robotlarını kullanıyor, bazıları potansiyel olarak tehlikeli olgusal yalanlar içerir. Bu çabaların kaba olduğu kabul edilmelidir, ancak teknoloji olgunlaştıkça bu hızla değişebilir.
Yapay zeka şeffaflığı ve hesap verebilirliği ile ilgili sorunlar, özel bir öneri algoritması kullanan ve 150’den fazla ülkede kullanılabilen bir haber keşif uygulaması olan SmartNews’in Güven ve Güvenlik Başkanı Arjun Narayan’ın zihnini meşgul eden en zor konular arasında yer alıyor. belirtilen hedef “dünyanın kaliteli bilgisini ihtiyacı olan insanlara ulaştırmak”. SmartNews’ten önce Narayan, ByteDance ve Google’da Güven ve Güvenlik Lideri olarak çalıştı. Bazı açılardan, bugün yapay zeka haber oluşturucularının ortaya çıkardığı ani görünen zorluklar, Narayan’ın yirmi yılı aşkın bir süredir denetlenmesine yardım ettiği öneri algoritmalarının ve diğer yapay zeka ürünlerinin kademeli olarak oluşturulmasından kaynaklanıyor. Narayan, Gizmodo ile içinde bulunduğumuz anın karmaşıklığı, haber kuruluşlarının yapay zeka içeriğine okuyucuların güvenini oluşturacak ve besleyecek şekilde nasıl yaklaşması gerektiği ve üretken yapay zekanın belirsiz yakın geleceğinde neler bekleneceği hakkında konuştu.
Bu röportaj, uzunluk ve netlik için düzenlendi.
Güven ve güvenlik açısından üretken yapay zekanın ortaya çıkardığı en büyük öngörülemeyen zorluklardan bazıları olarak neleri görüyorsunuz?
Birkaç risk var. İlki, AI sistemlerinin doğru şekilde eğitildiğinden ve doğru zemin gerçeğiyle eğitildiğinden emin olmakla ilgilidir. Geriye doğru çalışmak ve belirli kararların neden o şekilde çıktığını anlamaya çalışmak bizim için daha zor. Yapay zeka sistemini eğitmek için hangi veri noktasının girildiğini dikkatli bir şekilde kalibre etmek ve iyileştirmek son derece önemlidir.
Bir yapay zeka bir karar verdiğinde buna biraz mantık atfedebilirsiniz, ancak çoğu durumda bu biraz kara kutu gibidir. Yapay zekanın bir şeyler bulabileceğini ve doğru olmayan hatta var olmayan şeyler uydurabileceğini kabul etmek önemlidir. Endüstri terimi “halüsinasyon” dur. Doğru olan “Hey, elimde yeterli veri yok, bilmiyorum” demek.
Sonra toplum için etkileri vardır. Üretken yapay zeka daha fazla endüstri sektöründe konuşlandırıldıkça aksamalar olacaktır. Bu tür bir teknolojik bozulmayı karşılamak için doğru sosyal ve ekonomik düzene sahip olup olmadığımızı kendimize sormalıyız. Yerinden edilen ve işi olmayan insanlara ne olur? Her şeyin ana akım haline gelmesinden önceki 30 veya 40 yıl daha ne olabilir, şimdi beş yıl veya on yıl. Dolayısıyla bu, hükümetlere veya düzenleyicilere buna hazırlanmaları için fazla zaman vermiyor. Veya politika yapıcıların yerinde korkulukları olması. Bunlar hükümetlerin ve sivil toplumun iyice düşünmesi gereken şeyler.
Haber kuruluşlarının AI kullanarak içerik üretmeye yönelik son çabalarında gördüğünüz bazı tehlikeler veya zorluklar nelerdir?
Hangi hikayelerin tamamen yapay zeka tarafından yazıldığını ve hangilerinin yazılmadığını tespit etmenin zor olabileceğini anlamak önemlidir. Bu ayrım kayboluyor. Mack’in başyazısını nasıl yazdığını öğrenmek için bir yapay zeka modeli eğitirsem, belki de yapay zekanın oluşturduğu bir sonraki makale Mack’in tarzında olacaktır. Henüz o noktada olduğumuzu düşünmüyorum ama pekâlâ gelecek olabilir. Öyleyse gazetecilik etiğiyle ilgili bir soru var. Adil mi? O telif kime ait, o IP kime ait?
Bir tür ilk ilkelerimiz olması gerekiyor. Şahsen yapay zekanın bir makale oluşturmasında yanlış bir şey olmadığına inanıyorum, ancak bu içeriğin yapay zeka tarafından üretildiği konusunda kullanıcıya şeffaf olmak önemlidir. İçeriğin kısmen veya tamamen yapay zeka tarafından oluşturulduğunu bir imza satırında veya bir açıklamada belirtmemiz bizim için önemlidir. Kalite standardınızı veya yayın standardınızı karşıladığı sürece neden olmasın?
Başka bir ilk ilke: AI’nın halüsinasyon gördüğü veya ortaya çıkan içeriğin olgusal yanlışlıklar içerebileceği pek çok kez vardır. Bence medya ve yayınlar ve hatta haber toplayıcılar için, AI sisteminden çıkan her şeyi düzelten bir editör ekibine veya bir standartlar ekibine veya ona ne demek istiyorsanız ona ihtiyacınız olduğunu anlamanın önemli olduğunu düşünüyorum. Doğruluk için kontrol edin, politik eğilimler için kontrol edin. Hala insan gözetimine ihtiyacı var. Yazım standartları ve değerleri için kontrol ve düzenlemeye ihtiyaç duyar. Bu ilk ilkeler yerine getirildiği sürece, ileriye doğru bir yolumuz olduğunu düşünüyorum.
Bir yapay zeka bir hikaye oluşturup bazı görüş veya analizler enjekte ettiğinde ne yaparsınız? Bir veri kümesindeki bilgileri geriye doğru izleyemezseniz, bir okuyucu bu görüşün nereden geldiğini nasıl anlayabilir?
Tipik olarak, insan yazarsanız ve hikayeyi bir yapay zeka yazıyorsa, insan yine de yazar olarak kabul edilir. Bunu bir montaj hattı gibi düşünün. Yani robotların bir arabayı monte ettiği bir Toyota montaj hattı var. Nihai üründe arızalı bir hava yastığı veya arızalı bir direksiyon simidi varsa, Toyota hava yastığını bir robotun yapıp yapmadığına bakılmaksızın yine de bunun mülkiyetini alır. Nihai çıktı söz konusu olduğunda, sorumlu olan haber yayın organlarıdır. Adını koyuyorsun. Dolayısıyla, yazarlık veya politik eğilim söz konusu olduğunda, yapay zeka modelinin size verdiği fikir ne olursa olsun, hala onu onaylamıyorsunuz.
Burada hala erkendeyiz ama zaten var AI modellerini kullanan içerik gruplarının raporları, reklam geliri elde etmek için düşük kaliteli ve hatta yanıltıcı içerik üretmek için genellikle çok tembel. Bazı yayınlar şeffaf olmayı kabul etse bile, bunun gibi eylemlerin genel olarak haberlere olan güveni kaçınılmaz olarak azaltma riski var mı?
Yapay zeka ilerledikçe, belki de bir şeyin yapay zeka tarafından yazılıp yazılmadığını tespit edebileceğimiz belirli yollar vardır, ancak bu hala çok yenidir. Çok doğru değil ve çok etkili değil. Güven ve güvenlik endüstrisinin, sentetik medyayı sentetik olmayan medyaya karşı nasıl tespit ettiğimiz konusunda yetişmesi gereken yer burasıdır. Videolar için derin sahtekarlıkları tespit etmenin bazı yolları vardır, ancak doğruluk dereceleri farklıdır. Yapay zeka geliştikçe algılama teknolojisinin muhtemelen yetişeceğini düşünüyorum ama bu daha fazla yatırım ve daha fazla keşif gerektiren bir alan.
AI’nın hızlanmasının, sosyal medya şirketlerini içerik denetimi için AI’ya daha fazla güvenmeye teşvik edebileceğini düşünüyor musunuz? Gelecekte insan içerik moderatörü için her zaman bir rol olacak mı?
Nefret söylemi, yanlış bilgilendirme veya taciz gibi her sorun için genellikle insan moderatörlerle el ele çalışan modellerimiz vardır. Daha olgun sorun alanlarından bazıları için yüksek bir doğruluk derecesi vardır; örneğin metinde nefret söylemi. Adil bir dereceye kadar, AI bunu yayınlanırken veya birisi yazarken yakalayabilir.
Bu doğruluk derecesi, yine de tüm sorun alanları için aynı değildir. Dolayısıyla, 100 yıldır var olduğundan beri nefret söylemi için oldukça olgun bir modelimiz olabilir, ancak sağlıkla ilgili yanlış bilgilendirme veya Covid ile ilgili yanlış bilgilendirme için daha fazla yapay zeka eğitimi gerekebilir. Şimdilik, hala çok sayıda insan bağlamına ihtiyacımız olacağını güvenle söyleyebilirim. Modeller henüz yok. Hala döngüde insanlar olacak ve güven ve güvenlik alanında insan-makine öğrenimi sürekliliği devam edecek. Teknoloji her zaman tehdit aktörlerine yetişiyor.
Son aylarda güven ve güvenlik ekiplerinin önemli bir bölümünü vazgeçilebilir oldukları gerekçesiyle işten çıkaran büyük teknoloji şirketleri hakkında ne düşünüyorsunuz?
Beni ilgilendiriyor. Sadece güven ve güvenlik değil, aynı zamanda AI etik ekipleri. Teknoloji şirketlerinin eş merkezli çemberler olduğunu hissediyorum. Mühendislik en içteki çemberdir, oysa İK işe alımı, yapay zeka etiği, güven ve emniyet dış çemberlerdir ve bırakın gitsinler. Yatırımdan vazgeçerken, bokun fana çarpmasını mı bekliyoruz? O zaman yeniden yatırım yapmak veya rotayı düzeltmek için çok mu geç olur?
Yanıldığım kanıtlandığı için mutluyum ama genel olarak endişeliyim. Bu adımlar üzerinde düşünen ve riskleri azaltmak için ona özel boşluk bırakan daha fazla insana ihtiyacımız var. Aksi takdirde, bildiğimiz şekliyle toplum, bildiğimiz şekliyle özgür dünya ciddi bir risk altında olacak. Dürüst olmak gerekirse güvene ve güvenliğe daha fazla yatırım yapılması gerektiğini düşünüyorum.
Bazıları tarafından çağrılan Geoffrey Hinton AI’nın vaftiz babası, o zamandan beri ortaya çıktı ve AI üzerindeki çalışmalarından pişmanlık duyduğunu ve internette neyin doğru olduğunu ayırt etmenin zor olduğu bir döneme hızla yaklaşabileceğimizden korktuğunu açıkça söyledi. Onun yorumları hakkında ne düşünüyorsun?
O [Hinton] bu alanda bir efsanedir. Kim olsa ne dediğini anlardı. Ama söylediği doğru geliyor.
Sizi heyecanlandıran teknoloji için en umut verici kullanım durumlarından bazıları nelerdir?
Geçenlerde babamı parkinsondan kaybettim. 13 yıl onunla savaştı. Parkinson ve Alzheimer’a baktığımda, bu hastalıkların pek çoğu yeni değil ama bunlar hakkında yeterince araştırma ve yatırım yok. Bu araştırmayı bir insan araştırmacının yerine yapay zekanın yaptığını veya yapay zekanın düşüncelerimizin bir kısmını ilerletmeye yardımcı olabileceğini hayal edin. Bu harika olmaz mıydı? Teknolojinin hayatımızı canlandırmada büyük bir fark yaratabileceği yer burası gibi hissediyorum.
Birkaç yıl önce, teknoloji orada olsa bile insan organlarını klonlamayacağımıza dair evrensel bir bildiri vardı. Bunun bir nedeni var. Bu teknoloji ortaya çıkarsa, her türlü etik kaygıyı gündeme getirecektir. Üçüncü dünya ülkelerine insan organları için hasat ettirirsiniz. Bu nedenle, politika yapıcıların bu teknolojinin nasıl kullanılabileceği, hangi sektörlerin onu kullanması ve hangi sektörlerin ulaşamayacağı yerler hakkında düşünmesinin son derece önemli olduğunu düşünüyorum. Özel şirketler karar veremez. Hükümetlerin düşünmesi gereken yer burasıdır.
İyimser veya kötümser dengede, mevcut yapay zeka manzarası hakkında ne düşünüyorsunuz?
Ben bardağın dolu tarafıyım. İyimser hissediyorum ama size şunu söyleyeyim. Yedi yaşında bir kızım var ve sık sık kendi kendime ne tür işler yapacağını soruyorum. 20 yıl içinde, bugün bildiğimiz şekliyle meslekler temelden değişecek. Bilinmeyen bir bölgeye giriyoruz. Ben de heyecanlıyım ve temkinli bir şekilde iyimserim.
Yapay zeka, sohbet robotları ve makine öğreniminin geleceği hakkında daha fazla bilgi edinmek ister misiniz? Kapsamımızın tamamına göz atın yapay zekaveya kılavuzlarımıza göz atın En İyi Ücretsiz AI Sanat Üreticileri Ve OpenAI ChatGPT Hakkında Bildiğimiz Her Şey.