Perşembe akşamı geç saatlerde Oprah Winfrey, “Yapay Zeka ve Geleceğimiz” başlıklı yapay zeka üzerine özel bir program yayınladı. Konuklar arasında OpenAI CEO’su Sam Altman, teknoloji etkileyicisi Marques Brownlee ve şu anki FBI müdürü Christopher Wray vardı.

Baskın ton şüphecilik ve temkindi.

Oprah, hazırladığı açıklamalarda yapay zeka cininin iyi ya da kötü, şişeden çıktığını ve insanlığın bunun sonuçlarıyla yaşamayı öğrenmesi gerektiğini belirtti.

“Yapay zeka hala kontrolümüzün ve büyük ölçüde… anlayışımızın ötesinde,” dedi. “Ama burada ve hem müttefikimiz hem de rakibimiz olabilecek teknolojiyle yaşayacağız… Biz bu gezegenin en uyumlu yaratıklarıyız. Tekrar uyum sağlayacağız. Ama gözlerinizi gerçek olana dikin. Riskler bundan daha yüksek olamazdı.”

Sam Altman aşırı vaatlerde bulunuyor

Oprah’ın gecedeki ilk röportajında ​​Altman, günümüz yapay zekasının eğitildiği verilerdeki kavramları öğrendiği gibi tartışmalı bir iddiada bulundu.

Oprah’a, “Sisteme bir dizi halinde bin kelime gösteriyoruz ve ondan sonra ne geleceğini tahmin etmesini istiyoruz,” dedi. “Sistem tahmin etmeyi öğreniyor ve sonra orada, altta yatan kavramları öğreniyor.”

Pek çok uzman buna katılmayacaktır.

OpenAI’nin Perşembe günü tanıttığı ChatGPT ve o1 gibi AI sistemleri gerçekten de bir cümledeki en olası sonraki kelimeleri tahmin ediyor. Ancak bunlar sadece istatistiksel makinelerdir — verilerin oluşma olasılığının ne kadar olduğunu desenlere dayanarak öğrenirler. Amaçlılıkları yoktur; yalnızca bilgili bir tahminde bulunurlar.

Altman, günümüz yapay zeka sistemlerinin yeteneklerini abartmış olabilir ancak yapay zeka sistemlerinin güvenlik testlerinin nasıl yapılacağının bulunmasının önemini vurguladı.

“Yapmamız gereken ilk şeylerden biri ve şu anda gerçekleşen şey, hükümetin uçaklar veya yeni ilaçlar için yaptığımız gibi bu sistemlerin güvenlik testlerinin nasıl yapılacağını çözmeye başlamasını sağlamak,” dedi. “Ben şahsen muhtemelen birkaç günde bir hükümetteki biriyle görüşüyorum.”

Altman’ın düzenlemeye yönelik baskısı kişisel çıkar amaçlı olabilir. OpenAI, SB 1047 olarak bilinen Kaliforniya AI güvenlik tasarısına, “yeniliği engelleyeceğini” söyleyerek karşı çıktı. Ancak eski OpenAI çalışanları ve Geoffrey Hinton gibi AI uzmanları, AI gelişimine gerekli güvenlik önlemlerini getireceğini savunarak tasarıyı desteklediler.

Oprah ayrıca Altman’ı OpenAI’nin elebaşı rolü hakkında dürttü. İnsanların ona neden güvenmesi gerektiğini sordu ve o da şirketinin zamanla güven inşa etmeye çalıştığını söyleyerek soruyu büyük ölçüde geçiştirdi.

Altman daha önce şöyle demişti: çok doğrudan İnsanların yapay zekanın dünyaya fayda sağladığından emin olmak için ona veya herhangi bir kişiye güvenmemeleri gerektiğini düşünüyorum.

OpenAI CEO’su daha sonra Oprah’ın kendisine “dünyanın en güçlü ve tehlikeli adamı” olup olmadığını sormasının tuhaf olduğunu söyledi, bir haber başlığının ima ettiği gibi. Katılmıyor, ancak AI’yı insanlık için olumlu bir yöne doğru dürtme konusunda bir sorumluluk hissettiğini söyledi.

Oprah deepfake’ler hakkında

Ancak tahminler ve varsayımlar sizi oldukça ileriye götürebilir; bunu OpenAI’nin Sora gibi yapay zeka destekli video üreteçleri gösteriyor.

Özel program sırasında bir noktada Brownlee, Oprah’a Sora’dan örnek görüntüler gösterdi. “Şimdi, bunun parçalarına baktığınızda bir şeylerin pek de doğru olmadığını söyleyebilirsiniz,” dedi.

“Hayır, yapamam” diye yanıtladı Oprah.

Sunum, Wray’in yapay zeka deepfake teknolojisiyle ilk tanıştığı anı anlattığı röportaja geçiş niteliğindeydi.

“Bir konferans odasındaydım ve bir sürü [FBI] İnsanlar bana yapay zeka destekli deepfake’lerin nasıl yaratılabileceğini göstermek için bir araya geldiler,” dedi Wray. “Ve daha önce hiç söylemediğim ve asla söylemeyeceğim şeyleri söylediğim bir videomu oluşturmuşlardı.”

Wray, yapay zeka destekli cinsel şantajın giderek yaygınlaştığını söyledi. Binaen Siber güvenlik şirketi ESET’e göre, yapay zeka teknolojisinin de etkisiyle 2022-2023 yılları arasında cinsel şantaj vakalarında %178’lik bir artış yaşandı.

“Birisi akran gibi davranarak bir genci hedef alıyor,” diyor Wray, ardından çocuğu karşılığında gerçek resimler göndermeye ikna etmek için yapay zeka tarafından oluşturulmuş uzlaşmacı resimler kullanıyor. Aslında, Nijerya’da bir klavyenin arkasında bir adam var ve resimleri aldıktan sonra çocuğu şantajla tehdit ediyorlar ve eğer ödeme yapmazsan hayatını mahvedecek bu resimleri paylaşacağız diyorlar.”

Wray ayrıca yaklaşan ABD başkanlık seçimleri etrafındaki yanlış bilgilendirmeye de değindi. “Panik yapmanın zamanı olmadığını” iddia ederken, “Amerika’daki herkesin” “AI kullanımına yönelik yoğun bir odaklanma ve dikkat duygusu getirmesi” ve AI’nın “kötü adamlar tarafından hepimize karşı nasıl kullanılabileceği” konusunda göreve sahip olduğunu vurguladı.

Wray, “Sosyal medyada Topeka’dan Bill veya Dayton’dan Mary gibi görünen kişilerin aslında Pekin veya Moskova’nın dışında bulunan bir Rus veya Çin istihbarat görevlisi olduğunu çok sık görüyoruz” dedi.

Gerçekten de bir Statista anket ABD’li katılımcıların üçte birinden fazlasının 2023’ün sonuna doğru önemli konular hakkında yanıltıcı bilgi – veya yanlış bilgi olduğundan şüphelendikleri şey – gördüğünü buldu. Bu yıl, adaylar VP Kamala Harris ve eski başkan Donald Trump’ın yanıltıcı AI tarafından oluşturulan görüntüleri, X dahil olmak üzere sosyal ağlarda milyonlarca görüntüleme aldı.

Bill Gates, yapay zekanın bozulması hakkında

Teknolojik açıdan iyimser bir değişiklik için Oprah, yapay zekanın eğitim ve tıp alanlarına güç katacağı umudunu dile getiren Microsoft kurucusu Bill Gates ile röportaj yaptı.

“Yapay zeka, bir sandalyede oturan üçüncü bir kişi gibidir. [a medical appointment,] Gates, “Bir transkript hazırlıyor, bir reçete öneriyor” dedi. “Ve böylece doktor bir bilgisayar ekranına bakmak yerine sizinle etkileşime giriyor ve yazılım gerçekten iyi bir transkript olduğundan emin oluyor.”

Ancak Gates, kötü eğitimden kaynaklanabilecek önyargı potansiyelini göz ardı etti.

Yakın zamanda bir çalışmak önde gelen teknoloji şirketlerinin konuşma tanıma sistemlerinin, beyaz konuşmacılara kıyasla Siyah konuşmacıların sesini yanlış yazma olasılığının iki kat daha fazla olduğunu gösterdi. Diğer araştırmalar, AI sistemlerinin Siyah ve beyaz insanlar arasında biyolojik farklılıklar olduğuna dair uzun süredir var olan yanlış inançları güçlendirdiğini gösterdi – klinisyenlerin sağlık sorunlarını yanlış teşhis etmesine yol açan yanlışlar.

Gates, yapay zekanın sınıfta “her zaman ulaşılabilir” olabileceğini ve “bilgi seviyeniz ne olursa olsun sizi nasıl motive edeceğini anlayabileceğini” söyledi.

Sınıfların pek çoğu bunu böyle görmüyor.

Geçtiğimiz yaz, okullar ve kolejler intihal ve yanlış bilgi korkuları nedeniyle ChatGPT’yi yasaklamak için acele ettiler. O zamandan beri, bazıları tersine çevrilmiş yasakları. Ancak hepsi GenAI’nin iyiye yönelik potansiyeline ikna olmamış, anketler İngiltere’deki Daha Güvenli İnternet Merkezi’nin yaptığı araştırmaya göre, çocukların yarısından fazlası (%53), kendi yaşlarındaki insanların GenAI’yi olumsuz bir şekilde kullandığını (örneğin, inandırıcı olmayan yanlış bilgiler üretmek veya birini üzmek için kullanılan görseller kullanmak) gördüğünü bildiriyor.

Birleşmiş Milletler Eğitim, Bilim ve Kültür Örgütü (UNESCO) geçen yılın sonlarında itilmiş Hükümetlerin, kullanıcılar için yaş sınırlamaları ve veri koruması ve kullanıcı gizliliği konusunda sınırlamalar getirilmesi de dahil olmak üzere, GenAI’nin eğitimde kullanımını düzenlemesi gerekiyor.





genel-24