TechCrunch, AI odaklı kadın akademisyenlere ve diğerlerine hak ettikleri ve gecikmiş zamanlarını ilgi odağı haline getirmek için, AI devrimine katkıda bulunan olağanüstü kadınlara odaklanan bir dizi röportaj başlatıyor. Yıl boyunca yapay zeka patlaması devam ettikçe, çoğu zaman fark edilmeyen önemli çalışmaları vurgulayan birkaç makale yayınlayacağız. Daha fazla profili buradan okuyun.
Sarah Kreps, ABD dış ve savunma politikasına odaklanan bir siyaset bilimci, ABD Hava Kuvvetleri gazisi ve analistidir. Cornell Üniversitesi’nde hükümet profesörü, Cornell Hukuk Fakültesi’nde yardımcı hukuk profesörü ve West Point Modern Savaş Enstitüsü’nde yardımcı akademisyendir.
Kreps’in son araştırması, OpenAI’nin GPT-4’ü gibi yapay zeka teknolojilerinin özellikle siyasi alandaki potansiyelini ve risklerini araştırıyor. bir görüşe göre kolon Geçen yıl The Guardian için, yapay zekaya daha fazla para akıtıldıkça, yapay zeka silahlanma yarışının sadece şirketler arasında değil, ülkeler arasında da yoğunlaşacağını, yapay zeka politikalarına yönelik zorlukların ise daha da zorlaşacağını yazmıştı.
Soru-Cevap
Kısaca yapay zekaya nasıl başladınız? Sizi sahaya çeken ne oldu?
Ulusal güvenliğe etkileri olan gelişen teknolojiler alanında başladım. Predator drone’un konuşlandırıldığı sırada Hava Kuvvetleri subayıydım ve gelişmiş radar ve uydu sistemlerinde görev almıştım. Dört yılımı bu alanda çalışarak geçirdim, dolayısıyla bir doktora öğrencisi olarak gelişen teknolojilerin ulusal güvenlik üzerindeki etkilerini incelemekle ilgilenmem doğaldı. İlk olarak dronlar hakkında yazdım ve dronlarla ilgili tartışma, elbette yapay zekayı da içeren özerklik sorularına doğru ilerliyordu.
2018 yılında DC’deki bir düşünce kuruluşunun yapay zeka çalıştayındaydım ve OpenAI, geliştirdikleri bu yeni GPT-2 yeteneği hakkında bir sunum yaptı. 2016 seçimlerini ve anadili İngilizce olmayanların dilbilgisi hataları gibi küçük şeyler nedeniyle fark edilmesi nispeten kolay olan yabancı seçim müdahalesini yeni geçmiştik; müdahalenin İngilizce konuşanlardan geldiği göz önüne alındığında bu tür hatalar şaşırtıcı değildi. Rusya destekli İnternet Araştırma Ajansı. OpenAI bu sunumu yaparken, hemen geniş ölçekte inandırıcı dezenformasyon üretme ve ardından mikro hedefleme yoluyla Amerikalı seçmenlerin psikolojisini, bu kişilerin elle içerik yazmaya çalıştıkları zaman mümkün olandan çok daha etkili yollarla manipüle etme olasılığıyla meşgul oldum. ölçeğin her zaman sorun olacağı yer.
OpenAI’ye ulaştım ve onların aşamalı sürüm stratejisinde ilk akademik işbirlikçilerden biri oldum. Özel araştırmam, olası kötüye kullanım durumunu (GPT-2 ve daha sonra GPT-3’ün siyasi içerik oluşturucular olarak güvenilir olup olmadığını) araştırmayı amaçlıyordu. Bir dizi deneyde, halkın bu içeriği güvenilir görüp görmeyeceğini değerlendirdim, ancak aynı zamanda yasa koyucuların bu içeriğe aynı oranlarda yanıt verip vermeyeceğini görmek için gerçek seçim bölgesi mektuplarıyla rastgele seçtiğim “seçim bölgesi mektupları” oluşturduğum geniş bir saha deneyi de gerçekleştirdim. Kandırılıp kandırılamayacaklarını, kötü niyetli aktörlerin büyük ölçekli bir mektup yazma kampanyasıyla yasama gündemini şekillendirip şekillendiremeyeceklerini biliyorlar.
Bu sorular egemen bir demokrasinin ne anlama geldiğinin tam kalbinden vuruldu ve ben tartışmasız bir şekilde bu yeni teknolojilerin demokrasimize yönelik yeni tehditleri temsil ettiği sonucuna vardım.
En çok hangi işten gurur duyuyorsunuz (AI alanında)?
Yaptığım saha deneyinden büyük gurur duyuyorum. Hiç kimse uzaktan benzer bir şey yapmamıştı ve yasama gündemi bağlamında yıkıcı potansiyeli gösteren ilk kişi bizdik.
Ancak ne yazık ki piyasaya hiç sunmadığım araçlarla da gurur duyuyorum. Mevzuatla ilgili gelen e-postaları işleyecek ve seçmenlere anlamlı şekillerde yanıt vermelerine yardımcı olacak bir uygulama geliştirmek için Cornell’deki birkaç bilgisayar bilimi öğrencisiyle çalıştım. ChatGPT’den önce bunun üzerinde çalışıyorduk ve büyük hacimli e-postaları sindirmek ve kendi bölgelerinde veya eyaletlerindeki insanlarla iletişim kuran, zamanı kısıtlı personele yapay zeka desteği sağlamak için yapay zekayı kullanıyorduk. Bu araçların, seçmenlerin siyasete olan ilgisizliği ve aynı zamanda yasa koyucuların zamanına yönelik artan talepler nedeniyle önemli olduğunu düşündüm. Yapay zekayı kamunun ilgisini çeken bu yöntemlerle geliştirmek, siyaset bilimciler ve bilgisayar bilimcileri için değerli bir katkı ve ilginç bir disiplinler arası çalışma gibi görünüyordu. İnsanların bir yapay zeka desteğinin kendilerine yanıt vermesi konusunda nasıl hissedeceklerine ilişkin davranışsal soruları değerlendirmek için bir dizi deney gerçekleştirdik ve toplumun böyle bir şeye hazır olmadığı sonucuna vardık. Ancak fişi çektikten birkaç ay sonra ChatGPT sahneye çıktı ve yapay zeka o kadar yaygın ki bunun etik açıdan şüpheli mi yoksa meşru mu olduğu konusunda nasıl endişelendiğimizi neredeyse merak ediyorum. Ancak yine de meşru kullanım durumuyla ilgili zorlu etik soruları sormamızın doğru olduğunu düşünüyorum.
Erkek egemen teknoloji endüstrisinin ve buna bağlı olarak erkek egemen yapay zeka endüstrisinin zorluklarını nasıl aşıyorsunuz?
Bir araştırmacı olarak bu zorlukları çok şiddetli hissetmedim. Az önce Körfez Bölgesi’ndeydim ve otel asansöründe kelimenin tam anlamıyla asansör konuşmalarını yapan adamlar vardı, bu korkutucu olduğunu görebildiğim bir klişe. Akıl hocaları (erkek ve kadın) bulmalarını, becerilerini geliştirmelerini ve bu becerilerin kendi adına konuşmasına izin vermelerini, zorlukların üstesinden gelmelerini ve dirençli kalmalarını tavsiye ederim.
Yapay zeka alanına girmek isteyen kadınlara ne gibi tavsiyelerde bulunursunuz?
Kadınlar için pek çok fırsat olduğunu düşünüyorum; becerilerini geliştirmeleri ve özgüven sahibi olmaları gerekiyor ve gelişecekler.
Yapay zeka geliştikçe karşı karşıya kalan en acil sorunlardan bazıları nelerdir?
Yapay zeka topluluğunun, yapay zekayı kimin değerlerine veya hangi değerlere uyumlu hale getirmeye çalıştığımıza ilişkin daha derin veya aslında doğru soruları gizleyen “süper hizalama” gibi şeylere odaklanan çok sayıda araştırma girişimi geliştirdiğinden endişeleniyorum. Google Gemini’nin sorunlu sunumu, geliştiricilerin dar bir değerler dizisine uyum sağlamanın, aslında çıktılarda (neredeyse) gülünç tarihsel yanlışlıklara yol açacak şekilde ortaya çıkabilen karikatürünü gösterdi. Bu geliştiricilerin değerlerinin iyi niyetli olduğunu düşünüyorum, ancak bu büyük dil modellerinin insanların siyaset, sosyal ilişkiler ve çeşitli hassas konular hakkındaki düşüncelerini şekillendirecek belirli bir dizi değerle programlandığı gerçeğini ortaya çıkardı. Bu sorunlar varoluşsal risk türünden değildir ancak toplumun dokusunu oluşturur ve bu modellerden sorumlu olan büyük firmalara (örn. OpenAI, Google, Meta vb.) hatırı sayılır bir güç kazandırır.
Yapay zeka kullanıcılarının bilmesi gereken bazı sorunlar nelerdir?
Yapay zeka her yerde yaygınlaştıkça, “güven ama doğrula” dünyasına girdiğimizi düşünüyorum. Hiçbir şeye inanmamak nihilistlik ama yapay zeka tarafından üretilen çok sayıda içerik var ve kullanıcıların içgüdüsel olarak güvendikleri şeyler konusunda gerçekten ihtiyatlı olmaları gerekiyor. Her şeyin doğru olduğunu varsaymadan önce, orijinalliği doğrulamak için alternatif kaynaklar aramak iyidir. Ama sanırım bunu zaten sosyal medya ve yanlış bilgilendirmeyle öğrendik.
Yapay zekayı sorumlu bir şekilde oluşturmanın en iyi yolu nedir?
Geçenlerde bir yazdım parça Nükleer silahları ele almaya başlayan ancak yapay zeka gibi yıkıcı teknolojileri ele alacak şekilde uyarlanan Atom Bilimcileri Bülteni için. Bilim adamlarının nasıl daha iyi kamu görevlileri olabileceğini düşünüyordum ve bir kitap projesi için baktığım bazı tarihsel vakaları birbirine bağlamak istedim. Sorumlu gelişim için destekleyeceğim bir dizi adımı özetlemekle kalmıyor, aynı zamanda yapay zeka geliştiricilerinin sorduğu bazı soruların neden yanlış, eksik veya yanlış yönlendirilmiş olduğunu da anlatıyorum.