Kuruluşlar, seçmenleri belirli şekillerde davranmaya teşvik etmek için ChatGPT gibi yapay zeka dil modellerini kullanabilir mi?
Senatör Josh Hawley, OpenAI CEO’su Sam Altman’a bu soruyu bir toplantıda sordu. 16 Mayıs 2023, ABD Senatosu duruşması yapay zeka üzerine. Altman, bazı kişilerin seçmenlerle bire bir etkileşimde bulunmak, ikna etmek ve manipüle etmek için dil modellerini kullanabileceğinden gerçekten endişe duyduğunu söyledi.
Altman ayrıntı vermedi, ancak aklında bu senaryoya benzer bir şey olabilirdi. Kısa bir süre sonra, politik teknoloji uzmanlarının Clogger adlı bir makine geliştirdiğini hayal edin – bir kara kutuda politik bir kampanya. Clogger durmaksızın tek bir hedefin peşinden koşar: Clogger Inc.’in hizmetlerini satın alan kampanyanın adayının bir seçimde galip gelme şansını en üst düzeye çıkarmak.
Facebook, Twitter ve YouTube gibi platformlar, kullanıcıların daha fazla zaman harca Clogger’ın yapay zekasının kendi sitelerinde farklı bir amacı olacaktı: insanların oy verme davranışını değiştirmek.
Clogger nasıl çalışır?
Olarak siyaset bilimci ve bir hukuk bilgini Teknoloji ve demokrasinin kesişimini inceleyen kişiler olarak, Clogger gibi bir şeyin, ölçeği ve potansiyel olarak etkinliğini önemli ölçüde artırmak için otomasyonu kullanabileceğine inanıyoruz. davranış manipülasyonu ve mikro hedefleme teknikleri siyasi kampanyaların 2000’lerin başından beri kullandığı. Tıpkı reklamverenler tarama ve sosyal medya geçmişinizi kullanır Clogger, artık ticari ve siyasi reklamları ayrı ayrı hedeflemek için size ve diğer yüz milyonlarca seçmene ayrı ayrı dikkat eder.
Mevcut son teknoloji algoritmik davranış manipülasyonuna göre üç ilerleme sunacaktır. İlk olarak, dil modeli size kişisel olarak uyarlanmış mesajlar (metinler, sosyal medya ve e-posta, belki de resimler ve videolar dahil) üretecekti. Reklamverenler stratejik olarak nispeten az sayıda reklam yerleştirirken, ChatGPT gibi dil modelleri, bir kampanya boyunca kişisel olarak sizin için sayısız ve başkaları için milyonlarca benzersiz mesaj oluşturabilir.
İkincisi, Clogger adlı bir teknik kullanırdı. pekiştirmeli öğrenme oyunuzu değiştirme olasılığı giderek artan bir dizi mesaj oluşturmak için. Takviyeli öğrenme, bir hedefe nasıl ulaşılacağını öğrenmek için bilgisayarın harekete geçtiği ve hangisinin daha iyi çalıştığı hakkında geri bildirim aldığı bir makine öğrenimi, deneme yanılma yaklaşımıdır. Go, Satranç ve birçok video oyunu oynayabilen makineler herhangi bir insandan daha iyi pekiştirmeli öğrenmeyi kullanmışlardır.
Takviyeli öğrenme nasıl çalışır?
Üçüncüsü, bir kampanya boyunca Clogger’ın mesajları, makinenin önceki gönderilerine verdiğiniz yanıtları ve başkalarının fikirlerini değiştirmek konusunda öğrendiklerini hesaba katacak şekilde gelişebilir. Clogger, zamanla sizinle – ve diğer milyonlarca insanla – dinamik “sohbetler” yürütebilir. Clogger’ın mesajları şuna benzer olacaktır: sizi takip eden reklamlar farklı web sitelerinde ve sosyal medyada.
AI’nın doğası
Üç özellik daha – veya hatalar – kayda değer.
İlk olarak, Clogger’ın gönderdiği mesajlar içerik olarak politik olabilir veya olmayabilir. Makinenin tek amacı oy payını en üst düzeye çıkarmaktır ve muhtemelen bu amaca ulaşmak için hiçbir insan kampanyacının düşünemeyeceği stratejiler geliştirecektir.
Bir olasılık, olası muhalif seçmenlere, aldıkları siyasi mesajları gömmek için spor veya eğlenceyle ilgili siyasi olmayan tutkuları hakkında bilgi göndermektir. Başka bir olasılık, rakiplerin mesajlarıyla aynı zamana denk gelecek şekilde zamanlanmış itici mesajlar – örneğin idrarını tutamama reklamları – göndermektir. Bir diğeri de, seçmenlerin sosyal medyadaki arkadaş gruplarını, sosyal çevrelerinin adayını desteklediği hissini vermek için manipüle etmektir.
İkincisi, Clogger’ın gerçeğe saygısı yoktur. Aslında neyin doğru neyin yanlış olduğunu bilmenin hiçbir yolu yoktur. Dil modeli “halüsinasyonlar” bu makine için sorun değil çünkü amacı doğru bilgi sağlamak değil, oyunuzu değiştirmek.
Üçüncüsü, çünkü bu bir kara kutu türü yapay zekainsanların kullandığı stratejileri bilmesinin hiçbir yolu yoktur.
Açıklanabilir yapay zeka alanı, insanların nasıl çalıştıklarını anlayabilmesi için birçok makine öğrenimi modelinin kara kutusunu açmayı hedefliyor.
tıkanıklık
Cumhuriyetçi başkanlık kampanyası 2024’te Clogger’ı konuşlandıracaksa, Demokrat kampanya muhtemelen aynı şekilde, belki de benzer bir makineyle yanıt vermek zorunda kalacak. Dogger deyin. Kampanya yöneticileri bu makinelerin etkili olduğunu düşünürlerse, başkanlık yarışı Clogger’a karşı Dogger’a kadar inebilir ve kazanan, daha etkili makinenin müşterisi olur.
Siyaset bilimciler ve uzmanların, yapay zekalardan birinin veya diğerinin neden üstün geldiği hakkında söyleyecek çok şeyi olacaktır, ancak muhtemelen kimse gerçekten bilmeyecektir. Başkan, politika önerileri veya siyasi fikirleri daha fazla Amerikalıyı ikna ettiği için değil, daha etkili yapay zekaya sahip olduğu için seçilmiş olacak. Günü kazanan içerik, adaylardan veya partilerden ziyade, yalnızca zafere odaklanan, kendine ait hiçbir siyasi fikri olmayan bir yapay zekadan gelirdi.
Bu çok önemli anlamda seçimi bir kişiden çok bir makine kazanabilirdi. Demokrasinin tüm olağan faaliyetleri -konuşmalar, reklamlar, mesajlar, oy kullanma ve oy sayımı- gerçekleşmiş olsa bile, seçim artık demokratik olmayacaktır.
Yapay zeka tarafından seçilen başkan daha sonra iki yoldan birine gidebilir. Cumhuriyetçi veya Demokrat parti politikalarını izlemek için seçim kisvesini kullanabilirdi. Ancak parti fikirlerinin, insanların neden bu şekilde oy kullandıklarıyla çok az ilgisi olabileceğinden – Clogger ve Dogger politika görüşlerini umursamıyor – başkanın eylemleri mutlaka seçmenlerin iradesini yansıtmayabilir. Seçmenler, siyasi liderlerini ve politikalarını özgürce seçmek yerine yapay zeka tarafından manipüle edilmiş olurdu.
Başkan için başka bir yol, makinenin yeniden seçilme şansını en üst düzeye çıkaracağını öngördüğü mesajları, davranışları ve politikaları takip etmesidir. Bu yolda, başkanın iktidarı elinde tutmanın ötesinde belirli bir platformu veya gündemi olmayacaktır. Başkanın Clogger tarafından yönlendirilen eylemleri, seçmenlerin gerçek çıkarlarına ve hatta başkanın kendi ideolojisine hizmet etmekten ziyade seçmenleri manipüle etme olasılığı en yüksek olanlar olacaktır.
Clogocracy’den Kaçınmak
Adaylar, kampanyalar ve danışmanların tümü bu tür siyasi YZ’nin kullanımından vazgeçerse, YZ’nin seçim manipülasyonundan kaçınmak mümkün olacaktır. Bunun olası olmadığına inanıyoruz. Politik olarak etkili kara kutular geliştirilseydi, onları kullanmanın cazibesi neredeyse karşı konulamaz olurdu. Gerçekten de siyasi danışmanlar, adaylarının kazanmasına yardımcı olmak için bu araçları mesleki sorumluluklarının gerektirdiği şekilde kullanmayı pekâlâ görebilirler. Ve bir aday böylesine etkili bir aracı bir kez kullandığında, rakiplerin tek taraflı olarak silahsızlanarak direnmesi pek beklenemezdi.
Gelişmiş gizlilik koruması yardımcı olurdu. Clogger, bireyleri hedeflemek, onları ikna etmek veya manipüle etmek için özel mesajlar oluşturmak ve onları bir kampanya boyunca izleyip yeniden hedeflemek için büyük miktarda kişisel veriye erişime bağlı olacaktır. Şirketlerin veya politika yapıcıların makineyi reddettiği bu bilgilerin her bir parçası, makineyi daha az etkili hale getirecektir.
Güçlü veri gizliliği yasaları, yapay zekayı manipülatif olmaktan uzaklaştırmaya yardımcı olabilir.
Bir başka çözüm de seçim komisyonlarında yatıyor. Bu makineleri yasaklamaya veya ciddi şekilde düzenlemeye çalışabilirler. Orada bir şiddetli tartışma böyle olup olmadığı hakkında “kopya” konuşması, doğası gereği politik olsa bile düzenlenebilir. ABD’nin aşırı ifade özgürlüğü geleneği pek çok önde gelen akademisyenin bunu yapamayacağını söylemesine yol açar..
Ancak Birinci Değişikliğin korumasını otomatik olarak bu makinelerin ürününü kapsayacak şekilde genişletmek için hiçbir neden yoktur. Ulus, makinelere hak vermeyi seçebilir, ancak bu, günümüzün zorluklarına dayanan bir karar olmalıdır. yanlış varsayım değil James Madison’ın 1789’daki görüşlerinin yapay zekaya uygulanması amaçlanmıştı.
Avrupa Birliği düzenleyicileri bu yönde ilerliyor. Politika yapıcılar, Avrupa Parlamentosu’nun Yapay Zeka Yasası taslağını “kampanyalarda seçmenleri etkilemek için yapay zeka sistemlerini” belirleyecek şekilde revize etti. “yüksek riskli” olarak ve düzenleyici incelemeye tabidir.
Daha küçük olsa da, anayasal olarak daha güvenli bir adım, halihazırda kısmen tarafından kabul edilmiştir. Avrupa internet düzenleyicileri ve Kaliforniya, botların kendilerini insan olarak göstermelerini yasaklamak içindir. Örneğin, düzenleme, kampanya mesajlarının, içerdikleri içerik insanlar yerine makineler tarafından üretildiğinde sorumluluk reddi beyanlarıyla birlikte gönderilmesini gerektirebilir.
Bu, reklam sorumluluk reddi gerekliliklerine benzer – “Kongre Komitesi için Sam Jones tarafından ödendi” – ancak yapay zeka kaynağını yansıtacak şekilde değiştirildi: “Yapay zeka tarafından oluşturulan bu reklamın ücreti Kongre Komitesi için Sam Jones tarafından ödendi.” Daha güçlü bir sürüm şunları gerektirebilir: “Yapay zeka tarafından oluşturulan bu mesaj, Kongre Komitesi için Sam Jones tarafından size gönderiliyor çünkü Clogger bunu yapmanın Sam Jones’a oy verme şansınızı %0,0002 artıracağını tahmin etti.” En azından, seçmenlerin kendileriyle konuşanın bir robot olduğunu bilmeyi hak ettiğine ve nedenini de bilmeleri gerektiğine inanıyoruz.
Clogger gibi bir sistemin olasılığı, insan toplu güçsüzleştirme biraz insanüstü gerektirmeyebilir yapay genel zeka. Milyonlarca insanın pek çok düğmesine etkili bir şekilde basabilecek güçlü yeni araçlara sahip aşırı istekli kampanyacılar ve danışmanlar gerektirebilir.
Yapay zeka, sohbet robotları ve makine öğreniminin geleceği hakkında daha fazla bilgi edinmek ister misiniz? Kapsamımızın tamamına göz atın yapay zekaveya kılavuzlarımıza göz atın En İyi Ücretsiz AI Sanat Üreticileri Ve OpenAI ChatGPT Hakkında Bildiğimiz Her Şey.
Arkon FungVatandaşlık ve Özyönetim Profesörü, Harvard Kennedy Okulu Ve Lawrence LessigHukuk ve Liderlik Profesörü, Harvard Üniversitesi
Bu makale şu adresten yeniden yayınlanmıştır: Konuşma Creative Commons lisansı altında. Okumak orijinal makale.