Dünya nüfusunun üçte birinden fazlası bu yıl oy kullanmaya hazırlanırken OpenAI, teknolojisinin seçimler üzerindeki etkisine ilişkin endişeleri hafifletmeyi umuyor. Seçimlerin yapılması planlanan ülkeler arasında ABD, Pakistan, Hindistan, Güney Afrika ve Avrupa Parlamentosu yer alıyor.

“Yapay zeka sistemlerimizin güvenli bir şekilde oluşturulduğundan, dağıtıldığından ve kullanıldığından emin olmak istiyoruz. Her yeni teknoloji gibi bu araçlar da faydalar ve zorluklarla birlikte geliyor.” OpenAI Pazartesi günü bir blog yazısında şunu yazdı:. “Bunlar aynı zamanda emsalsizdir ve araçlarımızın nasıl kullanıldığı hakkında daha fazla şey öğrendikçe yaklaşımımızı geliştirmeye devam edeceğiz.”

Özellikle Microsoft tarafından desteklenen OpenAI’nin 2022’nin sonlarında ChatGPT’yi tanıtmasından bu yana, üretken yapay zeka (genAI) araçlarının demokratik süreçleri bozmak için potansiyel olarak kötüye kullanılmasına ilişkin endişeler artıyor.

Open AI aracı, insan benzeri metin oluşturma yetenekleriyle bilinir. Ve başka bir araç olan DALL-E, genellikle “derin sahtekarlıklar” olarak adlandırılan, son derece gerçekçi, fabrikasyon görüntüler üretebilir.

OpenAI seçimlere hazırlanıyor

OpenAI, ChatGPT’nin seçimle ilgili belirli sorgular için kullanıcıları CanIVote.org’a yönlendireceğini söyledi. Şirket ayrıca, DALL-E teknolojisini kullanarak yapay zeka tarafından oluşturulan görsellerin şeffaflığını artırmaya odaklanıyor ve bu tür fotoğraflara, bunların yapay zeka tarafından oluşturulduğunu belirten bir “cr” simgesi eklemeyi planlıyor.

Şirket ayrıca ChatGPT platformunu, uygun atıf ve bağlantılar da dahil olmak üzere gerçek zamanlı küresel haber raporlamayla entegre ederek geliştirmeyi planlıyor. Haber girişimi, Alman medya grubu Axel Springer ile geçen yıl yapılan anlaşmanın genişletilmesi niteliğinde. Bu anlaşma kapsamında ChatGPT kullanıcıları, Axel Springer’in çeşitli medya kanallarından seçilmiş küresel haber içeriğinin özetlenmiş versiyonlarına erişim elde edecek.

Bu önlemlere ek olarak şirket, görüntülerde değişiklik yapıldıktan sonra bile DALL-E tarafından oluşturulan içeriği tanımlamaya yönelik teknikler de geliştiriyor.

Yapay zeka ile siyasetin karıştırılmasına ilişkin artan endişeler

GenAI’nın siyasette nasıl kullanılması gerektiğine dair evrensel bir kural yok. Geçtiğimiz yıl Meta, siyasi kampanyaların reklamlarında genAI araçlarını kullanmasını yasaklayacağını ve politikacıların bu tür kullanımları reklamlarında açıklamalarını zorunlu kılacağını açıklamıştı. Benzer şekilde YouTube, tüm içerik oluşturucuların, videolarının yapay zeka ile oluşturulanlar da dahil olmak üzere “gerçekçi” ancak değiştirilmiş medya içerip içermediğini açıklaması gerektiğini söyledi.

Bu arada, ABD Federal Seçim Komisyonu (FCC), “diğer adayları veya siyasi partileri sahtekarlıkla yanlış tanıtmaya” karşı mevcut yasaların yapay zeka tarafından oluşturulan içerik için geçerli olup olmadığı üzerinde tartışıyor. (Konuyla ilgili resmi bir karar bekleniyor.)

Yanlış ve aldatıcı bilgilerin seçimlerde her zaman bir faktör olduğunu söyleyen Lisa Schirch,

Richard G. Starmann Notre Dame Üniversitesi Barış Çalışmaları Kürsüsü. Ancak genAI, çok daha fazla insanın daha gerçekçi sahte propaganda yaratmasına olanak tanıyor.

Schirch, düzinelerce ülkenin zaten sahte hesaplar oluşturmak, sahte paylaşımlar oluşturmak ve sosyal medya üzerinden yanlış ve aldatıcı bilgiler yaymak için binlerce kişiyi istihdam eden siber savaş merkezleri kurduğunu söyledi. Örneğin, Slovakya seçimlerinden iki gün önce, bir politikacının seçime hile karıştırmaya çalıştığını gösteren sahte bir ses kaydı yayımlandı.

‘Siyasi kutuplaşmanın yanan ateşinde benzin’ gibi

“Sorun sadece yanlış bilgi değil; Schirch, kötü niyetli aktörlerin, adayların öfke ve öfke yaratmak üzere tasarlanmış duygusal tasvirlerini yaratabilmeleridir” diye ekledi. “Yapay zeka botları, ne tür siyasi reklamların ikna edici olabileceğine dair tahminlerde bulunmak için çevrimiçi ortamda büyük miktarda materyali tarayabilir. Bu anlamda yapay zeka, halihazırda yanan siyasi kutuplaşma ateşine atılan benzindir. Yapay zeka, kamuoyunun ikna edilmesini ve manipülasyonunu en üst düzeye çıkarmak için tasarlanmış materyaller oluşturmayı kolaylaştırıyor.”

George Washington Üniversitesi Siyasal İletişimde Etik Projesi direktörü Peter Loge, genAI ve dikkat çekici manşetlerle ilgili en büyük endişelerden birinin derin sahtekarlıklar ve görüntüler içerdiğini söyledi. Daha önemli tehdit, anında benzer içeriğe sahip sonsuz sayıda mesaj oluşturabilen ve dünyayı sahte ürünlerle doldurabilen büyük dil modellerinden (LLM’ler) kaynaklanmaktadır.

“LLM’ler ve üretken yapay zeka, sosyal medyayı, yorum bölümlerini, editöre mektupları, kampanyalara gönderilen e-postaları vb. saçmalıklarla doldurabilir” diye ekledi. “Bunun en az üç etkisi var; birincisi, siyasi saçmalıkların katlanarak artması; bu da daha da kötümserliğe yol açabilir ve adayların, iddiaların bir bot tarafından oluşturulduğunu söyleyerek gerçek kötü davranışları reddetmelerine olanak tanıyabilir.

Loge, “‘Kime inanacaksın, bana mı, yalancı gözlerine mi, yoksa bilgisayarınızın yalan söyleyen LLM’sine mi?’ diye yeni bir döneme girdik” dedi Loge.

En kısa sürede daha güçlü korumalara ihtiyaç var

Siber güvenlik firması Mine’ın CEO’su Gal Ringel’e göre mevcut korumalar, genAI’nın bu yılki seçimlerde rol oynamasını engelleyecek kadar güçlü değil. Bir ülkenin altyapısı saldırıları caydırabilse veya ortadan kaldırabilse bile, genAI tarafından oluşturulan çevrimiçi yanlış bilgilerin yaygınlığının, insanların yarışı nasıl algıladığını etkileyebileceğini ve muhtemelen nihai sonuçları etkileyebileceğini söyledi.

Ringel, “Amerika’da topluma güven şu anda o kadar düşük bir noktada ki yapay zekanın kötü aktörler tarafından benimsenmesi orantısız derecede güçlü bir etkiye sahip olabilir ve bunun için daha iyi ve daha güvenli bir internet oluşturmanın ötesinde gerçekten hızlı bir çözüm yok” diye ekledi.

Carnegie Mellon Üniversitesi’nden CyLab profesörü Kathleen M. Carley, sosyal medya şirketlerinin meşru söylemi korumaya özen gösterirken yapay zeka tarafından oluşturulan içerikten kaynaklanan zararı azaltan politikalar geliştirmesi gerektiğini söyledi. Örneğin, seçim yetkililerinin hesaplarını benzersiz simgeler kullanarak kamuya açık olarak doğrulayabilirler. Şirketler ayrıca yaklaşan veya devam eden seçim sonuçlarını inkar eden reklamları da kısıtlamalı veya yasaklamalıdır. Ayrıca yapay zeka tarafından oluşturulan seçim reklamlarını yapay zeka tarafından üretilmiş olarak etiketlemeli, böylece şeffaflığı artırmalıdırlar.

Carley, “Yapay zeka teknolojileri sürekli gelişiyor ve yeni güvenlik önlemlerine ihtiyaç var” diye ekledi. “Ayrıca AI, nefreti yayanların tespit edilmesi, nefret söyleminin tespit edilmesi ve seçmen eğitimine ve eleştirel düşünceye yardımcı olan içerik oluşturulmasına yardımcı olmak için kullanılabilir.”

Telif Hakkı © 2024 IDG Communications, Inc.



genel-13