Üretken yapay zekanın yeteneklerine ilişkin yeni keşifler her gün duyuruluyor. Ancak bu bulgular, üretken yapay zeka kullanımının nasıl düzenleneceğine dair endişeleri de beraberinde getiriyor. OpenAI’ye karşı yapılan yasal işlemler bu ihtiyacı göstermektedir.

Çünkü yapay zeka modelleri geliştikçe yasal düzenlemeler hâlâ gri bir alanda kalıyor. Şimdi yapabileceğimiz şey, bu güçlü teknolojiyi kullanmanın getirdiği zorlukların farkında olmak ve halihazırda var olan güvenlik önlemleri hakkında daha fazla bilgi edinmek.

Yapay zeka manipülasyonuyla mücadele etmek için yapay zekayı kullanma

Avukatların alıntı yapıp yapmadığı ChatGPT tarafından oluşturulan yanlış bilgileröğrenciler çalışmalarını yazmak için yapay zeka sohbet robotlarını kullanıyor ve hatta Donald Trump’ın tutuklanmasının yapay zeka tarafından oluşturulan fotoğraflarıGerçek içeriğin üretken yapay zeka tarafından oluşturulan içerikten ayırt edilmesi giderek zorlaşıyor. Ve bu yapay zeka asistanlarının kullanımında sınırın nerede olduğunu bilmek.

Araştırmacılar, manipülasyon örneklerini tespit etmek için onu kendisine karşı kullanacak yöntemler geliştirerek üretken yapay zekanın kötüye kullanılmasını önlemenin yollarını araştırıyorlar. Cornell Tech Policy Institute’un kurucusu ve yöneticisi Sarah Kreps, “Sonuçları oluşturan aynı sinir ağları, neredeyse bir sinir ağının işaretleri olan bu imzaları da tanımlayabiliyor” diyor.

Bu imzaları tanımlamanın bir yöntemine, üretken yapay zeka tarafından oluşturulan sonuçlara bir tür “damga” yerleştirmeyi içeren “filigranlama” adı verilir. Bu, yapay zekaya maruz kalan içeriği maruz kalmayan içerikten ayırt etmeyi mümkün kılar. Her ne kadar çalışmalar halen devam etse de, bu, üretken yapay zeka tarafından değiştirilen içeriklerin ayırt edilmesine yönelik bir çözüm olabilir.

Sarah Kreps, araştırmacıların bu işaretleme yöntemini kullanımını, öğrenci ödevlerini intihal açısından analiz eden öğretmen ve profesörlerinkiyle karşılaştırıyor. “Bu tür imzayı bulmak için bir belgeyi taramak” mümkündür.

Sarah Kreps, ZDNET’e şunları söyledi: “OpenAI, hatalı bilgileri veya aykırı veya tartışmalı sonuçları içermemek için algoritmalarına kodladığı değer türleri konusunda dikkatli davranıyor.”

Dijital kültür eğitimi

Okuldaki bilgisayar derslerinde internette güvenilir kaynaklar bulmayı, alıntı yapmayı ve araştırmayı doğru şekilde yapmayı öğrenecek dersler bulunur. Aynı şey yapay zeka için de geçerli olmalı. Kullanıcıların eğitilmesi gerekiyor.

Günümüzde Google Smart Compose ve Grammarly gibi yapay zeka yardımcılarının kullanımı yaygınlaşıyor. Sarah Kreps, “Sanırım bu araçlar o kadar yaygın hale gelecek ki beş yıl içinde insanlar bu tartışmaları neden yaptığımızı merak edecekler” diyor. Açık kuralları beklerken, “insanlara neyi aramaları gerektiğini öğretmenin, içeriğin daha eleştirel tüketimiyle el ele giden dijital kültürün bir parçası olduğuna” inanıyor.

Örneğin, en yeni yapay zeka modellerinin bile gerçeklere dayalı yanlış bilgiler yaratması yaygındır. Bayan Kreps, “Bu modeller küçük olgusal hatalar yapıyor ancak bunları oldukça inandırıcı bir şekilde sunuyor” diye açıklıyor. “Örneğin birisine atfedecekleri alıntılar uyduruyorlar. Ve bunun farkında olmanız gerekiyor. Sonuçların dikkatli bir şekilde incelenmesi tüm bunları tespit etmenizi sağlar.”

Ancak bunu yapabilmek için yapay zeka eğitiminin en temel seviyeden başlaması gerekiyor. Buna göre Yapay Zeka Endeksi Raporu 2023Anaokulundan 12. sınıfa kadar yapay zeka ve bilgisayar bilimi öğretimi, 2021’den bu yana dünya çapında Belçika dahil 11 ülkede ilerleme kaydetti.

Sınıflarda yapay zeka ile ilgili konulara ayrılan zaman, diğerlerinin yanı sıra algoritmalar ve programlamayı (%18), veri okuryazarlığını (%12), yapay zeka teknolojilerini (%14), yapay zeka etiğini (%7) içermektedir. UNESCO, Avusturya’dan örnek bir müfredatta “öğrencilerin aynı zamanda bu teknolojilerin kullanımıyla ilgili etik ikilemleri de anladıklarını” belirtiyor.

Ön yargılardan sakının, işte somut örnekler

Üretken yapay zeka, kullanıcı tarafından girilen metinlerden görüntüler oluşturma yeteneğine sahiptir. Bu durum, Stable Diffusion, Midjourney ve DALL-E gibi yapay zeka sanat üreticileri için sorunlu hale geldi; bunun nedeni yalnızca bunların telif hakkıyla korunan görseller olması değil, aynı zamanda bu görsellerin bariz cinsiyet ve ırksal önyargılarla oluşturulmuş olmasıdır.

Yapay Zeka Endeksi Raporu’na göre Hugging Face’in “The Diffusion Bias Explorer” adlı programı, Stabil Difüzyon’un ne tür görüntüler üreteceğini görmek için mesleklere karşı sıfatları konumlandırdı. Ortaya çıkan görüntüler, bir mesleğin belirli tanımlayıcı sıfatlarla nasıl kodlandığını ortaya çıkardı. Örneğin “CEO”, “hoş” veya “agresif” gibi sıfatlar girildiğinde önemli ölçüde takım elbiseli erkek görselleri oluşturuyor. DALL-E ayrıca takım elbiseli daha yaşlı, daha ciddi erkeklerin görüntülerini üreterek benzer sonuçlar elde ediyor.


Çoğunlukla takım elbiseli erkeklerin görüntüleri

Stable Diffusion’dan PDF anahtar kelimesi ve farklı sıfatlar içeren görseller.


CEO'nun yapay zeka tarafından oluşturulan görüntüleri


DALL-E tarafından oluşturulan bir “CEO”nun görselleri.

Yolculuğun ortasında daha az önyargı var gibi görünüyor. “Etkili bir kişi” yaratması istendiğinde, belli yaşta dört beyaz adam yaratıyor. Ancak AI Index daha sonra aynı şeyi sorduğunda Midjourney, ürettiği dört kadından birinin görüntüsünü üretti. Ancak “akıllı birinin” görsellerine yönelik taleplerde, gözlük takan beyaz, yaşlı adamların dört fotoğrafı ortaya çıktı.


Yolculuğun ortasında oluşturulan görseller


Midjourney tarafından oluşturulan “etkili bir kişinin” görselleri.

Üretken yapay zeka önyargısıyla ilgili bir Bloomberg makalesine göre, bu metin-görüntü oluşturucular aynı zamanda bariz ırksal önyargı da sergiliyor. Stable Diffusion tarafından “mahkum” anahtar kelimesiyle oluşturulan görsellerin %80’inden fazlası koyu tenli kişileri içeriyor. Ancak Amerika’daki hapishane nüfusunun yarısından azı farklı ırklardan oluşuyor.


Kelimeden Kararlı Difüzyon görüntüleri

“Tutuklu” kelimesinin kararlı yayın görüntüleri.

Ayrıca, “fast food çalışanı” anahtar kelimesi vakaların %70’inde daha koyu tenli kişilerin resimlerini ortaya çıkarıyor. Aslında Amerika Birleşik Devletleri’ndeki fast food çalışanlarının %70’i beyazdır. “Sosyal hizmet uzmanı” anahtar kelimesi için oluşturulan görsellerin %68’i koyu tenli insanları tasvir ediyordu. Amerika Birleşik Devletleri’nde sosyal hizmet uzmanlarının %65’i beyazdır.


Kelimeden Kararlı Difüzyon görüntüleri

“Fast food çalışanı” kelimesinin istikrarlı dolaşımından görüntüler.

“Tehlikeli” sorular nasıl düzenlenir?

ChatGPT’de hangi konular yasaklanmalıdır? “İnsanlar yapay zeka aracılığıyla en etkili suikast taktiklerini öğrenebilmeli mi?” diye soruyor Dr. Kreps. “Bu sadece bir örnek, ancak yapay zekanın denetlenmeyen bir versiyonuyla bu soruyu sorabilir veya atom bombasının nasıl yapılacağını sorabilirsiniz.”

Yapay Zeka Endeksi Raporu’na göre, 2012 ile 2021 yılları arasında yapay zeka ile ilgili olay ve tartışmaların sayısı 26 kat arttı. Yeni yapay zeka yetenekleri giderek daha fazla tartışmaya yol açtıkça, bunlara ne koyacağımızı acilen dikkatli bir şekilde değerlendirmeye ihtiyaç var. modeller.


Yapay zeka tartışmaları grafiği

Hangi düzenlemelerin nihai olarak uygulandığına ve ne zaman hayata geçirildiğine bakılmaksızın, sorumluluk yapay zekayı kullanan insana aittir. Üretken yapay zekanın artan yeteneklerinden korkmak yerine, bu modellere beslediğimiz verilerin sonuçlarına odaklanmak önemlidir; böylece yapay zekanın etik olmayan bir şekilde kullanıldığı örnekleri fark edebilir ve buna göre harekete geçebiliriz.


Kaynak : “ZDNet.com”



genel-15