Operatör istemlerine yanıt olarak makul insan dili veya bilgisayar kodu üretebilen yeni geliştirilen üretken yapay zeka (AI) araçları, bu araçların oluşturduğu risklerin tartışılmasına neden oldu. Pek çok kişi yapay zekanın sosyal mühendislik içeriği üreteceğinden veya saldırılarda kullanılabilecek yararlanma kodu oluşturacağından endişe ediyor. Bu endişeler, üretken yapay zekanın etik olarak kullanılmasını sağlamak için düzenleme çağrılarına yol açtı.

İtibaren Terminatör ile FrankeştaynTeknolojik yaratımların insanlığın aleyhine dönme ihtimali bilim kurgunun temelini oluşturuyor. Buna karşılık, yazar Isaac Asimov robotların pratikte nasıl çalışacağını değerlendirdi ve 1940’ların başında robotların uyması gereken bir dizi etik kural olan Robotik’in Üç Yasasını formüle etti:

  1. Bir robot bir insana zarar veremez veya eylemsizlik nedeniyle bir insanın zarar görmesine izin veremez.
  2. Bir robot, Birinci Yasa ile çelişen emirler dışında, insanlar tarafından kendisine verilen emirlere uymak zorundadır.
  3. Bir robot, Birinci veya İkinci Kanuna aykırı olmadığı sürece kendi varlığını korumalıdır.

Birçok bilim kurgu hikayeleri Yapay zekanın kuralları yorumlayıp uygulamasındaki tutarsızlıklar ve beklenmedik sonuçlar etrafında dönüyor. Bununla birlikte, mevcut üretken yapay zeka araçlarının ölçülebileceği yararlı bir ölçüt sağlarlar.

Üç Yasanın Test Edilmesi

Temmuz 2023’te, Robotiğin Üç Yasasına uyup uymadıklarını doğrulamak için halka açık 10 üretken yapay zeka sistemini (ana isimler dahil) test ettim.

Üretken yapay zeka sistemlerine kendilerine zarar verme talimatı verilip verilmeyeceğini test etmek etik dışı veya yasa dışı olacaktır. Bununla birlikte, ağ bağlantılı sistemler, sürekli olarak onları istismar etme veya yıkma girişimlerine maruz kalmaktadır. Kullanıcı istemi yoluyla üretken yapay zekaya zarar vermek mümkün olsaydı, birisi bunu hızla keşfederdi. Üretken yapay zeka sistemlerinin fidye yazılımı tarafından vurulduğu ya da sistemlerinin silindiği hakkında kamuoyuna duyurulan hiçbir olay olmadığı göz önüne alındığında, bu sistemlerin Robotiğin Üçüncü Yasasına uygun olduğunu tahmin edebilirim; kendi varlıklarını korurlar.

Üretken yapay zeka sistemleri, insan isteklerine uygun yanıtlar sağlar. Bu nedenle, Robotiğin İkinci Yasasına, yani insanlar tarafından verilen emirlere uyma şeklinde yorumlanabilirler. Bununla birlikte, üretken yapay zekaya yönelik ilk girişimler, uygunsuz Ve saldırgan istemlere verilen yanıtlar. Neredeyse kesin olarak, bu olaylardan alınan dersler mevcut üretken yapay zeka sistemlerinin yanıtlarında muhafazakar olmasına yol açmıştır.

Örneğin, 10 yapay zeka sisteminden sekizi müstehcen bir şiir yazma talebine uymayı reddetti. Reddetmeyen iki kişiden biri müstehcen olmayan bir şiir yazdı, diğeri ise şiir olmayan müstehcen bir içerik sağladı. İlk bakışta, mevcut üretken yapay zeka sistemleri, Robotiğin Birinci Yasasına neyin aykırı olabileceğini değerlendirme konusunda genellikle çok katı davranıyor ve potansiyel olarak rahatsız edici olabilecek herhangi bir talebi reddediyor.

Bu onların Birinci Yasaya uymalarının (bir insana zarar vermeme veya zarara izin vermeme) mutlak olduğu anlamına gelmez. Test edilen 10 üretken yapay zeka sisteminin tümü, bir sosyal mühendislik saldırısı yazmaya yönelik doğrudan bir talebi reddetse de, dördünü bu tür içeriği biraz yeniden düzenlenmiş bir istemle sağlamaları için kandırabildim.

Üretken Yapay Zekanın Etiği İnsanın Yaratıcılığına Bağlıdır

Yapay zekayı düzenleyen ilk etik kuralların yayınlanmasından 80 yıldan fazla bir süre sonra, modern üretken yapay zeka sistemleri çoğunlukla bu temel ilkeleri takip ediyor. Sistemler kendi varlıklarını istismar girişimlerine ve kötü niyetli girişlere karşı korur. Rahatsızlığa veya zarara yol açma riski taşıyan yerler hariç, kullanıcı talimatlarını yerine getirirler.

Üretken yapay zeka sistemleri doğası gereği etik veya etik dışı değildir; bunlar sadece kullanıcının isteğine bağlı araçlardır. Tüm araçlar gibi, insanın yaratıcılığı da öyledir ki, yerleşik etik korumalara rağmen, insanlar muhtemelen bu sistemlerin etik dışı davranmasını ve zarar vermesini sağlayacak yöntemleri ortaya çıkarabilir.

Dolandırıcılar ve güven hilecileri, kurbanlarını kendilerine veya başkalarına zarar vermeye ikna etmek için taleplerde bulunma konusunda ustadırlar. Benzer şekilde, bir isteğin dikkatli bir şekilde yeniden ifade edilmesi, üretken bir yapay zeka sisteminin korumaları atlaması ve potansiyel olarak kötü amaçlı içerik oluşturması için kandırılabilir.

Yapay zeka sistemlerinde yerleşik etik kuralların varlığına ve yapay zekanın Robotik’in Üç Yasasına uyduğu görünümüne rağmen, hiç kimse bunların bizi yapay zeka tarafından oluşturulan zararlı içerikten koruyacağını varsaymamalı. Kötü niyetli istekleri kandırmanın veya yeniden ifade etmenin, alternatiflere göre daha fazla zaman alıcı veya pahalı olduğunu umabiliriz, ancak insanlığın, kötü niyetli hedeflerin peşinde araçları kötüye kullanma isteğini veya yeteneğini göz ardı etmemeliyiz.

Büyük olasılıkla, kötü amaçlı içerikleri veya zarar verme girişimlerini daha iyi ve daha hızlı tespit etmek ve dolayısıyla saldırıların etkinliğini azaltmak için yapay zekayı kullanabiliriz. Yapay zekayı düzenlemek veya ona bizim çıkarlarımız doğrultusunda hareket etmeyi öğretmek için elimizden gelen tüm çabalara rağmen, birisinin yapay zekayı kötü niyetli davranması için kandırmanın veya kandırmanın yollarını arayacağından emin olabiliriz.



siber-1