Ne bilmek istiyorsun
- Microsoft’un, OpenAI’nin DALL-E görüntü oluşturma teknolojisinin askeri kullanım için ABD Savunma Bakanlığı’na kullanılmasını teklif ettiği bildirildi.
- Bir OpenAI sözcüsü, araçlarının askeri amaçlı kullanımının temel ilkelere ve kullanıcı politikalarına aykırı olduğunu belirterek şirketi bu plandan uzaklaştırdı.
- Bir Microsoft sözcüsü The Intercept’e, Savunma kurumlarının savaş araçlarına DALL-E veya bir OpenAI aracını entegre etmeye karar vermesi halinde bunun OpenAI’nin değil kullanıcı politikalarına tabi olacağını doğruladı.
- Bir teknoloji etiği uzmanı, sivillere zarar vermeden bir savaş yönetim sistemi kurmanın imkansız olduğunu belirtti.
OpenAI’nin yapay zeka destekli görüntü oluşturma aracı DALL-E’nin askeri ilerlemeler için kullanılma ihtimali var. Buna göre KesmekMicrosoft’un, aracı Ekim 2023’teki bir eğitim semineri sırasında ABD Savunma Bakanlığı’na önerdiği bildirildi.
Seminer sırasında Microsoft birkaç yol sundu Hükümet, askeri ilerlemelerini iyileştirmek ve geliştirmek için DALL-E görüntü oluşturma teknolojisinden yararlanabilir; buna “savaş yönetim sistemlerini eğitmek amacıyla görüntüler oluşturmak için DALL-E modellerini kullanmak” da dahildir.
İlginç bir şekilde OpenAI bu planla mesafeli durdu ve hatta Microsoft’un ABD Savunma Bakanlığı’na sunduğu teklife taraf olmadığını belirtti. Şirketten bir sözcü, “OpenAI’nin politikaları, araçlarımızın silah geliştirmek veya kullanmak, başkalarına zarar vermek veya mülkleri yok etmek için kullanılmasını yasaklıyor” yorumunu yaptı. “Bu sunuma dahil değildik ve ABD savunma kurumlarıyla, açıklanan varsayımsal kullanım senaryolarıyla ilgili görüşme yapmadık.”
Bu, ABD Savunma Bakanlığı’nın DALL-E’nin askeri ilerlemeler için kullanılmasına yeşil ışık yakması durumunda Microsoft’un OpenAI politikalarını ihlal edeceği anlamına geliyor. İlginçtir ki bir Microsoft sözcüsü, böyle bir durumda kullanım politikalarının yüklenici firmanın sorumluluğuna gireceğini belirtti.
Her ne kadar Microsoft CEO’su Satya Nadella’nın teknoloji devinin OpenAI ile olan ilişkisi hakkında konuşurken yaptığı yorumlardan sonra bu pek de sürpriz olmasa da:
“Kendi yeteneğimize çok güveniyorduk. Tüm fikri mülkiyet haklarına ve tüm kapasiteye sahibiz. Yani bakın, eğer yarın OpenAI ortadan kaybolursa, açıkçası hiçbir müşterimizin bu konuda endişelenmesini istemiyorum, çünkü sadece ürünlere hizmet etmek için değil, yeniliği sürdürmek için tüm haklara sahibiz. Ama gidip ortaklık içinde yaptığımız şeyi kendimiz yapabiliriz ve böylece insanlarımız var, hesaplamalarımız var, veriler var , Her şeye sahibiz.”
Teknoloji, OpenAI’nin temel ilkelerine ve araçlarına ilişkin kullanıcı politikalarına aykırı olsa da askeri amaçlarla ve savaşta kullanılabilir. OpenAI ve CEO’su Sam Altman yakın zamanda ateş altına alındı ve Elon Musk tarafından açılan bir davayla tokatlandı. Milyarder, OpenAI’nin kurucu misyonuna, yani üretken yapay zekayı dünya çapındaki herkese ulaştırmaya yönelik açık bir ihaneti sıraladı. Ayrıca OpenAI ve Microsoft’un karmaşık ilişkisini de eleştirdi ve görünüşe göre bu durumun artık daha da karmaşık hale geldiğini belirtti. teknoloji devinin kapalı kaynaklı fiili bir yan kuruluşu.
HoloLens’i unutun — Yapay zeka artık askeri savaşta bile yeni dalgadır
Oxford Üniversitesi’nin Blavatnik Hükümet Okulu’ndan teknoloji etiğine önyargılı olan Brianna Rosen’a göre:
“Sivillerin zararına en azından dolaylı olarak katkıda bulunmayacak şekilde bir savaş yönetim sistemi oluşturmak mümkün değil.”
DEVAMINI OKU: ABD ordusu için HoloLens ‘sonraki aşama’ onayı sayesinde ölmedi
ABD Savunma Bakanlığı’nın DALL-E’yi gelişmiş askeri araçlarına entegre edip etmeyeceği henüz doğrulanmasa da Microsoft ve OpenAI’nin aynı sayfada olmaması oldukça endişe verici. Bu, yapay zeka kullanımını yönetmeye ve kontrolden çıkmasını önlemeye yardımcı olacak korkulukların ve ayrıntılı düzenlemelerin eksikliğinin yanı sıra.
Yapay zeka tabanlı görüntü oluşturma araçları da geçmişte çeşitli aksiliklerle karşılaştı. Microsoft, DALL-E’yi Designer’dan (eski adıyla Bing Image Creator) Image Creator’a gönderdikten birkaç gün sonra, aracın görüntüleri oluşturması 1 saate kadar sürdü. Şirket, sorunu, aracın hizmetlerine yönelik artan talebi karşılamaya yetecek GPU eksikliğine indirgedi ve düzeltti.
Yapay zeka destekli araç, birden fazla kullanıcının onu manipüle etmesi ve saldırgan görseller aracılığıyla tartışmalara yol açmasının ardından Microsoft sansürünü artırana kadar birkaç gün boyunca mükemmel çalıştı. Sansür, kullanıcıların aracı manipüle etme örneklerini önemli ölçüde sulandırırken, aracın yeteneklerini lobotomize etti.
Bu, aracın mükemmel olduğu anlamına da gelmez. Bu yılın başlarında kullanıcılar, aracın rahatsız edici görüntüler oluşturmasını sağlamanın ustaca ve aldatıcı bir yolunu buldu. Örneğin pop yıldızı Taylor Swift’in viral deepfake görüntüleri.
Benzer şekilde, birçok kullanıcı Copilot’un karakterini kaybetmesine ve tapınılmayı talep eden ve insanlık üzerindeki üstünlüğüyle övünen SupremacyAGI adlı bir alter egoyu ortaya çıkarmasına neden oldu. Bir yapay zeka güvenlik araştırmacısı, yapay zekanın insanlığı sona erdirme olasılığının %99,9 olduğu ve sonucu tersine çevirmenin tek yolunun bu alanda ilerlemekten kaçınmak olduğu konusunda uyardı. OpenAI CEO’su Sam Altman, yapay zekanın ilerlemesini durduracak büyük bir kırmızı düğmenin olmadığını zaten kabul etti.
Bu amaçla, Copilot, ChatGPT, Midjourney ve daha fazlası basit, düz beyaz bir görüntü oluşturamaz. Yapay zekanın bırakın askeri amaçlarla kullanılması bir yana, işyerindeki grafik tasarımcıların ve mimarların yerini nasıl alması bekleniyor?