Son birkaç hafta Taylor Swift için hem iyi hem de kötü anlamda bir PR bereketi oldu. İşin iyi tarafı, erkek arkadaşı Travis Kelce Super Bowl’un kazanan takımında yer aldı ve maç sırasındaki tepkileri bol bol yayında yer aldı. Daha da kötüsü, onun üretken yapay zeka tarafından oluşturulan sahte çıplak görüntüleri yakın zamanda internette dolaştı.

Beklediğiniz gibi, üretken yapay zeka (genAI) şirketleri ve özellikle Microsoft CEO’su Satya Nadella da dahil olmak üzere, bu görüntülerin oluşturulması ve dağıtımına yönelik kınamalar hızla takip edildi. Olanları kınamanın yanı sıra, Nadella çözüme dair düşüncelerini paylaştı: “Bizim sorumluluğumuz olduğunu düşündüğüm şeye geri dönüyorum; yani daha güvenli içerik üretilebilmesi için teknolojinin etrafına yerleştirmemiz gereken korkuluklar.”

Microsoft Deepfake konusuna dün tekrar değindim (Swift’ten bahsetmeden olsa da). Microsoft Başkan Yardımcısı ve Başkan Brad Smith, bir blog yazısında deepfake’lerin çoğalmasını kınadı ve şirketin bunların yayılmasını sınırlamak için adımlar attığını söyledi.

“Aletler maalesef aynı zamanda silaha da dönüşüyor ve bu model kendini tekrarlıyor” diye yazdı. “Şu anda bu yeni AI araçlarının, yapay zeka tarafından oluşturulan video, ses ve görüntülere dayalı deepfake’ler de dahil olmak üzere, kötü aktörler tarafından kötüye kullanılmasında hızlı bir artışa tanık oluyoruz. Bu eğilim, seçimler, mali dolandırıcılık ve rıza dışı taciz yoluyla yeni tehditler oluşturuyor. pornografi ve yeni nesil siber zorbalık.”

Smith, Microsoft’tan “sağlam ve kapsamlı bir yaklaşım” sözü verdi ve şunları ekledi: “Kullanıcıların bir görüntünün veya videonun yapay zeka tarafından mı oluşturulduğunu yoksa manipüle mi edildiğini hızlı bir şekilde belirlemelerine yardımcı olacak sürekli inovasyona kendimizi adadık.”

Microsoft’un görüşü kesinlikle doğrudur ve dünyanın en büyük ve en etkili genAI şirketinden beklenebilecek tipik, çok amaçlı, anlık tepkidir. Ancak Nadella ve Smith’in atladığı şey, Swift görüntülerini şirketin yapay zeka araçlarının yarattığına dair kanıtların olduğuydu; Daha da kötüsü, bir Microsoft AI geliştiricisi, şirketi önceden uygun korkulukların bulunmadığı konusunda uyardığını ve Microsoft’un bu konuda hiçbir şey yapmadığını söyledi.

Microsoft’a dava

Deepfake’leri oluşturmak için Microsoft araçlarının kullanıldığına dair kanıtlar, 404 Medya makalesikendilerini “rıza dışı porno” oluşturmaya adamış bir Telegram topluluğundan kaynaklandığını iddia eden; porno görselleri oluşturmak için Microsoft Designer’ın kullanılmasını önerir. Makalede şunu belirtiyor: “Tasarımcı teorik olarak ünlü kişilerin resimlerini üretmeyi reddediyor, ancak AI jeneratörlerini kandırmak kolaydır ve 404, yönlendirmelerde küçük ayarlamalar yaparak kurallarını çiğneyebileceğinizi buldu.”

Daha da kötüsü, bir Microsoft AI mühendisinin Aralık ayında Microsoft’u, Microsoft Designer’ın arkasındaki beyin olan OpenAI’nin görüntü oluşturucusu DALL-E’nin güvenlik korkuluklarının açık ve şiddet içeren görüntüler oluşturmak için atlanabileceği konusunda uyardığı iddia edildi. Microsoft’un uyarılarını dikkate almadığını ve buldukları hakkında kamuya açık bir şey söylememesini sağlamaya çalıştığını iddia ediyor.

Mühendis Shane Jones, bir mektupta yazdı ABD Senatörü Patty Murray (D-WA) ve Maria Cantwell’e (D-WA); Temsilci Adam Smith (D-WA) ve Washington eyaleti Başsavcısı Bob Ferguson, “saldırıyı engellemek için tasarlanmış bazı korkulukları atlamama izin veren bir güvenlik açığı keşfettiğini” söyledi. [DALL-E] Zararlı görüntülerin oluşturulması ve dağıtılması konusunda model…. DALL·E 3’ün kamu güvenliği riski oluşturduğu ve OpenAI bu modelle ilişkili riskleri giderene kadar kamu kullanımından kaldırılması gerektiği sonucuna vardım.

“DALL·E 3’teki güvenlik açıkları ve DALL·E 3’ü kullanan Microsoft Designer gibi ürünler, insanların zararlı görüntüler oluşturmak için yapay zekayı kötüye kullanmasını kolaylaştırıyor. Microsoft bu güvenlik açıklarının ve kötüye kullanım potansiyelinin farkındaydı.”

Jones, Microsoft’un harekete geçmeyi reddettiğini, konu hakkında LinkedIn’de kamuya açık bir mektup yayınladığını ve ardından yöneticisi tarafından, Microsoft’un hukuk departmanının talep etmesi nedeniyle mektubu silmesinin söylendiğini iddia etti.

Mektubunda Jones, Swift’in açık görsellerinden bahsediyor ve şöyle diyor: “Bu, endişe duyduğum suiistimal türünün bir örneğidir ve OpenAI’yi DALL·E 3’ü kamu kullanımından kaldırmaya teşvik etmemin ve endişelerimi Microsoft’a bildirmemin nedenidir.” .”

GeekWire’a göreMicrosoft, yaptığı açıklamada, şirketin “çalışanın raporunu araştırdığını ve paylaştığı tekniklerin, yapay zeka destekli görüntü oluşturma çözümlerimizin hiçbirindeki güvenlik filtrelerimizi atlamadığını doğruladığını” söyledi.

Bütün bunlar bir dereceye kadar ikinci dereceden delildir. Görüntülerin Microsoft Designer ile oluşturulduğuna dair bir onay yok ve Microsoft’a mı yoksa Jones’a mı güveneceğimizi bilmiyoruz. Ancak Microsoft’un genAI’nin tehlikelerini küçümseme veya görmezden gelme geçmişine sahip olduğunu biliyoruz.

Geçen Mayıs ayında yazdığım gibi Microsoft, şirkette genAI’nın etik olarak geliştirilmesinden sorumlu olan 30 kişilik ekibin kadrosunu kesti ve ardından ekibi tamamen ortadan kaldırdı. Saldırı, Microsoft’un genAI sohbet robotunun piyasaya sürülmesinden birkaç ay önce gerçekleşti; takımın elenmesi birkaç ay sonra gerçekleşti.

Sohbet robotunun piyasaya sürülmesinden önce, Microsoft’un yapay zekadan sorumlu kurumsal başkan yardımcısı John Montgomery, ekibe robotun neden yok edildiğini anlattı: [CTO] Kevin [Scott] Ve [CEO] Satya [Nadella] Bu en yeni OpenAI modellerini ve onlardan sonra gelenleri alıp çok yüksek bir hızla müşterilerin eline ulaştırmak çok ama çok yüksek.”

Etik ekibinin bunun önünde durduğunu ekledi.

Bir ekip üyesi yapay zekada ele alınması gereken önemli tehlikeler olduğunu söylediğinde ve ondan yeniden düşünmesini istediğinde Montgomery şöyle yanıt verdi: “Yeniden düşünebilir miyim? Yapacağımı sanmıyorum. Çünkü ne yazık ki baskılar aynı kalıyor. Sen benim sahip olduğum görüşe sahip değilsin ve muhtemelen bunun için minnettar olabilirsin. Sosiste öğütülen pek çok şey var.

Ekip gittikten sonra Microsoft genAI ile çalışmaya başladı. Ve bu tam olarak şirketin istediğini başardı. Şirketin hisseleri hızla arttı ve yapay zeka sayesinde dünyanın en değerli şirketi haline geldi; değeri 3 trilyon dolardan fazla olan ikinci şirket (Apple’ın ardından).

Taylor Swift deepfake’lerini oluşturmak için Microsoft Designer kullanılsa da kullanılmasa da, Microsoft’un yapay zekanın potansiyel tehlikeleri konusundaki tutumunu değiştirmesini beklememeniz için üç trilyon neden var. Ve önümüzdeki yıl, özellikle de ABD’deki çekişmeli başkanlık seçimleri göz önüne alındığında, bir deepfake tsunamisi ihtimali açısından pek de iyiye işaret değil.

Telif Hakkı © 2024 IDG Communications, Inc.



genel-13