“Yapay zeka” ifadesini duyduğunuzda, bilimkurgunun dayanak noktası olan akıllı makine türlerini veya Dr. Frankenstein’ın canavarından bu yana insanlığı büyüleyen kıyamet teknofobisi türlerinin uzantılarını hayal etmek cazip gelebilir.

Ancak dünyanın dört bir yanındaki işletmelere hızla entegre edilen yapay zeka türleri bu çeşitlilikte değil – gerçek insanlar üzerinde gerçek bir etkisi olan çok gerçek teknolojiler.

AI, iş ortamlarında yıllardır mevcut olsa da, ChatGPT, ChatSonic, Jasper AI ve diğerleri gibi üretken AI ürünlerinin ilerlemesi, ortalama bir kişi için kullanım kolaylığını önemli ölçüde artıracaktır. Sonuç olarak, Amerikan halkı bu teknolojilerin kötüye kullanılma potansiyelinden derin endişe duymaktadır. son zamanlarda ADL anketi bulundu Amerikalıların %84’ü üretici yapay zekanın yanlış bilgi ve nefretin yayılmasını artıracağından endişe ediyor.

Bu teknolojiyi benimsemeyi düşünen liderler, bu yeni sınıra girerken, geleceği hem iyi hem de kötü yönde nasıl şekillendirebileceği konusunda kendilerine zor sorular sormalıdır. Üretken yapay zeka araçlarını kuruluşlara ve iş yerlerine entegre ederken tüm liderlerin dikkate alacağını umduğum üç şey var.

Güven ve emniyeti birinci öncelik haline getirin

Sosyal medya, içerik denetimiyle boğuşmak için kullanılırken, sağlık ve finans gibi bu sorunlarla ilgili daha önce deneyimi olmayan işyerlerinde üretken yapay zeka kullanılmaya başlandı. Pek çok endüstri, bu teknolojileri benimserken kendilerini aniden zorlu yeni zorluklarla karşı karşıya bulabilir. Yapay zeka destekli chatbot’u bir hastaya aniden kaba ve hatta nefret dolu davranan bir sağlık şirketiyseniz, bununla nasıl başa çıkacaksınız?

Üretken yapay zeka, tüm gücü ve potansiyeline rağmen, kötü aktörlerin zararlı içerik üretmesini kolay, hızlı ve erişilebilir kılar.

On yıllar boyunca, sosyal medya platformları, kullanıcı tarafından oluşturulan içerikle ilgili çetrefilli sorunların etrafından dolanmaya çalışmak için yeni bir disiplin – güven ve güvenlik – geliştirdi. Diğer sektörlerde öyle değil.

Bu nedenle, şirketlerin uygulamaları hakkında konuşmaları için güven ve güvenlik konusunda uzmanlar getirmeleri gerekecektir. Uzmanlık oluşturmaları ve bu araçların nasıl kötüye kullanılabileceğini düşünmeleri gerekecek. Ayrıca, bu araçlar kötü aktörler tarafından suistimal edildiğinde dümdüz yakalanmamaları için suistimalleri ele almaktan sorumlu personele yatırım yapmaları gerekecek.

Yüksek korkuluklar kurun ve şeffaflıkta ısrar edin

Özellikle iş veya eğitim ortamlarında, AI platformlarının nefret dolu veya taciz edici içeriğin üretilmesini önlemek için yeterli korkuluklara sahip olması çok önemlidir.

İnanılmaz derecede faydalı araçlar olsa da, yapay zeka platformları %100 kusursuz değildir. Örneğin, ADL test uzmanları kısa bir süre önce, Avrupa’daki ünlü Yahudi karşıtı pogromların bir güzergahını ve görünürde sprey boya satın alınabilecek yakındaki sanat malzemeleri satan mağazaların bir listesini oluşturmak için yeni ChatGPT işlevine sahip Expedia uygulamasını birkaç dakika içinde kullandılar. bu sitelere karşı vandalizm yapmak.

Bazı üretici yapay zekaların, Yahudi karşıtı ve diğer nefret dolu tepkilere yol açabilecek soruları ele alma becerilerini geliştirdiğini görmüş olsak da, başkalarını da gördük. erişememek nefret, taciz, komplo teorileri ve diğer zararlı içerik türlerinin yayılmasına katkıda bulunmayacaklarını garanti ederken.

Yapay zekayı geniş çapta benimsemeden önce liderler şu gibi kritik sorular sormalıdır: Bu ürünlerin kötüye kullanıma açık olmadığından emin olmak için ne tür testler yapılıyor? Bu modelleri oluşturmak için hangi veri kümeleri kullanılıyor? Ve çevrimiçi nefretin en çok hedef aldığı toplulukların deneyimleri bu araçların oluşturulmasına entegre ediliyor mu?

Platformların şeffaflığı olmadan, bu yapay zeka modellerinin önyargı veya bağnazlığın yayılmasını sağlamayacağının garantisi yok.

Silahlanmaya karşı koruma

Sağlam güven ve emniyet uygulamalarıyla bile yapay zeka sıradan kullanıcılar tarafından kötüye kullanılabilir. Liderler olarak, yapay zeka sistemlerinin tasarımcılarını insanların silahlanmasına karşı koruma önlemleri oluşturmaya teşvik etmeliyiz.

Ne yazık ki, tüm güçleri ve potansiyellerine rağmen yapay zeka araçları, kötü aktörlerin bu senaryolardan herhangi biri için içerik üretmesini kolay, hızlı ve erişilebilir kılıyor. Birkaç saniye içinde inandırıcı sahte haberler üretebilir, görsel olarak ikna edici derin sahte haberler oluşturabilir ve nefret ve tacizi yayabilir. Üretken yapay zeka tarafından üretilen içerik, aşırılık yanlısı ideolojilerin yayılmasına da katkıda bulunabilir veya duyarlı bireyleri radikalleştirmek için kullanılabilir.

Bu tehditlere yanıt olarak, yapay zeka platformları, faillerin bu araçları kullanarak oluşturabilecekleri potansiyel zararlı içerik seline dayanabilecek sağlam denetleme sistemleri içermelidir.

Üretken yapay zeka, yaşamları iyileştirmek ve çevrimiçi olarak sunulan sonsuz miktarda bilgiyi işleme biçimimizde devrim yaratmak için neredeyse sınırsız bir potansiyele sahiptir. Yapay zeka ile ancak sorumlu bir liderlikle bir gelecek için heyecanlıyım.



genel-24