GOOGLE I/O 2023, DAĞ MANZARALI, KALİF. — Google I/O’daki büyük duyuruların arasına sıkıştırılan şirket yöneticileri, sorumlu bir şekilde kullanılmalarını ve kötüye kullanılmamalarını sağlamak için yeni AI ürünlerinin korkuluklarını tartıştı.

Google CEO’su Sundar Pichai de dahil olmak üzere yöneticilerin çoğu, laboratuvarlardan çıkan gelişmiş yapay zeka teknolojileriyle ilgili bazı güvenlik endişelerine dikkat çekti. CCS Insight’ın baş analisti James Sanders, yapay zeka tarafından üretilen yanlış bilgilerin, derin sahtelerin ve taciz edici metin veya görüntülerin yayılmasının, bu içeriği oluşturan modelden Google’ın sorumlu olması durumunda büyük ölçüde zararlı olacağını söylüyor.

Sanders, “Yapay zeka bağlamında güvenlik, yapay zekanın toplum üzerindeki etkisiyle ilgilidir. Google’ın sorumlu yapay zeka konusundaki çıkarları, en azından kısmen, itibarın korunması ve düzenleyicilerin caydırıcı müdahalesinden kaynaklanmaktadır” diyor.

Örneğin, Universal Translator, Google Translate’in konuşan bir kişinin görüntülerini alıp konuşmayı başka bir dile çevirebilen bir video yapay zeka yan ürünüdür. Uygulama, potansiyel olarak videonun hedef kitlesini orijinal dili konuşmayanları da içerecek şekilde genişletebilir.

Ancak Google’ın yapay zekanın sorumlu bir şekilde geliştirilmesinden sorumlu kıdemli başkan yardımcısı James Manyika, yapay zekanın dudak hareketini değiştirip kişinin tercüme edilen dilde konuşuyormuş gibi görünmesi nedeniyle, teknolojinin kaynak malzemeye olan güveni de aşındırabileceğini söyledi. uygulamasını sahnede sergiledi.

“Burada doğal bir gerilim var. Bunun nasıl inanılmaz derecede yararlı olabileceğini görebilirsiniz, ancak aynı temel teknolojinin bir kısmı kötü kişiler tarafından derin sahtekarlıklar oluşturmak için kötüye kullanılabilir. Kötüye kullanımı önlemek ve erişilebilir kılmak için hizmeti korkuluklar etrafında oluşturduk. sadece yetkili ortaklara,” dedi Manyika.

Özel Korkulukları Ayarlama

Farklı şirketler yapay zeka korkuluklarına farklı şekilde yaklaşıyor. Google, yapay zeka araçları tarafından üretilen çıktıları kontrol etmeye ve teknolojileri gerçekten kimlerin kullanabileceğini sınırlamaya odaklanmıştır. Örneğin, Universal Translators 10’dan az iş ortağı tarafından kullanılabilir. ChatGPT, soru veya yanıtın zarar verme olasılığı varsa, belirli soru türlerini yanıtlayamayacağını söyleyecek şekilde programlanmıştır.

Nvidia’nın sahip olduğu NeMo Korkulukları, yanıtların belirli parametrelere uymasını sağlayan açık kaynaklı bir araç. Teknoloji aynı zamanda AI’nın eğitim verileri tarafından doğrulanmayan kendinden emin bir yanıt verme terimi olan halüsinasyon görmesini de önler. Nvidia programı, cevabın belirli parametrelerle alakalı olmadığını tespit ederse, soruyu cevaplamayı reddedebilir veya daha alakalı cevaplar bulmak için bilgileri başka bir sisteme gönderebilir.

Google paylaştı koruma araştırmaları Google I/O’da da duyurulan yeni geniş dilli PaLM-2 modelinde. Bu Palm-2 teknik makalesi, belirli kategorilerde AI motorunun dokunmayacağı bazı sorular olduğunu açıklıyor.

CCS Insight’tan Sanders, “Google, bu çıktıları belirlemek ve azaltmak için otomatik rakip testine güveniyor. Google’ın bu amaçla oluşturulan Perspective API’si, akademik araştırmacılar tarafından diğerlerinin yanı sıra OpenAI ve Anthropic modellerini test etmek için kullanılıyor.”

DEF CON’da Lastikleri Tekmelemek

Manyika’nın yorumları, kimlik avı yaklaşımları oluşturmak veya sistemlere girmek için kötü niyetli kodlar oluşturmak için ChatGPT gibi teknolojileri kötüye kullanan kötü kişilerle ilgili endişelerden sonra daha fazla aciliyet kazanan yapay zekanın sorumlu kullanımı anlatısına uyuyor.

AI zaten derin sahte videolar ve sesler için kullanılıyordu. Savunma Bakanlığı’nı müşterisi sayan yapay zeka şirketi Graphika, yakın zamanda AI tarafından oluşturulan görüntüler kamuoyunu etkilemeye çalışmak için kullanılıyor. Graphika ekibi deepfakes raporunda, “Ticari olarak temin edilebilen AI ürünlerinin kullanılmasının, IO aktörlerinin daha yüksek ölçek ve hızda giderek daha yüksek kaliteli aldatıcı içerik oluşturmasına olanak sağlayacağına inanıyoruz.”

Beyaz Saray, AI teknolojisinin kötüye kullanımını azaltmak için korkuluk çağrısı yaptı. Bu ayın başlarında Biden yönetimi, Google, Microsoft, Nvidia, OpenAI ve Stability AI gibi şirketlerin, katılımcıların AI sistemlerini herkese açık olarak değerlendirin Ağustos ayında Las Vegas’ta yapılacak olan DEF CON 31 sırasında. Modeller, Scale AI tarafından geliştirilen bir değerlendirme platformu kullanılarak kırmızı takım haline getirilecek.

Beyaz Saray’dan yapılan açıklamada, “Bu bağımsız uygulama, araştırmacılara ve halka bu modellerin etkileri hakkında kritik bilgiler sağlayacak ve yapay zeka şirketlerinin ve geliştiricilerin bu modellerde bulunan sorunları düzeltmek için adımlar atmasına olanak tanıyacak” denildi.



siber-1