ChatGPT gibi üretici yapay zekalar, yapay zeka ile etkileşim kurma ve yapay zekayı algılama şeklimizde devrim yarattı. Yazma, kodlama, iş ilanlarına yanıt verme gibi işlemler çok daha kolay ve hızlı hale geldi. Ancak, tüm bu olumlu yönler risksiz değildir.

AI ile ilgili temel endişelerden biri güven ve güvenliktir. Bu, bazı ülkelerin ChatGPT’yi tamamen yasaklamasına veya kullanıcıları korumak için yapay zeka politikalarını yeniden gözden geçirmesine bile neden oldu.

Binaen Avivah Litan, Gartner analistiÜretken yapay zekanın en büyük risklerinden bazıları güven ve güvenlikle ilgilidir ve halüsinasyonları, derin sahtekarlıkları, veri gizliliğini, telif hakkı sorunlarını ve siber güvenlik sorunlarını içerir.

1. Yapay zeka halüsinasyonları

Halüsinasyonlar, AI modellerinin yapması muhtemel hataları ifade eder. Çünkü gelişmiş olmalarına rağmen hala insan değiller ve cevap vermek için eğitime ve verilere güveniyorlar.

Daha önce bir AI sohbet robotu kullandıysanız, muhtemelen mesajınızı yanlış anlamanız veya sorunuzu açıkça yanlış yanıtlamanız nedeniyle bu halüsinasyonlarla karşılaşmışsınızdır.

Litan’a göre, eğitim verileri önyargılı veya gerçeklere dayalı olarak yanlış yanıtlara yol açabilir ve bu, insanlar bilgi için bu botlara güvendiğinde ciddi bir sorun olabilir. Litan, “Eğitim verileri önyargılı veya hatalı yanıtlara yol açabilir, ancak özellikle çözümler daha inandırıcı ve güvenilir hale geldikçe bunları tespit etmek zor olabilir” diyor.

2. AI derin sahtekarlıkları

Deepfake, sahte olan ancak başka bir kişinin görüntüsünü ve benzerliğini alan videolar, fotoğraflar ve ses kayıtları oluşturmak için üretici yapay zekayı kullanır.

Papa Francis’in uzun kollu bir ceket içindeki yapay zeka tarafından oluşturulan viral fotoğrafı veya yüzbinlerce dinleme toplayan Drake ve The Weeknd’in yapay zeka tarafından oluşturulan şarkısı bunun örnekleridir.

Bay Litan, “Bu sahte görüntüler, videolar ve ses kayıtları, ünlülere ve politikacılara saldırmak, yanıltıcı bilgiler oluşturmak ve yaymak ve hatta sahte hesaplar oluşturmak veya mevcut meşru hesapları devralmak ve bunlara girmek için kullanıldı.”, diye açıklıyor.

Halüsinasyonlar gibi, deepfake’ler de sahte içeriğin kitlesel olarak yayılmasına katkıda bulunarak ciddi bir toplumsal sorun olan yanlış bilgilerin yayılmasına yol açabilir.

3. AI’lar tarafından kullanılan verilerin gizliliği sorunu

Mahremiyet aynı zamanda üretken yapay zekanın önemli bir endişesidir. Ne için ? Çünkü kullanıcı verileri genellikle model eğitimi için saklanır. OpenAI’nin yasal olarak kullanıcı verilerini toplamasına izin verilmediği gerekçesiyle İtalya’nın ChatGPT’yi yasaklamasına neden olan bu endişeydi.

Litan, “Çalışanlar, üretken yapay zeka sohbet robotu çözümleriyle etkileşim kurarken hassas ve tescilli şirket verilerini kolayca açığa çıkarabilir” diyor. “Bu uygulamalar, kullanıcı tarafından girilen bilgileri süresiz olarak saklayabilir ve hatta diğer modelleri eğitmek için kullanabilir, bu da gizliliği daha da tehlikeye atar.”

Litan, kullanıcı gizliliğinden ödün vermenin yanı sıra, bir güvenlik ihlali durumunda saklanan bilgilerin “yanlış ellere geçme” riski taşıdığına da dikkat çekiyor.

4. AI siber güvenliği

Üretken yapay zeka modellerinin kodlama gibi gelişmiş yetenekleri de yanlış ellere geçerek siber güvenlik endişeleri doğurabilir.

Litan, “Daha gelişmiş sosyal mühendislik ve kimlik avı tehditlerine ek olarak, saldırganlar bu araçları daha kolay bir şekilde kötü amaçlı kod oluşturmak için kullanabilir” diyor.

Litan’a göre, üretici yapay zeka çözümleri sunan sağlayıcılar genellikle modellerinin kötü amaçlı siber güvenlik taleplerini reddetmek üzere eğitildiğini müşterilerine garanti etse de, bu satıcılar son kullanıcılara uygulanan tüm güvenlik önlemlerini doğrulama yeteneği vermiyor.

5. Telif hakkı sorunları

Üretken AI modelleri, bir sonuç oluşturmak için kullanılan büyük miktarda internet verisi üzerinde eğitildiğinden, telif hakkı önemli bir endişe kaynağıdır.

Bu oluşum süreci, orijinal kaynak tarafından açıkça paylaşılmayan çalışmaların daha sonra yeni içerik oluşturmak için kullanılabileceği anlamına gelir.

Telif hakkı, fotoğraflar ve müzik dahil olmak üzere herhangi bir biçimde yapay zeka tarafından oluşturulan sanat eserleri için özellikle çetrefilli bir konudur.

DALL-E gibi yapay zeka oluşturma araçları, bir mesajdan görüntü oluşturmak için eğitildikleri geniş fotoğraf veritabanına başvurur. Bu sürecin sonucu, nihai ürünün bir sanatçının eserinin veya stilinin kendisine atfedilmeyen yönlerini içermesidir.

Üretici yapay zeka modellerinin üzerinde eğitildiği kesin çalışmalar açıkça ifşa edilmediğinden, bu telif hakkı sorunlarını azaltmak zordur.

Bir sonraki adım nedir?

Üretken yapay zeka ile ilişkili birçok riske rağmen Litan, kuruluşların bu teknolojiyi keşfetmeyi bırakması gerektiğini düşünmüyor. Bunun yerine, yapay zeka güvenini, riskini ve güvenlik yönetimini hedefleyen kurum çapında bir strateji oluşturmalıdırlar.

Bay Litan, “Yapay zeka geliştiricileri, üretken yapay zeka gözetimi ve risk yönetimi için politikalar ve uygulamalar oluşturmak üzere, ortaya çıkabilecek yeni düzenleyici makamlar da dahil olmak üzere, karar vericilerle acilen çalışmalıdır.”


Kaynak : “ZDNet.com”



genel-15