Diğer şeylerin yanı sıra, Avrupa Birliği tarafından önerilen bir dizi kural olacaktır. ChatGPT gibi üretici yapay zeka araçlarının yapımcılarının, teknoloji platformları tarafından herhangi bir türde içerik oluşturmak için kullanılan telif hakkıyla korunan materyalleri halka duyurmasını zorunlu kılar.
Avrupa Parlamentosu mevzuatının yeni taslağı, bunun bir kopyası tarafından elde edildi Wall Street Gazetesiüretici yapay zeka uygulamaları tarafından kullanılan içeriğin orijinal yaratıcılarının ortaya çıkan tüm kârları paylaşmasına olanak tanır.
Avrupa Birliği’nin “Yapay Zeka Yasası” (AI Yasası), batılı bir dizi ulus tarafından türünün ilk örneğidir. Önerilen mevzuat, büyük ölçüde Genel Veri Koruma Yönetmeliği (GDPR), Dijital Hizmetler Yasası ve Dijital Piyasalar Yasası gibi mevcut kurallara dayanmaktadır. AI Yasası ilk olarak Avrupa Komisyonu tarafından Nisan 2021’de önerildi.
Tasarının hükümleri ayrıca, üretken yapay zeka teknolojisinin arkasındaki GPT-4 gibi büyük dil modellerinin (LLM’ler) yaratıcılarının, AB yasalarını ihlal eden içerik oluşturmaya karşı yeterli koruma sağlayacak şekilde tasarlanmasını gerektiriyor; Buna çocuk pornografisi veya bazı AB ülkelerinde Holokost’un inkarı da dahil olabilir. Washington post.
AI Yasasının ihlali, hangisi daha yüksekse, 30 milyon avroya veya küresel kârın %6’sına varan para cezaları getirebilir.
“ChatGPT yaratıcısı OpenAI’yi destekleyen Microsoft gibi bir şirket için, kuralları ihlal ettiği tespit edilirse bu, 10 milyar dolardan fazla para cezası anlamına gelebilir.” Reuters raporu söyledi.
Ancak Gartner Research’te başkan yardımcısı ve seçkin bir analist olan Avivah Litan’a göre yapay zekayı dürüst tutmanın çözümü kolay değil. San Fransisco merkezli OpenAI ve diğerleri gibi LLM içerik oluşturucularının, başlangıçta eğitilenlerin telif hakkıyla korunan materyalleri olmadığını kontrol etmek için güçlü LLM’ler geliştirmeleri gerekecektir. Liten, telif hakkı materyallerini filtrelemek için kural tabanlı sistemlerin muhtemelen etkisiz olacağını söyledi.
Litan, bu arada, AB’nin yapay zeka Yasasını iyileştirmekle ve dünyaya öncülük eden bir yaklaşım benimsemekle meşgul olduğunu, gelecekte yapay zekanın adil ve risk yönetimli kullanımını yöneten kurallar oluşturmakla meşgul olduğunu söyledi.
Düzenleyiciler, LLM’lerin etkili bir şekilde bir kara kutu olarak çalıştığını düşünmeli ve algoritmaların, kuruluşlara gerekli gizlilik etki değerlendirmesini yürütmek için gereken şeffaflığı sağlaması olası değildir. Litan, “Bu ele alınmalı,” dedi.
Litan, “Bir noktada Yapay Zeka Yasasının Üretken Yapay Zeka modellerinin gözetimini hariç tutacağını belirtmek ilginçtir, ancak bunlar daha sonra dahil edildi,” dedi. araçlarda aşırı kuralcı olmadan toplumları koruma hedeflerine ulaşılmasına yardımcı olan uzun süreli kurallar yaratmaları.”
1 Nisan’da İtalya, gizlilik endişeleri nedeniyle ChatGPT’nin daha fazla geliştirilmesini yasaklayan ilk Batılı ülke oldu; doğal dil işleme uygulamasının kullanıcı konuşmalarını ve ödeme bilgilerini içeren bir veri ihlali yaşamasından sonra meydana gelen. ChatGPT, OpenAI tarafından oluşturulan ve Microsoft’tan milyarlarca dolar tarafından desteklenen popüler sohbet robotudur.
Bu ayın başlarında, ABD ve Çin hükümetleri, hiçbir ülkenin bugüne kadar oluşturmadığı bir şey olan, AI geliştirmeye yönelik düzenlemelerle ilgili duyurular yayınladı.
Litan, “ABD ve AB, güvenilir, şeffaf ve adil yapay zeka elde etme isteği söz konusu olduğunda kavramlarda aynı çizgide, ancak yaklaşımları çok farklı oldu” dedi.
Şimdiye kadar ABD, Litan’ın “AI risk yönetimine çok dağıtık bir yaklaşım” dediği şeyi benimsedi ve henüz yeni düzenlemeler veya düzenleyici altyapı oluşturmadı. ABD, yönergelere ve bir AI Risk Yönetimi çerçevesine odaklandı.
Ocak ayında, Ulusal Standartlar ve Teknoloji Enstitüsü (NIST) Yapay Zeka Yönetim Çerçevesi. Şubat ayında Beyaz Saray yayınladı İcra Emri federal kurumları AI kullanımlarının eşitlik ve medeni hakları geliştirmelerini sağlamaya yönlendirmek.
ABD Kongresi federali değerlendiriyor Algoritmik Sorumluluk YasasıGeçilirse, işverenlerin, bir bireyin istihdama erişimi, koşulları veya mevcudiyeti üzerinde önemli bir etkisi olan herhangi bir otomatik karar verme sistemi için bir etki değerlendirmesi yapmasını gerektirecektir.
ABD Ticaret Bakanlığı’nın bir şubesi olan Ulusal Telekomünikasyon ve Bilgi İdaresi (NTIA) da bir yorum için genel istek AI sistemlerini en iyi hangi politikaların sorumlu tutacağı konusunda.
Eyaletler ve belediyeler de harekete geçiyor ve mahremiyet ve önyargı sorunları nedeniyle iş adaylarını bulmak, taramak, mülakat yapmak ve işe almak için AI tabanlı botların kullanımına ilişkin yerel kısıtlamaları izliyor. Bazı eyaletler çoktan kanunları kitaplara koydu.
Microsoft ve Google’ın sahibi Alphabet, işletmelere ve tüketicilere üretken yapay zeka sohbet botları getirme yarışı içindeler. En gelişmiş üretken yapay zeka motorları, kullanıcı istemlerine veya girdilerine dayalı olarak kendi içeriklerini oluşturabilir. Bu nedenle, örneğin, yapay zekaya pazarlama veya reklam kampanyaları oluşturma, makaleler yazma ve gerçekçi fotoğraf görüntüleri ve videolar oluşturma görevi verilebilir.
AB’nin AI Yasasının anahtarı, sınıflandırma sistemi Bu, bir yapay zeka teknolojisinin bir kişinin sağlık ve güvenliği veya temel hakları için oluşturabileceği risk düzeyini belirler. Çerçeve, kabul edilemez, yüksek, sınırlı ve minimum olmak üzere dört risk aşaması içerir. Dünya Ekonomik Forumu.
Gartner’a göre, düzenleyicilerin dikkat etmesi gereken üretici yapay zeka platformlarıyla ilgili sorunlar şunları içeriyor:
- GPT modelleri açıklanamaz: Model çıktıları tahmin edilemez; model satıcıları bile dahili olarak nasıl çalıştıklarına dair her şeyi anlamıyor. Açıklanabilirlik veya yorumlanabilirlik, model şeffaflığı için ön koşullardır.
- Yanlış ve uydurma cevaplar: Yanlışlık ve halüsinasyon risklerini azaltmak için, ChatGPT/GenAI tarafından üretilen çıktılar kabul edilmeden önce doğruluk, uygunluk ve gerçek yararlılık açısından değerlendirilmelidir.
- Gizli verilerin olası tavizi: Doğrulanabilir hiçbir veri yönetişimi ve koruma, örneğin saklanan bilgi istemleri biçimindeki gizli kurumsal bilgilerin tehlikeye atılmadığını garanti eder.
- Model ve çıktı yanlılığı: Model geliştiricileri ve kullanıcıları, taraflı çıktıları tespit etmek ve bunlarla şirket politikası ve ilgili yasal gerekliliklerle tutarlı bir şekilde başa çıkmak için politikalara veya kontrollere sahip olmalıdır.
- Fikri mülkiyet (IP) ve telif hakkı riskleri: Model geliştiriciler ve kullanıcılar, telif hakkı veya IP haklarını ihlal etmediğinden emin olmak için daha fazla kullanmadan önce çıktılarını incelemeli ve ChatGPT/GenAI için geçerli olan telif hakkı yasalarındaki değişiklikleri aktif olarak izlemelidir. ChatGPT çıktılarında telif hakkıyla korunan materyalleri filtrelemek söz konusu olduğunda kullanıcılar artık kendi başlarınadır.
- Siber ve dolandırıcılık riskleri: Sistemler, suçluların onları siber ve dolandırıcılık saldırıları için kullanamamasını sağlamaya çalışmak için güçlendirilmelidir.
OpenAI tarafından Kasım ayında başlatılan ChatGPT, hemen viral oldu ve 1 milyon kullanıcı sorgulara derinlemesine, insan benzeri yanıtlar üretmesi nedeniyle yalnızca ilk beş gününde. Web sitesi test şirketine göre, ChatGPT web sitesi şu anda tahmini 100 milyon aktif kullanıcıyla aylık tahmini 1 milyar web sitesi ziyaretçisi alıyor. araç testçisi.
Ernst & Young küresel yapay zeka danışmanlık lideri Dan Diasio’ya göre, chatbot’un yanıtları insan benzeri görünse de, ChatGPT duyarlı değil – bir sonraki kelime tahmin motoru. Bunu akılda tutarak, kullanımında dikkatli olmaya çağırdı.
Ancak yapay zeka teknolojisi baş döndürücü bir hızla ilerlerken, ufukta daha karmaşık bir algoritmanın belireceği tahmin ediliyor: kendi kendine düşünebilen ve zamanla katlanarak daha akıllı hale gelen yapay genel zeka.
Bu ayın başlarında, binlerce teknoloji uzmanından gelen açık bir mektup, çok fazla ilerlemesi halinde onu kontrol etme yeteneğinin kaybolabileceği endişesiyle, üretken yapay zeka teknolojisinin gelişiminin durdurulması çağrısında bulundu. Mektup, Apple’ın kurucu ortağı Steve Wozniak da dahil olmak üzere 27.000’den fazla imza topladı. MektupFuture of Life Institute tarafından yayınlanan, San Francisco merkezli OpenAI Lab’ın yakın zamanda duyurduğu GPT-4 algoritmasına özellikle seslendi ve şirketin gözetim standartları yerine getirilene kadar daha fazla geliştirmeyi durdurması gerektiğini söyledi.
AB’nin İç Pazardan Sorumlu Komisyon Üyesi Thierry Breton, yapay zekanın on yıllardır ortalıkta dolaşmasına rağmen “bilgi işlem gücüyle beslenen yeni kapasitelere ulaştığını” söyledi. 2021’de açıklama. Yapay Zeka Yasası’nın, “Avrupa’daki yapay zekanın değerlerimize ve kurallarımıza saygı duymasını ve yapay zekanın endüstriyel kullanım potansiyelinden yararlanmasını” sağlamak için oluşturulduğunu söyledi.
Telif hakkı © 2023 IDG Communications, Inc.