Yapay zeka hızla ilerledikçe Dünya çapındaki düzenleyiciler odaklarını hem teknolojiye hem de bu teknolojiye balıklama atlayan şirketlere çeviriyor. Avrupa Birliği, yapay zeka düzenlemesini hedefleyen kapsamlı mevzuatı onaylayan ilk ülke oldu. Şimdi yayınlandı Özellikle genel amaçlı yapay zeka (GPAI) modelleri için Uygulama Kurallarının ilk taslağı.
Meta, Google, OpenAI, Apple ve daha fazlasının uyması gerekecek
Gelecek yılın mayıs ayına kadar tamamlanması planlanan taslak, risk yönetimine ilişkin yönergeleri ortaya koyuyor ve şirketlere uyumlu kalmaları ve ağır cezalardan kaçınmaları için bir yol haritası sunuyor. AB’nin Yapay Zeka Yasası teknik olarak 1 Ağustos’ta yürürlüğe girmiş olsa da, GPAI’yi düzenlemenin ayrıntılarını daha sonraki bir tarihe bıraktı. Bu taslak, bu gelişmiş modellere ilişkin beklentileri tanımlamaya yönelik ilk gerçek girişim olup, paydaşlara geri bildirimde bulunma ve iyileştirme yapma şansı vermektedir. Yönergeleri yürürlüğe girmeden önce ayarlayın.
Peki genel amaçlı yapay zeka (GPAI) modelleri tam olarak nedir? Bunlar, birçok yapay zeka sisteminin omurgasını oluşturan, çok çeşitli görevleri yerine getirebilen bir yapay zeka türüdür. Bu modeller çok büyük miktarda veri üzerinde eğitilir ve minimum ayarlamalarla farklı görevlere uyarlanabilir. Şu anda AB kurallarına uyması beklenen şirketler (liste genişletilebilir olsa da) şunları içeriyor:
- ChatGPT’nin yaratıcısı OpenAI
- Google Gemini modelleriyle
- Lama modelleri, uygulamalarının asistanı Meta AI’yi güçlendiren Meta
- Elma
- Microsoft
- Antropik
- Mistral
Nihai belge, güvenilir ve güvenli genel amaçlı yapay zeka modellerinin gelecekteki geliştirilmesine ve dağıtımına rehberlik etmede çok önemli bir rol oynayacak.
– Avrupa Komisyonu, Kasım 2024
Belge, GPAI üreticileri için çeşitli temel alanlara değiniyor: şeffaflık, telif hakkı uyumluluğu, risk değerlendirmesi ve teknik ve yönetişimle ilgili risk yönetimi. Bu 36 sayfalık taslak hali hazırda ayrıntılı yönergelerle doludur ve nihai hale getirilmeden önce muhtemelen daha da genişletilmesi muhtemeldir, ancak birkaç bölüm öne çıkmaktadır.
Şeffaflık burada büyük bir odak noktasıdır. Yapay Zeka Yasası, yapay zeka şirketlerinin modellerini eğitmek için kullanılan web tarayıcıları hakkındaki ayrıntıları açıklamasını talep ediyor. AB, X’in yapay zeka sohbet robotu Grok’u nasıl eğittiğini araştıracak.
Risk değerlendirmesi aynı zamanda siber güvenlik, potansiyel ayrımcılık ve yapay zeka sistemlerinin kontrolden çıkma olasılığı ile ilgili endişeleri gidermeyi amaçlayan, merkezde yer alıyor.
Yapay zeka geliştiricilerinin ayrıca risk yönetimi stratejilerini özetlemeye ve azaltma çabalarını ilgili sistemik risk düzeyiyle eşleştirmeye yardımcı olacak bir Emniyet ve Güvenlik Çerçevesi (SSF) uygulaması bekleniyor.
Yönergeler, model verilerinin güvenliğinin sağlanması, güvenilir, arıza korumalı erişim kontrollerinin oluşturulması ve bu önlemlerin etkililiğinin sürekli olarak yeniden değerlendirilmesi gibi teknik hususları kapsamaktadır.
Son olarak yönetişim bölümü, sürekli risk değerlendirmelerine ve gerektiğinde dış uzmanların katılımına duyulan ihtiyacı vurgulayarak şirketler içinde hesap verebilirliği teşvik ediyor.
Diğer AB teknoloji düzenlemelerine benzer, örneğin Son zamanlarda büyük teknoloji şirketlerini zor durumda bırakan DMA’ya göre Yapay Zeka Yasası sert cezalar getiriyor. Şirketler, hangisi daha yüksekse, 35 milyon Euro’ya (yaklaşık 36,8 milyon ABD Doları) veya küresel yıllık kârlarının yüzde yedisine kadar para cezası riskiyle karşı karşıya.
Paydaşların 28 Kasım’a kadar Futurium platformu aracılığıyla bu taslak hakkında geri bildirimde bulunmaları gerekiyor. Kesinleşen kuralların 1 Mayıs 2025’ten itibaren yürürlüğe girmesi planlanıyor.
Bu düzenlemeler büyük teknolojiye ve bazı şirketlere pek uymayabilir. Meta ve Apple gibi şirketler de AB Yapay Zeka Yasasını imzalamayı reddederek anlaşmazlıklarını zaten dile getirmişlerdi. Bu arada OpenAI, Google ve Microsoft gibi teknoloji devleri de anlaşmaya destek verdi. Bununla birlikte, bu yasaların biz kullanıcılar için çok önemli olduğuna inanıyorum. Yapay zeka gelişiminin – özellikle eğitim ve gelecekteki uygulamalar açısından – kesinlikle daha yakından izlenmesi gerekiyor.