Her bakımdan Avrupa Birliği’nin Yapay Zeka Yasası, teknoloji etikçilerini mutlu edecek bir şeye benziyor. dönüm noktası niteliğindeki yapay zeka kanunuBu hafta büyük bir yasama başarısı elde eden ABD, yeni teknolojinin yol açtığı zararlarla mücadele edecek geniş bir düzenleyici çerçeve oluşturmayı amaçlıyor. Mevcut haliyle yasa, yürürlükte olduğu ülkelerde yapay zekayı daha şeffaf, kapsayıcı ve tüketici dostu hale getirmek için bazı çabalara başvuracaktır. Sevilmeyecek ne var değil mi?

Yapay Zeka Yasası, diğer şeylerin yanı sıra, “yüksek riskli” sistemler olarak kabul edilen yapay zekanın tartışmalı kullanımlarını da yasaklayacak. Bu, işyerinde ve okullarda duygu tanıma sistemlerinin yanı sıra Çin’de çok yaygın hale gelen sosyal puanlama sistemlerini de içeriyor. Aynı zamanda yasa, AI ile medya içeriği üreten şirketleri bu kullanımı tüketicilere açıklamaya zorlayacak önlemler de içeriyor.

Pazartesi günü, bloğun üç şubesindeki düzenleyiciler, kanunla ilgili geçici bir anlaşmadaha iyi bir ifade olmadığı için anlaşmanın bittiği anlamına geliyor.

Ancak yine de, bazı politika zaferlerine rağmen, yeni yasada sivil toplum gruplarını fazlasıyla paniğe sevk eden önemli kör noktalar var.

Uluslararası Af Örgütü Algoritmik Sorumluluk Laboratuvarı Başkanı Damini Satija, örgütünün ve diğerlerinin son birkaç yıldır Yapay Zeka Yasasının gelişimini dikkatle izlediğini ve yeni yasada kutlanacak çok şey olsa da bunun pek de öyle olmadığını söyledi. yeterli.

Aslında Avrupa Parlamentosu’nun kendi basın bülteni dönüm noktası yasasında “dar istisnalar” kabul ediliyor [exist] biyometrik tanımlama sistemlerinin (RBI)”—başka bir deyişle polis toplu gözetleme teknolojisinin—“kolluk kuvvetleri amacıyla kamuya açık alanlarda, önceden adli izne tabi olarak ve kesin olarak tanımlanmış suç listeleri için kullanılması için.” Bu muafiyetin bir parçası olarak yasa, polisin şunları kullanmasına izin veriyor: canlı yüz tanıma teknolojisi— tartışmalı bir araç “Orwellci” olarak anılan “Belirli ve mevcut bir terör tehdidini” önlemek veya bir suçtan şüphelenilen kişiyi tespit etmek veya bulmak için kullanıldığı durumlarda, halktan kişileri izleme ve kataloglama yeteneği nedeniyle.

Tahmin edebileceğiniz gibi, Uluslararası Af Örgütü gibi gruplar için bu oldukça büyük bir kör nokta gibi görünüyor. Eleştirmenlerin bakış açısına göre kolluk kuvvetlerinin bu teknolojileri kullanımının gelecekte nasıl artabileceğine dair hiçbir bilgi yok. Satija, “Tarihten bildiğimiz gibi, ulusal güvenlik muafiyetleri genellikle hükümetlerin oldukça kapsamlı gözetim sistemleri uygulamasının bir yoludur” dedi.

Satija ayrıca AB yasalarının başka bir kritik alanda da başarısızlığa uğradığını belirtiyor. Kanun belirli “yüksek riskli” yapay zeka türlerini özellikle yasaklasa da, yapmadığı şey bu yapay zekanın diğer ülkelere ihracatını yasaklamak değil. Başka bir deyişle, çoğu Avrupalı ​​belirli, tartışmalı gözetim ürünlerine tabi olmayacakken, AB’deki şirketler bu araçları blok dışındaki diğer ülkelere satabilecek. Af özellikle işaret etti AB şirketlerinin, Uygur nüfusunu gözetlemek için Çin hükümetine ve Filistinliler üzerindeki kontrolünü sürdürmek için İsrail’e gözetleme ürünleri satmasına izin veriliyor.

Geçtiğimiz birkaç hafta içinde, Uluslararası Af Örgütü’nün Yapay Zeka Konusunda Savunuculuk Danışmanı Mher Hakobyan, birkaç ifadeler Yasanın kınanacak yönleri. Hakobyan, kolluk kuvvetlerinin istisnalarına atıfta bulunarak, bloğun “27 AB Üye Devletinde distopik dijital gözetime yeşil ışık yaktığını ve yapay zeka (AI) düzenlemesi konusunda küresel olarak yıkıcı bir emsal oluşturduğunu” söyledi. Öte yandan yasanın ihracata yönelik tutumu, “bir yandan AB’yi ‘güvenli, güvenilir ve etik Yapay Zeka’yı teşvik etmede küresel bir lider olarak sunan, diğer yandan da AB yasa yapıcıları açısından apaçık bir çifte standart” ortaya koyuyordu. Öte yandan AB şirketlerinin hakları ihlal eden yapay zeka sistemlerini dünyanın geri kalanına satmasını engellemeyi reddediyoruz.” dedi.

Diğer gruplar da benzer eleştirilerini dile getirdi. Electronic Frontier Foundation Uluslararası Politika Direktörü Christoph Schmon, yeni yasanın bazı bölümleri “umut verici” görünse de, yasa uygulama teknolojilerine yaklaşımının sorunlu olduğunu söyledi.

Schmon bir e-postada şunları söyledi: “Anlaşmanın nihai versiyonu hala değişim aşamasında, ancak temel hakların korunmasına ilişkin pek çok umut verici dile rağmen, biyometrik gözetime ilişkin yeni düzenlemelerin birçok soruyu açık bıraktığı açık” dedi. “Hükümetler tarafından yüz tanımanın bireysel mahremiyete, ifade özgürlüğüne ve sosyal adalete yönelik doğal bir tehdit oluşturduğunu her zaman söyledik” diye ekledi. “Yapay zeka anlaşmasındaki kolluk kuvvetleri istisnaları, kamuda yüz tanıma yasağını ve tahmine dayalı polislik üzerindeki kısıtlamaları İsviçre peynirine benzetiyor gibi görünüyor. Bununla birlikte, pek çok şey devam eden müzakerelerdeki teknik ayrıntılara ve bu kuralların pratikte nasıl uygulanacağına bağlı olacaktır.”

Yapay Zeka Yasası’nın politika ayrıntıları hâlâ ince ayar aşamasındadır ve AB’nin karmaşık yasama süreci, ince baskının biraz da olsa değişmesi için hâlâ fırsatların olduğu anlamına gelmektedir. Satija, “Metnin tam olarak sonuçlandırılması için hâlâ yapılması gereken çok iş var ve şeytan ayrıntılarda gizli olacak” dedi. Tasarının son halinin muhtemelen Ocak ayına kadar kesinleşmeyeceğini söyledi.

Onu takip edenler için; “Yapay zeka güvenliği” tartışması karmaşık ve bazen oldukça can sıkıcı olabilir. Liderlerin konuşma konusunda büyük bir eğilimi var mide bulandırıcı Yapay zekanın çok fazla şey yapmamasına rağmen oluşturduğu tehlikeler hakkında. Her ne kadar AB’nin, yapay zekanın yarattığı pek çok zorlukla boğuşan bir yasa çıkardığı için övgüye değer olsa da, kontrolden çıkması ve ortaya çıkması muhtemel olan yasa biçimlerini görmezden gelmeyi seçmeleri de biraz ironik görünüyor. İnsanlara zarar ver. Sonuçta yapay zeka destekli polis gözetiminden daha fazla distopik olamaz. Eğer insanlar yapay zekanın “güvenliği” konusunda bu kadar ciddiyse, neden bu kullanım durumları düzenleyiciler için birinci öncelik değil?

Kesinlikle Hükümetlerin Yapay Zeka Gözetiminin Çılgına Dönmesine İzin Vermek İstiyor Gibi Görünüyor başlıklı makale için resim

Fotoğraf: Tada Görselleri (Shutterstock)

Günün sorusu: “Çok modlu” ile ne alakası var?

Bu haftanın başında insanlar OpenAI’nin en son geniş dil modeli olan GPT-4.5’in internete sızdırıldığını söylemeye başladı. Daniel Nyugen, X’te kim paylaşım yaptı Söz konusu sızıntıyla ilgili olarak, LLM’nin “karmaşık akıl yürütme ve modlar arası anlayışın yanı sıra dil, ses, görüntü, video ve 3D genelinde çok modlu yeteneklere sahip” olduğunu belirtti. Bu sızıntı gibi görünse de aslında sahteGerçek olan tek şey, yapay zeka endüstrisinin şu anda tüm bu “çok modlu” şeye takıntılı olmasıdır. Anladığım kadarıyla çok modlu sistemler, bir yapay zeka sisteminin çeşitli farklı veri türlerini (metin, görseller, ses ve video gibi) kullanarak oluşturulduğu ve sistemin “insan-insan” sergilemesine izin veren sistemlerdir. gibi yetenekler. OpenAI’ler ChatGPT’nin son entegrasyonları (artık “konuşabiliyor”, “duyabiliyor” ve “görebiliyor”) multimodalitenin iyi örnekleridir. Şu anda yapay zeka geliştirmenin en çok arzu edilen hedefi olan AGI’ye (yapay genel zeka) doğru bir basamak taşı olarak kabul ediliyor.

Bu hafta daha fazla manşet

  • Sports Illustrated’ın CEO’su yapay zeka “gazeteciler” skandalının ardından görevden alındı. Sports Illustrated’ın eski baş yöneticisi Ross Levinsohn, kovuldu çıkıştan sonra yayının ana şirketi Arena Group tarafından AI tarafından oluşturulan birkaç hikaye yayınladı sahte imza kullanma. Skandal, haber kuruluşlarının kimsenin fark etmeyeceğini umarak yapay zeka tarafından oluşturulan içeriği web sitelerine gizlice sokmaya çalışarak son derece etik olmayan bir karar aldığı bir dizi benzer olaydan yalnızca en yenisi.
  • Microsoft yapay zeka konusunda nükleer bir adım atmak istiyor. Bill Gates’in kurduğu vasat yazılım şirketi Microsoft, bunu başardı. Kendini yapay zeka endüstrisinde yükselen bir yıldıza bağlamak (OpenAI), böylece kendisine birkaç yıllık kültürel alaka daha satın alıyor. Microsoft şimdi, iki işletmenin başlattığı devasa yapay zeka operasyonlarına güç sağlamak için tartışmalı bir enerji kaynağına yönelmeyi umuyor: nükleer enerji. Oldu önceden rapor edildi Microsoft’un “küresel büyüme için nükleer enerji altyapısının tüm yönlerine yönelik proje girişimlerine liderlik edecek” bir kişi arayışında olduğu belirtildi. Şimdi Wall Street Journal raporlar Şirketin karmaşık nükleer düzenleme sürecini yönlendirmek için yapay zekayı kullanmaya çalıştığı belirtiliyor. Bu sürecin yıllar aldığı biliniyor, bu nedenle Microsoft bunu otomatikleştirmenin yardımcı olabileceğini düşünüyor.
  • Papa yapay zeka diktatörlüğünden oldukça endişeli. Papa Francis modern dünyanın tehlikeleri üzerine kafa yoruyor ve bu hafta şöyle konuştu: Yapay zeka destekli teknokrasi tehdidi. Dini lider, “teknokratik sistemlerin” “hayatta kalmamıza tehdit” oluşturmasını engellemek için kullanılabilecek bağlayıcı bir küresel anlaşma çağrısında bulundu. Sert sözler. Sanırım o deepfake gerçekten çok etkileyici görünüyordu.





genel-7