Kapsamlı AI mevzuatı hala yıllarca uzakta olsa da, sektör ışık hızında ilerliyor ve Beyaz Saray dahil birçok kişi bunun kendini kaptırabileceğinden endişe ediyor. Bu nedenle Biden yönetimi, planlanan bir Başkanlık Kararnamesi öncesinde ortak güvenlik ve şeffaflık hedeflerine ulaşmak için en büyük 7 yapay zeka geliştiricisinden “gönüllü taahhütler” topladı.

OpenAI, Anthropic, Google, Inflection, Microsoft, Meta ve Amazon bu bağlayıcı olmayan anlaşmada yer alan şirketler ve bugün Beyaz Saray’a Başkan Biden ile görüşmek üzere temsilciler gönderecek.

Açık olmak gerekirse, burada önerilen herhangi bir kural veya yaptırım yoktur – üzerinde anlaşmaya varılan uygulamalar tamamen gönüllüdür. Ancak hiçbir devlet kurumu, birkaç kişiden kaçarsa bir şirketi sorumlu tutmayacak olsa da, bu muhtemelen kamuya açık bir kayıt meselesi olacaktır.

İşte Beyaz Saray konserine katılanların listesi:

  • Brad Smith, Başkan, Microsoft
  • Kent Walker, Başkan, Google
  • Dario Amodei, CEO, Anthropic
  • Mustafa Süleyman, CEO, Inflection AI
  • Nick Clegg, Başkan, Meta
  • Greg Brockman, Başkan, OpenAI
  • Adam Selipsky, CEO, Amazon Web Hizmetleri

Astları yok ama milyarderleri de yok. (Ve kadın yok.)

Yedi şirket (ve muhtemelen kırmızı halı muamelesi görmeyen ancak devam etmek isteyecek diğerleri) aşağıdakileri taahhüt etti:

  • Rakipler de dahil olmak üzere yayınlanmadan önce yapay zeka sistemlerinin dahili ve harici güvenlik testleri “kırmızı takım” şirket dışındaki uzmanlar tarafından.
  • Devlet, akademi ve “sivil toplum” arasında yapay zeka riskleri ve hafifletme teknikleri (“jailbreak’i” önleme gibi) hakkında bilgi paylaşın.
  • Ağırlıklar gibi özel model verilerini korumak için siber güvenliğe ve “iç tehdit önlemlerine” yatırım yapın. Bu sadece IP’yi korumak için değil, aynı zamanda erken geniş sürüm, kötü niyetli aktörler için bir fırsat sunabileceği için önemlidir.
  • Güvenlik açıklarının üçüncü taraf tarafından keşfedilmesini ve raporlanmasını kolaylaştırın, örneğin bir hata ödül programı veya etki alanı uzmanı analizi.
  • Sağlam filigran veya yapay zeka tarafından oluşturulan içeriği işaretlemenin başka bir yolunu geliştirin.
  • AI sistemlerinin “yeteneklerini, sınırlamalarını ve uygun ve uygunsuz kullanım alanlarını” bildirin. Bu konuda net bir cevap almak için iyi şanslar.
  • Sistematik önyargı veya mahremiyet sorunları gibi toplumsal risklerle ilgili araştırmalara öncelik verin.
  • Kanser önleme ve iklim değişikliği gibi “toplumun en büyük sorunlarının ele alınmasına yardımcı olmak için” yapay zeka geliştirin ve devreye alın. (Ancak bir basın toplantısında AI modellerinin karbon ayak izinin takip edilmediği belirtilmişti.)

Yukarıdakiler isteğe bağlı olmasına rağmen, bir Yürütme Emri tehdidinin – “şu anda geliştirilmekte olan” – uyumu teşvik etmek için orada olduğu kolayca düşünülebilir. Örneğin, bazı şirketler piyasaya sürülmeden önce modellerinin harici güvenlik testlerine izin vermezse, EO geliştirmek FTC’yi sağlam güvenlik iddiasında bulunan AI ürünlerine yakından bakmaya yönlendiren bir paragraf. (Bir EO, ​​ajanslardan AI’nın geliştirilmesinde ve kullanılmasında önyargıya dikkat etmelerini istemek için zaten yürürlüktedir.)

Beyaz Saray, sosyal medyanın yıkıcı yetenekleri tarafından biraz yalpalayan bir şekilde yakalanmış olan bu bir sonraki büyük teknoloji dalgasının önüne geçmeye açıkça hevesli. Başkan ve Başkan Yardımcısı, hem endüstri liderleriyle bir araya geldiler hem de ulusal bir AI stratejisi hakkında tavsiye istediler ve ayrıca yeni AI araştırma merkezlerine ve programlarına önemli miktarda fon ayırıyor. Tabii ki, ulusal bilim ve araştırma aygıtı, bu son derece kapsamlı (gerçi biraz güncelliğini yitirmiş olsa da) olarak, onların çok ilerisindedir. DOE ve National Labs’ın gösterdiği araştırma zorlukları ve fırsatları raporu.



genel-24