Birleşik Krallık’ın antitröst düzenleyici kurumu, yapay zeka pazarındaki gelişmelerin inovasyonu engelleyebileceği yönündeki endişelerini dile getirdikten sonra teknoloji devlerini uyardı.

İngiltere Rekabet ve Piyasalar Otoritesi (CMA) CEO’su Sarah Cardell, bir konuşma yaptı. yapay zekanın düzenlenmesine ilişkin konuşma Perşembe günü Washington DC’de, bulut hizmeti sağlayıcılarına yönelik daha önce duyurulan bir soruşturmanın yapay zekaya özgü yeni unsurları vurgulanıyor.

CMA ayrıca Microsoft’un OpenAI ile ortaklığının daha geniş yapay zeka ekosistemindeki rekabeti nasıl etkileyebileceğini de araştıracak. Araştırmanın bir başka kolu, Nvidia’nın hakim olduğu bir pazar segmenti olan AI hızlandırıcı çiplerdeki rekabet ortamını inceleyecek.

Cardell, yapay zekadaki hızlı gelişim temposunu ve son dönemdeki birçok yeniliği överken, mevcut teknoloji devinin aşırı kontrol uyguladığı yönündeki endişelerini de dile getirdi.

“Günümüzün en önemli dijital pazarlarının çoğunda halihazırda pazar gücü konumunda olan az sayıdaki yerleşik teknoloji firmasının temel modeller değer zincirindeki artan varlığının, bu yeni pazarları adil, açık rekabetin zararına derinden şekillendirebileceğine inanıyoruz. ve etkili rekabet,” dedi Cardell, Antitröst Hukuku Bahar Toplantısı konferansında yaptığı konuşmada.

Satıcının kilitlenmesi korkuları

Ürün ve hizmetlerin rekabete aykırı şekilde bağlanması veya paketlenmesi, pazara yeni girenlerin hayatını zorlaştırıyor. Cardell’e göre veri, bilgi işlem gücü ve teknik uzmanlık gibi kritik girdilerin tedariki de dahil olmak üzere ortaklıklar ve yatırımlar da rekabet tehdidi oluşturuyor.

Yapay zeka tabanlı teknolojiler ve hizmetler için gelişmekte olan pazarda “az sayıda güçlü platformun” hakimiyetiyle sonuçlanan “kazanan her şeyi alır dinamiklerini” eleştirdi.

“Yerleşik firmaların, yeni girenlerin ve daha küçük oyuncuların etkili bir şekilde rekabet etmesini engellemek için çekirdek pazar güçlerinden yararlandıklarını, serbest ve açık pazarların toplumlarımız ve ekonomilerimiz için sağlayabileceği yenilik ve büyümeyi engellediğini gördük” dedi.

Birleşik Krallık’ın beklemede olan Dijital Pazarlar, Rekabet ve Tüketiciler Yasası, CMA’nın mevcut yetkilerinin yanı sıra, otoriteye yapay zeka pazarında çeşitliliği ve seçeneği teşvik etme yeteneği verebilir.

Amazon ve Nvidia, Cardell’in konuşması hakkında yorum yapmayı reddederken, konuşmada isimlerini kontrol eden diğer satıcılar (Google, Microsoft ve OpenAI) hemen yanıt vermedi.

Avrupalı ​​risk sermayesi şirketi Breega’nın ortağı ve eski bir Google çalışanı olan Dan Shellard, CMA’nın yapay zeka pazarının nasıl geliştiği konusunda endişelenmekte haklı olduğunu söyledi.

Shellard, “Temel modeller oluşturmak için gereken büyük miktarda bilgi işlem, yetenek, veri ve nihayetinde sermaye nedeniyle, yapay zeka doğası gereği büyük teknolojiyi merkezileştiriyor” dedi.

“Elbette, Mistral dahil olmak üzere birkaç Avrupalı ​​oyuncunun rekabet etmek için gereken sermayeyi başarıyla topladığını gördük, ancak gerçek şu ki, AI teknolojilerini destekleyen temel modellerin mülkiyeti seçkin bir gruba ait olmaya devam ediyor.”

Yakın zamanda oylananlar AB Yapay Zeka Yasası ve potansiyeli Yapay zeka pazarındaki ABD düzenlemesi CMA’nın büyüyen bir hareketin sadece bir aktörü olduğu değişen bir tablo ortaya koyuyor. Sektör uzmanlarına göre, CMA gibi kuruluşlar tarafından yapay zeka araçlarına ilişkin düzenleme ve gözetimin sonuçları önemli.

İngiltere merkezli xDesign’ın baş ürün ve teknoloji sorumlusu Jeff Watkins, “Gelecekteki düzenlemeler, veri, uzmanlık ve bilgi işlem kaynakları gibi yapay zeka bileşenlerinin geliştirilmesi, kullanımı ve satışında ‘temel girdiler’ etrafında daha katı kurallar getirebilir” dedi. dijital tasarım danışmanlığı.

Risk azaltma

Piyasa gücü yoğunlaşmasını önlemeye yönelik düzenlemelerin, yapay zeka etrafındaki mevcut kod ve veri yoğunlaşmalarını nasıl etkileyeceğini zaman gösterecek.

Yapay zeka araçları geliştiricisi Vixen Labs’ın CEO’su James Poulter, kendi yapay zeka araçlarını geliştirmek isteyen işletmelerin riskleri en aza indirmek için açık kaynak teknolojilerinden yararlanmaya çalışması gerektiğini öne sürdü.

“CMA ve diğer düzenleyici kurumlar temel modellerin eğitilme şekline kısıtlamalar getirmeye başlarsa ve daha da önemlisi bu tür modellerin çıktılarından yaratıcıları sorumlu tutarsa, açık kaynak yaklaşımını benimsemek isteyen şirketlerin sayısında bir artış görebiliriz. Sorumluluklarını sınırlandırın,” dedi Poulter.

Finansal hizmet firmaları, perakendeciler ve diğerlerinin, yapay zeka stratejisinin bir parçası olarak kurmayı seçtikleri modelleri değerlendirmek için zaman ayırmaları gerekirken, düzenleyiciler “genellikle bu tür modelleri yaratan şirketleri hesap vermeye eğilimlidirler – kullanıcıları kısıtlamaktan daha fazlası, dedi.

Poulter’a göre veri gizliliği, yapay zekayı dağıtmak isteyen işletmeler için daha önemli bir sorun.

Poulter şu sonuca vardı: “Yapay zeka araçları kullanıcılarını, model oluşturuculara hangi verileri sağladıkları dahil olmak üzere, bunları nasıl kullanacakları konusunda kişisel sorumluluk almaya teşvik eden ve temel model sağlayıcılarının model eğitimine etik bir yaklaşım benimsemelerini sağlayan bir düzenleyici model görmemiz gerekiyor. ve gelişim.”

Yapay zeka pazarı düzenlemelerinin geliştirilmesi, daha katı veri yönetimi uygulamaları getirebilir ve bu da uyumlulukla ilgili ek sorunlar yaratabilir.

APIContext CEO’su Mayur Upadhyaya, “Müşteri profili oluşturma veya duygu analizi gibi görevler için yapay zeka kullanan şirketler, veri toplama için kullanıcı onayının alındığından ve sorumlu veri kullanım ilkelerine uyulduğundan emin olmak için denetimlerle karşı karşıya kalabilir” dedi. “Ek olarak daha sıkı API güvenliği ve yetkilendirme standartları uygulanabilir.”

Domino Data Lab Yapay Zeka Stratejisi Başkanı Dr. Kjell Carlsson şunları söyledi: “Üretken yapay zeka, veri gizliliği risklerini artırıyor çünkü müşterilerin ve çalışanların örneğin gelişmiş sohbet robotları aracılığıyla yapay zeka modelleriyle doğrudan etkileşime geçmesini kolaylaştırıyor ve bu da veri gizliliği risklerini artırıyor. insanların hassas bilgileri ifşa etmesine neden olur ve bu durumda bir kuruluş bu bilgileri korumak durumunda kalır. Ne yazık ki, veri yönetimine yönelik geleneksel mekanizmalar, yapay zeka kullanırken GDPR’ye aykırı düşme riskini en aza indirmeye yardımcı olmuyor çünkü bunların yapay zeka modeli yaşam döngüsüyle bağlantısı yok.”

APIContext’in Upadhyaya’sı, kullanıcı rıza mekanizmalarının doğrudan yapay zeka sohbet robotları ve benzerleriyle olan etkileşimlere entegre edilmesini önerdi ve GDPR gibi düzenlemelere uyumun dışına çıkma risklerini azaltmaya yönelik bir yaklaşım sunuyor.

Üretken Yapay Zeka, Düzenleme



genel-12