Elon Musk’un geçen hafta Kaliforniya eyalet mahkemesinde Sam Altman ve OpenAI aleyhine açtığı dava, sanıkları OpenAI’nin faydalı ve zararlı olmayan yapay genel zeka geliştirme yönündeki belirtilen misyonunun temel kısımlarını unutmakla suçluyor. Altman o zamandan bu yana sorumlu yapay zeka yeterliliğini desteklemek için harekete geçti. açık bir mektubun imzalanması dahil “İnsanların yaşamlarını iyileştirmek için” yapay zekayı geliştirme sözü verdi.

Ancak eleştirmenler Altman’ın sorumluluk gösterisine ikna olmadı. Geçtiğimiz yıl üretken yapay zekanın (genAI) hızlı bir şekilde yaygınlaşmasından bu yana, bu eleştirmenler, dizginsiz ve düzenlenmemiş yapay zeka gelişiminin sonuçlarının yalnızca insan toplumu için yıpratıcı olmakla kalmayıp, tamamen ona yönelik bir tehdit olabileceği konusunda uyarıyorlar.

IDC’nin dünya çapındaki yapay zeka ve otomasyon araştırmalarından sorumlu grup başkan yardımcısı Ritu Jyoti, Altman’ın sorumlu geliştirmeyi kamuya açık bir şekilde benimseme hareketinin bir kafa sahtekarlığından biraz daha fazlası olduğunu söyledi.

“Sektörde yapay zekanın sorumlu bir şekilde geliştirilmesi ve dağıtılması konusunda kolektif sorumluluğun olduğu konusunda bir fikir birliği olsa da, bu mektup ihtiyaç duyulan belirli eylemleri karşılamada yetersiz kalıyor” dedi. “Yani bana göre çok fazla katma değeri yok.”

Altman aynı zamanda imza sahibidir. dünyayı değiştiren riskleri kabul eden bir mektup Ancak eleştirmenler, bu riskleri ele alma çabalarının öz düzenleyici doğasının yetersiz olduğunu iddia etmeye devam ediyor.

Bunun anahtarı, endüstrinin, yapay zeka araçlarının tasarım spesifikasyonlarının ötesinde davranışlar geliştirmeye başlamasıyla ortaya çıkan hizalama sorununu çözmedeki başarısızlığıdır. Korku, en gelişmiş yapay zeka örneklerinin potansiyel olarak kendi kendilerine yinelenebilmesidir; bu da insanların istemediği şekillerde gelişme riski anlamına gelir.

“Soru şu ki, bizden daha akıllı olan bir sistemi kontrol edebilir miyiz?” diye sordu Hollandalı geliştirici ve kendini yapay zekanın oluşturduğu riskleri azaltmaya adamış PauseAI grubunun kurucusu Joep Meindertsma.

Meindertsma, son derece yıkıcı ve tehlikeli olabilecek türden bir teknoloji olarak karmaşık araştırma görevlerini gerçekleştirmek için esasen kendine sorular sorabilen ve kendi sorgularını oluşturabilen AutoGPT gibi bir sistemin örneğini verdi.

“Bir noktada birisi o bilgisayara, bunun diğer makinelere yayılmasının yararlı olacağı fikrini içeren bir şey soracak” dedi. “İnsanlar kelimenin tam anlamıyla AutoGPT’den dünyayı ele geçirmesini istedi.”

Altman ve OpenAI’ye karşı açılan davaya gelince Meindertsma, Musk’un haklı olabileceğini söyledi. OpenAI’yi kurmanın asıl amacının, yapay zekanın gelişimine sorumlu yönlerde rehberlik etmek olduğunu savundu. Yüksek hızlı gelişimin mevcut durumu, Altman ve OpenAI’nin liderliği altında oluşturulan tüm korkuluk endüstrisi organizasyonlarını hızla geride bırakıyor.

Eleştirmenler, bu nedenle sektörün kendi kendini düzenlemesi konusunda güvenilemeyeceğini ve hükümetin olası bir felaketi önlemek için müdahale etmesi gerektiğini savundu. Meindertsma, GPT4’ün web sitelerini özerk bir şekilde hackleme yeteneği gibi halihazırda kanıtlanmış yeteneklerin kritik derecede tehlikeli olduğunu ve genAI’nin hızlı gelişimiyle birleşen düzenleme eksikliğinin varoluşsal bir tehdit olduğunu söyledi.

Meindertsma, “Nükleer maddeyi düzenlediğimiz gibi onu da düzenlemeliyiz” dedi.

Telif Hakkı © 2024 IDG Communications, Inc.



genel-13