Yapay zeka şirketi OpenAI, Pazartesi günü web sitesinde yayınlanan bir plana göre, yönetim kurulunun güvenlik kararlarını tersine çevirmesine izin vermek de dahil olmak üzere, en gelişmiş modellerinde güvenliği ele alan bir çerçeve hazırladı.

Microsoft destekli OpenAI, en son teknolojisini yalnızca siber güvenlik ve nükleer tehditler gibi belirli alanlarda güvenli görülmesi durumunda kullanacak. Şirket ayrıca güvenlik raporlarını incelemek ve bunları şirketin yöneticilerine ve yönetim kuruluna göndermek için bir danışma grubu oluşturuyor. Yöneticiler karar alırken, yönetim kurulu bu kararları tersine çevirebilir.

ChatGPT’nin bir yıl önce piyasaya sürülmesinden bu yana, yapay zekanın potansiyel tehlikeleri hem yapay zeka araştırmacılarının hem de genel kamuoyunun gündeminde yer aldı. Üretken yapay zeka teknolojisi, şiir ve makale yazma becerisiyle kullanıcıların gözlerini kamaştırdı, ancak aynı zamanda dezenformasyon yayma ve insanları manipüle etme potansiyeli nedeniyle güvenlik endişelerini de artırdı.

Nisan ayında, bir grup yapay zeka sektörü lideri ve uzmanı, OpenAI’nin GPT-4’ünden daha güçlü sistemlerin geliştirilmesine altı aylık bir ara verilmesi çağrısında bulunan ve topluma yönelik potansiyel risklere atıfta bulunan açık bir mektup imzaladı. Mayıs ayında yapılan Reuters/Ipsos anketi, Amerikalıların üçte ikisinden fazlasının yapay zekanın olası olumsuz etkilerinden endişe duyduğunu ve yüzde 61’inin medeniyeti tehdit edebileceğine inandığını ortaya çıkardı.

Bu ayın başlarında OpenAI, özel GPT mağazasının lansmanını 2024’ün başlarına kadar erteledi. OpenAI, Kasım ayındaki ilk geliştirici konferansında özel GPT’leri ve mağazayı tanıtmıştı. Şirketin müşteri geri bildirimlerine dayanarak GPT’lerde “iyileştirmeler yapmaya” devam ettiği bildiriliyor.

Geçen ay OpenAI de yönetim kurulunun CEO Sam Altman’ı görevden almasıyla çalkantı yaşadı. Altman, görevden alınmasından günler sonra yönetim kurulu yenilenirken şirkete geri döndü.

© Thomson Reuters 2023


Bağlı kuruluş bağlantıları otomatik olarak oluşturulabilir; ayrıntılar için etik bildirimimize bakın.



genel-8