ChatGTP, BingChat veya GoogleBard gibi üretici yapay zeka modellerinin çok büyük verimlilik avantajları sağlayabileceğine şüphe yok; ancak bunlar, doğruluk endişelerinin yanı sıra önemli siber güvenlik ve gizlilik endişelerini de beraberinde getiriyor.

Bu programların – özellikle ChatGTP’nin kendisinin – gerçekleri uydurduğu ve defalarca yalan söylediği zaten biliniyor. Daha da kötüsü, cilveli bir şekilde “halüsinasyonlar” olarak adlandırılan bu yalanların neden ve nasıl gerçekleştiğini kimse anlamıyor gibi görünüyor.

İçinde son zamanlarda 60 dakika röportajGoogle CEO’su Sundar Pichai açıkladı: “Bunun bir yönü var ki – sahada hepimiz – buna ‘kara kutu’ diyoruz. Tam olarak anlamıyorsun. Ve bunu neden söylediğini tam olarak anlayamıyorsun.”

ChatGPT’yi ve diğer çeşitli üretken modellerin temelini oluşturan OpenAI’nin, bu modelleri nasıl eğittiğinin ayrıntılarını vermeyi reddetmesi, kafa karışıklığını artırıyor.

Buna rağmen, sistemler tekrar tekrar yalan söylese de, kullanıcılar bunun ne hakkında olduğunu bilmese de, bunun neden olduğunu kimse bilmese de, işletmeler neredeyse her şey için bu modelleri deniyor ve hiçbir yerde bir çözüm yok gibi görünüyor. görünüş. Bu çok büyük bir problem.

Uzun belgeleri özetlemek kadar sıradan bir şey düşünün. Özetin doğru olduğuna güvenemeyeceksen, ne anlamı var? Değer nerede?

Peki ya bu sistemler ne zaman kodlama yapıyor? Beyni ChatGPT tarafından tasarlanan elektronik bir araçta ne kadar rahatsınız? Ya yolun açık olmadığı halde temiz olduğu halüsinasyonuna uğrarsa? Bir uçaktaki rehberlik sistemi veya akıllı bir kalp pili veya ilaçların ve hatta kahvaltılık gevreklerin üretim prosedürleri ne olacak?

1983’ten ürkütücü derecede isabetli bir popüler kültür referansında, Film Savaş oyunları Pentagon tarafından bir nükleer savaşta daha etkili karşı saldırı yapmak için kullanılan üretken bir AI sistemini tasvir etti. NORAD’da barındırılıyordu. Bir noktada, sistem kendi testini yapmaya karar verir ve Rusya’dan çok sayıda yaklaşan nükleer füze saldırısı uydurur.

Sistemin geliştiricisi, saldırıların hayali olduğunu, sistemin uydurduğunu savunuyor. Ürkütücü bir tahmin anında, geliştirici, sistemin “halüsinasyon” gördüğünü söylüyor – terim yapay zeka topluluğunda icat edilmeden on yıllar önce. (Halüsinasyonlara ilk referans 2018’de Google’dan görünüyor..)

Filmde, NORAD yetkilileri “saldırıyı” savuşturmaya karar vererek sistemin kendi kendine misilleme yapabilmesi için komutayı devralmasını ister. Bu, 40 yıl önce fantastik bilimkurguydu; bugün, çok değil.

Kısacası, üretken AI’yı kodlamak için kullanmak tehlikelidir, ancak verimliliği o kadar büyüktür ki, şirket yöneticilerinin onu kullanması son derece cazip olacaktır. AWS’de Yapay Zeka ve Makine Öğrenimi Hizmetlerinden sorumlu başkan yardımcısı Bratin Sahakararın biri ya da diğeri olması gerekmediğini savunuyor.

Nasıl yani? Saha, üretken yapay zeka ile kodlamanın verimlilik faydalarının o kadar yüksek olduğunu ve geliştirme sonrası onarımlar için bütçede bol miktarda dolar olacağını savunuyor. Bu, hem otomatikleştirilmiş yazılımlar hem de pahalı insan yetenekleri ile bir korumalı alanda kapsamlı güvenlik ve işlevsellik testleri ve çok çekici elektronik tablo yatırım getirisi için ödeme yapmak için yeterli dolar anlamına gelebilir.

Yazılım geliştirme, üretici yapay zeka ile %57 daha verimli bir şekilde yürütülebilir — en azından AWS tadıancak daha az deneyimli kodlayıcıların yerini alırsa bu verimlilik daha da iyi olur, dedi Saha bir konuşmasında Bilgisayar Dünyası röportaj. “Onu birçok yüksek kaliteli kod üzerinde eğittik, ancak verimlilik yaptığınız göreve ve yeterlilik düzeyine bağlıdır” diyen Saha, “Programlamaya yeni başlayan bir kodlayıcı, kitaplıkları ve kodlama.”

Hassas verilerin üretici yapay zekaya aktarılmasıyla ilgili bir diğer güvenlik endişesi, başka bir yere aktarılabilmesidir. Bazı işletmeler, örneğin özetler için sisteme girilen verilerin daha sonra farklı bir şirkete yanıt olarak gösterilebileceğini keşfetmiştir. Özünde, sisteme beslenen sorular ve veriler, öğrenme sürecinin bir parçası haline gelir.

Saha, üretici yapay zeka sistemlerinin veri sızıntısını en aza indirmek için güvenlik önlemleri alacağını söyledi. AWS sürümünün, kullanıcıların halüsinasyonları en aza indirmesi gereken “çıktıyı verilenle sınırlamasına” izin vereceğini söyledi. “Modeli, kendisine verilen belirli içerikten yanıtlar üretmek için kullanmanın yolları var. Ve modelin bilgilerini nereden aldığını da dahil edebilirsiniz.”

Halüsinasyonlar konusuna gelince Saha, ekibinin bunu en aza indirmenin yollarını bulduğunu söyledi.adı verilen AWS’den kod oluşturma motoru CodeWhisperer, güvenlik açıklarını kontrol etmek için makine öğrenimini kullanır.

Ancak Saha’nın temel argümanı, verimliliğin o kadar yüksek olmasıdır ki, işletmeler son kodlama analizine pek çok ek kaynak aktarabilir ve Hala bir CFO’yu bile gülümsetecek kadar güçlü bir yatırım getirisi sağlayın.

Bu pazarlık riske değer mi? bana klasik bir sahneyi hatırlattı vaftiz babası. Don Corleone, diğer organize suç ailelerinin liderlerine neden uyuşturucu satışına karşı olduğunu açıklıyor. Başka bir aile reisi, başlangıçta böyle düşündüğünü, ancak büyük karlar karşısında boyun eğmesi gerektiğini söylüyor.

“Uyuşturucuya da inanmıyorum. Yıllarca halkıma bu tür işler yapmasınlar diye fazladan para ödedim. Ama biri onlara gelir ve ‘Tozlarım var’ der. 3.000-4.000$ yatırım yapın, biz dağıtımdan 50.000$ kazanalım.’ Bu yüzden karşı koyamazlar” şef dedi. “Onu saygın kılmak için bir iş olarak kontrol etmek istiyorum. Okulların yakınında istemiyorum. Çocuklara satılmasını istemiyorum.”

Başka bir deyişle, CISO’lar ve hatta CIO’lar güvenlik değiş tokuşunu tehlikeli ve kabul edilemez bulabilir, ancak iş kolu şefleri tasarrufları o kadar güçlü bulacaklar ki karşı koyamayacaklar. Dolayısıyla CISO’lar en azından güvenlik önlemlerini devreye sokabilir.

NTT Ltd.’nin siber güvenlik direktörü Dirk Hodgson, kodlama için üretken AI kullanma konusunda dikkatli olmaya çağıracağını söyledi.

Hodgson, “Yazılım geliştirme için gerçek bir risk var ve bunun doğru yanıtlar yerine nasıl yanlış yanıtlar ürettiğini açıklamanız gerekecek,” dedi. Çoğu işin doğasına ve kodlanan görevin doğasına bağlıdır.

Hodgson, “Yapay zekanın son derece başarılı olduğu her disipline bakarsanız, her durumda düşük bir başarısızlık maliyetine sahip olduğunu iddia ediyorum,” dedi ve bu, bir şeyler ters giderse hasarın sınırlı olacağı anlamına geliyordu.

Düşük riskli bir çabanın bir örneği, şovlar veya belki de diyalog için fikirler geliştirmek üzere üretici yapay zeka kullanan bir eğlence şirketi olabilir. Bu senaryoda, eldeki asıl görev bu olduğu için sistemin bir şeyler uydurmasından hiçbir zarar gelmez. Ayrıca, telif hakkıyla korunan bir kaynaktan bir fikri veya diyaloğu çalma tehlikesi vardır.

Diğer bir önemli programlama riski, istenmeyen güvenlik açıklarını içerir. Güvenlik açıkları tek bir uygulamada meydana gelebilse de, iki temiz uygulama etkileşime girip bir güvenlik açığı oluşturduğunda da kolaylıkla meydana gelebilir; Bu asla test edilemeyecek bir senaryo çünkü hiç kimse uygulamaların etkileşime girmesini beklemiyordu. Bazı API kodlamaları ekleyin ve sorun potansiyeli çok daha yüksektir.

“Kodlama sırasında yanlışlıkla bazı temel veritabanlarından yararlanmanın yeni bir yolu gibi yeni güvenlik açıkları ortaya çıkarabilir. AI ile, bu koda hangi delikleri ekleyebileceğinizi bilemezsiniz, ”dedi Hodgson. “Bununla birlikte, AI kodlama geliyor ve faydaları var. Bu avantajlardan mutlaka yararlanmaya çalışmalıyız. Yine de yaratacağı sorumluluğu gerçekten biliyor muyuz? Bunu henüz bildiğimizi sanmıyorum. Bu aşamadaki politikamız, onu kullanmamamızdır.”

Hodgson, Saha’nın, küçük kodlayıcıları değiştirirken AI verimliliklerinin en yüksek olduğu hakkındaki yorumlarına dikkat çekti. Ancak programlama görevlerini genç programcılardan alıp yapay zekaya vermesi önerisine direndi. “Eğer o küçükleri geliştirmezsem, onları asla kıdemli yapamam. Onları iyi bir yaşlı yapmak için gereken becerileri öğrenmeleri gerekiyor.”

Telif hakkı © 2023 IDG Communications, Inc.



genel-13