Bir grup üst düzey yapay zeka araştırmacısı, mühendisi ve CEO’su, yapay zekanın insanlık için oluşturduğuna inandıkları varoluşsal tehdit hakkında yeni bir uyarı yayınladı.

Mümkün olduğunca geniş ölçüde kabul edilebilir olması için kısaltılmış 22 kelimelik açıklama şu şekildedir: “Yapay zekadan kaynaklanan yok olma riskini azaltmak, pandemiler ve nükleer savaş gibi diğer toplumsal ölçekli risklerin yanı sıra küresel bir öncelik olmalıdır.”

San Francisco merkezli kâr amacı gütmeyen bir kuruluş olan Yapay Zeka Güvenliği Merkezi tarafından yayınlanan bu bildiri, aralarında Google DeepMind CEO’su Demis Hassabis ve OpenAI CEO’su Sam Altman’ın yanı sıra Geoffrey Hinton ve Youshua Bengio’nun da bulunduğu kişiler tarafından ortaklaşa imzalandı. Yapay zeka üzerindeki çalışmaları nedeniyle 2018 Turing Ödülü’nü (bazen “Bilgisayarın Nobel Ödülü” olarak anılır) kazanan üç yapay zeka araştırmacısı. Bu makalenin yazıldığı sırada, yılın üçüncü kazananı, şimdi Facebook ana şirketi Meta’nın baş yapay zeka bilimcisi olan Yann LeCun imzalamadı.

Açıklama, AI güvenliği konusundaki karmaşık ve tartışmalı tartışmadaki en son yüksek profilli müdahaledir. Bu yılın başlarında, aynı kişilerin birçoğu tarafından imzalanan ve 22 kelimelik uyarıyı destekleyen açık bir mektup, AI geliştirmede altı aylık bir “duraklama” çağrısında bulundu. Mektup birçok düzeyde eleştirildi. Bazı uzmanlar bunun AI’nın yarattığı riski abarttığını düşünürken, diğerleri risk konusunda hemfikirdi ancak mektubun önerdiği çareyi kabul etmedi.

Yapay Zeka Güvenliği Merkezi’nin yönetici direktörü Dan Hendrycks, söylenmiş New York Times AI’nın oluşturduğu tehdidi hafifletmek için herhangi bir potansiyel yol önermeyen bugünkü açıklamanın kısalığının, bu tür bir anlaşmazlığı önlemeyi amaçladığını. Hendrycks, “30 potansiyel müdahaleden oluşan çok geniş bir menü için zorlamak istemedik” dedi. “Bu olduğunda, mesajı sulandırıyor.”

“Yapay zeka topluluğunda bile, yalnızca bir avuç dolusu mahkum olduğuna dair çok yaygın bir yanılgı var.”

Hendrycks, mesajı, AI riskinden endişe duyan sektördeki rakamlar için bir “açıklama” olarak nitelendirdi. Hendrycks, “Yapay zeka topluluğunda bile, yalnızca bir avuç mahkum olduğuna dair çok yaygın bir yanılgı var” dedi. Kere. “Ama aslında pek çok insan bu tür şeylerle ilgili endişelerini özel olarak dile getirirdi.”

Bu tartışmanın genel hatları tanıdıktır, ancak yapay zeka sistemlerinin yeteneklerini hızla artırdığı ve artık güvenli bir şekilde çalışmadığı varsayımsal senaryolara dayanan ayrıntılar genellikle sonu gelmez. Pek çok uzman, istihbaratta gelecekte öngörülen kazanımların kanıtı olarak büyük dil modelleri gibi sistemlerdeki hızlı gelişmelere işaret ediyor. AI sistemleri belirli bir karmaşıklık düzeyine ulaştığında, eylemlerini kontrol etmenin imkansız hale gelebileceğini söylüyorlar.

Diğerleri bu tahminlerden şüphe ediyor. AI sistemlerinin, örneğin araba kullanmak gibi nispeten sıradan görevleri bile yerine getiremediğini gösteriyorlar. Bu araştırma alanında yıllarca süren çabaya ve milyarlarca yatırıma rağmen, tamamen sürücüsüz arabalar hala bir gerçeklikten uzak. Şüpheciler, yapay zeka bu tek zorlukla bile başa çıkamıyorsa, teknolojinin önümüzdeki yıllarda diğer tüm insan başarılarıyla eşleşme şansı nedir?

Bu arada, hem AI risk savunucuları hem de şüpheciler, yeteneklerinde iyileştirmeler olmasa bile, AI sistemlerinin günümüzde kitlesel gözetleme sağlayan kullanımlarından hatalı “öngörülü polislik” algoritmalarını güçlendirmeye ve kolaylaştırmaya kadar bir dizi tehdit oluşturduğu konusunda hemfikirdir. yanlış bilgi ve dezenformasyon yaratmak.



genel-2