Geçen Nisan ayında, 27 yaşındaki Nicole paylaşımda bulundu. bir TikTok videosu kariyerinde tükenmiş hissetmek hakkında. Ancak ertesi gün yorumları kontrol ettiğinde farklı bir sohbetin devam ettiğini gördü.

Bir yorumcu “Tanrım, bu gerçek bir insan değil” diye yazdı. “Korkuyorum.”

Bir başkası, “Yasal değil, o yapay zeka,” dedi.

Almanya’da yaşayan Nicole’de saç dökülmesi var. Bir kişinin vücudunda saç dökülmesine neden olabilen bir durumdur. Bu nedenle, insanların ona garip bir şekilde bakıp neyin “yanlış” olduğunu anlamaya çalışmasına alışkın olduğunu bir görüntülü görüşme sırasında söylüyor. “Ama bu sonuca asla varmadım, ki [I] CGI ya da her neyse olmalı.”

Son birkaç yılda, AI araçları ve CGI kreasyonları, insan gibi davranma konusunda giderek daha iyi hale geldi. Bing’in yeni sohbet robotu aşık oluyorve gibi etkileyiciler KodMiko Ve Lil Miquela bizden bir dizi dijital karaktere gerçek insanlar gibi davranmamızı isteyin. Ancak insanlığı taklit eden araçlar her zamankinden daha gerçekçi hale geldikçe, çevrimiçi insan içerik oluşturucular bazen kendilerini alışılmadık bir noktada buluyor: gerçek olduklarını kanıtlamaları isteniyor.

Neredeyse her gün bir insandan bir bilgisayara kendi insanlığını kanıtlaması isteniyor.

Neredeyse her gün bir insandan bir bilgisayara kendi insanlığını kanıtlaması isteniyor. 1997 yılında, bilgi teknolojisi şirketi Sanctum’daki araştırmacılar icat edilmiş otomatik bilgisayarlı eylem ile insan eylemi arasında ayrım yapmanın bir yolu olarak artık “CAPTCHA” olarak bildiğimiz şeyin erken bir versiyonu. Kısaltma, daha sonra icat edildi 2003’te Carnegie Mellon Üniversitesi ve IBM’deki araştırmacılar tarafından hazırlanan, biraz hantal olan “Bilgisayarları ve İnsanları Ayırt Etmek için Tamamen Otomatik Açık Turing testi”nin bir vekili. CAPTCHA’lar, botların toplu halde e-posta adreslerine kaydolma, ticari web sitelerini işgal etme veya çevrimiçi anketlere sızma gibi şeyler yapmasını engellemek için kullanılır. Her kullanıcının bir dizi belirsiz harfi tanımlamasını veya bazen sadece bir kutuyu işaretlemesini gerektirir: “Ben robot değilim.”

Bu nispeten zararsız uygulama, 2023’te DALL-E ve ChatGPT gibi OpenAI araçlarının yükselişinin kullanıcılarını şaşırtıp korkutmasıyla yeni bir önem kazanıyor. Bu araçlar, yalnızca birkaç insan tarafından sağlanan anahtar kelimenin yardımıyla karmaşık görsel sanatlar üretebilir ve okunaklı makaleler üretebilir. ChatGPT, 30 milyon kullanıcıya ve günde yaklaşık 5 milyon ziyarete sahiptir. buna göre New York Times. Microsoft ve Google gibi şirketler kendi rakiplerini duyurmak için çırpındı.

Öyleyse, insanlardan kaynaklanan AI paranoyasının tüm zamanların en yüksek seviyesinde olması şaşırtıcı değil. Twitter’da size sadece “merhaba” diyen hesaplar? Botlar. Son iki yılda paylaştığınız her Instagram fotoğrafını beğenen kişi? Bir bot. Sola kaç kez kaydırırsanız kaydırın, her flört uygulamasında karşılaşmaya devam ettiğiniz bir profil? Muhtemelen bir bot da.

İnternette gördüklerimize güvenip güvenemeyeceğimizden her zamankinden daha fazla emin değiliz.

Birinin “bot” olduğu suçlaması, sosyal medya kullanıcıları arasında bir tür cadı avı haline geldi ve bakış açılarının veya davranışlarının gerçek destek alacak kadar meşru olmadığı konusunda ısrar ederek, aynı fikirde olmadıkları kişileri itibarsızlaştırmak için kullanıldı. Örneğin, her iki taraftaki taraftarlar Johnny Depp Ve kehribar duydum deneme, diğeri için çevrimiçi desteğin en azından bir şekilde bot hesaplarından oluştuğunu iddia etti. İnternette gördüklerimize her zamankinden daha fazla güvenip güvenemeyeceğimizden emin değiliz – ve gerçek insanlar bunun yükünü taşıyor.

İçin daniska carterSosyal yorumlar paylaşan bir TikToker, onun bir insan olup olmadığına dair spekülasyonlar, henüz 10.000 TikTok takipçisi olduğunda başladı. İzleyiciler onun bir android olup olmadığını sormaya başladı, onu suçlamak “AI titreşimleri” vermekten ve hatta ona sormak kendini bir CAPTCHA yaparken filme almak için. Bir görüntülü görüşme sırasında “Bunun harika olduğunu düşündüm,” diye itiraf etti.

“Çok özenle hazırlanmış ve özel bir estetiğim var” diyor. Bu, her video için aynı çerçeveyi ve genellikle aynı kıyafetleri ve saç stilini kullanmayı içerir. Danisha ayrıca yorumunda ölçülü ve objektif kalmaya çalışıyor, bu da benzer şekilde izleyicileri şüphelendiriyor. “Çoğu insanın TikTok videoları sıradan. Küratörlüğünü yapmıyorlar, tüm vücut çekimleri ya da en azından onları hareket ettirirken ve sadece kamera önünde oturmayan faaliyetlerde bulunurken görüyorsunuz.

İlk kez viral hale geldikten sonra, Nicole onu suçlayanlara şu şekilde yanıt vermeye çalıştı: saç dökülmesini açıklamak Ve insan niteliklerini belirtmek peruk takmaktan kaynaklanan bronzluk çizgileri gibi. Yorum yapanlar inanmıyordu.

“İnsanlar yorumlarda tüm teorilerle gelirdi, [they] ‘Hey, bunun bu saniyesine bir bak. Videodaki aksaklıkları tamamen görebilirsiniz” diyor. “Ya da ‘onun hata yaptığını görebilirsiniz.’ Ve çok komikti çünkü oraya gidip onu izler ve ‘Neden bahsediyorsun?’ Çünkü gerçek olduğumu biliyorum.”

İnsanlar insan olduklarını kanıtlamak için bilgisayarları ne kadar çok kullanırsa, bilgisayarlar onları taklit etmekte o kadar akıllı olur.

Ama Nicole’ün bunu kanıtlamasının bir yolu yok çünkü insan kendi insanlığını nasıl kanıtlayabilir? Yapay zeka araçları katlanarak hızlanırken, birinin kim olduğunu söylediğini kanıtlamak için en iyi yöntemimiz, bir ünlünün Reddit AMA için el yazısıyla yazılmış bir fotoğraf paylaştığında olduğu gibi, hala ilkel bir şeydir. dır-dir onlar mı, yoksa sadece bir derin sahte mi?

OpenAI gibi geliştiricilerin kendisi, bir metnin bir yapay zeka tarafından yazıp yazılmadığını tespit etmek için “sınıflandırıcı” araçlar yayınlamış olsa da, CAPTCHA araçlarındaki herhangi bir ilerlemenin ölümcül bir kusuru vardır: Daha fazla insan, insan olduklarını kanıtlamak için bilgisayarları kullanırsa, daha akıllı bilgisayarlar daha akıllı hale gelir. onları taklit ederken. Bir kişi her CAPTCHA testi yaptığında, bilgisayarın aynı şeyi yapmayı öğretmek için kullanabileceği bir veri parçasına katkıda bulunur. 2014 yılına gelindiğinde Google, bir yapay zekanın en karmaşık CAPTCHA’ları şu şekilde çözebileceğini keşfetti: yüzde 99 doğruluk. İnsanlar mı? Sadece yüzde 33.

Bu nedenle mühendisler, insanlardan bir dizi resimdeki gerçek dünyadaki nesneleri tanımlamalarını istemek yerine, görüntülerin lehine metin attılar. Daha sonra ne olduğunu tahmin edebilirsiniz: bilgisayarlar, bir dizi resimde gerçek dünyadaki nesneleri nasıl tanımlayacaklarını öğrendi.

Artık “her yerde mevcut olan CAPTCHA” adlı bir çağdayız.CAPTCHA reCAPTCHA yokBunun yerine, katılımcı web sitelerinin arka planında çalışan ve kendi davranışımıza göre insanlığımızı belirleyen görünmez bir testtir – sonunda bilgisayarların da zekice alt edeceği bir şey.

Melanie Mitchell, bir bilim adamı, profesör ve yazar Yapay Zeka: Düşünen İnsanlar İçin Bir Kılavuz, CAPTCHA ve AI arasındaki ilişkiyi hiç bitmeyen bir “silahlanma yarışı” olarak nitelendiriyor. Her şeyden önce, her şeyin sonunda bir çevrimiçi Turing testi umut etmektense, Mitchell bu itme ve çekmenin hayatın bir gerçeği olacağını söylüyor. İnsanlara yönelik yanlış bot suçlamaları sıradan hale gelecek – sadece tuhaf bir çevrimiçi çıkmazdan daha fazlası, gerçek hayattaki bir problem.

“Bir lise öğrencisi olduğunuzu ve ödevinizi teslim ettiğinizi ve öğretmenin ‘Yapay zeka detektörü bunun bir yapay zeka sistemi tarafından yazıldığını söyledi’ dediğini hayal edin. Başarısız,’” diyor Mitchell. “Sadece teknolojiyi kullanarak neredeyse çözülemez bir problem. Bu yüzden, bunların bir tür yasal, sosyal düzenlemesi olması gerektiğini düşünüyorum. [AI tools]”

Bu bulanık teknolojik sular, Danisha’nın takipçilerinin bu kadar şüpheci olmasından memnun olmasının tam nedenidir. Artık paranoyaya oynuyor ve videolarının tekinsiz doğasını markasının bir parçası haline getiriyor.

“İnsanların benimki gibi profillere bakıp ‘Bu gerçek mi?’ demesi gerçekten önemli” diyor. “’Eğer bu gerçek değilse, bunu kim kodluyor? Kim yapıyor? Ne gibi teşvikleri var?’”

Ya da belki yapay zekanın Danisha dediği şey buydu istiyor sen düşün





genel-2