ChatGPT’nin popülaritesinin ardından, tartışma her zamankinden daha açık: konu gazetecilik niteliğindeki makaleler yazmaya geldiğinde yapay zekanın güvenilirliği hangi noktaya geliyor? Başka bir deyişle, algoritmalar gerçekten etten kemikten bilgi profesyonellerinin yerini alabilir mi? Teknolojik alandaki başlıca Amerikan çevrimiçi gazetelerinden birinin yer aldığı deney, bu hipotez hakkında en azından şüphe duymamıza neden oluyor. AI tarafından hazırlanan 77 makaleden 41’inin ciddi hataların varlığı ve intihali önlemek için düzeltmelere tabi tutulduğuna göre Engadget (dijital alanda çok yetkili bilgi portalı) tarafından sunulan haberlerin arka planı, baş editörlerinden biri olan Connie Guglielmo’nun müdahalesiyle tam olarak Cnet’in ana sayfasından türetilebilir. Aslında makale, editörlerin finansal okuryazarlık metinleri oluşturmasına yardımcı olmak için dahili olarak geliştirilmiş bir yapay zeka motoru (bu nedenle ChatGPT değil) kullanılarak Cnet Money tarafından Kasım ayında testin nasıl başlatıldığını hatırlatıyor. Bu araç yardımıyla oluşturulan 77 kısa öykü, tekrar okuyoruz, aynı dönemde sitede yayınlanan toplam içeriğin yaklaşık %1’ini temsil ediyor ve yapay zeka (taslakları hazırlayan) ile editörlerin (taslakları hazırlayan) ortak çalışmasından ortaya çıkıyor. Taslakları yayınlamadan önce genişlettiler, eklediler ve düzenlediler). Ve makine, insanlarda olabileceği gibi makul hatalar yaptığında, Cnet Money’in yazı işleri ekibi metnin tamamen gözden geçirilmesiyle müdahale etti.

İntihal riski

Cnet’te yeni teknolojik araçların yayıncılık sektöründeki değişimi hızlandırdığına ikna olduklarını söylerlerse, Engadget tarafından öne sürülen itiraz, büyük ölçüde, Cnet tarafından yazılan makalelerin yarısından fazlasını etkileyen bulunan hataların boyutudur. yapay zeka. Cnet’e göre birkaç makaleyi etkileyen “önemli bir düzeltmenin” gerçek boyutunu, editörleri eksik şirket adlarını, belirsiz kabul edilen dili veya cümleleri düzeltmeye zorlayan “küçük sorunların” boyutundan belirlemek zordur. orijinal olmayan ve başka kaynaklardan (elbette izinsiz) alınan. Engadget’in yine yazdığı gibi, deneyden ilk kez bahseden yayın olan Futurism’in, Cnet’in yapay zeka motoru tarafından oluşturulan içeriklerin daha önce yayınlanan makalelerle yapı ve formülasyon açısından “derin benzerlikler” gösterdiğine dair yeterli kanıta sahip olduğunu iddia ettiği gerçeği devam ediyor. diğer gazeteler.

ChatGPT’deki MIT alarmı

Bu nedenle, gerçek editörlerinkine kıyasla (görevli ve gerekli) yapay zekanın etik sorumluluk derecesi ile ilgili olarak da açık tartışma. Guglielmo’nun makalesinin bir bölümünde yinelediği gibi, Cnet’in amacı, yalnızca “aracın ve editöryel süreçlerimizin hem insan hem de tüm hataları ortadan kaldıracağından emin olduğumuzda” yayınlanması amaçlanan içeriğin bir bölümünü yazmak için algoritmalardan yararlanmaktır. teknolojik”. Bu arada, yazılımın zekasının editörlerin günlük doğrulama, araştırma ve yazma işlerini yürütmelerine nasıl yardımcı olabileceğini anlamak için testler devam edecek. Bu nedenle dönüm noktası, motor tarafından üretilen içeriğin “insan” kalitesi olarak kabul edilecek düzeyde bir doğruluk ve doğruluk düzeyine ulaşılması olacak mı? “ChatGPT gibi modeller, kısmi ve yanlış içeriği işleme eğilimindedir, bir insan tarafından yazılmış bir metinle karşılaştırılabilir zarif bir dil oluşturma konusunda büyük bir yeteneğe sahiptir, ancak ne ürettiklerine dair gerçek bir anlayışa sahip değildirler, sahte ve gerçekleri önermektedirler. aynı yüksek güvenlik seviyesi”.



genel-18