Birçoğu tarif etti 2023 yapay zekanın yılı oldu ve terim birçok “yılın kelimesi” listesine girdi. Yapay zeka, işyerinde üretkenliği ve verimliliği olumlu yönde etkilemiş olsa da, işletmeler için yeni ortaya çıkan bir takım riskleri de beraberinde getirdi.

Örneğin yakın zamanda gerçekleşen bir Harris Anket araştırması AuditBoard tarafından yaptırılan bir araştırma, çalışan Amerikalıların kabaca yarısının (%51) şu anda iş için yapay zeka destekli araçlar kullandığını ve şüphesiz ChatGPT ve diğer üretken yapay zeka çözümleri tarafından yönlendirildiğini ortaya çıkardı. Ancak aynı zamanda neredeyse yarısı (%48) şirket verilerini, işlerinde kendilerine yardımcı olması için işletmeleri tarafından sağlanmayan yapay zeka araçlarına girdiklerini söyledi.

Üretken yapay zeka araçlarının iş yerindeki bu hızlı entegrasyonu, etik, yasal, gizlilik ve pratik zorluklar ortaya çıkararak işletmelerin üretken yapay zeka araçlarını çevreleyen yeni ve sağlam politikalar uygulamasına ihtiyaç duyuyor. Görünen o ki çoğu kişi bunu henüz başaramadı; yakın tarihli bir Gartner raporu anket kuruluşların yarısından fazlasının üretken yapay zeka konusunda bir iç politikaya sahip olmadığını ortaya çıkardı ve Harris Anketi, çalışan Amerikalıların yalnızca %37’sinin şirket tarafından tedarik edilmeyen yapay zeka destekli araçların kullanımına ilişkin resmi bir politikaya sahip olduğunu ortaya çıkardı.

Her ne kadar göz korkutucu bir görev gibi görünse de, artık bir dizi politika ve standart geliştirmek, kuruluşları ileride büyük baş ağrılarından kurtarabilir.

Yapay zeka kullanımı ve yönetişim: Riskler ve zorluklar

Artık bir dizi politika ve standart geliştirmek, kuruluşları ileride büyük baş ağrılarından kurtarabilir.

Üretken yapay zekanın hızla benimsenmesi, yapay zeka risk yönetimine ve yönetişimine ayak uydurmayı işletmeler için zorlaştırdı ve benimseme ile resmi politikalar arasında belirgin bir kopukluk var. Daha önce bahsedilen Harris Anketi, %64’ün AI araç kullanımını güvenli olarak algıladığını ortaya çıkardı; bu da birçok çalışanın ve kuruluşun riskleri gözden kaçırıyor olabileceğini gösteriyor.

Bu riskler ve zorluklar farklılık gösterebilir ancak en yaygın olanlardan üçü şunlardır:

  1. Aşırı güven. Dunning-Kruger etkisi, kendi bilgimiz veya yeteneklerimiz olduğundan fazla tahmin edildiğinde ortaya çıkan bir önyargıdır. Bunun yapay zeka kullanımına göre kendini gösterdiğini gördük; birçoğu, sınırlamalarını anlamadan yapay zekanın yeteneklerini abartıyor. Bu, eksik veya hatalı çıktı sağlanması gibi nispeten zararsız sonuçlar doğurabileceği gibi, yasal kullanım kısıtlamalarını ihlal eden veya fikri mülkiyet riski oluşturan çıktılar gibi çok daha ciddi durumlara da yol açabilir.
  2. Güvenlik ve gizlilik. Yapay zekanın tam etkili olabilmesi için büyük miktarda veriye erişmesi gerekiyor ancak bu bazen kişisel verileri veya diğer hassas bilgileri de içeriyor. İncelenmemiş yapay zeka araçlarının kullanılmasının beraberinde getirdiği doğal riskler vardır; bu nedenle kuruluşların, veri güvenliği standartlarını karşılayan araçları kullandıklarından emin olmaları gerekir.



genel-24