Üretken yapay zekanın (genAI) yükselişiyle ilgili gizlilik, önyargı ve yanlış bilgilendirme dahil olmak üzere birçok etik kaygıya yanıt olarak birçok teknoloji şirketi, personel veya danışman olarak yapay zeka etik uzmanlarıyla çalışmaya başladı. Bu profesyoneller, kuruluşun yapay zekayı ürünlerine, hizmetlerine ve iş akışlarına nasıl benimsediğini yönetmek üzere görevlendirilir.

Gartner’ın başkan yardımcısı ve analisti Bart Willemsen, mevcut bir rolün işlevini üstlenmek yerine kuruluşlara özel bir etik uzmanı veya ekiple hizmet verilmesinin daha iyi olacağını söylüyor.

“Tartışılan konuların genişliği ve önceki konuşmalardan ve projelerden öğrenilen dersler söz konusu olduğunda zaman içinde olgunlaşmaya devam eden tutarlı bir yaklaşıma sahip bu kadar özel bir işleve sahip olmak, yapay zeka teknolojisinin haklı ve sorumlu kullanımının başarı oranı anlamına geliyor.” artıyor” dedi.

Rolü ekleyen şirketler iyi niyetli olsa da yapay zeka etik uzmanlarının, kuruluşun yönü ve kararları üzerinde anlamlı bir etkisi olmayan, göstermelik işe alımlar olma tehlikesi vardır. Peki kuruluşlar etik karar almayı ve sorumlu yapay zekayı geliştirme görevlerini yerine getirebilmek için etik uzmanlarını nasıl entegre etmelidir?

Kuruluşların bu hedefe nasıl ulaşabilecekleri konusundaki düşünceleri için dünyanın dört bir yanından teknoloji ve yapay zeka etik uzmanlarıyla konuştuk. Bu en iyi uygulamalarla kuruluşlar, etiği bir uyumluluk meselesi olmaktan çıkarıp kalıcı bir rekabet avantajı kaynağına dönüştürebilir.

Teknoloji eğitimcisi olarak yapay zeka etik uzmanı

Bazıları için “ahlakçı”, kendi düşünceleri içinde kaybolmuş, bir organizasyonun günlük gerçekliğinden çok uzak bir insan imajını ifade edebilir. Uygulamada bir yapay zeka etik uzmanı, organizasyon genelinde yatay olarak etki sahibi olması gereken, oldukça işbirlikçi bir pozisyondur.

Birleşik Krallık’taki Cambridge Üniversitesi’nde yapay zeka etik uzmanı olan Joe Fennel, kuruluşlara sık sık danışmanlık yapıyor ve onları performans ve üretkenliğin yanı sıra etik konusunda da eğitiyor.

Etik jiu-jitsu’ya benzer, diyor ki: “Daha ileri seviyelere geldikçe, hareketler daha az, hareketleri şekillendiren ilkeler daha çok önem kazanıyor. Ve bu, denge, kaldıraç ve dinamiklik gibi ilkelerdir.”

Yapay zekaya da aynı şekilde yaklaşıyor. Örneğin, genAI halüsinasyon oranlarını azaltmak amacıyla hızlı mühendislik öğretirken, öğrencilerden belirli cümleleri ezberlemelerini talep etmiyor. Bunun yerine, modeli öğretmek için talimatların ne zaman kullanılacağı ve örneklerin ne zaman kullanılacağı gibi daha geniş ilkeler konusunda onlara koçluk yapıyor.

Fennel, bu teknikleri, insanların etiğe ilgi duymasını sağlayacak güvenlik ve etik kaygılarla genel bir metodoloji halinde birleştirdiğini söylüyor.

Avustralyalı tasarım danışmanlığı şirketi ThinkPlace’in baş etik uzmanı Darren Menachemson da etik uzmanlarının temel sorumluluklarından birinin özellikle yönetişim konusunda iletişim olduğuna inanıyor.

“[Governance] kuruluşların riskleri gerçekten kontrol edebilecekleri, azaltabilecekleri, azaltabilecekleri teknoloji hakkında yeterli bilgiye sahip olmaları gerektiği anlamına gelir. [and] uğraşmak [them]… Bu, bir kavram olarak yapay zekanın organizasyon içerisinde iyi bir şekilde iletilmesi gerektiği anlamına geliyor, böylece insanlar yapay zekanın sınırlarının ne olduğunu anlayabilir ve böylece sorumlu bir şekilde kullanılabilir” dedi.

Elbette bu talimatın kültürel zorlukları da var; özellikle de yapay zekanın yükselişi karşısında teknoloji ekosistemini tanımlayan “hızlı hareket et ve işleri kır” yaklaşımı.

Menachemson, “Gördüğümüz şey, birçok kuruluş için hızlı hareket etmek, daha geniş anlamda olup bitenlere ayak uydurmak ve aynı zamanda çok önemli ve göz ardı edilemeyecek kadar çok fayda sağlayan gerçekten şaşırtıcı fırsatlardan yararlanmak için gerçek bir zorunluluktur” dedi.

Menachemson, etik uzmanlarının, özellikle de üst düzeydekilerin, bu zorluklara rağmen üç niteliğe sahip olarak başarılı olabileceklerini savunuyor. Birincisi, yapay zeka teknolojisindeki nüansların ve bunun kuruluşun kendi risk iştahı karşısında hangi risk düzeyini teşkil ettiğinin derinlemesine anlaşılmasıdır.

İkincisi, paydaşları “yapay zekanın tanıtıldığı iş bağlamını anlamak ve sunduğunuz rehberlik açısından genelin ötesine geçerek özele doğru ilerlemek” konusunda istekli kılmaktır.

Üçüncü özellik, ikinciyi çalıştırmanın merkezinde yer alır. “Kıdemli grupları teknik dille veya son derece akademik dille şaşırtmak onları kaybeder ve gerçek etki sahibi olma fırsatını kaybeder. Kıdemli etik uzmanlarının uzman iletişimciler olması ve etik riski üst düzey yöneticilerin stratejik öncelikleriyle nasıl ilişkilendirebileceklerini anlamaları gerekiyor” dedi.

İki düzeyde eyleme geçirilebilir rehberlik sağlamak

Etik öznel olsa da, bir yapay zekanın veya teknoloji etikçisinin çalışması kesin olmaktan çok uzaktır. Kullanıcı onayı gibi belirli bir konuyu ele alırken etik uzmanı genellikle geniş bir dizi en iyi uygulamalardan yola çıkar ve ardından kuruluşa özel öneriler sunar.

Matthew, “‘Sorumlu yapay zeka açısından şu anda endüstri standardı (veya en son teknoloji) budur ve olasılıklar çerçevesinde neye öncelik vermek istediğinize karar vermek gerçekten size kalmış’ diyeceğiz” dedi. Computerworld onunla röportaj yaptığında Deneyimsel Yapay Zeka Enstitüsü ve Northeastern Üniversitesi’nde yapay zeka etik uzmanı olan Sample. “Örneğin eğer [organizations are] Yapay zeka modellerini güvenlik ve önyargı nedeniyle denetlemiyorlar, eğer zamanla izlemiyorlarsa belki de buna odaklanmak isterler.”

Sample, bu en iyi uygulamaların ötesinde, şirkette etiğin nasıl işlevsel hale getirileceği kadar ayrıntılı olabilecek tavsiyeler vermektedir. Örnek olarak, “Şirkette yapay zeka etiği hakkında düşünen tek bir kişi bile yoksa, belki de işe almaya odaklanmaları gerekiyor” dedi.

Ancak Sample katı tavsiyelerden kaçınıyor. “Etik gereği kesinlikle ‘Bu noktada yapılacak tek doğru şey budur’ demiyoruz” dedi.

Menachemson’un iş akışlarına benzer iki yönlü bir yaklaşımı var. Menachemson, üst düzeyde etik uzmanlarının belirli bir soruna ilişkin risklerin neler olduğu ve olası hafifletme ve kontrollerin neler olduğu konusunda genel rehberlik sağladığını söylüyor.

“Fakat aynı zamanda daha derine inme zorunluluğu da var” dedi. Bu adım, kuruluşun kendine özgü bağlamına odaklanmalıdır ve ancak temel tavsiyeler anlaşıldıktan sonra yapılabilir.

“Bu titizlik bir kez sağlandığında, işte o zaman anlamlı tavsiyeler icra kurulu başkanına veya yönetim kuruluna sunulabilir. Bu titizlik gösterilene kadar, riski gerçekten anlamlı bir şekilde kontrol ettiğinize dair hiçbir güvenceniz yok” dedi.

Cambridge’den Fennel, neyin tartışılacağı, ele alınacağı ve iletileceği konusunda yapay zeka etik uzmanlarının kapsamının dar değil geniş olması gerektiğine inanıyor.

“Yapay zeka etik gündeminiz ve değerlendirmeniz ne kadar kapsamlı olursa, yapay zeka güvenlik uygulamanız da o kadar çeşitli olur ve aynı şekilde risk önleme ve azaltma stratejiniz de o kadar sağlam olmalıdır” dedi.

Herkes ahlakçı olmalı

Uygulama söz konusu olduğunda, Kanada merkezli Telus Digital’in veri etiği direktörü Jesslyn Diamond, grubunun boşlukları tespit eden kırmızı bir ekip kullanarak, herhangi bir potansiyel suiistimal gibi genAI’dan kaynaklanan istenmeyen sonuçları öngörmek için çalıştığını söylüyor. hatta kasıtlı olarak sistemleri kırmaya çalışır.

Diamond, “Mor bir ekip aracılığıyla birlikte mümkün olan sonuçları korumak ve geliştirmek için yenilikçi çözümler oluşturmaya çalışan mavi ekip konseptini de kullanıyoruz” dedi.

Mor ekip, doğası gereği çok disiplinli olup, kalite güvence, müşteri hizmetleri, finans, politika ve daha birçok alandaki profesyonelleri kapsamaktadır. “Üretici yapay zekanın belirleyici olmayan doğasında, bu farklı bakış açılarını, girdileri ve uzmanlığı gerçekten bu kadar gerekli kılan bir şeyler var” dedi.

Diamond, mor ekip çalışmasının farklı türdeki profesyonellere teknolojiyi kullanma fırsatı yarattığını söylüyor; bu, yalnızca etik açısından önemli hususlar olan riskleri ve istenmeyen sonuçları keşfetmede değil, aynı zamanda ek faydaları da ortaya çıkarmada yardımcı oluyor.

Telus ayrıca çalışanlara veri yönetimi, gizlilik, güvenlik, veri etiği ve sorumlu yapay zeka gibi kavramlar konusunda özel eğitimler de sağlıyor. Bu çalışanlar daha sonra kendi etki alanlarının veri sorumlusu haline gelir. Bugüne kadar Telus’un 500’den fazla veri sorumlusundan oluşan bir ağı var.

“Nasıl daha aşina hale geliyorum [AI] çalışmalar, hem çok teknik olanlara hem de daha az teknik olanlara, uzmanlık ve geçmiş çeşitliliğine sahip olma şeklindeki bu önemli alıştırmaya tam olarak katılabilmeleri için gerçekten donanım sağlıyor [represented]” dedi Elmas.

Etiğin çok disiplinli olması gerektiği açık görünebilir, ancak pek çok şirket bu işlevi organizasyonun uzak bir köşesinde saklıyor. Diamond, “İnsanların teknolojiyi anlamlı bir şekilde yönetebilmek için onu anlaması çok önemli ve okuryazarlık ile katılım arasındaki gerilimin aynı anda gerçekleşmesi gerekiyor” dedi.

Etik yenilik kültürü yaratmak

Etik konusunda tavsiyede bulunmanın amacı, meslektaşların veya müşterilerin ek rehberlik için her zaman etik uzmanına geri dönmek zorunda kalacağı bir hizmet masası modeli yaratmak değildir. Etikçiler genellikle paydaşlarının belli bir düzeyde bağımsızlığa ulaşmasını hedeflerler.

“Ortaklarımızı gerçekten kendi kendine yeterli hale getirmek istiyoruz. Onlara bu işi kendi başlarına yapmayı öğretmek istiyoruz” dedi Sample.

Etik uzmanları, etiği ekip çalışmasından, çeviklikten veya yenilikçilikten farklı olmayan temel bir şirket değeri olarak destekleyebilirler. Bu dönüşümün anahtarı, kuruluşun yapay zekayı uygulama hedefinin anlaşılmasıdır.

“Yapay zekanın iş modellerini dönüştüreceğine inanıyorsak… o zaman üst düzey yöneticilerin ve yönetim kurulunun, yapay zekanın kendi kuruluşları, iş gücü veya müşterileri için yaptıklarından asla kopmamasını sağlamak bir kuruluşun görevi haline gelir. ” dedi Menachemson.

Bu uyum, şirketlerin herhangi bir açık stratejik yön olmaksızın, sırf teknolojinin moda olması nedeniyle yapay zekaya balıklama daldığı bir ortamda özellikle gerekli olabilir.

Gartner’dan Willemsen, kendini işine adamış bir etik uzmanının veya ekibin yapay zekayı çevreleyen en temel sorunlardan birini çözebileceğini belirtiyor. Eldeki proje ne olursa olsun yönetim kurulu düzeyinde en sık sorulan sorulardan birinin şirketin yapay zekayı kullanıp kullanamayacağı olduğunu söyledi. “Ve biraz anlaşılır olsa da, ikinci soru neredeyse her zaman atlanıyor: ‘olmalı AI mı kullanıyoruz?’” diye ekledi.

Willemsen, bu göze çarpan boşlukla çalışmak yerine kuruluşların soruların sırasını tersine çevirmesi gerektiğini söylüyor. “Birincisi: Neyi başarmaya çalışıyorum? Bir anlığına yapay zekayı unutun. İlk odak noktamız bu olsun” dedi ve bu yaklaşımı benimseyen kuruluşların çoğunluğunun daha kanıtlanabilir başarıya sahip olduğuna dikkat çekti.

Bu basit soru, daha geniş bir kurumsal yansıma ve öz değerlendirme programının parçası olmalıdır. Willemsen, şirketlerin araştırmalarının kapsamını genişleterek, zor sorular sorarak, yanıtlarla ilgilenmeyi sürdürerek ve sonuçta bu yanıtlarla bir şeyler yaparak yapay zeka etiğini geliştirebileceklerine inanıyor.

Yapay zeka dönüşümsel olsa da Willemsen, bunun insanlara nasıl fayda sağlayacağını (ya da sağlayamayacağını) yakından incelemenin gerekliliğini vurguladı.

“Bu sadece yapay zeka teknolojisinin işlevini, istenmeyen sonuçların ne ölçüde önleneceğini ve teknolojinin kontrol altında olması gerektiğini değil, aynı zamanda donanımın çalışması için madencilik ortamlarındaki insanlık dışı koşullar gibi şeylere de yol açabileceğini hesaba katmalı.” bu, ‘etiketleme çiftlikleri’ ile günümüzün modern köleliğiyle bağlantının yanı sıra benzeri görülmemiş elektrik tüketimi ve veri merkezi soğutması için su kullanımından kaynaklanan hesaplanamaz zarardır” dedi.

Willemsen’e göre, bu sorunların tamamen farkında olan ve yapay zeka girişimleriyle uyumlu olan kuruluşlar fayda görecek. “Yapay zeka etiğinin değeri hemen somut olmayabilir” dedi. “Ancak neyin doğru olduğunu, neyin yanlış olduğunu bilmek, yapay zeka etiğinin değerinin ve daha büyük faydasının daha uzun vadeli bir bakış açısına sahip olduğu anlamına gelir: teknolojinin yalnızca gerçekten yararlı ve anlamlı olduğu durumlarda tutarlı bir şekilde uygulanması.”



genel-13