Proofig ile yeni bir ortaklık duyurusu! Daha fazla bilgi edinin

İşletmenizi LLM ve GenAI'ye Hazır Hale Getirmek

Max Spero ve Theodoros Evgeniou
30 Ocak 2024

Muhtemelen "2023 yılının kişisi" yapay zeka olmuştur. Büyük Dil Modelleri (LLM'ler) ve daha genel olarak üretken yapay zeka (GenAI) alanındaki yeniliklerin hızı ve yetenekleri hepimizi şaşırtmıştır. Aynı zamanda, özellikle çevrimiçi platformlarda birçok kişi, bu teknolojilerin ortaya çıkarabileceği potansiyel riskler hakkında sorular sormaktadır – bazı yapay zeka risklerini özetleyen bu Harvard Business Review makalesine bakınız. Çevrimiçi platformlar yakında AI tarafından üretilen içeriklerle dolup taşabilir ve bu durum kullanıcıların güvenliği ve platformların itibarı üzerinde olumsuz etkiler yaratabilir. Halihazırda, büyük hacimli GenAI içeriği üretmek ve yaymak için araçlar sunan girişimler bulunmaktadır.

Ancak AI ve GenAI, en son Trust & Safety Hackathon'da ortaya çıkan bazı fikirlerde görüldüğü gibi, bu riskleri yönetmek ve daha güvenli dijital alanlar ve çevrimiçi platformlar oluşturmak için de bizim yararımıza kullanılabilir. Yeni araçlar ortaya çıktıkça, GenAI nedeniyle çevrimiçi platformların karşılaştığı riskleri yönetmek için en son yenilikler ve süreçler açısından nerede olduğumuzu değerlendirmek için iyi bir zaman.

Bu makale aşağıdaki gibi soruların yanıtlanmasına yardımcı olabilir:

  • İşletmemizi, çevrimiçi topluluklarımızı ve kullanıcılarımızı, yapay zeka tarafından üretilen içeriklerden (örneğin, spam yorumlardan telif hakkı ve diğer yasaları ihlal eden yasa dışı içeriğe kadar) en iyi şekilde nasıl koruyabiliriz?
  • AI tarafından üretilen içerik tespit edilebilir mi?
  • AI tarafından üretilen içeriğin yaşam döngüsünün hangi aşamasında güvenlik önlemleri kullanılabilir ve nasıl?
  • Farklı pazarlarda ilgili düzenlemeler nasıl şekilleniyor ve bunlar sizin için ne anlama geliyor?

İş modelinizi ve ihtiyaçlarınızı göz önünde bulundurarak GenAI Politikası geliştirin


Kullanıcı tarafından oluşturulan içeriğe sahip her işletmenin bir GenAI politikasına ihtiyacı vardır. Genellikle cevaplanması gereken iki soru vardır. Kullanıcılar AI tarafından oluşturulan içeriği görmek istiyor mu ve kullanıcılar AI içeriğinin insan içeriğiyle karışmasına izin veriyor mu?

Her iki soruya da cevabınız hayır ise, AI içeriği ile ilgili bir politika belirlemeniz gerekir. Örneğin, AI içeriğinin açıklanmasını zorunlu kılmak veya AI içeriğini açıkça yasaklamak gibi. Böyle bir politika, Pangram Labs gibi araçlarla keskin gözlem yeteneğine sahip insan moderatörler ve etkili süreçler tarafından uygulanabilir.

Cevap evet ise, yani kullanıcılar AI içeriğini görmekten memnun veya heyecanlıysa, politika açısından sorun yoktur. Ancak, Linkedin'in AI destekli mesajları gibi AI araçlarını doğrudan kullanmaya başlamadan önce, içeriğin güvenli olduğundan emin olmanız gerekir. Bunun için bazı koruyucu önlemler almanız ve daha da önemlisi, Tremau'nun moderasyon platformu gibi araçları kullanarak, kullanıcılar tarafından oluşturulan içeriğin moderasyonuna benzer şekilde, AI tarafından oluşturulan içeriği etkili ve verimli bir şekilde moderasyon süreçleri uygulamaya koymanız gerekir.

Elbette, GenAI politikanız işinize ve bağlamınıza bağlıdır. Herkese uyan tek bir çözüm yoktur. Örneğin, bir pazar yeri veya genel olarak kullanıcıların diğer kullanıcıların yorumlarına güvendiği bir platformsanız, AI tarafından oluşturulan yorumların platformunuza girmediğinden emin olmanız gerekebilir. Daha genel olarak, kullanıcılar tarafından oluşturulan içerik gibi, AI tarafından oluşturulan yasa dışı içeriklerin platformunuzda yer almadığından da emin olmanız gerekir. Botlar ve spam her zaman bir sorun olmuştur, ancak GenAI'nin gücüyle bunlar daha da güçlü ve yakalanması daha zor hale gelmiştir.

AI Guardrails'ı anlayın ve kullanın


Çoğu ticari AI API'si bir tür AI koruma önlemi sağlar. Google'ın Gemini API'si, çıktılarını dört güvenlik kategorisinde otomatik olarak derecelendirir: Nefret Söylemi, Taciz, Cinsel İçerik ve Tehlikeli İçerik. Azure'un OpenAI API'sini kullanırsanız, "Nefret ve Adalet", Cinsel İçerik, Şiddet ve Kendine Zarar Verme içerik filtrelerine dayalı benzer derecelendirmeler alırsınız. Her iki API de bu kategorilerin herhangi birinde çok yüksek puan alan sorguları reddeder, ancak orta düzeydeki güvenlik denetimini sizin takdirinize bırakır.

Llama-2 veya Mistral gibi açık kaynaklı bir model kullanıyorsanız, kendi içerik filtrenizi oluşturmanız gerekir. Bu sorun, kapalı kaynaklı bir sınıflandırıcıya (OpenAI'nin içerik filtresi API'sı, Azure'un AI içerik güvenliği API'sı) veya Meta'nın yeni piyasaya sürdüğü LlamaGuard gibi açık kaynaklı bir çözüme ayrı bir çağrı yaparak çözülebilir. LlamaGuard, çok iyi performans gösteren 7B parametreli LLM tabanlı bir modeldir. Hızlı ve yanıt sınıflandırmasının yanı sıra genel içerik denetimi için de umut vaat etmektedir.

İnsanların hala sürece dahil olduğundan ve süreçlerinizin düzenlemelere uygun olduğundan emin olun.


Kullanıcılarınızı ve işinizi korumak için hangi otomatik araçları kullanırsanız kullanın, hiçbir teknoloji sizi tam olarak koruyamaz. Kullandığınız tüm yapay zeka araçları her zaman hatalar yapacaktır. Bu tür hataların sizi operasyonel, müşteri veya yasal risklere maruz bırakmamasını sağlamanız gerekir.

İlk olarak, her zaman insanları döngüye dahil etmeniz gerekecektir. Bu kişiler, en azından araçların kontrol etmeleri için işaretlediği bazı içerikleri gözden geçireceklerdir. Elbette, içerik inceleme süreçlerinizin etkili ve verimli olması gerekir. İronik olarak, piyasada AI araçları (örneğin, içerik oluşturmak veya denetlemek için) ne kadar yaygınlaşırsa, bazı durumlarda o kadar çok kişiyi sürece dahil etmeniz gerekebilir.

İkincisi, tüm içerik denetim süreçleri ve uygulamaları, kullanıcılarınızın güvenliği ve sadakati – dolayısıyla işiniz – göz önünde bulundurularak tasarlanmalıdır. Moderasyon hatalarınız endişe yaratırsa ne yapacaksınız? Kullanıcılarınızın, sizin veya yapay zekanızın kararlarını düzeltmek gerektiğinde seslerini duyurmalarını nasıl sağlayacaksınız? Moderatörlerinizin en iyi moderasyon kararlarını mümkün olduğunca verimli ve etkili bir şekilde alabilmeleri için ihtiyaç duydukları her şeye sahip olmalarını nasıl sağlayacaksınız? Bunları ve diğer karmaşık konuları yönetmek için, örneğin Tremau'nun içerik moderasyon platformu gibi araçları kullanarak süreçlerinizi dikkatlice düşünmeniz ve etkili bir şekilde otomatikleştirmeniz gerekir.

Son olarak, 2024 yılı, düzenleyici kurumlar tarafından para cezasına çarptırılan şirketler arasında yer almamak için gerçekten iki kat daha fazla çaba sarf etmeniz gereken bir yıl olacak. AB'nin Dijital Hizmetler Yasası, Avrupa'da faaliyet gösteren tüm çevrimiçi platformlar için geçerli olacak ve süreçlerinizi yeniden tasarlamanızı ve şeffaflık raporları gibi raporları sunmanızı (aksi takdirde para cezasına çarptırılmanızı) gerektirecek. Elbette, platformunuzun yapay zekadan etkilenip etkilenmemesi veya yapay zeka kullanıp kullanmaması fark etmeksizin, uyumluluk gereklidir.

Size nasıl yardımcı olabiliriz? Checkfor.ai ve Tremau olarak, güçlü yapay zeka ve yeni düzenlemelerle dolu yeni dünyada en iyi şekilde yolunuzu bulmanıza yardımcı olmak için çalışıyoruz.

Daha fazla bilgi için info@tremau.com ve info@pangram.com adreslerinden bize ulaşabilirsiniz.



Theodoros Evgeniou, Tremau'nun kurucu ortağı ve İnovasyon Direktörü, INSEAD'da profesör, OECD Yapay Zeka Uzmanlar Ağı üyesi, BCG Henderson Enstitüsü danışmanı ve Dünya Ekonomik Forumu'nda yapay zeka konusunda akademik ortak olarak görev yapmaktadır. MIT'den yapay zeka alanında doktora dahil olmak üzere dört dereceye sahiptir.

Max Spero, Pangram Labs'ın kurucu ortağı ve CEO'sudur. Daha önce Google ve Nuro'da yazılım mühendisi olarak çalışmış, veri boru hatları oluşturmuş ve makine öğrenimi modellerini eğitmiştir. Stanford Üniversitesi'nden Bilgisayar Bilimleri alanında lisans ve yüksek lisans derecelerine sahiptir.

Bu makale, Ocak 2024'te Tremau ile ortaklaşa yayınlanmıştır.

Haber bültenimize abone olun
AI algılama araştırmalarımızla ilgili aylık güncellemeleri paylaşıyoruz.