Proofig ile yeni bir ortaklık duyurusu! Daha fazla bilgi edinin

Biden'ın Yapay Zeka Güvenliği Yürütme Emri Hakkında Açıklama

Max Spero
31 Ekim 2023

NOT: Adımızı Pangram Labs olarak değiştirdik! Daha fazla bilgi için blog yazımızı okuyun.

Bugün, Biden yönetimi, yapay zeka içeriği tespiti ile ilgili bu yönerge de dahil olmak üzere, yapay zeka güvenliği ve emniyeti için yeni standartlar yayınladı:

Ticaret Bakanlığı, yapay zeka tarafından üretilen içeriği açıkça etiketlemek için içerik doğrulama ve filigranlama konusunda kılavuzlar geliştirecektir. Federal kurumlar, bu araçları kullanarak Amerikalıların hükümetlerinden aldıkları iletişimin gerçek olduğunu kolayca anlayabilmelerini sağlayacak ve özel sektör ile dünya çapındaki hükümetlere örnek teşkil edecektir.

Joe Biden, ai.gov'dan.

Checkfor.ai, Biden yönetiminin büyük dil modellerinin güvenli ve sorumlu bir şekilde kullanılmasına yönelik taahhüdünü tam olarak desteklemektedir. AI içerik doğrulamasına ilişkin kılavuzlar ve politikalar geliştirilmesinin, AI güvenliği için doğru yönde atılmış önemli bir adım olduğuna ve interneti spam ve büyük dil modelleri tarafından üretilen diğer kötü niyetli içeriklerden korumak olan misyonumuzla uyumlu olduğuna inanıyoruz. Toplum olarak AI tarafından üretilen içeriği tespit etmek için daha fazla yatırım yaparsak, hem tüketiciler hem de AI teknolojisinin kullanıcıları olarak dünya daha iyi bir yer haline gelecektir. Bugün, içerik doğrulama, filigran ekleme ve tespit konusunda şirket olarak tutumumuzu açıklayan bir bildiri yayınlamak istiyoruz.

  • Şu anda mevcut hiçbir algılama çözümünün sorunu çözmek için yeterli olmadığına inanıyoruz ve özellikle AI algılama sorununu çözmek için daha fazla kaynak yatırımı yapmamız gerektiğini düşünüyoruz.
  • Filigranın bu soruna çözüm olmadığını düşünüyoruz, çünkü filigran yanlış bir güvenlik hissi yaratır ve kullanıcının model ağırlıklarına erişimi veya çıktıyı düzenleme yeteneği olduğunda sınırlı olduğu kanıtlanmıştır (https://arxiv.org/pdf/2305.03807.pdf, https://arxiv.org/pdf/2301.10226.pdf). Güçlü ve yetenekli, filigran içermeyen açık kaynaklı modeller zaten mevcuttur ve kötü niyetli kişiler, tespit edilmekten kaçınmak için her zaman kendi versiyonlarını yerel olarak ince ayar yapabilirler. Dahası, tespit sorununun filigran içermeyen modellerde bile çözülebileceğine inanıyoruz.
  • Yapay zeka güvenliği ve büyük dil modellerinin geliştirilmesine ilişkin düzenlemeleri destekliyoruz, ancak tüm düzenlemelerin açık kaynak ekosistemini desteklemesi şartıyla. Açık kaynak, güçlü büyük teknoloji şirketleri üzerinde denetim ve denge sağlar, tüketiciler için şeffaflık sunar ve halkın bu modelleri özgürce değerlendirmesine, eleştirmesine ve karşılaştırmasına olanak tanır.
  • Hükümetin yapay zeka güvenliğini teşvik etme ve yapay zeka algılama araştırmalarına yatırım yapma rolünün, yapay zeka algılama alanındaki akademik ve endüstri projelerine fon sağlamaya odaklanması gerektiğine inanıyoruz.
  • AI algılamada etkili araştırmaları ilerletmek için, tüketicilerin mevcut AI algılayıcıların etkinliğini ve sınırlarını bilebilmeleri için karşılaştırma ölçütleri ve değerlendirme kriterleri belirlemeliyiz. Daha büyük ve daha güçlü dil modellerinin güvenli ve sorumlu bir şekilde kullanılabilmesi için, AI algılamada sektör çapında standartlar geliştirmeye ve bu standartlara katkıda bulunmaya kararlıyız.

Checkfor.ai olarak, yeni nesil dil modellerinin güvenli ve verimli bir şekilde kullanılabilmesi için güvenilir AI algılama sistemleri geliştirmek üzere yoğun bir şekilde çalışıyoruz. Biden yönetiminin insan ve AI tarafından üretilen içerikleri birbirinden ayırma konusundaki kararlılığını görmekten büyük heyecan duyuyoruz ve bu önemli standartları geliştirmek üzere araştırmacılar ve politika yapıcılarla birlikte çalışmayı sabırsızlıkla bekliyoruz.

Haber bültenimize abone olun
AI algılama araştırmalarımızla ilgili aylık güncellemeleri paylaşıyoruz.