Proofig ile yeni bir ortaklık duyurusu! Daha fazla bilgi edinin

AB'nin Yeni Yapay Zeka Yasasını Anlamak

Ashan Marla
23 Mart 2024

Fotoğraf: Angel Bena.

Geçen hafta, Avrupa Parlamentosu, AB üye ülkelerinin yapay zeka ürün ve hizmetlerini düzenlemede izleyecekleri kapsamlı bir çerçeve olan Yapay Zeka Yasası'nı (AI Act) kabul etti.

AI Yasası, yapay zeka kullanan ürün veya hizmetlere "risk temelli bir yaklaşım" benimseyerek tüketici güvenliği mevzuatı olarak hizmet etmeyi amaçlamaktadır. AI uygulaması ne kadar riskliyse, o kadar fazla incelemeye tabi tutulur. Risk seviyeleri, aşağıdakiler dahil olmak üzere farklı kategorilere ayrılmıştır:

  • "Davranışları çarpıtmak ve bilinçli karar vermeyi engellemek için bilinçaltına hitap eden, manipülatif veya aldatıcı teknikler" kullanan veya "temel insan haklarına açık bir risk" oluşturan yapay zeka sistemleri "Kabul Edilemez Risk" olarak değerlendirilecek ve yasaklanacaktır.
  • Kritik altyapı, eğitim, sağlık hizmetleri, kolluk kuvvetleri, sınır yönetimi veya seçimlerde kullanılanlar gibi "yüksek riskli" olarak kabul edilen yapay zeka sistemleri, katı gerekliliklere uymak zorunda olacak.
  • Yüksek risk kategorisine girmeyen genel amaçlı AI sistemleri, sınırlı riskli kabul edilecek ve daha hafif şeffaflık yükümlülüklerine tabi olacaktır. Üretken AI uygulamaları, genel amaçlı AI sistemleri olarak kabul edilecektir.

Hem üreticiler (Open AI/Google gibi) hem de kullanıcılar (bu uygulamaları kullanan şirketler), son kullanıcıların (tüketiciler) AI ile etkileşimde olduklarının farkında olmaları için doğruluk ve şeffaflık testlerinden geçmek zorunda olacaklar. Bu yeni gerekliliklere uymayan şirketler, 35 milyon avroya veya küresel yıllık gelirlerinin %7'sine kadar para cezasına çarptırılabilirler.

Bu, çevrimiçi platformlar için ne anlama geliyor?

AB'de son kullanıcıları bulunan ve ürünlerinde yapay zeka sistemlerini kullanan tüm işletmeler, bulundukları yerden bağımsız olarak Yapay Zeka Yasası'na tabi olacaktır. Bu kapsam geniş ve bazı belirsizlikler içerse de, yapay zeka içeriği kullanan veya yayınlayan çevrimiçi platformların bu yeni düzenleyici yükümlülüklere uyması gerektiği açıktır.

Birçok kullanıcı tarafından oluşturulan içerik platformunda yapay zeka tarafından oluşturulan içeriklerin paylaşımında artış görülmesi nedeniyle, çoğu çevrimiçi site (ör. yayıncılar, pazar yerleri ve sosyal medya siteleri) aşağıdakiler dahil olmak üzere bazı şeffaflık ve denetim kontrolleri oluşturmak zorunda kalacaktır:

  • Platformda oluşturulan veya yayınlanan içeriğin yapay zeka tarafından yaratılıp yaratılmadığının açıklanması.
  • Yasadışı AI tarafından oluşturulan gönderileri reddetmek için platformu tasarlama.
  • Şirket içi modellerin eğitimi için kullanılan telif hakkı korumalı verilerin özetlerinin yayınlanması.

Etiketleme ve vekaleten algılama, AI tarafından üretilen içeriklerin içerik platformlarında yayılması durumunda artık bir gereklilik olacaktır. Bu, metin, ses, görüntü ve videolar gibi her türlü içerik için geçerlidir:

"Genel amaçlı yapay zeka sistemleri dahil olmak üzere, sentetik ses, görüntü, video veya metin içeriği üreten yapay zeka sistemleri sağlayıcıları, yapay zeka sisteminin çıktılarının makine tarafından okunabilir bir biçimde işaretlenmesini ve yapay olarak üretilmiş veya manipüle edilmiş olarak tespit edilebilir olmasını sağlamalıdır."

AB'nin güvenli yapay zeka sistemlerini teşvik etme yönündeki yasal niyetini desteklerken, işletmelerin bu yasayı yorumlamasının ve uymasının kafa karıştırıcı olabileceğini de kabul ediyoruz. Bu yükümlülükler oldukça belirsiz görünebilir ve Yapay Zeka Yasası, ikincil içerik türlerinin (kullanıcı yorumları veya yorumları gibi) bu gerekliliklere tabi olup olmadığını veya işletmelerin hangi uyum kontrollerini uygulaması gerektiğini ayrıntılı olarak belirtmemektedir.

Şirketler AI Yasası'nın bir adım önünde nasıl kalabilirler?

İyi haber ise, şirketlerin uyumluluk sağlamak için çözümler geliştirmek için zamanları olacak. Yasanın Mayıs ayında yürürlüğe girmesi bekleniyor ve hükümleri aşamalı olarak yürürlüğe girecek. Şeffaflık gerekliliklerinin çoğu ise bir yıl sonra uygulanmaya başlayacak.

Bununla birlikte, şirketlerin yasanın uygulanmasını önlemek için şu anda alabilecekleri bazı önlemler olduğunu düşünüyoruz. Özellikle, şirketler aşağıdakileri geliştirmeye çalışmalıdır:

  • Kullanıcı tarafından oluşturulan içerikle ilgili net kurallar ve yönetişim.
  • AI tarafından oluşturulan içeriği tanımlamak için daha verimli içerik denetleme iş akışları.
  • AI tarafından üretilen içeriğin yayılmasını önlemek için otomasyonlar.

Zaten bazı şirketlerin harekete geçtiğini görüyoruz - Youtube ve Instagram gibi bazı platformlar, kullanıcılarından "gerçekçi" AI tarafından üretilen içerik yüklerken bunu kendilerinin bildirmelerini istiyor. Bu "güven sistemi"nin yasaya uymak için yeterli olup olmayacağı belirsiz, ancak bu, sektör liderlerinin bu yasayı ve AI güvenliğini ciddiye aldıklarının güçlü bir işaretidir.

Pangram Labs olarak, şirketlerin güvenli ve sorumlu çevrimiçi platformlar işletebilmeleri için en iyi yapay zeka algılama sistemlerini geliştirmek için yoğun bir şekilde çalışıyoruz. AB'nin internet şeffaflığı hedefi bizi cesaretlendiriyor ve bu önemli standartları somutlaştırmak için araştırmacılar ve politika yapıcılarla birlikte çalışmayı sabırsızlıkla bekliyoruz.

Bizimle iletişime geçmek ister misiniz? info@pangram.com adresine e-posta gönderin!

Haber bültenimize abone olun
AI algılama araştırmalarımızla ilgili aylık güncellemeleri paylaşıyoruz.