Proofig ile yeni bir ortaklık duyurusu! Daha fazla bilgi edinin
Fotoğraf: Angel Bena.
Geçen hafta, Avrupa Parlamentosu, AB üye ülkelerinin yapay zeka ürün ve hizmetlerini düzenlemede izleyecekleri kapsamlı bir çerçeve olan Yapay Zeka Yasası'nı (AI Act) kabul etti.
AI Yasası, yapay zeka kullanan ürün veya hizmetlere "risk temelli bir yaklaşım" benimseyerek tüketici güvenliği mevzuatı olarak hizmet etmeyi amaçlamaktadır. AI uygulaması ne kadar riskliyse, o kadar fazla incelemeye tabi tutulur. Risk seviyeleri, aşağıdakiler dahil olmak üzere farklı kategorilere ayrılmıştır:
Hem üreticiler (Open AI/Google gibi) hem de kullanıcılar (bu uygulamaları kullanan şirketler), son kullanıcıların (tüketiciler) AI ile etkileşimde olduklarının farkında olmaları için doğruluk ve şeffaflık testlerinden geçmek zorunda olacaklar. Bu yeni gerekliliklere uymayan şirketler, 35 milyon avroya veya küresel yıllık gelirlerinin %7'sine kadar para cezasına çarptırılabilirler.
AB'de son kullanıcıları bulunan ve ürünlerinde yapay zeka sistemlerini kullanan tüm işletmeler, bulundukları yerden bağımsız olarak Yapay Zeka Yasası'na tabi olacaktır. Bu kapsam geniş ve bazı belirsizlikler içerse de, yapay zeka içeriği kullanan veya yayınlayan çevrimiçi platformların bu yeni düzenleyici yükümlülüklere uyması gerektiği açıktır.
Birçok kullanıcı tarafından oluşturulan içerik platformunda yapay zeka tarafından oluşturulan içeriklerin paylaşımında artış görülmesi nedeniyle, çoğu çevrimiçi site (ör. yayıncılar, pazar yerleri ve sosyal medya siteleri) aşağıdakiler dahil olmak üzere bazı şeffaflık ve denetim kontrolleri oluşturmak zorunda kalacaktır:
Etiketleme ve vekaleten algılama, AI tarafından üretilen içeriklerin içerik platformlarında yayılması durumunda artık bir gereklilik olacaktır. Bu, metin, ses, görüntü ve videolar gibi her türlü içerik için geçerlidir:
"Genel amaçlı yapay zeka sistemleri dahil olmak üzere, sentetik ses, görüntü, video veya metin içeriği üreten yapay zeka sistemleri sağlayıcıları, yapay zeka sisteminin çıktılarının makine tarafından okunabilir bir biçimde işaretlenmesini ve yapay olarak üretilmiş veya manipüle edilmiş olarak tespit edilebilir olmasını sağlamalıdır."
AB'nin güvenli yapay zeka sistemlerini teşvik etme yönündeki yasal niyetini desteklerken, işletmelerin bu yasayı yorumlamasının ve uymasının kafa karıştırıcı olabileceğini de kabul ediyoruz. Bu yükümlülükler oldukça belirsiz görünebilir ve Yapay Zeka Yasası, ikincil içerik türlerinin (kullanıcı yorumları veya yorumları gibi) bu gerekliliklere tabi olup olmadığını veya işletmelerin hangi uyum kontrollerini uygulaması gerektiğini ayrıntılı olarak belirtmemektedir.
İyi haber ise, şirketlerin uyumluluk sağlamak için çözümler geliştirmek için zamanları olacak. Yasanın Mayıs ayında yürürlüğe girmesi bekleniyor ve hükümleri aşamalı olarak yürürlüğe girecek. Şeffaflık gerekliliklerinin çoğu ise bir yıl sonra uygulanmaya başlayacak.
Bununla birlikte, şirketlerin yasanın uygulanmasını önlemek için şu anda alabilecekleri bazı önlemler olduğunu düşünüyoruz. Özellikle, şirketler aşağıdakileri geliştirmeye çalışmalıdır:
Zaten bazı şirketlerin harekete geçtiğini görüyoruz - Youtube ve Instagram gibi bazı platformlar, kullanıcılarından "gerçekçi" AI tarafından üretilen içerik yüklerken bunu kendilerinin bildirmelerini istiyor. Bu "güven sistemi"nin yasaya uymak için yeterli olup olmayacağı belirsiz, ancak bu, sektör liderlerinin bu yasayı ve AI güvenliğini ciddiye aldıklarının güçlü bir işaretidir.
Pangram Labs olarak, şirketlerin güvenli ve sorumlu çevrimiçi platformlar işletebilmeleri için en iyi yapay zeka algılama sistemlerini geliştirmek için yoğun bir şekilde çalışıyoruz. AB'nin internet şeffaflığı hedefi bizi cesaretlendiriyor ve bu önemli standartları somutlaştırmak için araştırmacılar ve politika yapıcılarla birlikte çalışmayı sabırsızlıkla bekliyoruz.
Bizimle iletişime geçmek ister misiniz? info@pangram.com adresine e-posta gönderin!
