الإعلان عن شراكة جديدة مع Proofig! تعرف على المزيد
الصورة من تصوير أنجيل بينا.
في الأسبوع الماضي، أقر البرلمان الأوروبي قانون الذكاء الاصطناعي (AI Act)، وهو إطار شامل يتعين على الدول الأعضاء في الاتحاد الأوروبي اتباعه في تنظيم منتجات وخدمات الذكاء الاصطناعي.
يهدف قانون الذكاء الاصطناعي إلى أن يكون بمثابة تشريع لسلامة المستهلك، حيث يتبع "نهجًا قائمًا على المخاطر" تجاه المنتجات أو الخدمات التي تستخدم الذكاء الاصطناعي - فكلما زادت مخاطر تطبيق الذكاء الاصطناعي، زادت الرقابة عليه. تنقسم مستويات المخاطر إلى فئات مختلفة، منها:
سيُطلب من كل من المنتجين (مثل Open AI/Google) والمستخدمين (الشركات التي تستخدم هذه التطبيقات) اجتياز اختبارات الدقة والشفافية حتى يكون المستخدمون النهائيون (المستهلكون) على دراية بأنهم يتعاملون مع الذكاء الاصطناعي. وتواجه الشركات التي لا تستطيع الامتثال لهذه المتطلبات الجديدة غرامات تصل إلى 35 مليون يورو أو 7% من إيراداتها السنوية العالمية.
أي شركة، بغض النظر عن مكان وجودها، لديها مستخدمون نهائيون في الاتحاد الأوروبي وتستخدم أنظمة الذكاء الاصطناعي في منتجاتها، ستخضع لقانون الذكاء الاصطناعي. على الرغم من أن هذا القانون واسع النطاق ويحتوي على بعض الغموض، إلا أنه من الواضح أن المنصات الإلكترونية التي تستخدم أو تنشر محتوى الذكاء الاصطناعي ستحتاج إلى الامتثال لهذه الالتزامات التنظيمية الجديدة.
مع زيادة المحتوى الذي يتم نشره بواسطة الذكاء الاصطناعي على العديد من منصات المحتوى التي ينشئها المستخدمون، من المرجح أن تضطر معظم المواقع الإلكترونية (مثل الناشرين والأسواق ومواقع التواصل الاجتماعي) إلى وضع بعض الضوابط للشفافية والرقابة، بما في ذلك:
سيصبح وضع العلامات، والكشف بالوكالة عن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، مطلبًا إلزاميًا إذا تم نشر هذا المحتوى على منصات المحتوى. وينطبق هذا على أي شكل من أشكال المحتوى - النصوص والصوت والصور ومقاطع الفيديو:
"يجب على مزودي أنظمة الذكاء الاصطناعي، بما في ذلك أنظمة الذكاء الاصطناعي للأغراض العامة، التي تولد محتوى صوتيًا أو صوريًا أو فيديو أو نصيًا اصطناعيًا، ضمان أن تكون مخرجات نظام الذكاء الاصطناعي محددة بتنسيق يمكن قراءته آليًا ويمكن اكتشافه على أنه مولد أو معالج اصطناعيًا."
بينما ندعم نية الاتحاد الأوروبي التشريعية الرامية إلى تعزيز أنظمة الذكاء الاصطناعي الآمنة، فإننا ندرك أيضًا أن تفسير هذا القانون والامتثال له قد يكون أمرًا مربكًا للشركات. قد تبدو هذه الالتزامات غامضة إلى حد ما، ولا يحدد قانون الذكاء الاصطناعي بشكل محدد ما إذا كانت الأنواع الثانوية من المحتوى (مثل تقييمات المستخدمين أو تعليقاتهم) خاضعة لهذه المتطلبات، أو ما هي إجراءات التحقق من الامتثال التي سيتعين على الشركات تضمينها.
الخبر السار هو أن الشركات سيكون لديها الوقت الكافي لتطوير حلول تتيح الامتثال. من المتوقع أن يصبح القانون ساري المفعول بحلول شهر مايو، وستبدأ أحكامه في الدخول حيز التنفيذ على مراحل، حيث لن يتم تطبيق العديد من متطلبات الشفافية إلا بعد مرور عام من الآن.
ومع ذلك، نعتقد أن هناك إجراءات معينة يمكن للشركات اتخاذها الآن لاستباق أي تطبيق للقانون. وعلى وجه الخصوص، ينبغي للشركات أن تسعى إلى تطوير ما يلي:
نرى بالفعل بعض الشركات تتخذ إجراءات - بعض المنصات مثل Youtube و Instagram تطلب من المستخدمين الإبلاغ عن أنفسهم عند تحميل محتوى "واقعي" تم إنشاؤه بواسطة الذكاء الاصطناعي. من غير الواضح ما إذا كان هذا "نظام الثقة" كافياً للامتثال للقانون، ولكن هذه إشارة قوية على أن قادة الصناعة يأخذون هذا التشريع وسلامة الذكاء الاصطناعي على محمل الجد.
في Pangram Labs، نبذل قصارى جهدنا لبناء أفضل أنظمة الكشف بالذكاء الاصطناعي حتى تتمكن الشركات من تشغيل منصات إلكترونية آمنة ومسؤولة. ونشعر بالتفاؤل إزاء هدف الاتحاد الأوروبي المتمثل في تحقيق الشفافية على الإنترنت، ونتطلع إلى العمل مع الباحثين وصانعي السياسات لتجسيد هذه المعايير المهمة.
هل تريد التواصل معنا؟ أرسل لنا بريدًا إلكترونيًا على info@pangram.com!
