الإعلان عن شراكة جديدة مع Proofig! تعرف على المزيد
الصورة من Meta
استجابةً للوائح الجديدة المتعلقة بالذكاء الاصطناعي التي تم إقرارها في أوروبا، نشرنا تحليلنا الذي توقعنا فيه أن الشركات الرائدة ستبدأ في اتخاذ إجراءات بشأن شفافية الذكاء الاصطناعي. في الشهر الماضي، بدأنا نرى هذا التوقع يتحقق - أعلنت Meta في مدونة لها أنها "ستبدأ في تصنيف مجموعة أكبر من محتويات الفيديو والصوت والصور على أنها 'مصنوعة بالذكاء الاصطناعي'".
نأمل أن يكون هذا الإعلان علامة على أن الشركات الأخرى ستبدأ في إدراك المخاطر التي يشكلها المحتوى الذي تولده الذكاء الاصطناعي، خاصة فيما يتعلق بالمعلومات المضللة والصور ومقاطع الفيديو المزيفة. في المنشور، أعلنت الشركة عن عدة إجراءات تخطط لاتخاذها:
تخطط Meta لبناء أدوات داخلية للتعرف على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي على نطاق واسع عندما يظهر على Facebook و Instagram و Threads.
سيشمل المحتوى الذي سيتم وضع علامة عليه المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي من Google و OpenAI و Microsoft و Adobe و Midjourney وغيرها.
سيضيف ذلك طريقة للمستخدمين للكشف طواعيةً عند تحميلهم محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي، مع معاقبة الحسابات التي لا تكشف عن المحتوى المشترك الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
تعد هذه الإجراءات بداية رائعة، وقد تم الإبلاغ عنها من قبل مجموعة متنوعة من أصحاب المصلحة من خلال مجلس مراقبة المحتوى التابع لشركة Meta. بعد الانتهاء من المشاورات مع صانعي السياسات الدوليين واستطلاع آراء أكثر من 23 ألف مستخدم، وجدت Meta أن الغالبية العظمى (82٪) تؤيد هذه الإفصاحات المتعلقة بالذكاء الاصط ناعي، خاصةً بالنسبة "للمحتوى الذي يصور أشخاصًا يقولون أشياء لم يقولوها".
قبل انتخابات عام 2024، من الواضح أن Meta قد استفادت من الدروس المستفادة من انتخابات الولايات المتحدة في عامي 2016 و2020، وتستثمر في الأنظمة المناسبة لحماية مستخدميها بشكل أفضل من موجة متزايدة من المعلومات المضللة التي تنتشر بواسطة الذكاء الاصطناعي. كما أنه ليس من قبيل المصادفة أن Meta تتطلع إلى تنفيذ هذه السياسات قبل دخول قانون الذكاء الاصطناعي للاتحاد الأوروبي حيز التنفيذ في مايو.
من المؤكد أن قرارات Meta وقيادتها ستؤثر على الطريقة التي تبدأ بها الشركات الأخرى في التفكير في مخاطر منصاتها الخاصة. في ندوة عقدت في المنتدى الاقتصادي العالمي، وصف رئيس الشؤون العالمية في Meta الجهود المبذولة للكشف عن المحتوى المصطنع بأنها "المهمة الأكثر إلحاحًا" التي تواجه صناعة التكنولوجيا اليوم.
إذن، كيف يمكن للشركات الأخرى اتباع هذه الإرشادات وحماية منصاتها من إساءة استخدام المعلومات المضللة والالتزام في الوقت نفسه باللوائح الجديدة للاتحاد الأوروبي؟ فيما يلي بعض الأفكار:
تقوم Pangram Labs ببناء أفضل أنظمة الكشف بالذكاء الاصطناعي حتى تتمكن الشركات من تشغيل منصات آمنة ومسؤولة عبر الإنترنت. إذا كنت تبحث عن اتخاذ خطوات استباقية وريادة الطريق في مجال سلامة المنصات والامتثال التنظيمي، فاتصل بنا على info@pangram.com!
