الإعلان عن شراكة جديدة مع Proofig! تعرف على المزيد

Tremau و Pangram Labs يتعاونان لمعالجة المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي

ماكس سبيرو وتريمو
17 أبريل 2024

مع اقترابنا من أكبر عام انتخابي في التاريخ، يتصدر التقاطع بين التكنولوجيا والديمقراطية المشهد مرة أخرى. ستجري أكثر من 50 دولة حول العالم، يبلغ مجموع سكانها حوالي 4.2 مليار نسمة، انتخابات وطنية وإقليمية في عام 2024، من بينها سبع من الدول العشر الأكثر اكتظاظًا بالسكان في العالم. مع التقدم السريع في مجال الذكاء الاصطناعي التوليدي، الذي يتيح لأي شخص إنشاء صور أو مقاطع فيديو أو مقاطع صوتية أو نصوص واقعية بناءً على المطالبات التي يقدمها المستخدم، قد تواجه العمليات الانتخابية تحديات جديدة.

حظيت الذكاء الاصطناعي التوليدي باهتمام كبير بسبب قدرته على التأثير على الرأي العام وبالتالي على المناقشات والقرارات. من مقاطع الفيديو المزيفة إلى الحملات "الذكية" المستهدفة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي على نطاق واسع، يمكن أن يشكل استخدام تقنيات الذكاء الاصطناعي التوليدي تهديدات كبيرة لسلامة العمليات الديمقراطية. يمكن أن تتخذ هذه المخاطر أشكالاً عديدة، بما في ذلك المحاولات في اللحظة الأخيرة لثني الناس عن التصويت أو اختلاق حدث يضم صورة مزيفة لمرشح يصعب دحضها، أو نشر قصص كاذبة مستهدفة.

ماذا يعني هذا بالنسبة للمنصات الإلكترونية؟ ببساطة: تجنب الأسئلة المحرجة حول المساءلة بشأن انتشار الذكاء الاصطناعي المشكوك فيه على منصتك، لا سيما في مواجهة الفضائح المحتملة، وحسّن عمليات الثقة والأمان لديك للتعامل مع التهديدات الجديدة المحتملة. تقوم Pangram Labs بتطوير أكثر طرق الكشف عن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي دقةً لأتمتة عملية تحديد محتوى الذكاء الاصطناعي ومراقبته. وبالاقتران مع تقنيات "الإنسان في الحلقة" التي تتيحها Tremau، فإن هذه العملية فعالة للتحكم في محتوى الذكاء الاصطناعي ومراقبته قبل أن يهدد سلامة المنصة أو الانتخابات.

عندما أصدرت المفوضية الأوروبية لأول مرة اقتراحها بشأن قانون الذكاء الاصطناعي في أبريل 2021، لم يكن الذكاء الاصطناعي التوليدي مصدر قلق ملحّ للجهات التنظيمية. لكن كل ذلك تغير مع التطورات الحديثة في مجال الذكاء الاصطناعي مثل GPT-4. ونتيجة لذلك، أدخل البرلمان الأوروبي تعديلات جوهرية على الاقتراح الأولي للمفوضية الأوروبية، لا سيما بإدخال قواعد محددة تنطبق على أنظمة الذكاء الاصطناعي التوليدي (اقتراح البرلمان). يندرج الذكاء الاصطناعي التوليدي ضمن فئة"أنظمة الذكاء الاصطناعي للأغراض العامة"التي يجب أن تمتثل لمتطلبات الشفافية، بما في ذلك الكشف عن أن المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي. يمكن أن يصبح الوفاء بهذه الالتزامات التنظيمية أمرًا بسيطًا باستخدام منصة مراقبة محتوى متوافقة مع التصميم، مثل منصة المراقبة Tremau.

أدركت العديد من الشركات أن الاستعداد لمواجهة التحديات والمخاطر المرتبطة بالذكاء الاصطناعي ليس مجرد مسألة تنظيمية. فالتطور السريع للذكاء الاصطناعي يشكل تحديات لأمن العلامة التجارية وصحة المنصة - ولذلك من الضروري أن تكون على دراية بكيفية استخدام الجهات السيئة لمحتوى الذكاء الاصطناعي في إرسال الرسائل غير المرغوب فيها ونشر المعلومات المضللة، واستخدام الأدوات اللازمة لمنع ذلك على منصتك.

لكل هذه الأسباب، وكجزء من مهمتنا لبناء عالم رقمي آمن ومفيد للجميع، تتعاون Tremau و Pangram Labs لتوفير خدمات الكشف عن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي والإفصاح عن المحتوى الذي تم إنشاؤه بواسطة المستخدمين. وبهذه الطريقة، يمكن للمنصات أن تظل متوافقة مع اللوائح وأن تحافظ على أصالة المحتوى الذي ينشئه المستخدمون.

كيف يمكننا مساعدتك؟

تقوم Pangram Labs بتطوير أدوات لأتمتة عملية الكشف عن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، بدءًا من النصوص والكلام.

تعمل Tremau على مساعدتك في التعامل بشكل أفضل مع العالم الجديد للذكاء الاصطناعي القوي واللوائح الجديدة. لمزيد من المعلومات، يرجى زيارة tremau.com.

لمزيد من المعلومات، يرجى الاتصال بنا على info@pangram.com و info@tremau.com.

اشترك في نشرتنا الإخبارية
نشارك تحديثات شهرية حول أبحاثنا في مجال الكشف عن الذكاء الاصطناعي.