الإعلان عن شراكة جديدة مع Proofig! تعرف على المزيد

يمكن القول إن "شخصية العام 2023" هي الذكاء الاصطناعي. لقد فاجأتنا جميعًا سرعة الابتكار وقدرات نماذج اللغة الكبيرة (LLMs) وبشكل أعم الذكاء الاصطناعي التوليدي (GenAI). في الوقت نفسه، يطرح الكثيرون، لا سيما في المنصات عبر الإنترنت، تساؤلات حول المخاطر المحتملة التي يمكن أن تثيرها هذه التقنيات – انظر هذا المقال في مجلة هارفارد بيزنس ريفيو الذي يحدد بعض مخاطر الذكاء الاصطناعي. قد تغمر المنصات الإلكترونية قريبًا محتويات مولدة بالذكاء الاصطناعي، مما سيؤثر على سلامة مستخدميها واستمرارهم، فضلاً عن سمعة المنصات. هناك بالفعل شركات ناشئة تقدم أدوات لتوليد ونشر كميات هائلة من محتويات الذكاء الاصطناعي التوليدي.
ولكن يمكن أيضًا استخدام الذكاء الاصطناعي والذكاء الاصطناعي التوليدي لصالحنا لإدارة هذه المخاطر ومساعدتنا في إنشاء مساحات رقمية ومنصات عبر الإنترنت أكثر أمانًا، كما يتضح من بعض الأفكار الواردة في أحدث نسخة من Trust & Safety Hackathon. مع ظهور أدوات جديدة، حان الوقت لتقييم وضعنا الحالي فيما يتعلق بأحدث الابتكارات والعمليات لإدارة المخاطر التي تواجهها المنصات عبر الإنترنت بسبب الذكاء الاصطناعي التوليدي.
يمكن أن تساعد هذه المقالة في الإجابة عن أسئلة مثل:
كل شركة لديها محتوى من إنشاء المستخدمين تحتاج إلى سياسة GenAI. هناك عمومًا سؤالان يجب الإجابة عليهما. هل يرغب المستخدمون في رؤية محتوى من إنشاء الذكاء الاصطناعي، وهل يوافق المستخدمون على اختلاط محتوى الذكاء الاصطناعي بمحتوى من إنشاء البشر؟
إذا كانت إجابتك على أي من السؤالين هي "لا"، فأنت بحاجة إلى سياسة تتعلق بمحتوى الذكاء الاصطناعي. على سبيل المثال، اشتراط الكشف عن محتوى الذكاء الاصطناعي أو حظره صراحةً. يمكن تطبيق هذه السياسة من قبل مشرفين بشريين يتمتعون بقدرة ملاحظة دقيقة وعمليات فعالة باستخدام أدوات مثل Pangram Labs.
إذا كانت الإجابة نعم – أي أن المستخدمين لا يمانعون أو متحمسون لرؤية محتوى الذكاء الاصطناعي – فمن وجهة نظر السياسة العامة، أنت على ما يرام. ومع ذلك، قبل المضي قدماً في إدخال أدوات الذكاء الاصطناعي مباشرةً مثل رسائل Linkedin المدعومة بالذكاء الاصطناعي، لا يزال عليك التأكد من أن المحتوى آمن. للقيام بذلك، تحتاج إلى بعض الإجراءات الوقائية، والأهم من ذلك، أن تضع دائمًا إجراءات لتنظيم المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي بشكل فعال وكفء، على غرار تنظيم المحتوى الذي ينشئه المستخدمون، باستخدام أدوات مثل منصة التنظيم Tremau.
بالطبع، تعتمد سياسة GenAI الخاصة بك على طبيعة عملك وسياقك. لا يوجد حل واحد يناسب الجميع. على سبيل المثال، إذا كنت تعمل في سوق أو منصة بشكل عام حيث يعتمد المستخدمون على تقييمات المستخدمين الآخرين، فقد تحتاج إلى التأكد من عدم وصول أي تقييمات تم إنشاؤها بواسطة الذكاء الاصطناعي إلى منصتك. بشكل عام، تحتاج أيضًا إلى التأكد من عدم وجود أي محتوى غير قانوني تم إنشاؤه بواسطة الذكاء الاصطناعي، مثل المحتوى الذي ينشئه المستخدمون، على منصتك. لطالما شكلت الروبوتات والبريد العشوائي تحديًا، ولكن مع قوة GenAI أصبحت أكثر قوة وأصعب في اكتشافها.
توفر معظم واجهات برمجة التطبيقات التجارية الخاصة بالذكاء الاصطناعي نوعًا من الحواجز الوقائية للذكاء الاصطناعي. تقوم واجهة برمجة تطبيقات Gemini من Google تلقائيًا بتصنيف مخرجاتها وفقًا لأربع فئات أمان: خطاب الكراهية، والتحرش، والمحتوى الجنسي الصريح، والمحتوى الخطير. إذا كنت تستخدم واجهة برمجة تطبيقات OpenAI من Azure، فستحصل على تصنيفات مماثلة بناءً على عوامل تصفية المحتوى "الكراهية والإنصاف"، والمحتوى الجنسي، والعنف، وإيذاء النفس. سترفض كلتا واجهتي برمجة التطبيقات الاستعلامات التي تحصل على درجات عالية جدًا في أي من هذه الفئات، ولكنها تترك مستويات أمان متوسطة لتقديرك الخاص.
إذا كنت تستخدم نموذجًا مفتوح المصدر مثل Llama-2 أو Mistral، فستحتاج إلى تطبيق مرشح المحتوى الخاص بك. يمكن حل هذه المشكلة من خلال استدعاء منفصل لمصنف مغلق المصدر (واجهة برمجة تطبيقات مرشح المحتوى من OpenAI، واجهة برمجة تطبيقات أمان المحتوى من Azure) أو حل مفتوح المصدر مثل LlamaGuard الذي أطلقته Meta مؤخرًا. LlamaGuard هو نموذج قائم على LLM بمعلمات 7B يحقق نتائج جيدة جدًا في الاختبارات المعيارية. وهو واعد في تصنيف المطالبات والاستجابات، بالإضافة إلى الإشراف العام على المحتوى.
بغض النظر عن الأدوات الآلية التي قد تستخدمها لحماية المستخدمين وشركتك، لا توجد تقنية قادرة على حمايتك بشكل كامل. جميع أدوات الذكاء الاصطناعي التي تستخدمها سترتكب أخطاء دائمًا. عليك التأكد من أن هذه الأخطاء لا تعرضك لمخاطر تشغيلية أو مخاطر تتعلق بالعملاء أو مخاطر تنظيمية.
أولاً، ستحتاج دائماً إلى إشراك البشر في العملية، الذين سيقومون على الأقل بمراجعة بعض المحتوى الذي قد تحدده الأدوات لهم للتحقق منه. وبالطبع، يجب أن تكون عمليات مراجعة المحتوى فعالة وكفؤة. ومن المفارقات أنه كلما زادت أدوات الذكاء الاصطناعي المتاحة في السوق (على سبيل المثال، لإنشاء المحتوى أو الإشراف عليه)، زاد عدد الأشخاص الذين قد تحتاج إلى إشراكهم في بعض الحالات.
ثانياً، يجب تصميم جميع عمليات وممارسات مراقبة المحتوى مع مراعاة سلامة المستخدمين والاحتفاظ بهم، وبالتالي مراعاة الأعمال التجارية أيضاً. ماذا لو أثارت أخطاء الإشراف لديك مخاوف؟ كيف تضمن أن يكون للمستخدمين صوت عند الحاجة لتصحيح قراراتك أو قرارات الذكاء الاصطناعي لديك؟ كيف تضمن أن المشرفين لديك لديهم كل ما يحتاجونه لاتخاذ أفضل قرارات الإشراف بأكبر قدر ممكن من الكفاءة والفعالية؟ تتطلب إدارة هذه التعقيدات وغيرها أن تفكر بعناية في عملياتك وتقوم بأتمتتها بفعالية، باستخدام أدوات مثل منصة Tremau لإشراف المحتوى على سبيل المثال.
أخيرًا، سيكون عام 2024 هو العام الذي ستحتاج فيه حقًا إلى مضاعفة جهودك للتأكد من أنك لست من بين الشركات التي يتم تغريمها من قبل الهيئات التنظيمية. سيتم تطبيق قانون الخدمات الرقمية للاتحاد الأوروبي على جميع المنصات الإلكترونية العاملة في أوروبا، مع متطلبات لإعادة تصميم عملياتك وتقديم تقارير، مثل تقارير الشفافية، وإلا فسيتم تغريمك. بالطبع، الامتثال ضروري سواء كانت منصتك متأثرة بالذكاء الاصطناعي أو تستخدمه أم لا.
كيف يمكننا مساعدتك؟ في Checkfor.ai و Tremau، نسعى لمساعدتك على التعامل بشكل أفضل مع العالم الجديد للذكاء الاصطناعي القوي واللوائح الجديدة.
لمزيد من المعلومات، يرجى الاتصال بنا على info@tremau.com و info@pangram.com.
ثيودوروس إيفجينيو هو المؤسس المشارك والرئيس التنفيذي للابتكار في Tremau، وأستاذ في INSEAD، وعضو في شبكة خبراء منظمة التعاون الاقتصادي والتنمية في مجال الذكاء الاصطناعي، ومستشار في معهد BCG Henderson، وشريك أكاديمي في مجال الذكاء الاصطناعي في المنتدى الاقتصادي العالمي. وهو حاصل على أربع شهادات من معهد ماساتشوستس للتكنولوجيا، بما في ذلك درجة الدكتوراه في مجال الذكاء الاصطناعي.
ماكس سبيرو هو المؤسس المشارك والرئيس التنفيذي لشركة Pangram Labs. شغل سابقًا منصب مهندس برمجيات في Google و Nuro، حيث كان مسؤولاً عن إنشاء قنوات نقل البيانات وتدريب نماذج التعلم الآلي. وهو حاصل على درجة البكالوريوس والماجستير في علوم الكمبيوتر من جامعة ستانفورد.
تم نشر هذا المقال بالاشتراك مع Tremau في يناير 2024.
