اعرف على الفور ما هو منشور بشري وما هو منشور من الذكاء الاصطناعي على تويتر ولينكدإن وسوبستاك وغيرها. احصل على ملحق كروم الجديد الخاص بنا.

نطلق اليوم Pangram 3.3. وعلى غرار النماذج السابقة في سلسلة Pangram 3، يستند Pangram 3.3 إلى بنية EditLens التي عرضناها في ورقتنا البحثية المقدمة في مؤتمر ICLR 2026.
اطلع على بطاقة طراز Pangram 3.3 هنا
في الأسابيع القليلة الماضية، ربما لاحظتم أن بعض النصوص الواردة في أحدث إصدارات OpenAI وAnthropic قد تم تصنيفها خطأً على أنها من تأليف بشري. وفي هذا التحديث، ركزنا على خفض معدل «النتائج السلبية الخاطئة» — أي المعدل الذي يصنف فيه النموذج النصوص التي أنشأتها الذكاء الاصطناعي خطأً على أنها من تأليف بشري — فيما يتعلق بالمحتوى الذي كتبته هذه النماذج التي تم إصدارها مؤخرًا.
كما هو الحال دائمًا، نحن ملتزمون بالحفاظ على معدل الإيجابيات الخاطئة الرائد في القطاع. ولن نطلق أبدًا نموذجًا يقلل من معدل السلبيات الخاطئة الإجمالي لدينا على حساب تصنيف المزيد من النصوص المكتوبة بواسطة البشر على أنها من إنتاج الذكاء الاصطناعي. ولن تلاحظ أي زيادة في الإيجابيات الخاطئة مع Pangram 3.3.
بالإضافة إلى تحسين معدل النتائج السلبية الخاطئة في نماذج مثل Claude 4.7 و GPT 5.4+، يُظهر Pangram 3.3 أيضًا أداءً أفضل في التعامل مع النصوص ذات الطابع البشري، والوثائق الطويلة، ومعايير تقييم الكتابة للناطقين بغير اللغة الإنجليزية.
يُعد Pangram 3.3 أفضل بكثير من الإصدار السابق في الكشف عن المخرجات الخالصة الصادرة عن أحدث جيل من نماذج اللغة الكبيرة (LLMs)، بما في ذلك Claude 4.7 وGPT 5.4+. وفي تقييماتنا الداخلية، لاحظنا تحسناً بمقدار ثلاثة أضعاف في الكشف عن النصوص التي أنشأها GPT-5.5 Pro، وتحسناً بأكثر من أربعة أضعاف بالنسبة لـ Claude Opus 4.7 مقارنةً بـ Pangram 3.2.
يُظهر Pangram 3.3 تحسناً ملحوظاً في تقييمات "Humanizer"، حيث تمكن من اكتشاف ضعف عدد النصوص المُصاغة بأسلوب بشري مقارنةً بنسخته السابقة. كما يتفوق Pangram 3.3 في اكتشاف مخرجات نماذج اللغة الكبيرة (LLM) التي تم تحفيزها بطريقة عدائية، حيث يوجه المستخدمون النموذج إلى التهرب من الكشف: فقد لاحظنا تحسناً بمقدار ثلاثة أضعاف على قاعدة البيانات العدائية الداخلية الخاصة بنا مقارنةً بنموذج Pangram السابق.
كان نموذجنا السابق يصنف أحيانًا الوثائق الطويلة التي تم إنشاؤها بواسطة الذكاء الاصطناعي (التي تزيد عن 2000 كلمة) بشكل خاطئ على أنها مختلطة، ولا سيما من خلال تصنيف المقاطع القريبة من نهاية النص خطأً على أنها مكتوبة بالكامل بواسطة البشر. ويقلل Pangram 3.3 بشكل كبير من هذا الخطأ في التصنيف بالنسبة للنصوص الاصطناعية الطويلة.
على الرغم من انخفاض معدل الإيجابيات الخاطئة الإجمالي لدينا بفضل التحسينات التي طرأت على مجالات صعبة مثل الشعر، فقد لاحظنا ارتفاعًا طفيفًا في معدل الإيجابيات الخاطئة بالنسبة للنصوص المكتوبة بواسطة البشر والتي تمت ترجمتها عبر "ترجمة Google". ونحن ندرك أن الترجمة تُعد أحد الاستخدامات الشائعة لنماذج اللغة الكبيرة (LLMs)، ونقوم حاليًا بتجربة طرق مختلفة لوضع نماذج للنصوص المترجمة بواسطة الذكاء الاصطناعي والإبلاغ عن نتائجها في النماذج المستقبلية.
شهد استخدام الوكلاء (الذكاء الاصطناعي) طفرة هائلة خلال الأشهر الستة الماضية. وقد بدأنا نلاحظ تطور عمليات الكتابة المشتركة بين البشر والذكاء الاصطناعي لتتحول إلى نموذج تعاوني، حيث تتشابك النصوص المكتوبة بواسطة البشر وتلك التي يولدها الذكاء الاصطناعي داخل المستند الواحد عبر عدة جولات من التعديل والتحسين. ينصب تركيزنا بشكل رئيسي على تحسين نمذجة هذا النوع من المستندات المكتوبة بشكل مشترك. نحن متحمسون للبناء على EditLens، من أجل تقديم النتائج الأكثر دقة بشأن النصوص ذات المؤلفين المتعددين، وكذلك لتمكين المستخدمين من فهم ما يعنيه أن يكون النص مدعومًا بـ "الذكاء الاصطناعي بشكل طفيف" مقابل "بشكل معتدل".
كما هو الحال مع النموذجين السابقين، يمكنك دائمًا الاطلاع على أداء النموذج الحالي على مجالات ومجموعات بيانات مختلفة من خلال بطاقة النموذج الخاصة بنا.

كاثرين تاي هي الباحثة العلمية المؤسسة في مجال الذكاء الاصطناعي في Pangram Labs، وهي شركة ناشئة متخصصة في الكشف عن المحتوى المزيف باستخدام الذكاء الاصطناعي. وقد حصلت على درجة الدكتوراه في علوم الحاسوب تحت إشراف موهيت إيير في جامعة ماساتشوستس أمهرست في ديسمبر 2025، حيث ركزت أبحاثها على تقييم النماذج اللغوية الكبيرة (LLMs) في المهام المتعلقة بالتحليل الأدبي.






