الإعلان عن شراكة جديدة مع Proofig! تعرف على المزيد
ملاحظة: لقد غيرنا اسمنا إلى Pangram Labs! انظر منشورنا على المدونة لمزيد من التفاصيل.
أصدرت إدارة بايدن اليوم معايير جديدة لسلامة وأمن الذكاء الاصطناعي، بما في ذلك هذا التوجيه بشأن الكشف عن محتوى الذكاء الاصطناعي:
ستقوم وزارة التجارة بوضع إرشادات لتوثيق المحتوى ووضع علامات مائية عليه بهدف تمييز المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي بوضوح. وستستخدم الوكالات الفيدرالية هذه الأدوات لتسهيل معرفة الأمريكيين بأن الاتصالات التي يتلقونها من حكومتهم هي اتصالات أصلية — وتكون بذلك مثالاً يحتذى به للقطاع الخاص والحكومات في جميع أنحاء العالم.
جو بايدن، من ai.gov.
تدعم Checkfor.ai بشكل كامل التزام إدارة بايدن بالنشر الآمن والمسؤول لنماذج اللغة الكبيرة. نعتقد أن وضع مبادئ توجيهية وسياسات حول مصادقة محتوى الذكاء الاصطناعي هو خطوة مهمة في الاتجاه الصحيح لسلامة الذكاء الاصطناعي ويتوافق مع مهمتنا المتمثلة في حماية الإنترنت من البريد العشوائي والمحتوى الضار الآخر الذي تولده نماذج اللغة الكبيرة. سيكون العالم في وضع أفضل، كمستهلكين ومستخدمين لتكنولوجيا الذكاء الاصطناعي، إذا استثمرنا كمجتمع بشكل أكبر في الكشف عن المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. اليوم، نود أن نصدر بيانًا حول موقفنا كشركة بشأن مصادقة المحتوى والعلامات المائية والكشف.
في Checkfor.ai، نحن نعمل جاهدين على بناء أنظمة كشف موثوقة تعتمد على الذكاء الاصطناعي حتى يمكن نشر نماذج اللغة من الجيل التالي بأمان وإنتاجية. نحن متحمسون لرؤية التزام إدارة بايدن بالتمييز بين المحتوى الذي ينتجه البشر والمحتوى الذي ينتجه الذكاء الاصطناعي، ونتطلع إلى العمل مع الباحثين وصانعي السياسات لتطوير هذه المعايير المهمة.
