إطلاق أداة تقييم لنماذج الذكاء الاصطناعي من Endor Labs

 

أعلنت شركة Endor Labs عن إطلاق أداة جديدة لتقييم نماذج الذكاء الاصطناعي بناءً على معايير متعددة تشمل الأمان، والشعبية، والجودة، والنشاط.

وتعرف هذه الأداة باسم “Endor Scores for AI Models”، وتهدف إلى تبسيط عملية تحديد أكثر النماذج المفتوحة المصدر أمانًا المتاحة حاليًا على منصة Hugging Face، وهي منصة متخصصة في تبادل النماذج اللغوية الضخمة (LLMs)، ونماذج التعلم الآلي، وغيرها من النماذج والبيانات المفتوحة المصدر. تقدم هذه الأداة نتائج تقييمية واضحة تسهّل اختيار النموذج الأنسب.

يأتي هذا الإعلان في وقت يتزايد فيه اعتماد المطورين على منصات مثل Hugging Face للحصول على نماذج ذكاء اصطناعي جاهزة، في مشهد يذكرنا بالأيام الأولى لنشر البرمجيات مفتوحة المصدر (OSS). يُعد هذا الإصدار خطوة مهمة نحو تحسين حوكمة الذكاء الاصطناعي، حيث يساعد المطورين على “البدء بنماذج نظيفة”، وهو هدف لطالما كان صعب المنال.

صرّح فارون بادهوار، الشريك المؤسس والرئيس التنفيذي لشركة Endor Labs، قائلاً: “كانت مهمتنا دائمًا تأمين كل ما يعتمد عليه الكود البرمجي، ونماذج الذكاء الاصطناعي تمثل المرحلة التالية الكبرى في هذا التحدي. كل منظمة تقريبًا تقوم بتجربة نماذج الذكاء الاصطناعي، سواءً لتشغيل تطبيقات معينة أو لتأسيس أعمال قائمة بالكامل على الذكاء الاصطناعي. لذلك، يجب أن تواكب الأمان هذه التطورات، وهناك فرصة نادرة هنا للبدء بنماذج آمنة وتجنب المخاطر وتكاليف الصيانة المرتفعة في المستقبل.”

وأضاف جورج أبوستولوبولوس، المهندس المؤسس في Endor Labs: “الجميع يجربون نماذج الذكاء الاصطناعي في الوقت الحالي. البعض يقوم ببناء أعمال جديدة قائمة على هذه النماذج، بينما يحاول آخرون إضافة شعارات ‘مدعوم بالذكاء الاصطناعي’ لمنتجاتهم. شيء واحد مؤكد، أن مطوريك يتعاملون بالفعل مع هذه النماذج.”

ومع ذلك، يحذر أبوستولوبولوس من أن هذا التوجه يحمل مخاطر؛ حيث يشبه الوضع الحالي “الغرب المتوحش”، إذ يقوم الأشخاص باختيار النماذج التي تناسب احتياجاتهم دون التفكير في الثغرات المحتملة.

تعتبر Endor Labs نماذج الذكاء الاصطناعي كعناصر تعتمد عليها سلسلة التوريد البرمجية.

ويقول أبوستولوبولوس: “مهمتنا في Endor Labs هي تأمين كل ما يعتمد عليه كودك.” وتتيح هذه الرؤية للمؤسسات تطبيق منهجيات تقييم المخاطر على نماذج الذكاء الاصطناعي، تمامًا كما تفعل مع المكونات مفتوحة المصدر الأخرى.

تركز أداة Endor لتقييم نماذج الذكاء الاصطناعي على عدة مجالات رئيسية للمخاطر:

  1. الثغرات الأمنية: يمكن أن تحتوي النماذج المدربة مسبقًا على تعليمات برمجية ضارة أو ثغرات في أوزان النموذج، ما قد يؤدي إلى اختراقات أمنية عند دمجها في بيئة المؤسسة.
  2. المشاكل القانونية والترخيص: الالتزام بشروط الترخيص أمر بالغ الأهمية، لا سيما في ظل التعقيد الذي يحيط بنسب التدريب والخط الزمني للنماذج.
  3. المخاطر التشغيلية: يعتمد استخدام النماذج المدربة مسبقًا على هيكل معقد قد يكون من الصعب إدارته وتأمينه.

لمواجهة هذه التحديات، تطبق أداة Endor للتقييم 50 اختبارًا جاهزًا على نماذج الذكاء الاصطناعي المتاحة على Hugging Face. يتم توليد “درجة Endor” بناءً على عوامل مثل عدد القائمين على الصيانة، والرعاية المؤسسية، وتكرار التحديثات، والثغرات المعروفة.

تشمل العوامل الإيجابية في النظام استخدام صيغ آمنة للأوزان، وجود معلومات الترخيص، وارتفاع نسب التحميل والتفاعل. أما العوامل السلبية فتشمل نقص التوثيق، غياب بيانات الأداء، واستخدام صيغ أوزان غير آمنة.

من أبرز مميزات أداة Endor Scores سهولة الاستخدام. حيث لا يحتاج المطورون لمعرفة أسماء النماذج بعينها؛ يمكنهم البدء بأسئلة عامة مثل: “ما النماذج التي يمكنني استخدامها لتصنيف المشاعر؟” أو “ما هي النماذج الأكثر شعبية من شركة Meta؟” وتقدم الأداة نتائج تقييمية واضحة ترتب الجوانب الإيجابية والسلبية لكل نموذج، مما يسمح للمطورين باختيار النموذج الأنسب لاحتياجاتهم.

واختتم أبوستولوبولوس بقوله: “فرق العمل لديك تتلقى يوميًا استفسارات عن الذكاء الاصطناعي، وسيبحثون عن النماذج التي تسرع من وتيرة الابتكار. يساعدك تقييم النماذج مفتوحة المصدر باستخدام أداة Endor Labs على التأكد من أن النماذج التي تستخدمها تقوم بما تتوقعه، وتكون آمنة للاستخدام.”

You May Also Like

More From Author

+ There are no comments

Add yours