أظهرت نتائج ورقة بحثية جديدة صادرة عن جامعة أكسفورد وجامعات أخرى أن نماذج الذكاء الاصطناعي التوليدي، مثل “ChatGPT” و”Gemini”، تواجه عيبًا خطيرًا يتمثل في إمكانية “تسميم” نفسها عند الاعتماد على بيانات اصطناعية في التدريب. يُطلق على هذه الظاهرة “انهيار النموذج”، حيث تتدهور دقة الأنظمة بشكل كبير، ما يؤدي إلى إنتاج معلومات مشوهة وغير دقيقة.
ظاهرة “انهيار النموذج”
بحسب تقرير نشرته مجلة “Nature”، فإن الذكاء الاصطناعي التوليدي يعتمد على تريليونات من البيانات المجمعة من مصادر بشرية مثل المواقع الإلكترونية والمقالات. في الآونة الأخيرة، لجأ الباحثون إلى استخدام البيانات الاصطناعية لتسريع التدريب وتجنب قضايا انتهاك الخصوصية. لكن تبيّن أن تدريب هذه الأنظمة على بيانات أنتجها الذكاء الاصطناعي نفسه يؤدي إلى تدهور الأداء.
فكلما زاد الاعتماد على البيانات الاصطناعية، تفاقمت المشكلة، ما يؤدي إلى إنتاج معلومات غير منطقية وحتى غير ذات صلة بالموضوع المطلوب، كما حدث في مثال عن الهندسة المعمارية التي تحولت إلى نقاش حول الأرانب البرية.
مخاطر انهيار النموذج
أحد أكبر التحديات هو انتشار البيانات الاصطناعية عبر الإنترنت، مما يجعل من الصعب على هذه النماذج تجنب التدريب عليها في المستقبل. لذا، يتوقع الباحثون أن تدهور هذه النماذج سيصبح حتميًا إذا لم يتم إيجاد حل لهذه المشكلة. ويؤكد الخبراء أن عدم معالجة هذا الخلل قد يؤثر على الثقة في أنظمة الذكاء الاصطناعي.
الحل المحتمل
يشدد الباحثون على ضرورة توفير نماذج الذكاء الاصطناعي ببيانات بشرية عالية الجودة لتجنب هذه المشكلة. وعلى الرغم من أن الحصول على هذه البيانات قد يكون مكلفًا، إلا أنه الحل الوحيد للحفاظ على دقة هذه النماذج. شركات مثل OpenAI تستثمر في الحصول على تراخيص لبيانات بشرية من ناشرين كبار بهدف تحسين تدريب نماذجها.
يعد انهيار النموذج تحديًا كبيرًا لصناعة الذكاء الاصطناعي، وقد يؤدي تفاقمه إلى فقدان الثقة في هذه التكنولوجيا وتباطؤ تطورها المستقبلي.
المصادر:
- تقرير بلومبرغ
- ورقة بحثية من جامعة أكسفورد
+ There are no comments
Add yours