{ الذكاء الاصطناعي - AI }

محو البيانات من الذكاء الاصطناعي: باحثون يطورون تقنية تجعل النماذج “تنسى” البيانات!

تقنية جديدة لجعل النماذج الذكية تتجاهل أنواع محددة من البيانات

طور باحثون من جامعة طوكيو للعلوم (TUS) طريقة تتيح للنماذج الذكاء الاصطناعي الكبيرة “نسيان” فئات معينة من البيانات بشكل انتقائي.

تحديات الذكاء الاصطناعي والاحتياجات الجديدة

شهدت تقنيات الذكاء الاصطناعي تطورات هائلة، حيث أصبحت أدوات قادرة على إحداث ثورة في مجالات متنوعة مثل الرعاية الصحية والقيادة الذاتية. مع ذلك، تعقيدات هذه التقنيات أثارت العديد من التحديات الأخلاقية والفنية.

نماذج الذكاء الاصطناعي واسعة النطاق، مثل ChatGPT وCLIP (Contrastive Language-Image Pre-training)، أعادت صياغة التوقعات المتعلقة بأداء الآلات. ولكن، هذه النماذج المتعددة الاستخدامات تواجه تحديات رئيسية، مثل:

  • استهلاك كميات هائلة من الطاقة والوقت أثناء التدريب والتشغيل.
  • الحاجة إلى أجهزة متطورة ذات تكلفة عالية.
  • انخفاض الكفاءة عند استخدامها في مهام محددة.

الحاجة إلى محو البيانات

وفقًا للبروفيسور المساعد جو إيري، الذي قاد البحث، فإن التطبيقات العملية لا تتطلب دائمًا التعرف على جميع فئات الأشياء. على سبيل المثال:

  • أنظمة القيادة الذاتية تحتاج فقط إلى التعرف على فئات مثل السيارات والمشاة وإشارات المرور.
  • الاحتفاظ بفئات غير ضرورية يؤدي إلى تقليل دقة التصنيف وهدر الموارد الحسابية وزيادة مخاطر تسرب البيانات.

الحل: تدريب النماذج على النسيان

تتمثل الفكرة في تدريب النماذج على نسيان المعلومات غير الضرورية أو الزائدة. ومع ذلك، فإن الطرق التقليدية تعتمد على النماذج المفتوحة (White-box)، حيث تكون البنية الداخلية للنموذج مرئية للمستخدمين. ولكن مع زيادة اعتماد النماذج المغلقة (Black-box) لأسباب تجارية وأخلاقية، أصبحت هذه الطرق غير عملية.


منهجية “نسيان النماذج المغلقة”

الطريقة الجديدة: “نسيان النماذج المغلقة”

قدم الفريق البحثي، في مؤتمر NeurIPS 2024، منهجية جديدة أطلقوا عليها اسم “نسيان النماذج المغلقة”. تعتمد هذه الطريقة على تعديل التعليمات النصية المدخلة للنموذج على مراحل، مما يجعل الذكاء الاصطناعي “ينسى” فئات معينة من البيانات تدريجيًا.

  • استُخدم نموذج CLIP (نموذج رؤية-لغة للتصنيف) لتجربة هذه الطريقة.
  • تعتمد الطريقة على خوارزمية CMA-ES، وهي خوارزمية تطورية تعمل على تحسين الحلول خطوة بخطوة.
  • تم تحسين التعليمات النصية المقدمة للنموذج لقمع قدرته على تصنيف فئات معينة من الصور.

التغلب على التحديات

واجه الباحثون تحديات تتعلق بتوسيع النطاق لتشمل عددًا أكبر من الفئات المستهدفة. وللتغلب على ذلك، طوروا استراتيجية جديدة تُعرف باسم “مشاركة السياق الكامن (Latent Context Sharing)”، التي:

  • تُجزئ السياق الكامن إلى أجزاء أصغر وأكثر قابلية للإدارة.
  • تعيد استخدام بعض العناصر عبر رموز متعددة لتقليل التعقيد.

نتائج الدراسة

من خلال اختبارات على مجموعات بيانات تصنيف الصور، أثبتت التقنية فعاليتها في جعل CLIP “ينسى” حوالي 40% من الفئات المستهدفة دون الحاجة للوصول إلى بنية النموذج الداخلية.


فوائد نسيان البيانات في الذكاء الاصطناعي

كفاءة الأداء

  • تبسيط النماذج لتلبية المهام المحددة يجعلها أسرع وأكثر كفاءة في استهلاك الموارد.
  • يمكن تشغيلها على أجهزة أقل تكلفة، مما يسهل اعتماد الذكاء الاصطناعي في مجالات جديدة.

تحسين الأخلاقيات والخصوصية

  • يساعد في منع إنشاء محتوى غير مرغوب فيه أو ضار.
  • يعالج القضايا الأخلاقية المتعلقة بالخصوصية، حيث تحتوي النماذج أحيانًا على بيانات حساسة أو قديمة.
  • يتماشى مع قوانين مثل “الحق في النسيان”، مما يجعل إزالة البيانات غير الضرورية ممكنة دون الحاجة إلى إعادة تدريب النماذج بالكامل.

الاستخدام في القطاعات الحساسة

في مجالات مثل الرعاية الصحية والمالية، يمكن أن تقلل هذه التقنية من مخاطر تسرب البيانات الحساسة مع تحسين الكفاءة التشغيلية.


مستقبل الذكاء الاصطناعي مع تقنية النسيان

يمثل نهج جامعة طوكيو للعلوم خطوة مهمة في جعل الذكاء الاصطناعي أكثر تكيفًا وكفاءة.

التحديات المستقبلية

رغم الفوائد، يظل هناك خطر من إساءة استخدام هذه التقنية. لكن الأبحاث تُظهر أن الباحثين يعملون بنشاط على معالجة القضايا الأخلاقية والتحديات العملية، مما يضمن تقدمًا مسؤولًا في هذا المجال المثير.

المصدر: AI News

مقالات ذات صلة

زر الذهاب إلى الأعلى