التعلم الآلي: لماذا يجب على الذكاء الاصطناعي أن يتعلم النسيان

 مع ظهور التعلم العميق، تعلمت الآلات كيفية التعلم؛  والآن علينا أن نجد طريقة لإجبارهم على النسيان.

الذكاء الاصطناعي عليه ان يتعلم النسيان

منذ أن أصبحت الأدوات المعتمدة على التعلم الآلي متاحة على نطاق أوسع، استفاد العديد من الباحثين والمهنيين ومستخدمي الإنترنت العاديين من الوصول غير المسبوق إلى مجموعة جديدة من التقنيات. وهي تعتمد عادةً على شبكات عصبية اصطناعية تحاول تقليد الطريقة التي يفسر بها الدماغ البشري المعلومات لتنفيذ مهام مختلفة، مثل رؤية الكمبيوتر أو إنشاء محتوى الوسائط المتعددة.

لكن البشر سرعان ما أدركوا أن هذه الأدوات غالبًا ما تكون رائعة بقدر ما هي مخيفة.  هذه العلاقة الغريبة بما يسمى عادة "الذكاء الاصطناعي" تنتج جزئيا عن الطريقة التي تعمل بها هذه الأنظمة.

 يعرف المؤلف عدد العقد (“الخلايا العصبية”) الموجودة في نظامه، ويمكنه اللعب على أهمية الروابط التي تربطها (الأوزان)، أو إدخال عدد معين من التحيزات للتأثير على النتيجة النهائية التي يتم إنتاجها من إدخال محدد.  ومن ناحية أخرى، فإن كل ما يحدث بينهما غالبًا ما يكون مجردًا للغاية بحيث لا يمكن فهمه.

نماذج الذكاء الاصطناعي، متاهات مفاهيمية

 بمعنى آخر، نحن نعرف ما نغذيه للخوارزمية ويمكننا ملاحظة ما تتعلمه؛  ولكن عندما يتعلق الأمر بمعرفة كيفية تحقيق هذه النتائج بالضبط، فإن البشر عادة ما يكونون في حيرة من أمرهم.  يوضح بيتر تريانتافيلو، الباحث في جامعة وارويك: "الشبكات العصبية هي هياكل معقدة للغاية ويمكن أن تشمل مليارات ومليارات من المعلمات".  "في كثير من الأحيان ليس لدينا فهم واضح لكيفية تحقيق أهدافهم.  »

هذه مشكلة لعدة أسباب، ولكن هناك سببًا على وجه الخصوص يصبح أكثر أهمية مع مرور كل يوم: نظرًا لأننا غير قادرين على التنقل في هذه المتاهة الخوارزمية عن طريق البصر، فمن الصعب للغاية تصحيح الموقف بمجرد استخدام نموذج الذكاء الاصطناعي. وقد تم تدريبه لجعله ينسى العناصر غير المرغوب فيها.  لقد أصبح هذا الموضوع، الذي يسمى "محو تعلم الآلة"، مجالاً بحثيًا ضخمًا، لأن المخاطر كبيرة.

بالنسبة للمنتجات التجارية الموزعة على نطاق واسع، مثل الطيار الآلي لشركة Tesla أو ChatGPT، فهذه مشكلة كبيرة.  يتطلب تدريب هذه النماذج قدرًا هائلاً من الحوسبة، وبالتالي الكثير من الوقت والطاقة والمال.  ولذلك، لا يمكنهم البدء من الصفر في كل مرة تنشأ فيها مشكلة.

ظهور التعلم الآلي

 بالنسبة للمطورين، سيكون الحل المثالي هو حذف البيانات المسببة لهذه المشكلات بشكل انتقائي، لأسباب أخلاقية وتجارية.  على سبيل المثال، شهدنا في السنوات الأخيرة ظهور الكثير من الأمثلة التي توضح أن النماذج اللغوية (LLM) مثل ChatGPT يمكن أن تعاني من تحيزات منطقية كبيرة يصعب على OpenAI التخلص منها.  وفي الوقت الحاضر، من الصعب للغاية استهداف هذه العناصر على وجه التحديد.

 لكن هذا في النهاية مثال سطحي إلى حد ما؛ لان المشكلة الحقيقية تكمن أعمق من ذلك بكثير.  لتوضيح ذلك، يمكننا أن نستشهد بمثال حقوق الطبع والنشر في سياق الذكاء الاصطناعي التوليدي.  يوجد اليوم العديد من الأنظمة القادرة على إنشاء صور متقنة أو كتل نصية كاملة من خلال استعلام نصي بسيط.
 كل هذه الأنظمة تم تدريبها بالضرورة من إنتاج نصوص كاملة مثل البشر .  إذا أراد فنان أو مؤلف منع الخوارزمية من استلهام أعماله، فغالبًا ما يجد نفسه عاجزًا.  بمجرد استيعاب النموذج، يكون من الصعب استخراجه دون إعادة تدريب النموذج بالكامل.  ومع ذلك، من المؤكد أن الشركات لن تتحمل عناء القيام بذلك لإرضاء مستخدم معزول، للأسباب المذكورة أعلاه.

مثال جيد آخر هو بيانات المستخدم الشخصية.  لقد بدأنا نرى ظهور المزيد والمزيد من أنظمة الذكاء الاصطناعي التي تعالج هذا النوع من المعلومات.  وحتى لو افترضنا أن الأخير قد أعطى موافقة مستنيرة، فإن اللائحة العامة لحماية البيانات في أوروبا تفرض ما يسمى بالحق في النسيان.  عندما يؤكد مستخدم الإنترنت هذا الحق، فمن المفترض أن تقوم الشركة بحذف جميع البيانات المرتبطة به بدقة.  ولكن من الصعب جدًا تحقيق ذلك باستخدام نموذج ذكاء اصطناعي كبير، حيث غالبًا ما تكون هذه البيانات عالقة في كيس ضخم من العقد الخوارزمية التي نواجه صعوبة كبيرة في العالم في حلها.

 وما زالت الحلول محدودة

 لا بد أنك قد فهمت: لقد أصبح من الملح إيجاد استراتيجيات تسمح لنموذج الذكاء الاصطناعي بالتخلص من بيانات معينة، دون الحاجة إلى إعادة تدريبه من الصفر.  وفي الوقت الراهن، لا يوجد حل عالمي لهذه المشكلة المتزايدة الخطورة.  لكننا ما زلنا نبدأ في رؤية ظهور بعض المبادرات المثيرة للاهتمام.


على سبيل المثال، نشر فريق بيتر تريانتافيلو مؤخرًا ورقة بحثية واعدة في هذا السياق.  أنشأ المؤلفون خوارزمية جديدة تسمى SCRUB والتي أظهرت قدرتها على جعل نموذج الذكاء الاصطناعي ينسى بعض البيانات المحددة للغاية.

 وفقًا لتقييمات الباحثين، يمثل هذا SCRUB تقدمًا كبيرًا في مجال "تعلم الآلة".  ونجح في نسيان بيانات محددة بكفاءة أكبر بكثير من جميع الأنظمة المماثلة الأخرى، دون التأثير على أداء النماذج المستهدفة.

لكن الباحثين خلصوا إلى أنها لا تزال بعيدة عن الكمال.  القيد الرئيسي هو أنه ليس من السهل اقتراح تعريف رسمي لهذا "التجاهل".  وهذا يعني أنه من الصعب تحديد معايير دقيقة تجعل من الممكن اختبار مدى نجاح هذه العمليات.

 ولذلك اختبر المؤلفون خوارزميتهم بشكل تجريبي، وبالتالي فقد تمكنوا من تفويت بعض العناصر المهمة.  لذلك يجب علينا أن نأمل أن يستمر هذا المجال من البحث في التقدم، وأن هذه الابتكارات سوف تجعل من الممكن قريبا حل هذه المشكلة الأساسية للنظام البيئي الحالي للذكاء الاصطناعي.

 "مع نضوج مبدأ محو التعلم الآلي، نأمل أن يتم إضفاء الطابع الرسمي على هذه المعايير وتوحيدها قريبًا.  ونأمل أيضًا أن يستمر العمل المستقبلي في توسيع حدود هذه الطريقة لنسيان البيانات من نماذج أكبر وأكبر، ذات بنيات وأهداف مختلفة.
____
المصدر : journaldugeek.com