مستخدم:Ghadeerghazimig/ملعب
في التعلّم الآلي ،المعلمة المفرطه هي معلمة يتم تحديد قيمتها قبل بدء عملية التعلم. على النقيض من ذلك ، يتم اشتقاق قيم المعلمات الأخرى عن طريق التدريب.
يمكن تصنيف المعلمات المفرطة على أنها نماذج المعلمات المفرطة ، والتي لا يمكن استنتاجها أثناء تركيب الآلة في مجموعة التدريب لأنها تشير إلى مهمة اختيار النموذج ، أو خوارزمية المعلمات المفرطة ، التي من حيث المبدأ لا تؤثر على أداء النموذج ولكنها تؤثر على السرعة و جودة عملية التعلم. مثال على النوع الأول هو بنية وحجم الشبكة العصبية. مثال على النوع الثاني هو معدل التعلم أو حجم الدُفعات الصغيرة.
تتطلب خوارزميات التدريب النموذجية المختلفة معلمات مفرطة مختلفة ، وبعض الخوارزميات البسيطة (مثل المربعات الصغرى العادية) لا تتطلب شيئًا. بالنظر إلى هذه المعلمات المفرطة ، تتعلم خوارزمية التدريب المعلمات من البيانات. على سبيل المثال ، LASSO عبارة عن خوارزمية تضيف معلمة تنظيمية إلى انحدار المربعات الصغرى العادية ، والتي يجب تعيينها قبل تقدير المعلمات من خلال خوارزمية التدريب.
يمكن أن يعتمد الوقت اللازم لتدريب واختبار نموذج ما على اختيار المعلمات المفرطة الخاصة به. عادة ما تكون المعلمات المفرطة من النوع المتواصل أو الصحيح ، مما يؤدي إلى مشاكل في تحسين النوع المختلط. إن وجود بعض المعلمات المفرطة مشروط بقيمة الآخرين ، على سبيل المثال يمكن أن يكون حجم كل طبقة مخفية في الشبكة العصبية مشروطًا بعدد الطبقات.
عادة ، ولكن ليس دائمًا ، لا يمكن تعلُّم المعلمات المفرطة باستخدام طرق تدرج معروفة جيدًا (مثل تدرج النسب ، LBFGS) - والتي تستخدم عادة لتعلم المعلمات. هذه المعلمات الفائقة هي تلك المعلمات التي تصف تمثيل نموذج لا يمكن تعلمه من خلال طرق التحسين الشائعة ولكنها مع ذلك تؤثر على وظيفة الفقد. مثال على ذلك هو تفاوت المعالم المفرطة للأخطاء في أجهزة ناقل الدعم.
في بعض الأحيان ، لا يمكن تعلُّم المعلمات الفائقة من بيانات التدريب لأنها تزيد بقوة من قدرة النموذج ويمكن أن تدفع وظيفة الفقد إلى أدنى حد سيئ - التجهيز الزائد والتقاط الضوضاء في البيانات - بدلاً من تعيين ثراء الهيكل في البيانات. على سبيل المثال - إذا تعاملنا معادلة المعادلة متعددة الحدود التي تلائم نموذج الانحدار كمعلمة قابلة للتدريب - فإن هذا من شأنه أن يرفع الدرجة إلى أن يتلاءم النموذج تمامًا مع البيانات ، مع إعطاء خطأ تدريبي صغير - ولكن أداء تعميم سيء.
يمكن أن يعزى معظم تباين الأداء إلى عدد قليل فقط من المعلمات المفرطة. تعد توليف الخوارزمية ، أو المعلمة المفرطة ، أو المتغيرات التفاعلية مقياسًا لقياس مقدار الأداء الذي يمكن اكتسابه عن طريق ضبطه. بالنسبة لـ LSTM ، في حين أن معدل التعلم متبوعًا بحجم الشبكة هو أكثر المعالم المفرطة أهميه ، لا يكون للتأثير والزخم تأثير كبير على أدائه.
على الرغم من أن بعض الأبحاث دعت إلى استخدام أحجام الدُفعات الصغيرة بالآلاف ، إلا أن العمل الآخر وجد أفضل أداء بأحجام الدُفعات الصغيرة بين 2 و 32.
يشير الاستنباط المتأصل في التعلم بشكل مباشر إلى أن أداء المعلمة المفرطة التجريبية ليس بالضرورة هو أدائها الحقيقي. لا يمكن دمج الطرق التي ليست قوية لتغييرات بسيطة في المعالم الفائقة ، أو البذور العشوائية ، أو حتى التطبيقات المختلفة لنفس الخوارزمية في أنظمة التحكم المهمة للبعثة دون تبسيطها وتثبيتها بشكل كبير.
تتطلب خوارزميات التعلم المعززة ، على وجه الخصوص ، قياس أدائها على عدد كبير من البذور العشوائية ، وكذلك قياس حساسيتها لاختيارات المقاييس الفائقة. تقييمهم مع عدد صغير من البذور العشوائية لا يلتقط الأداء بشكل كاف بسبب التباين العالي. بعض أساليب التعلم المعزز ، على سبيل المثال تعتبر DDPG (تدرج السياسة الحتمية العميقة) ، أكثر حساسية لاختيارات المعلمات الفائقة من غيرها.
المقال الرئيسي: تحسين المعلمات المفرطة
يجد تحسين المعلمات المفرطة مجموعة من المعلمات المفرطة التي تعطي نموذجًا مثاليًا يقلل وظيفة الخسارة المحددة مسبقًا في بيانات الاختبار المحددة. تأخذ الوظيفة الهدف مجموعة من المعلمات المفرطة وتعيد الخسارة المرتبطة بها.
بصرف النظر عن ضبط المعلمات المفرطة ، يتضمن التعلم الآلي تخزين وتنظيم المعلمات والنتائج ، والتأكد من أنها قابلة للتكرار. في حالة عدم وجود بنية تحتية قوية لهذا الغرض ، غالبًا ما يتطور كود البحث بسرعة ويضعف الجوانب الأساسية مثل مسك الدفاتر والتكرار. تذهب منصات التعاون عبر الإنترنت للتعلم الآلي إلى أبعد من ذلك عن طريق السماح للعلماء تلقائيًا بمشاركة التجارب والبيانات والخوارزميات وتنظيمها ومناقشتها.
يوجد عدد من الخدمات ذات الصلة والبرامج مفتوحة المصدر: