بعد فابنيك-تشيرفونينكيس
في نظرية فابنيك-تشيرفونينكيس ، يعد بُعد فابنيك-تشيرفونينكيس (VC) مقياسًا للقدرة ، التعقيد ، القوة التعبيرية ، الثراء ، أو المرونة .
لمجموعة من الوظائف التي يمكن تعلمها بواسطة خوارزمية للتصنيف الثنائي الإحصائي. يتم تعريفها على أنها أكبر مجموعة من النقاط التي يمكن لخوارزمية تحطيمها ، مما يعني أن الخوارزمية يمكنها دائمًا تعلم مصنف مثالي لأي تصنيف لنقاط البيانات المتعددة.
تم تعريف هذا البُعد في الأصل من قبل فلاديمير فابنيك وأليكسي تشيرفونينكيس.[1]
ترتبط قدرة نموذج أي تصنيف بمدى تعقيده. على سبيل المثال ، ضع في اعتبارك عتبة متعددة الحدود ذات الدرجة العالية: إذا تم تقييم كثير الحدود فوق الصفر ، يتم تصنيف هذه النقطة على أنها موجبة ، وبخلاف ذلك يتم تصنيفها على أنها سالبة. يمكن أن تكون
كثيرة الحدود ذات درجة عالية متذبذبة[2] ، لذا يمكن أن تناسب مجموعة معينة من نقاط التدريب جيدًا. لكن يمكن للمرء أن يتوقع أن المصنف سيرتكب أخطاء في أي نقاط أخرى ، لأنها شديدة التذبذب . مثل هذا كثير الحدود لديه قدرة عالية. بديل أبسط بكثير هو عتبة
دالة خطية.[3] قد لا تتناسب هذه الوظيفة مع مجموعة التدريب جيدًا ، لأنها ذات سعة منخفضة.
مراجع
عدل- ^ Natarajan, B. K. (1 Oct 1989). "On learning sets and functions". Machine Learning (بالإنجليزية). 4 (1): 67–97. DOI:10.1007/BF00114804. ISSN:1573-0565. Archived from the original on 2020-02-19.
- ^ Karpinski, Marek; Macintyre, Angus (1997). "Polynomial bounds for VC dimension of sigmoidal and general Pfaffian neural networks". Journal of Computer and System Sciences (بالإنجليزية). 54 (1). ISSN:0022-0000. Archived from the original on 2021-10-03.
- ^ www.cs.princeton.edu https://web.archive.org/web/20210507002258/https://www.cs.princeton.edu/~chazelle/book.html. مؤرشف من الأصل في 2021-05-07. اطلع عليه بتاريخ 2021-10-02.
{{استشهاد ويب}}
: الوسيط|title=
غير موجود أو فارغ (مساعدة)