الاعتلاج المتقاطع الثنائي
دالة خسارة للتصنيف الثنائي.
This public page keeps the free explanation visible and leaves premium worked solving, advanced walkthroughs, and saved study tools inside the app.
Core idea
Overview
يقيس الاعتلاج المتقاطع الثنائي التباعد بين توزيعين احتماليين، وعادة ما تكون التسميات الحقيقية والاحتمالات المتوقعة في مهمة التصنيف الثنائي. يحسب قيمة خسارة تعاقب التنبؤات بشكل أسي كلما انحرفت عن قيمة الفئة الفعلية.
When to use: هذه المعادلة هي دالة الخسارة القياسية لمشاكل التصنيف الثنائي حيث يكون الإخراج احتمالًا واحدًا بين 0 و 1. وهي الأكثر فعالية عند اقترانها بدالة تفعيل سيجمويد في الطبقة الأخيرة من الشبكة العصبية.
Why it matters: توفر سطحًا أملسًا ومحدبًا للتحسين، مما يسمح للانحدار التدريجي بتحديث أوزان النموذج بكفاءة. من خلال معاقبة التنبؤات الواثقة ولكن غير الصحيحة بشدة، تجبر النموذج على تعلم حدود أكثر تميزًا بين الفئات.
Symbols
Variables
L = Loss, y = Actual Label (0/1), p = Predicted Prob
Walkthrough
Derivation
الصيغة: الإنتروبيا المتقاطعة الثنائية (خسارة السجل)
تقيس الإنتروبيا المتقاطعة الثنائية مدى تطابق الاحتمالات المتوقعة مع التصنيفات الثنائية الحقيقية y، مع معاقبة شديدة للتنبؤات الخاطئة الواثقة.
- التنبؤات هي احتمالات في (0,1)، وتأتي عادةً من دالة السيجمويد.
- اللوغاريتمات هي لوغاريتمات طبيعية ما لم يُذكر خلاف ذلك (الاختيار يغير المقياس فقط).
اكتب الخسارة لمثال واحد:
إذا كان y=1، فإن -() هو المهم فقط؛ إذا كان y=0، فإن -(1-) هو المهم فقط.
المتوسط عبر N من الأمثلة:
خسارة مجموعة البيانات هي متوسط الخسائر الفردية، مما يعطي رقمًا واحدًا لتقليله أثناء التدريب.
Note: عمليًا، يتم قص الاحتمالات بعيدًا عن 0 و1 لتجنب (0).
Result
Source: Standard curriculum — Machine Learning (Classification Losses)
Visual intuition
Graph
Graph type: logarithmic
Why it behaves this way
Intuition
منظر طبيعي حيث يهدف النموذج إلى إيجاد أدنى نقطة، مما يمثل الحد الأدنى من التباين بين احتمالاته المتوقعة وتسميات الفئة الحقيقية، مع منحدرات شديدة تعاقب بشدة الأخطاء الواثقة.
Signs and relationships
- -: اللوغاريتم الطبيعي للاحتمال (قيمة بين 0 و 1) سالب دائمًا أو صفر. لضمان أن دالة الخسارة 'L' قيمة غير سالبة يمكن تقليلها إلى الصفر، يتم ضرب التعبير بأكمله
Free study cues
Insight
Canonical usage
تحسب هذه المعادلة قيمة خسارة بلا أبعاد، تمثل التباعد بين تسمية ثنائية حقيقية واحتمال متوقع.
Dimension note
جميع المتغيرات في صيغة الانتروبيا المتقاطعة الثنائية (التسمية الحقيقية 'y'، الاحتمال المتوقع 'p'، والخسارة الناتجة 'L') هي كميات بلا أبعاد.
One free problem
Practice Problem
يحدد نموذج التعلم الآلي معاملة على أنها احتيالية (y = 1). الاحتمال المتوقع للاحتيال من النموذج هو 0.85. احسب خسارة الاعتلاج المتقاطع الثنائي لهذا التنبؤ المحدد.
Hint: عندما يكون y = 1، تبسط الصيغة إلى L = -ln(p).
The full worked solution stays in the interactive walkthrough.
Where it shows up
Real-World Context
في سياق تدريب مصنف البريد العشوائي مع إخراج احتمالي، تُستخدم معادلة الاعتلاج المتقاطع الثنائي لتحويل القياسات إلى قيمة يمكن تفسيرها. وتكمن أهمية الناتج في أنه يساعد على تقييم سلوك النموذج أو تكلفة الخوارزمية أو جودة التنبؤ قبل استخدام الناتج.
Study smarter
Tips
- تأكد من بقاء القيم المتوقعة p ضمن (0, 1) لتجنب اللوغاريتمات الطبيعية غير المعرفة عند 0 أو 1.
- الخسارة تساوي 0 فقط إذا كان التنبؤ يطابق التسمية تمامًا.
- بالنسبة للأهداف متعددة الفئات، استخدم المتغير الكاتيكوري للاعتلاج المتقاطع بدلاً من ذلك.
Avoid these traps
Common Mistakes
- استخدام p=0 أو p=1 مباشرة.
- نسيان المصطلح (1-y).
Common questions
Frequently Asked Questions
تقيس الإنتروبيا المتقاطعة الثنائية مدى تطابق الاحتمالات المتوقعة \hat{y} مع التصنيفات الثنائية الحقيقية y، مع معاقبة شديدة للتنبؤات الخاطئة الواثقة.
هذه المعادلة هي دالة الخسارة القياسية لمشاكل التصنيف الثنائي حيث يكون الإخراج احتمالًا واحدًا بين 0 و 1. وهي الأكثر فعالية عند اقترانها بدالة تفعيل سيجمويد في الطبقة الأخيرة من الشبكة العصبية.
توفر سطحًا أملسًا ومحدبًا للتحسين، مما يسمح للانحدار التدريجي بتحديث أوزان النموذج بكفاءة. من خلال معاقبة التنبؤات الواثقة ولكن غير الصحيحة بشدة، تجبر النموذج على تعلم حدود أكثر تميزًا بين الفئات.
استخدام p=0 أو p=1 مباشرة. نسيان المصطلح (1-y).
في سياق تدريب مصنف البريد العشوائي مع إخراج احتمالي، تُستخدم معادلة الاعتلاج المتقاطع الثنائي لتحويل القياسات إلى قيمة يمكن تفسيرها. وتكمن أهمية الناتج في أنه يساعد على تقييم سلوك النموذج أو تكلفة الخوارزمية أو جودة التنبؤ قبل استخدام الناتج.
تأكد من بقاء القيم المتوقعة p ضمن (0, 1) لتجنب اللوغاريتمات الطبيعية غير المعرفة عند 0 أو 1. الخسارة تساوي 0 فقط إذا كان التنبؤ يطابق التسمية تمامًا. بالنسبة للأهداف متعددة الفئات، استخدم المتغير الكاتيكوري للاعتلاج المتقاطع بدلاً من ذلك.
References
Sources
- Wikipedia: Cross-entropy
- Goodfellow, I., Bengio, Y., Courville, A. (2016). Deep Learning. MIT Press.
- Deep Learning (Ian Goodfellow, Yoshua Bengio, and Aaron Courville)
- Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press. (Chapter 6, Section 6.2.2.2)
- Bishop, C. M. (2006). Pattern Recognition and Machine Learning. Springer. (Chapter 4, Section 4.3.4)
- Standard curriculum — Machine Learning (Classification Losses)