خسارة الانتروبيا المتقاطعة الثنائية
دالة الخسارة للتصنيف.
This public page keeps the free explanation visible and leaves premium worked solving, advanced walkthroughs, and saved study tools inside the app.
Core idea
Overview
تحدد خسارة الانتروبيا المتقاطعة الثنائية، أو خسارة السجل، الفرق بين توزيعين احتماليين: التسميات الثنائية الفعلية والاحتمالات المتوقعة. تطبق عقوبة لوغاريتمية شديدة على التنبؤات الواثقة ولكن غير الصحيحة، موجهةً خوارزميات التحسين مثل الانحدار التدرجي لتحسين دقة النموذج.
When to use: صُممت هذه الدالة خصيصًا لمهام التصنيف الثنائي حيث يكون الإخراج قيمة احتمال واحدة بين 0 و 1. وتُستخدم عادة كدالة هدف للانحدار اللوجستي والشبكات العصبية التي تستخدم دالة تفعيل سيجمويد في طبقة الإخراج.
Why it matters: بخلاف خطأ التصنيف البسيط، فإن دالة الخسارة هذه قابلة للتفاضل، وهو أمر ضروري للانتشار الخلفي في التعلم العميق. تضمن أن يتم معاقبة النموذج بشدة أكبر لكونه 'واثقًا من الخطأ' بدلاً من كونه 'غير متأكد من الخطأ'، مما يؤدي إلى تنبؤات احتمالية أكثر قوة.
Symbols
Variables
y = True Label (0/1), p = Predicted Prob, L = Loss
Walkthrough
Derivation
اشتقاق المعلومات المتقاطعة الثنائية (خسارة اللوغاريتم)
يشتق خسارة المعلومات المتقاطعة الثنائية كاحتمالية سلبية لوغاريتمية لبيانات مُلصَّقة بشكل بارنولي مستقل.
- الأهداف هي تصنيفات ثنائية: \{0,1\}.
- الملاحظات مستقلة (i.i.d. لتنظيم الاحتمالية).
- مخرجات النموذج تحقق 0 < _i < 1 (احتمالات).
كتابة احتمالية بارنولي:
إذا كان =1 يساهم الحد _i؛ إذا كان =0 يساهم (1-_i). الاستقلال يسمح لنا بالضرب عبر i.
أخذ الاحتمالية اللوغاريتمية:
يُحوِّل اللوغاريتم المنتجات إلى مجاميع ويسهِّل التحسين.
التحويل إلى هدف تصغير:
تصغير متوسط الاحتمالية اللوغاريتمية السالبة يعادل تعظيم الاحتمالية؛ هذا هو المعلومات المتقاطعة الثنائية.
Result
Source: Standard curriculum — Machine Learning
Visual intuition
Graph
Graph type: logarithmic
Why it behaves this way
Intuition
تخيل منظرًا طبيعيًا للعقاب منحنيًا حيث 'عمق' المنحنى يمثل الخسارة. المنظر الطبيعي مسطح (خسارة صفرية) عندما تتطابق التنبؤات تمامًا مع الملصقات الحقيقية، ولكنه ينخفض بشدة إلى وديان عميقة (خسارة عالية)
Signs and relationships
- -: اللوغاريتم الطبيعي لاحتمال (قيمة بين 0 و 1) يكون دائمًا سالبًا أو صفرًا. الإشارة السالبة السابقة تعكس هذه القيمة، مما يضمن أن دالة الخسارة غير سالبة ويمكن تصغيرها أثناء
- ln(): تفرض الدالة اللوغاريتمية عقوبة شديدة عندما يقوم النموذج بتوقع واثق لكنه غير صحيح. على سبيل المثال، إذا كانت التسمية الحقيقية 'y' هي 1 ولكن 'p' قريبة جدًا من 0، يصبح 'ln(p)' عددًا سالبًا كبيرًا
Free study cues
Insight
Canonical usage
خسارة الإنتروبيا التقاطعية الثنائية هي كمية بلا أبعاد تحدد الخطأ بين الاحتمالات المتوقعة والعلامات الثنائية الحقيقية في مهام التصنيف.
Dimension note
خسارة الإنتروبيا التقاطعية الثنائية بلا أبعاد بطبيعتها لأنها تعمل على الاحتمالات والعلامات الثنائية، وهي كميات بلا أبعاد.
Ballpark figures
- Quantity:
One free problem
Practice Problem
يتنبأ نموذج تشخيص طبي باحتمالية 0.85 أن المريض مصاب بحالة معينة. إذا كان المريض مصابًا بالحالة بالفعل (y=1)، فاحسب خسارة الانتروبيا المتقاطعة الثنائية.
Hint: بما أن y=1، تبسط الصيغة إلى L = -ln(p).
The full worked solution stays in the interactive walkthrough.
Where it shows up
Real-World Context
في سياق تدريب مصنف القط/الكلب، تُستخدم معادلة خسارة الانتروبيا المتقاطعة الثنائية لتحويل القياسات إلى قيمة يمكن تفسيرها. وتكمن أهمية الناتج في أنه يساعد على تقييم سلوك النموذج أو تكلفة الخوارزمية أو جودة التنبؤ قبل استخدام الناتج.
Study smarter
Tips
- تجنب احتمالات الإدخال التي تساوي 0 أو 1 بالضبط لمنع عدم الاستقرار العددي أو السجلات الطبيعية غير المعرفة.
- ستكون قيمة الخسارة 0 فقط إذا تطابق الاحتمال المتوقع تمامًا مع التسمية المستهدفة.
- في سيناريوهات الفئات المتعددة، استخدم الانتروبيا المتقاطعة الفئوية بدلاً من هذا الاختلاف الثنائي.
Avoid these traps
Common Mistakes
- استخدام اللوغاريتم الأساس 10 (استخدم اللوغاريتم الطبيعي).
- p=0 أو p=1 بالضبط (يسبب اللانهاية).
Common questions
Frequently Asked Questions
يشتق خسارة المعلومات المتقاطعة الثنائية كاحتمالية سلبية لوغاريتمية لبيانات مُلصَّقة بشكل بارنولي مستقل.
صُممت هذه الدالة خصيصًا لمهام التصنيف الثنائي حيث يكون الإخراج قيمة احتمال واحدة بين 0 و 1. وتُستخدم عادة كدالة هدف للانحدار اللوجستي والشبكات العصبية التي تستخدم دالة تفعيل سيجمويد في طبقة الإخراج.
بخلاف خطأ التصنيف البسيط، فإن دالة الخسارة هذه قابلة للتفاضل، وهو أمر ضروري للانتشار الخلفي في التعلم العميق. تضمن أن يتم معاقبة النموذج بشدة أكبر لكونه 'واثقًا من الخطأ' بدلاً من كونه 'غير متأكد من الخطأ'، مما يؤدي إلى تنبؤات احتمالية أكثر قوة.
استخدام اللوغاريتم الأساس 10 (استخدم اللوغاريتم الطبيعي). p=0 أو p=1 بالضبط (يسبب اللانهاية).
في سياق تدريب مصنف القط/الكلب، تُستخدم معادلة خسارة الانتروبيا المتقاطعة الثنائية لتحويل القياسات إلى قيمة يمكن تفسيرها. وتكمن أهمية الناتج في أنه يساعد على تقييم سلوك النموذج أو تكلفة الخوارزمية أو جودة التنبؤ قبل استخدام الناتج.
تجنب احتمالات الإدخال التي تساوي 0 أو 1 بالضبط لمنع عدم الاستقرار العددي أو السجلات الطبيعية غير المعرفة. ستكون قيمة الخسارة 0 فقط إذا تطابق الاحتمال المتوقع تمامًا مع التسمية المستهدفة. في سيناريوهات الفئات المتعددة، استخدم الانتروبيا المتقاطعة الفئوية بدلاً من هذا الاختلاف الثنائي.
References
Sources
- Wikipedia: Cross-entropy
- Deep Learning by Ian Goodfellow, Yoshua Bengio, and Aaron Courville
- Deep Learning (Goodfellow, Bengio, Courville)
- Pattern Recognition and Machine Learning (Bishop)
- Goodfellow, Bengio, and Courville Deep Learning
- Bishop Pattern Recognition and Machine Learning
- Standard curriculum — Machine Learning