Data & Computingالتعلم الآليUniversity
AQAAPOntarioNSWCBSEGCE O-LevelMoECAPS

خسارة الانتروبيا المتقاطعة الثنائية

دالة الخسارة للتصنيف.

Understand the formulaSee the free derivationOpen the full walkthrough

This public page keeps the free explanation visible and leaves premium worked solving, advanced walkthroughs, and saved study tools inside the app.

Core idea

Overview

تحدد خسارة الانتروبيا المتقاطعة الثنائية، أو خسارة السجل، الفرق بين توزيعين احتماليين: التسميات الثنائية الفعلية والاحتمالات المتوقعة. تطبق عقوبة لوغاريتمية شديدة على التنبؤات الواثقة ولكن غير الصحيحة، موجهةً خوارزميات التحسين مثل الانحدار التدرجي لتحسين دقة النموذج.

When to use: صُممت هذه الدالة خصيصًا لمهام التصنيف الثنائي حيث يكون الإخراج قيمة احتمال واحدة بين 0 و 1. وتُستخدم عادة كدالة هدف للانحدار اللوجستي والشبكات العصبية التي تستخدم دالة تفعيل سيجمويد في طبقة الإخراج.

Why it matters: بخلاف خطأ التصنيف البسيط، فإن دالة الخسارة هذه قابلة للتفاضل، وهو أمر ضروري للانتشار الخلفي في التعلم العميق. تضمن أن يتم معاقبة النموذج بشدة أكبر لكونه 'واثقًا من الخطأ' بدلاً من كونه 'غير متأكد من الخطأ'، مما يؤدي إلى تنبؤات احتمالية أكثر قوة.

Symbols

Variables

y = True Label (0/1), p = Predicted Prob, L = Loss

True Label (0/1)
Variable
Predicted Prob
Variable
Loss
Variable

Walkthrough

Derivation

اشتقاق المعلومات المتقاطعة الثنائية (خسارة اللوغاريتم)

يشتق خسارة المعلومات المتقاطعة الثنائية كاحتمالية سلبية لوغاريتمية لبيانات مُلصَّقة بشكل بارنولي مستقل.

  • الأهداف هي تصنيفات ثنائية: \{0,1\}.
  • الملاحظات مستقلة (i.i.d. لتنظيم الاحتمالية).
  • مخرجات النموذج تحقق 0 < _i < 1 (احتمالات).
1

كتابة احتمالية بارنولي:

إذا كان =1 يساهم الحد _i؛ إذا كان =0 يساهم (1-_i). الاستقلال يسمح لنا بالضرب عبر i.

2

أخذ الاحتمالية اللوغاريتمية:

يُحوِّل اللوغاريتم المنتجات إلى مجاميع ويسهِّل التحسين.

3

التحويل إلى هدف تصغير:

تصغير متوسط الاحتمالية اللوغاريتمية السالبة يعادل تعظيم الاحتمالية؛ هذا هو المعلومات المتقاطعة الثنائية.

Result

Source: Standard curriculum — Machine Learning

Visual intuition

Graph

Graph type: logarithmic

Why it behaves this way

Intuition

تخيل منظرًا طبيعيًا للعقاب منحنيًا حيث 'عمق' المنحنى يمثل الخسارة. المنظر الطبيعي مسطح (خسارة صفرية) عندما تتطابق التنبؤات تمامًا مع الملصقات الحقيقية، ولكنه ينخفض بشدة إلى وديان عميقة (خسارة عالية)

Term
قيمة الخسارة المحسوبة لتنبؤ واحد.
يشير الخسارة الأعلى إلى تباين أكبر بين الاحتمال المتوقع من النموذج والنتيجة الفعلية، مما يشير إلى حاجة النموذج لضبط معلماته.
Term
الملصق الثنائي الحقيقي للحالة (0 للفئة السلبية، 1 للفئة الإيجابية).
يمثل الحقيقة الأساسية التي يهدف النموذج إلى توقعها بشكل صحيح.
Term
الاحتمالية المتوقعة للنموذج بأن الملصق الحقيقي هو 1 (الفئة الإيجابية).
يوضح هذا الحد (p) دوره داخل المعادلة، ويربط التعريف الرياضي بالتفسير العملي للنتيجة في هذا الموضع 80.

Signs and relationships

  • -: اللوغاريتم الطبيعي لاحتمال (قيمة بين 0 و 1) يكون دائمًا سالبًا أو صفرًا. الإشارة السالبة السابقة تعكس هذه القيمة، مما يضمن أن دالة الخسارة غير سالبة ويمكن تصغيرها أثناء
  • ln(): تفرض الدالة اللوغاريتمية عقوبة شديدة عندما يقوم النموذج بتوقع واثق لكنه غير صحيح. على سبيل المثال، إذا كانت التسمية الحقيقية 'y' هي 1 ولكن 'p' قريبة جدًا من 0، يصبح 'ln(p)' عددًا سالبًا كبيرًا

Free study cues

Insight

Canonical usage

خسارة الإنتروبيا التقاطعية الثنائية هي كمية بلا أبعاد تحدد الخطأ بين الاحتمالات المتوقعة والعلامات الثنائية الحقيقية في مهام التصنيف.

Dimension note

خسارة الإنتروبيا التقاطعية الثنائية بلا أبعاد بطبيعتها لأنها تعمل على الاحتمالات والعلامات الثنائية، وهي كميات بلا أبعاد.

Ballpark figures

  • Quantity:

One free problem

Practice Problem

يتنبأ نموذج تشخيص طبي باحتمالية 0.85 أن المريض مصاب بحالة معينة. إذا كان المريض مصابًا بالحالة بالفعل (y=1)، فاحسب خسارة الانتروبيا المتقاطعة الثنائية.

Hint: بما أن y=1، تبسط الصيغة إلى L = -ln(p).

The full worked solution stays in the interactive walkthrough.

Where it shows up

Real-World Context

في سياق تدريب مصنف القط/الكلب، تُستخدم معادلة خسارة الانتروبيا المتقاطعة الثنائية لتحويل القياسات إلى قيمة يمكن تفسيرها. وتكمن أهمية الناتج في أنه يساعد على تقييم سلوك النموذج أو تكلفة الخوارزمية أو جودة التنبؤ قبل استخدام الناتج.

Study smarter

Tips

  • تجنب احتمالات الإدخال التي تساوي 0 أو 1 بالضبط لمنع عدم الاستقرار العددي أو السجلات الطبيعية غير المعرفة.
  • ستكون قيمة الخسارة 0 فقط إذا تطابق الاحتمال المتوقع تمامًا مع التسمية المستهدفة.
  • في سيناريوهات الفئات المتعددة، استخدم الانتروبيا المتقاطعة الفئوية بدلاً من هذا الاختلاف الثنائي.

Avoid these traps

Common Mistakes

  • استخدام اللوغاريتم الأساس 10 (استخدم اللوغاريتم الطبيعي).
  • p=0 أو p=1 بالضبط (يسبب اللانهاية).

Common questions

Frequently Asked Questions

يشتق خسارة المعلومات المتقاطعة الثنائية كاحتمالية سلبية لوغاريتمية لبيانات مُلصَّقة بشكل بارنولي مستقل.

صُممت هذه الدالة خصيصًا لمهام التصنيف الثنائي حيث يكون الإخراج قيمة احتمال واحدة بين 0 و 1. وتُستخدم عادة كدالة هدف للانحدار اللوجستي والشبكات العصبية التي تستخدم دالة تفعيل سيجمويد في طبقة الإخراج.

بخلاف خطأ التصنيف البسيط، فإن دالة الخسارة هذه قابلة للتفاضل، وهو أمر ضروري للانتشار الخلفي في التعلم العميق. تضمن أن يتم معاقبة النموذج بشدة أكبر لكونه 'واثقًا من الخطأ' بدلاً من كونه 'غير متأكد من الخطأ'، مما يؤدي إلى تنبؤات احتمالية أكثر قوة.

استخدام اللوغاريتم الأساس 10 (استخدم اللوغاريتم الطبيعي). p=0 أو p=1 بالضبط (يسبب اللانهاية).

في سياق تدريب مصنف القط/الكلب، تُستخدم معادلة خسارة الانتروبيا المتقاطعة الثنائية لتحويل القياسات إلى قيمة يمكن تفسيرها. وتكمن أهمية الناتج في أنه يساعد على تقييم سلوك النموذج أو تكلفة الخوارزمية أو جودة التنبؤ قبل استخدام الناتج.

تجنب احتمالات الإدخال التي تساوي 0 أو 1 بالضبط لمنع عدم الاستقرار العددي أو السجلات الطبيعية غير المعرفة. ستكون قيمة الخسارة 0 فقط إذا تطابق الاحتمال المتوقع تمامًا مع التسمية المستهدفة. في سيناريوهات الفئات المتعددة، استخدم الانتروبيا المتقاطعة الفئوية بدلاً من هذا الاختلاف الثنائي.

References

Sources

  1. Wikipedia: Cross-entropy
  2. Deep Learning by Ian Goodfellow, Yoshua Bengio, and Aaron Courville
  3. Deep Learning (Goodfellow, Bengio, Courville)
  4. Pattern Recognition and Machine Learning (Bishop)
  5. Goodfellow, Bengio, and Courville Deep Learning
  6. Bishop Pattern Recognition and Machine Learning
  7. Standard curriculum — Machine Learning