אנטרופיה דיפרנציאלית
אנטרופיה דיפרנציאלית (המכונה גם אנטרופיה רציפה) היא מושג בתורת האינפורמציה שהגה קלוד שאנון בניסיון להרחיב את מושג האנטרופיה של משתנה מקרי בדיד להתפלגויות הסתברות רציפות. שאנון הניח, בטעות, כי האנטרופיה הדיפרנציאלית כפי שהגדיר אותה מהווה הרחבה טבעית רציפה של אנטרופיה בדידה להתפלגויות רציפות.[1] האנטרופיה הדיפרנציאלית מופיעה לעיתים קרובות בספרות, למרות שהיא אינה מקיימת חלק מהתכונות של האנטרופיה המקורית של שאנון.[1]
הגדרה
עריכהיהי משתנה מקרי עם פונקציית צפיפות הסתברות שהתומך שלה היא קבוצה . האנטרופיה הדיפרנציאלית אוֹ מוגדרת כ:[2]
עבור התפלגויות הסתברות שלא ניתן לבטא באופן מפורש את פונקציית הצפיפות שלהן, אך ניתן לבטאן באמצעות פונקציית שברונים, , ניתן להגדיר את במונחים של הנגזרת של , כלומר , על ידי[3]
- .
כמו במקרה הבדיד, היחידות של האנטרופיה הדיפרנציאלית תלויות בבסיס הלוגריתם, שהוא בדרך כלל 2 (כלומר, היחידה היא ביט). מושגים כגון אנטרופיה משותפת, אנטרופיה מותנית ואנטרופיה יחסית מוגדרים למשתנים מקרי רציף בדומה להגדרתם למשתנה מקרי בדיד.
שלא כמו במקרה הבדיד, לאנטרופיה הדיפרנציאלית יש היסט, שתלוי ביחידה המשמשת למדידת המשתנה המקרי .[4] לדוגמה, האנטרופיה הדיפרנציאלית של משתנה מקרי שנמדדת במילימטרים תהיה גדולה פי log(1000) מאשר אם ערך המשתנה נמדד במטרים.
יש להיזהר בניסיון ליישם תכונות של אנטרופיה בדידה לאנטרופיה דיפרנציאלית, שכן פונקציות צפיפות הסתברות יכולות להיות גדולות מ-1. למשל, להתפלגות האחידה הרציפה יש אנטרופיה דיפרנציאלית שלילית:
כלומר, פחות מהאנטרופיה הדיפרנציאלית של שהיא אפס.
קיימים ניסוחים אחרים של האנטרופיה למשתנים רציפים שמקיימים את התכונות הבסיסיות של האנטרופיה של שאנון.[1]
תכונות של אנטרופיה דיפרנציאלית
עריכה- לצפיפות הסתברות ו , דיברגנץ קולבק-לייבלר גדול או שווה ל-0 עם שוויון רק אם כמעט בכל מקום. באותו אופן, עבור שני משתנים אקראיים ו , עם שוויון אם ורק אם ו הם בלתי תלויים.
- כלל השרשרת לאנטרופיה דיפרנציאלית מתקיים כמו במקרה הבדיד[2]
- .
- אנטרופיה דיפרנציאלית אינווריאנטית להוספה של ערך קבוע למשתנה המקרי, כלומר לכל קבוע ממשי :[2]
- אנטרופיה דיפרנציאלית אינה אינווריאנטית לכפל של המשתנה המקרי בקבוע. בפרט, עבור קבוע ממשי
- באופן כללי, עבור טרנספורמציה מווקטור מקרי לווקטור מקרי אחר בעלי אותו ממד , האנטרופיות של ושל קשורות זו לזו על ידי
- כאשר הוא היעקוביאן של הטרנספורמציה .[5] אי-השוויון הנ"ל הופך לשוויון אם הטרנספורמציה היא חד-חד ערכית ועל. יתר על כן, כאשר היא טרנספורמציה של סיבוב קשיח, העתקה או הרכבה של השניים, הדטרמיננטה של היעקוביאן היא תמיד 1, ואז .
- אם לווקטור מקרי יש תוחלת אפס ומטריצת שונות משותפת אזי
- כאשר השוויון מתקיים אם ורק אם הוא משתנה מקרי גאוסיאני רב ממדי.[2]
עם זאת, לאנטרופיה דיפרנציאלית חסרות כמה תכונות רצויות:
- האנטרופיה הדיפרנציאלית אינה אינווריאנטית להחלפת משתנים, ולכן היא שימושית בעיקר עם משתנים חסרי ממדים.
- האנטרופיה הדיפרנציאלית עשויה להיות שלילית.
דיברגנץ קולבק-לייבלר, הידוע גם כאנטרופיה יחסית, הוא אלטרנטיבה לאנטרופיה דיפרנציאלית, שנותנת מענה לחסרונות אלו, כאשר כוללים בו רכיב של מידה אינווריאנטית.
מקסימום בהתפלגות הנורמלית
עריכהמשפט
עריכהעבור שונות נתונה, האנטרופיה הדיפרנציאלית של ההתפלגות נורמלית היא מקסימלית. כלומר, למשתנה מקרי המתפלג נורמלית יש את האנטרופיה הגדולה ביותר מבין כל המשתנים האקראיים בעלי אותה שונות.[2]
הוכחה
עריכהתהי פונקציית צפיפות של התפלגות נורמלית עם ממוצע μ ושונות , ותהי פונקציית צפיפות כלשהי עם אותה שונות. מכיוון שהאנטרופיה הדיפרנציאלית אינווריאנטית להוספה של קבוע למשתנה המקרי, ניתן להניח כי ל- ול- אותה תוחלת .
דיברגנץ קולבק-לייבלר בין שתי התפלגויות מקיים
- .
נשתמש בביטוי המפורש של
מכיוון שהתוצאה תלויה אך ורק בשונות של . שילוב של שתי התוצאות מביא ל
ועל סמך התכונות של דיברגנץ קולבק-לייבלר שיויון יתקיים רק כאשר .
דוגמה: התפלגות מעריכית
עריכהיהי משתנה מקרי המתפלג מעריכית עם פרמטר , כלומר, עם פונקציית צפיפות הסתברות
היות שהתומך של ההתפלגות כולל ערכים אי שליליים בלבד, האנטרופיה הדיפרנציאלית היא
כדי לפשט את החישוב נעשה שימוש בלוגריתם טבעי (בסיס ), ובהתאמה סומנה האנטרופיה הדיפרנציאלית כ- .
קישורים חיצוניים
עריכה- אנטרופיה דיפרנציאלית, באתר MathWorld (באנגלית)
הערות שוליים
עריכה- ^ 1 2 3 Jaynes, E.T. (1963). "Information Theory And Statistical Mechanics" (PDF). Brandeis University Summer Institute Lectures in Theoretical Physics. 3 (sect. 4b).
- ^ 1 2 3 4 5 6 Cover, Thomas M.; Thomas, Joy A. (1991). Elements of Information Theory. New York: Wiley. ISBN 0-471-06259-6.
- ^ Vasicek, Oldrich (1976), "A Test for Normality Based on Sample Entropy", Journal of the Royal Statistical Society, Series B, 38 (1): 54–59, doi:10.1111/j.2517-6161.1976.tb01566.x, JSTOR 2984828.
- ^ Gibbs, Josiah Willard (1902). Elementary Principles in Statistical Mechanics. New York: Charles Scribner's Sons.
- ^ "proof of upper bound on differential entropy of f(X)". Stack Exchange. 16 באפריל 2016.
{{cite web}}
: (עזרה)