הלמה של ניימן-פירסון – הבדלי גרסאות

תוכן שנמחק תוכן שנוסף
השלמה, לפחות בינתיים
שורה 1:
{{בעבודה}}
 
ב[[בדיקת השערות]] [[סטטיסטיקה|סטטיסטית]], '''הלמה של ניימן-פירסון''' היא [[למה (מתמטיקה)|למה]] שפותחה על ידי ה[[סטטיסטיקאי]]ם [[יז'י ניימן]] ו[[אגון פירסון]], והיא מצביעה על מבחן בין [[השערה סטטיסטית|השערות]] פשוטות, אשר לו ה[[עוצמה סטטיסטית|עוצמה]] הגדולה ביותר מבין כל המבחנים בעלי אותה [[רמת מובהקות|רמת המובהקות]] <math>\alpha</math> (או נמוכה יותר). במילים אחרות, היא מבטיחה את קיומו של מבחן שהוא טוב יותר מכל ה"מתחרים" שלו, ומציעה דרך לבנות אותו.
 
שורה 10 ⟵ 8:
 
==הוכחה==
[[קובץ:NPNeyman-lemma1Pearson.pngsvg|ממוזער|350px|[[דיאגרמת ון]] הממחישה את ההוכחה ללמה של ניימן ופירסון: אזורי הדחייה אם מתקיימת השערת האפס]]
[[קובץ:NP-lemma2.png|ממוזער|350px|אזורי הדחייה אם מתקיימת ההשערה האלטרנטיבית]]
יהי <math>\mathcal{R}_{NP}</math> אזור הדחייה אשר מוגדר על פי הלמה, כלומר:
:<math>\mathcal{R}_{NP}=\left\{\bold{X}: \frac{L(\bold{X};\theta_1)}{L(\bold{X};\theta_0)} > k_\alpha\right\}</math>
שורה 21 ⟵ 18:
<math display="block">\ \ \operatorname{Pr}_\theta\left(\mathcal{R}_{A}\right)=\operatorname{Pr}_\theta\left(\mathcal{R}_{A}\backslash \mathcal{R}_{NP}\right)+\operatorname{Pr}_\theta\left(\mathcal{R}_{NP}\cap \mathcal{R}_{A}\right)</math>
 
ולכן,
ולכן, אם <math>\theta = \theta_0</math>,
 
{{מספור צדי|2=<math>\begin{align}
{{מספור צדי|:|<math>\operatorname{Pr}_{\theta_0theta}\left(\mathcal{R}_{NP}\backslash \mathcal{R}_{A}\right) =- \operatorname{Pr}_{\theta_0theta}\left(\mathcal{R}_{A}\backslash \mathcal{R}_{NP}\right)</math>|1}} & =
באופן דומה, <math>\left[\operatorname{Pr}_{\theta_1theta}\left(\mathcal{R}_{NP}\backslash \mathcal{R}_{A}\right) - \color{magenta}{\operatorname{Pr}_{\theta_1theta}\left(\mathcal{R}_{ANP} \backslashcap \mathcal{R}_{NPA}\right)} =\right] - \left[\operatorname{Pr}_{\theta_1theta}\left(\mathcal{R}_{NPA}\right) - \color{magenta}{\operatorname{Pr}_{\theta_1theta}\left(\mathcal{R}_{NP} \cap \mathcal{R}_{A}\right)</math>.} -->\right] \\
& = \operatorname{Pr}_{\theta_0theta}\left(\mathcal{R}_{NP}\right) - \operatorname{Pr}_{\theta_0theta}\left(\mathcal{R}_{A}\right) \\
\end{align}</math>|3=1}}
 
ובפרט, אם <math>\theta = \theta_0</math>, למבחנים רמת מובהקות זהה, ולכן,
 
<math display="block">\begin{align}
\operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{NP}\backslash \mathcal{R}_{A}\right) - \operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{A}\backslash \mathcal{R}_{NP}\right) & =
\left[\operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{NP}\right)= - \color{magenta}{\operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{NP} \cap \mathcal{R}_{A}\right)} \right] - \left[\operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{A}\right) - \color{magenta}{\operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{NP} \cap \mathcal{R}_{A}\right)} \right] \\
& \, \overset{(*)}{=} \ \alpha - \alpha \\
& = \operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{NP}\right) - \operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{A}\right) \\
& \, \overset{(*)}{=} \ \alpha - \alpha \\
& = 0
\end{align}</math>
כאשר <math>(*)</math> נובע מההנחה שלמבחנים רמת מובהקות זהה. אם כן,:
{{מספור צדי|:|<math>\operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{NP}\backslash \mathcal{R}_{A}\right) = \operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{A}\backslash \mathcal{R}_{NP}\right)</math>|1}}
<!--
באופן דומה, <math>\operatorname{Pr}_{\theta_1}\left(\mathcal{R}_{NP}\backslash \mathcal{R}_{A}\right) - \operatorname{Pr}_{\theta_1}\left(\mathcal{R}_{A}\backslash \mathcal{R}_{NP}\right) = \operatorname{Pr}_{\theta_1}\left(\mathcal{R}_{NP}\right) - \operatorname{Pr}_{\theta_1}\left(\mathcal{R}_{A}\right)</math>. -->
 
כלומר:
המשפט מבקש להוכיח שצד ימין של המשוואה האחרונה גדול מאפס, ולכן מספיק להוכיח זאת לגבי צד שמאל.
{{מספור צדי|:|2=<math display="block">\operatorname{Pr}_{\theta_1theta_0}\left(\mathcal{R}_{NP}\backslash \mathcal{R}_{A}\right) >= \operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{NPA}\backslash \mathcal{R}_{ANP}\right)</math>|3=2}}
 
המשפט מבקש להוכיח כי <math>\operatorname{Pr}_{\theta_1}\left(\mathcal{R}_{NP}\right) > \operatorname{Pr}_{\theta_1}\left(\mathcal{R}_{A}\right)</math>, אך מטענה '''(1)''' נובע כי לשם כך מספיק להוכיח כי
במילים אחרות, מספיק להוכיח
<math display="block">\operatorname{Pr}_{\theta_1}\left(\mathcal{R}_{NP}\backslash \mathcal{R}_{A}\right) > \operatorname{Pr}_{\theta_1}\left(\mathcal{R}_{A}\backslash \mathcal{R}_{NP}\right)</math>
 
[[קובץ:NPNeyman-lemma2Pearson2.pngsvg|ממוזער|350px|אזורי הדחייה אם מתקיימת ההשערה האלטרנטיבית]]
ניתן לשים לב כי מההנחה, בתוך <math>\mathcal{R}_{NP} \backslash \mathcal{R}_A</math>, מתקיים <math>L(\bold{X};\theta_1) > k_\alpha\ L(\bold{X};\theta_0)</math>, ובפרט,
 
{{מספור צדי|:|<math>\operatorname{Pr}_{\theta_1}\left(\mathcal{R}_{NP}\backslash \mathcal{R}_{A}\right) > \operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{NP}\backslash \mathcal{R}_{A}\right)</math>|2}}
ניתן לשים לב כי מההנחה, בתוך <math>\mathcal{R}_{NP} \backslash \mathcal{R}_A</math>, מתקיים <math>L(\bold{X};\theta_1) > k_\alpha\ L(\bold{X};\theta_0)</math>, ובפרט,
{{מספור צדי|2=<math>\operatorname{Pr}_{\theta_1}\left(\mathcal{R}_{NP}\backslash \mathcal{R}_{A}\right) > \operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{NP}\backslash \mathcal{R}_{A}\right)</math>|3=3}}
באופן דומה, בתוך <math>\mathcal{R}_{A} \backslash \mathcal{R}_{NP}</math>,
{{מספור צדי|:|<math>\operatorname{Pr}_{\theta_1}\left(\mathcal{R}_{A}\backslash \mathcal{R}_{NP}\right) < \operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{A}\backslash \mathcal{R}_{NP}\right)</math>|3=4}}
 
ועל כן,
<math display="block">\begin{align}
\operatorname{Pr}_{\theta_1}\left(\mathcal{R}_{NP}\backslash \mathcal{R}_{A}\right) & \overset{(23)}{>} \operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{NP}\backslash \mathcal{R}_{A}\right) \\
& \overset{(12)}{=} \operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{A}\backslash \mathcal{R}_{NP}\right) \\
& \overset{(34)}{>} \operatorname{Pr}_{\theta_1}\left(\mathcal{R}_{A}\backslash \mathcal{R}_{NP}\right)
\end{align}</math>
כנדרש.
 
== ראו גם ==
* [[מבחן יחס הנראות]]
* [[מבחן יחס הנראות המוכלל]] (GLRT)
 
==לקריאה נוספת==