הלמה של ניימן-פירסון – הבדלי גרסאות
תוכן שנמחק תוכן שנוסף
מאין תקציר עריכה |
המשך |
||
שורה 4:
== ניסוח ==
בהינתן [[מדגם]] <math>\bold{X}=(X_1,\dots,X_n)</math>, ובהינתן [[פונקציית נראות]] <math>L(\bold{X};\theta)</math> התלויה ב[[פרמטר (סטטיסטיקה)|פרמטר]] <math>\theta</math>, ושתי [[השערה סטטיסטית|השערות]] פשוטות, <math>H_0\,: \theta =\theta_0</math> ו-<math>H_1\,: \theta =\theta_1</math>, [[מבחן יחס הנראות]], ש[[אזור דחייה|אזור הדחייה]] שלו הוא:<math display="block">\mathcal{R}_k=\left\{\bold{X}: \frac{L(\bold{X};\theta_1)}{L(\bold{X};\theta_0)} > k_\alpha\right\}</math>
הוא ה[[מבחן סטטיסטי|מבחן]] בעל ה[[עוצמה סטטיסטית|עוצמה]] הגדולה ביותר (Uniformly Most Powerful; UMP) מבין כל המבחנים ב[[רמת מובהקות]] <math>\alpha</math> (כלומר, מתקיים <math>\operatorname{Pr}(\bold{X} \in \mathcal{R}_k)=\alpha</math>, אם <math>H_0</math> נכונה).
שורה 10:
==הוכחה==
:<math>\mathcal{R}_{NP}=\left\{\bold{X}: \frac{L(\bold{X};\theta_1)}{L(\bold{X};\theta_0)} >
משפט ההסתברות השלמה אומר כי לכל <math>\theta</math>,
▲יהי מבחן אחר בעל אותה רמת מובהקות, שאזור הדחייה שלו שונה. נסמן את אזור הדחייה של מבחן זה ב-<math>\mathcal{R}_A</math>.
<math display="block">\operatorname{Pr}_\theta\left(\mathcal{R}_{NP}\right)=\operatorname{Pr}_\theta\left(\mathcal{R}_{NP}\backslash \mathcal{R}_{A}\right)+\operatorname{Pr}_\theta\left(\mathcal{R}_{NP}\cap \mathcal{R}_{A}\right)</math>
<math display="block">\ \ \operatorname{Pr}_\theta\left(\mathcal{R}_{A}\right)=\operatorname{Pr}_\theta\left(\mathcal{R}_{A}\backslash \mathcal{R}_{NP}\right)+\operatorname{Pr}_\theta\left(\mathcal{R}_{NP}\cap \mathcal{R}_{A}\right)</math>
ולכן, אם <math>\theta = \theta_0</math>,
<math display="block">\begin{align}\operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{NP}\backslash \mathcal{R}_{A}\right) - \operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{A}\backslash \mathcal{R}_{NP}\right) & =
\left[\operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{NP}\right) - \color{red}{\operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{NP} \cap \mathcal{R}_{A}\right)} \right] - \left[\operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{A}\right) - \color{red}{\operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{NP} \cap \mathcal{R}_{A}\right)} \right]\\
& = \operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{NP}\right) - \operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{A}\right) \\
& \, \overset{(*)}{=} \ \alpha - \alpha \\
& = 0
\end{align}</math>כאשר <math>(*)</math>נובע מההנחה שלמבחנים רמת מובהקות זהה. באופן דומה, <math display="inline">\operatorname{Pr}_{\theta_1}\left(\mathcal{R}_{NP}\backslash \mathcal{R}_{A}\right) - \operatorname{Pr}_{\theta_1}\left(\mathcal{R}_{A}\backslash \mathcal{R}_{NP}\right) = \operatorname{Pr}_{\theta_1}\left(\mathcal{R}_{NP}\right) - \operatorname{Pr}_{\theta_1}\left(\mathcal{R}_{A}\right)</math>.
המשפט מבקש להוכיח שצד ימין של המשוואה האחרונה גדול מאפס, ולכן מספיק להוכיח זאת לגבי צד שמאל. במילים אחרות, מספיק להוכיח<math display="block">\operatorname{Pr}_{\theta_1}\left(\mathcal{R}_{NP}\backslash \mathcal{R}_{A}\right) > \operatorname{Pr}_{\theta_1}\left(\mathcal{R}_{A}\backslash \mathcal{R}_{NP}\right)</math>ואכן, בתוך<math>\mathcal{R}_{NP} \backslash \mathcal{R}_A</math>, מההנחה, <math display="inline">L(\bold{X};\theta_1) > k_\alpha\ L(\bold{X};\theta_0)</math>, כלומר,<math display="block">\operatorname{Pr}_{\theta_1}\left(\mathcal{R}_{NP}\backslash \mathcal{R}_{A}\right) > \operatorname{Pr}_{\theta_0}\left(\mathcal{R}_{NP}\backslash \mathcal{R}_{A}\right)</math>
==לקריאה נוספת==
<div class="mw-content-ltr">
* {{Cite journal|title= On the Problem of the Most Efficient Tests of Statistical Hypotheses |last=Neyman |first=Jerzy |last2=
==קישורים חיצוניים==
|