בתורת ההסתברות וסטטיסטיקה , שׁוֹנוּת (סימון:
Var
(
X
)
{\displaystyle \operatorname {Var} (X)}
מהמילה האנגלית Variance ) היא מדד לפיזור ערכים באוכלוסייה נתונה ביחס לתוחלת שלה. מושג זה הוצג לראשונה על ידי רונלד פישר בשנת 1918 .
באופן אינטואיטיבי, השונות היא המרחק (הריבועי) הממוצע של כל ערך, מהממוצע של כל הערכים. כלומר, אם השונות שווה אפס, כל הערכים זהים. ככל שהערך השונות עולה, כך הערכים "מפוזרים" יותר. מכיוון שהשונות מודדת מרחק, ערכה תמיד יהיה אי-שלילי.
השונות מוגדרת עבור משתנה רציף ועבור משתנה בדיד , וניתן לחשב אותה באופן תאורטי מפונקציית ההסתברות או לחשב אותה ביחס לאוכלוסייה או למדגם נתונים. יש התפלגויות (כגון התפלגות קושי ) שהתוחלת שלהן אינה מוגדרת; וכאלה שהתוחלת שלהן מוגדרת, אבל השונות אינה מוגדרת.
היות שיחידות השונות הן ריבוע יחידות האוכלוסייה, דבר המקשה על השוואת גדלים, נעשה שימוש גם במושג סטיית תקן , השווה לשורש השונות, ומציג את הפיזור הממוצע ביחידות המקוריות.
עבור המשתנה המקרי
X
{\displaystyle X}
– בדיד או רציף – אם נסמן (כרגיל) את התוחלת שלו ב-
μ
{\displaystyle \mu }
, אז השונות שלו מוגדרת כתוחלת של ריבוע המרחק מן המשתנה לתוחלת שלו:
Var
(
X
)
=
d
e
f
E
[
(
X
−
E
[
X
]
)
2
]
=
E
[
(
X
−
μ
)
2
]
{\displaystyle \operatorname {Var} (X)\;{\overset {\underset {\mathrm {def} }{}}{=}}\;\mathbb {E} [(X-\mathbb {E} [X])^{2}]=\mathbb {E} [(X-\mu )^{2}]}
מפיתוח אלגברי קצר מתקבל:
Var
(
X
)
=
E
[
(
X
−
E
[
X
]
)
2
]
=
E
(
X
2
−
2
X
E
[
X
]
+
E
[
X
]
2
)
=
E
[
X
2
]
−
2
E
[
X
]
E
[
X
]
+
E
[
X
]
2
=
E
[
X
2
]
−
E
[
X
]
2
{\displaystyle {\begin{aligned}{\text{Var}}(X)&=\mathbb {E} [(X-\mathbb {E} [X])^{2}]\\&=\mathbb {E} \left(X^{2}-2X\mathbb {E} [X]+\mathbb {E} [X]^{2}\right)\\&=\mathbb {E} [X^{2}]-2\mathbb {E} [X]\mathbb {E} [X]+\mathbb {E} [X]^{2}\\&=\mathbb {E} [X^{2}]-\mathbb {E} [X]^{2}\end{aligned}}}
כל זאת בתנאי שהאינטגרלים או הסכומים המעורבים בחישוב מתכנסים.
בהינתן פונקציית הסתברות בדידה x 1 ↦ p 1 , ..., x n ↦ p n , ערך השונות נתון בנוסחה
Var
(
X
)
=
∑
i
=
1
n
p
i
⋅
(
x
i
−
μ
)
2
{\displaystyle \operatorname {Var} (X)=\sum _{i=1}^{n}p_{i}\cdot (x_{i}-\mu )^{2}}
.
בהינתן פונקציית הסתברות רציפה, חישוב השונות נתון על ידי
Var
(
X
)
=
σ
2
=
∫
(
x
−
μ
)
2
f
(
x
)
d
x
=
∫
x
2
f
(
x
)
d
x
−
μ
2
{\displaystyle \operatorname {Var} (X)=\sigma ^{2}=\int (x-\mu )^{2}f(x)\,dx=\int x^{2}f(x)\,dx-\mu ^{2}}
כאשר
μ
{\displaystyle \mu }
הוא ערך התוחלת
μ
=
∫
x
f
(
x
)
d
x
{\displaystyle \mu =\int xf(x)\,dx}
והאינטגרל מחושב על פני כל מקור פונקציית ההסתברות – במקרה של תומך חסום, על פני כל ערכי התומך.
ההתפלגות נורמלית עם הפרמטרים μ ו-σ היא התפלגות רציפה עבורה פונקציית צפיפות ההסתברות נתונה על ידי:
f
(
x
)
=
1
2
π
σ
2
e
−
(
x
−
μ
)
2
2
σ
2
,
{\displaystyle f(x)={\frac {1}{\sqrt {2\pi \sigma ^{2}}}}e^{-{\frac {(x-\mu )^{2}}{2\sigma ^{2}}}},}
כאשר μ הוא התוחלת, ערך השונות נתון על ידי:
Var
(
X
)
=
∫
−
∞
∞
(
x
−
μ
)
2
2
π
σ
2
e
−
(
x
−
μ
)
2
2
σ
2
d
x
=
σ
2
.
{\displaystyle \operatorname {Var} (X)=\int _{-\infty }^{\infty }{\frac {(x-\mu )^{2}}{\sqrt {2\pi \sigma ^{2}}}}e^{-{\frac {(x-\mu )^{2}}{2\sigma ^{2}}}}\,dx=\sigma ^{2}.}
חישוב אינטגרל זה על הפונקציה המכונה גאוסיין ניתן לביצוע באמצעות אינטגרלים כפולים ומעבר לקואורדינטות קוטביות .
להתפלגות הנורמלית תפקיד מכריע בעולם ההסתברות עקב משפט הגבול המרכזי .
התפלגות מעריכית עם הפרמטר λ ו-σ היא התפלגות רציפה עבורה תומך חצי אינסופי (הישר האי שלילי) פונקציית צפיפות ההסתברות נתונה על ידי:
f
(
x
)
=
λ
e
−
λ
x
,
{\displaystyle f(x)=\lambda e^{-\lambda x},\,}
ערך התוחלת שלה נתון על ידי μ = λ−1 . ערך השונות נתון על ידי:
Var
(
X
)
=
∫
0
∞
(
x
−
λ
−
1
)
2
λ
e
−
λ
x
d
x
=
λ
−
2
.
{\displaystyle \operatorname {Var} (X)=\int _{0}^{\infty }(x-\lambda ^{-1})^{2}\,\lambda e^{-\lambda x}dx=\lambda ^{-2}.\,}
לכן עבור משתנה מקרי המתפלג באופן מעריכי σ2 = μ2 .
התפלגות פואסון עם הפרמטר λ היא התפלגות בדידה עבור אינדקס k מספר טבעי א-שלילי, פונקציית הסתברות עבור k נתונה על ידי:
p
(
k
)
=
λ
k
k
!
e
−
λ
{\displaystyle p(k)={\frac {\lambda ^{k}}{k!}}e^{-\lambda }}
ערך התוחלת הוא μ = λ. ערך השונות נתון על ידי:
Var
(
X
)
=
∑
k
=
0
∞
λ
k
k
!
e
−
λ
(
k
−
λ
)
2
=
λ
{\displaystyle \operatorname {Var} (X)=\sum _{k=0}^{\infty }{\frac {\lambda ^{k}}{k!}}e^{-\lambda }(k-\lambda )^{2}=\lambda }
לכן עבור משתנה מקרי המתפלג פואסון σ2 = μ.
ההתפלגות הבינומית עם הפרמטרים n ו-p היא התפלגות בדידה, המוגדרת לפי
P
(
k
)
=
(
n
k
)
p
k
(
1
−
p
)
n
−
k
{\displaystyle P(k)={n \choose k}p^{k}(1-p)^{n-k}}
. ערך התוחלת הוא μ = np . ערך השונות הוא
Var
(
X
)
=
n
p
(
1
−
p
)
{\displaystyle \operatorname {Var} (X)=np(1-p)}
.
התפלגות בינומית עם מקדם
p
=
0.5
{\displaystyle p=0.5}
מתארת את ההסתברות לקבלת
k
{\displaystyle k}
עץ מתוך
n
{\displaystyle n}
הטלות. לכן ערך התוחלת של כמות העצים שהתקבלו נתונה על ידי:
n
2
{\displaystyle {\frac {n}{2}}}
, וערך השונות על ידי:
n
4
{\displaystyle {\frac {n}{4}}}
.
ניתן למדל הטלת קובייה הוגנת בעלת 6 צדדים על ידי משתנה מקרי בדיד המקבל ערכים בין 1 ל-6, בהסתברות שווה והיא
1
6
{\displaystyle \textstyle {\frac {1}{6}}}
. ערך התוחלת הוא:
(1 + 2 + 3 + 4 + 5 + 6)/6 = 3.5. ולכן נחשב את השונות להיות
∑
i
=
1
6
1
6
(
i
−
3.5
)
2
=
1
6
∑
i
=
1
6
(
i
−
3.5
)
2
=
1
6
(
(
−
2.5
)
2
+
(
−
1.5
)
2
+
(
−
0.5
)
2
+
0.5
2
+
1.5
2
+
2.5
2
)
=
1
6
⋅
17.50
=
35
12
≈
2.92
{\displaystyle {\begin{aligned}\sum _{i=1}^{6}{\tfrac {1}{6}}(i-3.5)^{2}={\tfrac {1}{6}}\sum _{i=1}^{6}(i-3.5)^{2}&={\tfrac {1}{6}}\left((-2.5)^{2}{+}(-1.5)^{2}{+}(-0.5)^{2}{+}0.5^{2}{+}1.5^{2}{+}2.5^{2}\right)\\&={\tfrac {1}{6}}\cdot 17.50={\tfrac {35}{12}}\approx 2.92\end{aligned}}}
משתנה מקרי X בעל התפלגות אחידה
1
n
{\displaystyle \textstyle {\frac {1}{n}}}
אשר מקבל את הערכים הטבעיים בין 1 ל-n. נחשב את השונות על ידי:
Var
(
X
)
=
E
(
X
2
)
−
(
E
(
X
)
)
2
=
1
n
∑
i
=
1
n
i
2
−
(
1
n
∑
i
=
1
n
i
)
2
=
1
6
(
n
+
1
)
(
2
n
+
1
)
−
1
4
(
n
+
1
)
2
=
n
2
−
1
12
{\displaystyle {\begin{aligned}\operatorname {Var} (X)&=\mathbb {E} (X^{2})-(\mathbb {E} (X))^{2}\\&={\frac {1}{n}}\sum _{i=1}^{n}i^{2}-\left({\frac {1}{n}}\sum _{i=1}^{n}i\right)^{2}\\&={\tfrac {1}{6}}(n+1)(2n+1)-{\tfrac {1}{4}}(n+1)^{2}\\&={\frac {n^{2}-1}{12}}\end{aligned}}}
השונות תמיד אי שלילית
Var
(
X
)
≥
0
{\displaystyle \operatorname {Var} (X)\geq 0}
השונות של משתנה מקרי שווה לאפס אם ורק אם המשתנה המקרי מקבל ערך קבוע בהסתברות 1
השונות של טרנספורמציה ליניארית על המשתנה המקרי
X
{\displaystyle X}
היא:
Var
(
a
X
+
b
)
=
a
2
Var
(
X
)
{\displaystyle \operatorname {Var} (aX+b)=a^{2}\operatorname {Var} (X)}
כאשר
a
,
b
{\displaystyle \ a,\,b}
הם קבועים ממשיים .
השונות (Variance) שווה לשונות המשותפת (Covariance) של המשתנה עם עצמו:
Var
(
X
)
=
Cov
(
X
,
X
)
{\displaystyle \operatorname {Var} (X)=\operatorname {Cov} (X,X)}
, כאשר
Cov
(
Y
,
Z
)
)
{\displaystyle \operatorname {Cov} (Y,Z))}
מסמן את השונות המשותפת של המשתנים
Y
,
Z
{\displaystyle Y,Z}
.
השונות של סכום משתנים מקריים
X
,
Y
{\displaystyle X,Y}
היא:
Var
(
X
+
Y
)
=
Var
(
X
)
+
2
cov
(
X
,
Y
)
+
Var
(
Y
)
{\displaystyle \operatorname {Var} (X+Y)=\operatorname {Var} (X)+2\operatorname {cov} (X,Y)+\operatorname {Var} (Y)}
.
ניתן להרחיב את התכונה לחישוב שונות סכום משתנים מקריים כך:
Var
(
∑
i
=
1
n
X
i
)
=
∑
i
=
1
n
∑
j
=
1
n
Cov
(
X
i
,
X
j
)
=
∑
i
=
1
n
Var
(
X
i
)
+
2
∑
1
≤
i
∑
<
j
≤
n
Cov
(
X
i
,
X
j
)
{\displaystyle \operatorname {Var} \left(\sum _{i=1}^{n}X_{i}\right)=\sum _{i=1}^{n}\sum _{j=1}^{n}\operatorname {Cov} (X_{i},X_{j})=\sum _{i=1}^{n}\operatorname {Var} (X_{i})+2\sum _{1\leq i}\sum _{<j\leq n}\operatorname {Cov} (X_{i},X_{j})}
בנוסף, השונות המשותפת של כל זוג משתנים מתאפסת אם הם בלתי תלויים – כך שאם כל המשתנים המקריים בלתי תלויים זה בזה, אז השונות של סכום המשתנים המקריים תהיה שווה לסכום השונויות של כל אחד מהם.
משפט השונות השלמה : אם
X
,
Y
{\displaystyle X,Y}
משתנים מקריים, והשונות של
Y
{\displaystyle Y}
סופית, אפשר לפרק את השונות של
X
{\displaystyle X}
באופן הבא:
Var
(
X
)
=
E
(
Var
(
X
|
Y
)
)
+
Var
(
E
(
X
|
Y
)
)
{\displaystyle \operatorname {Var} (X)=\mathbb {E} (\operatorname {Var} (X|Y))+\operatorname {Var} (\mathbb {E} (X|Y))}
.
שונות האוכלוסייה ושונות המדגם
עריכה
עבור אוכלוסייה סופית (שהתפלגותה אינה ידועה) ניתן לחשב את השונות בעזרת הנוסחה:
σ
2
=
∑
i
=
1
N
(
x
i
−
x
¯
)
2
N
{\displaystyle \sigma ^{2}={\frac {\sum _{i=1}^{N}\left(x_{i}-{\overline {x}}\right)^{2}}{N}}}
x
¯
{\displaystyle {\overline {x}}}
- ממוצע האוכלוסייה.
N
{\displaystyle \ N}
- מספר האיברים באוכלוסייה.
נוסחה שימושית לחישוב שונות האוכלוסייה:
σ
2
=
∑
i
=
1
N
x
i
2
N
−
(
∑
i
=
1
N
x
i
N
)
2
=
∑
i
=
1
N
x
i
2
−
N
∗
x
¯
2
N
{\displaystyle \sigma ^{2}={\frac {\sum _{i=1}^{N}x_{i}^{2}}{N}}-\left({\frac {\sum _{i=1}^{N}x_{i}}{N}}\right)^{2}={\frac {\sum _{i=1}^{N}x_{i}^{2}-N*{\overline {x}}^{2}}{N}}\!}
בהינתן מדגם מקרי פשוט
(
y
1
,
…
,
y
N
)
{\displaystyle (y_{1},\dots ,y_{N})}
אם נסתכל על המדגם עצמו כעל אוכלוסייה בפני עצמה, אז שונות המדגם נתונה על ידי הנוסחה:
s
2
=
1
N
∑
i
=
1
N
(
y
i
−
y
N
¯
)
2
{\displaystyle s^{2}={\frac {1}{N}}\sum _{i=1}^{N}\left(y_{i}-{\overline {y_{N}}}\right)^{2}}
.
שונות המדגם היא אומד מומנטים עבור שונות האוכלוסייה. בהתפלגות הנורמלית שונות המדגם היא גם אומד נראות מרבית עבור שונות האוכלוסייה.
אומד חסר הטיה לשונות האוכלוסייה
עריכה
כאשר נתון מדגם מקרי פשוט
(
y
1
,
…
,
y
N
)
{\displaystyle (y_{1},\dots ,y_{N})}
ניתן לאמוד את שונות האוכלוסייה על ידי הנוסחה:
s
2
=
1
N
−
1
∑
i
=
1
N
(
y
i
−
y
¯
)
2
{\displaystyle s^{2}={\frac {1}{N-1}}\sum _{i=1}^{N}\left(y_{i}-{\overline {y}}\right)^{2}}
; בתנאים רגילים, זהו אומד בלתי מוטה . אם הנתונים מעוגלים בזמן המדידה, יש להפעיל את תיקון שפרד . עקב היותו אומד חסר הטיה, אומד זה הוא המקובל בשימוש בתחום הסטטיסטיקה.
נוסחה שימושית אחרת לחישוב האומד לשונות:
s
2
=
∑
i
=
1
N
x
i
2
−
(
∑
i
=
1
N
x
i
)
2
/
N
N
−
1
{\displaystyle s^{2}={\frac {\sum _{i=1}^{N}x_{i}^{2}-(\sum _{i=1}^{N}x_{i})^{2}/N}{N-1}}\!}
.