בתורת ההסתברות התפלגות מולטינומית היא הכללה של ההתפלגות הבינומית וניתן לקבלה באופן הבא: נתון ניסוי מסוים, עם
k
{\displaystyle k}
תוצאות אפשריות שונות
A
1
,
A
2
,
.
.
.
,
A
k
{\displaystyle A_{1},A_{2},...,A_{k}}
(מאורעות זרים או קטגוריות) כאשר ההסתברות לקבל תוצאה
A
i
{\displaystyle A_{i}}
היא
p
i
{\displaystyle p_{i}}
. חוזרים על הניסוי
n
{\displaystyle n}
פעמים בלתי תלויות ומסכמים את התוצאות באמצעות משתנים מקריים בינומיים
X
i
∼
B
i
n
(
n
,
p
i
)
{\displaystyle X_{i}\sim Bin(n,p_{i})}
, כאשר
X
i
{\displaystyle X_{i}}
מציין את מספר הפעמים שהתקבלה התוצאה
A
i
{\displaystyle A_{i}}
מתוך
n
{\displaystyle n}
החזרות. לווקטור המקרי
X
=
(
X
1
,
X
2
,
.
.
.
,
X
k
)
{\displaystyle X=(X_{1},X_{2},...,X_{k})}
יש התפלגות מולטינומית. עבור
k
=
1
{\displaystyle k=1}
מקבלים את ההתפלגות קטגוריאלית .
התפלגות מולטינומית
מאפיינים
פרמטרים
n
>
0
{\displaystyle n>0}
מספר ניסויים קטגוריאלים (מספר שלם )
k
>
0
{\displaystyle k>0}
מספר קטגוריות בניסוי קטגוריאלי בודד (מספר שלם)
p
1
,
…
,
p
k
{\displaystyle p_{1},\ldots ,p_{k}}
הסתברויות לקטגוריות, כאשר
p
1
+
⋯
+
p
k
=
1
{\displaystyle p_{1}+\dots +p_{k}=1}
תומך
{
(
x
1
,
…
,
x
k
)
|
∑
i
=
1
k
x
i
=
n
,
x
i
≥
0
(
i
=
1
,
…
,
k
)
}
{\displaystyle \left\lbrace (x_{1},\dots ,x_{k})\,{\Big \vert }\,\sum _{i=1}^{k}x_{i}=n,x_{i}\geq 0\ (i=1,\dots ,k)\right\rbrace }
פונקציית הסתברות (pmf)
n
!
x
1
!
⋯
x
k
!
p
1
x
1
⋯
p
k
x
k
{\displaystyle {\frac {n!}{x_{1}!\cdots x_{k}!}}p_{1}^{x_{1}}\cdots p_{k}^{x_{k}}}
תוחלת
E
(
X
i
)
=
n
p
i
{\displaystyle \operatorname {E} (X_{i})=np_{i}}
שונות
Var
(
X
i
)
=
n
p
i
(
1
−
p
i
)
{\displaystyle \operatorname {Var} (X_{i})=np_{i}(1-p_{i})}
Cov
(
X
i
,
X
j
)
=
−
n
p
i
p
j
(
i
≠
j
)
{\displaystyle \operatorname {Cov} (X_{i},X_{j})=-np_{i}p_{j}~~(i\neq j)}
אנטרופיה
−
log
(
n
!
)
−
n
∑
i
=
1
k
p
i
log
(
p
i
)
+
∑
i
=
1
k
∑
x
i
=
0
n
(
n
x
i
)
p
i
x
i
(
1
−
p
i
)
n
−
x
i
log
(
x
i
!
)
{\displaystyle -\log(n!)-n\sum _{i=1}^{k}p_{i}\log(p_{i})+\sum _{i=1}^{k}\sum _{x_{i}=0}^{n}{\binom {n}{x_{i}}}p_{i}^{x_{i}}(1-p_{i})^{n-x_{i}}\log(x_{i}!)}
פונקציה יוצרת מומנטים (mgf)
(
∑
i
=
1
k
p
i
e
t
i
)
n
{\displaystyle {\biggl (}\sum _{i=1}^{k}p_{i}e^{t_{i}}{\biggr )}^{n}}
פונקציה אופיינית
(
∑
j
=
1
k
p
j
e
i
t
j
)
n
{\displaystyle \left(\sum _{j=1}^{k}p_{j}e^{it_{j}}\right)^{n}}
כאשר
i
2
=
−
1
{\displaystyle i^{2}=-1}
פונקציית ההסתברות של הווקטור המקרי
X
{\displaystyle X}
היא:
P
(
X
=
(
x
1
,
x
2
,
.
.
.
,
x
n
)
)
=
P
(
X
1
=
x
1
,
…
,
X
k
=
x
k
)
=
{
n
!
x
1
!
⋯
x
k
!
p
1
x
1
⋯
p
k
x
k
,
∑
i
=
1
k
x
i
=
n
םא
0
תרחא
{\displaystyle {\begin{aligned}P(X=(x_{1},x_{2},...,x_{n}))&{}=P(X_{1}=x_{1},\dots ,X_{k}=x_{k})\\\\&{}={\begin{cases}{\displaystyle {n! \over x_{1}!\cdots x_{k}!}p_{1}^{x_{1}}\cdots p_{k}^{x_{k}}}\quad &,\sum _{i=1}^{k}x_{i}=n&{\mbox{םא }}\\\\0&&{\mbox{תרחא }}\end{cases}}\end{aligned}}}
מאחר שהחזרות בלתי תלויות, ההסתברות ל-
n
{\displaystyle n}
-יה ספציפית של תוצאות שבה
A
1
{\displaystyle A_{1}}
התקבל
x
1
{\displaystyle x_{1}}
פעמים,
A
2
{\displaystyle A_{2}}
התקבל
x
2
{\displaystyle x_{2}}
פעמים,... ו-
A
k
{\displaystyle A_{k}}
התקבל
x
k
{\displaystyle x_{k}}
פעמים, היא
p
1
x
1
⋯
p
k
x
k
{\displaystyle p_{1}^{x_{1}}\cdots p_{k}^{x_{k}}}
. את המספר הזה נכפול במספר ה-
n
{\displaystyle n}
-יות מסוג זה ואותו ניתן לחשב בדרך באה: תחילה נחשב את מספר הדרכים למקם
x
1
{\displaystyle x_{1}}
פעמים את התוצאה
A
1
{\displaystyle A_{1}}
ב-
n
{\displaystyle n}
-יה -
(
n
x
1
)
=
n
!
x
1
!
(
n
−
x
1
!
)
{\displaystyle {\tbinom {n}{x_{1}}}={\tfrac {n!}{x_{1}!(n-x_{1}!)}}}
. את המספר הזה נכפול במספר הדרכים למקם
x
2
{\displaystyle x_{2}}
פעמים את התוצאה
A
2
{\displaystyle A_{2}}
ב-
n
−
x
1
{\displaystyle n-x_{1}}
המקומות הריקים שנותרו-
(
n
−
x
1
x
2
)
=
(
n
−
x
1
)
!
x
2
!
(
n
−
x
1
−
x
2
!
)
{\displaystyle {\tbinom {n-x_{1}}{x_{2}}}={\tfrac {(n-x_{1})!}{x_{2}!(n-x_{1}-x_{2}!)}}}
. כך נמשיך עד שבסוף נכפול את התוצאה במספר הדרכים למקם את התוצאה
A
k
−
1
{\displaystyle A_{k-1}}
ב-
n
−
x
1
−
.
.
.
−
x
k
−
2
{\displaystyle n-x_{1}-...-x_{k-2}}
המקומות שנותרו-
(
n
−
x
1
−
.
.
.
−
x
k
−
2
x
k
−
1
)
=
(
n
−
x
1
−
.
.
.
−
x
k
−
2
)
!
x
k
−
1
!
(
n
−
x
1
−
.
.
.
−
x
k
−
1
)
!
=
(
n
−
x
1
−
.
.
.
−
x
k
−
2
)
!
x
k
−
1
!
x
k
!
{\displaystyle {\tbinom {n-x_{1}-...-x_{k-2}}{x_{k-1}}}={\tfrac {(n-x_{1}-...-x_{k-2})!}{x_{k-1}!(n-x_{1}-...-x_{k-1})!}}={\tfrac {(n-x_{1}-...-x_{k-2})!}{x_{k-1}!x_{k}!}}}
. עבור
x
k
{\displaystyle x_{k}}
הפעמים של התוצאה
A
k
{\displaystyle A_{k}}
יוותרו בדיוק
x
k
{\displaystyle x_{k}}
מקומות ולכן רק דרך אחת למקם אותם. בסופו של דבר תוצאת הכפל תהיה:
(
n
x
1
)
(
n
−
x
1
x
2
)
⋯
(
n
−
x
1
−
.
.
.
−
x
k
−
2
x
k
−
1
)
=
n
!
x
1
!
(
n
−
x
1
!
)
(
n
−
x
1
)
!
x
2
!
(
n
−
x
1
−
x
2
!
)
⋯
(
n
−
x
1
−
.
.
.
−
x
k
−
2
)
!
x
k
−
1
!
(
n
−
x
1
−
.
.
.
−
x
k
−
1
)
!
=
n
!
x
1
!
⋯
x
k
!
{\displaystyle {\tbinom {n}{x_{1}}}{\tbinom {n-x_{1}}{x_{2}}}\cdots {\tbinom {n-x_{1}-...-x_{k-2}}{x_{k-1}}}={\tfrac {n!}{x_{1}!(n-x_{1}!)}}{\tfrac {(n-x_{1})!}{x_{2}!(n-x_{1}-x_{2}!)}}\cdots {\tfrac {(n-x_{1}-...-x_{k-2})!}{x_{k-1}!(n-x_{1}-...-x_{k-1})!}}={\tfrac {n!}{x_{1}!\cdots x_{k}!}}}
התוצאה הסופית של הכפל, המתקבלת כתוצאה של צמצומים, שווה למספר ה-
n
{\displaystyle n}
-יות המבוקש. זהו המקדם המולטינומי שמופיע כחלק מהנוסחה.
נתון כד ובו 10 כדורים. חמישה מהכדורים בכד כחולים, שלושה אדומים ושניים ירוקים. בכל פעם מוציאים כדור מהכד ומחזירים אותו. חוזרים על הפעולה 8 פעמים. מהי ההסתברות שמתוך 8 הפעמים ב-3 פעמים הוצא כדור כחול, ב-4 הוצא כדור ירוק ופעם אחת הוצא כדור אדום?
במקרה כזה, הניסוי שחוזר על עצמו הוא הוצאה והחזרה של הכדור. יש לניסוי הזה שלוש תוצאות אפשריות
(
k
=
3
)
{\displaystyle (k=3)}
:
A
1
{\displaystyle A_{1}}
- התקבל כדור כחול,
A
2
{\displaystyle A_{2}}
- התקבל כדור אדום ו-
A
3
{\displaystyle A_{3}}
- התקבל כדור ירוק. ההסתברות לקבל כדור כחול בניסוי בודד היא
p
1
=
5
10
=
0.5
{\displaystyle p_{1}={\frac {5}{10}}=0.5}
, לקבל כדור אדום
p
2
=
3
10
=
0.3
{\displaystyle p_{2}={\frac {3}{10}}=0.3}
ולקבל כדור ירוק
p
3
=
2
10
=
0.2
{\displaystyle p_{3}={\frac {2}{10}}=0.2}
. חוזרים על הניסוי 8 פעמים
(
n
=
8
)
{\displaystyle (n=8)}
. ההסתברות שמתוך 8 הפעמים ב-3 הוצא כדור כחול
(
x
1
=
3
)
{\displaystyle (x_{1}=3)}
, ב-4 הוצא כדור ירוק
(
x
2
=
4
)
{\displaystyle (x_{2}=4)}
ופעם אחת הוצא כדור אדום
(
x
3
=
1
)
{\displaystyle (x_{3}=1)}
היא:
Pr
(
X
=
(
3
,
4
,
1
)
)
=
Pr
(
X
1
=
3
,
X
2
=
4
,
X
3
=
1
)
=
8
!
3
!
4
!
1
!
0.5
3
0.3
4
0.2
1
=
5.67
%
{\displaystyle \Pr(X=(3,4,1))=\Pr(X_{1}=3,X_{2}=4,X_{3}=1)=\displaystyle {8! \over 3!4!1!}0.5^{3}0.3^{4}0.2^{1}=5.67\%}