בפשטות, נניח שנדגמו פריטים מתוך אוכלוסייה, ונמדדו לכל אחד מהפריטים שתי תכונות מספריות (אותן שתי תכונות בכל פעם). ניתן לשרטט את הנתונים על מערכת צירים קרטזית, כך שהגודל של אחת התכונות הוא שיעור x – המרחק מהציר האנכי – והגודל האחר הוא שיעור y – המרחק מהציר האופקי. עבור שרטוט כזה, רגרסיה ליניארית פשוטה מבקשת לתאר את אוסף הנקודות באמצעות קו מגמה ישר אחד, כך שהמרחק בין הנקודות לקו הוא הקטן ביותר האפשרי (במובן מסוים, שיוסבר בהמשך).
באופן יותר פורמלי, עבור מדגם דו-ממדי, – כך ש-x נקרא המשתנה המנבא, או המשתנה הבלתי תלוי, ו-y נקרא משתנה התוצאה, או המשתנה התלוי – ביצוע הרגרסיה מסתכם במציאת פונקציה ליניארית () שאמורה לנבא, בדיוק גבוה ככל הניתן, את ערכי המשתנה התלוי כפונקציה של המשתנה הבלתי תלוי. שם התואר "פשוטה" מתייחס לכך שמשתנה התוצאה מוסבר באמצעות משתנה מסביר יחיד.
מקובל להשתמש בשיטת הריבועים הפחותים הרגילים (אנ') (OLS) המגדירה את גודל השגיאה בין קו התחזית (קו הרגרסיה) לבין כל אחת מנקודות המדגם לפי ריבוע השארית שלה (דהיינו, המרחק האנכי בין הנקודה לבין הקו המותאם), והמטרה היא לצמצם ככל הניתן את סכום השאריות בריבוע.
בין שיטות הרגרסיה האחרות שניתן להשתמש בהן, במקום שיטת הריבועים הפחותים, ניתן למנות את שיטת הסטיות המוחלטות הפחותות (אנ') (ממזערת את סכום הערכים המוחלטים של השאריות) ואת אומדן Theil-Sen (אנ') (הבוחר קו שהשיפוע שלו הוא החציון של השיפועים שנקבע על ידי זוגות של נקודות המדגם). גם רגרסיית דמינג (אנ') מוצאת קו שמתאים לקבוצה של מדגם דו-ממדי, אבל (בניגוד לשיטות הקודמות שהוצגו עד כה) היא איננה באמת רגרסיה ליניארית פשוטה, כי הוא לא מחלקת את המשתנים למשתנה תלוי ובלתי-תלויה, ויכול גם להתאים לנתונים קו אנכי.
שאר המאמר מתייחס לרגרסיה בשיטת הריבועים הפחותים הרגילים. בתרחיש זה, השיפוע של הקו המותאם שווה למכפלה של מתאם פירסון בין המשתנים עם היחס בין סטיות התקן שלהם. בנוסף, החותך של קו המגמה מתקבל כך שהקו יעבור דרך מרכז המסה של נקודות הנתונים.[5]
באופן פשטני, ניתן להניח קשר בין המשתנה הבלתי תלוי והמשתנה התלוי אשר נתון בנוסחה:
המתארת ישר עם שיפוע ו-חותך . הבעיה במודל כזה היא שבאופן כללי, קשר כזה עשוי שלא להתקיים בדיוק עבור האוכלוסייה הכללית של המשתנים הבלתי תלויים והתלויים. הסטיות בין הערך שמתקבל מהנוסחה לבין הערך האמיתי נקראות "שגיאות" (אנ'). נניח שנצפו זוגות של נתונים, . ניתן לתאר את הקשר הבסיסי בין לבין הכולל את איבר השגיאה הזה, , בנוסחה:
קשר זה בין הפרמטרים האמתיים (אך לא נצפים) לבין הנתונים נקרא מודל רגרסיה ליניארית.
המטרה היא למצוא שני אומדנים, ו-, עבור הפרמטרים ו- (בהתאמה), אשר יספקו התאמה לנקודות הנתונים, כך שההתאמה תהיה "מיטבית" במובן מסוים. כאמור לעיל, יש יותר מדרך אחת להגדיר את טיב ההתאמה, אבל לשם ההמשך תוגדר ההתאמה המיטבית בשיטת הריבועים הפחותים: על קו המגמה למזער את סכום השאריות בריבוע, (ההפרשים בין הערכים הנצפים והערכים החזויים של המשתנה התלוי y), שכל אחד מהם נתון בנוסחה:
עבור ו כלשהם.
במילים אחרות, ו- פותרים את בעיית האופטימיזציה הבאה:
תיאור המאפיינים הסטטיסטיים של אומדנים מאומדני הרגרסיה הליניארית הפשוטים מחייב שימוש במודל סטטיסטי. להלן מבוסס על הנחת תקפותו של מודל לפיו האומדנים אופטימליים. אפשר גם להעריך את המאפיינים תחת הנחות אחרות, כגון חוסר הומוגניות, אבל זה נדון במקום אחר.
כדי לבסס קביעה זו יש להגדיר מסגרת שבה האומדנים הללו הם משתנים אקראיים. אנו מחשיבים את השאריות כמשתנים אקראיים הנדגמים באופן בלתי תלוי מהתפלגות כלשהי עם תוחלת 0. במילים אחרות, עבור כל ערך של , הערך המתאים של נוצר כתגובה ממוצעת בתוספת משתנה אקראי נוסף הנקרא "איבר השגיאה", השווה לאפס בממוצע. לפי פרשנות כזו, האומדנים הקטנים ביותר בריבועים ו יהיו עצמם משתנים אקראיים שהאמצעים שלהם ישתווה ל"ערכים האמתיים" . זוהי ההגדרה של אומדן חסר הטיה.
הנוסחאות שניתנו בסעיף הקודם מאפשרות לחשב את האומדים הנקודתיים של α ו-β - כלומר, המקדמים של קו הרגרסיה עבור קבוצת הנתונים הנתונה. עם זאת, הנוסחאות הללו אינן אומרות לנו עד כמה ההערכות מדויקות, כלומר, כמה האומדנים ו להשתנות ממדגם למדגם עבור גודל המדגם שצוין. רווחי סמך נוצרו כדי לתת קבוצה סבירה של ערכים לאומדנים שיכולים להיות אם יחזור על הניסוי מספר רב מאוד של פעמים.
השיטה הסטנדרטית לבניית רווחי סמך עבור מקדמי רגרסיה ליניארית מסתמכת על הנחת הנורמליות, המוצדקת אם אחת מהן:
השגיאות ברגרסיה מתפלגות נורמלית (מה שנקרא "הנחת רגרסיה קלאסית"), או
מספר התצפיות n גדול מספיק, ובמקרה זה האומד (estimator) מתפלג נורמלית בערך.
על פי ההנחה הראשונה לעיל, זו של נורמליות איברי השגיאה, האומדן של מקדם השיפוע יתחלק באופן נורמלי עם ממוצע β ושונות כאשר σ2 היא השונות של איברי השגיאה (ראה הוכחות הכוללות ריבועים קטנים רגילים ). באותו זמן סכום השיירים בריבוע Q מתחלק באופן יחסי ל - χ2 עם n − 2 דרגות חופש, ובאופן בלתי תלוי מ . זה מאפשר לנו לבנות ערך t
כאשר
היא "שגיאת התקן" של האומד .
לערך t זה יש התפלגות t t של סטודנט עם n − 2 דרגות חופש. באמצעותו נוכל לבנות רווח סמך עבור β:
ברמת ביטחון (1 − γ), שבו הוא ה quantile של התפלגות tn−2. לדוגמה, אם γ = 0.05 אז רמת הביטחון היא 95%.
באופן דומה, רווח הסמך עבור מקדם החותך α ניתן על ידי
ברמת ביטחון (1 − γ ), שבו
רווחי הסמך עבור α ו-β נותנים לנו את הרעיון הכללי היכן יש סבירות גבוהה ביותר להיות מקדמי רגרסיה אלו. לדוגמה, ברגרסיית חוק האוקון המוצגת כאן, ההערכות הנקודתיות הן
רווחי הסמך של 95% לאומדנים אלה הם
על מנת לייצג מידע זה בצורה גרפית, בצורת פסי הביטחון סביב קו הרגרסיה, יש להתקדם בזהירות ולהתחשב בהתפלגות המשותפת של האומדנים. ניתן להראות [8] שברמת ביטחון (1-γ ) לרצועת הביטחון יש צורה היפרבולית הניתנת על ידי המשוואה
כאשר המודל הניח ש , השגיאה הסטנדרטית של המדרון הופכת ל:
ההנחה השנייה החלופית קובעת שכאשר מספר הנקודות במערך הנתונים "גדול מספיק", חוק המספרים הגדוליםומשפט הגבול המרכזי הופכים לישימים, ואז ההתפלגות של האומדנים היא נורמלית בקירוב. בהנחה זו כל הנוסחאות שנגזרו מהסעיף הקודם נשארות תקפות, למעט החריג היחיד שהquantile t*n −2 של התפלגות t-student מוחלף ב*quantile q של ההתפלגות הנורמלית הסטנדרטית.
במערך הנתונים להלן מופיע משקלן הממוצע של נשים כפונקציה של גובהן, במדגם של נשים אמריקאיות בגילאי 30–39. על אף שהמאמר של OLS טוען שיהיה נכון יותר להפעיל רגרסיה ריבועית עבור נתונים אלה, מודל הרגרסיה הליניארי הפשוט מיושם כאן במקום זאת.
גובה (מ'), xi
1.47
1.50
1.52
1.55
1.57
1.60
1.63
1.65
1.68
1.70
1.73
1.75
1.78
1.80
1.83
מסה (ק"ג), yi
52.21
53.12
54.48
55.84
57.20
58.57
59.93
61.29
63.11
64.47
66.28
68.10
69.92
72.19
74.46
1
1.47
52.21
2.1609
76.7487
2725.8841
2
1.50
53.12
2.2500
79.6800
2821.7344
3
1.52
54.48
2.3104
82.8096
2968.0704
4
1.55
55.84
2.4025
86.5520
3118.1056
5
1.57
57.20
2.4649
89.8040
3271.8400
6
1.60
58.57
2.5600
93.7120
3430.4449
7
1.63
59.93
2.6569
97.6859
3591.6049
8
1.65
61.29
2.7225
101.1285
3756.4641
9
1.68
63.11
2.8224
106.0248
3982.8721
10
1.70
64.47
2.8900
109.5990
4156.3809
11
1.73
66.28
2.9929
114.6644
4393.0384
12
1.75
68.10
3.0625
119.1750
4637.6100
13
1.78
69.92
3.1684
124.4576
4888.8064
14
1.80
72.19
3.2400
129.9420
5211.3961
15
1.83
74.46
3.3489
136.2618
5544.2916
24.76
931.17
41.0532
1548.2453
58498.5439
ישנן n = 15 נקודות במערך הנתונים הזה. חישובי ידיים יתחילו על ידי מציאת חמשת הסכומים הבאים:
כמויות אלה ישמשו לחישוב האומדנים של מקדמי הרגרסיה, ושגיאות התקן שלהם.
השברון 0.975 של התפלגות t-student עם 13 דרגות חופש הוא , ולפיכך רווחי הסמך של 95% עבור α ו-β הם
דוגמה זו גם מדגימה שחישובים מתוחכמים לא יתגברו על השימוש בנתונים שהוכנו בצורה גרועה. הגבהים ניתנו במקור באינצ'ים, והוסבו לסנטימטר הקרוב ביותר. מכיוון שההמרה הציגה שגיאת עיגול, זו אינה המרה מדויקת. ניתן לשחזר את האינצ'ים המקוריים על ידי Round(x/0.0254) ולאחר מכן להמיר מחדש לשיטה מטרית ללא עיגול: אם זה נעשה, התוצאות הופכות
Bangdiwala, S. I. (2018). Regression: simple linear. International journal of injury control and safety promotion, 25(1), 113-115.
Daniya, T., Geetha, M., Kumar, B. S., & Cristin, R. (2020). Least square estimation of parameters for linear regression. International Journal of Control and Automation, 13(2), 447-452.
Hanley, J. A. (2016). Simple and multiple linear regression: sample size considerations. Journal of clinical epidemiology, 79, 112-119.
^Kenney, J. F. and Keeping, E. S. (1962) "Linear Regression and Correlation." Ch. 15 in Mathematics of Statistics, Pt. 1, 3rd ed. Princeton, NJ: Van Nostrand, pp. 252–285