רגרסיה ליניארית פשוטה

רגרסיה ליניארית פשוטה היא מודל רגרסיה ליניארית עם משתנה מסביר יחיד (בסטטיסטיקה)
יש לשכתב ערך זה. הסיבה היא: תרגמת חמורה.
אתם מוזמנים לסייע ולתקן את הבעיות, אך אנא אל תורידו את ההודעה כל עוד לא תוקן הדף. ייתכן שתמצאו פירוט בדף השיחה.

רגרסיה ליניארית פשוטה בסטטיסטיקה היא מודל רגרסיה ליניארית עם משתנה מסביר יחיד. [1][2][3][4]

חוק אוקון במקרו-כלכלה הוא דוגמה לרגרסיה ליניארית פשוטה. בדוגמה זו ההנחה היא שהמשתנה התלוי (גדילת התמ"ג) נמצא בקשר ליניארי עם השינויים בשיעור האבטלה.

בפשטות, נניח שנדגמו פריטים מתוך אוכלוסייה, ונמדדו לכל אחד מהפריטים שתי תכונות מספריות (אותן שתי תכונות בכל פעם). ניתן לשרטט את הנתונים על מערכת צירים קרטזית, כך שהגודל של אחת התכונות הוא שיעור x – המרחק מהציר האנכי – והגודל האחר הוא שיעור y – המרחק מהציר האופקי. עבור שרטוט כזה, רגרסיה ליניארית פשוטה מבקשת לתאר את אוסף הנקודות באמצעות קו מגמה ישר אחד, כך שהמרחק בין הנקודות לקו הוא הקטן ביותר האפשרי (במובן מסוים, שיוסבר בהמשך).

באופן יותר פורמלי, עבור מדגם דו-ממדי, – כך ש-x נקרא המשתנה המנבא, או המשתנה הבלתי תלוי, ו-y נקרא משתנה התוצאה, או המשתנה התלוי – ביצוע הרגרסיה מסתכם במציאת פונקציה ליניארית () שאמורה לנבא, בדיוק גבוה ככל הניתן, את ערכי המשתנה התלוי כפונקציה של המשתנה הבלתי תלוי. שם התואר "פשוטה" מתייחס לכך שמשתנה התוצאה מוסבר באמצעות משתנה מסביר יחיד.

שיטות רגרסיה שונות

עריכה

מקובל להשתמש בשיטת הריבועים הפחותים הרגילים (אנ') (OLS) המגדירה את גודל השגיאה בין קו התחזית (קו הרגרסיה) לבין כל אחת מנקודות המדגם לפי ריבוע השארית שלה (דהיינו, המרחק האנכי בין הנקודה לבין הקו המותאם), והמטרה היא לצמצם ככל הניתן את סכום השאריות בריבוע.

בין שיטות הרגרסיה האחרות שניתן להשתמש בהן, במקום שיטת הריבועים הפחותים, ניתן למנות את שיטת הסטיות המוחלטות הפחותות (אנ') (ממזערת את סכום הערכים המוחלטים של השאריות) ואת אומדן Theil-Sen (אנ') (הבוחר קו שהשיפוע שלו הוא החציון של השיפועים שנקבע על ידי זוגות של נקודות המדגם). גם רגרסיית דמינג (אנ') מוצאת קו שמתאים לקבוצה של מדגם דו-ממדי, אבל (בניגוד לשיטות הקודמות שהוצגו עד כה) היא איננה באמת רגרסיה ליניארית פשוטה, כי הוא לא מחלקת את המשתנים למשתנה תלוי ובלתי-תלויה, ויכול גם להתאים לנתונים קו אנכי.

שאר המאמר מתייחס לרגרסיה בשיטת הריבועים הפחותים הרגילים. בתרחיש זה, השיפוע של הקו המותאם שווה למכפלה של מתאם פירסון בין המשתנים עם היחס בין סטיות התקן שלהם. בנוסף, החותך של קו המגמה מתקבל כך שהקו יעבור דרך מרכז המסה של נקודות הנתונים.[5]

התאמת קו הרגרסיה

עריכה

באופן פשטני, ניתן להניח קשר בין המשתנה הבלתי תלוי   והמשתנה התלוי   אשר נתון בנוסחה:

 

המתארת ישר עם שיפוע   ו-חותך  . הבעיה במודל כזה היא שבאופן כללי, קשר כזה עשוי שלא להתקיים בדיוק עבור האוכלוסייה הכללית של המשתנים הבלתי תלויים והתלויים. הסטיות בין הערך שמתקבל מהנוסחה לבין הערך האמיתי נקראות "שגיאות" (אנ'). נניח שנצפו   זוגות של נתונים,  . ניתן לתאר את הקשר הבסיסי בין   לבין   הכולל את איבר השגיאה הזה,  , בנוסחה:

 

קשר זה בין הפרמטרים האמתיים (אך לא נצפים)   לבין הנתונים נקרא מודל רגרסיה ליניארית.

המטרה היא למצוא שני אומדנים,   ו- , עבור הפרמטרים   ו-  (בהתאמה), אשר יספקו התאמה לנקודות הנתונים, כך שההתאמה תהיה "מיטבית" במובן מסוים. כאמור לעיל, יש יותר מדרך אחת להגדיר את טיב ההתאמה, אבל לשם ההמשך תוגדר ההתאמה המיטבית בשיטת הריבועים הפחותים: על קו המגמה למזער את סכום השאריות בריבוע,   (ההפרשים בין הערכים הנצפים והערכים החזויים של המשתנה התלוי y), שכל אחד מהם נתון בנוסחה:

 

עבור   ו   כלשהם.

במילים אחרות,   ו-  פותרים את בעיית האופטימיזציה הבאה:

”מצאו את  , בהינתן
 

מציאת אומדנים  

עריכה

תחילה נגדיר את הסימון   - הממוצע של המדגם  , כלומר  .

על מנת למצוא את  , נגזור את הפונקציה: [6][7]

 

נראה כי   תלוי ב  . נמצא כעת את  :

 

כאשר בנקודות אנחנו עושים פישוט אלגברי לביטוי. לכן נקבל סה"כ:

 

כאן הצגנו

על ידי החלפה של הביטויים לעיל עבור   ו   ל

  נקבל

 

זה מראה ש-rxy הוא השיפוע של קו הרגרסיה של נקודות הנתונים הסטנדרטיות (ושהקו הזה עובר דרך המקור).

נראה כי נקבל:

 

מקדם המתאם ("R בריבוע") שווה ל   כאשר המודל הוא ליניארי עם משתנה בלתי תלוי בודד. ראה מקדם מתאם לדוגמה לפרטים נוספים.

רגרסיה ליניארית פשוטה ללא חותך (רגרסור בודד)

עריכה

לפעמים ראוי להכריח את קו הרגרסיה לעבור דרך המוצא, כי מניחים ש -   ו-  הם פרופורציונליים. עבור המודל ללא החותך,  , אומדן OLS עבור β מפושט ל-

 

שימוש בהתמרה   נותנת את הרגרסיה דרך  :

 

כאשר   הם השונות המשותפת והשונות (covariance and variance) של נתוני המדגם (ללא תיקון בסל).

הצורה האחרונה שלמעלה מדגימה כיצד הרחקת הקו ממרכז המסה של נקודות הנתונים משפיעה על השיפוע.

מאפיינים מבוססי מודל

עריכה

תיאור המאפיינים הסטטיסטיים של אומדנים מאומדני הרגרסיה הליניארית הפשוטים מחייב שימוש במודל סטטיסטי. להלן מבוסס על הנחת תקפותו של מודל לפיו האומדנים אופטימליים. אפשר גם להעריך את המאפיינים תחת הנחות אחרות, כגון חוסר הומוגניות, אבל זה נדון במקום אחר.

היעדר הטיה

עריכה

האומדים   ו-  הם בלתי-מוטים (unbiased).

כדי לבסס קביעה זו יש להגדיר מסגרת שבה האומדנים הללו הם משתנים אקראיים. אנו מחשיבים את השאריות   כמשתנים אקראיים הנדגמים באופן בלתי תלוי מהתפלגות כלשהי עם תוחלת 0. במילים אחרות, עבור כל ערך של  , הערך המתאים של   נוצר כתגובה ממוצעת   בתוספת משתנה אקראי נוסף   הנקרא "איבר השגיאה", השווה לאפס בממוצע. לפי פרשנות כזו, האומדנים הקטנים ביותר בריבועים   ו   יהיו עצמם משתנים אקראיים שהאמצעים שלהם ישתווה ל"ערכים האמתיים"  . זוהי ההגדרה של אומדן חסר הטיה.

רווחי סמך

עריכה

הנוסחאות שניתנו בסעיף הקודם מאפשרות לחשב את האומדים הנקודתיים של α ו-β - כלומר, המקדמים של קו הרגרסיה עבור קבוצת הנתונים הנתונה. עם זאת, הנוסחאות הללו אינן אומרות לנו עד כמה ההערכות מדויקות, כלומר, כמה האומדנים   ו   להשתנות ממדגם למדגם עבור גודל המדגם שצוין. רווחי סמך נוצרו כדי לתת קבוצה סבירה של ערכים לאומדנים שיכולים להיות אם יחזור על הניסוי מספר רב מאוד של פעמים.

השיטה הסטנדרטית לבניית רווחי סמך עבור מקדמי רגרסיה ליניארית מסתמכת על הנחת הנורמליות, המוצדקת אם אחת מהן:

  1. השגיאות ברגרסיה מתפלגות נורמלית (מה שנקרא "הנחת רגרסיה קלאסית"), או
  2. מספר התצפיות n גדול מספיק, ובמקרה זה האומד (estimator) מתפלג נורמלית בערך.

המקרה האחרון מוצדק על ידי משפט הגבול המרכזי.

הנחת נורמליות

עריכה

על פי ההנחה הראשונה לעיל, זו של נורמליות איברי השגיאה, האומדן של מקדם השיפוע יתחלק באופן נורמלי עם ממוצע β ושונות   כאשר σ2 היא השונות של איברי השגיאה (ראה הוכחות הכוללות ריבועים קטנים רגילים ). באותו זמן סכום השיירים בריבוע Q מתחלק באופן יחסי ל - χ2 עם n − 2 דרגות חופש, ובאופן בלתי תלוי מ  . זה מאפשר לנו לבנות ערך t

 

כאשר

 

היא "שגיאת התקן" של האומד  .

לערך t זה יש התפלגות t t של סטודנט עם n − 2 דרגות חופש. באמצעותו נוכל לבנות רווח סמך עבור β:

 

ברמת ביטחון (1 − γ), שבו   הוא ה   quantile של התפלגות tn−2. לדוגמה, אם γ = 0.05 אז רמת הביטחון היא 95%.

באופן דומה, רווח הסמך עבור מקדם החותך α ניתן על ידי

 

ברמת ביטחון (1 − γ ), שבו

 
 
רגרסיה של ארצות הברית בעקומה: "השינויים באבטלה - צמיחת התמ"ג" עם רווח סמך ברמת ביטחון של 95%.

רווחי הסמך עבור α ו-β נותנים לנו את הרעיון הכללי היכן יש סבירות גבוהה ביותר להיות מקדמי רגרסיה אלו. לדוגמה, ברגרסיית חוק האוקון המוצגת כאן, ההערכות הנקודתיות הן

 

רווחי הסמך של 95% לאומדנים אלה הם

 

על מנת לייצג מידע זה בצורה גרפית, בצורת פסי הביטחון סביב קו הרגרסיה, יש להתקדם בזהירות ולהתחשב בהתפלגות המשותפת של האומדנים. ניתן להראות [8] שברמת ביטחון (1-γ ) לרצועת הביטחון יש צורה היפרבולית הניתנת על ידי המשוואה

 

כאשר המודל הניח ש  , השגיאה הסטנדרטית של המדרון הופכת ל:

 

עם:  

הנחה אסימפטוטית

עריכה

ההנחה השנייה החלופית קובעת שכאשר מספר הנקודות במערך הנתונים "גדול מספיק", חוק המספרים הגדולים ומשפט הגבול המרכזי הופכים לישימים, ואז ההתפלגות של האומדנים היא נורמלית בקירוב. בהנחה זו כל הנוסחאות שנגזרו מהסעיף הקודם נשארות תקפות, למעט החריג היחיד שהquantile t* n −2 של התפלגות t-student מוחלף ב*quantile q של ההתפלגות הנורמלית הסטנדרטית.

דוגמה מספרית

עריכה

במערך הנתונים להלן מופיע משקלן הממוצע של נשים כפונקציה של גובהן, במדגם של נשים אמריקאיות בגילאי 30–39. על אף שהמאמר של OLS טוען שיהיה נכון יותר להפעיל רגרסיה ריבועית עבור נתונים אלה, מודל הרגרסיה הליניארי הפשוט מיושם כאן במקום זאת.

גובה (מ'), xi 1.47 1.50 1.52 1.55 1.57 1.60 1.63 1.65 1.68 1.70 1.73 1.75 1.78 1.80 1.83
מסה (ק"ג), yi 52.21 53.12 54.48 55.84 57.20 58.57 59.93 61.29 63.11 64.47 66.28 68.10 69.92 72.19 74.46
           
1 1.47 52.21 2.1609 76.7487 2725.8841
2 1.50 53.12 2.2500 79.6800 2821.7344
3 1.52 54.48 2.3104 82.8096 2968.0704
4 1.55 55.84 2.4025 86.5520 3118.1056
5 1.57 57.20 2.4649 89.8040 3271.8400
6 1.60 58.57 2.5600 93.7120 3430.4449
7 1.63 59.93 2.6569 97.6859 3591.6049
8 1.65 61.29 2.7225 101.1285 3756.4641
9 1.68 63.11 2.8224 106.0248 3982.8721
10 1.70 64.47 2.8900 109.5990 4156.3809
11 1.73 66.28 2.9929 114.6644 4393.0384
12 1.75 68.10 3.0625 119.1750 4637.6100
13 1.78 69.92 3.1684 124.4576 4888.8064
14 1.80 72.19 3.2400 129.9420 5211.3961
15 1.83 74.46 3.3489 136.2618 5544.2916
  24.76 931.17 41.0532 1548.2453 58498.5439

ישנן n = 15 נקודות במערך הנתונים הזה. חישובי ידיים יתחילו על ידי מציאת חמשת הסכומים הבאים:

 

כמויות אלה ישמשו לחישוב האומדנים של מקדמי הרגרסיה, ושגיאות התקן שלהם.

 
 
גרף של נקודות וקווי ריבועים קטנים ליניאריים בדוגמה המספרית של רגרסיה ליניארית פשוטה

השברון 0.975 של התפלגות t-student עם 13 דרגות חופש הוא  , ולפיכך רווחי הסמך של 95% עבור α ו-β הם

 

ניתן גם לחשב את מקדם המתאם של מכפלת המומנטים:

 

דוגמה זו גם מדגימה שחישובים מתוחכמים לא יתגברו על השימוש בנתונים שהוכנו בצורה גרועה. הגבהים ניתנו במקור באינצ'ים, והוסבו לסנטימטר הקרוב ביותר. מכיוון שההמרה הציגה שגיאת עיגול, זו אינה המרה מדויקת. ניתן לשחזר את האינצ'ים המקוריים על ידי Round(x/0.0254) ולאחר מכן להמיר מחדש לשיטה מטרית ללא עיגול: אם זה נעשה, התוצאות הופכות

 

לפיכך לשונות קטנה לכאורה בנתונים יש השפעה ממשית.

ראו גם

עריכה

לקריאה נוספת

עריכה
  • Bangdiwala, S. I. (2018). Regression: simple linear. International journal of injury control and safety promotion, 25(1), 113-115.
  • Daniya, T., Geetha, M., Kumar, B. S., & Cristin, R. (2020). Least square estimation of parameters for linear regression. International Journal of Control and Automation, 13(2), 447-452.
  • Hanley, J. A. (2016). Simple and multiple linear regression: sample size considerations. Journal of clinical epidemiology, 79, 112-119.

קישורים חיצוניים

עריכה

הערות שוליים

עריכה
  1. ^ Howard J. Seltman, Experimental Design and Analysis https://www.stat.cmu.edu/~hseltman/309/Book/Book.pdf, 2018
  2. ^ David M. Lane, Introduction to Statistics, https://onlinestatbook.com
  3. ^ Kelly H. Zou, Kemal Tuncali, Stuart G. Silverman, Correlation and Simple Linear Regression https://pubs.rsna.org/doi/10.1148/radiol.2273011499, Radiology Vol. 227, No. 3
  4. ^ Altman, Naomi; Krzywinski, Martin, Simple linear regression https://www.nature.com/articles/nmeth.3627, Nature Methods
  5. ^ נחי אברהם (על בסיס הרצאות מפי פרופ' אור צוק), רגרסיה ומודלים ליניאריים, 2015
  6. ^ Kenney, J. F. and Keeping, E. S. (1962) "Linear Regression and Correlation." Ch. 15 in Mathematics of Statistics, Pt. 1, 3rd ed. Princeton, NJ: Van Nostrand, pp. 252–285
  7. ^ Thomas J. Quirk, Meghan H. Quirk & Howard F. Horton, Correlation and Simple Linear Regression, Excel 2019 for Environmental Sciences Statistics https://link-springer-com.rproxy.tau.ac.il/chapter/10.1007/978-3-030-66277-6_6: pp 113-155, 10 April 2021
  8. ^ Casella, G. and Berger, R. L. (2002), "Statistical Inference" (2nd Edition), Cengage, ISBN 978-0-534-24312-8, pp. 558–559.