XGBoost[1] היא ספריית תוכנה קוד פתוח המספקת מסגרת נירמול (regularizing) וחיזוק גרדיאנט לשפות: C ++, Java,Python,[2][3] ג'וליה,[4] Perl,[5] וסקאלה. XGBoost עובדת על לינוקס, Windows,[6] ו- macOS.[7] מתוך תיאור הפרויקט, היא שואפת לספק "ספרייה להגברת הדרגתיות ניתנת להרחבה, ניידת ומבוזרת (GBM, GBRT, GBDT). XGBoost פועל על מכונה בודדת, כמו גם על מסגרות עיבוד מבוזרות Apache Hadoop, Apache Spark, Apache Flink ו- Dask.[8][9]

XGBoost
גרסה אחרונה 2.0.3 (19 בדצמבר 2023) עריכת הנתון בוויקינתונים
מערכת הפעלה לינוקס עריכת הנתון בוויקינתונים
נכתבה בשפות R, C++, ג'וליה, פייתון, Java עריכת הנתון בוויקינתונים
סוג רישיון אפאצ'י 2.0 עריכת הנתון בוויקינתונים
קוד מקור https://github.com/dmlc/xgboost עריכת הנתון בוויקינתונים
xgboost.ai
לעריכה בוויקינתונים שמשמש מקור לחלק מהמידע בתבנית

הספרייה זכתה לפופולריות רבה ותשומת לב בתור האלגוריתם המועדף עבור צוותים מנצחים רבים של תחרויות למידת מכונה.[10]

היסטוריה עריכה

XGBoost התחילה כפרויקט מחקר של טיאנקי צ'ן[11] כחלק מקבוצת ה-Distributed (Deep) Machine Learning Community (או DMLC). בתחילה, כיישום מסוף שניתן להגדיר באמצעות קובץ תצורה של libsvm. הוא התפרסם בחוגי התחרות ב-ML לאחר השימוש בו בפתרון המנצח של אתגר למידת המכונה של Higgs. זמן קצר לאחר מכן, חבילות Python ו-R נבנו, ול-XGBoost יש כעת הטמעת חבילות עבור Java, Scala, Julia, Perl ושפות אחרות. זה הביא את הספרייה למפתחים נוספים ותרם לפופולריות שלה בקרב קהילת Kaggle, שם היא שימשה למספר רב של תחרויות.[10]

עד מהרה הוא שולב עם מספר חבילות אחרות מה שהופך אותו קל יותר לשימוש בקהילות שלהם. כעת הוא שולב עם scikit-learn עבור משתמשי Python ועם חבילת caret עבור משתמשי R. ניתן לשלב אותו גם במסגרות Data Flow כמו Apache Spark, Apache Hadoop ו- Apache Flink באמצעות ה-Rabit המופשט[12] ו-XGBoost4J.[13] ספריית XGBoost זמינה גם ב- OpenCL עבור FPGAs.[14] יישום יעיל וניתן להרחבה של XGBoost פורסם על ידי Tianqi Chen ו-Carlos Guestrin.

מאפיינים עריכה

תכונות בולטות של XGBoost שמבדילות אותו מאלגוריתמים אחרים של Gradient boosting כוללות:[15][16][17]

  • ענישה חכמה של עצים
  • כיווץ פרופורציונלי של צמתי עלים
  • ניוטון בוסטינג
  • פרמטר אקראי יתיר
  • יישום על מערכות בודדות, מבוזרות ומחשוב מחוץ לליבה
  • בחירת מאפיינים (Feature selection) אוטומטית

אלגוריתם עריכה

בשונה מאלגוריתם מסוג חיזוק גרדיאנט (gradient boosting) שפועל כדעיכת גרדיאנט, ‏XGBoost עובד כ"ניוטון-רפסון" במרחב הפונקציונלי. שערוך טיילור מסדר שני משמש בתור פונקציית ההפסד כדי לקשר למתודת ניוטון-רפסון.

אלגוריתם גנרי של XGBoost, עם נתוני קלט:  , פונקציית הפסד:  , מספר "לומדים חלשים":  , וקצב למידה:  .

  1. מודל ראשוני עם ערך 0:
     
  2. עבור m = 1 עד M:
    1. חישוב הגרדיאנטים וההסיאנים:
       
       
    2. התאמת לומד בסיסי (או לומד חלש, כמו עץ) בעזרת נתוני האימון   על ידי פתירת בעיית האופטימיזציה שלהלן:
       
       
    3. עדכון המודל:
       
  3. פלט  

פרסים עריכה

הערות שוליים עריכה

  1. ^ "GitHub project webpage".
  2. ^ "Python Package Index PYPI: xgboost". נבדק ב-2016-08-01.
  3. ^ "CRAN package xgboost". נבדק ב-2016-08-01.
  4. ^ "Julia package listing xgboost". נבדק ב-2016-08-01.
  5. ^ "CPAN module AI::XGBoost". נבדק ב-2020-02-09.
  6. ^ "Installing XGBoost for Anaconda in Windows". נבדק ב-2016-08-01.
  7. ^ "Installing XGBoost on Mac OSX". נבדק ב-2016-08-01.
  8. ^ "Dask Homepage".
  9. ^ "Distributed XGBoost with Dask — xgboost 1.5.0-dev documentation". xgboost.readthedocs.io. נבדק ב-2021-07-15.
  10. ^ 1 2 "XGBoost - ML winning solutions (incomplete list)". נבדק ב-2016-08-01.
  11. ^ "Story and Lessons behind the evolution of XGBoost". נבדק ב-2016-08-01.
  12. ^ "Rabit - Reliable Allreduce and Broadcast Interface". נבדק ב-2016-08-01.
  13. ^ "XGBoost4J". נבדק ב-2016-08-01.
  14. ^ "XGBoost on FPGAs". נבדק ב-2019-08-01.
  15. ^ Gandhi, Rohith (2019-05-24). "Gradient Boosting and XGBoost". Medium (באנגלית). נבדק ב-2020-01-04.
  16. ^ "Boosting algorithm: XGBoost". Towards Data Science (באנגלית). 2017-05-14. נבדק ב-2020-01-04.
  17. ^ "Tree Boosting With XGBoost – Why Does XGBoost Win "Every" Machine Learning Competition?". Synced (באנגלית אמריקאית). 2017-10-22. נבדק ב-2020-01-04.
  18. ^ "John Chambers Award Previous Winners". נבדק ב-2016-08-01.
  19. ^ "HEP meets ML Award". נבדק ב-2016-08-01.