פרוטוקול אי הכללת רובוטים – הבדלי גרסאות

תוכן שנמחק תוכן שנוסף
Israeler (שיחה | תרומות)
אין תקציר עריכה
לא אנציקלופדי
שורה 2:
'''פרוטוקול robots.txt''' הוא מוסכמה המאפשרת למנהל [[אתר אינטרנט]] ([[Webmaster]]) להגדיר כיצד יסרק האתר על ידי [[מנוע חיפוש|מנועי חיפוש]] ו[[בוט|בוטים]] אחרים המצייתים לפרוטוקול. הגדרה זו מתבצעת באמצעות קובץ בשם '''robots.txt''' ומכיל תחביר מיוחד ונמצא בספריית השורש (root) של האתר. פרוטוקול זה משמש בעיקר להסתרה של חלקים מסוימים באתר ממנועי חיפוש.
 
ע"י שימוש בפרטוקול זה אפשר להורות לגוגללמנועי חיפוש לסרוק דפים באתר או לא לאנדקס אותם.
 
כאשר משתמשים בפלאגין של גוגל - Web master tools רצוי לספר לגוגל על הקובץ ובכך לידע אותו על מה לסרוק
==קישורים חיצוניים==
* [http://he.wikipedia.org/robots.txt קובץ robots.txt של ויקיפדיה העברית]
 
{{קצרמר|מחשבים}}