פרוטוקול אי הכללת רובוטים

תקן המגדיר לזחלני רשת לא לאנדקס דפים נבחרים של אתר

פרוטוקול אי הכללת רובוטים או robots.txt הוא מוסכמה המאפשרת למנהל אתר אינטרנט (Webmaster) להגדיר כיצד יסרק האתר על ידי מנועי חיפוש ובוטים אחרים המצייתים לפרוטוקול. הגדרה זו מתבצעת באמצעות קובץ בשם robots.txt המכיל תחביר מיוחד ונמצא בספריית השורש (root) של האתר. פרוטוקול זה משמש בעיקר להסתרה של חלקים מסוימים באתר ממנועי חיפוש.

על ידי שימוש בפרוטוקול זה אפשר להורות למנועי חיפוש לא לאנדקס דפים מסוימים באתר.

ראו גםעריכה

קישורים חיצונייםעריכה

  ערך זה הוא קצרמר בנושא מחשבים. אתם מוזמנים לתרום לוויקיפדיה ולהרחיב אותו.