robots.txt
robots.txt — файл в котором описан стандарт поведения для роботов поисковых систем на сайте.
Зачем он нужен?
Поисковые системы постоянно отправляют поисковых роботов в сеть, которые бродят в поисках новых страниц. Обнаружив новую страничку, робот переходит по всем находящимся в ней ссылкам и добавляет их в свою базу. Спустя
Как создать robots.txt?
Создать robots.txt очень просто — с помощью любого простого текстового редактора создаем новый текстовый файл и переименовываем его в robots.txt.
Как настроить robots.txt?
Для управления поведением поисковых роботов на сайте, существует специальная команда
Ниже приведены основные примеры обращений к роботам
* — указывает на то, что после нее идет обращение ко всем поисковым роботам.
User-agent: * # написанная после этой строки команда будет обращена ко всем поисковым роботам User-agent: YandexBot # обращение к основному поисковому роботу Яндекса User-agent: Googlebot # обращение к основному поисковому роботу Google
User-agent: * Disallow: / # запрет доступа всем роботам к сайту
Disallow — команда запрета поисковым роботам.
User-agent: * Disallow: /admin/ # запрет доступа всем роботам к директории /admin/
Allow — разрешает индексировать.
User-agent: Googlebot Disallow: /strawberry/ # запрет доступа определенному роботу (в данном случае роботу Google) к каталогу /strawberry/ Disallow: /strawberry/images/ # а каталог /strawberry/images/ роботу Google мы позволяем индексировать User-agent: YandexBot Allow: / # а роботу Яндекса разрешаем индексировать все
User-agent: * Crawl-delay: 10
Sitemap — указывает адрес карты сайта.
Sitemap: http://site.ru/sitemap.xml # Указывает адрес карты вашего сайта