Добрый день!
Уведомляем вас об изменениях в обработке директивы 'Allow' файла robots.txt, с помощью которого вы можете разрешить или запретить индексирование сайта поисковым роботом Яндекса.
По новым правилам, если страница сайта попадает под действие нескольких директив 'Allow' и/или 'Disallow', то будет применяться директива с наибольшей длиной префикса URL. При определении длины префикса спецсимвол '*' не учитывается.
Если на вашем сайте в robots.txt совместно используются директивы 'Allow' и 'Disallow', пожалуйста, проверьте их на соответствие новым стандартам. В этом вам поможет наша форма проверки robots.txt.
Подробнее об использовании директив вы можете прочитать в Помощи.
--
С уважением,
Яндекс.Вебмастер
Вот и думаю на тему соответствия наших robots.txt новым стандартам...
Кто желает прокомментировать заявление Яндекс?
pravila.png (44.42 КБ) 2333 просмотра
Форум E-ProfiCom точка ru - Электронная коммерция, инфобизнес, сайтостроение
Думаю эти правила могут сказаться на некоторых движках, в которых адреса страниц очень сложные. Когда я делаю файл robots, стараюсь задавать правила так чтобы каждый вид адреса подпадал под действие только одной директивы. А вообще правило довольно логичное: открываем для скачивания весь сайт и закрываем некоторые страницы от индексации. Отдельные страницы обычно имеют более длинный адрес или префикс.