Я уже привёл наиболее корректный вариант, не понимаю к чему вы затеяли этот спор.
На robots.txt нет стандарта. А ваша проверялка хавает и урлы с километровыми слешами подряд. И чо? В хелпе Яндекса приведены проверенные примеры которые точно будут работать. Им лучше и следовать, остальное - догадки и предположения.
Признаю ошибку только там где я указал о вхождении в любом месте. Таки да, робот это должен считать началом строки.
К слову, урл начинается не со слэша, а с указания схемы. А часть урла - урл-пас не включает ни слеш, ни get параметры. Поэтому если вы уж начали заниматься буквоедством, то давайте признаем что дока на которую вы ссылаетесь написана технически неграмотно. Но это бессмысленный флуд и спам, в который я ввязыватсья не собираюсь.
Начинаются, и чо? Робот проверяет вхождение, а не соблюдение вами стандартов.
Ну вы прям как школьнег
Вот Медведев, вот Собянин
Даже окна пвх есть. Но они не очень смешные.
Оба запретят любые URL c feedback.aspx, вклюая что-то вроде /catalog/feedback.aspx/node/item.php?blahblah
Disallow: feedback.aspx
Должно запретить любые URL начинающиеся с feedback.aspx, к примеру /feedback.aspx/node/item.php?blahblah
Но лучше делать так:
Disallow: /feedback.aspx
Если нужно запретить все URL, содержащие именно файл feedback.aspx (не каталог!) со всеми возможными параметрами, то делается так:
Disallow: feedback.aspx? # знак вопроса - в случае дополнительных параметров Disallow: feedback.aspx$ # символ окончания строки в случае отсутствия доппараметров
Только файлы с именами типа anotherfeedback.aspx тоже будут исключаться.
Если хотите сделать как по учебнику можно извратиться так:
Disallow: /*/feedback.aspx? Disallow: /*/feedback.aspx$
Пожалуй, это единственный кошерный вариант. :-)
Сейчас это в порядке вещей. У меня несколько новых сайтов то вылетают, то влетают в индекс. чаще вылетают. Но статистика говорит что контент здесь никакой роли не играет. У Яндекса либо шибко закрученный алгоритм, либо проблемы с распределением нагрузки. Скорее всего последнее - просто не справляются с задачами.
Как тут уже отметили многие умники, лучше бы они поисковыми алгоритмами и расширением мощностей занимались, а не всякой х...ёй.
Последние пару месяцев новые сайты практически не индексируются, независимо от того уникальный ли там контент, как часто он пополняется, хороший ли дизайн и на каком хотинге сайт расположен. Тем временем старые сайты продолжают жить прежней жизнью.
Такой вот смешной Яндексь.
Предсказывают только цыганки и аналитики фондовых рынков. А мы делаем прогнозы, даже если говорим о непредсказуем поведении системы. Вы же заводите зачем-то сайт в индекс и покупаете ссылки -- значит, прогнозируете какой-то результат (с той или иной степенью достоверности).
А вот как она помогает - мой маленький секрет, который я скажу только по большой дружбе. :)
webpavilion, chaser
Мне ваши графики нравятся, хотя отмечу что оформлены они некорректно (было бы лучше нарисовать бары в обоих случаях), но к чёру придирки...
По данным можно вычислить математическое ожидание апдейта, что помогает в разработке годового плана продвижения ресурса. 20 дней или 50 в конкретном случае не играют роли.
Почему у кого-то находится желание делать подобные комментарии? 😆
Бизнес, мля... 🚬
ChangeWeb, кинул вам в личку и стукнул в аську.
Не, так как-то выходит что вопрос не закрываицо.
А в чём страх? Тоже нет желания идентифицироваться перед Яндексом?
Так они мне целую простыню накатали как будет зашибенно если завести идентифицированный кошель. Хотите текст покажу?
"За просто так" я лучше голодным студентам отдам. Они хотя бы не будут кривляться "фу, рубли, как нам лень куда-то ходить за этими копейками..."
😂