pvik1970, для закрытия всего того, что не прописано в allow. Другими словами, запрет всего, что не разрешено.
Пардон! Значит Яшка не использует кэш файла при проверках, в отличие от гугла)
При удалении строки, все как положено) Спасибо
Будете смеяться, скрин из ЯВ:
На странице http://webmaster.yandex.ru/robots.xml для моего аккаунта такой же результат (разрешен).
МИСТИКА! )
Сделано для точного определения тех страниц, которые должны быть в индексе. Просто диссалоу этого не сделать, либо будет слишком много запрещающих строк.
Я об этом думал, однако на нескольких других сайтах тоже используются подобные конструкции и проблем не возникало. Проверял в "Заблокированных URL", пишет, что разрешено (правда при этом не показывает каким именно правилом).
С другой стороны, это имеет место быть, т.к. раньше сайтмэпа тоже не было прописано, но в определенный момент гугл ругнулся на то, что он запрещен в роботсе. Совсем забыл об этом инциденте(
Сейчас добавил строчку разрешающую robots.txt, посмотрим, что это даст в итоге. Спасибо, что заострили внимание!
UPD: проверил на нескольких сайтах, где используются только диссалоу конструкции и разница в том, что при просмотре как GoogleBot, он действительно может получить robots.txt. Добавлю конструкцию на всех сайтах. Большое спасибо!
Сайт в подписи, буду благодарен за любые идеи.
P.S. Странно, что нет, должна же быть какая-то обратная связь, для того же выявления ошибок и т.д.
Очень странная ситуация(( На данный момент ситуация с ПУ не изменилась, падение продолжилось. Пока не могу выявить причины.
P.S. Все больше убеждаюсь, что здесь присутствует какая-то ошибка со стороны Гугла. Как можно оперативно связаться с поддержкой гугла?
Ребят, спасайте!
Выяснилось, что при запросе #url="www.site.ru" вылазиет 2 главные страницы, хотя при просмотре всех проиндексированных, показывается устаревшая главная стараница ...
Насчет уникального запроса: http://www.yandex.ru/yandpage?&q=2130826474&p=1&text=%E1%E5%F1%EF%EB%E0%F2%ED%FB%E5+%F8%E0%E1%EB%EE%ED%FB+%F1%E0%E9%F2%EE%E2+%F1%EA%E0%F7%E0%F2%FC+%EE%F2%F1%EE%F0%F2%E8%F0%EE%E2%E0%ED%EE+%EF%EE+%E4%E0%F2%E5&stype=www
это тот пример, который я отправлял в суппорт. По НЧ он местами ищется, особенно, если взять определенную книгу (страницы 3 уровня). Но очень сложно найти раздел сайта по уникальному запросу, а они куда более весомые, нежели еденицы информации.
Насчет неучета ссылок это куда более вероятный факт, говоря об обнулении вИЦ я это подразумевал. (вот только никто в этом не признается) Платону отписал с темой: "Сайт не виден по релевантным запросам", недавно ответил, что проверять если проблемы с их стороны. Жду.
Может там топ10 весь плотно забит с высокой степенью конкуренции.
Ну, если учесть, что сайт находился все время в ТОП10, то я вынужден не согласиться, ибо сайт упал, а остальные остались.
P.S. Когда это случилось, а именно 23 декабря, я подумал было, что это наказание за продажу 15 ссылок внизу сайта (тогда я рекордно увеличил с 10 до 15)... думал, из-за этого отключили ссылочное ранжирование, но прошло уже больше 3 месяцем и без изменений:( Хелп.
Решил попробовать закрыть от индексации каталог сайтов для Яшки, может быть что нить измениться в лучшую сторону...
Прошел еще 1 АП, а изменений нет... может быть есть у кого мнения по этому поводу?
Был АП ТИЦ, подрос, а вот позиции даже на дюйм не вернулись.
Насчет падения заходов с Яши с 600 до 150 я не учел тот факт, что форум на отдельном домене, но счетчики едины, могу сказать, что на сайт с Яши вообще никто не ходит:(
Попробовал заново отписать в поддержку. Жду ответа.