Именно :)
И это усё покажет http://www.searchengineworld.com/ :)
Пасиба за разъяснения :) Век живи, век учись!
А проблема была действительно в ДНК :)
Добавил снова строки в роботс, вручную засабмитил, получил ответ, что файлы будут удалены из базы по мере обхода робота! Перефразирую вопрос: "Почему автоматом не хочет удалять, а ведь цепляет роботс почти каждый день?". И еще... из роботса строки я опять удалил, уж дюже стремно опять накосяпорить и вывалиться на три недели :) А если в следующий обход бот не обнаружит дисалловных строк, он опять проиндексит старую динамику ? :) :) :)
В том-то и фокус, что запрос ошибок не генерит :) Так было задумано, чтоб из выдачи не пропадать по мере переиндексации с мод_реврайтом :)
Забубенил в роботс запреты на старые запросы, не помогает, бот проезжается по ним, получает опять 200 и ничего не делает :(
А вот и ответик :(
URL доступен и не запрещен в /robots.txt. Нет оснований для удаления.
Да ерунда это, полнейшая! Хавает и не давится даже тремя уровнями переменных (больше у меня нет, а в выдаче искать не хочу даже).
А Вам holms следует к таким утверждениям дописывать ИМХО
А почему именно так? Типа схавает такую конструкцию? :)
<script language='JavaScript'>document.write('<a href="http://">Click here</a>');</script>
Почитайте, вот здесь:
+%F1%F1%FB%EB%EA%E8
А если лень, то вот так :)
Вот о том и речь! Данная "конструкция" не может по определению поднять страницу! Есть сотни более весомых факторов, которые влияют на ранжирование!
Не забанят :)