spark, поддерживаю.
После такого нововведения необходимо существенно увеличивать "прожорливость" робота, лимита в 500 документов для крупных проектов будет недостаточно.
Присоедниясь ко всему, что уже пожелали!
С Днем рождения.
Будет нормально.
NULL, вызов счетчика делается с помощью JS, а в строку вызова, как параметры, входят User-agent и Referer, но страницы, а не картинки, так как именно на странице выполняется скрипт.
Присоединяюсь ко всем пожеланиям.
С Днем рождения, Сергей!
По правилам типографики второй вариант неверен, еще и браузер будет переносить так, что новая строка будет начинаться со скобки.
Правила типографики были описаны еще у Кирсанова.
Между первыми двумя вариантами разница состоит в том, что браузер за вас из первого сделает второй. ;)
Я браузерам не доверяю, поэтому предпочитаю второй вариант, или в виде href="/", или href="http://www.site.com/".
Сергей, я думаю все не совсем так.
Скорее всего это не робот-шпион, да и вообще никакой не специальный робот, да и не в роботе дело, а в алгоритме построения списка ссылок на страницы для посещения роботом. Например, появилась внешняя ссылка на страницу, но страницу эту Гугл знает и в базе ее имеет, так вот и появляется в списке ссылок одна и та же страница, только первая ссылка с известной датой изменения документа, а вторая как бы новая. Позже он их склеивает.
Вот и получается такая карусель.
mnt, Вы проверьте, не мог ли Гугл найти новые ссылки именно на те страницы, которые он запрашивал дважды?
А это делается для того, чтобы действительно проверить, менялся ли документ, или роботу голову морочат.
в связи с изменением структуры поисковой системы Рамблер все наблюдения надо проводить заново, по другому все-таки робот стал работать.