Как-то давно показывали пример перестановки параметров в ссылке из выдачи.
/ru/forum/search-engines/yandex
200
Правила это. Для «вежливых роботов».
А если каждый посетитель смотрит единственную страницу?
На странице выдачи гугла так и есть. Это экономит HTTP-обращения...
Но вы не можете закрыть от индексации ваш JS в robots.txt
Откуда это правило?
И почему его “не соблюдают” как бы сеошные сайты?
Сможете это показать? // знаков препинания в запросах не чувствуют
До этого вопроса может и не дойти...
http://slash.500mb.net/w//
http://slash.500mb.net/w///
проблема в том, как индексатор проверяет наличие урла в индексе... при принятии решения об индексации.
А если не пошутил?
Т.е. они и регистр урла в запросе не чувствуют (это уже давняя традиция).
А не только слеши
А что это такое? Диплом дают?
Можно ли получить санкции за прогон по каталогам?
Может ли что-то долго оставаться эффективным?.. если SEO уже умерло давно.
Почему умерло SEO, ведь мы так хорошо научились перелинковывать автоматом.
Подделать тоже.
Этой проблемой ранжирующие системы не занимаются.
А ещё есть куча рерайта... что вы про него будете определять?
Как-то покажите это... про разделы/
А потому что он делает бабло не на распознавании первоисточника.
А у воров больше времени на адптацию сайта под гугл...