Сквозные ссыки склеиваются поисковиком. То есть засчитываются не как сумма ссылок со всех страниц, а как одна, с самой релевантной страницы. Причем признана самой релевантной может быть любая страница, не обязательно главная.
Мне казалось, это уже обсуждалось на форуме.
Воистину Рамблер разлюбил. Трафик с Рамблера после апдейта упал в десять раз - с 1000 до 100 человек.
Сайт старый. Внезапного появления большого количества ссылок не было - все потихоньку. Счетчика Топ-100 нет.
Что изменилось за этот апдейт? Стали учитываться какие-то новые факторы? Поделитесь соображениями, пожалуйста.
Совершенно нормальная ситуация, банить за это, конечно, никто не будет. Где здесь спам?
Ссылка с морды отличается от ссылки с внутренней только вИЦем и ПР ссылающейся страницы, так? В этом случае, если хорошо прокачать, например, каталогами, морду субдомена - получите ссылку с морды, если этого не делать - получите ссылку в внутренней страницы.
Очень интересно было бы узнать эти соображения. Подозреваю, что их нет - и "разделенных" доменов и поддоменов (т.е. присутствующих в выдаче по одному и тому же запросу) вообще не бывает.
Однозначно, что разная региональность - не повод для разделения домена и поддомена, по этому поводу был четкий отказ суппорта.
Раз пример нахождения в серпе одновременно домена и субдомена, зарегистрированного в ЯКе, никто привести не может, рискну высказать мысль, что даже регистрация в Яндекс.Каталоге не дает возможности вывести по одному запросу домен и поддомен.
Ссылки с домена и поддомена в этом случае тоже считаются за одну и показываются как "еще с сайта".
Во всяком случае, так в моем случае. Есть ли обратные примеры?
Еще раз повторюсь: речь не идет о бесплатных хостингах и общедоступных доменах.
Робот нормально ходит по ссылкам, спрятанным в скрытом диве.
Отсюда можно сделать вывод, что Гугль и Яндекс следуют директивам файла robots.txt по-разному: Яндекс довольно быстро выкидывает запрещенные для индексации документы из базы, Гугль не индексирует запрещенные документы, но из бызы их не вычищает. Или, лучше сказать, вычищает очень медленно: на это уходят месяцы. Так?
А есть ли способ вручную удалить файлы из базы Гугля?
Другими словами, все, что попало в кэш Гугля, останется там навсегда?
И заставить его выкинуть из своей бызы документы, запрещенные к индексации, не удастся?
Возможно, это так. В свое время это не проверилось, а сейчас уже поздно. Но почему Гугль не удалил весь сайт из кэша, когда обнаружил запрещающий роботс, как это сделал Яндекс?
Конкретно в моем случае это, скорее всего, не так - весь трафик идет по низкочастотникам, в тексте ссылок они наверняка нигде не упоминаются.
Может быть, Гуглю нужно больше времени (например, месяц), чтобы начать выполнять директиву robots.txt?