lika

Рейтинг
24
Регистрация
24.10.2005
keks:
В таком случае почему ссылка с морды дает больше позитива в ранжировании сайта, в сравнении с сквозной ссылкой, которая стоит на всех страницах сайта, включая главную?

Сквозные ссыки склеиваются поисковиком. То есть засчитываются не как сумма ссылок со всех страниц, а как одна, с самой релевантной страницы. Причем признана самой релевантной может быть любая страница, не обязательно главная.

Мне казалось, это уже обсуждалось на форуме.

Воистину Рамблер разлюбил. Трафик с Рамблера после апдейта упал в десять раз - с 1000 до 100 человек.

Сайт старый. Внезапного появления большого количества ссылок не было - все потихоньку. Счетчика Топ-100 нет.

Что изменилось за этот апдейт? Стали учитываться какие-то новые факторы? Поделитесь соображениями, пожалуйста.

Megavolt:
сайт портал города. на субдоменах логичиские куски, допустим знакомства, информационные справочники, игры. как можно за это банить?

Совершенно нормальная ситуация, банить за это, конечно, никто не будет. Где здесь спам?

Andersen:
будут ли ссылки с морд поддоменов (любого домена site.ru, а не msk.ru, com.ru, pp.ru и тд ) учитываться яндексом как ссылка с морды, а не внутренней страницы

Ссылка с морды отличается от ссылки с внутренней только вИЦем и ПР ссылающейся страницы, так? В этом случае, если хорошо прокачать, например, каталогами, морду субдомена - получите ссылку с морды, если этого не делать - получите ссылку в внутренней страницы.

Sergey_Z:
Решение о разделении доменов и поддоменов в поиске принимают модераторы Яндекса на основе каких-то своих соображений, например региональные домены.

Очень интересно было бы узнать эти соображения. Подозреваю, что их нет - и "разделенных" доменов и поддоменов (т.е. присутствующих в выдаче по одному и тому же запросу) вообще не бывает.

Однозначно, что разная региональность - не повод для разделения домена и поддомена, по этому поводу был четкий отказ суппорта.

Раз пример нахождения в серпе одновременно домена и субдомена, зарегистрированного в ЯКе, никто привести не может, рискну высказать мысль, что даже регистрация в Яндекс.Каталоге не дает возможности вывести по одному запросу домен и поддомен.

Ссылки с домена и поддомена в этом случае тоже считаются за одну и показываются как "еще с сайта".

Во всяком случае, так в моем случае. Есть ли обратные примеры?

Еще раз повторюсь: речь не идет о бесплатных хостингах и общедоступных доменах.

Робот нормально ходит по ссылкам, спрятанным в скрытом диве.

wolf:
Да нет, думаю не навсегда. Насчет запрещенных robots'ом не скажу, но замечено, что отдающие 404 страницы сидят в Supplement results довольно долго - месяцами.

Отсюда можно сделать вывод, что Гугль и Яндекс следуют директивам файла robots.txt по-разному: Яндекс довольно быстро выкидывает запрещенные для индексации документы из базы, Гугль не индексирует запрещенные документы, но из бызы их не вычищает. Или, лучше сказать, вычищает очень медленно: на это уходят месяцы. Так?

А есть ли способ вручную удалить файлы из базы Гугля?

wolf:
Но это ведь не ставит вне закона те копии документов, которые он собрал без нарушения директив.

Другими словами, все, что попало в кэш Гугля, останется там навсегда?

И заставить его выкинуть из своей бызы документы, запрещенные к индексации, не удастся?

wolf:
А вы поглядите на даты кешей этих страниц - наверняка они посещались роботом еще до появления запрещающих директив

Возможно, это так. В свое время это не проверилось, а сейчас уже поздно. Но почему Гугль не удалил весь сайт из кэша, когда обнаружил запрещающий роботс, как это сделал Яндекс?

wolf:
А не факт, что роботы его не слушаются. Файл запрещает обращение к документам, но Гугль часто публикует их URL'ы и может даже неплохо ранжировать благодаря ссылочному. Использовать ведь информацию о внешних ссылках на документ файл robots.txt ведь не запрещает.

Конкретно в моем случае это, скорее всего, не так - весь трафик идет по низкочастотникам, в тексте ссылок они наверняка нигде не упоминаются.

Может быть, Гуглю нужно больше времени (например, месяц), чтобы начать выполнять директиву robots.txt?

Всего: 199