Bloody dude

Bloody dude
Рейтинг
68
Регистрация
16.03.2006

Есть ссылка по теме:

http://bloodydude.blog.com/1012411/

Перевод статьи американца, поэтому о расхождениях во времени говорить не приходится. Только что обратился к нему за разрешением на публикацию перевода с указанием и-маила, то есть, перевод может исчезнуть. В зависимости от разницы во времени:)

После того, как подтвердите сайт, будет показывать ссылки на него и проиндексированные страницы

Mahrock, опишите, пожалуйста, в двух словах гарантии того, что в ходе внесениия и освоения инвестиций "идеолог" получит свою долю прибыли.

Уже не могу отредактировать. Заявку подавали еще в 2000 г.

SidelnikoFF Alex, Вам же Платон написал:

Ссылки на Ваш ресурс с двух одинаковых сайтов, считавшиеся раньше как разные ссылки, после внесения этих ресурсов в базу зеркал стали считаться как одна ссылка

Очень похоже на правду - зеркальщик давеча прошелся и поклеил. И Ваша директива хост тут вообще ни к чему

Anton:
На php скрипт написал, генерящий нужный robots.txt в зависимости от того, какой HTTP_HOST.

Не уверен, что боты воспылали к Вам нежной страстью после этого. Почитайте яндексовский фак по склейке. Там такие методы.

1. Если траф не важен, пропишите в роботс.тхт (не генерируемый, а статичный) директиву хост. В описанной ситуации, видимо, уже не очень важен.

2. Сделайте все ссылки со всех алиасов внутрь абсолютными и ведущими на основной.

Сроки склейки разнятся. И, кстати, судя по описанным Вами симптомам, сайты уже склеены.

Директиву хост понимает ТОЛЬКО Яндекс - она не соответствует стандартам и придумана только им. Гугль утверждает, что любит 301-й редирект (8 августа они объявили, что в сайтмэпсе можно указать основной алиас - я в своем сайтмэпсе протупил, завтра посмотрю). Яндекс при 301 не передает тиц (по поводу ссылочного не знаю).

В общем, на Вашем месте я б убрал все баловство с роботами, прописал для Яндекса директиву хост с тем зеркалом, которое он посчитал основным (если нужно клеить на другое, пишите его, но крепко запаситесь терпением и не пугайтесь после того, как сайт в очередной раз выпадет из индекса - вернется).

Anton:
поставил robots.txt так, чтобы везде, кроме www отдавался Disallow: All
Все ли правильно сделал?

А какими именно директивами Вы это сделали?

1. Никаких санкций со стороны ПС не будет. Разве что со временем источники контента могут опередить сайт-ретранслятор в выдаче (вовсе не факт)

2. Читайте ограничения на использование информации там, где хотите ее брать, свяжитесь с админом и получите разрешение

MaulNet:
Bloody dude, я думаю когда-нибудь будет закон на эту тему, который относится к конкретно Интернету.

Наверняка. Ну, у топикстартера вопрос-то из другой оперы. То есть, сколько угодно долго - имеется в виду до тех пор, пока отсутствие статуса СМИ не мешает проекту нормально развиваться. Потом уже статус СМИ будет мешать:)

Поздравляю!

Пусть жизнь будет под контролем, но иногда преподносит приятные неожиданности!

Всего: 1262