Оставить все "плюшки" на своем домене. Чтобы меньше было исходящих внешних ссылок, и злобные боты не смотрели косо, а проходили мимо %). Да и в разных трактатах серьезных парней указывается, что лучше внешние ссылки вешать на страницах с наименьшим весом, а страница с ридеректом же может такой считаться?
Подскажите, за какие внешние редиректы вообще накладывают санкции (Яндекс, Гугл) ?
1. Если используется переход по внешним ссылкам в виде редиректов, через какой-нить /go.php?url=http://... в котором имеется header('Location: ...'); таким образом имеем 302-ой редирект.
2. Если используется 301 или 302 редирект в htaccess . т.е. откуда-то отправляем пользователя на свою страницу, которая апачем редиректится куда-то в интернет.
3. Полезнее ли использовать 302-ой если хотим, чтобы все плюшки оставались на своем сайте? или не имеет значение 301 или 302.
4. В чем смысл прятать в robots.txt /go.php , если мы на него сами и ссылаемся при передаче внешней ссылки?
Что-то я совсем запутался. Поэтому пока прежние вопросы отпадают.
Теперь заново:
Есть, скажем так, лэндинг "aaa.ru" по партнерке "bbb.ru" . Есть канал на youtube. Т.к. на канале повторяется информация с лэндинга, то нет никакого смысла посылать пользователей на лэндинг, поэтому с youtube пользователи отправляются по адресу "aaa.ru/123/" , а на сайте "aaa.ru" настроен в htaccess 301-ый редирект с "/123/" на сайт "bbb.ru". Это нормальное явление, или за такое под санкции ПС можно угодить?
наверное, немного запутанно получилось. Лучше разбить на части:
как относятся ПС к ссылкам (индексируемым), которые ведут на другой домен, на котором организован редирект с этого url на третий домен? и как считается ссылочный вес для этого второго домена в зависимости от типа редиректа (301 или 302) ?
Понятно. Спасибо.
Позвольте я подытожу: Я планировал в robots.txt закрывать все, и потихоньку открывать все то, что считаю необходимым к индексированию. При этом я все равно оставляю мета-тег (изначально - т.е. при заливке на хостинг) для всех тех страниц, которые не хочу индексировать. И как я понял, все равно нет никакой гарантии, что эти страницы не попадут в индекс. И вот я исправно наблюдаю, и если страницы со временем в индекс не попадают - то я ничего не меняю. Если, вдруг, по какой-то неизвестной причине они попали туда, то тогда я разрешаю их (попавшие в индекс страницы) в robots.txt и жду, когда они удалятся из индекса благодаря мета-тегу.
Такой подход-алгоритм нормальный, действенный?
Да, этод документ я читал, поэтому и возникают такие вот вопросы %). Т.к. вообще не понятно, каким образом запрет в robots.txt может помешать работе мета-тегу "noindex" в случае попадания бота на страницу, при переходе на нее по ссылке, скажем. Если не мешает, то каким тогда образом страница вообще может попасть в индекс?.. Предполагаю, что это касается уже только страниц ПОПАВШИХ в индекс. В этом случае, ПОСЛЕ добавления мета-тега, конечно, НУЖНО позволить боту обходить сайт по измененным страницам, чтобы он прочитал этот новодобавленный тег и удалил страницу из индекса. Но если изначально посавить запрет и там и там, то по идее ж страница никак не может пролезть в индекс ?..
Или все же лучше в robots.txt вообще никаких запретов не делать, и работать только с мета-тегом, для надежности?
1. Если в robots.txt страница закрыта, и на самой странице стоит мета-тег с "noindex", может ли эта страница попасть в индекс гугла/яндекса ?
2. Если главная страница открыта в robots.txt, на этой странице есть картинки src=/bla/bla/bla.jpg , и вот это /bla/... закрыто в robots.txt, значит ли это, что эта картинка не попадет в индекс картинок гугла/яндекса?