olpiaz

Рейтинг
14
Регистрация
15.03.2015

Оставить все "плюшки" на своем домене. Чтобы меньше было исходящих внешних ссылок, и злобные боты не смотрели косо, а проходили мимо %). Да и в разных трактатах серьезных парней указывается, что лучше внешние ссылки вешать на страницах с наименьшим весом, а страница с ридеректом же может такой считаться?

Подскажите, за какие внешние редиректы вообще накладывают санкции (Яндекс, Гугл) ?

1. Если используется переход по внешним ссылкам в виде редиректов, через какой-нить /go.php?url=http://... в котором имеется header('Location: ...'); таким образом имеем 302-ой редирект.

2. Если используется 301 или 302 редирект в htaccess . т.е. откуда-то отправляем пользователя на свою страницу, которая апачем редиректится куда-то в интернет.

3. Полезнее ли использовать 302-ой если хотим, чтобы все плюшки оставались на своем сайте? или не имеет значение 301 или 302.

4. В чем смысл прятать в robots.txt /go.php , если мы на него сами и ссылаемся при передаче внешней ссылки?

Что-то я совсем запутался. Поэтому пока прежние вопросы отпадают.

Теперь заново:

Есть, скажем так, лэндинг "aaa.ru" по партнерке "bbb.ru" . Есть канал на youtube. Т.к. на канале повторяется информация с лэндинга, то нет никакого смысла посылать пользователей на лэндинг, поэтому с youtube пользователи отправляются по адресу "aaa.ru/123/" , а на сайте "aaa.ru" настроен в htaccess 301-ый редирект с "/123/" на сайт "bbb.ru". Это нормальное явление, или за такое под санкции ПС можно угодить?

наверное, немного запутанно получилось. Лучше разбить на части:

как относятся ПС к ссылкам (индексируемым), которые ведут на другой домен, на котором организован редирект с этого url на третий домен? и как считается ссылочный вес для этого второго домена в зависимости от типа редиректа (301 или 302) ?

bulatbulat48:
С Google аналогично, для него robots.txt рекомендационный файл. Все зависит от ваших условий.

Понятно. Спасибо.

Позвольте я подытожу: Я планировал в robots.txt закрывать все, и потихоньку открывать все то, что считаю необходимым к индексированию. При этом я все равно оставляю мета-тег (изначально - т.е. при заливке на хостинг) для всех тех страниц, которые не хочу индексировать. И как я понял, все равно нет никакой гарантии, что эти страницы не попадут в индекс. И вот я исправно наблюдаю, и если страницы со временем в индекс не попадают - то я ничего не меняю. Если, вдруг, по какой-то неизвестной причине они попали туда, то тогда я разрешаю их (попавшие в индекс страницы) в robots.txt и жду, когда они удалятся из индекса благодаря мета-тегу.

Такой подход-алгоритм нормальный, действенный?

bulatbulat48:
1) для Google лучше убрать директиву из robot.txt, т.к содержимое самого файла блокируется и он может не увидеть мета-тег. Пруф.

Да, этод документ я читал, поэтому и возникают такие вот вопросы %). Т.к. вообще не понятно, каким образом запрет в robots.txt может помешать работе мета-тегу "noindex" в случае попадания бота на страницу, при переходе на нее по ссылке, скажем. Если не мешает, то каким тогда образом страница вообще может попасть в индекс?.. Предполагаю, что это касается уже только страниц ПОПАВШИХ в индекс. В этом случае, ПОСЛЕ добавления мета-тега, конечно, НУЖНО позволить боту обходить сайт по измененным страницам, чтобы он прочитал этот новодобавленный тег и удалил страницу из индекса. Но если изначально посавить запрет и там и там, то по идее ж страница никак не может пролезть в индекс ?..

Или все же лучше в robots.txt вообще никаких запретов не делать, и работать только с мета-тегом, для надежности?

1. Если в robots.txt страница закрыта, и на самой странице стоит мета-тег с "noindex", может ли эта страница попасть в индекс гугла/яндекса ?

2. Если главная страница открыта в robots.txt, на этой странице есть картинки src=/bla/bla/bla.jpg , и вот это /bla/... закрыто в robots.txt, значит ли это, что эта картинка не попадет в индекс картинок гугла/яндекса?

1 234
Всего: 37