Где найти информацию о зеркале сайта?

123
N
На сайте с 21.11.2001
Offline
152
#11
Это так, однако склеивают они сами, без каких-то специальных указаний.

Если при склейке не правильно выбран основной домен, то можно воспользоваться дерективой HOST.

Есть еще информация здесь

N
На сайте с 21.11.2001
Offline
152
#12
после обновления их базы ссылки на зеркало останутся соотнесенными к главному сайту?

да ,причем вИЦ склеится

Lina
На сайте с 17.02.2003
Offline
81
#13
да ,причем вИЦ склеится

Получается, что яндекс даже после удаления из его базы запоминает все зеркала сайта? Это предположение или достоверная информация?

N
На сайте с 21.11.2001
Offline
152
#14

достоверная информация, от Мелькова

Lina
На сайте с 17.02.2003
Offline
81
#15

А будет работать такая схема:

1. Делаем для сайта зеркало и ждем склейки

2. Ставим robots.txt

3. Делаем новое зеркало и т.д.

Тут два вопроса возникает:

Большое количество закрытых robots.txt зеркал не считается спамом?

Если не закрыто одновременно, например, 3 зеркала - это не много?

[Удален]
#16

А что в итоге-то должно получиться? Какой нужен результат?

Схема работать будет.

Большое количество зеркал спамом считается (в Яндексе). Если не закрыто 3 - то не много, это мелочи.

Lina
На сайте с 17.02.2003
Offline
81
#17
Большое количество зеркал спамом считается (в Яндексе).

Т.е. даже если зеркала закрыты для роботов яндекса ему не все равно - сколько их?

[Удален]
#18

Но ведь если зеркала закрыты для яндекса, то для чего все это делать ? При поиске они все равно не будут выводится.

[Удален]
#19
Т.е. даже если зеркала закрыты для роботов яндекса ему не все равно - сколько их?

Какое-то обсуждение бессмысленное. Что вы пытаетесь сделать?

Lina
На сайте с 17.02.2003
Offline
81
#20
Какое-то обсуждение бессмысленное. Что вы пытаетесь сделать?

Пытаюсь понять, как можно по максимуму использовать зеркала.

Суть последнего вопроса заключалась в том, что, если большое количество зеркал робот яндекса (или других поисковиков) примет за спам, то отреагирует ли он также на зеркала, которые после склейки были закрыты файлом robots.txt? Цель - поднять тИЦ и избежать бана.

123

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий