Lina

Lina
Рейтинг
81
Регистрация
17.02.2003
Должность
AdLabs
Помнится мне, некоторое время тому назад эта тема активно обсуждалась здесь на форуме.

funnybunnyдал мне ссылку:

Интересно было ознакомиться. Я очень рада, что приходится работать с такими людьми (я про участников форума :))

ИМХО, от этого качество каталога может серьезно пострадать. Не так давно меняла (успела бесплатно) описание сайта. Это Интернет-магазин. Среди прочего добавила вместо одного вида предлагаемой продукции другой. Связано это было с изменением ассортимента. Изменения эти были не столь значительны, чтобы за них платить 40$. Поэтому сейчас, мало того, что я не стала бы вносить в описание новый товар, так я бы и прошлый не убрала (зачем терять ключевые слова?). Ведь и его мы продавать не перестали - просто сменили приоритеты. Так что об объективности описания говорить уже не придется.

Конечно, я не имею ввиду серьезные конторы, для которых 40$ ничего не стоят...

В чем это может пригодиться? Я совершенно не представляю себе.

Меня вот это больше всего заинтересовало:

BlockRank рассматривает все эти внутренние ссылки сайта как одно целое и, только покончив с ними, переходит к внешним ссылкам.

Таким образом не получится, что, при рассчете вИЦ, внутренние ссылки будут учитываться отдельно и их вес снизится по сравнению с внешними - т.е. будет сложнее удержать PR внутри сайта?

Какое-то обсуждение бессмысленное. Что вы пытаетесь сделать?

Пытаюсь понять, как можно по максимуму использовать зеркала.

Суть последнего вопроса заключалась в том, что, если большое количество зеркал робот яндекса (или других поисковиков) примет за спам, то отреагирует ли он также на зеркала, которые после склейки были закрыты файлом robots.txt? Цель - поднять тИЦ и избежать бана.

Большое количество зеркал спамом считается (в Яндексе).

Т.е. даже если зеркала закрыты для роботов яндекса ему не все равно - сколько их?

А будет работать такая схема:

1. Делаем для сайта зеркало и ждем склейки

2. Ставим robots.txt

3. Делаем новое зеркало и т.д.

Тут два вопроса возникает:

Большое количество закрытых robots.txt зеркал не считается спамом?

Если не закрыто одновременно, например, 3 зеркала - это не много?

да ,причем вИЦ склеится

Получается, что яндекс даже после удаления из его базы запоминает все зеркала сайта? Это предположение или достоверная информация?


Если на зеркалах установлены robots.txt, как поисковый робот узнает, что это зеркало и что ссылки, к нему относящиеся, следует на главный сайт перекинуть? Ведь в этом случае они на сайт не заходят.

Если не заходят - то и не узнают. (Если они закрыты от индексации).

Я это потому спросила, что до этого был следующий ответ:

- я так понимаю, если зеркало закрыто robots.txt, ни ТИЦ, ни ВИЦ от него не достанется сайту?

Почему? Очень даже достанется. Ссылки на любое из вторичных зеркал приравниваются к ссылками на основное зеркало (если они склеены) и отображаются Яндексом в списке "Кто ссылается".

А если зеркало будет открыто для поисковиков и произойдет склейка, после которой установить robots.txt - как себя поведут поисковики, после обновления их базы ссылки на зеркало останутся соотнесенными к главному сайту?

Возможен ли бан за злоупотребление зеркалами?

Да.

а грань дозволенного известна?

Если на зеркалах установлены robots.txt, как поисковый робот узнает, что это зеркало и что ссылки, к нему относящиеся, следует на главный сайт перекинуть? Ведь в этом случае они на сайт не заходят.

т.е. получается, что нет смысла ставить на зеркала robots.txt - если поисковики не склеили - сами виноваты, так?

Возможен ли бан за злоупотребление зеркалами?

Всего: 408