funnybunnyдал мне ссылку:
Интересно было ознакомиться. Я очень рада, что приходится работать с такими людьми (я про участников форума :))
ИМХО, от этого качество каталога может серьезно пострадать. Не так давно меняла (успела бесплатно) описание сайта. Это Интернет-магазин. Среди прочего добавила вместо одного вида предлагаемой продукции другой. Связано это было с изменением ассортимента. Изменения эти были не столь значительны, чтобы за них платить 40$. Поэтому сейчас, мало того, что я не стала бы вносить в описание новый товар, так я бы и прошлый не убрала (зачем терять ключевые слова?). Ведь и его мы продавать не перестали - просто сменили приоритеты. Так что об объективности описания говорить уже не придется.
Конечно, я не имею ввиду серьезные конторы, для которых 40$ ничего не стоят...
Меня вот это больше всего заинтересовало:
Таким образом не получится, что, при рассчете вИЦ, внутренние ссылки будут учитываться отдельно и их вес снизится по сравнению с внешними - т.е. будет сложнее удержать PR внутри сайта?
Пытаюсь понять, как можно по максимуму использовать зеркала.
Суть последнего вопроса заключалась в том, что, если большое количество зеркал робот яндекса (или других поисковиков) примет за спам, то отреагирует ли он также на зеркала, которые после склейки были закрыты файлом robots.txt? Цель - поднять тИЦ и избежать бана.
Т.е. даже если зеркала закрыты для роботов яндекса ему не все равно - сколько их?
А будет работать такая схема:
1. Делаем для сайта зеркало и ждем склейки
2. Ставим robots.txt
3. Делаем новое зеркало и т.д.
Тут два вопроса возникает:
Большое количество закрытых robots.txt зеркал не считается спамом?
Если не закрыто одновременно, например, 3 зеркала - это не много?
Получается, что яндекс даже после удаления из его базы запоминает все зеркала сайта? Это предположение или достоверная информация?
Я это потому спросила, что до этого был следующий ответ:
А если зеркало будет открыто для поисковиков и произойдет склейка, после которой установить robots.txt - как себя поведут поисковики, после обновления их базы ссылки на зеркало останутся соотнесенными к главному сайту?
а грань дозволенного известна?
Если на зеркалах установлены robots.txt, как поисковый робот узнает, что это зеркало и что ссылки, к нему относящиеся, следует на главный сайт перекинуть? Ведь в этом случае они на сайт не заходят.
т.е. получается, что нет смысла ставить на зеркала robots.txt - если поисковики не склеили - сами виноваты, так?
Возможен ли бан за злоупотребление зеркалами?