Блин как могут учитываться бэки для сайта который даже в ранжировании то не участвует. К чему бэки прикладывать?
Я думал что таких кривых скриптов не бывает.
Вообще у меня была мысль что какая-то фирма держащая несколько подшефных сайтов использовала их в своих целях, создав столько помоек.
Смущает тот факт что таких однотипов (сайтов и каталогов на них) достаточно много. Я с ходу просто больше 40 нашел, но их больше получается. Поэтому и возникла мысль что это линкатор.
Как у сайта может увеличиться Иц если он в бане?
Я где-то так и предполагал. Спасибо большое за информацию.
Всем спасибо.
Мне кажется что статьи придерживают не потому что яндекс робот как то не адекватно ходит, а потому что он за раз только какое-то определенное количество страниц индексит. Если все выложить, то индекс до некоторых запросов может не дойти. А если по немногу выкладывать, то я робот будет забирать новые страницы и индексаж будет проходит более гладко.
Это так, мысли. Может кто-то по этому поводу выскажет что думает?
Тогда вопрос так поставлю. Что эффективнее и что дешевле?
Сейчас если не ошибаюсь около 600.
Ну в любом случае ручками будет надежнее. Хотя идею принял на рассмотрение. Спасибо.
Хорошо, а если опустить проблемы с трудной проверкой, есть какие-то принципиальные вещи.
По всей видимости идея сводится к тому, что сначала берем серьезные ресурсы, а потом догоняем нужное мелкими. Я прав?
Вопрос просто в том что скажем бэки 10и сайтов с ПРом 5-7 контролировать гораздо проще чем 40 с ПРом 1. Не настолько много свободного времени чтоб смотреть где меня обманули а где нет. Аналогично если брать оптом. Поэтому мне и важно знать что эффективней.
Были бы дельные вещи, их бы использовали. Вопрос не в том что это не работает, вопрос в рациональности.
Время вещь достаточно дорогая и убивать его на малоэффективные методы не особо хочется. ИМХО