Логи сигнализируют о постоянном брожении бота по сайту, поглядим что с этого будет ...
Был у меня в далеком 2001 году сайт о родном городе - за год сам набрал ТИЦ до 150 (все есстественно), потом мну хакнули а бекапа как всегда небыло :( ...
Радует одно - тогда я еще не догадывался о SEO и форуме Searchengines, в противном случае наверное вздернулся ...
Простите за оффтоп:
Неужели Гугл не может ввести в свою базу дополнительную таблицу и прописывать там дату "первого попадания" контента в индекс, и при дублях контента сравнивать, и определять кто раньше выложил ??? И чхать на "морду" сайта, тут явно будет видно кто ворует.
Ладно там Яндекс со своими апами, н гугл то за пару тройку часов успевает проиндексировать контент практически на любом сайте ...
Возможно я и ошибаюсь, поправьте ...
Яша непредсказуем ... На старом домене при 15 ссылках за месяц дал 10, после утраты домена и переноса сайта на другой (все ссылки сменил на новый домен) жду уже 2 ап - НОЛИК :) :) :)
Сайт довольно молодой для появления естественных ссылок, даже если они и есть, их контроль на данном этапе развития не затруднителен.
Очень часто сей параметр (кол=во страниц в "соплях") колеблется без каких-либо телодвижений с моей стороны ...
Не заподозрит ли чего плохого Гугль с Яшей если я заведу два блога, один на БлогСпот другой на Яндексе, и начну на них постить анонсы статей с сайта ???
Всегда пожалуйста, правда хотелось бы услышать от гуру ответ на вопрос - Как все таки гугл отнесется к данному вмешательству в код ???
Я так делаю и еще не умер ... Добавил правило в robots.txt проверил, если срабатывает так как надо оставил, нет - исправил, и ничего в этом страшного нет ...
странички в минус (видать корректировка robots.txt сработала), беки в минус (каталожные отвалились), траф в небольшой плюс ...