Вероятность бана там сильно вероятная :), а вот на показатель заспамленности вполне можно ориентироваться.
Понятное дело, что показатель может сильно отставать от текущих, но если сайт уже заспамлен, то как правило ситуацию к лучшему там не меняется.
Скажем так, это точно не препятствие.
Для аналогии - если о вашем бизнесе напишут в газете другого региона - это сильно плохо? Ну вот примерно также и Гугл относится к ссылочным рекомендациям.
Для региональных топов эта стратегия по-прежнему актуальна.
Никто не справится, если эти боты имитируют пользовательские действия. Нет сейчас эффективных решений (о чём я и говорил выше). Решения Mik Foxi помогут избавиться лишь от технических ботов (краулеров, спамщиков и т.д.), но технические боты заметных проблем (кроме временного искажения статистики) не доставляют.
Пересортица в релевантности.
Значит в настоящий момент поисковая система посчитала Главную более релевантной, чем ваша целевая.
Здесь не нужно искать ориентиров, потому что целевой страницей для ранжирования может бить и Главная, и внутренняя (главное, чтобы не одновременно).
Уметь закреплять релевантность за выбранной страницей и прокачивать её поведенческие кондиции.
Анализируйте текстовую релевантность:
1) Снижайте ключевую плотность для Главной
2) Обеспечьте целевые конверсии для целевой страницы
p.s. Данное явление встречается в том числе и тогда, когда у целевой страницы слабые поведенческие. Поисковая система переопределяет релевантность для нижестоящей по релевантности страницы (в вашем случае это Главная).
Как только вы прокачаете целевую страницу (с учётом вышеуказанного), релевантность вернется для целевой страницы.
Это типовая, довольно распространённая задача для seo специалиста.
p.s.p.s. Так же бывает и просто эпизодическим явлением, когда на следующий ап всё становится на свои места, поэтому иногда просто помогает выждать время.
Вы - понятно, вы можете настраивать взаимодействие рабочих программ как угодно, но клиентские браузеры и индексация - это уже несколько другие процессы и если там происходит сбой кодировки (о чём и заявлено по части индексации), то вряд ли подобное положение нужно оставлять на самотёк.
Само собой.
Цели у них свои сугубо прикладные (например, собрать инфу для внутреннего использования).
Всё верно, только эти товарищи безвредны приходят, шарятся и уходят.
Всплески активно бывают, но это явления эпизодические. Банить весь этот "технический шум" можно и желательно, но это не конкурентные происки, это просто "сборщики инфы".
Нагуливают профили.
Увы, да и не только. Если бот трафик значимо влияет на поведенческие метрики вашего сайта, то его видимость в поиске будет ухудшаться.
Дело в том, что полной и искореняющей проблему решения здесь нет, потому что нагул выполняется как правило мобильных IP адресов под которыми работают также реальные пользователи.
Либо ничего, если значимой просадки в поисковой видимости не происходит, либо активнее развиваться по сайту, темпами развития сайта хотя бы отчасти компенсировать влияние бот трафика. У кого-то получается естественным путём это делать (и бот трафика не оказывает явного вреда), кто-то сам намеренно накручивает, чтобы тем самым нивелировать влияние бот активности.
Большинство не делает ничего и приучается с этим как-то жить.
У картинок могут быть подписи.
p.s. Переводите сайт на UTF-8.
Единственное что смущает, гугловский
в utf8
Ну это сам скрипт, а надо проверять результат вывода. Если он обрабатывает текст и выводит его в UTF-8, то могут быть проблемы.
Есть:
DefaultLanguage ru
AddDefaultCharset windows-1251
php_value default_charset "windows-1251"
Угу. Тогда попробуйте сейчас прогнать сайт Xenu и ScreamingFrog-ом, потом посмотрите по заголовкам не вылезают ли там квадратики.