Arthorius

Arthorius
Рейтинг
84
Регистрация
19.04.2016

Попробовал, что-то не работает((( Может я что-то не то сделал? Попробую перенастроить всё по-новой...

Спасибо, попробую))

acme_11:
Регулярное выражение

Или настройте на событие.

Так а что в этом регулярном выражении писать? повторяющуюся часть URL?

ОК, всем спасибо! Но вопрос, почему же тогда результаты поиска при перестановке слов в фразе отличаются?

Всем привет! Нужен совет тех, кто продвигает сайты под англоязычный сегмент. У меня такого опыта нет, а сейчас на горизонте замаячили англоязычные проекты. Вопрос: насколько корректно Key Collector собирает частотности Гугла для англоязычных стран? Кто-то им для этой цели пользуется? Может какой on-line сервис посоветуете вменяемый?

Заранее всем благодарен)

adel92:
Это разные консоли)

Ну то понятно...

Спасибо)

SeVlad:
Да там же ж:

гугла и яндекса. Смотреть рефереры.

Можно 404 на сайте проверить старой ксеной (xenu link sleuth) или др.

не понял, при чём здесь рефереры, а за ссылку на программу

За ссылку на сервис спасибо)

burunduk:
так и сделайте именно так на всех страницах с параметром page (даже с пустым)
и не трогайте роботс

Ну не знаю, насколько это реализуемо, и именно на OpenCart. Поговорю с нашими программистами. Хотя они конечно ленивые создания, могут сказать "нет, это невозможно"))) Но за подсказку спасибо! Буду выяснять.
Таки да, работает))Ещё раз спасибо)

---------- Добавлено 12.10.2017 в 08:47 ----------

seo-jet:
Если все таки нужно закрыть одну страницу, но чтобы остальные страницы индексировались, используй спецсимвол $

Пример:
Disallow: *?page$

Должно работать

Интересно, попробую. Спасибо за идею!

SeVlad:
Тебя волнует следствие, а о причинах ты даже не задумываешься?
Вот откуда они взялись - ты хоть выяснял? Внутряки или беки. Если беки, то какие. Мож это вирусня, которая отшивает гуглобота. И тд

То что, нужно причину выяснять- это понятно. Но как? Ты знаешь- поделись. Буду очень благода...

Извольский:
Левые – в смысле не значимые? Если да и их много – попробовать найти причину, может быть, там есть какие-то общие места и можно закрыть их индексацию разом. Если страниц мало, я бы попробовал скрыть их из индекса через Серчконсоль.

Да в том-то и дело, что они все разные, через robots все не закроешь, а редиректы каждый раз настраивать тоже гемор. Вот я и спрашиваю можно ли на них забить, или это плохо, что они есть и ПС за это будут применять санкции к сайту.

Всего: 129