Объясните дураку, что значит светло серый цвет?
У меня на сайте есть сортировка. Когда выставляю ее, то появляются след. ссылки:
collection/beg?order=&characteristics%5B%5D=9872428&characteristics%5B%5D
которые потому успешно индексируются и появляются дубли, как мне закрыть подобную страницы (то есть закрыть страницы в ссылках которых присуствует слово haracteristics) в роботс, и не будет ли это негативно сказываться? И вобще стоит это делать?
По поводу роботса это понятно.
Последующее закрытие - что именно имеете ввиду?
Каким образом в данном случае, можно удалить на корню?
netcat? , что это?
Да, просто так, спустя 2 месяца все весят.
Такой вопрос.
Есть интернет магазин на движке insales.
Вчера обнаружил, что в поисковике у меня возникают дубли.
Сегодня вроде настроил rel canonical. Правильно ли я понимаю, если я все выставил правильно, то дубли страниц уйдут после апа яндекса? Или это должно произойти в моменте?
Есть ли какой-нибудь удобный сервис, который позволяет проверить сайт на дубли в моменте? Чтобы я мог понять правильно ли я выставил этот атрибут или нет?
Подскажите следующее.
Я собрал семантческое ядро.
Вот пример, того что получилось.
Есть группа:
мужские костюмы фото
Запросы:
мужской костюм фото
театральный мужской костюм фото
мужской костюм фото для свадьбы
картинки мужской костюм и тд.
Подскажите, под группу с фото, надо писать статьи? Или правильнее будет, по теме данные ключевики вставить в alt тег?
Мне важно, чтобы эта страница не была с ошибкой 404, пока она не заполниться.
Так как насколько я знаю, это вредно для seo.
Вы не поняли вопроса? Или не знаете как лучше сделать в моей ситуации?
У меня ситуация следующая, подскажите пожалуйста, как сделать лучше с точки зрения SEO.
У меня блог, на нем много разных рубрик.
Соотвественно есть список страниц.
Насколько плохо, что яндекс и гугл индексируют след. страницы: http://blog.***.ru/page/3/ ?
И допустим у меня сейчас 150 постов, по 5 на страницу всего получается 30 страниц, соответственно, когда я удалю 5 постов, количество моих страниц уменьшится на одну и станец 29, а поисковик будет некоторое количество времени определять http://blog.***.ru/page/30/ -как 404 ошибку, пока у меня снова не заполниться.
Какое грамотное решение следует принять в данной ситуации.
Так как закрывать page/ не хочу, пишут что могут вылететь страницы.