pianeer91

Рейтинг
34
Регистрация
29.10.2014

Объясните дураку, что значит светло серый цвет?

У меня на сайте есть сортировка. Когда выставляю ее, то появляются след. ссылки:

collection/beg?order=&characteristics%5B%5D=9872428&characteristics%5B%5D

которые потому успешно индексируются и появляются дубли, как мне закрыть подобную страницы (то есть закрыть страницы в ссылках которых присуствует слово haracteristics) в роботс, и не будет ли это негативно сказываться? И вобще стоит это делать?

Alchemis:
Не сразу, но поможет. Со временем страницы исчезнут из выдачи.
Лучшим вариантом будет сканирование всего сайта seofrog`ом, поиск всех дублей и последующее их закрытие.

По поводу роботса это понятно.

Последующее закрытие - что именно имеете ввиду?

bulatbulat48:
netcat?

правила в robots.txt помогут, но всегда лучше удалять дубли на корню.

Каким образом в данном случае, можно удалить на корню?

netcat? , что это?

Да, просто так, спустя 2 месяца все весят.

Такой вопрос.

Есть интернет магазин на движке insales.

Вчера обнаружил, что в поисковике у меня возникают дубли.

Сегодня вроде настроил rel canonical. Правильно ли я понимаю, если я все выставил правильно, то дубли страниц уйдут после апа яндекса? Или это должно произойти в моменте?

Есть ли какой-нибудь удобный сервис, который позволяет проверить сайт на дубли в моменте? Чтобы я мог понять правильно ли я выставил этот атрибут или нет?

Подскажите следующее.

Я собрал семантческое ядро.

Вот пример, того что получилось.

Есть группа:

мужские костюмы фото

Запросы:

мужской костюм фото

театральный мужской костюм фото

мужской костюм фото для свадьбы

картинки мужской костюм и тд.

Подскажите, под группу с фото, надо писать статьи? Или правильнее будет, по теме данные ключевики вставить в alt тег?

velish:
Удалите сначала 5 страниц из за этого уйдет автоматом 1 страница из раздела категорий.

То есть из индекса вылетит 6 страниц.
Какое может быть решение?

Удалить не 5, а 4 страницы, или добавить 1 статью а потом удалить ненужных 5 если так важна эта page/30/

Мне важно, чтобы эта страница не была с ошибкой 404, пока она не заполниться.

Так как насколько я знаю, это вредно для seo.

bulatbulat48:
я не понял, может кто-то другой подскажет 😕

Вы не поняли вопроса? Или не знаете как лучше сделать в моей ситуации?

У меня ситуация следующая, подскажите пожалуйста, как сделать лучше с точки зрения SEO.

У меня блог, на нем много разных рубрик.

Соотвественно есть список страниц.

Насколько плохо, что яндекс и гугл индексируют след. страницы: http://blog.***.ru/page/3/ ?

И допустим у меня сейчас 150 постов, по 5 на страницу всего получается 30 страниц, соответственно, когда я удалю 5 постов, количество моих страниц уменьшится на одну и станец 29, а поисковик будет некоторое количество времени определять http://blog.***.ru/page/30/ -как 404 ошибку, пока у меня снова не заполниться.

Какое грамотное решение следует принять в данной ситуации.

Так как закрывать page/ не хочу, пишут что могут вылететь страницы.

123
Всего: 28