Кароче, он выкинул все страницы, ошибок нет. Это что такое ?
Добавил в robots - disallow: /*?q= Disallow: /*sortby= Disallow: */filter/*.
Надеюсь правильно сделал.
Простым языком, если кто-то воспользовался Умным фильтром, то его значение попадает в дубли. И естественно это является ошибкой - "Одинаковые заголовки и описания страниц". Выглядит это так.
В вебмастере смотри, там можно найти дубли страниц, то что он заносит в индекс, когда выкидывает основную страницу
С малоценными сложнее, слишком много факторов, и технических ошибок, которые могут у тебя бытьГугли, изучай
Изучил. Сайт работает на Битриксе, проблема в том, что присутствуют в дублях такие вещи как: /filter/clear/apply/ и /filter/type/ . Закрыть их от индексации нельзя, они формируют доп страницы, как быть ?
В данном предложении вы сами себе противоречите.
Но ситуация может быть следующая. Все сторонние сервисы как правило выводят ранее сохранённую информацию и эта информация может быть неактуальной (на момент проверки).
Т.е. если вы физически удалите внешнюю ссылку на свой сайт, то сервис всё равно будет хранить в базе прежнюю информацию о присутствии ссылки, пока это часть информации не будет обновлена. Процесс обновления может занять несколько месяцев.
Нет, это не проблема, это специфика работы.
Проверяйте для себя дополнительно актуальность рабочей информации и вопрос снят.
Спасибо.
Удалить все дубли на сайте.Сanonical не работает, точно так-же как файл роботс, это тоже просто рекомендация.
Дело в том, что раньше Яндекс удалял мои страницы как дубли, после присвоения Сanonical , проблема с товарными дублями ушла. Но появилась новая: основной каталог Яндекс периодически относит к дублям, почему - не понятно, потом опять возвращает в поиск, это глюк ? Как удалить дубль страницы каталога я не знаю, его физически не могу найти.
Еще есть проблема малоценных страниц, но из индекса выбывают не так часто, как было раньше, бывало и по 100 страниц удалял, потом, опять же, возвращал обратно. С этим как можно бороться ?
Вероятнее всего причины в недостаточно качественном исполнении и слабой оптимизации сайта.
Ну вот, значит есть проблемы с внутренними дублями.
Пока до конца не закончите базовую техничку со ссылками не спешите.
1. Для начала проведите аудит сайта и исправьте все текущие проблемы, включая те, которые вы наверняка не видите.
2. Рассматривайте работу с ПФ только для запросов, которые есть в TOP10, а для этого надо поднимать в TOP10 низко и микро частотный хвост запросов. Возможно, аккуратно работать с брендовыми трафиком, если он уместен.
Теперь отвечая на ваш вопрос - да, продвижением НЧ запроса в составе которого есть ВЧ запрос также повышают свою видимость, однако в зависимости от конкуренции (и других причин), это процесс может быть выражен не линейно.
Спасибо за совет. Могу ли у вас поинтересоваться, есть куча сервисов которые показывают уникальные ссылки на сайт, при проверке моего сайта все сервисы твердят, что ссылок нет, хотя на сайте доноре они висят и проиндексированы, является ли это проблемой ?