Seranush2007

Seranush2007
Рейтинг
13
Регистрация
29.10.2023

Кароче, он выкинул все страницы, ошибок нет.  Это что такое ?




Добавил в robots -  disallow: /*?q= Disallow: /*sortby=  Disallow: */filter/*.

Надеюсь правильно сделал.

Простым языком, если кто-то воспользовался Умным фильтром, то его значение попадает в дубли.  И естественно это является ошибкой -  "Одинаковые заголовки и описания страниц". Выглядит это так.


Vladimir #:

В вебмастере смотри, там можно найти дубли страниц, то что он заносит в индекс, когда выкидывает основную страницу

С малоценными сложнее, слишком много факторов, и технических ошибок, которые могут у тебя быть
Гугли, изучай

Изучил. Сайт работает на Битриксе, проблема в том,  что присутствуют в дублях такие вещи как: /filter/clear/apply/ и /filter/type/ . Закрыть их от индексации нельзя, они формируют доп страницы, как быть ?

Антоний Казанский #:

В данном предложении вы сами себе противоречите.

Но ситуация может быть следующая. Все сторонние сервисы как правило выводят ранее сохранённую информацию и эта информация может быть неактуальной (на момент проверки).

Т.е. если вы физически удалите внешнюю ссылку на свой сайт, то сервис всё равно будет хранить в базе прежнюю информацию о присутствии ссылки, пока это часть информации не будет обновлена. Процесс обновления может занять несколько месяцев.


Нет, это не проблема, это специфика работы. 

Проверяйте для себя дополнительно актуальность рабочей информации и вопрос снят.

Спасибо.

Vladimir #:

Удалить все дубли на сайте.
Сanonical не работает, точно так-же как файл роботс, это тоже просто рекомендация.

Дело в том, что раньше Яндекс удалял мои страницы как дубли, после присвоения Сanonical , проблема с товарными дублями ушла. Но появилась новая: основной каталог Яндекс периодически относит к дублям, почему - не понятно, потом опять возвращает в поиск, это глюк ? Как удалить дубль страницы каталога я не знаю, его физически не могу найти.

Еще есть проблема малоценных страниц, но из индекса выбывают не так часто, как было раньше, бывало и по 100 страниц удалял, потом, опять же, возвращал обратно. С этим как можно бороться ?

Антоний Казанский #:

Вероятнее всего причины в недостаточно качественном исполнении и слабой оптимизации сайта.


Ну вот, значит есть проблемы с внутренними дублями.


Пока до конца не закончите базовую техничку со ссылками не спешите.


1. Для начала проведите аудит сайта и исправьте все текущие проблемы, включая те, которые вы наверняка не видите.

2. Рассматривайте работу с ПФ только для запросов, которые есть в TOP10, а для этого надо поднимать в TOP10 низко и микро частотный хвост запросов. Возможно, аккуратно работать с брендовыми трафиком, если он уместен.

Теперь отвечая на ваш вопрос - да, продвижением НЧ запроса в составе которого есть ВЧ запрос также повышают свою видимость, однако в зависимости от конкуренции (и других причин), это процесс может быть выражен не линейно.

Спасибо за совет. Могу ли у вас поинтересоваться, есть куча сервисов которые показывают уникальные ссылки на сайт, при проверке моего сайта все сервисы твердят, что ссылок нет, хотя на сайте доноре они висят и проиндексированы, является ли это проблемой ? 

1 23
Всего: 26