Мне нравится reboot от wp-shop, но он платный. А из бесплатных, кажется раньше было полно сайтов с темами, где можно было посмотреть, а потом скачать и поставить себе.
Правда сейчас большинство тем на Elementor, с одной стороны вроде удобно, а с другой все равно утяжеляет из-за этого скорость падает.
Он куда-то перераспределяется :-(
Либо по ГС и дорам, либо по договоренности к каким то топам.
Потому что общий трафик с поисковых систем не уменьшается а даже прирастает (у Гугла немного просел, а у Яндекса подрос). Вот общий график по "Сайты рунета" liveinternet (поскольку у метрики невозможно вытащить общий трафик по определенной теме или вообще всех рунет сайтов, можно посмотреть на Li) - https://www.liveinternet.ru/stat/ru/searches.html?period=week
Нет, Владимир не лень. Просто не придавал этому значения, не думал, что они так влияют. Сейчас я эти страницы исправил конечно, пока яндекс еще информацию не обновил, в вебмастере должно быть 0 скоро.
" robots.txt и каноникал, это рекомендации, а не правило. = немерянное количество дублей " - если я закрыл пагинацию в robots.txt- это нормально и достаточно или в страницах типа ?page=2 еще прописать метатег robots с noindex?
Возможно мой вопрос покажется глупым, но можете вот про это пояснить: "Плюс спамеры по URL, создают вам еще такое же количество дублей ( сервер отдает 200) "? Пожалуйста!
Я этот сайт проверял 1 минуту (не весь). Чтоб понять что там пзц с дублями хватило. Яндекс виноват 🤔.
Скриншот из вебмастера, всего 34 заголовка дублируется, что составляет 0% от всего проекта. И те уже поправлены. Дублирующиеся заголовки у пагинации все равно не в индексе, т.к. там canonical на первую всегда, а остальные как неканонические исключены. Поэтому кроме этих 34 страниц которые были, дублей в поиске Яндекса нет. SiteAnalyser конечно их найдет, т.к. они не были закрыты явно в robots.txt (ну для проформы закрыл и там сейчас)
Спасибо, пропустил ваше сообщение, редко сюда заглядываю. Поправлю конечно. Но фильтр за 36 дублированных Title у пагинации, при более чем 10 тыс страницах, это даже не статистичнская погрешность. Хотя кто их знает, как работает их фильтр...
Через неделю почти со всех снимают без всяких изменений. Может быть дольше, но снимают почти со всех, кроме самых конченых.
Я бы с вами не согласился. Сидим под фильтром второй месяц. Сайту 20 лет, "Золотой сайт - 2004" в номинации "лучшее Онлайн СМИ". Более 11 тыс статей и новостей. Официальнве партнёры Music Box, форума Woman Who Metters, партнеры международной премии Грация и тд. Т е всем известный на рынке женский журнал. А Яндекс считает, что у нас МПК.... Как работают их алгоритмы мне неизвестно.... Но пока сидим под фильтром
Оцените пожалуйста:
TotalPay.ru
autoved.ru
sitecars.ru
planetohod.ru
autoved.ruДомен для автомобильной тематики "Автовед". TF 12CF 16xPR: 1.13
wpmonster.ru"WordPress monster"TF 16CF 15
Парадокс конечно, в начале октября прилетел МПК.
В выгрузке Малоценная или маловостребованная страница - 0 страниц.
Я ничего не понимаю, по результатам разбора, который длился 2 мес. прислали:
"Алгоритмы проверили ваш ресурс — сейчас он не соответствует нашим критериям качества."
Сайту 19 лет. "Золотой сайт - 2004" в номинации "Онлайн СМИ". Куда дальше копать, какие критерии качества... фильтр за МПК, которых на сайте по мнению я.вебмастер - 0.
Куда копать?
Очень странно, но в robots.txt нет такого запрета. Вот проверяю средствами webmaster.yandex. Можно узнать плагин или инструмент, который вам выдает такую информацию?