Was_Ist_Das

Was_Ist_Das
Рейтинг
82
Регистрация
26.07.2011

Понаписали тут, ай да молодцы)

Ребят, решил глянуть таки в сторону WP. Пока в плане темы/шаблона советуют Astra или GeneratePress с использованием Elementor.

Ваше мнение?

Фришную, для старта

По Яше одна краснота 😡

JuniorVov, отнюдь) Возможно что-то важное упустил, со стороны то виднее.

Что-то всё в минус

Присоединяюсь к ТС. На всех сайтах корректно прописан и отображается, деревЯшка присылает репорты что "Новый тег canonical: —". Норма)

vold57:

Вопрос, который, думаю нужно было задать вначале. Для какой цели вам нужно, чтобы страницы пагинаций были в индексе?

По сути, продвигается лишь главная стр категории. Двигать на пагинации другие запросы - сомнительное дело. В таком случае особой ценности в них нет, но сомнений прибавляет подход Гугла (с prev/next и непонимание канона). И, есть ли какая-либо другая польза от страниц пагинации в индексе?

Провожу некий эксперимент. Был закрыт от индексации ряд поддоменов, внесены различные правки.

Наглядная картина работы Яндекса:

01 - закрыт в robots.txt от индекса

03 - выпиливает страницы с пометкой "Запрет в robots.txt (весь сайт)"

05-07 - добавляет эти же страницы обратно в индекс

08 - начинает выпилить страницы с пометкой "Недостаточно качественная"

* всё это время сайт закрыт от индексации

Ну что, пацаны, МЭЙЛ РУ?

Ещё пёрл:

Исключённая стр. (недостаточно качественная) после внесения правок отправляется не переобход, работ её обходит, не палит внесённые изменения и оставляет древнюю версию из кэша. Проверить статус URL - Страница неизвестна роботу.

Коллеги, у вас есть объяснения/догадки такой "работе" данной ПС и варианты о наболевшем "что дальше"?

Приветствую!

Как давно ведёте работу по оптимизации?

Сколько на сайте страниц/сколько в индексе Г/Я?

Судя по страницам в индексе (см.скрин) работа по оптимизации не проведена.

Авансом - учить матчасть, вносить правки.

png 176223.png
avangard:
В последние 3—4 апдейта в некачественные отправляет не только у вас. Алгоритм имеет особенность, он помечает страницы по хранящемуся кешу , в том числе месячной давности. Этих страниц может уже и не быть и по ним 404 а алгоритм помечает их некачественными без посещения самх страниц. Мое ихмо мнение, роль алгоритма выкинуть страницы, чтобы основной робот перед обходом на них не ходил. То есть повыкидывает и яндекс сэкономит на трафике:))

Как с этим боретесь?

123Илья123:
Варианта 1: создать 2 текста на каждую страницу, 1. Москва (основной сайт) 2. Для всех поддоменов. Они все разные, но в случае с поддоменами лучше бы чтобы менялся город автоматом в тэtitle, description, и описании. Также в тексте можно менять адрес филиала автоматически и номера телефонов и тд. До этого проблем с таким подходом с некачественными страницами не было.

Подстановка города в тегах и пр. была реализована изначально, с текстами протестим.

Всего: 104