garry69

Рейтинг
193
Регистрация
12.07.2007

robots.txt не запрет конкретный для ботов, а указание. Если есть ссылки внутренние, внешние, популярны эти страницы (часто возникает урл на сайте), он не поможет и это не ошибка, предупреждение. Да и собственно там же есть на справку ссылка.

Можно добавить к страницам с гет параметрами или к конкретному параметру :

<meta name="robots" content="follow, noindex"/>

Или вообще полностью к странице поиска, наверняка у вас стоит сео плагин, в котором можно это сделать.

Но ждать результатов придется долго, к этому надо быть готовыми.

Maslo #:
Как видите, даже вас подставили под насмешки и критику, прислав кривую ссылку.

А точку в конце урла убрать слабо?

Denechka #:

А, что значит sitemap.xml?page=12 ?

На сколько я знаю .xml это единый файл, такую пагинацию впервые вижу.

Не единый, в смысле может содержать индексную страницу с перечислением (ссылками) на остальные карты, все конечно правильно оформленное. По другому, как вы себе представляете карту сайта с сотнями тысяч ссылок, категорий, форматов и тд?

Alex2Fast #:
Вопрос по названию записи (только H1 интересует вывод). Хочу через sql запрос приплюсовать к каждому названию поста слово. Не повлияет ли это на url записей? Нужен результат только в H1 выводе. Или же возможно кто-то знает код/плагин, который такое делает (чтобы потом можно было отключить, например, а не поднимать бэкапы таблицы)?

Самый менее напряжный вариант в плане ресурсов сервера, один раз как вы и хотите через sql. Чем парсить каждый пост при загрузке, регулярка и тд.

sportik #:
Кстати некоторые хостеры напрямую пишут: платный (и не самый дешевый) сертификат - влияет на позиции в поисковых системах. Кто-нибудь может это подтвердить по своим проектам?

Мало того, день недели и расположение звезд в день получения сертификата могут серьезно повлиять на позиции сайта. )

SeVlad #:
Вернее может, но второй - это old_slug, с которого идет 301

Я написал для автора поста, конечно не может и может по old_slug... но в его случаи масса чего не сработало или сработало криво.

SeVlad #:
ВП записывает старые слаги в old_slug и отдаёт по ним 301

Это если бы все сработало и плагин правильный был бы. В том посте есть слово "сделали" и вот тут похоже вся проблема, только перечитал его, сразу не заметил. Похоже теперь в базе два урла и ждет большая работа, по крайней мере понять и как то править. Увлекательный день может ожидать админа, пока пс не начали реагировать.

qvaro #:
Как удалить старые ссылки, когда меняешь чпу?


А причем тут ЧПУ и смена на латиницу в урле?

Поставили плагин, он стала генерить латиницу, но старые урлы такие плагины не меняют. тут засучить рукава и пересохранить каждый пост, тогда по идеи появится 301 или 404. Либо найти плагин который пересохранят (перепубликует) старые посты. Поставить плагин 301 редиректа, который имеет по больше функций. В общем, такое надо заранее продумывать.

Может в вашем плагине есть что-то по поводу старых урлов.

Sergey8911 #:
а что за плагин?

https://searchengines.guru/ru/forum/1026774/page728#comment_16680719

Всего: 968