Сальвэ квириты
Есть расстрельный список ботов?
И список шлака типа Screaming Frog SEO Spider, чтобы всякое seo-мудачье тебя не парсило?
Продолжаю делиться сео-опытом с сеошниками .. гы гы 🤣
В общем просто накинуть <meta name="robots" content="noindex, nofollow" /> на мусорные страницы это только полдела, нужно теперь дать увидеть роботу этот тег. Если в robots.txt у вас есть директива Disallow: *?, для запрета на сканирование мусорных страниц с GET-параметрами, то робот сканировать такую страницу не будет, а вот проиндексировать может, если на нее есть внешняя либо что скорее внутренняя ссылка. Поэтому в индексе может оказаться запись непосредственно о существовании самого URL, как констатация факта. Содержимое же страницы, и главное любые meta-теги, в индекс добавлено не будет, потому что сама страница не парсилась.
Получается чтобы дать роботу просканировать такую страницу, нужно снять запрет на это в robots.txt. Запрет был снят, но хер там был года. Последняя версия robots.txt от 17.07, когда был добавлен новый шаблон. Вчера 26.07 хотел проверить, обновился ли robots.txt, днем ранее я как раз удалил директиву, но данные от 17.07, до сих пор. Я по наивности думал что robots.txt сканируется роботом каждый день, как и sitemap. Решил закинуть URL с robots.txt на переиндексацию, оказалось он вообще не в индексе. Вот это поворот. Это при том что с какой-то же периодичностью он то все таки обновлялся, а сейчас чет приуныл.
Прописал да и все, ну и каноникал поставил соответствующую страницу.
Делается это на php.
как это делается я знаю, а зачем так делать, какой мотив, смысл, логика на худой конец?
вот есть у меня 10 страниц пагинации, я либо:
а). уникализирую их через мета-теги, чтобы они не считались дублями, и добавлю им каноникал, чтобы они вес не тянули с первой страницы ... и при таком раскладе они будут в индексе, и будут по сути рудиментами-костылями - страницы в индексе как-бы есть, но толк от них какой непонятно, есть ли он вообще.
б). наглухо закрою страницы от индексации через ноуиндекс, и тогда проблема уникализации вообще не будет стоять, ну и каноникал накину, потому что страницы уже в индексе, и пока они не выпали из него, каконикал нужен чтобы вес не дербавить на всех.
вот и был вопрос, какой способ выбрать, и главное почему? ... может есть какие-то подводные камни или не очевидные моменты.... вас здесь сеошников куча на ветке, но никто даже не понял сути вопроса)) .. это печально... то ли у вас квалификация низкая, то ли просто не знаете ... как обычно
что значит ползут ?
в смысле товары меняются в категории, в смысле порядок их меняется?
у вас походу своя версия английского...
Какой вопрос, такой и ответ. Откуда отвечающему знать, что у вас какие-то там плагины? Есть множество сайтов, где целевой контент формируется GET-параметрами. Это у Вас какое-то извращенное представление, будто Вы - пуп земли, и у всех должно быть всё так же, как и у вас.
да вообще спрашивал За и Против уникализации / закрытия от индекса страниц пагинации ... пока никто не ответил ))
У вас бренд - это хлам, а у других - целевой запрос.
я не спорю что там у других ... я спрашиваю по СВОЕЙ ситуации ... я НЕ говорю за сео-садомазеров и прочих извращенцев ... я традиционный сео-гетеросексуал, у меня для отработки брендов есть плагин Бренды, который формирует нормальные посадочные страницы с URL по маске domain.com.ua/brand/someBrand ... а для отработки компилятивных запросов (категория+бренд) у меня есть плагин Теги, который формирует посадочные страницы с URL по маске domain.com.ua/tag/someTag
... мда, почему когда у вас сеошников что-то спрашиваешь вы всегда мыслите какими-то извращениями? Вы таким образом пытаетесь набить себе цену, типа не все так просто? ))))
А кто делает страницы пагинации без уникализации мета-данных? О_о
может кто-то и делает ...
а зачем делать их уникализированными? если тупо добавить в тайтл и дескрипшн по маске номер страницы - так это изначально просто костыль, потому что робот не понимал и до сих пор не понимает что страницы пагинации производны от главной страницы..
я как-то ставил плагин и заморачивался с нормальной кастомизацией - у меня у каждой страницы пагинации был свой уникальный URL, мета-теги и сео-текст (под конкретный запрос) ... никакого положительного эффекта я от этой заморочки не заметил .. правда сайт был в стадии роста .... в любом случае есть более изящные способы отработать поисковые запросы по категории товаров, если все они не "влазят" на одну страницу
С тем контентом, который должен быть в индексе.
ну, может быть есть какие-то кривые самописные CMS или какие-то извращенцы которые используют страницы с GET-параметрами как посадочные, но у меня это обычный хлам ...
/?page=2&sort=name&order=asc /?brend=354&sort=rating&order=desc /?sort=price&order=as
/?page=2&sort=name&order=asc
/?brend=354&sort=rating&order=desc
/?sort=price&order=as
Неестественно.
какие же страницы с GET-параметрами достойны помилования ?