- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Расскажите это разработчикам популярных CMS
Готовые CMS, даже популярные, никогда не выделялись хорошей оптимизацией под поиск. Всегда приходится вносить изменения, которые по вашему мнению необходимы для успешного продвижения. Потому к любой CMS лучше применять толкового программера и делать из сайта конфетку :)
Добрый день, посоветуйте имеет ли смысл закрывать данные страницы robots.txt для гугла?
Смотря какие страницы. Если это рубрики, архивы, метки, то да. Если это страницы с объемными и хорошими комментариями к статьям, т.е. количество нового контента больше чем дублируемая часть, то нет.
Ну я как бы о том же, только клиенты этого не знают и берут то что им впарили из коробки вроде битрикса или magento. Н у и потом на форуме такие топики создают...
Для клиентов толковые программисты - это доп затраты=) Как говорится, скупой платит дважды...
Страницы паджинации надо обязательно закрывать!
P.S.: а паджинация - это что? 🤪
Ну я как бы о том же, только клиенты этого не знают и берут то что им впарили из коробки вроде битрикса или magento. Н у и потом на форуме такие топики создают...
Для клиентов толковые программисты - это доп затраты=) Как говорится, скупой платит дважды...
Речь о том как сделать максимально эффективно, а не о жадности клиентов :)
Из всех вариантов решения проблемы пагинации, я остановился на следующем:
Во всех пагинированных страницах (у которых в урле ?page=...) в метатеге robots прописал "noindex, follow". Таким образом я запрещаю помещать пагинированные страницы в индекс, но разрешаю пауку проходить по ссылкам на них. В итоге и дублей нет, и на индексации товаров не сказывается.
Выбрал этот вариант как самый простой. У меня Друпал и всё это дело делается автоматом в хуке.
Из всех вариантов решения проблемы пагинации, я остановился на следующем:
Во всех пагинированных страницах (у которых в урле ?page=...) в метатеге robots прописал "noindex, follow". Таким образом я запрещаю помещать пагинированные страницы в индекс, но разрешаю пауку проходить по ссылкам на них. В итоге и дублей нет, и на индексации товаров не сказывается.
Выбрал этот вариант как самый простой. У меня Друпал и всё это дело делается автоматом в хуке.
Самый просто вариант не всегда самый правильный )
Помимо того, noindex - не запрет, а просьба. Часто страницы все равно оказываются в выдаче )
Расскажите это разработчикам популярных CMS
Они, как и ТС, тоже ищут не там, где потеряли, а там, где светлее.
На данный момент мы вносим улучшения в один проект. Нам посоветовали закрыть паджинацию и я тоже не уверен, что это правильное решение.
Подскажите если закрыть данные страницы в гугле, то получаеться что также это выкинет с индекса страницы продукта и посты со второй странице и дальше?
Также интересует помогает ли закрытие нерелевантных страниц в роботс.ткст увеличению веса страниц которые остаються в индексе?
Привет верующим в советы.
Ваши затруднения описываются вопросом: Если монтировкой по голове, то шнурки развяжутся?
Закрывать или не закрывать — зависит не от того, это страницы пагинации или какие-то ещё. Если на страницах есть дублирование, то их лучше закрыть (позаботившись об индексации в сайтмапе). Иначе... очень умный Гугл умеет выкидывать из индекса продвигаемую https://www.google.com/search?q=site%3Awww.yandex.ru%2Fm&filter=0 оставив мусор. Т.е. лучше самому думать о том... как поведёт себя бот, а не ждать от него неожиданностей.
Лучше исходить из того — какие советчики пациента видели?
Помимо того, noindex - не запрет, а просьба. Часто страницы все равно оказываются в выдаче )
Роботы подчиняются тегу noindex в теле html. Об этом прописано во всех доках яши и гугла. У меня ни разу закрытые подобным образом урлы не оказывались в индексе. Разве что mail.ru пофиг на эти теги и робот.тхт.
Роботы подчиняются тегу noindex в теле html. Об этом прописано во всех доках яши и гугла. У меня ни разу закрытые подобным образом урлы не оказывались в индексе. Разве что mail.ru пофиг на эти теги и робот.тхт.
"У меня ни разу" - не значит, что такого нет вообще, значит вам повезло. На моих сайтах и анализируемых мной, замечала подобное. Это не значит, что noindex вообще не работает, просто он не является запретом. Это скорее просьба к боту "пожалуйста, не тяни ты это в индекс, не хочу я его там видеть" :) А как бот решит - кто знает ))