- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день. Очень интересует вопрос, почему некоторые сайты (!Занимающие лидирующие места!) ставят следующий тег
<meta name="robots" content="noindex,follow,noodp,noydir" />
на страницах со второй до последней (т.е на первой его нет, а на 2.3.4.5 и т.д он есть).
Для чего блокируют индексацию этих страниц? Можете объяснить?
Для чего блокируют индексацию этих страниц? Можете объяснить?
А зачем они в индексе вы не скажете?
Может на них есть уникальный контент полезный для ПС?
А зачем они в индексе вы не скажете?
Может на них есть уникальный контент полезный для ПС?
Главное тогда чтоб все страницы успели попасть в индекс через первую.
Значит стоит закрыть.
А как посоветуете закрыть, через роботс Disallow: */page/* будет ли тот же эффект как и от тега в первом посте?
ifx, Закрывать как вам удобнее, разницы нет. Главное что бы они были закрыты.
А как посоветуете закрыть, через роботс Disallow: */page/* будет ли тот же эффект как и от тега в первом посте?
я где-то читал что через тег robots более правильно, ну а вообще делайте как нравится, обычно всем проще резе robots.txt
Главное тогда чтоб все страницы успели попасть в индекс через первую.
вы же понимаете, что если страницы попали в индекс и потом были закрыты от индексации, то они из индекса выпадают
---------- Добавлено 23.08.2016 в 04:08 ----------
на страницах со второй до последней (т.е на первой его нет, а на 2.3.4.5 и т.д он есть).
имеется в виду что страница категории товаров разбита на несколько и первая индексируется, а "нечеткие дубли" (страницы пагинации) закрыты от индексации, так?
имеется в виду что страница категории товаров разбита на несколько и первая индексируется, а "нечеткие дубли" (страницы пагинации) закрыты от индексации, так?
Сайт информационный и да страницы пагинации закрыты
на страницах со второй до последней (т.е на первой его нет, а на 2.3.4.5 и т.д он есть).
Для чего блокируют индексацию этих страниц? Можете объяснить?
Речь идёт про страницы пагинации? Если да, то закрывают для того, чтобы не плодить частичные дубли. В то же время на 2-й и последующих страницах есть ссылки на карточки товара - их нужно проиндексировать.
- Если страницы пагинации закрыты в роботс.ткст, то пойдет ли по ним робот и сможет проиндексировать карточки? Есть ли возможность их вообще закрыть, не закрыв ничего лишнего, в плане образования урла?
- Если страницы пагинации закрывать после индексации карточек, то что потом делать при массовом добавлении новых карточек?
Есть ли возможность их вообще закрыть, не закрыв ничего лишнего, в плане образования урла?
использовать символ доллара
или - также запрещает индексировать страницу /konfety/shokolad - запрещает индексировать только страницу /konfety- Если страницы пагинации закрывать после индексации карточек, то что потом делать при массовом добавлении новых карточек?
использовать символ доллара) либо <meta name="robots" content="noindex, follow"/> на страницах пагинации, робот тогда страницу пагинации не будет индексировать, а на карточки товаров или другие ссылки которые есть на странице перейдет и проиндексирует
использовать символ доллара) либо <meta name="robots" content="noindex, follow"/> на страницах пагинации, робот тогда страницу пагинации не будет индексировать, а на карточки товаров или другие ссылки которые есть на странице перейдет и проиндексирует
каноникал же
каноникал же
я бы и каноникал и закрытие ненужных страниц от индексации использовал, так вернее))
поисковики бывает на данные теги "забивают", надо смотреть что в индекс попадает.
была фишка этой зимой - заметил что по https копия чужого сайта образовалась (из-за косячного хостера), прописал в каноникалах что везде должно быть http без s и все равно левая копия из индекса не выпала. так что после каждого апа желательно проверять, что новое появилось в индексе